viernes, 27 de noviembre de 2009

MICOTOXINAS EN LOS ALIMENTOS

Micotoxinas en alimentos:
Una actualización


Las micotoxinas son sustancias producidas por determinados hongos filamentosos como producto de su metabolismo secundario. Estos metabolitos pueden contaminar los alimentos o los piensos, o las materias primas utilizadas para su elaboración, originando un grupo de trastornos y enfermedades, denominadas micotoxicosis, y que resultan tóxicos para el hombre y los animales. Hoy en día se considera que un 25% de las cosechas mundiales de cereales se encuentran intoxicadas por micotoxinas.

El libro, cuenta con grandes especialistas en el campo de la micotoxicología de todo el mundo, estructurándose en dos partes.

La primera parte aborda aspectos generales como son la toxicidad y evaluación de riesgos, las especies productoras de micotoxinas, los factores determinantes en la producción de estos compuestos, así como un repaso general sobre las técnicas analíticas, las medidas de control de calidad, descontaminación/detoxificación y los aspectos legislativos.

La segunda parte trata de cada una de las principales micotoxinas, profundizando en las características, toxicología, incidencia, ingesta diaria y los principales métodos de descontaminación/detoxificación de estas micotoxinas en alimentos.

En términos generales, el riesgo de intoxicación aguda por micotoxinas en el hombre es bajo o moderado en comparación a intoxicaciones de origen microbiológico o por contaminantes químicos. No obstante, en la exposición crónica y teniendo en cuenta la severidad de las lesiones crónicas (especialmente el cáncer), las micotoxinas presentan mayor riesgo tóxico que los contaminantes de origen antropogénicos, aditivos alimentarios y plaguicidas.

Riesgo que se ve aumentado porque la mayoría de las veces la presencia de estas micotoxinas es simultánea a otras, favoreciendo un efecto sinérgico en su acción sobre el organismo y de esta manera aumentando su toxicidad.

A pesar de las luchas y esfuerzos para controlar la contaminación fúngica, los hongos toxicogenicos son ubicos en la naturaleza y aparecen regularmente en las alimentos de todo el mundo debido a la infestación agrícola susceptible, tales como: granos, nueces y frutas.

Primordialmente existen miles de micotoxinas, pero solo unas cuantas determinadas presentan un desafío importante para la inocuidad alimentaria. La flora fúngica natural asociada con los alimentos esta denominada por tres géneros: aspergillus, Fusarium y penicillium los cuales pueden incluir especies comensales así como patógenas.

El ergotismo es una de las micotoxinas más antiguas identificadas en humanos. Esta micotoxina representa un grupo de alcaloides que crecen sobre la inflorescencia de algunas gramíneas, tales como trigo y centeno.


IMPACTO DE LAS MICOTOXINAS
Los factores que pueden influir en la producción de hongos toxigénicos son:

1.Factores biológicos: son aquellas cosechas compatibles y susceptibles al desarrollo de hongos, a los cuales llamamos Micotoxinas.

2.Infestación por insectos y pájaros: Tienen influencia en el desarrollo de Micotoxinas como la humedad, temperatura y los daños ocasionados por los insectos y pájaros.

3.Cosecha caracterizada por su temperatura, humedad, madurez del grano, daño mecánico, su detección y diversificación.

4.Almacenamiento: Se deben considerar varios factores como la infraestructura, temperatura ambiental, humedad, ventilación, condensación, presencia de insectos o plagas, limpieza, tiempo de almacenaje, detección y movimiento.

5.Impacto económico: se estima que el 25% de las cosechas a nivel mundial son afectadas anualmente por Micotoxinas que causan problemas reduciendo la capacidad nutritiva del cereal en los alimentos, aumentan los costos de producción y mortalidad e incrementan la susceptibilidad a las enfermedades infecciosas.

Micotoxinas que impactan en la producción y manufactura de alimentos.
Paulina

Damascos, uvas, duraznos, manzanas, peras, aceitunas, cereales y jugos con baja acidez son los commodities mas comúnmente infectadas por los patógenos que producen paulina (speijers, 2004) la paulina no se encuentra en las frutas intactas debido a que es el daño de la superficie de la fruta la que la hace vulnerable a la infección por penicillium.

Históricamente el jugo de manzana ha sido un producto de alta preocupación con respecto a la contaminación con paulina. Por esa razón muchas de las investigaciones sobre la estabilidad de la paulina durante el procesamiento de alimentos se han focalizado en el jugo de manzana.

PRODUCCIÓN DE MICOTOXINAS.
Los hongos productores de micotoxinas al agotar su sustrato, sus reservas de nitrógeno y fósforo, tienen inhibida la síntesis proteica, se acumulan cetoácidos y ácido pirúvico tóxicos para los hongos y se activan las enzimas productoras de micotoxinas.

Dentro de los factores que afectan al crecimiento del hongo y su producción de toxinas podemos citar:

FÍSICOS: Las temperaturas de crecimiento por lo general no crecen por debajo de los 15ºC, aunque hay excepciones (aspergillus glaucus), lesiones mecánicas en el alimento favorecen la invasión

QUÍMICOS: estimulantes (metales, ClNa...)

BIOLÓGICOS: flora competitiva: aspergillus níger, nocardia o flora que metaboliza toxinas.

Ocratoxina
La ocratoxina A (OTA) es una micotoxina producida por diversos hongos
(De las especies Penicillium y Aspergillus).

Aparece de forma natural, en el mundo entero, en toda una serie de productos vegetales, tales como cereales, granos de café, cacao y frutos desecados. Se ha detectado su presencia en alimentos a base de cereales, el café, el vino, la cerveza y el zumo de uva, pero también en productos de origen animal, como los riñones de cerdo.

La ocratoxina A es una micotoxina con propiedades carcinógenas, nefrotóxicas, teratógenas, inmunotóxicas y, posiblemente, neurotóxicas, es encontrado en alimentos seco tales como pescados secos y ahumados, granos de soja, garbanzos y nueces.

Aflatoxinas
Las aflatoxinas son un grupo de sustancias producidas por algunos hongos en pequeña cantidad, como metabolitos secundarios. Pertenecen al grupo de las micotoxinas.

Son de gran importancia en la industria de cereales almacenados, ya que su potencial de toxicidad es muy elevado, pueden provocar la muerte de cualquier ser vivo que consuma algún cereal infectado con alguna de las toxinas conocidas.

Las aflatoxinas pueden contaminar muchos cultivos, incluyendo maní, maíz, semilla de algodón, nuez de brasil, pistachos, especias con una amplia contaminación en las regiones calidas y húmedas del mundo.

Fumonisinas
Las fumonisinas son producidas por los patógenos del maíz Fusarium verticillioides y f. proliferatum, y a muy bajos niveles por alternaría en la prodreudumbre negra del tallo en tomates, espárragos y ajo (seefelder y otros 1992)

Las fumonisinas son altamente solubles en agua, a diferencia de todas las otras micotoxinas de alimentos, debido a que son aminas primarias con un grupo alquilo en solo una de las tres posiciones de enlace del nitrógeno con dos grupos tricarbarbalilicos, los cual contribuye a su hidrosolubilidad.

Bioterrorismo
Es el término utilizado para definir el empleo criminal de microorganismos patógenos, toxinas o sustancias dañinas contra la población con el propósito de generar enfermedad, muerte, pánico y terror.

Debido al número de micotoxinas- las cuales pueden ser letales en dosis relativamente bajas y pueden ser cultivadas y desarrolladas en una amplia gama de variedad de granos-la posibilidad de una contaminación deliberada de commodities y alimentos por micotoxinas debería tenerse en cuenta por la industria alimentaria al desarrollar sus planes de defensa.

Es utilizado también para denominar la introducción en un país de material biológico con agentes fitopatógenos, enfermedades cuarentenarias, insumos químicos o cualquier otro tipo de material que atente contra la vida y la salud de las personas.

Evaluación de riesgo
La evaluación de riesgo de los peligros para la salud humana asociados con microtoxinas tiene que basarse sobre extrapolaciones de datos de toxicidad obtenidos en modelos animales y en evaluaciones de exposición humana. Los avances en la estimación estadística de la incertidumbre permiten extrapolaciones cada vez más relevantes.

ESTUDIANTE DE TURISMO .Junior Alexander cruz .

SEGUNDA LEY DE NEWTON

SEGUNDA LEY DE NEWTON

A continuación hablaré sobre la segunda ley de Newton, como sabemos la Primera ley de Newton nos dice que para que un cuerpo altere su movimiento es necesario que exista algo que provoque dicho cambio. Ese algo es lo que conocemos como fuerzas. Estas son el resultado de la acción de unos cuerpos sobre otros.

La Segunda ley de Newton se encarga de cuantificar el concepto de fuerza. Nos dice que la fuerza neta aplicada sobre un cuerpo es proporcional a la aceleración que adquiere dicho cuerpo. La constante de proporcionalidad es la masa del cuerpo, de manera que podemos expresar la relación de la siguiente manera: F = m a

Esta segunda ley explica qué ocurre si sobre un cuerpo en movimiento actúa una fuerza. En ese caso, la fuerza modificará el estado de movimiento, cambiando la velocidad en módulo o dirección.


SEGUNDA LEY DE NEWTON O LEY DE FUERZA

El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime.

La segunda ley explica qué ocurre si sobre un cuerpo en movimiento actúa una fuerza. En ese caso, la fuerza modificará el estado de movimiento, cambiando la velocidad en módulo o dirección.


En concreto, los cambios experimentados en la cantidad de movimiento de un cuerpo son proporcionales a la fuerza motriz y se desarrollan en la dirección de esta; esto es, las fuerzas son causas que producen aceleraciones en los cuerpos. Consecuentemente, hay relación entre la causa y el efecto, esto es, la fuerza y la aceleración están relacionadas.

En términos matemáticos esta ley se expresa mediante la relación: Donde vecp es la cantidad de movimiento y vecF la fuerza total. Bajo la hipótesis de constancia de la masa y pequeñas velocidades, puede reescribirse más sencillamente como:

que es la ecuación fundamental de la dinámica, donde la constante de proporcionalidad distinta para cada cuerpo es su masa de inercia, pues las fuerzas ejercidas sobre un cuerpo sirven para vencer su inercia, con lo que masa e inercia se identifican. Es por esta razón por la que la masa se define como una medida de la inercia del cuerpo.


Por tanto, si la fuerza resultante que actúa sobre una partícula no es cero, esta partícula tendrá una aceleración proporcional a la magnitud de la resultante y en dirección de ésta.

La expresión anterior así establecida es válida tanto para la mecánica clásica como para la mecánica relativista, a pesar de que la definición de momento lineal es diferente en las dos teorías: mientras que la dinámica clásica afirma que la masa de un cuerpo es siempre la misma, con independencia de la velocidad con la que se mueve, la mecánica relativista establece que la masa de un cuerpo aumenta al crecer la velocidad con la que se mueve dicho cuerpo.

De la ecuación fundamental se deriva también la definición de la unidad de fuerza o newton (N). Si la masa y la aceleración valen 1, la fuerza también valdrá 1; así, pues, el newton es la fuerza que aplicada a una masa de un kilogramo le produce una aceleración de 1 m/s². Se entiende que la aceleración y la fuerza han de tener la misma dirección y sentido.

La importancia de esa ecuación estriba sobre todo en que resuelve el problema de la dinámica de determinar la clase de fuerza que se necesita para producir los diferentes tipos de movimiento: rectilíneo uniforme (m.r.u), circular uniforme (m.c.u) y uniformemente acelerado (m.r.u.a).

La Segunda ley de Newton se encarga de cuantificar el concepto de fuerza. Nos dice que la fuerza neta aplicada sobre un cuerpo es proporcional a la aceleración que adquiere dicho cuerpo. La constante de proporcionalidad es la masa del cuerpo, de manera que podemos expresar la relación de la siguiente manera:

F = m a

Tanto la fuerza como la aceleración son magnitudes vectoriales, es decir, tienen, además de un valor, una dirección y un sentido. De esta manera, la Segunda ley de Newton debe expresarse como:

F = m a

La unidad de fuerza en el Sistema Internacional es el Newton y se representa por N. Un Newton es la fuerza que hay que ejercer sobre un cuerpo de un kilogramo de masa para que adquiera una aceleración de 1 m/s2, o sea,

1 N = 1 Kg · 1 m/s2

La expresión de la Segunda ley de Newton que hemos dado es válida para cuerpos cuya masa sea constante. Si la masa varia, como por ejemplo un cohete que va quemando combustible, no es válida la relación F = m · a. Vamos a generalizar la Segunda ley de Newton para que incluya el caso de sistemas en los que pueda variar la masa.

Para ello primero vamos a definir una magnitud física nueva. Esta magnitud física es la cantidad de movimiento que se representa por la letra p y que se define como el producto de la masa de un cuerpo por su velocidad, es decir:

p = m · v

La cantidad de movimiento también se conoce como momento lineal. Es una magnitud vectorial y, en el Sistema Internacional se mide en Kg·m/s . En términos de esta nueva magnitud física, la Segunda ley de Newton se expresa de la siguiente manera:

La Fuerza que actúa sobre un cuerpo es igual a la variación temporal de la cantidad de movimiento de dicho cuerpo, es decir,

F = dp/dt

De esta forma incluimos también el caso de cuerpos cuya masa no sea constante. Para el caso de que la masa sea constante, recordando la definición de cantidad de movimiento y que como se deriva un producto tenemos:

F = d(m·v)/dt = m·dv/dt + dm/dt ·v

Como la masa es constante

dm/dt = 0

y recordando la definición de aceleración, nos queda

F = m a

tal y como habiamos visto anteriormente.

Otra consecuencia de expresar la Segunda ley de Newton usando la cantidad de movimiento es lo que se conoce como Principio de conservación de la cantidad de movimiento. Si la fuerza total que actua sobre un cuerpo es cero, la Segunda ley de Newton nos dice que:

0 = dp/dt

es decir, que la derivada de la cantidad de movimiento con respecto al tiempo es cero.


Esto significa que la cantidad de movimiento debe ser constante en el tiempo (la derivada de una constante es cero). Esto es el Principio de conservación de la cantidad de movimiento: si la fuerza total que actua sobre un cuerpo es nula, la cantidad de movimiento del cuerpo permanece constante en el tiempo.


Ya finalizado este material La Segunda Ley de Newton se puede resumir como sigue: La aceleración de un objeto es directamente proporcional a la fuerza neta que actúa sobre él, e inversamente proporcional a su masa.


La dirección de la aceleración es la misma de la fuerza aplicada.

a representa la aceleración, m la masa y F la fuerza neta. Por fuerza neta se entiende la suma vectorial de todas las fuerzas que actúan sobre el cuerpo

De acuerdo a la segunda ley de Newton, la aceleración de un objeto es proporcional a la fuerza F actuando sobre ella e inversamente proporcional a su masa m. Expresando F en newtons obtenemos a--para cualquier aceleración, no solamente para la caída libre--de la siguiente forma a = F/m

FUERZA Y POTENCIA.

Potencia
Potencia es la rapidez con la que se realiza un trabajo. Siempre se realiza trabajo cuando una fuerza provoca movimiento. Si se emplea una fuerza mecania para levantar o mover una pesa, se hace trabajo. Sin embargo, la fuerza ejercida sin causar movimiento como la fuerza de un resorte en tensión entre dos objetos inmoviles no es trabajo

En física, potencia es la cantidad de trabajo efectuado por unidad de tiempo. Esto es equivalente a la velocidad de cambio de energía en un sistema o al tiempo empleado en realizar un trabajo, según queda definido por:

Donde
• P es la potencia.
• W es la energía total o trabajo.
• t es el tiempo.

Potencia mecánica
La potencia mecánica es la potencia transmitida mediante la acción de fuerzas físicas de contacto o elementos mecánicos asociados como palancas, engranajes, etc. El caso más simple es el de una partícula libre sobre la que actúa una fuerza variable. De acuerdo con la dinámica clásica esta potencia viene dada por la variación de su energía cinética o trabajo realizado por unidad de tiempo.

POTENCIA ES RITMO DE TRABAJO
Se puede decir que la potencia mecánica también es igual al producto de la Fuerza ejercida, debido al peso de la carga, por la velocidad lineal de subida de ésta expresada en metros por segundo.
Es el trabajo realizado por una maquina o una persona en un determinado intervalo de tiempo

P=(W/t)
Potencia eléctrica Anteriormente se ha aprendido que la fuerza eléctrica ejercida es tensión o voltaje y que esa tensión o voltaje produce el flujo de corriente, o sea el movimiento de electrones. Una tensión entre dos puntos que no causa flujo de corriente es similar al resorte tenso que no se mueve y, por lo tanto, no produce trabajo. Siempre que la tensión provoca movimiento de electrones, se realiza un trabajo al desplazar a los electrones de un punto a otro. La rapidez con que este trabajo se realiza se denomina como POTENCIA ELÉCTRICA.

Para realizar la misma cantidad total de trabajo puede emplearse distinto tiempo. Por ejemplo, se puede mover de un punto a otro un número dado de electrones en un segundo o en una hora, dependiendo de la velocidad con que se los mueva; el trabajo total realizado será el mismo en ambos casos. Si se hace todo el trabajo total realizado será el mismo en ambos casos. Si se hace todo el trabajo en un segundo, mas energía eléctrica se transformara por segundo en calor o luz si esa cantidad total de trabajo se hiciese en una hora.

Unidades de potencia eléctrica.
La unidad basica de potencia es el Watt, que equivale a voltaje multiplicado por intensidad de corriente, o sea la cantidad de coulombs de electrones que pasan por un punto en un segundo. Esto representa la velocidad con que esta realizando el trabajo de mover electrones en un material. El símbolo P indica potencia eléctrica. He aquí como se determina la potencia utilizada en una resistencia
En un circuito consiste en una resistencia de 15 ohms con una fuente de tensión de 45 volts, pasan 3 amperes por la resistencia. La potencia empleada puede hallarse multiplicando tensión por intensidad de corriente.

Potencia de los equipos eléctricos
Cuando la resistencia utiliza demasiada potencia, la rapidez con la que la energía eléctrica se convierte en calor aumenta y la temperatura de la resistencia sube. Si la temperatura se eleva demasiado, el material puede modificar su composición, dilatarse, contraerse o quemarse por el calor. Por ese motivo todos los equipos eléctricos indican la cantidad máxima de watts que soportan. Esta indicación puede expresarse en watts o, a menudo, en terminos de tensión e intensidad de corriente maximas, las cuales en realidad indican la capacidad en watts.

Las resistencias también vienen identificadas en watts, además de los ohms de resistencia. Existen resistencias de iguales valores en ohms, pero distinto wattaje. Las resistencias de carbon por ejemplo, se hacen comúnmente de 1/3, 1/2, 1 y 2 watts. Cuanto mayor sea el tamaño de la resistencia de carbon, mayor será su capacidad en watts, dado que habra una cantidad mas grande de material para absorber y transmitir el calor fácilmente.

Para resistencias de más de 2 watts se emplean las de alambre bobinado. Estas resistencias se hacen para disipaciones de 5 a 200 watts, habiendo tipos especiales para potencias superiores a 200 watts.

Potencia sonora: La potencia del sonido se puede considerar en función de la intensidad y la superficie


Potencia hidroeléctrica: es aquella que utiliza energía hidráulica para la generación de energía eléctrica. Son el resultado actual de le evolución de los antiguos molinos que aprovechaban la corriente de los ríos para mover una rueda.


Potencia acústica: La potencia acústica es la cantidad de energía (potencia) radiada por una fuente determinada en forma de ondas por unidad de tiempo.
Potencia acústica

La potencia acústica es la cantidad de energía por unidad de tiempo (potencia) emitida por una fuente determinada en forma de ondas sonoras.
La potencia acústica viene determinada por la propia amplitud de la onda, pues cuanto mayor sea la amplitud de la onda, mayor es la cantidad de energía (potencia acústica) que genera.
• Véase: Amplitud (sonido)

La potencia acústica es un valor intrínseco de la fuente y no depende del local donde se halle, el valor no varia por estar en un local reverberante o en uno seco.

La medición de la potencia puede hacerse o en la fuente o a cierta distancia de la fuente, midiendo la presión que las ondas inducen en el medio de propagación. En cada caso respectivo se utilizaría la unidad de potencia acústica (que en el SI es el vatio, W) o la unidad de presión (que en el SI es el pascal, Pa).

La percepción que tiene el hombre de esa potencia acústica es lo que conocemos como volumen, que viene dado por el llamado nivel de potencia acústica que viene dado en decibelios (dB)

Unidades de potencia
Sistema métrico (SI), la más frecuente es el vatio (W) y sus múltiplos: 1000 W = 1 kW (kilovatio); 1 000 000 W = 1 MW (megavatio), aunque también pueden usarse combinaciones equivalentes como el voltiamperio.

Sistema inglés, caballo de fuerza (HP), cuya equivalencia es 1 HP = 745,69987158227022

Sistema técnico de unidades, Kilográmetro por segundo

Sistema cegesimal: ergio por segundo (erg/s)

Fuerza Se entiende como fuerza a cualquier acción o influencia que es capaz de modificar el estado de movimiento de un cuerpo, es decir, de imprimirle una aceleración a ese cuerpo.

La fuerza es todo aquello que causa cambio en la velocidad o forma de los objetos, a veces confudida con esfuerzo o energia. La fuerza es una magnitud que se puede medir en la unidad SI el Newton (N). Se puede definir como una magnitud vectorial capaz de deformar los cuerpos (efecto estático), modificar su velocidad o vencer su inercia y ponerlos en movimiento si estaban inmóviles.

Suele ser común hablar de la fuerza aplicada sobre un objeto, sin tener en cuenta al otro objeto con el que está interactuando; en este sentido la fuerza puede definirse como toda acción o influencia capaz de modificar el estado de movimiento o de reposo de un cuerpo (imprimiéndole una aceleración que modifica el módulo, dirección, o sentido de su velocidad), o bien de deformarlo.

Historia El concepto de fuerza fue descrito originalmente por Arquímedes, si bien únicamente en términos estáticos. Galileo Galilei (1564 - 1642) sería el primero en dar una definición dinámica del mismo, opuesta a la de Arquímedes.

Se considera que el primero que formuló matemáticamente la moderna definición de fuerza fue Isaac Newton, aunque también usó el término latino vis 'fuerza' para otros conceptos diferentes. Además, Isaac Newton postuló que las fuerzas gravitatorias variaban según la ley de la inversa del cuadrado.

Charles Coulomb fue el primero que comprobó que la interacción entre cargas eléctricas o electrónicas puntuales variaba también según la ley de la inversa del cuadrado (1784).

Henry Cavendish fue el primero que logró medir experimentalmente (1798) la fuerza de la gravedad entre dos masas pequeñas, usando una balanza de torsión, gracias a lo cual pudo encontrarse el valor de la constante de la gravitación universal y, por tanto, pudo calcular la masa de la Tierra. Con el desarrollo de la electrodinámica cuántica a mediados del siglo XX se constató que "fuerza" era una magnitud puramente macroscópica, surgida de la conservación del momento para partículas elementales.

Por esa razón las llamadas fuerzas fundamentales suelen denominarse "interacciones fundamentales".
Arquímedes y otros creyeron que el "estado natural" de los objetos materiales en la esfera terrestre era el reposo y que los cuerpos tendían, por sí mismos, hacia ese estado si no se actuaba sobre ellos de ningún modo. De acuerdo con Aristóteles la perseverancia del movimiento requería siempre una causa eficiente (algo que parece concordar con la experiencia cotidiana, donde las fuerzas de fricción nos pasan desapercibidas).

De hecho, la primera ley de Newton, que contradice la tesis de Arquímedes, y según la cual un objeto sobre el que no actúa ninguna fuerza permanece en movimiento inalterado, no resulta obvia para la mayoría de personas que la oyen por primera vez.
Fuerzas fundamentales

Fuerzas fundamentales son aquellas fuerzas del Universo que no se pueden explicar en función de otras más básicas. Las fuerzas o interacciones fundamentales conocidas hasta ahora son cuatro: gravitatoria, electromagnética, nuclear fuerte y nuclear débil.
La gravitatoria es la fuerza de atracción que una masa ejerce sobre otra, y afecta a todos los cuerpos. La gravedad es una fuerza muy débil y de un sólo sentido, pero de alcance infinito.

La fuerza electromagnética afecta a los cuerpos eléctricamente cargados, y es la fuerza involucrada en las transformaciones físicas y químicas de átomos y moléculas. Es mucho más intensa que la fuerza gravitatoria, puede tener dos sentidos (atractivo y repulsivo) y su alcance es infinito.

La fuerza o interacción nuclear fuerte es la que mantiene unidos los componentes de los núcleos atómicos, y actúa indistintamente entre dos nucleones cualesquiera, protones o neutrones. Su alcance es del orden de las dimensiones nucleares, pero es más intensa que la fuerza electromagnética.

Fuerza centrífuga
Fuerza centrífuga es la que tiende a alejar los objetos del centro de rotación del eje mediante la velocidad tangencial, perpendicular al radio, en un movimiento circular.

La fuerza centrífuga es una de las fuerzas ficticias que parecen actuar sobre un objeto cuando su movimiento se describe según un sistema de referencia en rotación.

La fuerza centrífuga es producto de la reacción ejercida por un objeto que describe un recorrido circular sobre el objeto que causa ese movimiento curvo, según la tercera Ley de Newton.

En realidad es sólo el efecto de la inercia en un movimiento circular, no es causada por la interacción de otro cuerpo físico.

La fuerza centrífuga surge cuando analizamos el movimiento de un objeto desde un sistema de referencia no inercial, o acelerado, que describe un movimiento circular uniforme.

La fuerza centrífuga será el producto de la masa por la aceleración centrífuga, en un sistema de referencia no inercial.

Fuerza elástica
La fuerza elástica es la ejercida por objetos tales como resortes, que tienen una posición normal, fuera de la cual almacenan energía potencial y ejercen fuerzas.

La fuerza elástica se calcula como:

F = - k ΔX

ΔX = Desplazamiento desde la posición normal
k = Constante de elasticidad del resorte
F = Fuerza elástica

Unidades de fuerza
En los Sistemas Internacional y Cegesimal, el hecho de definir la fuerza a partir de la masa y la aceleración, magnitudes en las que intervienen masa, longitud y tiempo, hace que sea una magnitud derivada . No ocurre así en el Sistema Técnico, donde la fuerza es una Unidad Fundamental. Este hecho atiende a las evidencias que posee la física actual, expresado en el concepto de Fuerzas Fundamentales, y se ve reflejado en el Sistema Internacional de Unidades.
Sistema Internacional de Unidades (SI)
Newton

Sistema Técnico de Unidades
kilo-fuerza, kilogramo-fuerza (kgf) o kilopondio (kp)
o Gramo fuerza (gf)
• Sistema Cegesimal de Unidades
o Dina
• Sistema Anglosajón de Unidades
o Poundal
o KIP
o Libra fuerza (lbf)

Equivalencias
1 Newton = 100 000 dinas
1 kilogramo-fuerza = 9,80665 Newton
1 Libra fuerza ≡ 4,448222 Newton (kg•m/s²)

¿Qué son fuerzas de contacto?
R.- Las fuerzas de contacto son ciertos tipos de fuerzas que se presentan en los objetos que interactúan y que estan físicamente en contacto (Por ejemplo: la fuerza con que se empuja un objeto, la fuerza de fricción, etc.)

¿Qué es una fuerza normal?
Si dos cuerpos están en contacto, de acuerdo al principio de acción y reacción (Newton), se ejercen fuerzas iguales en magnitud, pero en sentido contrario, sobre ambos cuerpos. Esta fuerza debido al contacto se llama fuerza normal y es siempre perpendicular a la superficie que se encuentra en contacto.

Fuerza, masa y aceleración (2da Ley de Newton)
La segunda Ley de Newton dice que la aceleración de un cuerpo es proporcional a la resultante de fuerzas sobre el actuando y a su masa.

La ecuación para determinar estos valores es:



F = Fuerza
m = Masa del cuerpo
a = Aceleración

La masa se mide en kilogramos y es una constante propia de cada cuerpo que nos indica, en este caso, de qué manera varía la velocidad del cuerpo ante la aplicación de la fuerza. Hay que tener en cuenta que la unidad básica de masa es el Kilogramo (y no el gramo), por lo tanto para realizar las cuentas se debe pasar a kg.
Composición y descomposición de fuerzas
Muchas veces tenemos dist

HISTORIA DE LA INFORMATICA

ORÍGENES DE LA INFORMÁTICA

En el siglo XVII, el famoso filósofo y científico francés Blaise Pascal, a muy temprana edad, inventaba lo que él mismo denomino "máquina calculadora " que, aunque claramente más rudimentaria que las actuales, ya definía las trazas de la mecánica de éstas. El principio de funcionamiento era similar al del primitivo ábaco, es decir, utilizaba el sistema de numeración decimal, pero las primitivas varillas del tradicional instrumento chino habían sido construidas por un número determinado de ruedas dentadas, de forma que al rodar diez dientes de la primera rueda avanzaba un diente de la segunda; al rodar diez dientes de la segunda lo hacía un diente de la tercera y así sucesivamente.

Evidentemente, dicha máquina sólo servía para sumar y restar y además, dado que utilizaba la única tecnología imperante en la época basada en supuestos mecánicos, su utilización era más bien tediosa y estaba sujeta a numerosos inconvenientes. De hecho, el aspecto fundamental de esta primera máquina de calcular no radicaba en su utilidad (a menudo resultaba mucho más rápido realizar las operaciones manualmente) sino en el concepto mismo de máquina calculadora que Pascal, con la perspectiva de futuro que caracteriza a todos los grandes genios de la humanidad, supo entrever en su complicado artefacto.

Inspirados en este diseño, un siglo más tarde otros científicos trataron de emular a Pascal y construyeron máquinas que, como la del científico alemán Mattieu Hahn en el año 1779, podía realizar las cuatro operaciones aritméticas fundamentales. Sin embargo el matemático alemán Leibniz quien se adelantó más al desarrollo y construyó, por primera vez, una máquina que sirviera de enlace entre un problema y su resolución. Así, el científico alemán diseño un artefacto que permitía, además de las tradicionales sumas y restas, la realización de operaciones de multiplicación y división mediante adiciones y substracciones acumuladas respectivamente. Podemos asegurar que en ese momento había nacido la primera máquina calculadora propiamente dicha.

La máquina, igualmente basada en supuestos mecánicos, utilizaba cilindros dentados con diferentes longitudes en sus incisiones a las que se ajustaban otros engranajes de tamaño más reducido que representaban cada uno una cifra del multiplicando. Cada vuelta completa del conjunto de los engranajes largos aumentaba en una cifra el número indicado por los engranajes cortos o multiplicandos. El número de vueltas efectuadas por los engranajes largos determinaba por su parte la cifra asociada al multiplicador. Por supuesto, la importancia de este artefacto desde su perspectiva actual radica más en su concepción como instrumento matemático de trabajo en sí (en este caso la idea de la máquina como puente entre un problema y su resolución) que en la realidad de sus principios mecánicos de funcionamiento.

LAS MÁQUINAS DE BABBAGE

En el siglo XIX surge una personalidad fundamental que impulsa con su entrega y dedicación la creación de estas máquinas matemáticas, como él mismo solía denominarlas. Esta personalidad no es otra que la del científico Charles Babbage. Constreñido por una parte por las limitaciones tecnológicas de la época y por otra por el poco interés de la sociedad por este tipo de máquinas, Babbage encontró numerosos obstáculos para sacar adelante sus proyectos. La complejidad mecánica que presuponían la mayoría de sus diseños chocaba frontalmente con las posibilidades reales de la tecnología en su época y además su limitada disponibilidad económica le privaba en la mayoría de las ocasiones de llevar adelante sus ideas. De esta forma, uno de sus primeros y más ambiciosos proyectos, la construcción de la máquina diferencial en el año 1823, tuvo que ser finalmente abandonado por problemas económicos tras cinco años de intenso trabajo.

Sin desanimarse por ello, Charles Babbage se embarcó en otro proyecto que el mismo denominó máquina analítica. La peculiaridad de esta máquina estriba en que podía utilizar la parte de los resultados obtenidos en su utilización como datos de entrada para realizar nuevos cálculos con ellos. En palabras textuales del propio científico era una máquina que se mordía la cola. Una serie de engranajes y manivelas permitían ajustar los datos de entrada y las operaciones a realizar con ella y obtener los resultados.

La máquina analítica utilizaba tarjetas perforadas para mecanizar su trabajo. Desgraciadamente, tampoco en esta ocasión Babbage llegó a ver perfeccionado y culminado su proyecto. Pero la principal novedad de su invento surgía en el concepto de máquina programable aunque, no obstante, se tratará siempre de un programa externo al artefacto en cuestión.

AVANCES TECNOLÓGICOSA

Pesar del extraordinario talento con que contaban estos primeros científicos, a menudo sus ingenios encontraba barreras en la época. Hubo que esperar hasta mediados del siglo XIX para que el descubrimiento de la electricidad supusiera el inicio del paulatino declive de la mecánica como ciencia utilizada fundamentalmente en la construcción de las máquinas calculadoras. Así, a partir de entonces, las ruedas y engranajes fueron sustituidos por nuevos componentes que, aunque también de tamaño considerable, simplificaban el diseño de las máquinas. En este sentido, una de las primeras máquinas que utilizó los principios de la electricidad y que tuvo cierta difusión en su época fue la máquina tabuladora de Herman Hollerit. Esta, de grandes dimensiones y dotada de un panel frontal con numerosas esferas numéricas, permitió establecer un cómputo fiable del resultado de las elecciones norteamericanas en el año 1890 y en breve lapso de tiempo de diez días, lo que supuso una auténtica revolución para la época, puesto que el proceso de recuento de votos tradicionalmente llevaba aparejado un tiempo muy superior y un margen de error igualmente elevado.

UN PROGRAMA INTERNO DE LAS MÁQUINAS

La idea de Babbage de construir una máquina que fuera capaz de utilizar como datos de entrada parte de los resultados ofrecidos tras los procesos de cálculos que se efectuaban en su interior supuso un adelanto decisivo en la forma de enfocar la forma idónea de actuar que deberían tener las máquinas precursoras de los modernos ordenadores. Fue Jhon Von Newman quien, ya en el siglo XX, propuso la idea de la utilización de un programa interno a la máquina mediante el cual ésta fuera capaz de realizar dichas tareas de forma automática. La tecnología electrónica aún era incipiente y Von Newman hubo de conformarse con establecer únicamente el fundamento teórico de lo que sería el primer ordenador.


Sin embargo, su idea proliferó y, a medida que la electrónica fue afianzándose a nuestra sociedad, llegó el momento en el que,
en 1944, en plena Segunda Guerra Mundial, un grupo de científicos construyó en los Estados Unidos un prototipo de lo que podemos considerar fue el primer ordenador: el ENIAC (Electronic Numerical Integrator And Calculator). Este ingenio fue ideado expresamente para la realización de tablas destinadas al cálculo de trayectorias de proyectiles, debido a la intención con la que se creó.

LOS PRIMEROS ORDENADORES DE MEDIADOS DE SIGLO

Es lógico pensar que, ante el ambiente bélico en el que se encontraba inmerso el mundo, las primeras aplicaciones de este primitivo ordenador estuvieran orientadas a tareas de este tipo. Finalizada la guerra, los científicos descubrieron las enormes posibilidades de este tipo de máquinas y a este primer ordenador le siguieron otros como el MANIAC-I y el MANIAC-II, con lo que definitivamente dio comienzo la salida de la frenética carrera de su diseño y creación, carrera que aún hoy nuestros días no ha finalizado y que sólo el futuro podrá mostrar hasta dónde nos conducirá.

EVOLUCIÓN DEL ORDENADOR

A mediados de los años 50, la utilización del ordenador con fines prácticos en dinámicas repetitivas o de tipo mecánico, en las que no es necesaria la intervención de una mente que evaluara posibilidades o arrojara un criterio, era ya una realidad indiscutible y, a medida que la tecnología electrónica avanzaba, esos avances eran incluidos en el diseño de las máquinas a fin de reducir su tamaño y ampliar su capacidad y posibilidades. Así, atendiendo a estos criterios y desde estos primeros tiempos hasta nuestros días, podemos distinguir seis generaciones de ordenadores.

PRIMERA GENERACIÓN

La primera generación de ordenadores se caracterizó por reunir todos aquellos ingenios que incluían válvulas como elemento electrónico fundamental en su diseño. Las válvulas electrónicas son cápsulas de cristal al vacio que en su interior albergaban sustancias químicas de reacción. Estas sustancias, al ser sometidas al paso de la corriente eléctrica se comportaban de modo especial e influían en ella. Debido a su tamaño considerable, si se tiene en cuenta que a menudo estas primeras máquinas podían albergar hasta 6000 válvulas, cabe pensar en las enormes dimensiones que se llegaba a alcanzar así como en los numerosos problemas de mantenimiento que ocasionaba su funcionamiento continuado.

El tiempo medio entre averías, excesivamente pequeño, unido a los grandes sistemas de refrigeración necesarios para atenuar en la medida de lo posible el aumento de temperatura de esta máquinas, eran los problemas técnicos fundamentales que llevaba asociados, pero en el aspecto teórico, la lógica secuencial en la que se basaban para tratar los datos no les permitía efectuar rápidamente las operaciones ni realizar varias tareas de forma simultánea. El uso de este tipo de equipos no pudo mantenerse durante mucho tiempo, ya que en raras ocasiones era rentable.

SEGUNDA GENERACIÓN

Los sistemas pertenecientes a esta segunda generación se caracterizaban principalmente por la utilización del transistor como elemento principal de sus diseños en substitución de las incómodas y poco fiables válvulas. El transistor es un componente electrónico formado por pequeños fragmentos de ciertos elementos químicos como el Silicio o el Carbono que, por sus propiedades eléctricas, facilitan u obstaculizan el paso de la corriente eléctrica por su interior. Ofrecen las mismas prestaciones que las válvulas electrónicas con la ventaja añadida de que su tamaño es mucho más reducido. Al utilizar este componente como elemento fundamental de su fabricación, el tamaño de las máquinas disminuyó notablemente, consiguiéndose a la vez mayor rapidez y fiabilidad en los procesos al reducirse el tiempo medio entre averías.

Respecto a su lógica de funcionamiento, los ordenadores pertenecientes a la segunda generación utilizaban el denominado proceso por lotes. Eran capaces de separar los procesos de cálculos y de recepción y salida de datos y efectuarlos de forma simultánea, pero no podían actuar del mismo modo con los programas.

TERCERA GENERACIÓN

El perfeccionamiento de los componentes electrónicos y su cada vez menor tamaño desembocó en su día en la fabricación del primer circuito integrado que desbancó al transistor de su posición hegemónica. En el interior de un circuito integrado se encuentran multitud de componentes electrónicos con funciones diversas y que, convenientemente conectados entre sí, permiten anual sus funciones. Resistencias, condensadores, diodos y transistores conviven y complementan sus posibilidades en el interior de este pequeño pero eficaz componente.

Respecto a su lógica de funcionamiento, el avance de esta tercera generación respecto a su predecesora fue gigantesco, puesto que estas máquinas podían ejecutar varios programas simultáneamente. Este concepto no es otro que el de la multiprogramación y que, a diferencia del proceso por lotes que necesita de un ordenador auxiliar que descargue de trabajo al ordenador principal, se basa en la existencia de dos zonas bien diferenciadas de la memoria de un único ordenador en la que se ejecutan las acciones desempeñadas anteriormente por ambos. Así, al ordenador le basta con llamar al programa necesario en cada momento detenido momentáneamente la ejecución del programa en curso, y retomar ésta en el punto exacto en el que fue abandonado cuando concluye la ejecución del programa auxiliar invocado.

CUARTA GENERACIÓN

Durante la década de los años 70, la integración de los componentes superándose a si misma hasta que surgió en el mercado el primer microprocesador o chip, dándose paso así a la denominada era de la microelectrónica. Los niveles alcanzados en la integración de los componentes electrónicos (hay que tener en cuenta que un microprocesador puede incluir miles de estos componentes) permitió reducir el tamaño e incrementar extraordinariamente la velocidad operativa de los equipos. Así, en poco tiempo, los ordenadores comenzaron a dejar de ser patrimonio exclusivo de unas pocas empresas y usuarios privilegiados que podían beneficiarse de sus servicios hasta que la irrupción en el mercado del ordenador personal consagró definitivamente a estas máquinas como herramientas de trabajo indispensables para el hombre a cualquier nivel y en la mayor parte de las ramas laborables en las que se desenvuelva. Es en esta generación en la que nos hallamos inmersos en la actualidad, cuando, de forma paralela a la mayor difusión de la informática como ciencia y a la evolución de los componentes físicos de los ordenadores y de sus equipos asociados, surge con fuerza el desarrollo de todo tipo de programas. Esto es así hasta el punto que la confección de los mismos implica cada vez mayor complejidad al buscarse siempre una mayor potencia en sus prestaciones y un mejor aprovechamiento de los recursos de la máquina. Todo esto constituye por sí mismo un auténtico desafío a la imaginación y capacidad de diseño de los actuales profesionales de la informática.

LA QUINTA GENERACIÓN: SUPERORDENADORES

Esta quinta generación se prevé en un futuro inmediato hasta tal punto que se puede decir que hoy en día una potentísima gama de ordenadores aguarda impaciente su irrupción en nuestras vidas. Los grandes avances alcanzados en inteligencia artificial, robótica, cibernética y el desarrollo de los sistemas expertos traerán consigo no sólo el uso definitivo y generalizado del ordenador como principal aliado del hombre, sino que (y en esto estriba la venidera revolución informática), mostrará al mundo cómo los descendientes de los primitivos ingenios concebidos en su día por Pascal, Babbage, Newman y tantos otros, pueden emular a su creadores entendiendo su propio lenguaje y realizando por sí mismo razonamientos deductivos y lógicos que en algunos casos superarán incluso las capacidades de los seres que los crearon, aunque lo más probable es que nunca consigan igualarse en imaginación y espíritu de lucha a sus creadores.

Evolución y origen de la computadora

Antecedentes históricos del computador

La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en tecnología aplicada.

La máquina analítica

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos.

Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna.

La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.


Considerada por muchos como predecesora directa de los modernos dispositivos de cálculo, la máquina diferencial era capaz de calcular tablas matemáticas. Este corte transversal muestra una pequeña parte de la ingeniosa máquina diseñada por el matemático británico Charles Babbage en la década de 1820. La máquina analítica, ideada también por Babbage, habría sido una auténtica computadora programable si hubiera contado con la financiación adecuada. Las circunstancias quisieron que ninguna de las máquinas pudiera construirse durante su vida, aunque esta posibilidad estaba dentro de la capacidad tecnológica de la época. En 1991, un equipo del Museo de las Ciencias de Londres consiguió construir una máquina diferencial Nº 2 totalmente operativa, siguiendo los dibujos y especificaciones de Babbage.

Los primeros ordenadores

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.

Ordenadores electrónicos

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

La primera computadora electrónica comercial, la UNIVAC I, fue también la primera capaz de procesar información numérica y textual. Diseñada por J. Presper Eckeret y John Mauchly, cuya empresa se integró posteriormente en Remington Rand, la máquina marcó el inicio de la era informática. En la ilustración vemos una UNIVAC. La computadora central está al fondo, y en primer plano puede verse al panel de control de supervisión. Remington Rand entregó su primera UNIVAC a la Oficina del Censo de Estados Unidos en 1951.

El Eniac

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.

A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

Circuitos integrados

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.


Los circuitos integrados han hecho posible la fabricación del microordenador o microcomputadora. Sin ellos, los circuitos individuales y sus componentes ocuparían demasiado espacio como para poder conseguir un diseño compacto. También llamado chip, un circuito integrado típico consta de varios elementos como reóstatos, condensadores y transistores integrados en una única pieza de silicio. En los más pequeños, los elementos del circuito pueden tener un tamaño de apenas unos centenares de átomos, lo que ha permitido crear sofisticadas computadoras del tamaño de un cuaderno. Una placa de circuitos de una computadora típica incluye numerosos circuitos integrados interconectados entre sí.

Evolución cronológica de la computadora

La necesidad del hombre de encontrar métodos rápidos y efectivos para resolver sus cálculos y su gran inventiva lo llevaron a través de los siglos al desarrollo de lo que hoy conocemos como la computadora. Desde el ábaco hasta las computadoras personales éstas han tenido una gran influencia en diferentes aspectos de nuestro diario vivir, mejorando nuestra calidad de vida y abriendo puertas que antes eran desconocidas para la humanidad.

500 AC: Ábaco

El primer calculador de tipo mecánico fue ideado en Babilonia alrededor de 500 A.C. Este dispositivo mecánico llamado ábaco consistía de un sistema de barras y poleas con lo cual se podían efectuar diferentes tipos de cálculos aritméticos.

1622: Oughtred presenta la regla de cálculo

Hacia 1622, el matemático inglés William Oughtred utilizó los recién inventados logaritmos para fabricar un dispositivo que simplificaba la multiplicación y la división. Consistía en dos reglas graduadas unidas que se deslizaban una sobre otra.

1642: Primera máquina de sumar

El matemático y filósofo francés Blaise Pascal tenía diecinueve años cuando construyó la primera máquina sumadora del mundo en 1642. Utilizaba un engranaje de ruedas dentadas como contadores. El dispositivo llevaba 1 automáticamente al llegar a las decenas y también podía emplearse para restar.

1834: Primera computadora digital programable

En 1834 el científico e inventor inglés Charles Babbage realizó los esquemas de un dispositivo el cual llamó máquina analítica lo que en realidad era una computadora de propósitos generales. Esta máquina era programada por una serie de tarjetas perforadas que contenían datos o instrucciones las cuales pasaban a través de un dispositivo de lectura, eran almacenados en una memoria y los resultados eran reproducidos por unos moldes. Esta máquina superaba por mucho la tecnología de su tiempo y nunca se terminó.

1850: Primera sumadora de teclado

El teclado apareció en una máquina inventada en Estados Unidos en 1850. Podían sumarse una secuencia de dígitos pulsando unas teclas sucesivas. Cada tecla alzaba un eje vertical a cierta altura y la suma quedaba indicada por la altura total.

Generaciones Del Computador

A.C. (Antes De Ordenadores)

    • Dotación física
      • Mecánico
    • Software lógica
      • Tarjetas o cinta de papel perforadas
      • Ada Lovelace - primer programador (c. 1840)
      • Máquina de Turing y Church-Turing Thesis (1937)
    • Máquinas Especiales
      • Ábaco
      • Pascaline - Primera Máquina calculadora Automática (1642)
      • Telar De Telar jacquar (1805)
      • Motores De Babbage
        • Motor De Diferencia (1822)
        • Motor Analítico (1832)
      • Hollerith
        • Máquina De Tabulación (Censo 1890 De los E.E.U.U.)
        • La máquina de tabulación de las formas Co. (1896) - se convierte la IBM en 1924
      • Máquina sumadora De Burroughs (1888)

Primera generación: C. 1940 – 1955

    • Dotación física
      • Tubos de vacío
      • Tambores magnéticos
      • Cinta magnética (cerca del extremo de la generación)
    • Software lógica
      • Programas en terminología de la informática
      • Programas en lenguaje ensamblador (cerca del extremo de la generación)
      • 1946 - von Neumann publica el documento sobre el ordenador salvado del programa
      • 1950 - Prueba de Turing publicada
    • Máquinas Especiales
      • 1940 - ABC (1r ordenador electrónico)
      • 1940 - Robinson (1r ordenador, código operacionales de Enigma de las grietas)
      • 1946 - Calculadora numérica de ENIAC (1r completamente electrónico, de uso general)
      • 1950 - UNIVAC I (1r ordenador comercialmente acertado)

Segunda generación: C. 1955 – 1964

    • Dotación física
      • Transistores
        • 1947 - Convertido
        • 1955 - Calculadora Del Transistor De IBM's
      • Minicomputadoras
      • Discos magnéticos
      • Tarjetas de circuito impresas
    • Software lógica
      • Lenguajes de alto nivel
        • 1956 - FORTRAN
        • 1959 - COBOL
    • Máquinas Especiales
      • 1963 -- PDP 8 (1ra minicomputadora)

Tercera generación: C. 1964 – 1971

    • Dotación física
      • Circuitos integrados (c. desarrollada 1958)
      • Familias de los ordenadores (1964 - IBM 360)
      • 1970 - Diskette
    • Software lógica
      • Los programas entraron directamente en los ordenadores
      • Lenguajes de un nivel más alto (1965 - BASIC)
      • Sistemas operativos
      • Timesharing
    • Máquinas Especiales
      • 1964 -- Serie del sistema 360 de la IBM (1ra familia de ordenadores)

Cuarta generación: C. 1971 – PRESENTE

    • Dotación física
      • 1971 - Viruta del microprocesador introducida en los E.E.U.U. por Intel
      • Microordenadores (Ordenadores Personales)
      • Integración De la Escala Grande (LSI)
      • Integración De la Escala Muy Grande (Vlsi)
    • Software lógica
      • Programación estructurada
      • Conjuntos de aplicación
      • Sistemas del windowing (interfaces utilizador gráficos -- GUIs)
      • Programas conviviales
    • Máquinas Especiales
      • 1971 - (1ra calculadora de bolsillo)
      • 1975 -- Altaír 8800 (1ra PC)
      • 1977 -- Manzana I (hágala usted mismo kit)
      • 1978 -- Manzana II (premontada)
      • 1981 -- PC DE LA IBM
      • 1984 -- Impermeable

Tendencias generales

    • Dotación física
      • Más pequeño
      • Más rápidamente
      • Más barato
      • Más disponible
    • Software lógica
      • Más grande (más exige en la dotación física: CPU, memoria, espacio de disco, etc.)
      • Más fácil utilizar
      • Mejore El Diseño
      • Más barato
      • Más disponible

Ordenadores analógicos

El ordenador analógico es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En el típico ordenador analógico electrónico, las entradas se convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada.

Ordenadores digitales

Todo lo que hace un ordenador digital se basa en una operación: la capacidad de determinar si un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, el ordenador puede reconocer sólo dos estados en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto tan sencillo lo que lo convierte en una maravilla de la tecnología moderna. Las velocidades del ordenador se miden en megahercios, o millones de ciclos por segundo. Un ordenador con una velocidad de reloj de 100 MHz, velocidad bastante representativa de un microordenador o microcomputadora, es capaz de ejecutar 100 millones de operaciones discretas por segundo. Las microcomputadoras de las compañías pueden ejecutar entre 150 y 200 millones de operaciones por segundo, mientras que las supercomputadoras utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de ciclos por segundo.

La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica sólo un conmutador cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores enlazados como una sola unidad, el ordenador aumenta el número de operaciones que puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON (3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8 conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí el término bit de datos en cada ciclo.

Un grupo de ocho bits se denomina byte y cada uno contiene 256 configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un carácter o un símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar datos binarios, en este caso el número decimal 210 , o bien estar indicando al ordenador que compare los datos almacenados en estos conmutadores con los datos almacenados en determinada ubicación del chip de memoria. El desarrollo de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de datos ha permitido incrementar la velocidad de los ordenadores. La colección completa de configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits simultáneos y el tamaño de los conjuntos de instrucciones, continúa incrementándose a medida que avanza el desarrollo de los ordenadores digitales modernos.

Evolución futura

Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.

Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.

Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes.

IMPORTANCIA DE LA INFORMATICA

La informática es la disciplina que estudia el tratamiento automático de la información utilizando dispositivos electrónicos y sistemas computacionales. También es definida como el procesamiento de la información en forma automática. Para esto los sistemas informáticos deben realizar las siguientes tres tareas básicas:

  • Entrada: Captación de la información digital.
  • Proceso: Tratamiento de la información.
  • Salida: Transmisión de resultados binarios.

El vocablo Informática es proveniente del francés informatique, acuñado por el ingeniero Philippe Dreyfus en 1962, es acrónimo de las palabras information y automatique. En lo que hoy conocemos como informática confluyen muchas de las técnicas y de las máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar sus capacidades de memoria, de pensamiento y de comunicación.

La informática se aplica a numerosas y variadas áreas, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, robots industriales, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia, etc.

En la informática convergen los fundamentos de las ciencias de la computación, la programación y las metodologías para el desarrollo de software, la arquitectura de computadores, las redes de datos como Internet, la inteligencia artificial, así como determinados temas de electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas.

El concepto de informática viene dado de la conjunción de dos palabras: Información y automática. En tanto que en inglés se habla de conceptos tales como Computer Science, Electronic Data Processing, etc...

Según la el Diccionario de la Real Academia Española RAE es el: “Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores“.

Podemos entender el concepto de informática como aquella disciplina encargada del estudio de métodos, procesos, técnicas, desarrollos y su utilización en ordenadores (computadores) con el fin de almacenar, procesar y transmitir información y datos en formato digital.

Entre las funciones principales de la informática se cuenta las siguientes:

  • Creación de nuevas especificaciones de trabajo.
  • Desarrollo e implementación de sistemas informáticos.
  • Sistematización de procesos.
  • Optimización de los métodos y sistemas informáticos existentes.

La informática es aplicada en numerosos y diversos sectores de la actividad humana. Sólo algunos de ellos son: medicina, biología, física, química, meteorología, ingeniería, industria, investigación científica, comunicaciones, arte, nivel empresarial (gestión), etc.

En los inicios del procesado de información, con la informática sólo se facilitaba los trabajos repetitivos y monótonos del área administrativa, gracias a la automatización de esos procesos, ello trajo como consecuencia directa una disminución de los costes y un incremento en la producción.

Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática; en un enorme abanico que cubre desde las más simples cuestiones hogareñas hasta los más complejos cálculos científicos.

Una de la utilidades más importantes de la informática es facilitar información en forma oportuna y veraz, lo cual, por ejemplo, puede tanto facilitar la toma de decisiones a nivel gerencial como permitir el control de procesos críticos.

ESTUDIANTE JOSE A VARDEZ DE SISTEMA