Mostrando entradas con la etiqueta EN SISTEMA. Mostrar todas las entradas
Mostrando entradas con la etiqueta EN SISTEMA. Mostrar todas las entradas

viernes, 27 de noviembre de 2009

HISTORIA DE LA INFORMATICA

ORÍGENES DE LA INFORMÁTICA

En el siglo XVII, el famoso filósofo y científico francés Blaise Pascal, a muy temprana edad, inventaba lo que él mismo denomino "máquina calculadora " que, aunque claramente más rudimentaria que las actuales, ya definía las trazas de la mecánica de éstas. El principio de funcionamiento era similar al del primitivo ábaco, es decir, utilizaba el sistema de numeración decimal, pero las primitivas varillas del tradicional instrumento chino habían sido construidas por un número determinado de ruedas dentadas, de forma que al rodar diez dientes de la primera rueda avanzaba un diente de la segunda; al rodar diez dientes de la segunda lo hacía un diente de la tercera y así sucesivamente.

Evidentemente, dicha máquina sólo servía para sumar y restar y además, dado que utilizaba la única tecnología imperante en la época basada en supuestos mecánicos, su utilización era más bien tediosa y estaba sujeta a numerosos inconvenientes. De hecho, el aspecto fundamental de esta primera máquina de calcular no radicaba en su utilidad (a menudo resultaba mucho más rápido realizar las operaciones manualmente) sino en el concepto mismo de máquina calculadora que Pascal, con la perspectiva de futuro que caracteriza a todos los grandes genios de la humanidad, supo entrever en su complicado artefacto.

Inspirados en este diseño, un siglo más tarde otros científicos trataron de emular a Pascal y construyeron máquinas que, como la del científico alemán Mattieu Hahn en el año 1779, podía realizar las cuatro operaciones aritméticas fundamentales. Sin embargo el matemático alemán Leibniz quien se adelantó más al desarrollo y construyó, por primera vez, una máquina que sirviera de enlace entre un problema y su resolución. Así, el científico alemán diseño un artefacto que permitía, además de las tradicionales sumas y restas, la realización de operaciones de multiplicación y división mediante adiciones y substracciones acumuladas respectivamente. Podemos asegurar que en ese momento había nacido la primera máquina calculadora propiamente dicha.

La máquina, igualmente basada en supuestos mecánicos, utilizaba cilindros dentados con diferentes longitudes en sus incisiones a las que se ajustaban otros engranajes de tamaño más reducido que representaban cada uno una cifra del multiplicando. Cada vuelta completa del conjunto de los engranajes largos aumentaba en una cifra el número indicado por los engranajes cortos o multiplicandos. El número de vueltas efectuadas por los engranajes largos determinaba por su parte la cifra asociada al multiplicador. Por supuesto, la importancia de este artefacto desde su perspectiva actual radica más en su concepción como instrumento matemático de trabajo en sí (en este caso la idea de la máquina como puente entre un problema y su resolución) que en la realidad de sus principios mecánicos de funcionamiento.

LAS MÁQUINAS DE BABBAGE

En el siglo XIX surge una personalidad fundamental que impulsa con su entrega y dedicación la creación de estas máquinas matemáticas, como él mismo solía denominarlas. Esta personalidad no es otra que la del científico Charles Babbage. Constreñido por una parte por las limitaciones tecnológicas de la época y por otra por el poco interés de la sociedad por este tipo de máquinas, Babbage encontró numerosos obstáculos para sacar adelante sus proyectos. La complejidad mecánica que presuponían la mayoría de sus diseños chocaba frontalmente con las posibilidades reales de la tecnología en su época y además su limitada disponibilidad económica le privaba en la mayoría de las ocasiones de llevar adelante sus ideas. De esta forma, uno de sus primeros y más ambiciosos proyectos, la construcción de la máquina diferencial en el año 1823, tuvo que ser finalmente abandonado por problemas económicos tras cinco años de intenso trabajo.

Sin desanimarse por ello, Charles Babbage se embarcó en otro proyecto que el mismo denominó máquina analítica. La peculiaridad de esta máquina estriba en que podía utilizar la parte de los resultados obtenidos en su utilización como datos de entrada para realizar nuevos cálculos con ellos. En palabras textuales del propio científico era una máquina que se mordía la cola. Una serie de engranajes y manivelas permitían ajustar los datos de entrada y las operaciones a realizar con ella y obtener los resultados.

La máquina analítica utilizaba tarjetas perforadas para mecanizar su trabajo. Desgraciadamente, tampoco en esta ocasión Babbage llegó a ver perfeccionado y culminado su proyecto. Pero la principal novedad de su invento surgía en el concepto de máquina programable aunque, no obstante, se tratará siempre de un programa externo al artefacto en cuestión.

AVANCES TECNOLÓGICOSA

Pesar del extraordinario talento con que contaban estos primeros científicos, a menudo sus ingenios encontraba barreras en la época. Hubo que esperar hasta mediados del siglo XIX para que el descubrimiento de la electricidad supusiera el inicio del paulatino declive de la mecánica como ciencia utilizada fundamentalmente en la construcción de las máquinas calculadoras. Así, a partir de entonces, las ruedas y engranajes fueron sustituidos por nuevos componentes que, aunque también de tamaño considerable, simplificaban el diseño de las máquinas. En este sentido, una de las primeras máquinas que utilizó los principios de la electricidad y que tuvo cierta difusión en su época fue la máquina tabuladora de Herman Hollerit. Esta, de grandes dimensiones y dotada de un panel frontal con numerosas esferas numéricas, permitió establecer un cómputo fiable del resultado de las elecciones norteamericanas en el año 1890 y en breve lapso de tiempo de diez días, lo que supuso una auténtica revolución para la época, puesto que el proceso de recuento de votos tradicionalmente llevaba aparejado un tiempo muy superior y un margen de error igualmente elevado.

UN PROGRAMA INTERNO DE LAS MÁQUINAS

La idea de Babbage de construir una máquina que fuera capaz de utilizar como datos de entrada parte de los resultados ofrecidos tras los procesos de cálculos que se efectuaban en su interior supuso un adelanto decisivo en la forma de enfocar la forma idónea de actuar que deberían tener las máquinas precursoras de los modernos ordenadores. Fue Jhon Von Newman quien, ya en el siglo XX, propuso la idea de la utilización de un programa interno a la máquina mediante el cual ésta fuera capaz de realizar dichas tareas de forma automática. La tecnología electrónica aún era incipiente y Von Newman hubo de conformarse con establecer únicamente el fundamento teórico de lo que sería el primer ordenador.


Sin embargo, su idea proliferó y, a medida que la electrónica fue afianzándose a nuestra sociedad, llegó el momento en el que,
en 1944, en plena Segunda Guerra Mundial, un grupo de científicos construyó en los Estados Unidos un prototipo de lo que podemos considerar fue el primer ordenador: el ENIAC (Electronic Numerical Integrator And Calculator). Este ingenio fue ideado expresamente para la realización de tablas destinadas al cálculo de trayectorias de proyectiles, debido a la intención con la que se creó.

LOS PRIMEROS ORDENADORES DE MEDIADOS DE SIGLO

Es lógico pensar que, ante el ambiente bélico en el que se encontraba inmerso el mundo, las primeras aplicaciones de este primitivo ordenador estuvieran orientadas a tareas de este tipo. Finalizada la guerra, los científicos descubrieron las enormes posibilidades de este tipo de máquinas y a este primer ordenador le siguieron otros como el MANIAC-I y el MANIAC-II, con lo que definitivamente dio comienzo la salida de la frenética carrera de su diseño y creación, carrera que aún hoy nuestros días no ha finalizado y que sólo el futuro podrá mostrar hasta dónde nos conducirá.

EVOLUCIÓN DEL ORDENADOR

A mediados de los años 50, la utilización del ordenador con fines prácticos en dinámicas repetitivas o de tipo mecánico, en las que no es necesaria la intervención de una mente que evaluara posibilidades o arrojara un criterio, era ya una realidad indiscutible y, a medida que la tecnología electrónica avanzaba, esos avances eran incluidos en el diseño de las máquinas a fin de reducir su tamaño y ampliar su capacidad y posibilidades. Así, atendiendo a estos criterios y desde estos primeros tiempos hasta nuestros días, podemos distinguir seis generaciones de ordenadores.

PRIMERA GENERACIÓN

La primera generación de ordenadores se caracterizó por reunir todos aquellos ingenios que incluían válvulas como elemento electrónico fundamental en su diseño. Las válvulas electrónicas son cápsulas de cristal al vacio que en su interior albergaban sustancias químicas de reacción. Estas sustancias, al ser sometidas al paso de la corriente eléctrica se comportaban de modo especial e influían en ella. Debido a su tamaño considerable, si se tiene en cuenta que a menudo estas primeras máquinas podían albergar hasta 6000 válvulas, cabe pensar en las enormes dimensiones que se llegaba a alcanzar así como en los numerosos problemas de mantenimiento que ocasionaba su funcionamiento continuado.

El tiempo medio entre averías, excesivamente pequeño, unido a los grandes sistemas de refrigeración necesarios para atenuar en la medida de lo posible el aumento de temperatura de esta máquinas, eran los problemas técnicos fundamentales que llevaba asociados, pero en el aspecto teórico, la lógica secuencial en la que se basaban para tratar los datos no les permitía efectuar rápidamente las operaciones ni realizar varias tareas de forma simultánea. El uso de este tipo de equipos no pudo mantenerse durante mucho tiempo, ya que en raras ocasiones era rentable.

SEGUNDA GENERACIÓN

Los sistemas pertenecientes a esta segunda generación se caracterizaban principalmente por la utilización del transistor como elemento principal de sus diseños en substitución de las incómodas y poco fiables válvulas. El transistor es un componente electrónico formado por pequeños fragmentos de ciertos elementos químicos como el Silicio o el Carbono que, por sus propiedades eléctricas, facilitan u obstaculizan el paso de la corriente eléctrica por su interior. Ofrecen las mismas prestaciones que las válvulas electrónicas con la ventaja añadida de que su tamaño es mucho más reducido. Al utilizar este componente como elemento fundamental de su fabricación, el tamaño de las máquinas disminuyó notablemente, consiguiéndose a la vez mayor rapidez y fiabilidad en los procesos al reducirse el tiempo medio entre averías.

Respecto a su lógica de funcionamiento, los ordenadores pertenecientes a la segunda generación utilizaban el denominado proceso por lotes. Eran capaces de separar los procesos de cálculos y de recepción y salida de datos y efectuarlos de forma simultánea, pero no podían actuar del mismo modo con los programas.

TERCERA GENERACIÓN

El perfeccionamiento de los componentes electrónicos y su cada vez menor tamaño desembocó en su día en la fabricación del primer circuito integrado que desbancó al transistor de su posición hegemónica. En el interior de un circuito integrado se encuentran multitud de componentes electrónicos con funciones diversas y que, convenientemente conectados entre sí, permiten anual sus funciones. Resistencias, condensadores, diodos y transistores conviven y complementan sus posibilidades en el interior de este pequeño pero eficaz componente.

Respecto a su lógica de funcionamiento, el avance de esta tercera generación respecto a su predecesora fue gigantesco, puesto que estas máquinas podían ejecutar varios programas simultáneamente. Este concepto no es otro que el de la multiprogramación y que, a diferencia del proceso por lotes que necesita de un ordenador auxiliar que descargue de trabajo al ordenador principal, se basa en la existencia de dos zonas bien diferenciadas de la memoria de un único ordenador en la que se ejecutan las acciones desempeñadas anteriormente por ambos. Así, al ordenador le basta con llamar al programa necesario en cada momento detenido momentáneamente la ejecución del programa en curso, y retomar ésta en el punto exacto en el que fue abandonado cuando concluye la ejecución del programa auxiliar invocado.

CUARTA GENERACIÓN

Durante la década de los años 70, la integración de los componentes superándose a si misma hasta que surgió en el mercado el primer microprocesador o chip, dándose paso así a la denominada era de la microelectrónica. Los niveles alcanzados en la integración de los componentes electrónicos (hay que tener en cuenta que un microprocesador puede incluir miles de estos componentes) permitió reducir el tamaño e incrementar extraordinariamente la velocidad operativa de los equipos. Así, en poco tiempo, los ordenadores comenzaron a dejar de ser patrimonio exclusivo de unas pocas empresas y usuarios privilegiados que podían beneficiarse de sus servicios hasta que la irrupción en el mercado del ordenador personal consagró definitivamente a estas máquinas como herramientas de trabajo indispensables para el hombre a cualquier nivel y en la mayor parte de las ramas laborables en las que se desenvuelva. Es en esta generación en la que nos hallamos inmersos en la actualidad, cuando, de forma paralela a la mayor difusión de la informática como ciencia y a la evolución de los componentes físicos de los ordenadores y de sus equipos asociados, surge con fuerza el desarrollo de todo tipo de programas. Esto es así hasta el punto que la confección de los mismos implica cada vez mayor complejidad al buscarse siempre una mayor potencia en sus prestaciones y un mejor aprovechamiento de los recursos de la máquina. Todo esto constituye por sí mismo un auténtico desafío a la imaginación y capacidad de diseño de los actuales profesionales de la informática.

LA QUINTA GENERACIÓN: SUPERORDENADORES

Esta quinta generación se prevé en un futuro inmediato hasta tal punto que se puede decir que hoy en día una potentísima gama de ordenadores aguarda impaciente su irrupción en nuestras vidas. Los grandes avances alcanzados en inteligencia artificial, robótica, cibernética y el desarrollo de los sistemas expertos traerán consigo no sólo el uso definitivo y generalizado del ordenador como principal aliado del hombre, sino que (y en esto estriba la venidera revolución informática), mostrará al mundo cómo los descendientes de los primitivos ingenios concebidos en su día por Pascal, Babbage, Newman y tantos otros, pueden emular a su creadores entendiendo su propio lenguaje y realizando por sí mismo razonamientos deductivos y lógicos que en algunos casos superarán incluso las capacidades de los seres que los crearon, aunque lo más probable es que nunca consigan igualarse en imaginación y espíritu de lucha a sus creadores.

Evolución y origen de la computadora

Antecedentes históricos del computador

La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en tecnología aplicada.

La máquina analítica

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos.

Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna.

La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.


Considerada por muchos como predecesora directa de los modernos dispositivos de cálculo, la máquina diferencial era capaz de calcular tablas matemáticas. Este corte transversal muestra una pequeña parte de la ingeniosa máquina diseñada por el matemático británico Charles Babbage en la década de 1820. La máquina analítica, ideada también por Babbage, habría sido una auténtica computadora programable si hubiera contado con la financiación adecuada. Las circunstancias quisieron que ninguna de las máquinas pudiera construirse durante su vida, aunque esta posibilidad estaba dentro de la capacidad tecnológica de la época. En 1991, un equipo del Museo de las Ciencias de Londres consiguió construir una máquina diferencial Nº 2 totalmente operativa, siguiendo los dibujos y especificaciones de Babbage.

Los primeros ordenadores

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.

Ordenadores electrónicos

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

La primera computadora electrónica comercial, la UNIVAC I, fue también la primera capaz de procesar información numérica y textual. Diseñada por J. Presper Eckeret y John Mauchly, cuya empresa se integró posteriormente en Remington Rand, la máquina marcó el inicio de la era informática. En la ilustración vemos una UNIVAC. La computadora central está al fondo, y en primer plano puede verse al panel de control de supervisión. Remington Rand entregó su primera UNIVAC a la Oficina del Censo de Estados Unidos en 1951.

El Eniac

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.

A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

Circuitos integrados

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.


Los circuitos integrados han hecho posible la fabricación del microordenador o microcomputadora. Sin ellos, los circuitos individuales y sus componentes ocuparían demasiado espacio como para poder conseguir un diseño compacto. También llamado chip, un circuito integrado típico consta de varios elementos como reóstatos, condensadores y transistores integrados en una única pieza de silicio. En los más pequeños, los elementos del circuito pueden tener un tamaño de apenas unos centenares de átomos, lo que ha permitido crear sofisticadas computadoras del tamaño de un cuaderno. Una placa de circuitos de una computadora típica incluye numerosos circuitos integrados interconectados entre sí.

Evolución cronológica de la computadora

La necesidad del hombre de encontrar métodos rápidos y efectivos para resolver sus cálculos y su gran inventiva lo llevaron a través de los siglos al desarrollo de lo que hoy conocemos como la computadora. Desde el ábaco hasta las computadoras personales éstas han tenido una gran influencia en diferentes aspectos de nuestro diario vivir, mejorando nuestra calidad de vida y abriendo puertas que antes eran desconocidas para la humanidad.

500 AC: Ábaco

El primer calculador de tipo mecánico fue ideado en Babilonia alrededor de 500 A.C. Este dispositivo mecánico llamado ábaco consistía de un sistema de barras y poleas con lo cual se podían efectuar diferentes tipos de cálculos aritméticos.

1622: Oughtred presenta la regla de cálculo

Hacia 1622, el matemático inglés William Oughtred utilizó los recién inventados logaritmos para fabricar un dispositivo que simplificaba la multiplicación y la división. Consistía en dos reglas graduadas unidas que se deslizaban una sobre otra.

1642: Primera máquina de sumar

El matemático y filósofo francés Blaise Pascal tenía diecinueve años cuando construyó la primera máquina sumadora del mundo en 1642. Utilizaba un engranaje de ruedas dentadas como contadores. El dispositivo llevaba 1 automáticamente al llegar a las decenas y también podía emplearse para restar.

1834: Primera computadora digital programable

En 1834 el científico e inventor inglés Charles Babbage realizó los esquemas de un dispositivo el cual llamó máquina analítica lo que en realidad era una computadora de propósitos generales. Esta máquina era programada por una serie de tarjetas perforadas que contenían datos o instrucciones las cuales pasaban a través de un dispositivo de lectura, eran almacenados en una memoria y los resultados eran reproducidos por unos moldes. Esta máquina superaba por mucho la tecnología de su tiempo y nunca se terminó.

1850: Primera sumadora de teclado

El teclado apareció en una máquina inventada en Estados Unidos en 1850. Podían sumarse una secuencia de dígitos pulsando unas teclas sucesivas. Cada tecla alzaba un eje vertical a cierta altura y la suma quedaba indicada por la altura total.

Generaciones Del Computador

A.C. (Antes De Ordenadores)

    • Dotación física
      • Mecánico
    • Software lógica
      • Tarjetas o cinta de papel perforadas
      • Ada Lovelace - primer programador (c. 1840)
      • Máquina de Turing y Church-Turing Thesis (1937)
    • Máquinas Especiales
      • Ábaco
      • Pascaline - Primera Máquina calculadora Automática (1642)
      • Telar De Telar jacquar (1805)
      • Motores De Babbage
        • Motor De Diferencia (1822)
        • Motor Analítico (1832)
      • Hollerith
        • Máquina De Tabulación (Censo 1890 De los E.E.U.U.)
        • La máquina de tabulación de las formas Co. (1896) - se convierte la IBM en 1924
      • Máquina sumadora De Burroughs (1888)

Primera generación: C. 1940 – 1955

    • Dotación física
      • Tubos de vacío
      • Tambores magnéticos
      • Cinta magnética (cerca del extremo de la generación)
    • Software lógica
      • Programas en terminología de la informática
      • Programas en lenguaje ensamblador (cerca del extremo de la generación)
      • 1946 - von Neumann publica el documento sobre el ordenador salvado del programa
      • 1950 - Prueba de Turing publicada
    • Máquinas Especiales
      • 1940 - ABC (1r ordenador electrónico)
      • 1940 - Robinson (1r ordenador, código operacionales de Enigma de las grietas)
      • 1946 - Calculadora numérica de ENIAC (1r completamente electrónico, de uso general)
      • 1950 - UNIVAC I (1r ordenador comercialmente acertado)

Segunda generación: C. 1955 – 1964

    • Dotación física
      • Transistores
        • 1947 - Convertido
        • 1955 - Calculadora Del Transistor De IBM's
      • Minicomputadoras
      • Discos magnéticos
      • Tarjetas de circuito impresas
    • Software lógica
      • Lenguajes de alto nivel
        • 1956 - FORTRAN
        • 1959 - COBOL
    • Máquinas Especiales
      • 1963 -- PDP 8 (1ra minicomputadora)

Tercera generación: C. 1964 – 1971

    • Dotación física
      • Circuitos integrados (c. desarrollada 1958)
      • Familias de los ordenadores (1964 - IBM 360)
      • 1970 - Diskette
    • Software lógica
      • Los programas entraron directamente en los ordenadores
      • Lenguajes de un nivel más alto (1965 - BASIC)
      • Sistemas operativos
      • Timesharing
    • Máquinas Especiales
      • 1964 -- Serie del sistema 360 de la IBM (1ra familia de ordenadores)

Cuarta generación: C. 1971 – PRESENTE

    • Dotación física
      • 1971 - Viruta del microprocesador introducida en los E.E.U.U. por Intel
      • Microordenadores (Ordenadores Personales)
      • Integración De la Escala Grande (LSI)
      • Integración De la Escala Muy Grande (Vlsi)
    • Software lógica
      • Programación estructurada
      • Conjuntos de aplicación
      • Sistemas del windowing (interfaces utilizador gráficos -- GUIs)
      • Programas conviviales
    • Máquinas Especiales
      • 1971 - (1ra calculadora de bolsillo)
      • 1975 -- Altaír 8800 (1ra PC)
      • 1977 -- Manzana I (hágala usted mismo kit)
      • 1978 -- Manzana II (premontada)
      • 1981 -- PC DE LA IBM
      • 1984 -- Impermeable

Tendencias generales

    • Dotación física
      • Más pequeño
      • Más rápidamente
      • Más barato
      • Más disponible
    • Software lógica
      • Más grande (más exige en la dotación física: CPU, memoria, espacio de disco, etc.)
      • Más fácil utilizar
      • Mejore El Diseño
      • Más barato
      • Más disponible

Ordenadores analógicos

El ordenador analógico es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En el típico ordenador analógico electrónico, las entradas se convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada.

Ordenadores digitales

Todo lo que hace un ordenador digital se basa en una operación: la capacidad de determinar si un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, el ordenador puede reconocer sólo dos estados en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto tan sencillo lo que lo convierte en una maravilla de la tecnología moderna. Las velocidades del ordenador se miden en megahercios, o millones de ciclos por segundo. Un ordenador con una velocidad de reloj de 100 MHz, velocidad bastante representativa de un microordenador o microcomputadora, es capaz de ejecutar 100 millones de operaciones discretas por segundo. Las microcomputadoras de las compañías pueden ejecutar entre 150 y 200 millones de operaciones por segundo, mientras que las supercomputadoras utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de ciclos por segundo.

La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica sólo un conmutador cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores enlazados como una sola unidad, el ordenador aumenta el número de operaciones que puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON (3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8 conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí el término bit de datos en cada ciclo.

Un grupo de ocho bits se denomina byte y cada uno contiene 256 configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un carácter o un símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar datos binarios, en este caso el número decimal 210 , o bien estar indicando al ordenador que compare los datos almacenados en estos conmutadores con los datos almacenados en determinada ubicación del chip de memoria. El desarrollo de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de datos ha permitido incrementar la velocidad de los ordenadores. La colección completa de configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits simultáneos y el tamaño de los conjuntos de instrucciones, continúa incrementándose a medida que avanza el desarrollo de los ordenadores digitales modernos.

Evolución futura

Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.

Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.

Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes.

IMPORTANCIA DE LA INFORMATICA

La informática es la disciplina que estudia el tratamiento automático de la información utilizando dispositivos electrónicos y sistemas computacionales. También es definida como el procesamiento de la información en forma automática. Para esto los sistemas informáticos deben realizar las siguientes tres tareas básicas:

  • Entrada: Captación de la información digital.
  • Proceso: Tratamiento de la información.
  • Salida: Transmisión de resultados binarios.

El vocablo Informática es proveniente del francés informatique, acuñado por el ingeniero Philippe Dreyfus en 1962, es acrónimo de las palabras information y automatique. En lo que hoy conocemos como informática confluyen muchas de las técnicas y de las máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar sus capacidades de memoria, de pensamiento y de comunicación.

La informática se aplica a numerosas y variadas áreas, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, robots industriales, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia, etc.

En la informática convergen los fundamentos de las ciencias de la computación, la programación y las metodologías para el desarrollo de software, la arquitectura de computadores, las redes de datos como Internet, la inteligencia artificial, así como determinados temas de electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas.

El concepto de informática viene dado de la conjunción de dos palabras: Información y automática. En tanto que en inglés se habla de conceptos tales como Computer Science, Electronic Data Processing, etc...

Según la el Diccionario de la Real Academia Española RAE es el: “Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores“.

Podemos entender el concepto de informática como aquella disciplina encargada del estudio de métodos, procesos, técnicas, desarrollos y su utilización en ordenadores (computadores) con el fin de almacenar, procesar y transmitir información y datos en formato digital.

Entre las funciones principales de la informática se cuenta las siguientes:

  • Creación de nuevas especificaciones de trabajo.
  • Desarrollo e implementación de sistemas informáticos.
  • Sistematización de procesos.
  • Optimización de los métodos y sistemas informáticos existentes.

La informática es aplicada en numerosos y diversos sectores de la actividad humana. Sólo algunos de ellos son: medicina, biología, física, química, meteorología, ingeniería, industria, investigación científica, comunicaciones, arte, nivel empresarial (gestión), etc.

En los inicios del procesado de información, con la informática sólo se facilitaba los trabajos repetitivos y monótonos del área administrativa, gracias a la automatización de esos procesos, ello trajo como consecuencia directa una disminución de los costes y un incremento en la producción.

Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática; en un enorme abanico que cubre desde las más simples cuestiones hogareñas hasta los más complejos cálculos científicos.

Una de la utilidades más importantes de la informática es facilitar información en forma oportuna y veraz, lo cual, por ejemplo, puede tanto facilitar la toma de decisiones a nivel gerencial como permitir el control de procesos críticos.

ESTUDIANTE JOSE A VARDEZ DE SISTEMA