Historia
La primera máquina de
calcular mecánica, un precursor del ordenador digital, fue inventada en 1642
por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie
de ruedas de diez dientes en las que cada uno de los dientes representaba un
dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían
sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el
filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina
e inventó una que también podía multiplicar.
El inventor francés Joseph
Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de
madera perforadas para controlar el tejido utilizado en los diseños complejos.
Durante la década de 1880 el estadístico estadounidense Herman Hollerith
concibió la idea de utilizar tarjetas perforadas, similares a las placas de
Jacquard, para procesar datos. Hollerith consiguió compilar la información
estadística destinada al censo de población de 1890 de Estados Unidos mediante
la utilización de un sistema que hacía pasar tarjetas perforadas sobre
contactos eléctricos.
La maquina analitica
También en el siglo XIX el matemático e
inventor británico Charles Babbage elaboró los principios de la computadora
digital moderna. Inventó una serie de máquinas, como la máquina diferencial,
diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores
consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron
(1815-1852), hija del poeta inglés lord Byron, como a los verdaderos inventores
de la computadora digital moderna. La tecnología de aquella época no era capaz
de trasladar a la práctica sus acertados conceptos; pero una de sus
invenciones, la máquina analítica, ya tenía muchas de las características de un
ordenador moderno. Incluía una corriente, o flujo de entrada en forma de
paquete de tarjetas perforadas, una memoria para guardar los datos, un
procesador para las operaciones matemáticas y una impresora para hacer
permanente el registro.
Primeros ordenadores
Los ordenadores analógicos comenzaron a
construirse a principios del siglo XX. Los primeros modelos realizaban los
cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban
las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder
ser resueltas mediante otros métodos. Durante las dos guerras mundiales se
utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde
eléctricos, para predecir la trayectoria de los torpedos en los submarinos y
para el manejo a distancia de las bombas en la aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial
(1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley
Park, al norte de Londres, crearon lo que se consideró el primer ordenador
digital totalmente electrónico: el Colossus.
Hacia diciembre de 1943 el Colossus,
que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue
utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes
de radio cifrados de los alemanes. En 1939 y con independencia de este
proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de
máquina electrónica en el Iowa State College (EEUU). Este prototipo y las
investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron
eclipsadas por el desarrollo del Calculador e integrador numérico electrónico
(en inglés ENIAC, Electronic Numerical
Integrator and Computer) en 1946. El ENIAC, que según se demostró se
basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una
patente que caducó en 1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y
tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su
programa estaba conectado al procesador y debía ser modificado manualmente. Se
construyó un sucesor del ENIAC con un almacenamiento de programa que estaba
basado en los conceptos del matemático húngaro-estadounidense John von Neumann.
Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba
al ordenador de las limitaciones de velocidad del lector de cinta de papel
durante la ejecución y permitía resolver problemas sin necesidad de volver a
conectarse al ordenador.
A finales de la década de 1950 el uso
del transistor en los ordenadores marcó el advenimiento de elementos lógicos
más pequeños, rápidos y versátiles de lo que permitían las máquinas con
válvulas. Como los transistores utilizan mucha menos energía y tienen una vida
útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más
perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda
generación. Los componentes se hicieron más pequeños, así como los espacios
entre ellos, por lo que la fabricación del sistema resultaba más barata.
A finales de la década de 1960 apareció
el circuito integrado (CI), que posibilitó la fabricación de varios
transistores en un único sustrato de silicio en el que los cables de
interconexión iban soldados. El circuito integrado permitió una posterior reducción
del precio, el tamaño y los porcentajes de error. El microprocesador se
convirtió en una realidad a mediados de la década de 1970, con la introducción
del circuito de integración a gran escala (LSI, acrónimo de Large Scale
Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI,
acrónimo de Very Large Scale Integrated), con varios miles de transistores
interconectados soldados sobre un único sustrato de silicio.
No hay comentarios:
Publicar un comentario