Historia de la computación

El primer “aparato” diseñado para realizar cálculos y del que se tiene constancia data del tercer milenio antes de Cristo. Dicho aparato se denomina ábaco y ya era capaz de contar y almacenar datos. El ábaco está formado por varios ejes y en cada uno de ellos se encuentran 9 cuentas o fichas. A cada eje se le asigna un rango de valores de tal manera que uno de los ejes representará las unidades, el siguiente las decenas, el siguiente las centenas y así sucesivamente. Luego, en cada eje, se sitúan en un extremo tantas cuentas como unidades de ese eje se quieran representar.

En la figura siguiente aparece un dibujo del ábaco representando el número 876 (8 cuentas en el eje de las centenas, 7 en el eje de las decenas y 6 cuentas en el eje de las unidades):

Resulta interesante que no sólo es posible almacenar datos (es decir, ya sería como un sistema de memoria muy rudimentario), sino que además puede hacer operaciones sencillas con ellos. Por ejemplo, si tenemos almacenada una cantidad en el ábaco y queremos sumarle otro valor, habría que ir incrementando las cuentas en la zona de representación teniendo presente que cuando se hayan alcanzado 9 cuentas en uno de los ejes, habrá que incrementarle una cuenta al que le sigue y eliminar todas las cuentas del eje que se encontraba completo (es el paso, por ejemplo, del 9 al 10).

Siglos después, aparecieron calculadoras mecánicas basadas en engranajes y capaces de realizar operaciones matemáticas elementales. Todos estos dispositivos fueron evolucionando hasta que en 1890 Herman Hollerith creó una máquina para realizar el censo de Estados Unidos. Esta máquina utilizaba un sistema electrónico para leer tarjetas perforadas y así introducir los datos en la máquina, y un sistema mecánico para realizar los cálculos. Hollerith creó su propia empresa pero, ante problemas económicos, vendió la patente de su máquina a otra empresa denominada CTR. Más tarde, T. J. Watson, comercial de CTR, crea en 1924 su propia compañía a la que denominó Internacional Business Machine, más popularmente conocida como IBM. Acababa de nacer el que ahora se denomina gigante azul y comenzaba la época de los ordenadores.

La aparición y evolución de la electrónica ha sido y es fundamental en la evolución de la informática y, por lo tanto, de los ordenadores. Así, los grandes avances surgidos en la electrónica, han condicionado de forma decisiva los avances en el terreno de la informática. Estos avances han marcado una serie de hitos que han dividido la historia de la computación en diferentes etapas, cada una de las cuales ha tenido como protagonista principal a un componente electrónico cada vez más pequeño, más rápido, con menos consumo,…que ha permitido crear máquinas más avanzadas.

Según lo anterior, los ordenadores que han ido apareciendo desde los años cuarenta hasta la actualidad se han agrupado en cinco generaciones que se diferencian por la tecnología y la arquitectura de sus componentes.

 

Primera generación: 1940 – 1960

En 1941 la Escuela Eléctrica de Moore inicia la construcción del considerado primer ordenador: el ENIAC (Electronic Numerical Integrator And Computer), basado en tecnología de válvulas de vacío. El ENIAC se terminó en torno al año 1946, pesaba más de 30 toneladas y su programación era totalmente manual, similar al trabajo de las antiguas operadoras telefónicas (cada vez que se quería realizar cierta tarea, había que recablear la máquina). A pesar de su tamaño, apenas era capaz de efectuar unas pocas operaciones no demasiado complejas.

En 1945 el matemático húngaro John von Neumann publica el artículo “First Draft or a Report on the EDVAC”, en el que proponía un nuevo computador que permitiría cargar en memoria, mediante tarjetas perforadas, un programa previamente generado evitando así el problema de recablear toda la máquina. El EDVAC nunca llegaría a construirse pero las ideas de von Neumann resultaron tan fundamentales para el desarrollo posterior que es considerado el padre de los computadores.

En 1951 aparece el UNIVAC (UNIVersAl Computer), que fue el primer computador comercial. Disponía de mil palabras de memoria central (una palabra equivalía a un carácter) y podía leer cintas magnéticas. Se utilizó para procesar el censo de Estados Unidos. Después, la empresa IBM desarrolló el IBM 701, del cual se entregaron 18 unidades entre 1953 y 1957.

 

Segunda generación: 1960 – 1965

El verdadero desarrollo de los computadores ha sido posible, principalmente, por la invención en 1947 del transistor por parte de los laboratorios Bell. El transistor permitía realizar la misma función que las válvulas de vacío, pero ocupando mucho menos espacio, consumiendo menos y con mayor fiabilidad.

La aparición del transistor y su posterior evolución, permitió que los computadores fuesen más rápidos, pequeños y baratos. En esta generación se ampliaron las memorias auxiliares y se crearon los discos magnéticos de gran capacidad. Aparecen también las primeras impresoras y los nuevos lenguajes de programación denominados Lenguajes de Alto Nivel.

El primer computador construido con transistores fue el ATLAS, desarrollado en 1962 por la Universidad de Manchester.

 

Tercera generación: 1965 – 1975

Con la aparición en los años sesenta de los primeros circuitos integrados, surge la tercera generación de computadores, caracterizada por un aumento de la velocidad de procesamiento y por la aparición de los primeros sistemas operativos para la gestión de recursos del computador.

La capacidad de integración ha sido decisiva en el desarrollo de los computadores. Así, en 20 años se pasó de integrar unos pocos elementos por circuito integrado, a varios millones de transistores.

IBM produce el primer computador basado totalmente en circuitos integrados, los IBM 360. Este modelo incorporaba un sistema operativo denominado OS que incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.

 

Cuarta generación: 1975 – 1990

La característica más importante de esta generación es la aparición de los microprocesadores. Básicamente, un microprocesador es una CPU integrada en una sola pastilla de circuito impreso. Son circuitos integrados de alta densidad con una velocidad muy elevada.

Otro hecho importante acaecido en esta época fue la aparición de las pastillas de memoria de semiconductor, con lo que se abandonan las memorias de ferrita.

El primer microprocesador fue el Intel 4004.

 

Quinta generación: 1990 – actualidad

Los avances en la microelectrónica, unidos a la gran competencia entre compañías como Apple, Motorota, Cyrix, AMD e Intel, provocan un continuo aumento de la integración y el desarrollo de nuevas arquitecturas computacionales, lo cual contribuye a disponer en la actualidad de ordenadores cada vez más potentes y baratos.

 

Fuentes: IES.San Clemente. FP Informática ( Santiago de Compostela )

Publicaciones relacionadas

2 Comentarios

  1. Creo q la informacion q s facilita esta muy bien. pero creo q en ves de poner publicidad colocaran informacion más adecuada… saludos <3

  2. um me gusto
    podrian ser mas detallistas ok kuidense
    =) =)

Comentarios

Su dirección de correo electrónico no será publicada.