Las sociedades, desde muy antiguo, han debido recurrir a métodos que les permitieran comunicarse y, también, calcular. Hoy, estos procesos se denominan Informática, palabra creada por los franceses en el decenio de los sesenta del siglo XX,
como contracción de INFORmación autoMÁTICA, constituida como ayuda en las tareas relativas al manejo de información.
En cuanto a los métodos de ayuda a la realización de cálculos, hay que remontarse a más de 4.000 años, cuando ya se utilizaban muescas en trozos de madera o de piedras para contabilizar el intercambio de productos. La máquina calculadora más antigua que se conoce es el ábaco, que los romanos ya utilizaban en el siglo IV a.C., pero que los chinos, eso sí, empleando bolas, manejaban en el siglo IX a.C. En siglos más próximos, como el XVII, los matemáticos diseñaron y lograron construir máquinas que realizaban las operaciones aritméticas más elementales, siguiendo los mecanismos de relojería de Schkard, que construyó, en 1624, la primera máquina capaz de efectuar sumas y restas en forma automática. Ya en 1645, el matemático francés Blaise Pascal, desarrolló una máquina que, de modo más complejo, realizaba las mismas operaciones, pero la primera máquina preparada para uso práctico, la construyó otro francés, Joseph- Marie Jacquard, en 1801, quien diseñó un telar automático que funcionaba empleando unas largas tiras de cartón con perforaciones que indicaban el patrón de trabajo.
Y en el año1833, aparece el británico Babbage, considerado el padre de la informática moderna, que construyó su máquina que llamó analítica, que permitía efectuar las cuatro operaciones fundamentales sobre 1.000 números de 50 cifras que estaban contenidas en una memoria, según un programa de cálculos, registrados en una tira de papel perforado, a imitación de la técnica de Jacquard. Babbage estableció cuáles debían ser los elementos fundamentales para el funcionamiento de un sistema automático. Entonces, se sustituyeron las ruedas dentadas y las tarjetas perforadas por interruptores eléctricos, construyendo un dispositivo en el que la circulación de la corriente representaba el “1” y la interrupción del flujo el “0”. Y el húngaro von Neumann definió las normas básicas de una máquina programable que es la que hoy conocemos como ordenadores: almacenar información en una memoria física, lo que dio paso a la construcción de primeros ordenadores digitales modernos y las distintas etapas de generaciones de estas máquinas.
La primera generación va de los años 1940 a 1952, distinguidas por el uso de válvulas de vacío y relais electromagnéticos para el almacenamiento de datos; la primera máquina con tal capacidad se conoció como Mark I. En 1951 aparece el primer ordenador de uso comercial. En la segunda generación – que va de 1952 a 1964 – los transistores pasan a sustituir a las válvulas de vacío y se utilizan memorias de ferrita; ya cada ordenador contiene, por centímetro cúbico, casi un centenar de componentes y, entonces, aparecen los ordenadores comerciales con un sistema operativo. La tercera generación – de 1964 a 1971 – introduce el uso de circuito integrado, como soporte de información, que permite disponer de varios miles de elementos por decímetro cúbico, lo que reduce de manera considerable el tamaño y el precio del ordenador, pese a que se aumenta su velocidad y número de prestaciones. En la cuarta generación – de 1971 a 1981 – los ordenadores avanzan en la escala de circuitos integrados, dando lugar al circuito microprocesador, consiguiéndose que todos los circuitos básicos del ordenador estén en un solo circuito integrado. La quinta generación trae la posibilidad de instalar millones de transistores que ocupan menos espacios que la palma de una mano.
Por último, la miniaturización y abaratamiento de costes, hizo posible la aparición del ordenador personal que, todavía, no ha terminado de dar por finalizadas sus etapas de perfeccionarse, ni tampoco, pese a que hay millones y millones en funcionamiento, ha terminado su expansión por el mundo.
No hay comentarios:
Publicar un comentario