Vous êtes sur la page 1sur 5

HISTORIA DE LA COMPUTADORA

La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642
por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez
dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban
conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes
correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta
máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de
madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de
1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas,
similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información
estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un
sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de
la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial,
diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a
Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés
Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de
aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus
invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno.
Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para
guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer
permanente el registro.

Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros
modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se
evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser
resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas
informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los
torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.

Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en
Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente
electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos
de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los
mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John
Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State
College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más
tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico
(ENIAC) en 1945.
GENERACIONES DE LAS COMPUTADORAS

Primera generación (1940-1958)

La primera generación de computadoras abarca desde el año 1940 hasta el año 1958, época en que la
tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de
nivel más bajo que puede existir, que se conoce como lenguaje de máquina.

Estaban construidas con electrónica de válvulas. Se programaban en lenguaje de la máquina. Un


programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más
simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa
debe escribirse mediante algún conjunto de códigos binarios). La primera generación de computadoras
y sus antecesores,

1946 ENIAC. Primera computadora digital electrónica en la historia. No fue un modelo de


producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba
de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 tubos de
vacío, consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar
cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los
doctores John W. Mauchly y J. Presper Eckert en la universidad de Pensilvania, en los Estados
Unidos. 1949 EDVAC.

Segunda generación (1958-1964)

La segunda generación de las computadoras reemplazó las válvulas de vacío por los transistores. Por
eso, las computadoras de la segunda generación son más pequeñas y consumen menos electricidad que
las de la anterior. La forma de comunicación con estas nuevas computadoras es mediante lenguajes
más avanzados que el lenguaje de máquina, los cuales reciben el nombre de “lenguajes de alto nivel o
lenguajes de programación".

Las características más relevantes de las computadoras de la segunda generación son:

Estaban hechas con la electrónica de transistores. Se programaban con lenguajes de alto nivel 1951:
Maurice Wilkes inventa la microprogramación, que simplifica mucho el desarrollo de las CPU pero
esta microprogramación también fue cambiada más tarde por el computador alemán Bastian
Shuantiger. 1956: IBM vendió por un valor de 1 230 000 dólares su primer sistema de disco
magnético, el RAMAC (Random Access Method of Accounting and Control). Usaba 50 discos de
metal de 61 cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos, con un coste de 10 000
USD por megabyte.

Tercera generación (1964-1971)


Comienza a utilizarse los circuitos integrados, lo cual permitió abaratar costos al tiempo que se
aumentaba la capacidad de procesamiento y se reducía el tamaño de las máquinas. La tercera
generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en
las que se colocan miles de componentes electrónicos en una integración en miniatura. El -8 de la
Digital fue el primer y fue propagado en los comercios. A finales de los años 1950 se produjo la
invención del circuito integrado o chip, por parte de y. Después llevó a a la invención del
microprocesador, en A finales de 1960, investigadores como en el formaban un código, otra forma de
codificar o programar.1 2

A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes
electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito completo: un
amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips (circuitos integrados)
era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.
En 1964, anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el
nombre de serie

Cuarta generación (1971-1983)


Fase caracterizada por la integración sobre los componentes electrónicos, lo que propició la aparición
del microprocesador un único circuito integrado en el que se reúnen los elementos básicos de la
máquina. Se desarrolló el "chip". Se colocan más circuitos dentro de un "chip".Cada "chip" puede
hacer diferentes tareas. Un "chip" sencillo actualmente contiene la unidad de control y la unidad de
aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros "chips".Se
reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio. Se desarrollan las
microcomputadoras, o sea, computadoras personales o PC. Se desarrollan las supercomputadoras. La
denominada Cuarta Generación (1971 a 1983) es el producto de la micro miniaturización de los
circuitos electrónicos. El tamaño reducido del microprocesador de chips hizo posible la creación de las
computadoras personales (PC). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI
(Integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se
almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña
rivalice con una computadora de la primera generación que ocupaba un cuarto completo. Hicieron su
gran debut las microcomputadoras.
Quinta generación (1984-actualidad)
Surge como computadora portátil o laptop tal cual la conocemos en la actualidad. IBM presenta su
primera laptop o computadora portátil y revoluciona el sector informativo. En vista de la acelerada
marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa
altura el desarrollo del software y los sistemas con los que se manejaban las computadoras. Estas son
la base de las computadoras modernas de hoy en día. La quinta generación de computadoras, también
conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso
proyecto hecho por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva
clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano
del hardware como del software, usando el lenguaje PROLOG2 3 4 al nivel del lenguaje de máquina y
serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural
a otra (del japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y prestaciones de
estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de
realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon
diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).

Vous aimerez peut-être aussi