Vous êtes sur la page 1sur 5

La necesidad de contar, computar o procesar datos ha sido con el hombre desde el

principio. La herramienta de computación temprana más importante es el ABACUS, un


bastidor de madera que sostiene varillas paralelas en las que se ensartan cuentas. Este
simple dispositivo fue usado para sumas y restas. Un erudito escocés, John Napier (1550-
1617) inventó el logaritmo y en 1661, William Oughtred inventó las reglas de
deslizamiento rectilíneas y circulares. Estas son computadoras analógicas que han sido
reemplazadas en tiempos modernos por calculadoras de bolsillo. Un avance significativo
en la evolución de los sistemas informáticos fue la invención de una máquina de adición
mecánica en 1642 por el científico francés Blaise Pascal (1623-1662). Habiendo
observado la máquina de Pascal en París, el matemático alemán Gotthied Wilhelm von
Leibniz (1646-1716) diseñó una mejor en 1671 [1]. Mientras que la máquina de Pascal
solo podía contar, el dispositivo Leibniz también podía multiplicarse, dividirse y encontrar
la raíz cuadrada. En 1820, Thomas de Colmar (Charles Xavier Thomas) produjo la
primera calculadora mecánica disponible comercialmente. Esta calculadora de escritorio
podría sumar, restar, multiplicar y dividir. Esto fue seguido por una sucesión de versiones
avanzadas y mejoradas de calculadoras mecánicas [2].

Mientras Thomas de Colmar trabajaba en la calculadora mecánica, Charles Babbage


(1792-187 1) en Cambridge, Inglaterra, estaba desarrollando la primera computadora
digital. Para 1822, construyó una calculadora mecánica automática llamada "motor de
diferencia". En 1833 comenzó a trabajar en una computadora digital mecánica
programable y automática de propósito general llamada "máquina analítica".
Desafortunadamente, el motor analítico de Babbage nunca se completó porque su
diseño requería una precisión de fabricación más allá de lo que era factible en ese
momento. Un importante avance en la evolución de los sistemas informáticos es la
invención de las tarjetas perforadas que se utilizaron por primera vez durante el censo
de los Estados Unidos de 1890 por Herman Hollerith y James Powers mientras
trabajaban para la Oficina del Censo de los Estados Unidos. Con las tarjetas perforadas,
las máquinas calculadoras se volvieron completamente automáticas. En 1896, Hollerith
formó la Compañía de Máquinas Tabuladoras que fabricaba máquinas de tarjetas
perforadas. Después de su retiro en 1913, Thomas J. Watson, Sr. se convirtió en
presidente de la compañía, que se convirtió en International Business Machines
Corporation en 1924. Más tarde, esta compañía desempeñaría un papel importante en
la evolución de los sistemas informáticos.

Aunque la máquina perforada estaba bien establecida y era confiable a fines de la


década de 1930, varios grupos de investigación trabajaron arduamente para construir
una computadora digital automática. Un grupo de cuatro trabajadores de IBM dirigido
por Howard Hathaway Aiken, físico y matemático de la Universidad de Harvard,
comenzó a trabajar en una calculadora completamente automática en 1939. La
calculadora, comúnmente llamada Calculadora Automática de Secuencia Automática
de International Business Machines o Marca Mark I de Harvard, se completó en agosto
de 1944. Esta fue la primera máquina de procesamiento de información. Como
computadora electromecánica, tiene 760,000 ruedas, 500 millas de cable, y FIE '96
Proceedings un panel de 51 pies de largo y 8 pies de alto. Los datos de entrada se
ingresaron a través de las tarjetas perforadas, y la salida se realizó mediante una
tarjeta perforada o una máquina de escribir eléctrica. La máquina de Aiken era similar
en principio a la máquina analítica de Babbage, aunque Aiken no sabía sobre el trabajo
de Babbage cuando comenzó su investigación.
La primera computadora electrónica completamente digital hizo su aparición durante la
Segunda Guerra Mundial. En los Estados Unidos, había una necesidad desesperada de
computadoras que computaran rápidamente las mesas de tiro para la variedad de
nuevas armas utilizadas por el ejército de los Estados Unidos. En 1942, el ingeniero
eléctrico J. Presper Eckert y el físico John W. Mauchly, de la Escuela de Ingeniería Moore
de la Universidad de Pennsylvania, Filadelfia, cumplieron con la necesidad y
desarrollaron ENIAC (Integrador Numérico Electrónico y Calculadora). ENIAC entró en
funcionamiento en 1946. Fue la primera computadora electrónica digital de uso
múltiple. Utilizaba tubos de vacío en lugar de relés como elementos lógicos. Debido a
esto, fue más de 1.000 más rápido que sus predecesores electromecánicos. Sin
embargo, ENIAC era de un tamaño y complejidad sin precedentes. En 1950, ENIAC fue
sucedido por EDVAC (Computadora automática de variable discreta electrónica), una
computadora de programa almacenado. En 1947, Eckert y Mauchly establecieron su
propia compañía, Eckert-Mauchly Computer Corporation, para fabricar computadoras
comercialmente. En 1951, la compañía produjo la UNIVAC I (Universal Automatic
Computer) para la Oficina del Censo de los Estados Unidos. Aunque esta primera
computadora comercial fue producida para la Oficina del Censo, fue utilizada
ampliamente por la comunidad científica. UNIVAC Logré la mayor fama entre las
primeras computadoras digitales porque se usó para predecir correctamente las
elecciones presidenciales en 1952. Los resultados proyectaron la elección de Dwight
Eisenhower sobre Adlai Stevenson 45 minutos después del cierre de las urnas.

La primera generación de computadoras (1950-1959) utilizó tubos de vacío como elementos


lógicos y los núcleos de ferrita en forma de anillo como recuerdos. Durante este período, las
computadoras eran voluminosas, poco fiables y caras. Estas computadoras incluyen ENIAC,
EDVAC, UNIVAC I, UNIVAC 11, IBM 702 y 650. La introducción de elementos digitales
semiconductores marcó el inicio de la segunda generación de computadoras en 1959. La segunda
generación se caracterizó por un tamaño y costo reducidos con mayor velocidad y confiabilidad. .
La cinta magnética se convirtió en el principal medio de almacenamiento externo. IBM produjo el
sistema 709TX en 1959 y luego produjo 7094, que dominó el mercado de computadoras
científico durante el período 1960-1964. Algunas de las computadoras populares de
segunda generación fueron IBM 7000, 1400 series, UNIVAC 111, RCA 301 y 501,
Honeywell 400 y 800, y NCR 315. Las computadoras de segunda generación (1959 -
1969) fueron sucedidos por la tercera generación de computadoras (1969-1977), que
usaba circuitos integrados. La era de la microelectrónica comenzó con la invención del
circuito integrado (1C) en 1958. Con la introducción de los circuitos integrados, fue
posible tener cientos de elementos de circuito en un pequeño chip de silicio. Los
miembros importantes de la tercera generación incluyen IBM 360 y 370, UNIVAC 1108,
RCA 3301, GE 645, Honeywell 200 series y DEC PDP-8. Las computadoras de cuarta
generación estuvieron disponibles en la década de 1980 cuando la integración a gran
escala (VLSI), en la que miles de transistores y otros elementos de circuitos se colocan
en un solo chip, se volvió cada vez más común. La tecnología VLSI aumentó
enormemente la densidad del circuito.

Mientras que las computadoras de primera, segunda y tercera generación utilizaban


núcleo de ferrita como unidades de memoria, las computadoras de cuarta generación
usaban dispositivos semiconductores fabricados por tecnología VLSI como unidades de
memoria de acceso ultraalto. La caída en el costo asociada con la tendencia de
reducción de tamaño llevó a la introducción de computadoras personales para uso en
oficinas, escuelas y hogares. Varias compañías como IBM, Apple Computer y Radio
Shack, comenzaron a producir y comercializar computadoras personales con enorme
éxito. La carrera ahora está en la construcción de la próxima o "quinta" generación de
computadoras, máquinas que exhiben inteligencia artificial. Así, las nuevas
generaciones de computadoras involucrarán robótica y redes de computadoras.

Originalmente, las redes se usaban para conectar solo computadoras centrales. Pero
con la proliferación de sistemas informáticos de bajo costo y los avances en software,
se hizo evidente la necesidad de conectar computadoras personales y otros periféricos.
La red de computadoras se ha desarrollado en tres niveles: red de área local (LAN) que
interconecta computadoras ubicadas dentro de un área relativamente pequeña, como
un campus universitario; red de área metropolitana (MAN) que representa tecnologías
LAN optimizadas para un área metropolitana como una ciudad; La red de área amplia
(WAN) proporciona 1473 servicios de comunicación a lo largo de varios kilómetros, en
todo el país o en todo el mundo [3]. La idea de las redes de computadoras comenzó en
la década de 1960 cuando los servicios de tiempo compartido se pusieron a disposición
del público por primera vez [4]. Los primeros pioneros fueron General Electric (GE),
XEROX, AT & T, agencias gubernamentales de IBM, laboratorios de investigación y
universidades. ARPANET fue construido en 1969 por Advanced Research Projects
(ARPA), un brazo de los Estados Unidos. Departamento de Defensa. Era una red pública
que conectaba varias universidades e instituciones de investigación importantes.
ARPANET finalmente se convirtió en una red troncal de EE. UU. Que conduce a la
Internet actual. El éxito de ARPANET llevó a sus contratistas principales (Bolt, Beranek y
Newman) a formar una empresa de redes comerciales, TEENET en 1972. Las redes de
área metropolitana (MANS) son una consecuencia de las LAN. El esfuerzo de MAN
comenzó en 1982. Los objetivos eran proporcionar la interconexión de redes LAN, la
transferencia masiva de datos, la voz digitalizada y el video. La interfaz de datos
distribuidos de fibra (FDDI) propuesta por el American National Standard Institute
(ANSI) es el MAN más popular. Es una red de anillo token con fibra óptica como medio
de transmisión. A finales de la década de 1970, nació el concepto de RDSI. La RDSI se
considera una red digital para todos los fines, ya que proporcionará un acceso
integrado que admitirá una amplia variedad de aplicaciones de manera flexible y
rentable. La implementación de RDSI ha sido lenta en la práctica real. El concepto RDSI
ha sido probado en muchas naciones. La verdadera emoción de la RDSI se produce
cuando se consideran las capacidades de la RDSI de banda ancha (BISDN).

Un robot es un manipulador reprogramable, multifuncional, diseñado para realizar


funciones normalmente atribuidas a los seres humanos [5]. La palabra clave es
reprogramable porque se refiere a un sistema de control de computadora incorporado.
Esto distingue a los robots de los sistemas controlados numéricamente que pueden
adaptarse a nuevas tareas. La "era del robot" comenzó en 1954 cuando George C.
Devol, considerado como el "padre del robot", patentó el primer manipulador con una
memoria de reproducción. A mediados de la década de 1960, la carrera por crear
robots inteligentes con la mayor precisión y velocidad llevó a la formación de centros
de investigación y laboratorios en el nuevo campo de la robótica y su campo aliado de
inteligencia artificial. Los objetivos de los investigadores eran integrar las capacidades
perceptivas y de resolución de problemas en un solo sistema, usando computadoras
para controladores o cerebros, cámaras de televisión para visión y sensores táctiles
para pinzas de robot. En 1967, General Electric produjo un vehículo de cuatro patas. En
1969 y 1970, los investigadores del Instituto de Investigación de Stanford (SRI)
produjeron un robot móvil, conocido como Shakey, que tenía cierta capacidad de
visión. En 1974, Vicarm Inc. comercializó un robot que usaba una minicomputadora
para un controlador. Para el año 1978, había aproximadamente 2,500 robots
industriales en los Estados Unidos. 1980 fue testigo del establecimiento del mayor
laboratorio universitario de robótica en la Universidad Carnegie Mellon. En el mismo
año, la Universidad de Rhode Island demostró un prototipo de sistema de visión
robótica.

La Evolución de los sistemas computacionales

En estos días de modernidad todas las personas o la mayoría ya ha tenido un encuentro cercano
con un computador (y como computador me refiero a cualquier máquina que pueda procesar,
operar y/o almacenar datos ), todos sabemos lo importantes que son o lo indispensable que son
para nuestro día a día, pero lo que no toda las personas sabe es de donde se origino la idea del
grandioso computador o como llego a ser lo que es hoy, ya que ¿que era un computador hace más
de 400 años?

Desde mucho tiempo atrás al hombre primitivo se le dio la necesidad de contar y hacer
operaciones numéricas que este no podía hacer en sus manos, de ahí nace el Abaco o Abacus en
latín, Es muy probable que su inicio fuera en una superficie plana y piedras que se movían sobre
líneas dibujadas con tierra. Hoy en día se tiende a pensar que el nacimiento del ábaco se encuentra
en China, donde el uso de este instrumento todavía es notable, al igual que en Japón. Otras
opiniones sostienen que el ábaco apareció en el Sahara, donde los antecesores del actual ábaco
eran dameros rayados en la arena o en las rocas, usados tanto para realizar cálculos aritméticos
como para jugar a diversos juegos tradicionales de inteligencia, que en el Sahara y en las islas
Canarias son muy frecuentes.

En 1642 al científico francés Blaise Pascal (1623-1662) se le ocurrió la gran idea de crear una
máquina de adición mecánica la cual funcionaba a partir de varias ruedas dentadas conectadas
entre sí que disponía en su interior, formando una cadena de transmisión, de modo que, cuando una
rueda giraba completamente sobre su eje, hacía avanzar un grado a la siguiente. A partir de esa
maquina otras personas la fueron mejorando, creando maquinas nuevas que podían sumar, multiplicar,
restar y dividir.

Casi 200 años después Charles Babbage (1792-1871) en Cambridge, Inglaterra estaba
trabajando en algo llamado “difference engine” era lo que posiblemente podría ser la
primera calculadora digital pero su diseño nunca fue terminado ya que su motor
analítico necesitaba una fabricación muy precisa la cual no existía en ese preciso
momento. Fue hasta la década de 1930 que un grupo de científicos de la empresa IBM
empezaron a trabajar en una calculadora totalmente digital, en agosto de 1944 fue
completada la famosa International Business Machines Automatic Sequence Controlled
Calculator or Harvard Mark I, Esta fue la primera máquina de procesamiento de
información y era muy parecida al diseño que Babbage planteaba. Como computadora
electromecánica, tiene 760,000 ruedas, 500 millas de cable, y un panel de 51 pies de
largo y 8 pies de alto. Lo cual era demasiado grande comparado con cualquier
computador que podemos tener en nuestras manos ahorita mismo, ¿Cómo pudimos
pasar de una calculadora que podría medir casi un edificio a un pequeño computador
que fácilmente ocupa nuestra mano?

Fue en la segunda guerra mundial en los estados unidos que se creo la primera
computadora completamente digital ya que había una necesidad desesperada de
computadoras que computaran rápidamente las mesas de tiro para la variedad de
nuevas armas utilizadas por el ejército de los Estados Unidos, En 1942, el ingeniero
eléctrico J. Presper Eckert y el físico John W. Mauchly, de la Escuela de Ingeniería Moore
de la Universidad de Pennsylvania, Filadelfia, cumplieron con la necesidad y
desarrollaron ENIAC (Electronic Numerical Integrator and Calculator). ENIAC entró en
funcionamiento en 1946. Fue la primera computadora electrónica digital de uso
múltiple. Utilizaba tubos de vacío en lugar de relés como elementos lógicos. Debido a
esto, fue más de 1.000 más rápido que sus predecesores electromecánicos. Sin
embargo, ENIAC seguía siendo de un tamaño y complejidad extremadamente grande.

En 1959 después de la segunda guerra mundial aparecieron los transistores lo cual


produjo una estrambótica revolución, este al igual que un tubo de vació era una unidad
lógica pero este ocupaba un espacio mucho menor, y fue en la década de 1980 cuando
la integración a gran escala (VLSI), en la que miles de transistores y otros elementos de
circuitos se colocan en un solo chip, se volvió cada vez más común.

Esto logró que los computadores que median cuartos enteros fueran reduciendo su
tamaño hasta el punto de que en cualquier hogar se podía tener uno de estos sin
ocupar mucho espacio, la tecnología ha avanzado tanto que ahora mismo en nuestras
manos podemos tener un poder de computo muchísimo mejor que la ENIAC que
ocupaba varios cuartos enteros. Ahora la pregunta que queda por hacerse es ¿Qué
sigue? ¿estamos en la cima de la montaña o hasta ahora es el principio?

Vous aimerez peut-être aussi