Vous êtes sur la page 1sur 3

Generaciones de los computadores

Primera generación (1945-1956)

El tubo al vacío es asociado como la tecnología principal de la primera generación de computadores;


son tubos de vidrio que contienen electrodos. Estos tubos eran utilizados para los circuitos de las
primeras computadoras. Adicionalmente, estas máquinas utilizaban tambores magnéticos en su
memoria.

El tubo al vacío fue inventado en 1.906 por un ingeniero eléctrico. Durante la primera mitad del siglo XX,
esta era la tecnología principal usada para construir radios, televisores, radares, máquinas de rayos X y
otros dispositivos electrónicos.

Eran muy costosas, consumían gran electricidad, generaban mucho calor y eran enormes (a menudo
ocupaban habitaciones completas).

La primera computadora electrónica operacional se llamó ENIAC y utilizaba 18.000 tubos al vacío. Fue
construida en Estados Unidos, en la Universidad de Pensilvania y medía unos 30,5 metros de largo. Era
usada para cálculos temporarios; principalmente se utilizaba en cálculos relacionados con la guerra,
como operaciones relacionadas con la construcción de la bomba atómica.

Por otro lado, la máquina Colossus también fue construida durante estos años para ayudar a los ingleses
durante la Segunda Guerra Mundial. Era utilizada para descodificar mensajes secretos del enemigo y
utilizaba 1.500 tubos al vacío.

Segunda generación (1956-1963)

La segunda generación de computadores reemplazó a los tubos al vacío con los transistores. Los
transistores permitieron que las computadoras fueran más pequeñas, más rápidas, más baratas, y más
eficientes a nivel de energía consumida. Los discos magnéticos y las cintas a menudo eran utilizados
para almacenar datos.

A pesar de que los transistores generaban suficiente calor como para causar cierto daño a las
computadoras, eran una mejoría de la tecnología anterior.

Los computadores de segunda generación utilizaban una tecnología de enfriamiento, tenían un uso
comercial más amplio, y solo eran utilizadas para propósitos científicos y de negocios específicos.

Durante esta época, los lenguajes de programación de alto nivel también estaban siendo desarrollados.
Los computadores de segunda generación también fueron las primeras máquinas en almacenar las
instrucciones en su memoria. Durante esta generación se desarrollaron los lenguajes de programación
COBOL (1960), dedicado a aplicaciones comerciales; el LISP(1959), que interesó principalmente a
quienes trabajaban en inteligencia artificial, y el BASIC (1964), pensado en principio para la enseñanza,
pero que se convertiría en el lenguaje estándar de las microcomputadoras.

Tercera generación (1964-1971)

El sello distintivo de la tercera generación de computadores fue la tecnología de circuitos integrados. Un


circuito integrado es un dispositivo sencillo que contiene muchos transistores. Los transistores se
hicieron más pequeños y se colocaron en unos chips de silicona, llamados semiconductores. Gracias a
este cambio, las computadoras eran más rápidas y eficientes que las de la segunda generación.

Durante esta época, los computadores utilizaban lenguajes de tercera generación (3GL), o lenguajes de
alto nivel. Algunos ejemplos de estos lenguajes incluyen a Java y a JavaScript.

Otro cambio de este periodo fue que ahora la interacción con las computadoras se hacía a través de
teclados, un ratón y monitores con una interfaz y un sistema operativo.

Gracias a esto, el dispositivo podía ejecutar diferentes aplicaciones al mismo tiempo con un sistema
central que se encargaba de la memoria.

La compañía IBM fue la creadora de la computadora más importante de este periodo: la IBM System/360.
Otro modelo de esta compañía era 263 veces más rápida que la ENIAC, demostrando el gran avance
en el campo de las computadoras hasta ese entonces..

Cuarta generación (1971-1982)

La cuarta generación de computadores es definida por los microprocesadores. En 1.971 se desarrolló


el chip Intel 4004 que localizaba todos los componentes de la computadora, desde la unidad de
procesamiento central y memoria hasta los controles de entrada y salida, en un solo chip. Esto marcó el
comienzo de la generación de computadoras que se extiende hasta el día de hoy.

En 1981, IBM creó una nueva computadora que era capaz de ejecutar 240.000 sumas por segundo. En
1996, Intel fue más allá y creó una máquina capaz de ejecutar 400.000.000 sumas por segundo. En
1984 Apple introdujo la Macintosh con un sistema operativo distinto a Windows.

Las computadoras de cuarta generación se convirtieron más poderosas, más compactas, más
confiables, y más accesibles. Como resultado, la revolución de la computadora personal (PC) nació. En
esta generación, los canales en tiempo real, los sistemas operativos distribuidos y el tiempo compartido
son utilizados. Durante este periodo nació internet.

Los chips de proceso son utilizados como procesadores centrales y los chips de memoria son utilizados
para la memoria de acceso aleatorio (RAM). Ambos chips hacen uso de millones de transistores
colocados en su superficie de silicona.

Quinta generación (1983 al Presente)

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de


poner también a esa altura el desarrollo del software y los sistemas con que se manejan las
computadoras. Nace el Lenguaje Natural y Lenguajes de programación: PROGOL y LISP. Japón lanzó
en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos
de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos
ya está en actividad un programa en desarrollo que persigue objetivos semejantes, se desarrollan las
microcomputadoras, o sea, computadoras personales o PC y se desarrollan las supercomputadoras. Se
crea una capacidad de traducción entre lenguajes que permitirá la traducción instantánea de lenguajes
hablados y escritos. La elaboración inteligente del saber y número tratamiento de datos y las
características de procesamiento similares a las secuencias de procesamiento Humano.
ASCII es la sigla para “American Standard Code for Information Interchange” (Código Standard
Norteamericano para Intercambio de Información). Este código fue propuesto por Robert W. Bemer,
buscando crear códigos para caracteres alfanuméricos (letras, símbolos, números y acentos).

El desarrollo de este código fundamentalmente se debió a la necesidad de que las computadoras y


dispositivos de distintos fabricantes tuvieran un lenguaje común con el cual comunicarse, y de este
modo poder ofrecer una compatibilidad más flexible y segura entre ellos.

Para insertar un carácter ASCII, mantenga presionada la tecla ALT mientras escribe el código de
carácter. Por ejemplo, para insertar el símbolo de grado (°), mantenga presionada la tecla ALT
mientras escribe 0176 en el teclado numérico.

Unicode permite acceder y manipular los caracteres por números exclusivos, sus puntos de código
Unicode, y utilizar codificaciones antiguas sólo para la entrada y la salida, si se utilizan. Los formatos
de Unicode que más se utilizan son:
UTF-32, con unidades de código de 32 bits, que almacenan cada una un solo punto de código. Es el
más adecuado para codificar caracteres individuales.
UTF-16, con una o dos unidades de código de 16 bits para cada punto de código. Es la codificación
predeterminada para Unicode.
UTF-8, con una a cuatro unidades de código (bytes) de 8 bits para cada punto de código. Se utilizan
principalmente como sustitución directa de las anteriores codificaciones MBCS (juego de caracteres de
múltiples bytes).
Código BCD (Binary-Coded Decimal (BCD) o Decimal codificado). Binario es un estándar para
representar números decimales en el sistema binario, en donde cada dígito decimal es codificado con
una secuencia de 4 bits.
La codificación en BCD del número decimal 59237 es:
Decimal: 5 9 2 3 7
BCD: 0101 1001 0010 0011 0111
La representación anterior (en BCD) es diferente de la representación del mismo número decimal en
binario puro:
11100111 01100101

Vous aimerez peut-être aussi