Académique Documents
Professionnel Documents
Culture Documents
El tubo al vacío fue inventado en 1.906 por un ingeniero eléctrico. Durante la primera mitad del siglo XX,
esta era la tecnología principal usada para construir radios, televisores, radares, máquinas de rayos X y
otros dispositivos electrónicos.
Eran muy costosas, consumían gran electricidad, generaban mucho calor y eran enormes (a menudo
ocupaban habitaciones completas).
La primera computadora electrónica operacional se llamó ENIAC y utilizaba 18.000 tubos al vacío. Fue
construida en Estados Unidos, en la Universidad de Pensilvania y medía unos 30,5 metros de largo. Era
usada para cálculos temporarios; principalmente se utilizaba en cálculos relacionados con la guerra,
como operaciones relacionadas con la construcción de la bomba atómica.
Por otro lado, la máquina Colossus también fue construida durante estos años para ayudar a los ingleses
durante la Segunda Guerra Mundial. Era utilizada para descodificar mensajes secretos del enemigo y
utilizaba 1.500 tubos al vacío.
La segunda generación de computadores reemplazó a los tubos al vacío con los transistores. Los
transistores permitieron que las computadoras fueran más pequeñas, más rápidas, más baratas, y más
eficientes a nivel de energía consumida. Los discos magnéticos y las cintas a menudo eran utilizados
para almacenar datos.
A pesar de que los transistores generaban suficiente calor como para causar cierto daño a las
computadoras, eran una mejoría de la tecnología anterior.
Los computadores de segunda generación utilizaban una tecnología de enfriamiento, tenían un uso
comercial más amplio, y solo eran utilizadas para propósitos científicos y de negocios específicos.
Durante esta época, los lenguajes de programación de alto nivel también estaban siendo desarrollados.
Los computadores de segunda generación también fueron las primeras máquinas en almacenar las
instrucciones en su memoria. Durante esta generación se desarrollaron los lenguajes de programación
COBOL (1960), dedicado a aplicaciones comerciales; el LISP(1959), que interesó principalmente a
quienes trabajaban en inteligencia artificial, y el BASIC (1964), pensado en principio para la enseñanza,
pero que se convertiría en el lenguaje estándar de las microcomputadoras.
Durante esta época, los computadores utilizaban lenguajes de tercera generación (3GL), o lenguajes de
alto nivel. Algunos ejemplos de estos lenguajes incluyen a Java y a JavaScript.
Otro cambio de este periodo fue que ahora la interacción con las computadoras se hacía a través de
teclados, un ratón y monitores con una interfaz y un sistema operativo.
Gracias a esto, el dispositivo podía ejecutar diferentes aplicaciones al mismo tiempo con un sistema
central que se encargaba de la memoria.
La compañía IBM fue la creadora de la computadora más importante de este periodo: la IBM System/360.
Otro modelo de esta compañía era 263 veces más rápida que la ENIAC, demostrando el gran avance
en el campo de las computadoras hasta ese entonces..
En 1981, IBM creó una nueva computadora que era capaz de ejecutar 240.000 sumas por segundo. En
1996, Intel fue más allá y creó una máquina capaz de ejecutar 400.000.000 sumas por segundo. En
1984 Apple introdujo la Macintosh con un sistema operativo distinto a Windows.
Las computadoras de cuarta generación se convirtieron más poderosas, más compactas, más
confiables, y más accesibles. Como resultado, la revolución de la computadora personal (PC) nació. En
esta generación, los canales en tiempo real, los sistemas operativos distribuidos y el tiempo compartido
son utilizados. Durante este periodo nació internet.
Los chips de proceso son utilizados como procesadores centrales y los chips de memoria son utilizados
para la memoria de acceso aleatorio (RAM). Ambos chips hacen uso de millones de transistores
colocados en su superficie de silicona.
Para insertar un carácter ASCII, mantenga presionada la tecla ALT mientras escribe el código de
carácter. Por ejemplo, para insertar el símbolo de grado (°), mantenga presionada la tecla ALT
mientras escribe 0176 en el teclado numérico.
Unicode permite acceder y manipular los caracteres por números exclusivos, sus puntos de código
Unicode, y utilizar codificaciones antiguas sólo para la entrada y la salida, si se utilizan. Los formatos
de Unicode que más se utilizan son:
UTF-32, con unidades de código de 32 bits, que almacenan cada una un solo punto de código. Es el
más adecuado para codificar caracteres individuales.
UTF-16, con una o dos unidades de código de 16 bits para cada punto de código. Es la codificación
predeterminada para Unicode.
UTF-8, con una a cuatro unidades de código (bytes) de 8 bits para cada punto de código. Se utilizan
principalmente como sustitución directa de las anteriores codificaciones MBCS (juego de caracteres de
múltiples bytes).
Código BCD (Binary-Coded Decimal (BCD) o Decimal codificado). Binario es un estándar para
representar números decimales en el sistema binario, en donde cada dígito decimal es codificado con
una secuencia de 4 bits.
La codificación en BCD del número decimal 59237 es:
Decimal: 5 9 2 3 7
BCD: 0101 1001 0010 0011 0111
La representación anterior (en BCD) es diferente de la representación del mismo número decimal en
binario puro:
11100111 01100101