Académique Documents
Professionnel Documents
Culture Documents
Resumen de:
-Historia de la informática
En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de un documento
denominado Informatik: Automatische Informationsverarbeitung (Informática: procesamiento
automático de información). El soviético Alexander Ivanovich Mikhailov fue el primero en utilizar
Informatik con el significado de «estudio, organización, y diseminación de la información científica», que
sigue siendo su significado en dicha lengua. En inglés, la palabra informatics fue acuñada independiente
y casi simultáneamente por Walter F. Bauer, en 1962, cuando Bauer cofundó la empresa Informatics
General, Inc.
Estas disciplinas las vemos en las áreas de conocimientos de la actividad humana como:
Gestión de negocios
Consulta de Información
Comunicaciones
Investigación
Diseño
Juegos
Toma de decisiones a niveles científicos
Actualmente es muy difícil encontrar un área que no utilice el apoyo de la informática ya que cuenta
con una gran cantidad de funciones las cuáles nos pueden realizar desde una simple cuestión
doméstica hasta un cálculo científico más complejo.
-Evolución
El ábaco chino es el origen de las máquinas que se usaban para calcular. Se trataba de una tablilla
dividida en columnas que se separaba por unidades, decenas... se podían hacer sumas y restas.
En el siglo XVII, Blas Pascal inventó una máquina calculadora. Servía para hacer sumas y restas, pero
sirvió como base para que Leibnitz desarrollara una máquina que podía hacer multiplicaciones y
divisiones, aparte de sumas y restas, en el siglo XVIII.
En el siglo XIX se pusieron en venta las primeras máquinas de calcular. Babbage creó la máquina
analítica, que hacía cualquier operación matemática. Tenía una memoria que llegaba a guardar 1000
números de 50 cifras.
En el siglo XX gracias al desarrollo de la electrónica, un impulso eléctrico sustituyó a las varillas y a los
engranajes. Se sabía que había un impulso eléctrico cuando salía un 1, si salía un 0 no había. En la 2ª
Guerra Mundial, se construye el primer ordenador llamado Mark I funcionaba a través de
interruptores mecánicos.
En 1944, se creó un ordenador que era bastante útil, llamado Eniac. En 1951 aparecieron el Univac I
y el Univac II. Estos ordenadores son los primeros que pudieron usar todas las personas.
Dos años después, apareció el IBM (International Business Machines). Ayudó en la venta de
ordenadores en el mercado. El primer ordenador fue IBM 701 EDPM.
En 1954, apareció un lenguaje de programación de alto nivel llamado FORTRAN. Durante 1958,
aparecieron los chips, sin ellos, los sistemas actuales no podrían funcionar.
En 1969 se creó la red ARPA (internet original). Apareció en 1970 el chip RAM, que creó una
innovación en el mundo de la informática. En 1973 se creó la primera tarjeta de red, que permite
transferir datos entre ordenadores conectados entre sí. Los siguientes 3 años aparecieron el Scelbi,
Mark-8 Altair, IBM 5100, Apple I y II, TRS-80 y el Commodore Pet, que eran ordenadores domésticos,
aunque eran bastante caros.
En 1981 apareció "MICROSOFT". Este sistema operativo modificó el mundo de los ordenadores.
En 1983 se desarrolló el ordenador de Apple Lisa fue el primero con un interfaz gráfico.
-Generación
1ª Generación:
Las computadoras de la primera Generación emplearon bulbos para procesar información. Los
operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El
almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un
dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran
mucho más grandes y generaban más calor que los modelos contemporáneos. Eckert y Mauchly
contribuyeron al desarrollo de computadoras de la 1era Generación formando una compañía privada
y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía
el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba
teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes
y otros artículos; sin embargo, no había logrado el contrato para el Censo de 1950.
2ª Generación:
El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más
pequeñas y con menores necesidades de ventilación. Sin embargo, el costo seguía siendo una porción
significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también
utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento
primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los
cuales podían almacenarse datos e instrucciones.
3ª Generación:
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados
(pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración
en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían
menos calor y eran energéticamente más eficientes.
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido
en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce
de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación
de computadoras.
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para
aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados
permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y
estandarizar sus modelos.
4ª Generación:
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los
objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en
los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes,
que pueden resumirse de la siguiente manera: