Vous êtes sur la page 1sur 25

Universidad Nacional de Salta – Facultad de Ciencias Exactas

Carrera: Licenciatura en Análisis de Sistemas.


Cátedra: Elementos de Computación
Año 2008
Trabajo Práctico Nº1
Introducción Histórica

1. 1 Origen de la computación:
Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se
remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo,
consta de cuentas ensartadas en varillas que a su vez están montadas en un marco
rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores
almacenados, y es mediante dichas posiciones que este representa y almacena datos.
A este dispositivo no se le puede llamar computadora por carecer del elemento
fundamental llamado programa.
Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 -
1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con
estas máquinas, los datos se representaban mediante las posiciones de los engranajes,
y los datos se introducían manualmente estableciendo dichas posiciones finales de las
ruedas, de manera similar a como leemos los números en el cuentakilómetros de un
automóvil.

La primera computadora fue la máquina analítica creada por Charles Babbage,


profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo
Charles Babbage sobre un computador nació debido a que la elaboración de las tablas
matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno
Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo
mecánico para efectuar sumas repetidas.
Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar
que podía reproducir automáticamente patrones de tejidos leyendo la información
codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse
de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto
de la máquina analítica que se pudiera programar con tarjetas perforadas para
efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no
bastaba para hacer realidad sus ideas.
El mundo no estaba listo, y no lo estaría por cien años más.
En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo
encabezado por Howard H. Aiken. Esta máquina no está considerada como

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
computadora electrónica debido a que no era de propósito general y su
funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.

1.2 Soportes de cálculos diseñados por el hombre:


La historia del tratamiento de la información es prácticamente tan antigua como el
hombre, dado que éste siempre ha buscado medios para conseguir realizar cálculos
que le facilitasen su vida ordinaria. El primer instrumento de cálculo conocido es el
ábaco. Su creación se atribuye a las primeras civilizaciones chinas, aunque las primeras
fuentes documentadas sobre la utilización de ábacos datan del año 2600 a. C. en
Mesopotamia. El ábaco está constituido por un conjunto de varillas en las que se
insertan una serie de cuentas o bolitas que adquieren valores de diferente peso según
su posición relativa.
Hay que esperar hasta el siglo XVII para encontrar la primera máquina automática
diseñada por el hombre con el objeto de realizar cálculos. En 1642, Blaise Pascal, físico
y matemático francés, diseña y construye una máquina de sumar mecánica. Esta
máquina estaba compuesta por multitud de engranajes que permitían sumar dos
operandos. Disponía de unas ruedas giratorias de diez dientes en cada uno de los
cuales se representaban los dígitos del 0 al 9. Se trataba de una máquina rudimentaria
y pesada de utilizar pero desde el punto de vista técnico constituyó un gran avance de
la ingeniería.
En 1833, el matemático inglés Charles Babbage diseñó la primera máquina de calcular
capaz de ser gobernada por un programa, y que recibe el nombre de máquina
analítica. Constaba de un dispositivo mecánico automático para realizar las
operaciones, una memoria capaz de almacenar los datos y dispositivos que permitían
la entrada y salida de datos. Dichos dispositivos se basaban en el sistema de tarjetas
perforadas ideado por Jackard en la industria textil y desarrollado por Ada Byron para
la máquina de Babbage. Sin embargo esta máquina no llegó a ser construida dadas las
dificultades técnicas de la misma, demasiados complejas para la época. Aún así, en el
diseño de la máquina de Babbage se encuentran ya los fundamentos del ordenador
moderno, razón por la cual suele ser considerado el “padre” de la Informática.
A mediados del siglo XIX aparecen los primeros dispositivos de cálculo
electromagnéticos, basados en el uso de relés. En 1886, Hermann Hollerit crea una
máquina electromagnética capaz de leer tarjetas perforadas y de realizar tareas de
recuento de datos. Hollerit trabajó en 1880 para el censo de EE.UU., tarea que ocupó a
500 personas durante 7 años. Al utilizar su nueva máquina para la realización de un
nuevo censo en 1890 se invirtió un tiempo récord de 4 semanas. Años más tarde, en
1924, Hollerit fundaría la compañía IBM (International Bussiness Machine).
En la primera mitad del siglo XX y tras la invención de diversas máquinas automáticas
destinadas a la lectura y tratamiento de datos, los investigadores se dieron cuenta de
la dificultad de fabricar una máquina de cálculo basada en la utilización del sistema
decimal, de forma que empezaron a buscar otras soluciones. Así, R. Valtat presenta en
1932 la patente de una máquina de calcular basada en la utilización del sistema
binario de numeración. Por la misma época, Konrad Zuse inicia el desarrollo de una
máquina de calcular electromecánica, y en 1941 presenta la Zuse 3, la primera

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
máquina con un mecanismo de cálculo en sistema binario (aunque no llegó a funcionar
correctamente).
Anteriormente, en 1939, J. Atanasoff y C. Berry de la Universidad de Iowa
construyeron la ABC (Atanasoff-Berry Computer), que utilizaba también lógica binaria e
incorporaba algunos componentes electrónicos, aunque su logro no tuvo gran
repercusión. La II Guerra Mundial proporcionó un impulso decisivo al desarrollo de los
ordenadores. En 1943 entró en funcionamiento la máquina Colossus diseñada por el
equipo de Blenchey Park dirigido por Alan Turing con el fin de decodificar los mensajes
cifrados por los alemanes mediante la máquina Enigma, aunque su existencia se
mantuvo en secreto hasta varios años después de finalizada la contienda.
En 1944, Howard Aiken, un ingeniero de la empresa IBM que colaboraba con la
universidad de Harvard, presenta el ordenador Mark I, constituido por relés
electromecánicos. El ordenador constaba de 250.000 dispositivos y para conectarlos se
usó más de 800 Km de cable. Medía 15 m y disponía de una entrada de datos
mediante tarjetas perforadas, un dispositivo central de cálculo, un elemento de
memoria y un sistema de salida de datos.
Una vez finalizada la II Guerra Mundial, continuaron los estudios en el campo de las
computadoras realizados durante el periodo de guerra. Así, en 1945 entra en
funcionamiento el primer ordenador propiamente dicho: el ENIAC (Electronic
Numerical Integrator And Calculator), desarrollado por la universidad de Pensilvania
por J. Eckert y J. Mauchly. Su funcionamiento se basaba en el uso de válvulas
electrónicas. Gracias a la incorporación de estos elementos la velocidad de cálculo
aumentó unas 2.000 veces con respecto a las máquinas basadas en relés
electromecánicos. Sus dimensiones eran impresionantes, dado que disponía de más de
18.000 válvulas, ocupaba una superficie de 140 m2 y pesaba 30 Tn. La introducción de
datos se realizaba mediante tarjetas perforadas. El ENIAC es considerado el primer
ordenador electrónico propiemente dicho y con él se inicia la llamada Primera
Generación de ordenadores, basada en el uso de válvulas electrónicas.
Con la invención de las válvulas electrónicas el desarrollo de los ordenadores se
acelera paralelamente a la mejora de las características de funcionamiento de las
válvulas. El funcionamiento de las válvulas electrónicas se basa fundamentalmente en
el control del paso de electrones mediante la ionización de un gas encerrado en la
válvula y su aspecto exterior es parecido al de una lámpara. Sin embargo, la vida media
de las válvulas era muy corta y en consecuencia el mantenimiento de estas enormes
máquinas era muy costoso.
En 1951, de nuevo Eckert y Mauckly presentaron el ordenador UNIVAC, también de
válvulas. Constituye el primer ordenador comercial, pues los anteriores ordenadores
fabricados se habían diseñado con fines militares. Otros ordenadores de 1ª Generación
fueron el EDVAC y las series 600 y 700 de IBM. (Univac 1105 ,80 y 90 )
Uno de los mayores hitos de la historia de la electrónica y de la informática tiene lugar
en 1947 con la invención del transistor por parte de J. Bardeen, W. Sockley y W.
Brattain, científicos de la empresa Bell Telephone y ganadores por ello del premio
Nobel de Física.

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
El transistor es un dispositivo electrónico de estado sólido, constituido por un material
semiconductor (silicio o germanio) que actúa como amplificador y conmutador de la
corriente eléctrica. Estos dispositivos requieren menor coste de fabricación que las
válvulas, ocupan mucho menos espacio y son más rápidos en el control de las señales
eléctricas. La utilización del transistor supuso por tanto una enorme mejora de las
prestaciones y funcionamiento de los ordenadores. Durante los años 50 se fabricaron
diversos modelos de ordenadores basados en la utilización de transistores y
constituyen la denominada Segunda Generación de ordenadores. Ejemplos de este
tipo de ordenadores fueron la CDC 3000, la IBM 7090 o la RCA 501. (series 1400 y 1700
de IBM, CDC 3500, Atlas RCA 501,601)
En 1959, la empresa Texas Instruments fabrica el primer circuito integrado o chip,
diseñado por J. Kilby, que también fue galardonado por ello con el premio Nóbel. Un
chip está constituido por un conjunto de transistores fabricados todos ellos en un
mismo sustrato, constituyendo éste el primer paso en la miniaturización de la
electrónica. La utilización de circuitos integrados supone un ahorro aún mayor de
espacio dado que las conexiones entre los transistores están realizadas directamente
en el propio chip con lo que se evita el cableado y mejora el funcionamiento. Los
ordenadores basados en esta tecnología constituyen la Tercera Generación, que se va
a desarrollar durante los años 60.
1.3 Definiciones:
• Computación: El concepto "Computación" refiere al estudio científico que se
desarrolla sobre sistemas automatizados de manejo de informaciones, lo cual
se lleva a cabo a través de herramientas pensadas para tal propósito. Es de este
modo, que aparecen conceptos como la PC, Tecnología, Internet e Informática,
que se vinculan entre sí en el marco del procesamiento y movilidad de la
información.

Las Ciencias de la Computación supone un área muy profundo de análisis, que


tiene sus orígenes en 1920, cuando "computación" hacía referencia a los
cálculos generados por la propia persona. Luego, con la llegada de las PC´s, la
historia y el significado de este concepto se ampliaría sobre nuevos horizontes,
distinguiendo los algoritmos que forman parte del desarrollo de las soluciones.

En resumen, "computación" implica las órdenes y soluciones dictadas en una


máquina, comprendiendo el análisis de los factores involucrados sobre este
proceso, dentro de los cuales aparecen los lenguajes de programación. De este
modo, se automatizan tareas, generando datos concretos de forma ordenada.
• Informática: La informática es la ciencia que tiene como objetivo estudiar el
tratamiento automático de la información a través de la computadora. Esta
definición, si bien es bastante amplia, se debe a que el concepto de informática
también es amplio.

Para referirse a esta ciencia, también suele utilizarse el término Computación o


Ciencia de la Computación, con la diferencia de orígenes. El término
informática proviene de la conjunción de las palabras francesas “information” y

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
“automatique” que derivaron en la palabra “informatique”, creada por el
ingeniero Dreyfus. Mientras que computación es de origen inglés, refiriéndose
a ella como Computer Science.

En cuanto al contenido de la Informática, se encarga de estudiar todo lo


relacionado con las computadoras que incluye desde los aspectos de su
arquitectura y fabricación hasta los aspectos referidos a la organización y
almacenamiento de la información. Incluso contiene las cuestiones
relacionadas con la robótica y la inteligencia artificial.

Para poder realizar estos estudios y cumplir con sus objetivos, la Informática
utiliza una conexión con otras disciplinas como la Matemática, la Física y la
Ingeniería, entre otras. Y si bien es una ciencia que se consolidó como tal hacia
la década de 1940, con la aparición de la primera computadora, su crecimiento
en estas décadas es tan amplio como las ventajas que significó la
automatización de los procesos de la información.
• Procesamiento: En informática, cuando hablamos de proceso nos referimos a
un concepto que se maneja dentro del ámbito de los sistemas operativos, como
por ejemplo Windows, GNU/Linux, Mac OS X u otros. En este contexto, un
proceso se refiere a las instrucciones que ejecutará el microprocesador
mientras lee un programa determinado. Esto también implica a la memoria
reservada y a sus contenidos, el estado de ejecución en determinado
momento, y la información que permite al sistema operativo planificar.

Entonces, es el mismo sistema operativo el que inicia o termina procesos, y el


que se encarga de la comunicación entre los mimos: esto último se produce a
partir de que determinados procesos hacen peticiones al SO. En el caso de que
un proceso cree otro proceso por sí mismo (algo que se da todo el tiempo), ese
derivado es llamado fork, lo cual significa bifurcación. Tales procesos bifurcados
pueden no compartir el espacio de memoria con el proceso creado, siendo
independientes, o pueden compartir tal espacio de memoria.

Siendo que el procesador o CPU de una computadora ejecutará las


instrucciones de los procesos una tras otra (o intercaladas, en el caso de un
sistema multitarea), estas se encuentran a mano almacenadas en la memoria
principal, generalmente memoria RAM. Tales instrucciones no son otra cosa
que programas de computación ejecutándose en lenguaje de máquina, es
decir, en código binario solamente entendible por computadoras.
• Hardware: La palabra "Hardware" inmediatamente está haciendo referencia a
los componentes que forman parte de una computadora. Tal como el software
comprende las aplicaciones (sistemas operativos, programas antivirus, etc), el
Hardware comprende el mouse, la placa madre, el monitor, y demás unidades
vinculadas "físicamente" al equipo.

Existen 2 tipos de categorías importantes en el campo del "Hardware". Por un


lado, el Básico, que hace referencia a las herramientas indispensables para

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
correr una PC, y por otro lado, está el "Hardware Complementario", que
distingue a aquellos extras que uno puede sumar a la máquina, para jugar e ir
más lejos de sus posibilidades originales.

Es importante también, destacar las categorías de Periféricos de Entrada,


Salida, o ambas (E/S). El Hardware de Salida, como puede serlo un monitor,
describe a aquellos que muestran resultados, mientras que el Hardware de
Entrada está regido por aquellos dispositivos que hacen posible la recepción de
datos, como por ejemplo el teclado. Por su parte, los que son capaces de
soportar ambas visiones (Entrada y Salida) dan lugar a unidades, como por
ejemplo un Hard Drive -Disco Duro-, que envían y reciben información, entre la
PC y el usuario.
• Software: Palabra proveniente del inglés, también denominado equipamiento
lógico o soporte lógico, es el conjunto de los componentes necesarios para
hacer posible la realización de una tarea específica, en contraposición a los
componentes físicos del sistema (hardware). Esto incluye aplicaciones
informáticas tales como un procesador de textos, que permite al usuario
realizar una tarea, y software de sistema como un sistema operativo, que
permite al resto de programas funcionar adecuadamente, facilitando la
interacción con los componentes físicos y el resto de aplicaciones.

1.4 Precursores de la informática:


• Blaise Pascal: Blaise Pascal, inventó y construyó en el siglo XVII un mecanismo
(Pascalina) el cual utilizaba para realizar operaciones aritméticas. Fue el primer
calculador lo bastante seguro como para ser lanzado al mercado
comercialmente, este joven Pascal presentó su máquina para sumar en el año
1.642.
• Gottfried Leibniz: Descubrió el sistema binario, fundamento de virtualmente
todas las arquitecturas de las computadoras actuales
• Herman Hollerith: Fue un estadista que inventó la máquina tabuladora. Es
considerado como el primer informático, es decir, el primero que logra el
tratamiento automático de la información (Informática = Información +
automática).
• Charles Babbage: Diseñó y parcialmente implementó una máquina a vapor, de
diferencia mecánico para calcular tablas de números. También diseñó, pero
nunca construyó, la máquina analítica para ejecutar programas de tabulación o
computación; por estos inventos se le considera como una de las primeras
personas en concebir la idea de lo que hoy llamaríamos una computadora.
• Von Neumann: le dio su nombre a la arquitectura de von Neumann, utilizada
en casi todos los computadores, por su publicación del concepto. Virtualmente,
cada computador personal, microcomputador, mini computador y
supercomputador es una máquina de von Neumann. También creó el campo de

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
los autómatas celulares sin computadores, construyendo los primeros ejemplos
de autómatas auto replicables con lápiz y papel.
2. Primeras computadoras eléctricas:
En 1947 se construyó en la Universidad de
Pennsylvania la ENIAC (Electronic Numerical Integrator
And Calculator) que fue la primera computadora
electrónica, el equipo de diseño lo encabezaron los
ingenieros John Mauchly y John Eckert. Esta máquina
ocupaba todo un sótano de la Universidad, tenía más
de 18 000 tubos de vacío, consumía 200 KW de energía
eléctrica y requería todo un sistema de aire
acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en
un segundo.
El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos,
culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático
húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan
fundamentales para su desarrollo posterior, que es considerado el padre de las
computadoras.
La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este
nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria
basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a
retardos.
La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos
con instrucciones, para que entonces la computadora pueda ser programada en un
lenguaje, y no por medio de alambres que eléctricamente interconectaban varias
secciones de control, como en la ENIAC.

3. Generación de Computadoras:
Todo el desarrollo de las computadoras suele divisarse por generaciones y el criterio
que se determinó para determinar el cambio de generación no está muy bien definido,
pero resulta aparente que deben cumplirse al menos los siguientes requisitos:
• La forma en que están construidas.
• Forma en que el ser humano se comunica con ellas.
Primera Generación
En esta generación había una gran desconocimiento de las capacidades de las
computadoras, puesto que se realizó un estudio en esta época que determinó que con
veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de
procesamiento de datos.
Esta generación abarco la década de los cincuenta. Y se conoce como la primera
generación. Estas máquinas tenían las siguientes características:
Estas máquinas estaban construidas por medio de tubos de vacío.

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
Eran programadas en lenguaje de máquina.
En esta generación las máquinas son grandes y
costosas (de un costo aproximado de ciento de miles
de dólares).
En 1951 aparece la UNIVAC (NIVersAl Computer), fue
la primera computadora comercial, que disponía de
mil palabras de memoria central y podían leer cintas
magnéticas, se utilizó para procesar el censo de 1950
en los Estados Unidos.
En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas
perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una
compañía que con el paso del tiempo se conocería como IBM (International Bussines
Machines).
Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre
1953 y 1957.
Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía
con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó
problemas en memoria, debido a esto no duró en el mercado.
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se
produjeron varios cientos. Esta computadora que usaba un esquema de memoria
secundaria llamado tambor magnético, que es el antecesor de los discos actuales.
Otros modelos de computadora que se pueden situar en los inicios de la segunda
generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.
Segunda Generación
Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su
tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a
definir la forma de comunicarse con las computadoras, que recibía el nombre de
programación de sistemas.
Las características de la segunda generación son las siguientes:
Están construidas con circuitos de transistores.
Se programan en nuevos lenguajes llamados lenguajes de alto nivel.
En esta generación las computadoras se reducen de tamaño y son de menor costo.
Aparecen muchas compañías y las computadoras eran bastante avanzadas para su
época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.
Algunas de estas computadoras se programaban con cintas perforadas y otras más por
medio de cableado en un tablero. Los programas eran hechos a la medida por un
equipo de expertos: analistas, diseñadores, programadores y operadores que se
manejaban como una orquesta para resolver los problemas y cálculos solicitados por la
administración. El usuario final de la información no tenía contacto directo con las
computadoras. Esta situación en un principio se produjo en las primeras computadoras
personales, pues se requería saberlas "programar" (alimentarle instrucciones) para

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros
que gustaran de pasar un buen número de horas escribiendo instrucciones,
"corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que
aparecieran. Además, para no perder el "programa" resultante había que "guardarlo"
(almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y
mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45
minutos, según el programa. El panorama se modificó totalmente con la aparición de
las computadoras personales con mejore circuitos, más memoria, unidades de disco
flexible y sobre todo con la aparición de programas de aplicación general en donde el
usuario compra el programa y se pone a trabajar. Aparecen los programas
procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo
(spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de
la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece
un nuevo elemento: el usuario.
El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar
totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave
en el diseño tanto del hardware como del software. Aparece el concepto de human
interface que es la relación entre el usuario y su computadora. Se habla entonces de
hardware ergonómico (adaptado a las dimensiones humanas para reducir el
cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con
respecto al software se inicia una verdadera carrera para encontrar la manera en que
el usuario pase menos tiempo capacitándose y entrenándose y más tiempo
produciendo. Se ponen al alcance programas con menús (listas de opciones) que
orientan en todo momento al usuario (con el consiguiente aburrimiento de los
usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y
teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la
consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de
cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en
los programas comerciales. Pero el problema "constante" es que ninguna solución para
el uso de los programas es "constante". Cada nuevo programa requiere aprender
nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación
usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los
programas. Hace falta una relación amistosa entre el usuario y la PC.
Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró
del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604,
seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National
Cash Register empezó a producir máquinas para proceso de datos de tipo comercial,
introdujo el modelo NCR 315.
La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje
COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA
601.
Tercera generación
Con los progresos de la electrónica y los avances de comunicación con las
computadoras en la década de los 1960, surge la tercera generación de las
computadoras. Se inaugura con la IBM 360 en abril de 1964.3
_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
Las características de esta generación fueron las
siguientes:
Su fabricación electrónica esta basada en
circuitos integrados.
Su manejo es por medio de los lenguajes de
control de los sistemas operativos.
La IBM produce la serie 360 con los modelos 20,
22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que
utilizaban técnicas especiales del procesador,
unidades de cinta de nueve canales, paquetes de discos magnéticos y otras
características que ahora son estándares (no todos los modelos usaban estas técnicas,
sino que estaba dividido por aplicaciones).
El sistema operativo de la serie 360, se llamó OS que contaba con varias
configuraciones, incluía un conjunto de técnicas de manejo de memoria y del
procesador que pronto se convirtieron en estándares.
En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró
durante algunos años como la más rápida.
En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158,
168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala;
mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se
caracterizan por ser muy potentes y veloces.
A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341.
Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño,
que se reemplazaron por su serie 7000. Honey - Well participa con su computadora
DPS con varios modelos.
A mediados de la década de 1970, aparecen en el mercado las computadoras de
tamaño mediano, o minicomputadoras que no son tan costosas como las grandes
(llamadas también como mainframes que significa también, gran sistema), pero
disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las
siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual
Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data
General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la
Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En
la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias
generaciones.
Cuarta Generación
Aquí aparecen los microprocesadores que es un gran
adelanto de la microelectrónica, son circuitos integrados de
alta densidad y con una velocidad impresionante. Las
microcomputadoras con base en estos circuitos son
extremadamente pequeñas y baratas, por lo que su uso se
extiende al mercado industrial. Aquí nacen las computadoras

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
personales que han adquirido proporciones enormes y que han influido en la sociedad
en general sobre la llamada "revolución informática".
En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso
masivo y más tarde forman la compañía conocida como la Apple que fue la segunda
compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es
aún de las cinco compañías más grandes del mundo.
En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000.
Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras
personales, por lo que no queda duda que su impacto y penetración han sido enormes.
Con el surgimiento de las computadoras personales, el software y los sistemas que con
ellas de manejan han tenido un considerable avance, porque han hecho más
interactiva la comunicación con el usuario. Surgen otras aplicaciones como los
procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc.
También las industrias del Software de las computadoras personales crece con gran
rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de
sistemas operativos y métodos para lograr una utilización sencilla de las
microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).
No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes
sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por
mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de
instalaciones costosas y especiales, pero sería equivocado suponer que las grandes
computadoras han desaparecido; por el contrario, su presencia era ya ineludible en
prácticamente todas las esferas de control gubernamental, militar y de la gran
industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por
ejemplo, eran capaces de atender a varios cientos de millones de operaciones por
segundo.
Quinta Generación
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha
dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas
con que se manejan las computadoras. Surge la competencia internacional por el
dominio del mercado de la computación, en la que se perfilan dos líderes que, sin
embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse
con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes
de control especializados.
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras",
con los objetivos explícitos de producir máquinas con innovaciones reales en los
criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en
desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente
manera:
Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de
gran velocidad.
Manejo de lenguaje natural y sistemas de inteligencia artificial.

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
El futuro previsible de la computación es muy interesante, y se puede esperar que esta
ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en
conjunto.
4. Clases de computadoras:
• Computadora analógica: Aprovechando el hecho de que diferentes fenómenos
físicos se describen por relaciones matemáticas similares (v.g. Exponenciales,
Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen
el inconveniente que al cambiar el problema a resolver, hay que realambrar la
circuitería (cambiar el Hardware).

• Computadora digital: Están basadas en dispositivos biestables, i.e., que sólo


pueden tomar uno de dos valores posibles: ‘1’ ó ‘0’. Tienen como ventaja, el
poder ejecutar diferentes programas para diferentes problemas, sin tener que
la necesidad de modificar físicamente la máquina.
5. Tipos de computadoras:
MICROCOMPUTADORAS
Las microcomputadoras son las computadoras más accesibles para cualquier tipo de
usuario, son máquinas personales de escritorio.
Pequeñas solo en tamaño físico y accesibles económicamente, este tipo de
computadoras son tan dinámicas, que lo mismo las puede utilizar un experto en el
trabajo como un niño en casa, por esta razón las microcomputadoras son las más
conocidas, y ofrecen un sin número de aplicaciones.
En un principio solo era posible utilizarlas en ambiente monousuario, esto es un solo
usuario a la vez, pero con los avances tecnológicos desde hace ya bastante tiempo este
tipo de máquinas pueden ser utilizadas en ambientes multi, incluso como servidores
de una red de computadoras. Pequeñas de bajo costo y para múltiples aplicaciones.
MINICOMPUTADORAS
Al inicio de la década de 1960 hicieron su aparición las minicomputadoras, fabricadas
inicialmente por Digital Equipment Corporation (DEC). Estas máquinas son más
pequeñas que las macrocomputadoras pero también de un menor costo, son el punto
intermedio entre una microcomputadora y una macrocomputadora, en cuanto a su
forma de operar se asemeja más a una macrocomputadora ya que fueron diseñadas
para:
-Entornos de múltiples usuarios, apoyando multiples actividades de proceso al mismo
tiempo.
- Ofrecer ciertos servicios más específicos
- Soportar un número limitado de dispositivos
- Pequeñas y de bajo costo
- Para múltiples aplicaciones

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
MACROCOMPUTADORAS
La macrocomputadora es un sistema de aplicación general cuya característica principal
es el hecho de que el CPU es el centro de casi todas las actividades de procesamiento
secundario.
Por lo general cuenta con varias unidades de disco para procesar y almacenar grandes
cantidades de información. El CPU actúa como arbitro de todas las solicitudes y
controla el acceso a todos los archivos, lo mismo hace con las operaciones de
Entrada/Salida cuando se preparan salidas impresas o efímeras. El usuario se dirige a la
computadora central de la organización cuando requiere apoyo de procesamiento.
- El CPU es el centro de procesamiento
- Diseñadas para sistemas multiusuario
SUPERCOMPUTADORAS
La Supercomputadora es un sistema de cómputo más grande, diseñadas para trabajar
en tiempo real. Estos sistemas son utilizados principalmente por la defensa de los
Estados Unidos y por grandes Empresas multimillonarias, utilizan telecomunicaciones a
grandes velocidades, para poner un ejemplo estas máquinas pueden ejecutar millones
de instrucciones por segundo. Actúa como arbitro de todas las solicitudes y controla el
acceso a todos los archivos, lo mismo hace con las operaciones de Entrada/Salida
cuando se preparan salidas impresas o temporales. El usuario se dirige a la
computadora central de la organización cuando requiere apoyo de procesamiento.
- El CPU es el centro de procesamiento
-Diseñadas para sistemas multiusuario

6. Arquitecturas de computadoras Von neumann


La arquitectura de von Neumann se compone de tres elementos:
1. La Unidad Central de Procesamiento (CPU, por sus siglas en inglés), que es
considerada como el cerebro y corazón del computador. Internamente consiste
de una Unidad Aritmético-Lógica (ALU), un conjunto de registros y una Unidad
de Control (CU). La ALU es donde se realizan todas las operaciones que
involucran un procesamiento matemático (particularmente aritmético) o lógico
(operaciones booleanas). Los registros permiten el almacenammiento de datos
para estas operaciones y sus resultados. En la CU es donde se ejecutan todo el
resto de las operaciones (decisión, control, movimiento de datos). Una CPU con
todos estos elementos implementada en un solo chip recibe el nombre de
microprocesador.
2. La memoria, que es donde datos y programa es almacenado. La memoria
puede ser visto como un arreglo unidimensional finito en la que cada localidad
es identificada por un valor asociado a su posición y que es comunmente
llamado dirección. Existen diversos tipos de memoria, identificados por el tipo
de tecnología usada, aunque para un computador son generalmente
clasificadas en dos grandes grupos por tipo de uso al que de destina. La

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
memoria RAM (Random Access Memory, Memoria de Acceso Aleatorio) y que
es aquella destinada al almacenamiento de datos y programas (incluyendo al
sistema operativo), es considerada temporal o de tipo volátil ya que pierde si
contenido cuendo el computador es apagadoo reinicializado. La memoria ROM
es aquella de tipo permanente, aun cuando el computador sea desenergizado
mantendrá su contenido. Es usada principalmente para el almacenamiento de
pequeños programas destinados a la adminsitración básica de recursos,
especialmente de entrada y salida.
3. Las interfaces de entrada y salida (I/O). destinadas a liberar de trabajo a la CPU
en la comunidación con dispositivos de entrada (teclados, ratones), salida
(impresoras) y entrada-salidas (discos, cintas).
Estos tres elementos están interconectados a través de un conjunto de líneas que
llevan instrucciones (control bus), datos (data bus) y que permiten dar los valores de
direcciones de memoria y dispositivos (memory bus).

Características de las Maquinas No Von Neumann:


• Cuello de von Neumann:
o El procesador ejecuta una instrucción por vez
o Comunicación con Memoria y E/S empeoran la cosas..
• Mejoras:
o Buses especializados (DSP’’s usan buses de address y datos s usan
separados para instrucciones y operandos)
o Interrupciones
o Unidades de punto flotante
o Caches
o Pipelines
• Otro enfoque: apartarse de la arquitectura clasica dee von Neumann
• Agregar procesadores es una posibilidad
• Los sistemas de computo (high performance) estan equipados con mas de 1
millon de procesadores.
• El procesamiento paralelo en una de las formas de mejorar el poder de
computo.

7. Clasificación del desarrollo de software:


Se lo puede clasificar por las versiones que se van obteniendo al momento en que se
va desarrollando el software.

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008

Etapa Características

Pre-alfa La fase conocida como pre-alfa se publica a veces antes del


lanzamiento de una versión alfa o beta. En contraste con la versión alfa
y las versiones beta, la pre-alfa no tiene sus características completas.
Los diseñadores todavía están determinando en esta etapa
exactamente qué funcionalidades debe tener el producto. Tales etapas
se pueden llamar también development releases o nightly builds.

Alfa La versión alfa de un producto es la primera para la que el equipo de


desarrollo decide que implementa todas las funcionalidades
especificadas en los requisitos. Es la primera versión del programa que
se envía a los verificadores para probarla.
Algunos equipos de desarrollo utilizan el término alfa informalmente
para referirse a una fase donde un producto todavía es inestable,
aguarda todavía a que se eliminen los errores o a la puesta en práctica
completa de toda su funcionalidad, pero satisface la mayoría de los
requisitos.
El nombre se deriva de alfa, la primera letra en el alfabeto griego.

Beta Una versión beta o lanzamiento beta representa generalmente la


primera versión completa del programa informático o de otro
producto, que es probable que sea inestable pero útil para que las
demostraciones internas y las inspecciones previas seleccionen a
clientes. Algunos desarrolladores se refieren a esta etapa como
inspección previa (preview) o como una inspección previa técnica
(technical preview [TP]). Esta etapa comienza a menudo cuando los
desarrolladores anuncian una congelación de las características del
producto, indicando que no serán agregadas más características a esta
versión y que solamente se harán pequeñas ediciones o se corregirán
errores. Las versiones beta están en un paso intermedio en el ciclo de
desarrollo completo. Los desarrolladores las lanzan a un grupo de
probadores beta o betatesters (a veces el público en general) para una
prueba de usuario. Los probadores divulgan cualquier error que
encuentran y características, a veces de menor importancia, que
quisieran ver en la versión final.
Cuando una versión beta llega a estar disponible para el público en
general que a menudo es utilizada extensamente por los
tecnológicamente expertos o familiarizados con versiones anteriores,
como si el producto estuviera acabado. Generalmente los
desarrolladores de las versiones betas del software gratuito o de
código abierto los lanzan al público en general, mientras que las
versiones beta propietarias van a un grupo relativamente pequeño de
probadores. En febrero de 2005, ZDNet publicó un artículo acerca del
fenómeno reciente de las versiones beta que permanecían a menudo

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
por años y que eran utilizada como si estuvieran en nivel de producción
. Observa que Gmail, igual que las noticias de Google, por ejemplo, han
estado en beta por un período de tiempo muy largo y no saldrán del
estado beta a pesar del hecho de que se han utilizado extensamente.
Esta técnica puede también permitir a un desarrollador retrasar el
ofrecimiento de apoyo total o la responsabilidad de ediciones
restantes. Los receptores de betas altamente propietarias pueden
tener que firmar un acuerdo de no revelación.
Como esta es la segunda etapa en el ciclo de desarrollo que sigue la
etapa de alfa, esta se nombra como la siguiente letra griega beta.

Versión El término candidata a definitiva o candidata para el lanzamiento (si


candidata a traducimos más literalmente desde el término en inglés, release
definitiva candidate) se refiere a un producto final, preparado para lanzarse
como versión definitiva a menos que aparezcan errores que lo impidan.
En esta fase el producto implementa todas las funciones del diseño y se
encuentra libre de cualquier error que suponga un punto muerto en el
desarrollo. Microsoft utiliza frecuentemente este término. Otros
términos relacionados incluyen gamma, delta (y tal vez más letras
griegas) para versiones que están prácticamente completas pero
todavía en pruebas; y omega para versiones que se creen libres de
errores y se hallan en el proceso final de pruebas. Gamma, delta y
omega son, respectivamente, la tercera, cuarta y última letras del
alfabeto griego.

Versión de La versión de disponibilidad general (también llamada "dorada") de un


disponibilidad producto es su versión final. Normalmente es casi idéntica a la versión
general candidata final, con sólo correcciones de último momento. Esta versión
es considerada muy estable y relativamente libre de errores con una
calidad adecuada para una distribución amplia y usada por usuarios
finales. En versiones comerciales, puede estar también firmada (usado
para que los usuarios finales verifiquen que el código no ha sido
cambiado desde su salida. La expresión de que un producto "se ha
dorado" significa que que el código ha sido completado y que "está
siendo producido masivamente y estará en venta próximamente".
El término "dorado" se refiere anecdóticamente al uso del "disco
maestro de oro" que fue frecuentemente usado para enviar la versión
final a los fabricantes que lo usan para producir las copias de venta al
detalle. Esto puede ser una herencia de la producción musical. En
algunos casos, sin embargo, el disco maestro está realmente hecho de
oro, tanto por apariencia estética como por resistencia a la corrosión.
Microsoft y otros usan el término "release to manufacturing" (RTM)
para referirse a esta versión (para productos comerciales como
Windows XP, tal como "Build 2600 is the Windows XP RTM release"), y
"release to Web" (RTW) para productos libremente descargables.

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008

Estable/inestable En la programación de código abierto los números de las versiones, o


los términos estable e inestable, normalmente distinguen las fases del
desarrollo. En el núcleo Linux la versión está formada por cuatro
números, separados por un punto. Una cifra impar en el segundo
número de la versión indica una versión inestable. En la práctica el uso
de números pares e impares para indicar la estabilidad de un producto
ha sido usado por otros muchos proyectos de software libre.
Este concepto también se aplica al software empaquetado en algunas
distribuciones Linux como Debian, de modo que existe una rama o
conjunto de paquetes considerados estables y otra rama considerada
inestable. Esta última rama aporta versiones de programas más
recientes que la estable pero que no están tan probados.

8. Sistemas monousuario y multiusuario:


• Multiusuarios: Los sistemas operativos multiusuarios son capaces de dar
servicio a más de un usuario a la vez, ya sea por medio de varias terminales
conectadas a la computadora o por medio de sesiones remotas en una red de
comunicaciones. No importa el número de procesadores en la máquina ni el
número de procesos que cada usuario puede ejecutar simultáneamente.
Ej: Windows 95/98/Me de Microsoft ,MacOS y varias distribuciones de Linux.
• Monousuarios: Los sistemas operativos monousuarios son aquéllos que
soportan a un usuario a la vez, sin importar el número de procesadores que
tenga la computadora o el número de procesos o tareas que el usuario pueda
ejecutar en un mismo instante de tiempo. Las computadoras personales
típicamente se han clasificado en este renglón.

9. 1 Redes de computadoras:
Una red de computadoras (también llamada red de ordenadores o red informática) es
un conjunto de equipos (computadoras y/o dispositivos) conectados, que comparten
información (archivos), recursos (CD-ROM, impresoras, etc.) y servicios (acceso a
internet, e-mail, chat, juegos), etc.

9.2 Ventajas/Desventajas de las redes de computadoras:


Entre las ventajas de utilizar una red se encuentran:
• Posibilidad de compartir periféricos costosos como son: impresoras láser,
módem, fax, etc.
• Posibilidad de compartir grandes cantidades de información a través de
distintos programas, bases de datos, etc., de manera que sea más fácil su uso y
actualización.

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
• Reduce e incluso elimina la duplicidad de trabajos.

• Permite utilizar el correo electrónico para enviar o recibir mensajes de


diferentes usuarios de la misma red e incluso de redes diferentes.
• Reemplaza o complementa minicomputadoras de forma eficiente y con un
costo bastante más reducido.
• Establece enlaces con mainframes. De esta forma, una Computadora de gran
potencia actúa como servidor haciendo que pueda acceder a los recursos
disponibles cada una de las Computadoras personales conectadas.
• Permite mejorar la seguridad y control de la información que se utiliza,
permitiendo el acceso de determinados usuarios únicamente a cierta
información o impidiendo la modificación de diversos datos.
Algunas de las Desventajas son:
• Acceder a cualquier información a lo largo de una red es más lento que acceder
a su propia computadora.
• Una mayor complejidad añade nuevos problemas para manejar.
• Es posible una menor adaptación individual en los programas y carpetas
compartidas. Todos tendrán que seguir las mismas con- venciones para guardar
y para nombrar los archivos para que así también los otros puedan encontrar
los archivos correctos.
9.3 Tipos de redes:
Clasificación de las redes según su tamaño y extensión:
• Redes LAN. Las redes de área local (Local Area Network) son redes de
ordenadores cuya extensión es del orden de entre 10 metros a 1 kilómetro. Son
redes pequeñas, habituales en oficinas, colegios y empresas pequeñas, que
generalmente usan la tecnología de broadcast, es decir, aquella en que a un
sólo cable se conectan todas las máquinas. Como su tamaño es restringido, el
peor tiempo de transmisión de datos es conocido, siendo velocidades de
transmisión típicas de LAN las que van de 10 a 100 Mbps (Megabits por
segundo).
• Redes MAN. Las redes de área metropolitana (Metropolitan Area Network) son
redes de ordenadores de tamaño superior a una LAN, soliendo abarcar el
tamaño de una ciudad. Son típicas de empresas y organizaciones que poseen
distintas oficinas repartidas en un mismo área metropolitana, por lo que, en su
tamaño máximo, comprenden un área de unos 10 kilómetros.
• Redes WAN. Las redes de área amplia (Wide Area Network) tienen un tamaño
superior a una MAN, y consisten en una colección de host o de redes LAN
conectadas por una subred. Esta subred está formada por una serie de líneas
de transmisión interconectadas por medio de routers, aparatos de red
encargados de rutear o dirigir los paquetes hacia la LAN o host adecuado,
enviándose éstos de un router a otro. Su tamaño puede oscilar entre 100 y
1000 kilómetros.

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
• Redes internet. Una internet es una red de redes, vinculadas mediante
ruteadores gateways. Un gateway o pasarela es un computador especial que
puede traducir información entre sistemas con formato de datos diferentes. Su
tamaño puede ser desde 10000 kilómetros en adelante, y su ejemplo más claro
es Internet, la red de redes mundial.
• Redes inalámbricas. Las redes inalámbricas son redes cuyos medios físicos no
son cables de cobre de ningún tipo, lo que las diferencia de las redes
anteriores. Están basadas en la transmisión de datos mediante ondas de radio,
microondas, satélites o infrarrojos.
9.4 Redes Wi-fi:
Acrónimo de Wireless Fidelity. Tecnología que permite el acceso inalámbrico a redes
telemáticas como Internet por banda ancha en espacios públicos.
Con un alcance de varios centenares de metros y gran capacidad de transferencia, se
apoya en una red de ordenadores que requiere una gestión avanzada.
Se puede acceder a redes Wi-Fi desde muchas instalaciones turísticas, como
aeropuertos, hoteles o estaciones de tren. Incluso restaurantes de comida rápida o
cafeterías lo tienen como reclamo para atraer clientes.
Por otra parte, cada vez más ciudades ofrecen acceso a Internet por Wi-Fi en sus calles,
generalmente de forma gratuita.

10.1 Internet:
Internet es un método de interconexión descentralizada de redes de computadoras
implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes
físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus
orígenes se remontan a 1969, cuando se estableció la primera conexión de
computadoras, conocida como ARPANET, entre tres universidades en California y una
en Utah, EE. UU.
Al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide
Web (WWW, o "la Web"). Ésta es parte de Internet, siendo uno de los muchos
servicios ofertados en la red Internet. La Web es un sistema de información mucho
más reciente, desarrollado inicialmente por Tim Berners Lee en 1989. El WWW utiliza
Internet como medio de transmisión.

10.2 Servicios brindados por Internet:


Algunos de los servicios disponibles en Internet son:
• Acceso remoto a otras máquinas (SSH y telnet): Un escritorio remoto es una
tecnología que permite a un usuario trabajar en una computadora a través de su
escritorio gráfico desde otro terminal ubicado en otro lugar.
La tecnología de escritorio remoto permite la centralización de aquellas
aplicaciones que generalmente se ejecutan en entorno de usuario (por ejemplo,

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
procesador de textos o navegador). De esta
manera, dicho entorno de usuario se transforma en
meros terminales de entrada/salida.
Los eventos de pulsación de teclas y movimientos
de ratón se transmiten a un servidor central donde
la aplicación los procesa como si se tratase de
eventos locales. La imagen en pantalla de dicha
aplicación es retornada al terminal cliente cada
cierto tiempo.
• La transferencia de archivos (FTP): FTP es la sigla de File Transfer Protocol o
Protocolo de Transferencia de Archivos. Un protocolo es un conjunto de reglas
que usan las computadoras conectadas en red para conversar entre sí. Y FTP es
el lenguaje que utilizan las computadoras que integran una red TCP/IP (como
Internet) para transferirse archivos entre sí.
El FTP, o Protocolo de Transferencia de Archivos, es el modo más fácil para
transferir archivos entre computadoras, a través de Internet.
Los navegadores web actuales permiten descargar archivos via FTP desde
adentro de la ventana del navegador. Es muy cómodo, y es fantástico para las
ocasiones en que uno necesita descargar uno o dos archivos, pero el método de
la descarga a través del navegador no ofrece demasiada flexibilidad: no se
pueden subir archivos, ni seleccionar un modo de transferencia determinado o
hacer preguntas al servidor. Y no me hagan hablar sobre los problemas de
seguridad. Pero si se dedican al desarrollo web, necesitan todas estas funciones.
La mejor manera de transferir archivos es con un buen cliente FTP. Se usa un
cliente FTP para conectarse a un servidor FTP, navegar la estructura de carpetas
del servidor e intercambiar archivos. Eso es todo lo que los clientes FTP hacen,
a diferencia de los navegadores web, los clientes FTP están especializados en
esas tareas.
• El correo electrónico (SMTP y POP): Correo electrónico, o en inglés e-mail, es
un servicio de red que permite a los usuarios enviar y recibir mensajes
electrónicos mediante sistemas de comunicación electrónicos. Principalmente se
usa este nombre para denominar al sistema que provee este servicio en Internet,
mediante el protocolo SMTP, aunque por extensión también puede verse
aplicado a sistemas análogos que usen otras tecnologías. Por medio de mensajes
de correo electrónico se puede enviar, no solamente texto, sino todo tipo de
documentos. Su eficiencia, conveniencia y bajo costo están logrando que el
correo electrónico desplace al correo ordinario para muchos usos habituales.
Una dirección de correo electrónico es un conjunto de palabras que identifican a
una persona que puede enviar y recibir correo. Cada dirección es única y
pertenece siempre a la misma persona.
Tomlinson eligió la arroba, que en inglés se lee "at (en tal lugar)", para
especificar el destinatario del mensaje: Fulano en tal lugar.
Las comunicaciones tienen lugar al instante. Es decir, la velocidad con que los
mensajes llegan al casillero del destinatario es alta.
A diferencia del teléfono, no es necesario que la otra persona conteste para dejar
el mensaje. Se puede dejar el mensaje a muchas personas al mismo tiempo. En
los sistemas tradicionales de correo el documento puede perderse. El correo
electrónico ofrece seguridad en este sentido.

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
• Los boletines electrónicos (news o grupos de noticias): Un boletín informativo
es una publicación distribuida de forma regular, generalmente centrada en un
tema principal que es del interés de sus suscriptores. Muchos boletines son
publicados por clubes, sociedades, asociaciones y negocios, particularmente
compañías, para proporcionar información de interés a sus miembros o
empleados. Algunos boletines informativos son creados con ánimo de lucro y se
venden directamente a sus suscriptores.
Muchas páginas web populares y muchas compañías mantienen boletines
informativos electrónicos, que se suelen enviar a los suscriptores por correo
electrónico (es también habitual enviar únicamente un resumen con enlaces al
boletín completo). Su propósito es informar a los lectores de las actualizaciones
de la página web y/o proporcionar información sobre el tema en que se centra el
sitio web. Los boletines electrónicos juegan un importante papel en la creación y
mantenimiento de la relación con los suscriptores, recordándoles la página web e
invitándoles a visitarla regularmente.
Los boletines electrónicos, especialmente los originarios de compañías, pueden
en ocasiones ser considerados spam. Muchas páginas web que requieren
registrarse como usuario suelen incorporar suscripciones a uno o más boletines
informativos, estando las opciones de suscripción preseleccionadas. El resultado
es que muchos usuarios acaban recibiendo boletines informativos a los que no
deseaban suscribirse por no leer el formulario de registro con la suficiente
atención.
• Las conversaciones en línea (IRC y chats): Chat (español: charla), que también
se le conoce como cibercharla, es un anglicismo que usualmente se refiere a
una comunicación escrita a través de internet entre dos o más personas que se
realiza instantáneamente. Esta puede ser desde cualquier lado del mundo
tomando en cuenta que se necesita una cuenta de correo electronico.
La acepción de la palabra Chat es amplia, y por lo general agrupa a todos los
protocolos que cumplen la función de comunicar a dos o más personas, dentro
de éstos están los clientes de chat, como por ejemplo X-Chat, ChatZilla (el
cliente de Mozilla/SeaMonkey) o el mIRC; éstos usan el protocolo IRC, cuyas
siglas significan Internet Relay Chat. Otros son protocolos distintos pero
agrupados en lo que es la mensajería instantánea, tales como MSN Messenger,
Yahoo! Messenger, Jabber, o ICQ entre los más conocidos, o también el servicio
de SMS de telefonía móvil. También se puede agrupar al peer-to-peer. También
es muy usado el método webchat, que no es otra cosa que enviar y recibir
mensajes por una página web dinámica, o usando el protocolo "IRC" si se trata
de un applet de Java.
• El intercambio de archivos (P2P, P2M, Descarga Directa): El intercambio de
archivos a través de internet se puede realizar de distintas formas:
 P2P se basa principalmente en la filosofía e ideales de que todos los usuarios
deben compartir. Conocida como filosofía P2P, es aplicada en algunas redes
en forma de un sistema enteramente meritocrático en donde "el que más
comparta, más privilegios tiene y más acceso dispone de manera más rápida
a más contenido". Con este sistema se pretende asegurar la disponibilidad
del contenido compartido, ya que de lo contrario no sería posible la
subsistencia de la red. (Por ejemplo: Torrent, Ares, limewire, etc )

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
 Peer2Mail (abreviado P2M) es un programa que permite almacenar y
compartir archivos en cuentas de correo. P2M parte el archivo que quieres
compartir o almacenar, lo comprime y lo cifra. Entonces, envía las partes del
archivo uno por uno a una cuenta de correo. Una vez P2M ha subido todos
las partes del archivo, puedes descargar las partes y usar P2M para unirlas y
obtener de nuevo el archivo original. (Por ejemplo: GOD, Moorhunt, Mail
Ressender, etc)
 Descarga directa: Es una forma de descarga desde un servidor en el que el
usuario no tiene que esperar colas, a diferencia del P2P en el que se
producen esperas (a veces de varias horas) y la velocidad de transferencia
depende del ancho de banda de subida del emisor y del ancho de banda de
bajada del receptor. Este tipo de descarga no requiere que el usuario tenga un
programa específico para realizarse (en la mayoría de las ocasiones), solo se
necesita el navegador; aunque en algunos casos esta permitido o es factible
el uso de un gestor de descargas como programa de optimización y
reanudación de la descarga de los archivos. Cada empresa ofrece diferentes
tipo de almacenamiento y descargas, los que varían en el tipo de archivo,
tamaño, tiempo de permanencia del archivo, y el número de veces que se
puede descargar. Así mismo, ofrece siempre un servicio gratuito (que suele
tener un máximo de usos por día) y uno de pago o premium. (Por ejemplo:
Rapidshare, Megaupload, 4shared, etc)
• La radio a la carta (Podcast): El podcasting consiste en la creación de archivos
de sonido (generalmente en formato mp3 o AAC y en algunos casos ogg) y de
video (llamados videocasts o vodcasts) y su distribución mediante un archivo
RSS que permite suscribirse y usar un programa que lo descarga de Internet para
que el usuario lo escuche en el momento que quiera, generalmente en un
reproductor portátil.
• El visionado de video a la carta (P2PTV): P2PTV es una técnica de transmisión
y difusión de contenidos audiovisuales (vídeos, televisión, etc) a través de la red
de Internet usando la arquitectura de los sistemas P2P, donde los nodos
individuales se conectan a otros nodos para recibir los streams de vídeo y audio.
El uso del sistema P2P implica que los usuarios utilizan su conexión a Internet
para ayudar en la distribución de la señal: los usuarios que están realizando un
streaming de bajada se convierten en pequeños servidores que lo ofrecen a otros
usuarios. De este modo, se solucionan los dos grandes problemas de la
transmisión broadcast por Internet: se disminuye la carga del servidor y el ancho
de banda ocupado. Con la p2ptv algunos canales pueden mantener más de
100.000 conexiones simultáneas de forma fluida y sin la necesidad de
demasiado ancho de banda.
• Los juegos en línea: Los juegos en línea (también llamados juegos online) son
aquellos videojuegos jugados vía internet independientemente de la plataforma.
Puede tratase de juegos multijugador, en los que se juega con otras personas o
juegos web que se descargan desde la web y ejecutan en el navegador.
Los juegos de rol multijugador masivo online o MMORPGs (Massive(ly)
Multiplayer Online Role-Playing Games) son videojuegos que permiten a miles
de jugadores introducirse en un mundo virtual de forma simultánea a través de
Internet, e interactuar entre ellos. Puede tratarse de administrar una ciudad, un
ejército para ganar batallas,o más comúnmente crear un personaje, del cual

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
puedes elegir su raza, profesión, armas, etc., e ir aumentando niveles y
experiencia en peleas contra otros personajes o PJs o realizando diversas
aventuras (o misiones) llamadas quests. Este género de RPGs difiere de un RPG
online multijugador no masivo en que éstos últimos tienen un número limitado
de jugadores, es decir, los MMORPGs están preparados y elaborados de tal
manera que admiten cualquier número de jugadores simultáneos (aunque en la
práctica viene limitado por la conexión del servidor).

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008

Bibliografía:
Paginas Web consultadas:
 http://www.monografias.com/trabajos/histocomp/histocomp.shtml
 http://html.rincondelvago.com/historia-de-la-computacion_5.html
 http://www.magister.org/temamu-tc.htm
 http://www.mastermagazine.info/termino/4382.php
 http://www.mastermagazine.info/termino/5368.php
 http://www.mastermagazine.info/termino/6377.php
 http://www.mastermagazine.info/termino/5214.php
 http://es.wikipedia.org/wiki/Computer_software
 http://www.monografias.com/trabajos10/infoba/infoba.shtml
 http://es.wikipedia.org/wiki/Gottfried_Leibniz
 http://es.wikipedia.org/wiki/Herman_Hollerith
 http://es.wikipedia.org/wiki/Charles_Babbage
 http://es.wikipedia.org/wiki/John_von_Neumann
 http://mariobalu.files.wordpress.com/2008/02/vonnewman_balux_paradox.pdf
 http://es.wikipedia.org/wiki/Fases_del_desarrollo_de_software
 http://www.monografias.com/trabajos16/sistema-operativo/sistema-operativo.shtml
 http://www.monografias.com/trabajos24/redes-computadoras/redes-
computadoras.shtml
 http://www.pchardware.org/redes/redes_ventajas.php
 http://www.jegsworks.com/lessons-sp/lesson7/lesson7-5.htm
 http://exa.unne.edu.ar/depar/areas/informatica/SistemasOperativos/MonogSO/REDE
S02.htm
 http://www.mastermagazine.info/articulo/3322.php
 http://www.poraqui.net/diccionario/index.php/term/Glosario+de+turismo+y+hosteler
%C3%ADa,Wi-Fi.xhtml
 http://es.wikipedia.org/wiki/Acceso_a_Internet
 http://www.google.com.ar/search?hl=es&q=servicios+brindados+por+internet&btnG=
Buscar&meta=
 http://es.wikipedia.org/wiki/Escritorio_remoto
 http://www.terra.com.ar/canales/internet/81/81519.html
 http://es.wikipedia.org/wiki/Correo_electr%C3%B3nico
 http://www.maestrosdelweb.com/editorial/emailhis/
 http://www.inei.gob.pe/biblioineipub/bancopub/inf/Lib5051/cap02.htm

_____________________________________________________________________________
Henry Suárez
Universidad Nacional de Salta – Facultad de Ciencias Exactas
Carrera: Licenciatura en Análisis de Sistemas.
Cátedra: Elementos de Computación
Año 2008
 http://es.wikipedia.org/wiki/Bolet%C3%ADn_informativo
 http://es.wikipedia.org/wiki/Chat
 http://es.wikipedia.org/wiki/IRC
 http://es.wikipedia.org/wiki/Descargar_(archivos)
 http://es.wikipedia.org/wiki/P2PTV
 http://es.wikipedia.org/wiki/Juegos_en_l%C3%ADnea
 http://es.wikipedia.org/wiki/MMORPG

_____________________________________________________________________________
Henry Suárez

Vous aimerez peut-être aussi