Vous êtes sur la page 1sur 36

ARQUITECTURA GENERAL DEL COMPUTADOR

1. 1. Arquitectura general del computador Carlos Mendoza 20.350.162


Sección saia E
2. 2.  El diseño conceptual y la estructura operacional fundamental de un
sistema de computadoras. Es decir, es un modelo y una descripción
funcional de los requerimiento y las implementaciones de diseño para
varias partes de una computadora, con especial interés en la forma en que
la unidad central de proceso (CPU) trabaja internamente y accede a las
direcciones de memoria.  También suele definirse como la forma de
interconectar componentes de hardware, para crear computadoras según
los requerimientos de funcionalidad, rendimiento y costo.
3. 3.  En una arquitectura de acumulador, un operando está implícitamente
en el acumulador siempre leyendo e ingresando datos (por ejemplo, una
calculadora estándar).  En la arquitectura de pila no es necesario nombrar
a los operando ya que estos se encuentran en el tope de la pila (por
ejemplo, calculadora de pila HP).  La arquitectura de registros tiene sólo
operando explícitos (es aquel que se nombra) en registros o memoria.
Características
4. 4.  Ventajas de la arquitectura  Modelo sencillo para evaluación de
expresiones (notación polaca inversa).  Instrucciones cortas pueden dar
una buena densidad de código.  Acumulador:  Instrucciones cortas. 
Minimiza estados internos de la máquina (unidad de control sencilla). 
Registro:  Modelo más general para el código de instrucciones parecidas.
 Automatiza generación de código y la reutilización de operando. 
Reduce el tráfico a memoria.  Una computadora tiene 32 registros, como
estándar.  El acceso a los datos es más rápido y veloz.
5. 5.  Desventajas de las arquitecturas  A una pila no se puede acceder
aleatoriamente.  Esta limitación hace difícil generar código eficiente. 
También dificulta una implementación eficiente, ya que la pila llega a ser un
cuello de botella es decir que existe dificultad para la transferencia de datos
en su velocidad mk.  Acumulador:  Como el acumulador es solamente
almacenamiento temporal, el tráfico de memoria es el más alto en esta
aproximación.  Registro:  Todos los operadores deben ser nombrados,
conduciendo a instrucciones más largas.
6. 6. Clasificación  Una de las formas de clasificar el hardware es en dos
categorías: por un lado, el básico, que abarca el conjunto de componentes
indispensables necesarios para otorgar la funcionalidad mínima a una
computadora; y por otro lado, el hardware complementario, que, como su
nombre indica, es el utilizado para realizar funciones específicas (más allá
de las básicas), no estrictamente necesarias para el funcionamiento de la
computadora.  Necesita un medio de entrada de datos, la unidad central
de procesamiento, la memoria RAM, un medio de salida de datos y un
medio de almacenamiento constituyen el hardware básico.
7. 7. Para concluir  Podemos decir que El ordenador recibe y envía la
información a través de los periféricos por medio de los canales. La UCP es
la encargada de procesar la información que le llega al ordenador. El
intercambio de información se tiene que hacer con los periféricos y la UCP.
s un sistema complejo que puede llegar a estar constituido por millones de
componentes electrónicos elementales.

Hardware y tipos de hardware

Hardware
Ir a la navegación Ir a la búsqueda

Hardware típico de una computadora personal:


1. Monitor.
2. Placa principal.
3. Microprocesador (CPU) y zócalo.
4. Un módulo de RAM y tres ranuras.
5. Dos tarjetas de expansión y tres ranuras.
6. Fuente de alimentación.
7. Unidad de disco óptico (CD; DVD; BD).
8. Unidad de disco duro o unidad de estado sólido.
9. Teclado.
10. Ratón.

La palabra hardware en informática se refiere a las partes físicas tangibles de un sistema


informático; sus componentes eléctricos, electrónicos, electromecánicos y mecánicos.1 Los
cables, así como los gabinetes o cajas, los periféricos de todo tipo, y cualquier otro
elemento físico involucrado, componen el hardware o soporte físico; contrariamente, el
soporte lógico e intangible es el llamado software.

El término es propio del idioma inglés, y su traducción al español no tiene un significado


acorde, por tal motivo se lo ha adoptado tal cual es y suena. La Real Academia Española lo
define como «Conjunto de los componentes que integran la parte material de una
computadora».2 El término, aunque sea lo más común, no solamente se aplica a las
computadoras, también es a menudo utilizado en otras áreas de la vida diaria y la
tecnología. Por ejemplo, hardware también se refiere a herramientas y máquinas, y en
electrónica hardware se refiere a todos los componentes electrónicos, eléctricos,
electromecánicos, mecánicos, cableados y tarjetas de circuitos impresos.

Otros ejemplos donde se aplica el término hardware son, en relación a los robots,34 así
como en relación a los teléfonos móviles, las cámaras fotográficas, los reproductores
digitales, o cualquier otro dispositivo electrónico. Cuando dichos dispositivos también
procesan datos, poseen firmware y/o software además de hardware.

La historia del hardware de computador se puede clasificar en cuatro generaciones, cada


una caracterizada por un cambio tecnológico de importancia. Una primera delimitación
podría hacerse entre hardware principal, como el estrictamente necesario para el
funcionamiento normal del equipo, y el «complementario», como el que realiza funciones
específicas.

Un sistema informático se compone de una unidad central de procesamiento (UCP o CPU),


encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el
ingreso de la información y uno o varios periféricos de salida, que posibilitan dar salida
(normalmente en forma visual, impresa o auditiva) a los datos procesados.

Tipos de hardware
El término hardware alude a todo dispositivo físico que forma parte de una
computadora, y permite su funcionamiento.

Se pueden clasificar de la siguiente manera:

HARDWARE BÁSICO: esta clase de hardware está conformada por aquellos dispositivos
imprescindibles para el funcionamiento mínimo de un equipo. El gabinete, las memorias
RAM y ROM constituyen son ejemplos.

HARDWARE COMPLEMENTARIO: Incluye todos los elementos de los que existe la


posibilidad de prescindir, y aun así, la funcionalidad de la computadora no se verá afectada.
Ejemplos de hardware complementario son la Webcam o la unidad lectora de disco óptico.

De acuerdo a su función:
HARDWARE DE ALMACENAMIENTO: como su nombre lo indica estos dispositivos
tiene la capacidad de almacenar datos e información, ya sea de forma temporal o
permanente. Ejemplos de hardware de almacenamiento son: la memoria RAM y la
memoria ROM, memorias USB, DVD, CD, cintas de video, entre otros.

HARDWARE DE PROCESAMIENTO: se refiere a aquellos elementos cuyo propósito


constituye la interpretación y ejecución de instrucciones, y el procesamiento de
datos. Dentro de este ítem podemos encontrar a los microprocesadores, y a la Unidad
Central de Procesamiento (CPU).

HARDWARE DE ENTRADA: este tipo de hardware es utilizado con el objeto de


introducir datos e información a la CPU. Ejemplos de hardware de entrada son: teclado,
escáner, Mouse, micrófonos, webcams, etc.

HARDWARE DE SALIDA: incluye a todos los dispositivos capaces de dirigir los datos
generados por la computadora hacia el exterior. Algunos ejemplos de esta clase de
hardware son las impresoras, el monitor, los auriculares, los proyectos, los altavoces, entre
otros.

HARDWARE DE ENTRADA/SALIDA: reciben esta denominación debido a que


combinan las funcionalidades de los dispositivos de entrada y salida. Es decir, tienen la
capacidad tanto de introducir datos e información, como de dirigirla hacia el exterior. A
modo de ejemplo se pueden mencionar las tarjetas de red, los routers, módems, tarjetas de
audio

Software

Dentro de la categoría de software de aplicación están incluidos los procesadores de texto


como LibreOffice Writer (arriba) y los editores de gráficos rasterizados como Krita (abajo).

Buscador de Programas en Ubuntu 13.10

Se conoce como software1 al soporte lógico de un sistema informático, que comprende el


conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas
específicas, en contraposición a los componentes físicos que son llamados hardware. La
interacción entre el software y el hardware hace operativo un ordenador (u otro
dispositivo), es decir, el Software envía instrucciones que el Hardware ejecuta, haciendo
posible su funcionamiento.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas, tales
como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a
la edición de textos; el llamado software de sistema, tal como el sistema operativo, que
básicamente permite al resto de los programas funcionar adecuadamente, facilitando
también la interacción entre los componentes físicos y el resto de las aplicaciones, y
proporcionando una interfaz con el usuario.2
El software en su gran mayoría, está escrito en lenguajes de programación de alto nivel, ya
que son más fáciles y eficientes para que los programadores los usen, porque son más
cercanos al lenguaje natural respecto del lenguaje de máquina.3 Los lenguajes de alto nivel
se traducen a lenguaje de máquina utilizando un compilador o un intérprete, o bien una
combinación de ambos. El software también puede estar escrito en lenguaje ensamblador ,
que es de bajo nivel y tiene una alta correspondencia con las instrucciones de lenguaje
máquina; se traduce al lenguaje de la máquina utilizando un ensamblador.

El anglicismo software es el más ampliamente difundido al referirse a este concepto,


especialmente en la jerga técnica; en tanto que el término sinónimo «logicial», derivado del
término francés logiciel, es utilizado mayormente en países y zonas de influencia francesa.
Su abreviatura es Sw

Tipos de software

El software es un conjunto de programas, rutinas, datos o instrucciones que se encargan de


ejecutar diferentes tareas en un dispositivo, ya sea éste un pc, una tablet o un smartphone.

En español, software significa parte blanda, dado que es la parte intangible de cualquier
dispositivo y es la que actúa como unión entre el usuario y el conocido como hardware.

¿Pero cuántos tipos de software existen?

Contenido

 1 Tipos de software
o 1.1 Software de sistema
o 1.2 Software de programación
o 1.3 Software de aplicación
o 1.4 Comparte esto:
o 1.5 Me gusta:
o 1.6 Relacionado

Tipos de software
En la clasificación de software destacan, principalmente, tres tipos de software, que son:
Software de aplicación, software de sistema y software de programación y que pasamos a
analizar a continuación.

Software de sistema
El software de sistema es el que permite al usuario utilizar el sistema operativo incorporado
en el ordenador o dispositivo en cuestión. El software de sistema lo componen una serie de
programas que tienen dos objetivos, el primero es gestionar los recursos de los que dispone
el hardware, pudiendo coordinar tareas, como por ejemplo la memoria, las unidades de
disco, las impresoras o escáneres e, incluso, el mouse, y el segundo es ofrecer una interfaz
al usuario para que el usuario pueda interactuar con el sistema.

Estos son los diferentes tipos de software de sistema:

 Cargador de programas
 Sistemas operativos (como son Mac, Windows o Linux)
 Controlador de dispositivos
 Herramientas de programación
 Programas utilitarios
 Entornos de escritorio
 BIOS o sistema básico de entrada y salida
 Hipervisores o máquinas virtuales (permiten gestionar diferentes Sistemas
Operativos en un mismo dispositivo)
 Gestores de arranque (en inglés se conocen como bootloaders)

Software de programación

El software de programación son las herramientas de las que se vale el programador para
crear programas. Es decir, el programador emplea diferentes lenguajes de programación.
Como por ejemplo los editores de texto o los compiladores, es decir, son diferentes tipos de
software ideados para trabajar de la mano. Por ejemplo, el programador crea el código en el
editor de texto y luego lo compila.

Clasificación de los diferentes tipos de software de programación:

 Compiladores
 Editores de texto
 Enlazadores de código
 Depuradores
 Entornos de desarrollo integrado (IDE por sus siglas en inglés). Los entornos de
desarrollo integrado agrupan los diferentes software de programación en una única
interfaz y que consiguen facilitar el trabajo de los programadores al agrupar todas
las herramientas en una sola.

Software de aplicación

Se llama software de aplicación a todo programa que otorga a los usuarios la capacidad
para realizar diferentes trabajos. Es decir, software de aplicación serían todos los
procesadores de texto, hojas de cálculo o videojuegos.
Tipos de software de aplicación más característicos:

 Paquetería o aplicaciones de ofimática


 Bases de datos
 Videojuegos
 Software empresarial
 Programas o software educativo
 Software de gestión o cálculo numérico

Estos son los tipos de programación más importantes, aunque si queréis aprender más sobre
el tema, puedes aprender sobre software y hardware aquí o en el siguiente vídeo:

Periférico de entrada/salida
Ir a la navegación Ir a la búsqueda

En informática, un periférico de entrada/salida o E/S (en inglés: input/output o I/O) es


aquel tipo de dispositivo periférico de un computador capaz de interactuar con los
elementos externos a ese sistema de forma bidireccional, es decir, que permite tanto que sea
ingresada información desde un sistema externo, como emitir información a partir de ese
sistema.

Dispositivos o periféricos de comunicación entre computadoras, tales como módems y


tarjetas de red, por lo general sirven para entrada y salida. También, los dispositivos de
almacenamiento de datos, como los discos rígidos, la unidad de estado sólido, las memorias
flash, las disqueteras, entre otros, se pueden considerar perifericos de entrada/salida.

La CPU, sus entradas y salidas

Un periférico de E/S es el que se utiliza para ingresar (E) datos a la computadora, y luego
de ser procesados por la unidad central de procesamiento (CPU), genera la salida (S) de
información.

Su función es leer o grabar, permanente o virtualmente, todo aquello que se haga con la
computadora, para que pueda ser utilizado por los usuarios u otros sistemas.

Ejemplos:

 Pantalla táctil
 Multitáctil
 Casco virtual
 Impresora multifunción

Artículo principal: Dispositivo de almacenamiento de datos


En ocasiones, se consideran periféricos de E/S a los dispositivos de almacenamiento de
datos, como por ejemplo, las lectograbadoras de discos ópticos, ‘lectoras’ de tarjetas de
memoria, discos duros portátiles o externos, memorias USB o memorias flash, etcétera.

Significado de Dispositivos de entrada y


salida
Qué son Dispositivos de entrada y salida:
Los dispositivos de entrada y salida son aparatos electrónicos que son conectadas a la
computadora a través de sus ranuras de entrada o salida.

En computación, los dispositivos de entrada y salida son los medios con el cual el usuario
se comunica con el sistema de procesamiento de información como, por ejemplo, las
tabletas, computadoras o celulares inteligentes.

En informática, los dispositivos de entrada y salida son también llamados periféricos, ya


que, no son una parte integral del sistema informático en sí, sino elementos periféricos que
se conectan al sistema mediante sus ranuras de entrada (inputs) o ranuras de salida
(outputs).

Vea también Output.

Los periféricos de entrada y salida se conectan a los sistemas de procesamiento de


información a través de ranuras de expansión o conectores de entrada y salida que se
encuentran integrados en su tarjeta madre como, por ejemplo, las ranuras o puertos USB,
conector LAN, conector VGA o conector de audio.

Vea también USB.

Los dispositivos de entrada son aquellos elementos que se conectan para introducir dentro
del sistema general la función o información deseada. Algunos ejemplos de dispositivos de
entrada son: el teclado, el ratón, el escáner.

Vea también Dispositivos de entrada.

Los dispositivos de salida son aquellos elementos que se conectan para que el sistema de
procesamiento exponga la función o información deseada. Algunos ejemplos de
dispositivos de salida son: el monitor, las memorias portátiles, las impresoras.

Definición de Memoria ROM


memoria-rom Una memoria ROM es aquella memoria de almacenamiento que permite sólo
la lectura de la información y no su destrucción, independientemente de la presencia o no
de una fuente de energía que la alimente.

ROM es una sigla en inglés que refiere al término "Read Only Memory" o "Memoria de
Sólo Lectura". Se trata de una memoria de semiconductor que facilita la conservación de
información que puede ser leída pero sobre la cual no se puede destruir. A diferencia de una
memoria RAM, aquellos datos contenidos en una ROM no son destruidos ni perdidos en
caso de que se interrumpa la corriente de información y por eso se la llama "memoria no
volátil".

Con frecuencia, las memorias ROM o de sólo lectura se usaron como principal medio de
almacenamiento de datos en los ordenadores. Por ser una memoria que protege los datos
contenidos en ella, evitando la sobreescritura de éstos, las ROM se emplearon para
almacenar información de configuración del sistema, programas de arranque o inicio,
soporte físico y otros programas que no precisan de actualización constante.

Si bien durante las primeras décadas de los ordenadores el sistema operativo solía
almacenarse en su totalidad en la memoria ROM, actualmente estos sistemas tienden a
guardarse en las nuevas memorias flash.
Anteriormente, no existían alternativas eficientes para la memoria ROM y, de necesitarse
más memoria o una actualización sobre los programas o el sistema, era preciso a menudo
reemplazar la memoria vieja por un chip nuevo de ROM.
Hoy por hoy las computadoras pueden conservar algunos de sus programas en ROM, pero
la memoria flash se encuentra mucho más difundida, incluso en teléfonos móviles y
dispositivos PDA.

Además de las computadoras, consolas de videojuegos siguen utilizando programas


basados en la memoria ROM, como la Nintendo 64, Super Nintendo o Game Boy.

Por la velocidad de uso, la información contenida en una memoria ROM suele pasarse a la
RAM cuando es requerida para el funcionamiento del sistema.

I Definicion ABC https://www.definicionabc.com/tecnologia/memoria-rom.php


Definición de Memoria RAM
memoria-ramCuando una computadora ejecuta un programa, tanto el código como los datos
deben poder ser ubicados en un elemento que permita el acceso rápido a ellos y que,
además, nos permita modificarlos con rapidez y flexibilidad. Ese elemento es la memoria
RAM.

La memoria RAM (Random Access Memory, memoria de acceso aleatorio) es un tipo de


memoria volátil a cuyas posiciones es posible acceder de igual forma.

Esto último se pone de relieve porque en las computadoras, y hasta una época determinada,
los medios de almacenamiento físicos eran tarjetas perforadas o cintas magnéticas, cuyo
acceso era secuencial (es decir, para llegar a una posición determinada X, antes teníamos
que pasar por todas las posiciones anteriores a la que queremos acceder). Y, como podemos
hablar de memorias en todos los casos, la mención explícita a la aleatoriedad nos permite
concretar a qué tipo de memoria nos referimos.

Por otra parte, el término volátil indica que el contenido no se mantiene una vez se deja de
alimentar la memoria con energía eléctrica. Esto quiere decir, lisa y llanamente, que cuando
apagamos la computadora, los datos en esta memoria se pierden.

Es por ello que, en el caso de querer preservar los datos que tenemos en la memoria RAM,
trendremos que volcarlos a un almacenamiento permanente, como un disco duro, una
tarjeta de memoria, o una unidad USB, en forma de ficheros.

La memoria RAM es la memoria “de trabajo” del sistema, la que se utiliza en cada
momento para la ejecución de aplicaciones.

El programa se lee del disco y se copia a la memoria (un procedimiento que se denomina
“cargarse” en memoria).

Como todos los componentes de las computadoras modernas, la memoria RAM también
tiene su historia y ha sufrido su evolución a lo largo del tiempo.

Las primeras memorias RAM fueron construidas, tras la Segunda Guerra Mundial,
empleando un material magnético llamado ferrita.

Al ser un material magnetizable, se podían polarizar en un sentido o en el inverso para


representar respectivamente un uno y un cero, los números representativos de la lógica
binária con la cual funcionan todas las computadoras modernas.

A finales de la década de los setenta, la revolución del silicio alcanza el mundo de la


computación y, con él, a la construcción de memorias RAM.

Las primeras computadoras, al igual que las primeras microcomputadoras años después,
incluían una cantidad de memoria RAM que hoy en día nos parecería irrisoria.

Por ejemplo, el Sinclair ZX81 del año 1981 montaba 1 Kilobyte, mientras que cualquier
smartphone de gama media de hoy en día monta 1 Gigabyte, lo cual representa mil millones
(1.000.000.000) de bytes.

No solamente en cantidad ha evolucionado la memoria RAM, sino también en velocidad de


acceso y miniaturización.

I Definicion ABC https://www.definicionabc.com/tecnologia/memoria-ram.php

Dispositivos de Almacenamiento de un Computador.


Los sistemas informáticos pueden almacenar los datos tanto interna (en la memoria) como
externamente (en los dispositivos de almacenamiento). Internamente, las instrucciones o
datos pueden almacenarse por un tiempo en los chips de silicio de la RAM (memoria de
acceso aleatorio) montados directamente en la placa de circuitos principal de la
computadora, o bien en chips montados en tarjetas periféricas conectadas a la placa de
circuitos principal del ordenador. Estos chips de RAM constan de conmutadores sensibles a
los cambios de la corriente eléctrica, esto quiere decir que los datos son almacenados por
tiempo limitado (hasta que dejamos de suministrar energía eléctrica) por esta razón
aparecen los dispositivos de almacenamiento secundarios o auxiliares, los cuales son
capaces de conservar la información de manera permanente, mientras su estado físico sea
óptimo. Los dispositivos de almacenamiento externo pueden residir dentro del CPU y están
fuera de la placa de circuito principal. [1]

Clasificación de los Dispositivos de Almacenamiento.

Los Dispositivos de Almacenamiento se pueden clasificar de acuerdo al modo de acceso a


los datos que contienen:

 Acceso secuencial: En el acceso secuencial, el elemento de lectura del dispositivo


debe pasar por el espacio ocupado por la totalidad de los datos almacenados
previamente al espacio ocupado físicamente por los datos almacenados que
componen el conjunto de información a la que se desea acceder.
 Acceso aleatorio: En el modo de acceso aleatorio, el elemento de lectura accede
directamente a la dirección donde se encuentra almacenada físicamente la
información que se desea localizar sin tener que pasar previamente por la
almacenada entre el principio de la superficie de grabación y el punto donde se
almacena la información buscada.

Tipos de Dispositivos de Almacenamiento

Memorias:

 Memoria ROM: Esta memoria es sólo de lectura, y sirve para almacenar el


programa básico de iniciación, instalado desde fábrica. Este programa entra en
función en cuanto es encendida la computadora y su primer función es la de
reconocer los dispositivos, (incluyendo memoria de trabajo), dispositivos.

Memoria RAM: Esta es la denominada memoria de acceso aleatorio o sea, como puede
leerse también puede escribirse en ella, tiene la característica de ser volátil, esto es, que sólo
opera mientras esté encendida la computadora. En ella son almacenadas tanto las
instrucciones que necesita ejecutar el microprocesador como los datos que introducimos y
deseamos procesar, así como los resultados obtenidos de esto.

Memorias Auxiliares: Por las características propias del uso de la memoria ROM y el
manejo de la RAM, existen varios medios de almacenamiento de información, entre los
más comunes se encuentran: El disco duro, El Disquete o Disco Flexible, etc...
Dispositivos de Procesamiento

Son los dispositivos que realizan el “trabajo pesado” de la computadora, ya que permiten el
procesamiento de los datos introducidos l ordenados y, utilizando un programa especifico,
obtienen un resultado.

TARJETA MADRE: La tarjeta madre (motherboard), también llamada placa base, es


una placa con circuitos impresos y soldados que interconectan todas las piezas electrónicas
de la computadora. Esta, integra y coordina todos los elementos que permiten el adecuado
funcionamiento de una PC, de este modo, una tarjeta madre es aquel dispositivo que opera
como plataforma o circuito principal de una computadora.

Físicamente, se trata de una placa de material sintético, sobre la cual existe un circuito
electrónico que conecta diversos componentes que se encuentran insertados o montados
sobre ésta.

Zócalo de CPU o socket: es una cavidad que recibe al microprocesador y lo conecta


con el resto de los componentes a través de la placa base.
Procesador: también llamado Unidad Central de Procesamiento o CPU (Central
Processing Unit), es el componente central de la PC. Es un chip, con circuitos integrados de
gran escala que se encarga de realizar las operaciones lógico-matemáticas y controla todos
los dispositivos de la PC. Todo el trabajo que ejecuta la computadora es realizado, directa o
indirectamente, por él. Es el cerebro de la computadora.

El procesador se compone de la Unidad Aritmética Lógica ALU, la cual se encarga de


realizar las operaciones lógico-matemáticas; y de la Unidad de Control CU, la cual permite
que se ejecuten todos los programas llevando el control de todos los dispositivos de la PC.
Estas, trabajan juntas para procesar datos y controlar los componentes de la computadora.
Este componente mide su velocidad de procesamiento en Hercios (Hz).

Fases del procesamiento:

*prefetch: es la pre lectura de la instrucción desde la memoria principal

*fetch: aquí se envían las instrucciones al decodificador.

*decodificación: en esta parte se determina la instrucción a realizar

*lectura de operandos: es donde se leen las instrucciones determinadas

*ejecución: se lanza el operando para realizar la acción

*escritura: se registran los resultados en la memoria principal

Disipador del Procesador: Dispositivo metálico que se utiliza para mantener la


temperatura del microprocesador en niveles óptimos. El disipador del procesador se ubica
encima de este, y sobre el disipador se coloca un ventilador/cooler. Al poner el disipador
sobre el procesador debemos de poner una pasta o gelesito para que no se queme el CPU.
Fabricantes IBM, Intel, Zilog, Motorola, Cyrix y AMD.

BIOS (Basic Input Output System- sistema básico de entrada y salida): es el software
básico de un ordenador que contiene los programas básicos (todas las instrucciones)
que permiten controlar todos los elementos del hardware. Se encuentra

almacenado en un chip de memoria EPROM incorporado en la placa base.

Pila: es la encargada de suministrar la energía al BIOS permitiendo su funcionamiento.

Chipset: es un conjunto de chips con una serie de circuitos electrónicos, que permiten las
transferencias de datos entre los diferentes componentes de la computadora a través del
procesador, coordinándolo con los demás dispositivos (memoria, tarjeta gráfica, disco duro,
etc.). Es el encargado de poner en comunicación al procesador con el resto de los elementos
del ordenador, permitiendo su control.
Fuente de poder: es un dispositivo donde se encuentra conectada la tarjeta madre de la
PC para que esta pueda localizarse en cualquier contacto de energía eléctrica, encargado de
tomar la corriente alterna y transformarla en corrientes y voltajes, proporcionando así a la
placa base los diferentes voltajes e intensidades necesarios para su funcionamiento.

Composición: tienen un ventilador, el cual sirve para evitar el sobre calentamiento de la


fuente de poder, expulsando el aire caliente generado; un conector de alimentación, que se
encarga de conectarlo a la electricidad; el selector de voltaje, conector de suministro,
conectores ATA, conectores de cuatro terminales y el interruptor manual, para
prenderlo y apagarlo.

Ranuras de expansión: son conectores que permiten interconectar tarjetas de vídeo,


audio, gráficos, adaptadores de red, expansión de puertos y otros muchos periféricos con la
placa base.

Conectores EIDE (Enhanced Integrates Dtive Electronics): es una interfaz para la


conexión de discos duros y CD-ROM. Puede medir 40 cm de largo y son anchos.

Conectores S-ATA: s una conexión en serie para conectar el disco duro. Son cables más
delgados y alargados, con un mínimo de cuatro alambres. Pueden medir hasta un metro de
largo. Este tipo de interfaz crea una conexión punto a punto entre dos dispositivos,
proporcionando mayor velocidad. Mejora el rendimiento si hay varios discos
rígidos conectados y además permite conectar discos cuando la computadora está
encendida.

Memoria Caché o ROM (Read Only Memory) o lectura: es la que hace que el
procesador sea más rápido que la memoria RAM. Cuando el procesador necesita
información, la toma de la memoria cache, la cual va copiando dicha información de la
memoria RAM antes de que el procesador la necesite. Además, es una memoria que
contiene toda la información instalada por el fabricante del equipo, entre ella se incluyen
instrucciones que permiten el arranque y funcionamiento de los dispositivos que conforman
la computadora. Esta memoria es permanente, no se puede modificar.

Memoria RAM (Random Access Memory) o Memoria de Acceso Aleatorio: es la


memoria desde donde el procesador recibe las instrucciones para realizar ciertas acciones y
guarda los resultados. Esta memoria almacena temporalmente todos los datos con los que
están trabajando el procesador y el usuario. No almacena información de forma permanente
y funciona mientras en el sistema fluya corriente eléctrica.

Conectores del panel frontal o Jumpers: es un conjunto


de pines que tienen como finalidad hacer funcionar el botón de encendido y el de reset.
¿Qué es un bit?
Como hemos dicho antes la unidad de medida más pequeña y básica de almacenamiento es
el bit. Aunque en la actualidad no se nombre demasiado, hace sólo unos años atrás era una
de las palabras más utilizadas en informática. Un bit es la unidad más pequeña de
almacenaje que puede tomar un ordenador. Sus opciones se reducen a dos, tomando el valor
de 0 o de 1. Por lo tanto, es un tipo de dato binario, ya que de esta manera, es mucho más
sencillo de interpretar por los dispositivos electrónicos.

Dispositivos de almacenamiento. Imagen de Michael Pareckas. Bajo licencia: CC BY-SA


2.0

Su comprensión es simple, es como un interruptor de flujo, en donde sólo puede haber dos
opciones abierto o cerrado. O uno electrónico, en donde sólo se puede estar encendido o
apagado. Cómo ya entendemos lo que es un bit, vamos a describir el concepto técnico, para
ampliar nuestro espectro de conocimiento:

Según la Wikipedia un bit es un dígito del sistema de numeración binario, utilizado como
unidad de almacenamiento inicial. Su nombre es el acrónimo de Binary Digit y es el
estándar de unidad mínima de información en todo lo referente a computadoras y
dispositivos electrónicos.

¿Qué es un Byte?
Con el concepto de bit aclarado, vamos a definir de manera intuitiva lo que es un byte.
Podemos decir que un byte es un conjunto de bits, que actúan como una unidad de medida
mucho más grande y que nos permite almacenar datos de gran complejidad. Un byte es un
múltiplo de bit, que específicamente, se encuentra conformado por 8 bits, que a su vez
están agrupados en 2 niveles, cada uno de ellos de 4 bits o en 4 crumbs, los cuales son de 2
bits cada uno.
Almacenaje en bytes. Imagen de John Southern. Bajo licencia: CC BY-SA 2.0

En la actualidad, cuando se trabaja con unidades de almacenamiento, se utilizan múltiplos


del byte, los cuales de seguro utilizan con mucha frecuencia, como los Kilobytes,
Megabytes, Gigabytes y Terabytes.

Como pueden ver, son conceptos básicos, que permitirán tener una mejor percepción de
cómo se utilizan los espacios de almacenamiento en dispositivos informáticos.

¿Qué es un Sistema Operativo?


Resumen
 El Sistema Operativo (SO) es el programa o software básico de un ordenador. Es una plataforma que facilita la
interacción entre el usuario y los demás programas del ordenador y los dispositivos de hardware.
 Las funciones básicas del Sistema Operativo son administrar los recursos del ordenador, coordinar el hardware y
organizar los archivos y directorios de su sistema.
 Los Sistemas Operativos más utilizados son Windows, Linux y Mac. Tanto Windows como Mac vienen con
un navegador integrado, Windows el navegador Internet Explorer y Mac Safari.

Definición de Sistema Operativo


El sistema operativo es el programa (o software) más importante de un ordenador.
Para que funcionen los otros programas, cada ordenador de uso general debe
tener un sistema operativo. Los sistemas operativos realizan tareas básicas, tales
como reconocimiento de la conexión del teclado, enviar la información a la
pantalla, no perder de vista archivos y directorios en el disco, y controlar los
dispositivos periféricos tales como impresoras, escáner, etc.
En sistemas grandes, el sistema operativo tiene incluso mayor responsabilidad y
poder, es como un policía de tráfico, se asegura de que los programas y usuarios
que están funcionando al mismo tiempo no interfieran entre ellos. El sistema
operativo también es responsable de la seguridad, asegurándose de que los
usuarios no autorizados no tengan acceso al sistema.

Clasificación de los Sistemas Operativos


Los sistemas operativos pueden ser clasificados de la siguiente forma:
 Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo. Algunos
sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo.
 Multiprocesador: soporta el abrir un mismo programa en más de una CPU.
 Multitarea: Permite que varios programas se ejecuten al mismo tiempo.
 Multitramo: Permite que diversas partes de un solo programa funcionen al mismo tiempo.
 Tiempo Real: Responde a las entradas inmediatamente. Los sistemas operativos como DOS y UNIX, no
funcionan en tiempo real.
Cómo funciona un Sistema Operativo
Los sistemas operativos proporcionan una plataforma de software encima de la
cual otros programas, llamados aplicaciones, puedan funcionar. Las aplicaciones se
programan para que funcionen encima de un sistema operativo particular, por
tanto, la elección del sistema operativo determina en gran medida las aplicaciones
que puedes utilizar.

Los sistemas operativos más utilizados en los PC son DOS, OS/2, y Windows, pero hay otros que
también se utilizan, como por ejemplo Linux.
Cómo se utiliza un Sistema Operativo
Un usuario normalmente interactúa con el sistema operativo a través de un
sistema de comandos, por ejemplo, el sistema operativo DOS contiene comandos
como copiar y pegar para copiar y pegar archivos respectivamente. Los comandos
son aceptados y ejecutados por una parte del sistema operativo llamada
procesador de comandos o intérprete de la línea de comandos. Las interfaces
gráficas permiten que utilices los comandos señalando y pinchando en objetos que
aparecen en la pantalla.

Ejemplos de Sistema Operativo


A continuación detallamos algunos ejemplos de sistemas operativos:

Familia Windows
 Windows 98
 Windows ME
 Windows NT
 Windows 2000
 Windows 2000 server
 Windows XP
 Windows Server 2003
 Windows CE
 Windows Mobile
 Windows XP 64 bits
 Windows Vista (Longhorn)
 Windows 7
 Windows 8
 Windows 10
Familia Macintosh
 Mac OS 7
 Mac OS 8
 Mac OS 9
 Mac OS X



Familia UNIX
 AIX
 AMIX
 GNU/Linux
 GNU / Hurd
 HP-UX
 Irix
 Minix
 System V
 Solaris
 UnixWare

Un sistema operativo móvil o SO móvil es un conjunto de programas de bajo nivel que


permite la abstracción de las peculiaridades del hardware específico del teléfono móvil y
provee servicios a las aplicaciones móviles, que se ejecutan sobre él. Al igual que los PC que
utilizan Windows, Linux o Mac OS, los dispositivos móviles tienen sus sistemas operativos
como Android, iOS, Windows Phone o BlackBerry OS, entre otros. Los sistemas operativos
móviles son mucho más simples y están más orientados a la conectividad inalámbrica, los
formatos multimedia para móviles y las diferentes maneras de introducir información en ellos.

Según el servicio de estadísticas NetMarketShare, la cuota de mercado de sistemas


operativos móviles a principios de 2017 es el siguiente:

 Android 66,71 % (en países como España las diferencias son más significativas, donde
Android tiene más del 90% de la cuota de mercado)
 iOS 29,55 %
 Windows Phone 1,41 %
 BlackBerry OS 0,37 %

En el artículo que nos ocupa voy a centrarme en los tres OS más utilizados
actualmente: Android, iOS y Windows Phone.

Android
Android Inc. es la empresa que creó el sistema operativo móvil. Se fundó en 2003 y fue
adquirida por Google Inc. en el año 2005 y en 2007 fue lanzado al mercado.
Originalmente era un sistema pensado para las cámaras digitales profesionales pero fué
modificado por Google para ser utilizado en dispositivos móviles como los teléfonos
inteligentes y tablets.

Cuenta con el mayor número de instalaciones de smartphones en todo el mundo y está


basado en el núcleo Linux (*). Las aplicaciones para Android se escriben y desarrollan en
Java aunque con unas APIs propias.

En 2007 Google fundó la Open Handset Alliance formada por un grupo de 78 compañías de
hardware, software y telecomunicaciones dedicadas al desarrollo de estándares abiertos para
dispositivos móviles. Juntos desarrollaron Android, la primera plataforma móvil completa,
abierta y libre.
Algunos de sus miembros son Google, HTC, Dell, Intel, Motorola, Qualcomm, Texas
Instruments, Samsung, LG, T-Mobile, Nvidia y Wind River Systems.

Aunque el sistema operativo Android es software libre y de código abierto, en los


dispositivos vendidos, gran parte del software incluido es software propietario y de código
cerrado.

iOS
iOS (anteriormente denominado iPhone OS) es propiedad de Apple Inc. Tiene la segunda
mayor base de smartphones instalada en todo el mundo después de Android.

Es de código cerrado y propietario y construido a partir de Darwin (*), o lo que es lo mismo, el


kernel del sistema operativo de Apple, Mac OS X.

iOS es el sistema operativo que da vida a dispositivos como el iPhone, el iPad, el iPod
Touch o el Apple TV.

Windows Phone
Windows 10 Mobile (anteriormente llamado Windows Phone) es de Microsoft, diseñado para
teléfonos inteligentes y tabletas.

Es de código cerrado y propietario y utiliza como núcleo Windows NT (*).

En febrero de 2010 se dió a conocer Windows Phone que integra servicios de Microsoft como
OneDrive y Office, Xbox Music, Xbox Vídeo, juegos Xbox Live y Bing, pero también se integra
con otros servicios que no son de su propiedad, como Facebook y cuentas de Google.

A principios de 2015, Microsoft anunció que la marca Windows Phone sería reemplazada
por Windows 10 Mobile con el objetivo de lograr una mayor integración y unificación con su
homólogo para PCs Windows 10, y proporcionar una plataforma para smartphones y tablets
con tamaños de pantalla de 8 pulgadas.
Inteligencia artificial
Ir a la navegaciónIr a la búsqueda
«IA» redirige aquí. Para otras acepciones, véase IA (desambiguación).

Inteligencia artificial

IA

TOPIO, un robot Humanoide, en la Feria Internacional del


Juguete de Núremberg de 2009.

Campo de Desarrollo de agentes racionales


aplicación no vivos

Subárea de Ciencias de la computación

[editar datos en Wikidata

La inteligencia artificial (IA), es la inteligencia exhibida por máquinas. En ciencias de la


computación, una máquina «inteligente» ideal es un agente racional flexible que percibe su
entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o
tarea.1 Coloquialmente, el término inteligencia artificial se aplica cuando una máquina imita las
funciones «cognitivas» que los humanos asocian con otras mentes humanas, como por
ejemplo: «aprender» y «resolver problemas».2 A medida que las máquinas se vuelven cada
vez más capaces, tecnología que alguna vez se pensó que requería de inteligencia se elimina
de la definición. Por ejemplo, el reconocimiento óptico de caracteres ya no se percibe como un
ejemplo de la «inteligencia artificial» habiéndose convertido en una tecnología común.3
Avances tecnológicos todavía clasificados como inteligencia artificial son los sistemas de
conducción autónomos o los capaces de jugar al ajedrez o al Go.4
Según Takeyas (2007) la IA es una rama de las ciencias computacionales encargada de
estudiar modelos de cómputo capaces de realizar actividades propias de los seres humanos
en base a dos de sus características primordiales: el razonamiento y la conducta.5
En 1956, John McCarthy acuñó la expresión «inteligencia artificial», y la definió como «la
ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo
inteligentes».6
Para Nils John Nilsson son cuatro los pilares básicos en los que se apoya la inteligencia
artificial:

 Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones
posibles.
 Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
 Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y
humanos).
 Razonamiento mediante una lógica formal análogo al pensamiento abstracto humano.
También existen distintos tipos de percepciones y acciones, que pueden ser obtenidas y
producidas, respectivamente, por sensores físicos y sensores mecánicos en máquinas, pulsos
eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un
software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la
habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de
escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA
actualmente son parte de la rutina en campos como economía, medicina, ingeniería y
la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia,
como ajedrez de computador, y otros videojuegos.
¿Qué es la interfaz de la computadora?
Interfaz es un término que procede del vocablo inglés interface. En informática,
esta noción sirve para señalar a la conexión que se da de manera física y a nivel
de utilidad entre dispositivos o sistemas. ... Se conoce como interfaz de usuario al
medio que permite a una persona comunicarse con una máquina.

Funciones principales[editar]
Las funciones principales son las siguientes:

 Puesta en marcha y apagado.


 Control de las funciones manipulables del equipo.
 Manipulación de archivos y directorios.
 Herramientas de desarrollo de aplicaciones.
 Comunicación con otros sistemas.
 Información de estado.
 Configuración de la propia interfaz y entorno.
 Intercambio de datos entre aplicaciones.
 Control de acceso.
 Sistema de ayuda interactivo

Tipos[editar]
En las interfaces de usuario se pueden distinguir básicamente tres tipos:

1. Una interfaz de hardware, a nivel de los dispositivos utilizados para ingresar,


procesar y entregar los datos: teclado, ratón y pantalla visualizadora.
2. Una interfaz de software, destinada a entregar información acerca de los procesos y
herramientas de control, a través de lo que el usuario observa habitualmente en la
pantalla.
3. Una interfaz de software-hardware, que establece un puente entre la máquina y las
personas, permite a la máquina entender la instrucción y al hombre entender el código
binario traducido a información legible.

Historia de la Computadora
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en
1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de
diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas
estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número
de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz
perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas
placas de madera perforadas para controlar el tejido utilizado en los diseños complejos.
Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de
utilizar tarjetasperforadas, similares a las placas de Jacquard, para procesar datos. Hollerith
consiguió compilar la información estadística destinada al censo de población de 1890
de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas
sobre contactos eléctricos.
La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró
los principios de la computadora digital moderna. Inventó una serie de máquinas, como la
máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos
historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron
(1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de
la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la
práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía
muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de
entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos,
un procesador para las operaciones matemáticas y una impresora para hacer permanente
el registro.
Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los
primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas
máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como
para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se
utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para
predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de
las bombas en la aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que
trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer
ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que
incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo
dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En
1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían
construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este
prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron
eclipsadas por el desarrollodel Calculador e integrador numérico digital electrónico (ENIAC) en
1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’
Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo
una patente que caducó en 1973, varias décadas más tarde.

Breve Historia de la Computadora


Una computadora electrónica, según el Diccionario de la Real
Academia Española, es una: Máquina electrónica, analógica o digital,
dotada de una memoria de gran capacidad y de métodos de
tratamiento de la información, capaz de resolver problemas
matemáticos y lógicos mediante la utilización automática de
programas informáticos.

La computadora es un invento joven de no más de un siglo. Sin


embargo es el resultado de múltiples creaciones e ideas de diversas
personas a lo largo de varios años: por un lado, el ábaco que fue uno
de los primeros dispositivos mecánicos para contar; por otro lado, la
Pascalina, inventada por Blaise Pascal y después perfeccionada por
Gottfried Wilhelm von Leibniz, permitía realizar cálculos de manera
mecánica por medio de engranajes, y también, la tarjeta perforada
asumió un papel importante en la computación.

En 1882 Charles Babbage inventa una “máquina diferencial”, que


realiza cálculos de tablas simples. Diez años más tarde diseña la
“máquina analítica”, que no fue construida hasta 1989. Esta máquina
poseía elementos que influyeron en las subsiguientes computadoras:
flujo de entrada, memoria, procesador e impresora de datos. Por esto,
Babbage es considerado el "Padre de las Computadoras Modernas".
En 1944 se construye la MARK I, diseñada por un equipo encabezado
por Howard H. Aiken. La máquina basa su funcionamiento en
dispositivos electromecánicos llamados relevadores.

Von Neumann es otro personaje importante ya que proyecta el


prototipo de los modernos procesadores electrónicos. El prototipo se
basa en el concepto de programa memorizado.

A partir de la mitad del siglo XX el desarrollo de la computadora es


mayor y más rápido. Este desarrollo se suele dividir en generación.

Primera Generación
En general se caracteriza por tres aspectos: primero, por el uso de bulbos (tubos de vacío);
segundo, uso de programas en lenguaje de máquina, usualmente, en tarjetas perforadas, y
finalmente, por ser enormes y costosas.

Segunda Generación
Sus características son: en primer lugar, se utilizan circuitos de transistores, en vez de
bulbos; segundo, se programas en lenguajes de alto nivel, y por último, se utilizan para
nuevas aplicaciones.

Tercera Generación
Al igual que las generaciones pasadas, tiene tres características:
I. Ahora utiliza circuitos integrados.
II. Utiliza sistemas operativos. El más famoso es el OS de IBM.
III. Aparecen minicomputadoras.

Cuarta Generación
Se dice que es la generación actual, aunque mucho ya mencionan una quinta.
En esta generación aparecen los microprocesadores, los núcleos magnéticos son
remplazados por chips de silicio (almacenamiento de memoria) y un sinfín de
cambios que continúan apareciendo día con día.

6 GENERACIONES DE LAS
COMPUTADORAS
Publicado el 9 febrero, 2016 por gbiuni2016

PRIMERA GENERACIÓN ( 1946-1958)


Características:

 En esta época las computadoras funcionaban con válvulas.


 Usaban tarjetas perforadas para entrar los datos y programar, utilizaban cilindros
magnéticos para almacenar información.
 Se utilizaban exclusivamente en el ámbito científico o militar.
 Los cartuchos eran sumamente grandes.
 Utilizaban gran cantidad de energía y generaban gran cantidad de calor y eran muy
lentas.

SEGUNDA GENERACIÓN (1958-1964)


Características:

 Usaban transistores para procesar información.


 Los transistores eran mas rápidos, pequeños y confiables.
 Usaban pequeños anillos magnéticos para almacenar información e instrucciones.
 Producían gran cantidad de calor y eran muy lentas.
 Se mejoraron los programas de computadoras que fueron desarrollados durante la
primera generación.
 Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN .
 Se comenzó a disminuir el tamaño de las computadoras.
 La marina de los Estados Unidos desarrolla el primer simulador.
 Aparecen compañías y las computadoras eran bastante avanzadas para su época como
la serie 500 de Burroughs y la ATLAS de la universidad de manchester.

TERCERA GENERACIÓN (1964-1971)


Características:

 Comienza a utilizarse los circuitos integrados.


 Se aumentaba la capacidad de procesamiento y se reducía el tamaño de las maquinas.
 Esta generación empleo el desarrollo de circuitos integrados en las que se colocan
miles de componentes electrónicos en una integración en miniatura.
 El primer miniordenador fue el PDP-8 de la Digital Equipmet Corporation.

CUARTA GENERACIÓN (1971-1983)


Características:

 Aparición del microprocesador con circuito integrado en la que se reúnen los


elementos básicos de la maquina
 Se desarrollo el microprocesador.
 Se colocan mas circuitos dentro de un “chip” , cada ” chip” puede hacer diferentes
tareas.
 Se remplaza la memoria de anillos magnéticos para la memoria de “chips” de silicio.
 Se desarrollan las micro-computadoras , o sea, computadoras personales, o PC.
 Se desarrollan las supercomputadoras.
QUINTA GENERACIÓN (1984-1999)
Características:

 Surge la PC tal cual como la conocemos en la actualidad, IBM presenta su primera


computadora personal y revoluciona el sector informático.
 En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado
a la tarea de poner también a esa altura el desarrollo de software y los sistemas en los
que manejan las computadoras.
SEXTA GENERACIÓN 1999 HASTA LA FECHA
Características:

 Las computadoras de esta generación cuentan con arquitectura combinadas paralelo


vectorial, con cientos de microprocesadores vectoriales trabajando al tiempo.
 Las redes de área mundial seguirán creciendo desorbitadamente utilizando medios de
comunicación a través de fibras ópticas y satélites, con anchos de banda impresionante.
Primera computadora Programable
1938

Konrad Zuse, ingeniero alemán, diseño y fabricó la Z1.


Fue construida entre 1936 y 1938.
La Z1 era una calculadora mecánica binaria operada con electricidad y que ocupaba una
mesa entera, bastante grande por cierto. Los datos los recibía de cintas perforadas, y aunque
no permitía un lenguaje de programación tal y como lo entendemos hoy, la Z1 fue la primera
máquina programable de la historia.

report this ad
Primera generación
1951 - 1958

Usaban tubos al vacío para procesar información.


Usaban tarjetas perforadas para entrar los datos y los programas.
Usaban cilindros magnéticos para almacenar información e instrucciones internas.
Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad
de calor y eran sumamente lentas.
Se comenzó a utilizar el sistema binario para representar los datos.
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se
produjeron varios cientos.
Marcas comerciales ENIAC, EDVAC, UNIVAC, IBM, XT, AT.

segunda generacion
1958 - 1964

En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen
muchas compañías y las computadoras eran bastante avanzadas para su época como la serie
5000 de Burroughs y la ATLAS de la Universidad de Manchester.
Usaban transistores para procesar información.
Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.
200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
Usaban pequeños anillos magnéticos para almacenar información e instrucciones. cantidad de
calor y eran sumamente lentas.
Se mejoraron los programas de computadoras que fueron desarrollados durante la primera
generación.
Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales
eran comercialmente accesibles.
Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico
aéreo y simulaciones de propósito general.

Tercera generación
1964 - 1971

La tercera generación de computadoras emergió con el desarrollo de circuitos integrados


(pastillas de silicio) en las que se colocan miles de componentes electrónicos en una
integración en miniatura.
Se desarrollaron circuitos integrados para procesar información.
Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza
de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores.
Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas
eléctricas.
Surge la multiprogramación.
Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis
matemáticos.
Emerge la industria del "software".
Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.

Cuarta generación
1971 - 1988

Aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos


integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con
base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se
extiende al mercado industrial.
Se colocan más circuitos dentro de un "chip".
"LSI - Large Scale Integration circuit".
"VLSI - Very Large Scale Integration circuit".
Cada "chip" puede hacer diferentes tareas.
Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El
tercer componente, la memoria primaria, es operado por otros "chips".
Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.
Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
Se desarrollan las supercomputadoras.

Quinta generación
1983 - 2015

La quinta generación de computadoras fue un proyecto ambicioso lanzado por Japón. Su


objetivo era el desarrollo de una clase de computadoras que utilizarían técnicas de inteligencia
artificial.
La característica principal sería la aplicación de la inteligencia artificial.
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia
Humana" y con la capacidad de razonar para encontrar soluciones.
Único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta
generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento
de la red Internet y del World Wide Web.
En esta generación no se distingue la brecha donde finaliza la quinta y comienza la sexta
generación.

Sexta generación
2000 - 2017

Los ordenadores cuentan con arquitecturas paralelas que agilizan sus operaciones y facilitan
el almacenamiento de información.
La sexta generación de computadoras cuenta con invenciones que han revolucionado por
completo el mercado de la tecnología informática.
En la actualidad los sistemas informáticos utilizan satélites, fibra óptica e inteligencia artificial,
facilitando y permitiendo un amplio desarrollo en este campo.
La sexta generación de computadoras podría denominarse como la era de las computadoras
basadas en redes neuronales artificiales o “cerebros artificiales”.
Son computadoras que utilizan superconductores como materia prima para sus procesadores.
• Las Computadoras Portátiles (Ladtops)
• Las Computadoras de Bolsillo (PDAs)
• Los Dispositivos Multimedia
• Los Dispositivos Móviles Inalámbricos (SPOT, UPnP, Smartphone, etc.)
• El Reconocimiento de voz y escritura
• Las Computadoras Ópticas (luz, sin calor, rápidas)
• Las Computadoras Cuánticas (electrones, moléculas, qbits, súper rápidas)
• La Mensajería y el Comercio Electrónico
• La Realidad Virtual
• Las Redes Inalámbricas (WiMax, WiFi, Bluetooth)
• El Súper Computo (Procesadores Paralelos Masivos)
• Las Memorias Compactas (Discos Duros externos USB, SmartMedia, PCMCI.

INTRODUCCIÓN

En la actualidad no se puede pensar en casi ninguna actividad en la


cual no intervengan de alguna manera los procesos de cómputo.
Las computadoras han invadido la mayoría de las labores del ser
humano
El mundo está cambiando y usted deberá aprender todas esas, antes
complicadas, hoy comunes tecnologías modernas que le permitirán
conseguir unempleo mejor retribuido y quizás, en poco tiempo, realizar
trabajos desde la comodidad de su hogar (teletrabajo), reduciendo el
tráfico en las calles y por ende la contaminación de las grandes
ciudades. La mayoría de los gobiernos de los países en desarrollo han
tomado muy en serio los programas deeducación para crear en sus
poblaciones una "cultura informática".
Definitivamente, las computadoras están cambiando nuestras vidas.
Ahora hemos de aprenderla para no quedar inmersos en una nueva
forma de analfabetismo. Lo anterior contribuye a la creación de nuevos
esquemas sociales que incluyen: novedosas maneras
de comercialización aprovechando las facilidades para comunicarse
con todo el mundo a través de Internet; la necesidad de
crear leyes adecuadas a la realidad cibernética actual y, sobre todo; la
concepción de una nueva manera de relacionarse con nuestros
semejantes, que contemple una serie de normas éticas que regulen la
convivencia pacifica y cordial entre los millones de personas que
tienen que utilizar estas avanzadas tecnologías para realizar
su trabajo, estudio, descanso y esparcimiento diarios.

CONCLUSION
En esta investigación acerca de las generaciones de las computadoras nos hemos dado cuenta
del avance que han tenidos y , gracias a los avances en relación a ellas hemos alcanzado un
nivel de tecnología muy elevado el cual nos ha servido para muchas áreas, como por ejemplo
las comunicaciones, la medicina, la educación, etc.
La investigación actual va dirigida a aumentar la velocidad y capacidad de las computadoras se
centra sobre todo en la mejora de la tecnología de los circuitos integrados y en el desarrollo de
componentes de conmutación aún más rápidos. Se han construido circuitos integrados a
gran escala que contienen varios millones de componentes en un solo chip.
Las computadoras se han convertido en la principal herramienta utilizada por el hombre y ya
son parte esencial de cada uno de nosotros, y usted deberá aprender todas esas, antes
complicadas hoy comunes tecnologías modernas.
Bibliografías • http://www.monografias.com/trabajos28/generaciones- computadoras/gen •
http://www.misrespuestas.com/cual-es-la-historia-de-la- computadora.html •
http://www.monografias.com/trabajos28/generaciones- computadoras/Image416.gif •
http://generacionesdelacomputadora2015.blogspot.mx/2015/0 5/historia-el-electronic-
numerical.html

Vous aimerez peut-être aussi