Vous êtes sur la page 1sur 5

Unidad central de procesamiento

Ir a la navegaciónIr a la búsqueda
Para otros usos de este término, véase Procesador.

Vista superior de una CPU Intel80486DX2 en un paquete PGA de cerámica.

Vista posterior de una Intel 80486DX2.

Procesador moderno con capacidades de hasta 8 núcleos y 16 hilos de procesamiento.

La unidad central de procesamiento o unidad de procesamiento central (conocida por las


siglas CPU, del inglés: central processing unit), es el hardware dentro de un ordenador u otros
dispositivos programables, que interpreta las instrucciones de un programa
informático mediante la realización de las operaciones básicas aritméticas, lógicas y de
entrada/salida del sistema. El término, y su acrónimo, han estado en uso en la industria de la
Informática por lo menos desde el principio de los años 1960.1 La forma, el diseño de CPU y la
implementación de las CPU ha cambiado drásticamente desde los primeros ejemplos, pero su
operación fundamental sigue siendo la misma.
Un ordenador puede tener más de una CPU; esto se llama multiprocesamiento. Todas las
CPU modernas son microprocesadores, lo que significa que contienen un solo circuito
integrado (chip). Algunos circuitos integrados pueden contener varias CPU en un solo chip;
estos son denominados procesadores multinúcleo. Un circuito integrado que contiene una
CPU también puede contener los dispositivos periféricos, y otros componentes de un sistema
informático; a esto se llama un sistema en un chip (SoC).
Dos componentes típicos de una CPU son la unidad aritmético lógica (ALU), que realiza
operaciones aritméticas y lógicas, y la unidad de control (CU), que extrae instrucciones de
la memoria, las decodifica y las ejecuta, llamando a la ALU cuando sea necesario.
No todos los sistemas computacional se basan en una unidad central de procesamiento. Una
matriz de procesador o procesador vectorial tiene múltiples elementos de cómputo paralelo,
sin una unidad considerada el "centro". En el modelo de computación distribuido, se resuelven
problemas mediante un conjunto interconectado y distribuido de procesadores. Y
computadoras

Índice

 1Historia
o 1.1CPU de transistores y de circuitos integrados discretos
o 1.2Microprocesadores
 2Operación
o 2.1Fetch
o 2.2Decode
o 2.3Execute
o 2.4Writeback
 3Diseño e implementación
o 3.1Rango de enteros
o 3.2Frecuencia de reloj
o 3.3Paralelismo
 3.3.1ILP: Segmentación y arquitectura superescalar
 3.3.2Paralelismo a nivel de hilos
 3.3.3Paralelismo de datos
 4Desempeño
 5Véase también
 6Notas
 7Referencias
 8Bibliografía
 9Enlaces externos
o 9.1Diseños de microprocesador
o 9.2Lectura adicional

Historia[editar]
El EDVAC, una de las primeras computadoras de programas almacenados electrónicamente.

ordenadores, como el ENIAC, tenían que ser físicamente recableados para


realizar diferentes tareas, lo que hizo que estas máquinas se denominaran
"ordenadores de programa fijo". Dado que el término "CPU" generalmente se
define como un dispositivo para la ejecución de software (programa
informático), los primeros dispositivos que con razón podríamos llamar
CPU vinieron con el advenimiento del ordenador con programa almacenado.

La idea de un ordenador con programa almacenado ya estaba presente en el diseño de John


Presper Eckert y en el ENIAC de John William Mauchly, pero esta característica se omitió
inicialmente para que el aparato pudiera estar listo antes. El 30 de junio de 1945, antes de que
se construyera la ENIAC, el matemático John von Neumann distribuyó el trabajo titulado First
Draft of a Report on the EDVAC (Primer Borrador de un Reporte sobre el EDVAC). Fue el
esbozo de un ordenador de programa almacenado, que se terminó en agosto de 1949.2
EDVAC fue diseñado para realizar un cierto número de instrucciones (u operaciones) de
varios tipos. Significativamente, los programas escritos para el EDVAC se crearon para ser
almacenados en la memoria de alta velocidad del ordenador y no para que los especificara el
cableado físico del ordenador. Esto superó una severa limitación del ENIAC, que era el
importante tiempo y esfuerzo requerido para volver a configurar el equipo para realizar una
nueva tarea. Con el diseño de von Neumann, el programa o software que corría EDVAC
podría ser cambiado simplemente cambiando el contenido de la memoria. Sin embargo,
EDVAC no fue el primer ordenador de programa almacenado; la Máquina Experimental de
Pequeña Escala de Mánchester, un pequeño prototipo de ordenador de programa
almacenado, ejecutó su primer programa el 21 de junio de 19483 y la Manchester Mark
I ejecutó su primer programa en la noche del 16 al 17 junio de 1949.
Las primeras CPU fueron diseñadas a medida como parte de un ordenador más grande,
generalmente un ordenador único en su especie. Sin embargo, este método de diseñar las
CPU a medida, para una aplicación particular, ha desaparecido en gran parte y se ha
sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados
para uno o varios propósitos. Esta tendencia de estandarización comenzó generalmente en la
era de los transistores discretos, computadoras centrales y microcomputadoras y fue
acelerada rápidamente con la popularización del circuito integrado (IC), este ha permitido que
sean diseñados y fabricados CPU más complejas en espacios pequeños en la orden
de nanómetros. Tanto la miniaturización como la estandarización de las CPU han aumentado
la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las
aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores
modernos aparecen en todo, desde automóviles hasta teléfonos móviles o
celulares y juguetes de niños.
Si bien von Neumann muchas veces acreditado por el diseño de la computadora con
programa almacenado debido a su diseño del EDVAC, otros antes que él, como Konrad Zuse,
habían sugerido y aplicado ideas similares. La denominada arquitectura Harvard del Harvard
Mark I, que se completó antes de EDVAC, también utilizó un diseño de programa almacenado
usando cinta de papel perforada en vez de memoria electrónica. La diferencia clave entre las
arquitecturas de von Neumann y la de Harvard es que la última separa el almacenamiento y
tratamiento de instrucciones de la CPU y los datos, mientras que el primero utiliza el mismo
espacio de memoria para ambos. La mayoría de los CPU modernos son de diseño von
Neumann, pero los CPU con arquitectura Harvard se ven así, sobre todo en aplicaciones
embebidas; por ejemplo, los microcontroladores Atmel AVR son procesadores de arquitectura
Harvard.
Los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente
como elementos de conmutación; un ordenador útil requiere miles o decenas de miles de
dispositivos de conmutación. La velocidad global de un sistema depende de la velocidad de
los conmutadores. Los ordenadores de tubo, como el EDVAC, tendieron en tener un promedio
de ocho horas entre fallos, mientras que los ordenadores de relés, (anteriores y más lentos),
como el Harvard Mark I, fallaban muy raramente.1 Al final, los CPU basados en tubo llegaron a
ser dominantes porque las significativas ventajas de velocidad producidas generalmente
pesaban más que los problemas de confiabilidad. La mayor parte de estas tempranas CPU
síncronas corrían en frecuencias de reloj bajas comparadas con los modernos diseños
microelectrónicos. Eran muy comunes en este tiempo las frecuencias de la señal del reloj con
un rango desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los
dispositivos de conmutación con los que fueron construidos.
CPU de transistores y de circuitos integrados discretos [editar]

CPU, memoria de núcleo e interfaz de bus externo de un MSI PDP-8/I. Hecho de circuitos integrados de
mediana escala.

La complejidad del diseño de las CPU aumentó junto con la facilidad de la construcción de
dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras vino con el
advenimiento del transistor. Las CPU transistorizadas durante los años 1950 y los años 1960
no tuvieron que ser construidos con elementos de conmutación abultados, no fiables y frágiles,
como los tubos de vacío y los relés eléctricos. Con esta mejora, fueron construidas CPU más
complejas y más confiables sobre una o varias tarjetas de circuito impreso que contenían
componentes discretos (individuales).
Durante este período, ganó popularidad un método de fabricar muchos transistores en un
espacio compacto. El circuito integrado (IC) permitió que una gran cantidad de transistores
fueran fabricados en una simple oblea basada en semiconductor o "chip". Al principio,
solamente circuitos digitales muy básicos, no especializados, como las puertas NOR fueron
miniaturizados en IC. Las CPU basadas en estos IC de "bloques de construcción"
generalmente son referidos como dispositivos de pequeña escala de integración "small-scale
integration" (SSI). Los circuitos integrados SSI, como los usados en el computador guía del
Apollo (Apollo Guidance Computer), usualmente contenían transistores que se contaban en
números de múltiplos de diez. Construir un CPU completo usando IC SSI requería miles de
chips individuales, pero todavía consumía mucho menos espacio y energía que diseños
anteriores de transistores discretos. A medida que la tecnología microelectrónica avanzó, en
los IC fue colocado un número creciente de transistores, disminuyendo así la cantidad de IC
individuales necesarios para una CPU completa. Los circuitos integrados MSI y el LSI (de
mediana y gran escala de integración) aumentaron el número de transistores a cientos y luego
a miles.
En 1964, IBM introdujo su arquitectura de ordenador System/360, que fue usada en una serie
de ordenadores que podían ejecutar los mismos programas con velocidades y desempeños
diferentes. Esto fue significativo en un tiempo en que la mayoría de los ordenadores
electrónicos eran incompatibles entre sí, incluso las hechas por el mismo fabricante. Para
facilitar esta mejora, IBM utilizó el concepto de microprograma, a menudo llamado
«microcódigo», ampliamente usado aún en las CPU modernas.4 La arquitectura System/360
era tan popular que dominó el mercado del mainframe durante las siguientes décadas y dejó
una herencia que todavía aún perdura en los ordenadores modernos, como el IBM zSeries. En
el mismo año de 1964, Digital Equipment Corporation (DEC) introdujo otro ordenador que
sería muy influyente, dirigido a los mercados científicos y de investigación, el PDP-8. DEC
introduciría más adelante la muy popular línea del PDP-11, que originalmente fue construido
con IC SSI pero eventualmente fue implementado con componentes LSI cuando se
convirtieron en prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y
MSI, la primera implementación LSI del PDP-11 contenía una CPU integrada únicamente por
cuatro circuitos integrados LSI.5
Los ordenadores basados en transistores tenían varias ventajas frente a sus predecesores.
Aparte de facilitar una creciente fiabilidad y un menor consumo de energía, los transistores
también permitían que CPU operara a velocidades mucho más altas debido al corto tiempo de
conmutación de un transistor en comparación a un tubo o relé. Gracias tanto a esta creciente
fiabilidad como al dramático incremento de velocidad de los elementos de conmutación que
por este tiempo eran casi exclusivamente transistores, se fueron alcanzando frecuencias de
reloj de la CPU de decenas de megahercios. Además, mientras que las CPU de transistores
discretos y circuitos integrados se usaban comúnmente, comenzaron a aparecer los nuevos
diseños de alto rendimiento como procesadores vectoriales SIMD (single instruction multiple
data – instrucción única, datos múltiples). Estos primeros diseños experimentales dieron lugar
más adelante a la era de los superordenadores especializados, como los hechos por Cray Inc.

Vous aimerez peut-être aussi