Académique Documents
Professionnel Documents
Culture Documents
Computadoras
Arquitectura de
Tema:
Docente:
Turno:
Noche
Ciclo:
VI
Integrantes:
Noem
Introduccin
Para comenzar a hablar de la ejecucin segmentada de instrucciones
(Pipeline), primero tenemos que tener en cuenta que este se aplica en los
procesadores con arquitectura RICS (Reduced Intruction Set Computer).
La arquitectura computacional RISC es un tipo de diseo de CPU
generalmente utilizado en microprocesadores. El objetivo de disear maquinas
con esta arquitectura es posibilitar la segmentacin y el paralelismo en la
ejecucin de instrucciones y reducir los accesos a memoria.
Esta arquitectura surgi por el hecho de que las caractersticas que eran
incluidas en los diseos tradicionales de CPU para aumentar la velocidad
estaban siendo ignoradas por los programas que eran ejecutados en ellas.
Adems, la velocidad del procesador en relacin con la memoria de la
computadora que acceda era cada vez ms alta. Esto conllevo la aparicin de
numerosas tcnicas para reducir el procesamiento dentro del CPU, as como
de reducir el nmero total de accesos a memoria.
Aceleracin
Definimos la aceleracin de un pipeline lineal de k etapas sobre un
procesador sin pipeline equivalente como:
Sk = T1 / Tk = ( n * k ) / ( k + ( n - 1 ) )
Ntese que la mxima aceleracin de Sk tiende a k para n tendiendo
a infinito. En otras palabras, la mxima aceleracin de un pipeline
lineal es k, donde k es el nmero de etapas en el pipe, y, en
consecuencia, la aceleracin es mayor cuanta ms instruccin se
puedan procesar. Esta mxima aceleracin nunca se alcanza debido
a dependencias de datos entre instrucciones, interrupciones,
bifurcaciones del programa y otros factores.
Eficiencia
Utilizamos este concepto para medir la performance de un pipeline:
llamaremos la eficiencia de un pipeline al porcentaje de lapsos de
espacio-tiempo ocupados sobre el total de lapsos de espacio-tiempo
(libres ms ocupados). Sea n el nmero de tareas, k el nmero de
etapas del pipeline, y T el perodo de reloj de un pipeline lineal.
Entonces la eficiencia del pipeline se define como:
Eficiencia o EF = (n * k * T) / ( k ( kT + (n-1) T ) = n / ( k + ( n - 1 ))
Rendimiento
Clasificacin
Pipelines grficos
Se encuentran en la mayora de las tarjetas grficas, el cual consiste en
mltiples unidades aritmticas o CPU completas, el cual implementan
variados escenarios de operaciones tpicas, por ejemplo, clculos de luz y
colores, la proyeccin de perspectiva, etc.
el uso de la correccin
Performance de Pipeline
Un parmetro clave para la evaluacin de la performance de un Pipeline es la
"Latencia", que se define como el nmero de unidades de tiempo que separa
dos inicios de la misma o distintas tablas de reservacin. En el caso de los
Pipeline unifuncionales la latencia nunca podr ser cero, ya que todos
comienzan por la misma etapa (el menor posible es 1). En el caso de los
Pipeline dinmicos la latencia puede llegar a ser cero, ya que dos tablas de
reservacin distintas pueden superponerse. Para lograr una mejor performance
en un Pipeline es deseable obtener una "Latencia" promedio mnima. Hay que
tener en cuenta que elegir la mnima latencia entre dos inicios (estrategia
"greedy") no siempre llevar a la mejor performance.
Ntese que eligiendo la mnima latencia:
Es intuitivo.
Desventajas
6 Microprocesadores Intel. (2006). Barry B. Brey. Pg.73
Ejemplo
Veamos el ejemplo de un pipeline de cuatro etapas: el proceso de ejecucin de
una instruccin en un computador digital envuelve cuatro pasos principales:
levantar la instruccin de memoria (Instruction Fetch - IF); identificar la
operacin que debe efectuarse (Instruction Decoding - ID); levantar los
operandos si son necesarios en la ejecucin (Operand Fetch - OF); y ejecutar
la operacin aritmtico lgica que ha sido decodificada. Antes de comenzar a
ejecutar una nueva instruccin deben completarse estos cuatro pasos.
Conclusin
Se concluye que el importante la utilidad de Pipeline en sistemas operativos, ya
que ejecutan una serie de procesos de manera simultnea, los cuales son
ejecutados luego de manera secuencial mediante un administrador de tareas
dndoles diferente prioridad y capacidad de procesamiento, siendo esto de
suma importancia en la teora presentada.
Bibliogrfia
Pearson.
Arquitectura de Computadoras (2014). Patricia Quiroga. Editorial:
Alfaomega.
Arquitectura de Computadores (2005). Mancia Anguita Lpez, Julio
Coleccin.
Organizacin y Arquitectura de Computadores 7 Edicin. William
Stallings. Editorial: Prentince Hall / Pearson.