Vous êtes sur la page 1sur 3

PIPELINING (SEGMENTACIÓN):

También conocida como canalización de datos, es un conjunto de elementos de


procesamiento de datos conectados en serie, donde la salida de un elemento es la
entrada del siguiente.
La segmentación consiste en descomponer la ejecución de cada instrucción en varias
etapas para poder empezar a procesar una instrucción diferente en cada una de ellas y
trabajar con varias a la vez.
En el caso del procesador DLX podemos encontrar las siguientes etapas en una
instrucción:

 IF (instruction fetch): búsqueda.


 ID (instruction decode): decodificación.
 EX (execution): ejecución en la unidad aritmético lógica.
 MEM (memory): memoria.
 WB (writeback): escritura.

Cada una de estas etapas de la instrucción usa en exclusiva un hardware determinado


del procesador, de tal forma que la ejecución de cada una de las etapas en principio no
interfiere en la ejecución del resto.
En el caso de que el procesador no pudiese ejecutar las instrucciones en etapas
segmentadas, la ejecución de la siguiente instrucción sólo se podría llevar a cabo tras la
finalización de la primera. En cambio en un procesador segmentado, salvo excepciones
de dependencias de datos o uso de unidades funcionales, la siguiente instrucción podría
iniciar su ejecución tras acabar la primera etapa de la instrucción actual.

ON BOARD CACHÉ:
Es una capa de almacenamiento de datos de alta velocidad que almacena un
subconjunto de datos, normalmente transitorios, de modo que las solicitudes futuras de
dichos datos se atienden con mayor rapidez que si se debe acceder a los datos desde la
ubicación de almacenamiento principal. El almacenamiento en caché permite reutilizar
de forma eficaz los datos recuperados o procesados anteriormente.

Cuando se accede por primera vez a un dato, se hace una copia en la caché; los accesos
siguientes se realizan a dicha copia, haciendo que sea menor el tiempo de acceso medio
al dato. Cuando el microprocesador necesita leer o escribir en una ubicación en memoria
principal, primero verifica si una copia de los datos está en la caché; si es así, el
microprocesador de inmediato lee o escribe en la memoria caché, que es mucho más
rápido que de la lectura o la escritura a la memoria principal.

ON BOARD L1 & L2 CACHÉ:


L1 y L2 son niveles de memoria caché en una computadora. Si el procesador de la
computadora puede encontrar los datos que necesita para su próxima operación en la
memoria caché, ahorrará tiempo en comparación con tener que obtenerlos de
la memoria de acceso aleatorio . L1 es una memoria caché de "nivel 1", generalmente
integrada en el chip del microprocesador. Por ejemplo, el microprocesador
Intel MMX viene con 32 mil bytes de L1.
La memoria caché L2 (es decir, nivel 2) está en un chip separado (posiblemente en una
tarjeta de expansión) al que se puede acceder más rápidamente que la memoria
"principal" más grande. Un tamaño de memoria caché L2 popular es de 1.024 kilobytes
(un megabyte).

BRANCH PREDICTION:
Es un circuito digital utilizado en los procesadores que utilizan segmentación de la
unidad de proceso para reducir ciclos de parada en la segmentación.
Los saltos condicionales introducen retardo en estos procesadores, ya que normalmente
no se evalúa la condición del salto hasta pasadas varias etapas, lo que hace que se tenga
que parar el cauce, o que se puedan introducir instrucciones en la segmentación que no
deben de ser ejecutadas, teniendo que convertirse posteriormente en NOP, y
decrementando así el rendimiento.

DATA FLOW ANALYSIS:


El análisis del flujo de datos es una técnica para recopilar información sobre el posible
conjunto de valores calculados en varios puntos en un programa de computadora. El
gráfico de flujo de control de un programa (CFG) se usa para determinar las partes de
un programa a las que se puede propagar un valor particular asignado a una variable. La
información recopilada es a menudo utilizada por los compiladores cuando optimizan
un programa. Un ejemplo canónico de un análisis de flujo de datos es alcanzar
definiciones.
Una forma sencilla de realizar el análisis de flujo de datos de los programas es configurar
ecuaciones de flujo de datos para cada nodo del gráfico de flujo de control y resolverlas
calculando repetidamente la salida de la entrada localmente en cada nodo hasta que
todo el sistema se estabilice, es decir, alcanza un punto fijo.
EJECUCIÓN ESPECULATIVA:
Es una forma de optimización en la que un sistema informático realiza una tarea que
podría no ser necesaria; la idea consiste en llevar a cabo un trabajo antes de saber si
será realmente necesario con la intención de evitar el retraso que supondría
realizarlo después de saber que sí es necesario. Si el trabajo en cuestión resulta ser
innecesario, la mayoría de los cambios realizados por ese trabajo se revierten y los
resultados se ignoran.
El objetivo de esta técnica es proporcionar una mayor concurrencia en caso de disponer
de más recursos. Esta técnica se utiliza en una variedad de áreas informáticas,
incluyendo la predicción de saltos en las CPU que soportan segmentación, la predicción
de valores dirigida a explotar la localización de valores, la prelectura
de memoria y archivos, y el control de concurrencia optimista en sistemas de bases de
datos

INTELLIGENT OVERCLOCKING:
Pretende alcanzar una mayor velocidad de reloj para un componente electrónico (por
encima de las especificaciones del fabricante).1 La idea es conseguir un rendimiento más
alto sin necesidad de cambiar los componentes, o superar las cuotas actuales de
rendimiento, aunque esto pueda suponer una pérdida de estabilidad o acortar la vida
útil del componente. Overclock es un anglicismo de uso habitual en informática que
literalmente significa sobre el reloj, es decir, aumentar la frecuencia de reloj de
la unidad central de procesamiento, o simplemente subir frecuencias.
Esta práctica está muy extendida entre los usuarios de informática más exigentes, que
tratan de llevar al máximo el rendimiento de sus máquinas. Algunos usuarios suelen
comprar componentes informáticos de bajo coste, forzándolos posteriormente y
alcanzando así el rendimiento esperado de los componentes de gama más alta. Por otro
lado, los consumidores más fanáticos pueden llegar a adquirir los componentes más
recientes del mercado para forzar su funcionamiento, y conseguir así pruebas de
rendimiento inalcanzables para cualquier equipo de consumo. Por este motivo, la
mayoría de los fabricantes decide no incluir en la garantía de su hardware los daños
producidos por hacerles overclocking.

Vous aimerez peut-être aussi