Vous êtes sur la page 1sur 5

Licenciatura en Sistemas Programacin III

Tema: Paralelismo.

Prctico N 2 Fecha: 02/05/2013

Integrantes: __Soruco Fernando Gustavo _______ ______________________________________ _______________________________ ______________________________________


1. Enuncie avances en la arquitectura que incrementan la cantidad de trabajo que se pueden realizar por ciclo de instruccin. Entre los avances que encontramos memoria bit-paralela, aritmtica bit-paralela, memoria cache, canales, memoria intercalada, mltiples unidades funcionales, lookahead de instrucciones, pipelining de instrucciones, unidades funcionales pipelined y pipelining de datos. Una vez incorporados estos avances, mejorar la eficiencia de un procesador implica reducir el tiempo de los ciclos: avances tecnolgicos. 2. La definicin de computador paralelo, involucra: - supercomputadoras con cientos de procesadores. - redes de estaciones de trabajo. - mquinas con mltiples procesadores. 3. Mencione aplicaciones que utilizan grandes recursos computacionales. a.- Clculo 1. 2. 3. 4. 5. 6. 7. 8. dinmica de fluidos computacional. simulaciones electromagnticas. modelado ambiental. dinmica estructural. modelado biolgico. dinmica molecular simulacin de redes modelado financiero y econmico.

b.- Almacenamiento 1. 2. 3. 4. 5. anlisis de data ssmica. procesamiento de imgenes. minera de datos. anlisis estadstico de datos. anlisis de mercado.

c.- Comunicacin 1. 2. 3. 4. 5. 6. Procesamiento de transacciones en lnea sistemas colaborativos. texto por demanda. video por demanda. imgenes por demanda. simulacin por demanda.

d.- Sistemas 1. 2. 3. 4. 5. Soporte a decisiones corporativas y gubernamentales. control de sistemas a tiempo real. banca electrnica. compras electrnicas. educacin.

4. Describa los diferentes criterios de diseos en la interconexin de los procesadores. a) El dimetro de la red viende dado por mayor distancia entre dos nodos. Mientras menor sea el dimetro menor sera el tiempo de comunicacin entre dos nodos arbitrarios. b) El ancho de biseccin de la red es el menor nmero de enlaces que deben ser removidos para dividir la red por la mitad. Un ancho de biseccin alto es preferible porque puede reducir el tiempo de comunicacin cuando el movimiento de datos es sustancial, ya que la informacin puede viajar por caminos alternos y as evitar o reducir la congestin entre ciertos nodos de la red. Igualmente un ancho de biseccin alto hace el sistema ms tolerante a fallas debido a que defectos en un nodo no hacen inoperable a todo el sistema. c) Es preferible que el nmero de enlaces por nodo sea una constante independiente del tamao de la red, ya que hace ms fcil incrementar el nmero de nodos. d) Es preferible que la longitud mxima de los enlaces sea una constante independiente del tamao de la red, ya que hace ms fcil aadir nodos. Por lo tanto, es recomendable que la red se pueda representar tridimensionalmente. e) Redes estticas y dinmicas. En las redes estticas la topologa de interconexin se define cuando se construye la mquina. Si la red es dinmica, la interconexin puede variar durante la ejecucin de un programa o entre la ejecucin de programas. Entre dos redes, una esttica y la otra dinmica, que ofrezcan el mismo grado de conectividad entre los nodos, la dinmica es menos costosa de implementar (requieren menos puertos y cableado) pero incrementa el tiempo promedio que un nodo ha de esperar por una va de comunicacin libre. 5. Describa la interconexin BUS y ETHERNET En una red basada en un bus, los procesadores comparten el mismo recurso de comunicacin: el bus. Esta arquitectura es fcil y econmica de implementar, pero es altamente no escalable ya que solo un procesador puede usar el bus en un momento dado; a medida que se incrementa el nmero de procesadores, el bus se convierte en un cuello de botella debido a la congestin. Esta topologa en muy popular en multiprocesadores de memoria compartida como el Encore Multimax y el Sequent Symetry, en donde el bus es usado para leer y escribir en la memoria global (compartida). En principio, la memoria global simplifica la programacin paralela ya que no hay que tomar en cuenta la localidad. Sin embargo, la mayora de las mquinas paralelas de memoria compartida usan memorias cache para reducir el trafico en el bus; por lo tanto, la localidad continua siendo importante ya el acceso al cache es mucho ms rpido que a la memoria compartida. Un conjunto de mquinas conectadas por Ethernet es otro ejemplo de una interconexin por bus. Es muy popular para interconectar estaciones de trabajo y computadores personales. Todos los computadores conectados via Ethernet comparten el mismo canal de comunicacin Una mquina que requiere enviar un mensaje tiene que esperar hasta que el canal este libre; si detecta una colisin, espera cierto tiempo y retrasmite.

6. En el Modelo de Computacin Paralela: Multiprocesadores de Acceso Uniforme a Memoria En estas mquinas los vectores fluyen a travs de las unidades aritmticas pipelined Maquinas secuenciales conectadas a un arreglo de elementos de procesamiento sincronizado. Sus procesadores interconectados a travs de un mecanismo de switches a una memoria compartida centralizada . 7. En el modelo Multicomputadores Comparten memoria. No comparten memoria, cada procesador cuenta con su propia memoria. Comparten memoria y conexin fisica.

8. Los cluster de pc Son costosos, implica varios componentes de elevado costo para el usuario final. Son econmicos. Son econmicos y los componentes son dificiles de obtener en el mercado. 9. Mencione desventajas del uso de los cluster de pc Con raras excepciones, los equipos de redes generales producidos masivamente no estn diseados para procesamiento paralelo y tpicamente su latencia es alta y los anchos de banda pequeos comparados con multiprocesadores. Dado que los clusters explotan tecnologa que sea econmica, los enlaces en el sistema no son veloces implicando que la comunicacin entre componentes debe pasar por un proceso de protocolos de negociacin lentos, incrementando seriamente la latencia, y recurrir en muchos y en el mejor de los casos (debido a costos) a Fast Ethernet restringiendo la escalabilidad del cluster. Hay poco soporte de software para manejar un cluster como un sistema integrado. La administracin, por lo general, se debe hacer mquina por mquina y no es centralizada como en los multiprocesadores. Esto tambin los hace ms susceptibles a problemas de seguridad. Los procesadores para los PCs no son tan eficientes como los procesadores de los multiprocesadores para manejar mltiples usuarios y/o procesos. Esto hace que el rendimiento de los clusters se degrade con relativamente pocos usuarios y/o procesos. Muchas aplicaciones importantes disponibles en multiprocesadores y optimazadas para ciertas arquitecturas, no lo estan en clusters de PCs.

10. La clasificacin de computadoras paralelas se basa en Multiplicidad de flujo de instrucciones y del flujo de las conexiones. Simplicidad en el flujo de instrucciones y multiplicidad de conexiones. Multiplicidad de flujo de instrucciones y del flujo de datos . 11. El flujo de datos Es la secuencia de datos sobre los cuales operan las instrucciones. Es la secuencia de datos sobre los cuales operan la memoria y el procesador. Es la secuencia de instrucciones sobre las cuales operan el procesador. 12. Computadores SISD representa Flujo de instrucciones simples, flujos de datos mltiples. Flujo de instrucciones simples, cantidad de procesadores mltiples. Flujo de instrucciones simples, flujos de datos simples. 13. Flujo de mltiples instrucciones, Flujo de datos simple, comprende las siglas SISD SIMD MISD

MIMD

SPMD
14. El diseo de algoritmos paralelos involucra varias etapas, las mismas son: Particin, Comunicacin, Agrupacin, Asignacin. Problema, Comunicacin, Agrupacin, Asignacin. Particin, Conexin, Agrupacin, Asignacin. Particin, Comunicacin, Agrupacin, Ejecucin. 15. La etapa de Comunicacin, definida por un algoritmo en paralelo, puede ser definida: en dos fases, definiendo datos y tipo de buses de comunicacin. en tres fases, definiendo canales de datos, los mensajes y la informacin a ser enviada y recibida. En dos fases, canales de datos, e informacin que debe ser enviada y recibida. 16. La etapa de Asignacin, se determina: el orden en que van a ingresar los procesos a la cola de PROCESOS. Que procesador va a ejecutar cada tarea. El orden de las tareas en que van a ser ejecutadas. La asignacin dinmica de los procesos dentro de la cola de PROCESOS. 17. Las medidas para determinar la calidad de la implementacin de un algoritmo paralelo en multicomputadores y multiprocesadores son: Aceleracin y eficacia. Aceleracin y eficiencia. Eficiencia y cantidad de procesos ejecutados. Aceleracin y cantidad de procesos en cola de procesos. Aceleracin y procesos ejecutados en memoria. 18. Mencione herramientas o lenguajes en programacin paralela. C++ Composicional (C++): Es una extensin de C++ que provee al programador con facilidades para controlar localidad, concurrencia, comunicaciones, y asignacin de tareas. Puede ser usado para construir libreras que implementen tareas, canales, y otras abstracciones bsicas de la programacin paralela. High Performance Fortran (HPF): Es un ejemplo de lenguajes datos-paralelos y se ha convertido en un estndar para aplicaciones cientficas e ingenieriles. El paralelismo es expresado en trminos de operaciones sobre matrices y la comunicacin es inferida por el compilador. Parallel Virtual Machine (PVM): Es una librera de subrutinas para enviar y recibir mensajes. Message Passing Interface (MPI): Similar a PVM pero, tal como HPF, MPI se ha convertido un estndar.

19. Podemos asegurar que para resolver un determinado problema en paralelismo: Incrementar el nmero de procesadores, produce que el valor de la eficiencia decremente Incrementar el nmero de procesadores, produce que el valor de la eficiencia incremente. Incrementar la capacidad de la memoria, produce que el valor de la eficiencia decremente. Incrementar el nmero de procesadores, produce que la capacidad de la memoria, disminuya.

Vous aimerez peut-être aussi