Vous êtes sur la page 1sur 56

ESPG MAESTRA EN INGENIERIA DE SISTEMAS E INFORMTICA

ADMINISTRACIN DE TECNOLOGAS DE INFORMACIN

Tema 01: Introduccin al Procesamiento Paralelo


Prof: Alberto E. Cohaila Barrios

T em

pe

au rt

re Fl ow Co

Pr e

s su

n tro

e rA

l Pa

nel

am l r

Co

nd

ito i

ns ST

OP

07/11/2008

acohailab@unjbg.edu.pe, acohailab@hotmail.com, acohailab@speedy.com.pe

Arquitectura de Computadores Paralelos

Temas a desarrollar:
1. 2. 3. 4. 5. 6. 7. Introduccin al procesamiento paralelo Rendimiento en los computadores Paralelismo en sistemas monoprocesadores Principios de Segmentacin encauzada Computadores de Segmentacin encauzada Estructura y algoritmos en procesadores matriciales Arquitectura y programacin de los multiprocesadores: Pascal FC, LabVIEW y C++ 8. Multiprocesamiento 9. Arquitectura paralela distribuida: Cluster 10. Aplicaciones
07/11/2008 Arquitectura de Computadores Paralelos 2

1. Introduccin al procesamiento paralelo


Conceptuacin de Procesamiento Paralelo (PP) Computador de altas prestaciones
Servidor PC industrial PC usuario

Evolucin de la arquitectura

Concurrencia en sistemas informticos modernos


- Demanda creciente -

Aplicaciones avanzadas

07/11/2008

Arquitectura de Computadores Paralelos

1. Introduccin al paralelismo
Conceptuacin de Procesamiento Paralelo (PP) Estructura de los computadores paralelos
clasificacin:

Computadores de segmentacin encausada

Procesadores matriciales

Sistemas multiprocesadores

07/11/2008

Flujo Arquitectura de Computadores Paralelos

tcnicas: VLSI y

de datos

1.1 Concepto de Arquitectura de computadores


Primera aparicin del trmino en 1964 (Amdahl):
Estructura de un computador que el programador en lenguaje mquina debe conocer si quiere escribir un programa correcto para dicho computador Bsicamente:
Registros y memoria Conjunto de instrucciones y su formato Modos de direccionamiento Codificacin de las instrucciones

No considera la forma en que se implementan las instrucciones


07/11/2008 Arquitectura de Computadores Paralelos 5

1.1 Concepto de Arquitectura de computadores


Bell y Newell, en 1970, introdujeron una descripcin multinivel jerrquica:
Nivel Nivel Nivel Nivel de de de de circuito elctrico diseo lgico programacin conmutacin procesador-memoria

El tercer nivel corresponde al de Amdahl. El cuarto nivel trata sobre las interconexiones entre el procesador, la memoria y el resto de elementos del sistema (buses, etc. hardware PCB).
07/11/2008 Arquitectura de Computadores Paralelos

1.2 Evolucin de los computadores


Para disear un sistema informtico potente y de costo razonable; y para idear programas eficaces que resuelva un problema computacional, deben comprenderse las estructuras hardware y software subyacentes y los algoritmos de computacin que vayan a ser implementados en la mquina mediante lenguajes de programacin orientados al usuario y/o concurrentes.

07/11/2008

Arquitectura de Computadores Paralelos

1.2 Evolucin de los computadores

Seguridad

Banco de datos

Canales de comunicacin Dispositivos comunicaci perifricos perif

El sistema informtico moderno


Composicin de elementos tales como:
Sistemas operativos Procesadores Memorias Unidades funcionales Redes de interconexin interconexi Compiladores

07/11/2008

Arquitectura de Computadores Paralelos

Ejemplo 01: Sistema de monitoreo remoto de variables de clima como alternativa de solucin al Agro en la regin de Tacna
Medicin de variables de temperatura, Medici radiacin, humedad, velocidad de viento; radiaci adquirir, visualizar y almacenar el BD. Luego el envi de informacin historica envi informaci de modo remoto a usuarios (agricultor) final.

Problema computacional

Sistema operativo + lenguaje de programacin


Comprender la estructura

Hardware y software + Algoritmo computacional


07/11/2008 Arquitectura de Computadores Paralelos 9

Ejemplo 02: Comunicacin entre Host basados en el estndar USB 2.0 (NO ethernet)

Problema computacional

Elaborar el algoritmo de protocolo de red bajo la normativa USB 2.0 que comunique mas de 2 host. host.

Sistema operativo + lenguaje de programacin


Comprender la estructura

Hardware y software + Algoritmo computacional


07/11/2008

Windows vista + Java - Algoritmo de multiprogramacin multiprogramaci - Driver del fabricante


10

Arquitectura de Computadores Paralelos

1.2 Evolucin de los computadores


1 Generacin (1938-1953):
Primer computador analgico: 1938 Primer computador digital electrnico: 1946 (ENIAC) Dispositivos de conmutacin: paso de rels a vlvulas de vaco. Componentes hardware muy caros Operaciones en CPU bit a bit (en serie) Lenguaje de programacin: cdigo mquina binario Primer programa almacenado (1950)
07/11/2008 Arquitectura de Computadores Paralelos 11

1.2 Evolucin de los computadores


2 Generacin (1952-1963):
Primer computador con transistores: 1954 Memorias de ferrita Primeros lenguajes de alto nivel: FORTRAN y ALGOL Primeros ordenadores con mejoras en arquitectura: LARC (1959), con E/S independiente de otras unidades de proceso Forma normal de trabajo: procesamiento por lotes, donde los programas se ejecutan secuencialmente, uno cada vez y de principio a fin.
07/11/2008 Arquitectura de Computadores Paralelos 12

1.2 Evolucin de los computadores


3 Generacin (1962-1975):
Circuitos integrados de pequea y mediana escala de integracin. Memorias de estado slido (abaratamiento de memoria) Programas ms grandes Introduccin a la multiprogramacin, con el propsito de permitir la ejecucin de mltiples segmentos de programa intercalados con operaciones de E/S Primeros procesadores vectoriales Introduccin a la memoria virtual
07/11/2008 Arquitectura de Computadores Paralelos 13

1.2 Evolucin de los computadores


4 Generacin (1972-1986):
Circuitos VLSI (reduccin de tamaos y costes) Ampliacin de los lenguajes de alto nivel, para considerar a un tiempo datos escalares y vectoriales La mayora de los sistemas operativos son de tiempo compartido y emplean memoria virtual. Compiladores con capacidad de vectorizacin

07/11/2008

Arquitectura de Computadores Paralelos

14

1.2 Evolucin de los computadores


5 Generacin (1986-):
Multiprocesamiento de mas de 2 ncleos Mas de 1000 Megaflops Procesadores a escala nanometrica ( <60 nm)

Futuro
Procesadores moleculares Procesadores a escala nanometrica (nm) Masa de 1 millon de millones de operaciones aritmticas de punto flotante por segundo (Teraflops) Lenguajes cada vez de ms alto nivel (casi lenguaje natural)
07/11/2008 Arquitectura de Computadores Paralelos 15

1.3 Generacin de computadores

1990-actualidad 1990-

Sexta Quinta
1972-1986 1972Mas de 1000 1982-1989 1982Megaflops es la productividad VLSI, des. de esperada comp. persocales

LSI, leng. de alto nivel, leng. 1962-1975 compiladores de vectorizacin 1962vectorizaci 1952-1963 1952SSI y MSI como circuito integrado

1938-1953 1938Reles+tubo vaco Reles+tubo vac

Transistor+diodos

07/11/2008

Arquitectura de Computadores Paralelos

2000

16

Video:
Evolucin de procesadores Intel
El procesador

07/11/2008

Arquitectura de Computadores Paralelos

17

1.4 Tendencias hacia el procesamiento paralelo


Segn Sidney Fernbarch:
Los maxicomputadores (mainframe) de hoy haban sido considerados supercomputadores hace 10 o 20 aos. Por la misma razn, los supercomputadores de hoy sern considerados equipos estndar de tcnica avanzada dentro de 10 20 aos
Procesamiento del computador,

Tendencia, 3 puntos de vista:


07/11/2008 Paralelos

Sistema operativo y
18

Velocidad del procesador Arquitectura de Computadores(chip)

a) Desde el punto de vista del procesamiento


La corriente es la tendencia de 4 niveles de sofisticacin ascendente:
Procesamiento de datos Procesamiento de informacin Procesamiento de conocimiento Procesamiento de inteligencia Procesamiento de imagen

Alto grado de paralelismo

07/11/2008

Arquitectura de Computadores Paralelos

19

Volumen creciente de material a procesar

Proces. Proces. de inteligencia Procesamiento de conocimientos Procesamiento de informacin informaci

Creciente complejidad y sofisticacin sofisticaci del proceso (alto grado de paralelismo)

Procesamiento de datos

07/11/2008

Los espacios de datos, informacin, conocimiento e inteligencia desde el punto de vista del Paralelos procesamiento por computador.

Arquitectura de Computadores

20

b) Desde el punto de vista del sistema operativo


Han mejorado en 4 fases:
Procesamiento por lotes (batch) Multiprogramacin Tiempo compartido Multiprocesamiento

Aumenta el grado de paralelismo

Se refuerzan los 4 niveles (datos, informacin, conocimiento e inteligencia) ascendentemente del procesamiento por computador
07/11/2008 Arquitectura de Computadores Paralelos 21

1.5 Paralelismo
Conceptos bsicos de paralelismo Programa:
Para el programador: Conjunto ordenado de instrucciones. Para el S.O: Fichero ejecutable en memoria externa

Proceso: Es un concepto del SO, ligado al de programa:


Realizacin de un trabajo, con los recursos asociados que necesite Espacio de memoria (instrucciones+datos) Tiempo de procesador Tarea: Trmino usado en los SO antiguos (DOS, MVT) para definir los procesos. No implica ningn tipo de reserva de memoria ni gestin de concurrencia (no lo permitan los SO).

Hilo Hebra (Threading): Secuencia de instrucciones que se crea y

pertenece a un proceso concreto. Todas las hebras creadas en un proceso comparten los recursos, en concreto el espacio de memoria
OS/2, WinNT utilizaban hebras Una hebra puede estar ejecutndose, preparada para ejecutarse o bloqueada.
07/11/2008 Arquitectura de Computadores Paralelos 22

1.5 Paralelismo
Conceptos bsicos de paralelismo

Ejecucin concurrente: es el comportamiento temporal del modelo 1 servidor-N clientes. Es secuencial si lo miramos en un instante pequeo de tiempo pero simultneo si lo vemos con una perspectiva temporal ms amplia
Cuestin a resolver: cmo los clientes acceden a los recursos del servidor de una manera eficiente y justa. Tiempo compartido: ninguna tarea se apropia del servidor, sino que este va rotando entre las distintos clientes

Ejecucin paralela: Corresponde con el modelo N Clientes N Servidores. Esto permite estar trabajando a la vez con ms de un cliente (proceso o hilos) a la vez.
Debe haber mecanismos para la gestin de los recursos compartidos (memoria, dispositivos).
07/11/2008 Arquitectura de Computadores Paralelos 23

1.5.1 Tipos y niveles


Tipos de paralelismo Paralelismo funcional: Aquel que se refleja en la lgica de la solucin de un problema (en los diagramas de flujo y, por tanto, en el cdigo). Paralelismo de datos:Se consigue mediante el uso de estructuras de datos que permiten operaciones paralelas sobre sus elementos (vectores, matrices) Niveles de paralelismo A nivel de instruccin (fine-grained)

A nivel de bucle (middle-grained)

Explota la concurrencia entre mltiples instrucciones. Es deseable la vectorizacin Operaciones mas rpidas y concurrentes dentro de c/instruccin, se implementa con frecuencia directamente por medio de hardware

A nivel de procedimiento o tarea (middle-grained)

Descomposicin de un programa en mltiples tareas


A nivel de programa (coarse-grained)

Desarrollo de algoritmos procesables en paralelo


Los niveles 1 a 3 se pueden explotar mediante la arquitectura dela mquina 07/11/2008 Arquitectura de Computadores Los niveles 2 a 4 se pueden explotar mediante el sistema operativo
Paralelos 24

Ejemplo

Concurrencia, uso de Cobegin

07/11/2008

Arquitectura de Computadores Paralelos

25

1.5.2 Tcnicas
Utilizacin del paralelismo funcional A nivel de instruccin. Arquitecturas ILP (Instruction Level Parallel) Se encargan los compiladores A nivel de proceso y/o hebra. Depende de un buen diseo y programacin Modelos de ejecucin concurrente Multihilo:Para cada proceso se pueden generar varias hebras que son ejecutadas concurrentemente en un mismo procesador bajo la gestin del SO. Multitarea: Ejecucin concurrente de procesos. Multiprogramacin:Utilizacin efectiva del procesador por varios procesos correspondientes a varios usuarios (internamente es una multitarea). Si un proceso se bloquea, entonces otro se comienza a ejecutar. Tiempo compartido: No espera a que un proceso se bloquee para ejecutar otro, sino que asigna a cada uno un espacio de tiempo dependiendo de varios factores.
07/11/2008 Arquitectura de Computadores Paralelos 26

1.5.3 Qu es procesamiento paralelo?


Es una forma eficaz de procesamiento de informacin que favorece la explotacin de los sucesos concurrentes en el proceso de computacin.
pasado
P1 P2

presente

...

P1 P2 P3 P4

...
27

07/11/2008

Arquitectura de Computadores Paralelos

sucesos

1.5.3 Qu es procesamiento paralelo?


Concurrencia implica

Paralelismo

Simultaneidad

Solapamiento [segmentacin encauzada (pipelining)]


Los sucesos solapados son los que pueden producirse en intervalos de tiempo superpuestos

Los sucesos paralelos son los que pueden producirse en diferentes recursos durante el mismo intervalo de tiempo

Los sucesos simultneos son los simult que pueden producirse en el mismo instante

07/11/2008

Arquitectura de Computadores Paralelos

28

1.5.3 Qu es procesamiento paralelo?


Estos sucesos concurrentes pueden darse en un sistema computador en varios niveles de procesamiento (monoprocesador o multiprocesador). El procesamiento paralelo exige la ejecucin concurrente en el computador de muchos programas. El nivel mas alto de procesamiento paralelo se aplica a trabajos y programas mltiples a travs de multiprogramacin, tiempo compartido y multiprocesamiento.
07/11/2008 Arquitectura de Computadores Paralelos 29

1.5.3 Qu es procesamiento paralelo?


Conforme las tecnologas de comunicaciones de datos progresa, la distincin entre procesamiento paralelo y distribuido se hace mas y mas pequeo.

Procesamiento Distribuido

- Redes de computadoras dispersos y dbilmente acoplados - Se puede alcanzar alto grado de concurrencia en sistemas distribuidos

07/11/2008

Arquitectura de Computadores Paralelos

30

1.6 Paralelismo en sistemas Monoprocesadores


Inicio Un solo procesador central
Prog. concurrente Prog. Lmite en la consecucin de alto consecuci rendimiento Necesidad de un controlador de procesamiento paralelo, para incrementar la potencia de clculo c

Sist. monoprocesador

Actualidad Procesadores mltiples


Sist. multiprocesador
07/11/2008

Memoria y perifricos perif compartidos bajo control de un sistema operativo integrado


31

Arquitectura de Computadores Paralelos

1.6.1 Arquitectura bsica de un monoprocesador


Consta de 3 partes esenciales:
Unidad Central de proceso (UCP) Memoria principal Subsistema de entrada/salida (E/S)

07/11/2008

Arquitectura de Computadores Paralelos

32

Bus synchronous backplane Interconnect (Tri-State) Tri-State)

07/11/2008

Arquitectura del sistema monoprocesador VAX 11/780 de tipo supermidi. Arquitectura de Computadores (Cortesia de Digital Equipment Corporation) Paralelos

33

07/11/2008

Arquitectura del computador monoprocesador IBM Sistema 360/Modelo 168 de tipo maxicomputador. Arquitectura de Computadores (Cortesia de International Business Machines Corp.)
Paralelos

34

Hoy Da

CPU

Memoria

E/S

Buses de direccin, datos y control (BusTri-State)

07/11/2008

Arquitectura de Computadores Paralelos

35

Video:
Dentro del PC

07/11/2008

Arquitectura de Computadores Paralelos

36

1.6.2 Mecanismo de procesamiento paralelo


Los sistemas monoprocesador se basan en la arquitectura Von Neumann. Formas de dotar paralelismo:
1. 2. 3. 4. 5. 6.
07/11/2008

Multiplicidad de unidades funcionales Paralelismo y segmentacin encauzada (pipeling) dentro de la UCP Solapamiento de operaciones de E/S y UCP Uso de sistemas jerrquicos de memoria Equilibrado de los anchos de banda de los subsistemas Multiprogramacin y tiempo compartido
Arquitectura de Computadores Paralelos 37

1. Multiplicidad de unidades funcionales


Los primeros computadores disponan de un solo ALU en la UCP. El ALU poda realizar una funcin cada vez, proceso demasiado lento para efectuar una larga secuencia de instrucciones aritmticas y lgicas. La multiplicidad de unidades funcionales, en la practica, equivale a que muchas de las funciones de la ALU pueden estar distribuidas sobre mltiples unidades funcionales especializadas que pueden operar en paralelo (posibilidad de varias ALUs) Actualmente el PC y procesadores perifricos estn equipados con mltiples unidades funcionales para realizar operaciones aritmticolgicas paralelas o simultaneas (multiplicidad altamente encauzada)

07/11/2008

Arquitectura de Computadores Paralelos

38

Arquitectura del computador CDC-6000, 10 ALUs

ALU

(son independientes y pueden operar simultaneamente) simultaneamente)

(UCP)
Con 10 Unidades funcionales 24 registros disponibles, Computadores procesamiento de instrucciones se 39 07/11/2008 Arquitectura de la velocidad de velocidad Paralelos incrementa significativamente

2. Segmentacin encauzada
Fases de ejecucin de una instruccin
Extraccin de la instruccin Decodificacin Extraccin de operandos Ejecucin operacin Almacenamiento de resultados

Estas etapas se ejecutan una tras otra Se puede estar a la vez ejecutando distintas instrucciones, pero cada una estar en una etapa distinta Incorporan sumadores paralelos, empleando tcnicas de anticipacin de acarreo y salvaguarda de acarreo (incorporados hoy en da en casi la mayora de ALUs)
07/11/2008 Arquitectura de Computadores Paralelos 40

2. Segmentacin encauzada
Extraccin de instruccin Segmento 1

Almacenamiento del resultado

Segmento 5

Segmento 2

Decodificacin

1 CPI
n

Nro. instrucciones
CPI
i 1

* CPI i

Nro. instruccio nes Total

CPI: Ciclo de reloj por instruccin Segmento 4 Ejecucin aritmtico-lgico Segmento 3 Extraccin del operando

07/11/2008

Arquitectura de Computadores Paralelos

41

3. Solapamiento de las operaciones de E/S y CPU


Las operaciones de E/S son mucho ms lenta que los clculos (dependen del dispositivo) Por qu tener el procesador parado esperando a que responda el dispositivo? Uso de controladores de E/S Descarga CPU El DMA puede utilizarse para transmitir directamente la informacin desde los dispositivos de E/S hasta la memoria del sistema. El canal de acceso directo a memoria (DMA: Direct Memory Acces) trabaja mediante robos de ciclos a la UCP De esta gestin se encarga el SO
07/11/2008 Arquitectura de Computadores Paralelos 42

4. Uso de sistemas jerrquicos de memoria


La memoria se divide en niveles jerrquicos Debido a las propiedades de localidad espacial y temporal, se puede hacer uso de memorias ms pequeas pero ms rpidas entre el procesador y la memoria principal.
Localidad espacial: la siguiente instruccin suele estar cerca Localidad temporal: la siguiente instruccin suele haberse ejecutado hace poco

Los niveles ms rpidos son los ms prximos en la jerarqua


07/11/2008 Arquitectura de Computadores Paralelos 43

5. Equilibrado del ancho de banda en los subsistemas


El ancho de banda se define como el nmero de operaciones efectuadas por unidad de tiempo En general, la UCP es la unidad ms rpida, con un tiempo de ciclo Tp. (p.e. Tp=10 ns) El tiempo de ciclo de memoria se denota por Tm (p.e. Tm=200 ns) Los dispositivos de E/S son los ms lentos, y en general se denomina Td (p.e. Td=5 ms) Se cumple por tanto la siguiente relacin:
Td>Tm>Tp Td<Tm<Tp

Estas diferencias hacen necesario equiparar los anchos de banda de procesamiento


Nmero de operaciones que se pueden realizar por unidad de tiempo. Nmero de palabras que se pueden acceder por unidad de tiempo Nmero de bytes que se pueden acceder por unidad de tiempo

07/11/2008

Arquitectura de Computadores Paralelos

44

5. Equilibrado del ancho de banda en los subsistemas


Tcnicas de equilibrado:
Entre CPU y memoria: Uso de cach Entre memoria y disp. E/S: Uso de canales a diferentes velocidades (multiplexacin y memorizacin) Uso de controladores dedicados

Sistema equilibrado:
U U BU Bd Bm p

07/11/2008

Arquitectura de Computadores Paralelos

45

5. Equilibrado del ancho de banda en los subsistemas

07/11/2008

Arquitectura de Computadores Paralelos

46

6. Multiprogramacin y tiempo compartido (multitarea)


Manera eficaz de cmo reparte recursos un monoprocesador apoyado por el SO. Aun cuando en un sistema monoprocesador solo exista una UCP, se logra alcanzar alto grado de comparticin de recursos entre muchos programas de usuario.

07/11/2008

Arquitectura de Computadores Paralelos

47

6. Multiprogramacin y tiempo compartido (multitarea)


Multiprogramacin: Usar las operaciones de E/S de un proceso para ejecutar otro (siempre que no se pisen recursos)
Ejecucin simultanea de varios programas dentro del sistema durante el ancho de banda del procesador (Bp)

Tiempo compartido: Evitar que un proceso monopolice el procesador (p.ej. Si no hace operaciones de E/S)
Da igual de oportunidad a todo slos programas que compiten por el uso del UCP

07/11/2008

Arquitectura de Computadores Paralelos

48

07/11/2008

Arquitectura de Computadores Paralelos

49

6. Multiprogramacin y tiempo compartido (multitarea)


Por tanto: Es eficaz cuando se aplica a un computador conectado a muchos terminales interactivos (p.e Betwin) El tiempo compartido es indispensable para el desarrollo de computadores de tiempo real. Compartir el tiempo en multiprocesadores es complicado. El rendimiento de un multiprocesador depende en gran medida de la capacidad del sistema operativo. La funcin principal de un SO es optimizar la asignacin y administracin de los recursos.
07/11/2008 Arquitectura de Computadores Paralelos 50

1.7 Estructuras de computadores paralelos


Para favorecer al procesamiento paralelo se conoce tres Arquitecturas:
Procesadores de segmentacin encauzada Procesadores matriciales Sistemas multiprocesadores

07/11/2008

Arquitectura de Computadores Paralelos

51

1.7.1 Procesadores de segmentacin encauzada


Se aprovecha que las instrucciones se dividen en etapas separadas para solapar la ejecucin de varias instrucciones. Un ciclo de ejecucin consta de varios ciclos de cauce. El ciclo de cauce viene determinado por el retardo de la etapa ms lenta. En teora, un ordenador con k-etapas podra ser kveces ms rpido que su equivalente no segmentado.
07/11/2008 Arquitectura de Computadores Paralelos 52

1.7.2 Procesadores matriciales


Computador paralelo y sncrono con mltiples ALUs que pueden operar en paralelo realizando la misma funcin. Las instrucciones escalares y de control se ejecutan en la UC, mientras que las vectoriales se transmiten a los elementos de proceso (ALU+Mem) Los elementos de proceso estn conectados mediante una red dinmica.
07/11/2008 Arquitectura de Computadores Paralelos 53

1.7.3 Sistemas Multiprocesadores


Consta de varios procesadores con capacidades similares, compartiendo accesos a una memoria comn y dividida en mdulos. El sistema entero est gestionado por un nico sistema operativo Cada procesador dispone de su propia memoria local y puede acceder a dispositivos propios de E/S. La comunicacin entre procesadores se puede realizar mediante:
Memoria principal Red de interconexin Gestin de interrupciones

Se considera la descentralizacin de operaciones: sistemas distribuidos.

07/11/2008

Arquitectura de Computadores Paralelos

54

Nuevas tendencias
La realizacin de las tareas est limitada a la disponibilidad de datos:
Ordenar las instrucciones en funcin de las dependencias de datos Los programas se representan como grafos de flujos de datos. Las instrucciones se implementaran con plantillas. Esto permite un anlisis formal del programa y verificar su correccin.

Implementacin hardware de algoritmos masivamente paralelos.

07/11/2008

Arquitectura de Computadores Paralelos

55

1.8 .Aplicaciones del procesamiento paralelo


Modelizacin predictiva y simulaciones
La modelizacin de la superficie terrestre o de la atmsfera supone una gran carga computacional (unos 1000 millones de MFLOPS) P. ej. La prediccin del tiempo a 24 horas vista, con precisin de 160000 km2 (400x400) supone unos 100 billones de operaciones (100 minutos en un Cray-1). Si queremos precisin de 40.000 km2, se necesitaran 14 horas.

Diseo y automatizacin de proyectos de ingeniera


Anlisis de elementos finitos, aerodinmica computacional, inteligencia artificial, robtica, visin computacional

Exploracin de recursos energticos


Modelizacin de yacimientos, seguridad de reactores nucleares

Investigacin mdica
Tomografa computerizada, sntesis de protenas,

07/11/2008

Arquitectura de Computadores Paralelos

56

Vous aimerez peut-être aussi