Vous êtes sur la page 1sur 2

Bassirou BADJI DIT2

TP systme distribu EXERCICE 1 : Architecture parallle Dfinition : Les ordinateurs parallles sont des machines qui comportent une architecture parallle, constitue de plusieurs processeurs identiques, ou non, qui concourent au traitement d'une application. La performance d'une architecture parallle est la combinaison des performances de ses ressources et de leur agencement (latence, dbit). Architectures parallles : pas de limite de mmoire, pas de limite de processeurs, acclration des calculs complexes ou coteux en temps d'occupation CPU, (calcul matriciel, simulation numrique, transforme de fourier...), calcul rptitif sur un large ensemble de donnes structur, traitement indpendant. On peut avoir diffrentes sources de paralllisme : le paralllisme de donnes : la mme opration est effectue par chaque processeur sur des donnes diffrentes. Paralllisme de contrle: des oprations sont ralises simultanment sur plusieurs processeurs. Le programme prsente des squences d'oprations indpendantes qui peuvent tre excutes en parallle. Pourquoi le paralllisme ? : besoin des applications, calcul scientifique, traitement d'images, bases de donnes qui demandent des ressources en CPU et en temps de calcul de plus en plus importantes, limites des architectures squentielles, performance, capacit d'accs la mmoire, tolrance aux pannes Les architectures parallles - MPI Paralllisme de flux : Les oprations sur un mme flux de donnes peuvent tre enchanes (pipeline) les dpendances de ressources: nombre insuffisant de processeurs pour effectuer les instructions en parallle alors qu'elles sont indpendantes les unes des autres. rapport temps de communication / temps de calcul : Il n'est pas toujours avantageux de parallliser une application. Les communications peuvent dans certain cas augmenter le temps d'excution. Les architectures parallles Les types d'architectures parallles Classification des architectures parallles :S : Single, M : Multiple I : Instruction, D : Data Les types d'architectures parallles SISD : une instruction - une donne machine squentielle (modle de Von Neumann) SIMD : plusieurs donnes traites en mme temps par une seule instruction. Utilis dans les gros ordinateurs vectoriels. Premire machine parallle : l'ILLIAC IV (1966) MISD : Une donne unique traite par plusieurs instructions. Architecture pipeline. MIMD : excution d'une instruction diffrente sur chaque processeur pour des donnes diffrentes. Pour simplifier la programmation, on excute la mme application sur tous les processeurs. Ce mode d'excution est appel : SPMD (Single Program Multiple Data) Les types d'architectures parallles Il existe deux types de machine parallle : les machines parallles mmoire partage les machines parallles mmoire distribue

Les machines mmoire partage Caractristiques : plusieurs processeurs avec des horloges indpendantes, une seule mmoire commune tous les processeurs, programmable par le standard portable OpenMP. Les machines mmoire partage Les machines mmoire partage permettent de raliser le paralllisme de donnes et de contrle. Le programmeur n'a pas besoin de spcifier la distribution des donnes sur chaque processeur. Il dfinit seulement la partie du programme qui doit tre paralllise (directives) et doit grer les synchronisations Avantages : simplicit d'utilisation, portabilit au SMP (architecture homogne mmoire partage), paralllisme de haut niveau Inconvnients : Cot, limitation du nombre de processeurs (conflit d'accs au niveau matriel), la bande passante du rseau est le facteur limitant de ces architectures Les machines mmoire distribue : interconnexion (rseau local rapide) de systmes indpendants (nuds), mmoire propre locale chaque processeur, chaque processeur excute des instructions identiques ou non, sur des donnes identiques ou non, paralllisme par change de messages Les communications entre processeurs sont ralises par l'appel des fonctions de bibliothque standard : PVM (Parallel Virtual Machine) ou MPI (Message Passing Interface). Il est prfrable de dvelopper avec MPI qui est plus stable et qui est portable sur les machines parallles actuelles. MPI => MPP (massively Parallel Processing) La dcomposition de domaine permet d'acclrer le calcul : Avantages : non limit thoriquement en nombre de processeurs, grande puissance de calcul, ralisation aise par la conception de cluster, mise en rseau d'un certain nombre de machines systme d'exploitation Linux, partage transparent des ressources, portabilit des applications MPI Inconvnients : plus difficile programmer que les machines mmoire partage, MPI (Message Passing Interface) PVM (Parallel Virtual Machine), efficacit limite, administration du cluster EXERCICE 2 La scurit d'un systme d'ordinateurs interconnects dpend du maillon le plus faible: quand la machine considre comme le plus faible maillon est infecte, tout le systme peut tre corrompu.