Vous êtes sur la page 1sur 20

DEPARTEMENT DE TELECOMUNICATION ET TECHNOLOGIE DE

L’INFORMATION ET DE LA COMMUNICATION

SYSTEMES PARALLELES ET DISTRIBUES

Présenté par le groupe 3

Enseignant: M. NSOM

15/04/2022 Année 2021/2022 1


PLAN DE
L’EXPOSE
INTRODUCTION

SYSTEMES ET TYPES DE SYSTEMES

SYSTEMES PARALLELES

SYSTEMES DISTRIBUES

SYSTEMES PARALLELES VS SYSTEMES


DISTRIBUES

CONCLUSION

2
INTRODUCTI
De nos jours,
ON
l’exécution de tâches routinières peuvent désormais
facilement être traitées en toute aisance grâce à l’outil informatique : que
ce soit via des smartphones, des ordinateurs portables ou de bureau, tout y
est faciliter le travail et la vie des uns et des autres. Cependant, la quantité
de plus en plus croissante des données et la limite de plus en plus
considérable des ressources disponibles commencent à poser de gros
problèmes dans le domaine informatique. Pour pallier à ce problème, les
ingénieurs et chercheurs ont réfléchi à des systèmes architecturaux qui
permettraient d’un côté d’exploiter à bon escient les ressources
disponibles pour gérer de grandes données ou traiter d’importantes
opérations lourdes 

3
DEFINITI
ONS
Tout système étant conçu dans un but précis, il était donc primordial
d’apporter une cohérence et une conformité dans les applications aux
besoins des uns et des autres. En ce qui nous concerne nous
aborderons les notions de systèmes parallèles et de systèmes
distribués.
 
  SYSTEMES PARALLELES SYSTEMES DISTRIBUES
En informatique, le parallélisme consiste à
Un système distribué est un système composé d’entités
mettre en œuvre des architectures
distantes et qui exécutent des taches en concurrence les
d'électronique numérique permettant de traiter
uns avec les autres dans le but d’améliorer le partage
des informations de manière simultanée, ainsi
des ressources.
que les algorithmes spécialisés pour celles-ci
SYSTEMES PARALLELES
En informatique, le parallélisme consiste à mettre en œuvre des
architectures d'électronique numérique permettant de traiter des
informations de manière simultanée, ainsi que les algorithmes spécialisés
pour celles-ci. Ces techniques ont pour but de réaliser le plus grand
nombre d'opérations en un temps le plus petit possible.
 
Son principe est très simple, les instructions sont exécutées les unes après
les autres. Le parallélisme se manifeste actuellement de plusieurs
manières : en juxtaposant plusieurs processeurs séquentiels ou en
exécutant simultanément des instructions indépendantes.

5
PRINCIPE
Le calcul parallèle est également appelé Traitement parallèle.  C'est une
forme de calcul qui peut effectuer plusieurs calculs simultanément. Le
calcul parallèle utilise de nombreux processeurs. Le problème à résoudre
est divisé en plusieurs parties. Chaque partie est ensuite décomposée en
instructions. Ces instructions sont réparties entre les processeurs. Par
conséquent, plusieurs processeurs exécutent des instructions
simultanément. Le calcul parallèle est utile pour effectuer un calcul
complexe car les processeurs se partagent la charge de travail. Cela permet
également de gagner du temps.

6
7
1) Les différents types de parallélisme : la taxonomie de Flynn

8
2) Efficacité et limite

D'une manière générale, plus le nombre de tâches est élevé dans un programme, plus ce
programme passe son temps à effectuer des verrouillages et plus il passe son temps à
échanger des messages entre tâches. Autrement lorsque le nombre de tâches augmente trop,
la programmation concourante ne permet plus d'augmenter la vitesse d'exécution du
programme ou plus précisément de diminuer la durée de son chemin critique, car le
programme passe son temps à mettre en sommeil les tâches qui le composent et à écrire des
informations qui permettent l'échange d'information entre tâches. Ce phénomène est appelé
le ralentissement parallèle.
D'ailleurs les applications sont souvent classées en fonction de la fréquence à laquelle leurs
tâches dialoguent ou se synchronisent. Les applications ayant beaucoup d'échanges ou de
synchronisations entre leurs sous-tâches sont dites fine-grained (à grain fin), celles qui ont
au contraire peu d'échanges et de synchronisations sont dites coarse-grained c'est-à-dire à
gros grain. L'algorithme est dit embarrassingly parallel, c'est-à-dire de « parallélisme
embarrassant » s'il n'y a aucun contact entre les sous-tâches. Ce dernier est le plus simple à
programmer.
9
SYSTEMES DISTRIBUES
Un calcul distribué, ou réparti ou encore partagé, est un
calcul ou un traitement réparti sur plusieurs microprocesseurs et
plus généralement sur plusieurs unités centrales informatiques,
et on parle alors d'architecture distribuée ou de système distribué

10
PRINCIPE
Un système informatique distribué est une collection de postes
ou calculateurs autonomes qui sont connectés à l'aide d'un
réseau de communication. Chaque poste exécute des
composantes, par exemple des séquences de calculs, issues du
découpage d'un projet de calcul global, et utilise un middleware,
qui s'occupe d'activer des composantes et de coordonner leurs
activités de telle sorte qu'un utilisateur perçoive le système
comme un unique système intégré.
Une propriété importante des systèmes distribués est que la
distribution est généralement cachée pour l’utilisateur et les
programmeurs de l’application.
11
12
1) Architecture matérielle logicielle d'un système distribué
 
Architecture matérielle
 Machine multiprocesseur avec mémoire partagée ;
 Cluster d'ordinateurs dédiés au calcul/traitement massif parallèle ;
 Ordinateurs standards connectés en réseau.

Matérielle logicielle d'un système distribué


 Système logiciel composé de plusieurs entités s'exécutant
Indépendamment et en parallèle sur un ensemble d'ordinateurs
connectés en réseau

13
2) Intérêts des systèmes distribués
 
Utiliser et partager des ressources distantes
 Système de fichiers : utiliser ses fichiers à partir de n'importe quelle
machine
 Imprimante : partagée entre toutes les machines
 
Optimiser l'utilisation des ressources disponibles
 Calculs scientifiques distribués sur un ensemble de machines
 
Système plus robuste
 Duplication pour fiabilité : deux serveurs de fichiers dupliqués, avec
sauvegarde
 Plusieurs éléments identiques pour résister à la montée en charge ...
14
ARCHITECTURE DES APPLICATIONS
DISTRIBUEES
1) Architecture client-serveur
 
Ici, chaque entité joue le rôle d’un client ou d’un serveur.
 Le client demande des services
 Le serveur offre des services

15
2)Architecture mandataire
 
Dans cette architecture, un cache est ajouté entre le client et le serveur. Ce
cache contient les services récemment utilisés. Le client demande un service,
si ce service se trouve dans le mandataire, il aura directement le résultat. C’est
pour accélérer le temps de d’exécution.

16
3) Architecture Peer to Peer
 
Dans cette architecture, les processus partagent des ressources locales
moyennant des communications (TCP/IP). Chacun de ces processus peut
jouer les deux rôles à la fois client et serveur, les serveurs de ce qu’ils
possèdent et les clients de ce que les autres souhaitent partager. Les
processus coopèrent d’égal à égal pour réaliser une activité répartie.

17
Systèmes parallèles vs Systèmes distribués
Critères de comparaisons Systèmes parallèles Systèmes distribués

Type de calcul Le calcul parallèle est un type de calcul dans lequel plusieurs L'informatique distribuée est un type de calcul dans lequel
processeurs exécutent plusieurs tâches simultanément. les ordinateurs en réseau communiquent et coordonnent
le travail par le biais de la transmission de messages pour
atteindre un objectif commun.

Nombre d’ordinateurs requis L'informatique parallèle se produit sur un ordinateur. L'informatique distribuée se produit entre plusieurs
ordinateurs.

Mécanisme de traitement En parallèle, plusieurs processeurs effectuent le traitement. En informatique distribuée, les ordinateurs reposent sur la
transmission de messages.

Synchronisation Tous les processeurs partagent une seule horloge maîtresse pour la Il n'y a pas d'horloge globale en calcul distribué, il utilise
synchronisation. des algorithmes de synchronisation.

Mémoire En parallèle, les ordinateurs peuvent avoir une mémoire partagée ou En calcul distribué, chaque ordinateur a sa propre
une mémoire distribuée. mémoire.

Usage Le calcul parallèle est utilisé pour augmenter les performances et pour L'informatique distribuée est utilisée pour partager des
le calcul scientifique. ressources et augmenter l'évolutivité.

18
CONCLUSIO
Nce travail, il était question pour nous de présenter ce que
Arrivés au terme de
sont que des systèmes parallèles et distribués. Tous deux étant richement
présents et quasi incontournables dans le domaine de l’informatique, chacun
d’eux occupe cependant une place bien précise, tout dépendant de la tâche à
accomplir. Mais pour être claire et simple concernant ces deux types
d’opérations ou processus, on peut dire qu’en informatique, les systèmes
parallèles permettent d’exécuter plusieurs tâches simultanément à l’aide de
processeurs montés en parallèles, tandis que dans les systèmes distribués, ce
sont plutôt plusieurs ordinateurs qui sont interconnectés via un réseau dans le
but de communiquer et collaborer pour l’atteinte d’un objectif bien précis. Les
uns sont utiles pour l’exécution d’opérations lourdes, les autres servent à la
distribution ordonnée de ressources : tout dépend de l’utilité.

19
MERCI POUR VOTRE AIMABLE
ATTENTION

20

Vous aimerez peut-être aussi