Académique Documents
Professionnel Documents
Culture Documents
19 20
Unité de traitement (2) UAL
L'unité de traitement est composé de plusieurs • Fonction logique nécessaire du microprocesseur
sous-ensembles distincts
•Contenant la logique de traitement de données
L'unité de contrôle, qui est responsable de la
recherche des instructions à partir de la mémoire
•Utilisation de deux entrées et d’une sortie
centrale et du décodage de leur type
L'unité arithmétique et logique (UAL), qui effectue
•Utilisation de mémoires tampons pour :
les opérations spécifiées par les instructions
Un ensemble de registres, zones mémoires rapides •le stockage de données
servant au stockage temporaire des données en cours de
traitement par l'unité centrale •La mise à disposition de ces données
21 22
UAL UAL
• Exécution d’un ensemble minimum d’opération • Opération arithmétiques complexes faite de
arithmétiques : deux manière différentes :
•Addition
•Soustraction •Méthode câblée
•Opération logique :
•Complémentation
•Décalage à droite •Méthode microprogrammée
•And
•Or
•Décalage à gauche
23 24
UAL: méthode câblée UAL: méthode microprogrammé
• Opération arithmétiques complexes faite de • Transformation d’une opération arithmétique
deux manière différentes : complexe en opérations moins complexes
25 26
27 28
UCC: Unité de commande UCC: Unité de commande
• Décodeur : détermination de l’opération et des
opérandes
•Séquenceur :
•gestion des signaux de commandes au différents
composants selon un chronogramme
•Câblé ou microprogrammé
29 30
Registres Récapitulation
• UCC : recherche d’information par
• Cellules de mémoires très rapides situés dans le microprocesseur •Envoi d’adresse à la mémoire centrale
•Envoi de commande à la mémoire centrale
•Servant au stockage de l’information nécessaire momentanément →Il s’agit de l’opération Fetch
37 38
39 40
Notion de bus local Réalisation
•Bus E/S tels que ISA, EISA, MCA reliés au bus
principal
•CPU modeste & Péripériques +/- lents → Ok
•CPU + rapides pilotant des bus de hautes
fréquences
•De + en + de périphériques rapides
•Remède : interfaçage direct sur le bus processeur
(FSB: front Side Bus) très rapide
•Architecture dite de bus local
41 42
•Devenu EISA en 1984 avec le PC AT : 16 bits •Plus que que quelques machines avec 1 ou 2
(8.33 MHz): Débit max : 8 Mo/s slots ISA à coté des PCI ou AGP
•Introduit par IBM en 1987 en concurrence à ISA •Très peu répandu pour 2 raisons
45 46
VESA/VLB VESA/VLB
•VESA Local Bus •Composé de ISA 16 bits + connecteur
supplémentaire 16 bits
•Mis au point en 92 par Video Electronics ➔32 bits
Standard Association sous l’égide de NEC
•Utilisé sur 486 cadencés à 40 et 50 Mhz et Sur
•Dédié aux systèmes graphiques les premiers Pentium
47 48
PCI PCI
•Peripheral Component Interconect •3 à 5 slots blancs (normalisés sur carte mère)
•PCI 1.0 : mis au point par Intel en 06/92 •Plug & Play; Periph connecté reconnus
•PCI 2.0: standard connecteur / slot 04/93: bus •Peut gérer jusqu’à 6 emplacements
intermédiaire entre FSB bus E/S
•Possibilité de chainage
•32 bits cadencé à 33 MHz, débit 133 Mo/s
49 50
•Possibilité de chainage
51 52
Evolution de PCI AGP
•Accelerated Graphics Port
AGP AGP
•1x envoie 8 octets/2 cycles, 2x: 8 octets/cycle →
533 Mo/s
•Version 1x à 32x, débits : 256 Mo à 8Go/s •Pas assez rapide pour bus mémoire
(4/AGP!)
•N’offrant pas de flexibilité de InfiniBand
•Coût similaire ➔ Remplaçant d’AGP, PCI, …
57 58
•3 formats
59 60
Bus PCMCIA Bus SCSI
•Small Computer System Interface
61 62
•Lent (1.5 Mbps) : clavier, souris … cable < 3m •Début jusqu’à 480 Mbps
•Rapide (12 Mbps): imprimantes, scanners, disques •Spécification « On the Go » : protocole permettant à
durs, graves … cable < 5 m deux appareil de négocier celui qui sera l’hôte
•Chaque bus piloté par un seul hôte •Réservé aux liaisons P2P:
•Ordinateur
•Téléphone mobile …
69 70
71 72
Fonctionnement du Firewire USB ou Firewire
73 74
CPL Applications
•Courant porteur en ligne •Faire les applications suivantes :
•De + en + utilisé
•Utilisation du câblag électrique (signal HF) •Addition binaire
•Vitesse 0.4 Mbps (1998) → 8 Mbps (2005)
•Norme HomePlug 1.01 → HomePlug AV (45 Mbps) •Soustraction binaire
•Méthode d’accés = topologie de bus
•Mode de fréquance : 4-21 Mhz (84 porteuses) •Multiplication binaire
•Longuer 300m
•Cryptages D.E.S (Data Encryption Standard) 56 bits •Division binaire
75 76
Chemin de données (1) Chemin de données (2)
Le chemin de données représente la structure Chemin de données d'une machine de type
interne de l'unité de traitement « Von Neumann »
Comprend les registres, l'UAL, et un ensemble de A+ B
5 Langages d'application
Les objets considérés à ce niveau sont les
Traduction (compilateur) portes logiques, chacune construite à partir de
4 Langage d'assemblage quelques transistors
Traduction (assembleur)
Chaque porte prend en entrée des signaux
3 Système d'exploitation
numériques (0 ou 1) et calcule en sortie une
Interprétation partielle (SE)
Jeu d'instructions
fonction logique simple (ET, OU, NON)
2
Interprétation ou exécution De petits assemblages de portes peuvent
1 Microarchitecture servir à réaliser des fonctions logiques telles
Matériel que mémoire, additionneur, ainsi que la logique de
0 Logique numérique
81 contrôle de l'ordinateur 82
89 90
93 94
95 96
Mémoire à semiconducteurs Mémoire à semiconducteurs
Mémoire statique MOS Mémoire dynamique MOS
Mémoire statique nécessitant 6 • Mémoire centrale basée sur la
transistors par bit. mémoire dynamique ou DRAM
Très couteuse en pratique mais
rapide • Elément de mémoire → capacité →
→Puces de capacité modeste moins coûteux
97 98
103 104
Mémoire à semiconducteurs Mémoire à semiconducteurs
Mémoire dynamique chronogramme Mémoire dynamique chronogramme
• SIMM (Single Inline Memory Module) • DIMM (Dual Inline Memory Module): Process lisant 64
bits à la fois sur le bus de données
107 108
Structure physique de la mémoire Structure physique de la mémoire
centrale : Mode page rapide centrale : Mode EDO
•Amélioration majeure apportée aux DRAM asynchrones :
mémoire EDO (Extended Data Out).
•Pas de désactivation des tampons de sortie sur la montée
de CAS.
•Élimination du temps de précharge au moment de
verrouillage des données en sortie.
•Réduction du temps minimum où CAS est bas, et la
montée peut donc se produire plus tôt.
•Nouvelle adresse de colonne appliquée avant la fin du
cycle précédent.
109 110
111
•La tendance actuelle : DRAM synchrones. 112
Structure physique de la mémoire Structure physique de la mémoire
centrale : Mode BEDO centrale : Mode BEDO
•Burst EDO ou BEDO
•Vitesses de bus dirigées vers 100 MHz → les concepteurs •Avec une interface synchrone, la DRAM verrouille
de DRAM cherchant un moyen de contourner les latences l'information provenant du processeur, sous le contrôle
significatives présentes. de l'horloge système.
•L'implantation d'une interface synchrone premettant une •Ces verrous enregistrent les adresses, les données et les
telle réduction et procure également d'autres avantages. signaux de contrôle, ce qui permet au processeur de
•Dans une interface asynchrone, le processeur doit attendre vaquer aussitôt à d'autres tâches.
sans rien faire que la DRAM ait effectué ses opérations •Après un certain nombre de cycles d'horloge, les
internes, ce qui prend de l'ordre de 60 ns. données deviennent disponibles et le processeur peut les
lire sur les lignes de sortie.
115 116
Mémoire cache Mémoire cache
•La mémoire centrale lente par rapport à la vitesse d’horloge
des processeurs actuels → utilisation d’une mémoire cache •Lors d’un accès mémoire, le système de gestion de
ou antémémoire de capacité plus faible faite de mémoire mémoire cache doit déterminer si l’information désirée se
statique entre le processeur et la mémoire centrale. trouve dans le cache. Si elle s’y trouve, on n’a pas besoin
d’aller en mémoire centrale et on obtient l’information à la
vitesse du cache, ~ 5 ns.
•Placer les données les plus récemment utilisées. Elle
contient donc une petite partie de la mémoire centrale. •Si elle ne s’y trouve pas, on la copie de la mémoire centrale
vers le cache, de sorte qu’elle s’y trouvera la prochaine fois.
117 118
121 122
2. À chaque accès mémoire, les comparateurs comparent 2. À chaque accès mémoire, les comparateurs comparent
simultanément le no. de bloc de l’adresse demandée avec simultanément le no. de bloc de l’adresse demandée avec
toutes les étiquettes se trouvant dans le cache. Si l’une de toutes les étiquettes se trouvant dans le cache. Si l’une de
ces étiquettes est égale au numéro de bloc, c’est que la ces étiquettes est égale au numéro de bloc, c’est que la
donnée correspondante se trouve dans le cache. L’accès donnée correspondante se trouve dans le cache. L’accès
s’effectue alors dans le cache au lieu de la mémoire s’effectue alors dans le cache au lieu de la mémoire
centrale, donc 2 à 5 fois plus rapidement. centrale, donc 2 à 5 fois plus rapidement.
3. Si aucune étiquette n’est égale au no. de bloc, c’est que la 3. Si aucune étiquette n’est égale au no. de bloc, c’est que la
donnée n’est pas dans le cache. On retourne à 1. 123 donnée n’est pas dans le cache. On retourne à 1. 124
Mémoire cache: cache associatif Mémoire cache: cache à accès direct
Politique de remplacement de rangées •Le cache purement associatif est très coûteux en raison du
L’algorithme de remplacement utilisé quand il faut remplacer nombre élevé de comparateurs. Chaque comparateur nécessite
un bloc et que tous les blocs du cache sont valides (V = 1) autant de portes XOR qu’il y a de bits dans l’étiquette et il y a
peut être : autant de comparateurs que de rangées dans le cache.
1.L’algorithme du plus ancien LRU (Least Recently •Dans le cache à accès direct, le champ no. de bloc de l’adresse
Used), c’est-à-dire qu’on remplace le bloc qui a été est scindé en deux parties : l’étiquette et l’index. L’étiquette et
utilisé le moins récemment. les données correspondantes sont toujours enregistrées dans la
2. L’algorithme FIFO (First-In First Out), c’est-à-dire rangée donnée par le champ index.
qu’on remplace les blocs dans le même ordre qu’on les •Ainsi, on n’a besoin que d’un seul comparateur dont le
a introduits. nombre de bits est égal au nombre de bits dans le champ
3. LFU (Least Frequently Used), c’est-à-dire quon étiquette.
remplace le bloc qui a été utilisé le moins souvent.
4. Le hasard (Random). 125 126
Mémoire cache: cache à accès direct Mémoire cache: cache associatif par
ensemble de blocs
•Le cache associatif par ensemble de blocs est un compromis
entre le cache purement associatif et le cache à accès direct.
On a 2 ou 4 blocs de données. D’un ensemble à l’autre, le
cache est associatif. Cependant, les blocs (rangées) sont
gérés comme dans le cache à correspondance direct.
127 128
Mémoire cache: cache associatif par Mémoire cache: politique d’écriture
ensemble de blocs dans un cache
Écriture simultanée (write-through) : Lors d’une écriture,
l’information est écrite simultanément dans le cache et en
mémoire centrale. Toute écriture prend le même temps qu’un
échec de cache, donc perte d’efficacité.
Récriture (write-back) : Lors d’une écriture, l’information n’est
écrite que dans le cache. Ce n’est que lors d’un remplacement
de la rangée du cache où elle se trouve que l’information est
transcrite en mémoire centrale. L’écriture est aussi rapide que la
lecture tant qu’un bloc est dans le cache. Cependant les données
en mémoire centrale sont inconsistantes avec celles du cache
tant que les données modifiées n’y ont pas été recopiées.
129 130
•Le taux de succès est le rapport entre le nombre d’accès Succès du cache : 3 ns
mémoire pour lesquels le bloc est présent dans le cache et le Échec du cache
nombre total d’accès. Le taux d’échec est : •Accès cache conduisant à l’échec : 3 ns
Taux d’échec = 1 - taux de succès. •Lecture d’un bloc en mémoire centrale. Par exemple, 32
octets en 4 accès de 64 bits ( 8 octets) à 33 ns / accès = 132 ns.
•Le temps associé au succès est le temps d’accès à un bloc du •Temps total : 132 + 3 = 135 ns.
cache, et comprend le temps nécessaire pour déterminer si le Soit P la probabilité d’un succès. Le temps d’accès moyen sera
bloc est présent ou non. Le temps de traitement de l’échec est le T = P x 3.3 + (1 - P) x 135
temps de remplacement d’un bloc du cache par le bloc Le temps d’un accès mémoire normal étant 33 ns, on veut que P
correspondant de la mémoire principale. soit tel que T < 33 ns . On calcule que le taux de succès P doit être
supérieur à 77% pour le cache soit utile.
131 132
Mémoires auxiliaires Mémoires auxiliaires
Digtal Redundant
Audio Array of
Tape Independant
Disc
Digtal
Linear
Tape
133 134
•Constitué de plusieurs plateaux , empilés et en rotation •La surface active découpée en pistes.
rapide autour du même axe. •Chaque piste elle-même constituée de secteurs.
• Chaque face d’un plateau est lue ou écrite par une tête de •Chaque secteur est repéré par un numéro de face, un
lecture/écriture. numéro de piste et un numéro de secteur.
•Déplacement des têtes en même temps, radialement. •Le système complet est constitué d’un ensemble de disques
•Chaque face est formée par des pistes et en secteurs. empilés.
•L’organisation des informations sur un disque dur est assez •La plupart des systèmes introduisent la notion de cylindre :
semblable à l’organisation des informations sur une un cylindre est formé par l’ensemble des pistes de même
disquette. position sur tous les plateaux.
135 136
Les disques durs Les disques durs : temps d’accès
137 138
Les disques durs : déplacement des Les disques durs : déplacement des
têtes têtes
Cylindre sur une mauvaise piste ➔ déplacement des Attente que le début du secteur visé arrive sous la tête
têtes de lecture :
139 140
Les disques durs : déplacement des Les disques durs : Calcul de capacité
têtes de débit
•Transfert des données: temps nécessaire pour faire défiler •Capacité DD = nombre total de secteurs * nombre d’octets
le secteur entier par secteur
sous la tête de lecture.
•Nombre total de secteurs = Nombre total de secteurs par
Le débit d’information maximal déterminé par: face * nombre de face
• la vitesse de rotation du disque
• la densité d’enregistrement de données •Nombre totale de secteurs par face = Nombre de secteurs
• limitée par le débit du bus d’entrées/sorties reliant le par piste * nombre de pistes par face
disque à l’ordinateur.
•Débit = vitesse de rotation par seconde * Nombre de
141 secteurs par piste * nombre d’octets par secteur 142
143 144
Les disques durs : Optimisation Les disques durs SATA
d’accès (NCQ)
•Native Command Queuing •C’est un grand assemblage de mémoires FLASH dans un
•Amélioration des performances par réorganisation de boitier (même format que le disque dur).
l’ordre des requêtes envoyées •Réduction de la consommation électrique (puisqu’il n’ya a
pas d’éléments mécaniques).
•Résistant aux chocs et plus rapide que le disque dur
classique.
•Prix élevé par rapport aux disques durs de même taille
145 146