Vous êtes sur la page 1sur 114

Architecture des ordinateurs

Mohamed Aymen
CHARRADA
ISET du KEF

Info 1

A.U. 2021/2022
Objectif du cours
Ce cours vise à expliquer l'organisation et le principe de
fonctionnement d'un micro-ordinateur et présenter
comment le microprocesseur exécute ses
programmes en interaction avec les autres composants

 Niveaux cibles :
Tronc commun Info 1
 Mots clés :
Microprocesseur, Mémoire, Périphériques, Exécution,
instruction, Assembleur, entrée/sortie
2 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
Plan du cours
 Introduction à l’architecture des ordinateurs
 Architecture de base d’un ordinateur
 Les mémoires
 Les microprocesseurs
 Les entrées/sorties
 Architecture avancée

3 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


Chapitre 1 : Introduction à l’architecture
des ordinateurs
 Définitions et concepts de base
 Informatique :
 C’est la contraction des deux termes « information » et
« automatique »
 C’est le traitement automatique de l'information via des
machines (système embarqué, ordinateur, robot, automate …)
 Ordinateur :
 Machine automatique de traitement de l'information
 Architecture :
 C’est l’organisation optimisée des divers éléments constitutifs
d'un système

5 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Historique 1ère 2ème 3ème 4ème
génération génération génération génération

Avant 17ème 19ème 1936 1956 1963 1971


1600 siècle siècle

Machines à Apparition des


calcul transistors
mécaniques
Machines à Apparition des
calcul circuits intégrés
programmables
Machines
Outils antiques de La micro-
électro-
calcul (abaques, informatique
mécaniques
bouliers)

6 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Les abaques (avant 1600)
 Des instruments mécaniques facilitant le calcul
 Exemple : boulier, bâtons de Neper, règle a calculer, ...

Boulier Bâtons de Neper

règle a calculer

7 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Les machines à calcul mécaniques (1/3)
 Wilhelm Schickard construit une machine à calculer
mécanique (addition) en appliquant les idées de Neper
(1632)

Problème à
résoudre

Hardware
(matériel)

8 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Les machines à calcul mécaniques (2/3)
 Blaise Pascal présente en 1642 une machine qui
additionne et soustrait les nombres de 6 chiffres. C’est la
Pascaline

9 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Les machines à calcul mécaniques (3/3)
 Gottfried Leibnitz propose une machine qui améliore la
Pascaline en 1672, appelée roue de Leibniz : c’est un
chariot mobile permet de faire les quatre opérations
arithmétiques habituelles automatiquement (première
utilisation des mémoires dans le calcul)

10 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Les machines à calcul programmables (1/4)
 Joseph Jacquard a créé les cartes perforées pour les
métiers à tisser en 1805

11 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Les machines à calcul programmables (2/4)
 En 1854, George Boole lance l’algèbre de Boole
(Approches mathématiques de la logique, calcul logique)
 L’électronique actuelle repose sur l’algèbre de Boole

12 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Les machines à calcul programmables (3/4)
 Charles Babbage conçoit ensuite en 1871 une machine
programmable capable de réaliser différentes opérations
codées sur des cartes perforées : la Machine Analytique
Problème à
résoudre

Software
(programme)
Hardware
(matériel)

13 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Les machines à calcul programmables (4/4)
 En 1887, Herman Hollerith construit une machine à
statistiques à cartes perforées (Carte Hollerith) au service
du bureau américain du recensement en se basant sur les
travaux de Joseph Jacquard puis fonde en 1896 la
société Tabulating Machine Co. (qui devient plus tard
IBM)

Carte de Hollerith

14 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 Machine de Hollerith27/10/2021


 1ère génération : machines électromécaniques (1/9)
 Elles se basent sur :
 Composants : relais, tubes à vides, résistances
 Logiciels : langage machine seulement

15 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 1ère génération : machines électromécaniques (2/9)
 Théorie de Turing : Il y a des nombres et des fonctions
calculables et autres non calculables. Il est possible de
construire des machines calculant TOUT ce qui est
calculable

Machine de Turing (Alan Turing 1936)

16 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 1ère génération : machines électromécaniques (3/9)
 Théorie de Shannon (Théorie de l’information,
1938) : Tout peut être représenté par des 0 et des 1 : c'est la
numérisation (BInary DigiT)
 Shannon expose comment utiliser l’algèbre de Boole pour
y construire des machines à calculer à base de
commutateurs et de relais

Claude Shannon
17 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 1ère génération : machines électromécaniques (4/9)
 Indépendamment : Konrad Zuse, John Atanaso, Georges
Stibitz travaillaient sur la conception des machines binaires
« Z1 » et « Z3 » (4 add/s. et 15 mul/min.)

Machine a calculer électromécaniques de Zuse Z3 (1938)


18 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 1ère génération : machines électromécaniques (5/9)
 ABC (Atanaso-Berry Computer) : officiellement, le
premier ordinateur numérique électronique
 Conçue par John Atanasoff et Clifford Berry entre 1937
et 1939 (30 add/s.)

19 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 1ère génération : machines électromécaniques (6/9)
 Howard Aiken propose la machine électromécanique
Harvard Mark 1 en 1944
 Multiplication de nombres de 23 chiffres en 6 secondes ;
 Addition en 3 ms.

Howard Aiken

20 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 1ère génération : machines électromécaniques (7/9)
 John Eckert et John Mauchly construisent l'ENIAC
(Electronic Numerical Integrator And Calculator) en
1945: Multiplication de nombres de 10 chiffres en 3 ms.

21 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 1ère génération : machines électromécaniques (8/9)
 Von Neumann (avec Eckert et Mauchly) propose l'EDVAC
(Electronic DiscreteVariable Automatic Computer) en
1951. C’est un système binaire contrairement à l'ENIAC
(add : 0.8 ms. Et mul : 2.9 ms.)

22 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 1ère génération : machines électromécaniques (9/9)
 IBM lance le 701 en 1953 : 16000 additions ou 2200
multiplications par seconde.

23 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 2ème génération (1/4)
 En 1948, John Bardeen, Walter Brattain et William
Shockley découvrent le transistor.

 Les machines de la 2ème génération se basent sur :


 Composants : transistors, mémoire à tores de ferrite, bandes
magnétiques.
 Logiciels : apparition des systèmes d'exploitation, langages
évolués FORmula TRANslator (FORTRAN 1957), COmmon
Business Oriented Language (COBOL 1959)

24 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 2ème génération (2/4)
 Apparition de l’industrie : IBM, DEC, HP, …
 Dans cette époque, le transistor a remplacé les tubes
électroniques mais à moindres coût, taille et consommation
d’énergie
 En 1955, Maurice Wilkes a inventé la micro-
programmation, désormais universellement utilisée dans
la conception des processeurs

25 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 2ème génération (3/4)
 « IBM » a lancé plusieurs machines telles que :
 RAMAC 305 (en 1956): La première machine à base de disque
dur (5 Mo)
 IBM 1401 (en 1959)
 IBM 1620 (en 1960)

IBM 1401

RAMAC 305

26 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 IBM 1620 27/10/2021


 2ème génération (4/4)
 Durant cette période, « DEC » a lancé aussi le « PDP-1 »
(premier ordinateur interactif ou mini-ordinateur)

27 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 3ème génération (1/4)
 En 1958, Jack Kilby a créé le premier circuit intégré.

 Les premiers ordinateurs utilisant les circuits intégrés sont


apparus en 1963
 Ils se caractérisent par :
 Composants : circuits intégrés,
 Machine : faible consommation énergétique, fiable,
encombrement réduit.
 Evolution : multiprocesseur, temps partagé, accès interactif,
apparition des réseaux, premiers problèmes de compatibilité entre
machines.
28 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 3ème génération (2/4)
 Exemples

IBM 360
29 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 3ème génération (3/4)
 Exemples

DEC PDP-8

30 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 3ème génération (4/4)
 Exemples

HP 2116

31 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 4ème génération (1/3)
 Miniaturisation des circuits : c’est l’ère des mini-
ordinateurs et de la micro-informatique
 Caractéristiques :
 Composants : Intégration à grande échelle, utilisation des
microprocesseurs (premier microprocesseur INTEL 4004 en 1971)
 Logiciels : traitement distribué, machine virtuelle, réseau, base de
données, …
 Evolution : parallélisme d’exécution, ordinateurs personnels,
augmentation en puissance

INTEL 4004
32 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
Apple 1 (1976) IBM PC (1981)
 4ème génération (2/3)
 Les innovations technologiques sont supportées par des
bases théoriques
 Loi de Moore (1965) : la densité des composants
électroniques (essentiellement les transistors) sur une puce
suivrait une croissance exponentielle (double tous les 2 ans)
 Cette loi a été confirmée dans les faits entre 1970 et 2020
 Cependant et durant la dernière décennie, des limites
infranchissables semblent de plus en plus atteintes dues à
des divers phénomènes physiques. La loi de Moore semble
donc difficile à satisfaire dans le future très proche

33 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 4ème génération (3/3)

34 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Evolution historique de l’architecture des ordinateurs
(1/3)
 Les premières machines à calculer ont été capables de
réaliser des additions/soustractions en suivant le schéma
suivant :
Unité
Entrée Sortie
arithmétique

 Ces machines ne permettaient pas de conserver les résultats


des calculs intermédiaires nécessaires pour réaliser les
opérations arithmétiques habituelles (divisions,
multiplications, garder les opérandes …)
→ Apparition des mémoires pour assurer le sauvegarde

35 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Evolution historique de l’architecture des ordinateurs
(2/3)
Entrée Unité arithmétique Sortie

Introduction de la mémoire
Mémoire

 Suite à l’apparition de l’algèbre de Boole, le calcul logique


est couplé au calcul arithmétique et en résulte un schéma
plus complet
Entrée Unité arithmétique Sortie
et logique

Introduction du calcul logique


Mémoire
36 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Evolution historique de l’architecture des ordinateurs
(3/3)
 Même en mémorisant les résultats intermédiaires dans la
machine à calculer, la suite des calculs nécessaires doit aussi
être mémorisée indépendamment
→ L’unité de commande : se charger de l’enchaînement
automatique de la suite des calculs intermédiaires
 La mémoire doit enregistrer les résultat des calculs
intermédiaires et aussi la suite des opérations à effectuer
 Cette suite d’opérations va être codée de façon à ce que
l’unité de commande puisse les réaliser.
→ C’est la naissance de la programmation

37 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Architecture de Von Neumann (1/2)
 Un nouveau schéma voit alors le jour, c’est le schéma de
Von Neumann
 JohnVon Neumann a fournit en 1946 les éléments
centraux de l’architecture générale des ordinateurs

Mémoire

Unité arithmétique
Entrée Unité de et logique Sortie
commande
(Accumulateur)

 Actuellement, la plupart des ordinateurs sont des machines de


Von Neumann, seules les technologies ont changé.
38 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Architecture de Von Neumann (2/2)
 Cette architecture définit les éléments suivants :
 La mémoire : sert à conserver à la fois les instructions (le
programme) et les données demandées ou produites par le calcul
 L’unité arithmétique et logique (UAL, appelée aussi unité de
traitement) : permet d’effectuer les opérations de base
 L’unité de contrôle (UC, appelée aussi unité de commande) :
responsable de l’enchaînement des instructions à exécuter
 Les dispositifs d’entrée-sortie : permettent l’échange avec
l’environnement extérieur
 Ces éléments sont reliés entre eux grâce à des BUS
 Depuis les années 70, l’UAL, l’UC et une partie de la
mémoire ont été regroupés dans un dispositif appelé
processeur
39 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 L’ordinateur : point de vue externe

40 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 L’ordinateur : point de vue interne
 C’est une machine multicouches

41 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Système de numérisation (1/2)
 Les informations traitées par un ordinateur peuvent être de
différents types (texte, nombres, image, son ...)
 Pour autant, elles sont toujours représentées et manipulées
par l'ordinateur sous forme binaire
 Toute information sera traitée comme une suite de « 0 » et
de « 1 », appelés chiffres binaires ou bit

Bonjour 01101001101010

42 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Système de numérisation (2/2)
 Le système binaire appelé aussi système base 2
 Symboles : {0, 1} appelés également bit (binary digit)
 Un mot composé de 8 bits est appelé octet
 Les multiples « kilo », « méga », « giga » et « téra » sont
utilisés pour quantifier des informations de grande taille.
Ces multiples sont exprimés en puissance de 2.
Préfixe Multiple informatique Multiple scientifique

Ko 210 = 1024 103 = 1000

Mo 220 = 1048576 106 = 1000000

Go 230 = 1073741824 109 = 1000000000

To 240 = 1099511627776 1012 = 1000000000000

43 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


Chapitre 2 : Les mémoires
 Définition (1/2)
 la mémoire est un dispositif électronique numérique qui
sert à stocker des informations (instructions et données)
[Wikipédia]
 La technologie des mémoires la plus courante se base sur
les semi-conducteurs (Silicium, Germanium, …)
 La plupart des mémoires permettent d’écrire ou de lire des
informations :
 Ecriture : c’est lorsqu’on enregistre des informations en mémoire
 Lecture : c’est lorsqu'on récupère des informations
précédemment enregistrées dans la mémoire
 Une mémoire est constituée d’un ensemble ordonné
d’espace élémentaire appelée case mémoire
45 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Définition (2/2)
 Les cases mémoires admettent une taille donnée (1 octet ou
8 bits)
 Dans une mémoire, le nombre de cases peut être très élevé.
Ainsi, chaque case admet une adresse qui l’identifie au sein
de la mémoire
Mémoire Adresse
 Une mémoire peut être Cases
000
mémoire
assimilée à un tableau, 001
l’adresse d’une cellule peut 010
être vue comme l’indice de Donnée 10011101 011
cette cellule dans le tableau 100
101
 Une information stockée peut occuper 110
une ou plusieurs cases mémoires
1 octet
46 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Organisation de la mémoire (1/3)
 Un circuit mémoire peut être schématisé comme suit :

 Adresses : c’est le bus d’adresse (Avec une adresse de « n » bits il


est possible de référencer au plus « 2n » cases mémoire)
 Données : c’est le bus de données, sa longueur « m » est toujours
une puissance de 2 (m = 2X , X étant la taille d’une case mémoire)
→ Le nombre de bits d’adresses définit donc le nombre
maximal de cases mémoire. Le nombre de bits de
données définit la taille des données que l’on peut
sauvegarder dans chaque case mémoire
47 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Organisation de la mémoire (2/3)
 Un circuit mémoire peut être schématisé comme suit :

 R/W (Read/Write) : une entrée de sélection de lecture ou


d’écriture. Elle permet de définir le type d’action que l’on effectue
avec la mémoire (lecture/écriture)
 CS (ChipSet) : une entrée de sélection du circuit. Elle permet
d’activer ou désactiver le circuit mémoire afin de gérer la
consommation de l'énergie. Un circuit désactivé n’est pas
accessible

48 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Organisation de la mémoire (3/3)

 Une opération de lecture ou d’écriture de la mémoire suit


toujours le même cycle :
 Sélection de l’adresse
 Choix de l’opération à effectuer ( R/W )
 Sélection de la mémoire ( CS = 0 )
 Lecture ou écriture la donnée

49 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Activité 1
 Soit un circuit mémoire dont le bus d’adresse est de taille
32 bits et le bus de données de tailles 256 bits.
1. Donnez le nombre maximal de cases qui peuvent figurés
sur ce circuit
2. Donnez la taille commune des cases mémoires de ce
circuit

50 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Caractéristiques d’une mémoire (1/3)
 La capacité : c’est le nombre total de bits que contient la
mémoire. Elle s’exprime souvent en octet
 Le format des données : c’est le nombre de bits que l’on
peut mémoriser par case mémoire. C’est la largeur du mot
mémorisable
 Le temps d’accès : c’est le temps qui s'écoule entre
l'instant où a été lancée une opération de lecture/écriture
en mémoire et l'instant où la première information est
disponible sur le bus de données
 Le temps de cycle : il représente l'intervalle minimum
qui doit séparer deux demandes successives de lecture ou
d'écriture
51 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Caractéristiques d’une mémoire (2/3)
 Le débit : c’est le nombre maximum d'informations lues
ou écrites par seconde
 Volatilité : elle caractérise la permanence des informations
dans la mémoire. L'information stockée est volatile si elle
risque d'être altérée par un défaut d'alimentation électrique
et non volatile dans le cas contraire

52 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Caractéristiques d’une mémoire (3/3)
 Exemple : Chronogramme d’un cycle de lecture

53 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Hiérarchie mémoire (1/6)
 Une mémoire idéale serait une mémoire de grande capacité,
capable de stocker un maximum d’informations et
possédant un temps d’accès très faible afin de pouvoir
travailler rapidement sur ces informations
 Un compromis capacité/coût est indispensable à cause de
plusieurs raisons :
 Raisons technologiques : l'augmentation de la taille d'une
mémoire s'accompagne toujours de l'augmentation du temps
d’accès
 Raisons économiques : mémoire plus vite = plus cher
 La vitesse d'une mémoire (temps d’accès et débit) est
inversement proportionnel à sa taille « usuelle »

54 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Hiérarchie mémoire (2/6)
 Afin d’obtenir le meilleur compromis coût/performance,
on définie donc une hiérarchie mémoire en fonction du
besoin et des exigences
 On utilise des mémoires de faible capacité mais très rapide
pour stocker les informations dont le microprocesseur se
sert le plus
 On utilise des mémoires de capacité importante mais
beaucoup plus lente pour stocker les informations dont le
microprocesseur se sert le moins
 Ainsi, plus on s’éloigne du microprocesseur (de point de
vue emplacement) et plus la capacité et le temps d’accès des
mémoire vont augmenter
55 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Hiérarchie mémoire (3/6)
Capacité
+ Vitesse et prix -

Registre

Mémoire cache

Mémoire principale

Mémoire de masse

Mémoire d’appui
- +
56 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Hiérarchie mémoire (4/6)
Vitesse (temps
Vitesse (débit) Capacité
d’accès)
Registres < 1 ns > 50 Go/s 64 octets à 1 Ko
Mémoire cache 2 - 5 ns 10 - 30 Go/s 32 Ko - 10 Mo
Mémoire
20 ns 1 - 2 Go/s 512 Mo - 16 Go
principale
Mémoire de
1-10 ms 500 Mo/s 250 Go – 2 To
masse

 Les registres sont les éléments de mémoire les plus


rapides, volatile avec une très faible capacité. Ils sont situés
au niveau du processeur et servent au stockage des
opérandes et des résultats intermédiaires du calcul

57 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Hiérarchie mémoire (5/6)
 La mémoire cache est une mémoire volatile, rapide de
faible capacité, destinée à être utilisée comme mémoire
tampon (buffer) entre le processeur et la mémoire
principale en stockant les données les plus utilisées
 La mémoire principale est l’organe principal de
rangement des informations, volatile avec une capacité et
une vitesse moyenne. Elle contient les instructions et les
données du programme en cours d’exécution par le
processeur

58 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Hiérarchie mémoire (6/6)
 La mémoire de masse est une mémoire de masse à
disque tournant magnétique, non volatile, de grande
capacité et de faible vitesse qui sert à stocker les données
volumineux d’une manière permanente
 La mémoire d’appui est une mémoire périphérique non
volatile, de grande capacité et faible vitesse utilisée pour le
stockage permanent ou la sauvegarde des informations. Elle
utilise pour cela des supports optiques (CD, DVD),
amovibles (clé USB, …) et magnétiques (les bandes, disque
externe …)

59 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Localisation des mémoires (1/2)
 Les registres, qui constituent la mémoire de travail du
processeur, se trouvent en son sein
 La mémoire cache est souvent décomposée en plusieurs
parties, l'une collée sur le processeur et l'autre toute proche
mais sur la carte mère
 La mémoire centrale qui stocke données et programmes, se
trouve sur la carte mère
 Hors de la carte mère, la mémoire de masse stockant les
informations, généralement sous forme de fichiers

60 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Localisation des mémoires (2/2)

61 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Méthodes d’accès à la mémoire
 L’accès à une case mémoire se fait de façon différente
suivant les supports mémoires, en raison de leur
construction distincte
 On distingue quatre méthodes d’accès :
 Accès séquentiel
 Accès semi-directe
 Accès directe
 Accès associatif

62 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Accès séquentiel
 Pour accéder à une adresse, il faut parcourir l’intégralité
des adresses avant d’arriver à celle voulue
 Cet accès, le plus lent, est celui des bandes magnétiques
 Il faut dérouler toute la bande depuis le début (en accéléré)
pour aboutir à la case souhaitée
 Le temps d'accès est variable selon la position de
l'information recherchée

63 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Accès semi-directe
 C’est un mode d’accès destiné aux supports magnétiques
multipistes (disque dur, CD, DVD) : Un disque dur (aussi
DVD, CD) est constitué de pistes concentriques
 L’accès est direct à la piste voulue (par le déplacement
d’une tête de lecture), avant un accès séquentiel à la donnée
via le défilement de la piste (sous la tête de lecture)

64 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Accès directe ou aléatoire
 Avec l’invention des semi-conducteurs, nous avons eu la
possibilité d’accéder directement à n'importe quelle
information dont on connaît l'adresse via un décodeur
d’adresse
 Ce mode d’accès est rapide
 Les registres et la mémoire principale fonctionnent de cette
façon

65 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Accès associatif
 Les mémoires à accès associatif enregistrent des couples de
valeurs
 Au lieu de sélectionner une case mémoire via son adresse,
on envoie au mémoire la première valeur d’un couple et, si
cette valeur existe au sein d’un couple mémorisé, la
mémoire renvoie la seconde valeur dudit couple
 Plusieurs mécanismes de mémoire cache utilise ce type
d’accès

66 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Différents types de mémoire
 Principalement, il y a deux grandes familles de mémoire :
Mémoires

Morte Vive
RAM
ROM
PROM Statique Dynamique
EPROM
SRAM
EEPROM Asynchrone Synchrone

Flash
FPM SDRAM
EDO DDR-SDRAM
BEDO RDRAM
67 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 RAM (Random Access Memory)
 Une mémoire vive sert au stockage temporaire de données,
nécessaires au microprocesseur (Elle doit avoir un temps de
cycle très court pour ne pas ralentir le microprocesseur)
 Elle constitue la plus grande partie de la mémoire
principale d’un ordinateur
 En RAM, une donnée peut être lue en temps identique
quelques soit son adresse
 Les mémoires vives sont en général volatiles : elles perdent
leurs informations en cas de coupure d'alimentation
 Il existe deux grandes familles de mémoires RAM :
 Les RAM statiques
 Les RAM dynamiques

68 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 RAM dynamique (DRAM) (1/3)
 Mémoire électronique : L'information est mémorisée sous
la forme d'une charge électrique stockée dans un
condensateur couplé avec un transistor
 Chaque condensateur représente un bit de la mémoire :
Lorsqu'il est chargé, son état est égal à 1, dans le cas
contraire il est à 0

Transistor

Condensateur
RAM
dynamique

69 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 RAM dynamique (DRAM) (2/3)
 Avantages :
 Cette technique permet une plus grande densité d'intégration, car
un point mémoire nécessite environ quatre fois moins de
transistors que dans une mémoire statique
 Sa consommation s’en retrouve donc aussi très réduite
 Cout par bit réduit
 Inconvénients (1/2) :
 La présence de courants de fuite dans le condensateur contribue à
sa décharge (perde lentement sa charge)
 L’information est perdue si on ne la régénère pas périodiquement
(charge périodique du condensateur)

70 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 RAM dynamique (DRAM) (3/3)
 Inconvénients (2/2) :
 Les RAM dynamiques doivent donc être rafraîchies régulièrement
(presque 1000 fois par seconde) par un circuit de rafraichissement
pour entretenir la mémorisation : il s'agit de lire l'information et de
la réécrire
 La durée de ces rafraichissements augmente le temps d'accès aux
informations : Le rafraichissement d’une cellule mémoire empêche
l’accès à cette cellule durant quelques cycles d’horloge

71 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Exemples de RAM dynamique (1/2)
 DRAM FPM (Fast Page Mode, 1987) : Elle permet
d'accéder plus rapidement à des données en introduisant la
notion de page mémoire (33 à 50 Mhz)
 DRAM EDO (Extended Data Out, 1995) : Les composants
de cette mémoire permettent de conserver plus longtemps
l'information, on peut donc ainsi espacer les cycles de
rafraîchissement (33 à 50 Mhz)

72 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Exemples de RAM dynamique (2/2)
 Synchronous DRAM (SDRAM, 1997) : La mémoire
SDRAM a pour particularité de se synchroniser sur une
horloge. Elle permet de supporter des fréquences plus
élevées qu’avant (100 Mhz)
 DDR-SDRAM (Double Data Rate Synchronous DRAM, 2000)
: Elle permet de recevoir ou d'envoyer des données lors du
front montant et du front descendant de l’horloge ce qui
augmente considérablement la fréquence supportée (133 à
200 MHz)

73 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 RAM statique (SRAM) (1/2)
 Les mémoires statiques n’utilisent pas de condensateurs
(Les SRAM n'ont pas besoin de rafraichissement)
 Le bit mémoire d'une RAM statique est composé d'une
bascule. Chaque bascule contient entre 4 et 6 transistors

Transistors

RAM
statique

74 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 RAM statique (SRAM) (2/2)
 Les SRAM permettent des temps d’accès plus court que les
DRAM, mais sont plus coûteuses car leur construction
demande 4 à 6 fois plus de transistors que les DRAM
 Les SRAM sont utilisées lorsque l’on désire maximiser les
performances, par exemple pour construire des mémoires
caches

75 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 ROM (Read Only Memory)
 Pour certaines applications, il est nécessaire de pouvoir
conserver des informations de façon permanente même
lorsque l’alimentation électrique est interrompue
 On utilise alors des mémoires mortes ou mémoires à
lecture seule (ces mémoires ne sont accessibles qu’en
lecture)
 L’inscription en mémoire des données restent possible. Elle
est appelée programmation
 Suivant le type de ROM, la méthode de programmation
changera

76 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 La ROM
 Elle est programmée par le fabricant et son contenu ne peut
plus être ni modifié, ni effacé par l'utilisateur
 Cette mémoire est
composée d'une matrice
dont la programmation
s’effectue en reliant les
lignes aux colonnes par
des diodes
 Avantages : densité
élevée, mémoire rapide
 Inconvénients :
modification impossible
77 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 La PROM
 C’est une ROM qui peut être programmée une seule fois
par l'utilisateur (Programmable ROM)
 La programmation est réalisée à partir d’un programmateur
spécifique
 Les liaisons à diodes de la ROM sont remplacées par des
fusibles pouvant être détruits ou des jonctions pouvant être
court-circuitées
 Avantages : cout relativement faible, densité élevée,
mémoire rapide
 Inconvénients : modification impossible

78 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 L’EPROM
 Pour faciliter la mise au point d'un programme ou tout
simplement permettre la correction d’une erreur de
programmation, il est intéressant de pouvoir reprogrammer
une PROM
 L'EPROM (Erasable Programmable ROM) est une PROM qui
peut être effacée
 Dans une EPROM, le point mémoire est réalisé à partir
d’un transistor FAMOS (Floating gate Avalanche injection
Metal Oxyde Silicium)
 Avantages : reprogrammable
 Inconvénients : l’écriture est beaucoup
plus lente que sur une RAM (*1000)
79 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 L’EEPROM
 L’EEPROM (Electically EPROM) est une mémoire
programmable et effaçable électriquement
 Dans une EEPROM, le point mémoire est réalisé à partir
d’un transistor SAMOS reprenant le même principe que le
FAMOS sauf que l’épaisseur entre les deux grilles est
beaucoup plus faible
 Avantages : Programmation et effacement mot par mot
possible, Comportement d'une RAM non Volatile
 Inconvénients : Très lente pour une utilisation en RAM,
coût de réalisation élevé

80 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 La FLASH EPROM
 La mémoire Flash s'apparente à la technologie de
l’EEPROM. Elle est programmable et effaçable
électriquement comme les EEPROM

 Avantages : Programmation et effacement mot par mot


possible, Temps d’accès faible, Comportement d'une RAM
non Volatile

81 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


Chapitre 3 : Le microprocesseur
 Définition (1/2)
 Un microprocesseur est un circuit intégré complexe
caractérisé par une très grande intégration
 Il est doté des facultés d'interprétation et d'exécution des
instructions d'un programme
 Il est chargé d’organiser les tâches précisées par le
programme et d’assurer leur exécution
 Il doit aussi prendre en compte les informations extérieures
au système et assurer leur traitement
C’est le cerveau du système

83 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Définition (2/2)
 A l’heure actuelle, un microprocesseur regroupe sur
quelques millimètre carré des fonctionnalités toujours plus
complexes
 Leur puissance continue de s’accroître et leur
encombrement diminue régulièrement respectant toujours,
pour le moment, la fameuse loi de Moore (voir diapo. 34)

84 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Architecture de base d’un microprocesseur (1/2)
 Un microprocesseur est composé de trois éléments
principaux : Une unité de commande, Une unité de
traitement et Des registres
 Ces trois éléments sont reliés entre eux par des bus internes
permettant les échanges d’informations

85 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Architecture de base d’un microprocesseur (2/2)
 Dans un microprocesseur, il existe deux types de registres :
 Les registres d'usage général permettent à l'unité de traitement de
manipuler des données à vitesse élevée. Ils sont connectés au bus
données interne au microprocesseur,
 Les registres d'adresses (pointeurs) connectés sur le bus adresses

86 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Unité de commande (1/2)
 Elle permet de séquencer le déroulement des instructions :
 Elle effectue la recherche en mémoire de l'instruction
 Elle assure le décodage de l’instruction puisqu’elle est codée sous
forme binaire
 Elle réalise l’exécution de cette instruction puis effectue la
préparation de l'instruction suivante
 Pour cela, elle est composée de (1/2) :
 Le compteur de programme : un registre dont le contenu est
initialisé avec l'adresse de la première instruction du programme. Il
contient toujours l’adresse de l’instruction à exécuter (il est
automatiquement incrémenté après chaque utilisation)
 Le registre d'instruction et le décodeur d'instruction :
chacune des instructions à exécuter est rangée dans le registre
instruction puis est décodée par le décodeur d’instruction
87 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Unité de commande (2/2)
 Pour cela, elle est composée de (2/2) :
 Bloc logique de commande (ou séquenceur) : Il organise
l'exécution de chaque instruction au rythme de l’horloge selon une
séquence d’étapes précise

88 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Unité de traitement (1/2)
 C’est le cœur du microprocesseur
 Elle regroupe les circuits qui assurent les traitements
nécessaires à l'exécution des instructions (1/2):
 L’Unité Arithmétique et Logique (UAL) : un circuit
complexe qui assure les fonctions logiques (ET, OU, Comparaison,
Décalage …) ou arithmétique (Addition, soustraction)
 Le registre d'état est composé de différents bits (généralement 8
bits) appelés drapeaux (flags) ou indicateur d’états. Chacun de ces
bits est un indicateur dont l'état dépend du résultat de la dernière
opération effectuée par l’UAL. Exemple d’indicateurs :
 retenue (carry : C),
 signe (Sign : S),
 débordement (overflow : OV ou V),
 zéro (Z), parité (Parity : P)
89 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Unité de traitement (2/2)
 Elle regroupe les circuits qui assurent les traitements
nécessaires à l'exécution des instructions (2/2):
 Les accumulateurs sont des registres de travail qui servent à
stocker un opérande au début d'une opération arithmétique et le
résultat à la fin de l'opération

90 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Schéma fonctionnel du microprocesseur

91 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Cycle d’exécution d’une instruction (1/6)
 Le microprocesseur ne comprend qu’un certain nombre
d’instructions qui sont codées en binaire
 Le traitement d’une instruction par le microprocesseur
peut être décomposé en trois phases :
 Phase 1 : Recherche de l'instruction à traiter
 Phase 2 : Décodage de l’instruction et recherche de l'opérande
 Phase 3 : Exécution de l'instruction

92 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Cycle d’exécution d’une instruction (2/6)
 Phase 1 : Recherche de l'instruction à traiter (1/2)
1. Le PC (Compteur du programme ou Program Counter) contient
l'adresse de l'instruction suivante du programme. Cette valeur est
placée sur le bus d'adresses par l'unité de commande qui émet un
ordre de lecture
2. Au bout d'un certain temps (temps d'accès à la mémoire), le
contenu de la case mémoire sélectionnée est disponible sur le bus
des données
3. L'instruction est stockée dans le registre instruction du
processeur

93 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Cycle d’exécution d’une instruction (3/6)
 Phase 1 : Recherche de l'instruction à traiter (2/2)

94 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Cycle d’exécution d’une instruction (4/6)
 Phase 2 : Décodage de l’instruction et recherche de l'opérande
(1/2)
 Le registre d'instruction contient maintenant le premier mot de
l'instruction (qui peut être codée sur plusieurs mots). Ce premier
mot contient le code opératoire qui définit la nature de l'opération
à effectuer (addition, rotation,...) et le nombre de mots de
l'instruction
1. L'unité de commande transforme l'instruction en une suite de
commandes élémentaires (micro-programme) nécessaires au
traitement de l'instruction
2. Si l'instruction nécessite une donnée en provenance de la
mémoire, l'unité de commande récupère sa valeur sur le bus de
données
3. L’opérande est stockée dans un registre
95 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Cycle d’exécution d’une instruction (5/6)
 Phase 2 : Décodage de l’instruction et recherche de l'opérande
(2/2)

96 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Cycle d’exécution d’une instruction (6/6)
 Phase 3 : Exécution de l’instruction
1. Le micro-programme réalisant l'instruction est exécuté
2. Les drapeaux (registres d'état) sont positionnés
3. L'unité de commande positionne le PC pour l'instruction
suivante

97 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Types d’instructions
 Les instructions que l’on retrouve dans les
microprocesseurs peuvent être classées en 4 groupes :
 Opérations de transfert de données pour charger ou sauver
en mémoire, effectuer des transferts de registre à registre, …
 Opérations arithmétiques : addition, soustraction, division,
multiplication
 Opérations logiques : ET, OU, NON, NAND, comparaison,
test, …
 Opérations de contrôle de séquence : branchement, test, …

98 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Codage des instructions (1/2)
 Les instructions et leurs opérandes (paramètres) sont
stockés en mémoire principale
 La taille totale d’une instruction (nombre de bits
nécessaires pour la représenter en mémoire) dépend du
type d’instruction et aussi du type d’opérande
 Chaque instruction est toujours codée sur un nombre entier
d’octets afin de faciliter son décodage par le processeur
 Une instruction est composée de deux champs :
 Le code instruction, qui indique au processeur quelle instruction
réaliser
 Le champ opérande qui contient la donnée, ou la référence à une
donnée en mémoire (son adresse)

99 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Codage des instructions (2/2)
 Exemple

Code instruction Code opérande


1001 0011 0011 1110

 Le nombre d'instructions du jeu d'instructions est directement lié


au format du code instruction
 Ainsi, un octet permet de distinguer au maximum 256 instructions
différentes

100 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Mode d’adressage
 Un mode d'adressage définit la manière dont le
microprocesseur va accéder à l’opérande
 Les différents modes d'adressage dépendent des
microprocesseurs mais on retrouve en général 3 modes :
 L'adressage de registre où l’on traite la données contenue dans
un registre
 L'adressage immédiat où l’on définit immédiatement la valeur
de la donnée
 L'adressage direct où l’on traite une données en mémoire
 Selon le mode d’adressage de la donnée, une instruction
sera codée par un ou plusieurs octets

101 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Temps d’exécution
 Chaque instruction nécessite un certain nombre de cycles
d’horloges pour s’effectuer
 Le nombre de cycles dépend de la complexité de
l’instruction et aussi du mode d’adressage (par exemple, il
est plus long d’accéder à la mémoire principale qu’à un
registre du processeur)
 La durée d’un cycle dépend de la fréquence d’horloge du
séquenceur

102 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Jeu d’instructions
 La première étape de la conception d’un microprocesseur
est la définition de son jeu d’instructions
 Le jeu d’instructions décrit l’ensemble des opérations
élémentaires que le microprocesseur pourra exécuter
 Ce jeu va donc en partie déterminer l’architecture du
microprocesseur à réaliser et notamment celle du
séquenceur
 Dans la littérature, on trouve deux familles de jeu
d’instructions qui ont conduit à l’apparition de deux grands
modèles d’architecture des microprocesseurs :
 L’architecture CISC (Complex Instruction Set Computer)
 L’architecture RISC (Reduced Instruction Set Computer)

103 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Architecture CISC (1/2)
 Dans le passé, la mémoire travaillait très lentement par
rapport au processeur
 Il fallait réduire au max les accès mémoire (réduire le
nombre d’instructions nécessaire pour réaliser une tâche)
 L’idée était de soumettre au microprocesseur des tâches
complexes, chaque tâche doit être exécuter par instruction
unique
 Plus ces tâches sont diversifiées, plus le nombre
d’instructions est important (plus le jeu d’instructions est
complexe)
 Plus le jeu d’instructions est complexe, plus l’architecture
du processeur est compliquée
104 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Architecture CISC (2/2)
 Un jeu d’instructions complexe nécessite un décodeur
compliqué
 Pour une tâche donnée, une machine CISC exécute ainsi un
petit nombre d’instructions mais chacune nécessite plus de
temps d’exécution (un plus grand nombre de cycles
d’horloge)

105 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Architecture RISC (1/2)
 Des études statistiques ont clairement montré que les
programmes générés par les compilateurs contiennent le
plus souvent d'affectations, d'additions et de multiplications
 Ainsi, 80% des programmes écrits avec des langages de haut
niveau faisaient appel à seulement 20% des instructions du
microprocesseur
 D’où l’idée de réduire le jeu d’instructions et d’en
améliorer la vitesse de traitement
 On propose donc une architecture dans laquelle les
instructions sont en nombre réduit, chacune de ces
instructions s’exécutent en un cycle d’horloge

106 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Architecture RISC (2/2)
 Les accès à la mémoire s’effectue seulement à partir de
deux instructions (Lire/Ecrire ou Load/Store)
 Les instructions complexes doivent être réalisées à partir de
séquences basées sur les instructions élémentaires

107 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Comparaison entre RISC et CISC

Architecture RISC Architecture CISC


Instructions simples ne prenant qu’un Instructions complexes prenant plusieurs
seul cycle cycles
Instructions au format fixe Instructions au format variable

Décodeur simple Décodeur complexe

Beaucoup de registres Peu de registres


Seules les instructions « load » et « store » Toutes les instructions sont susceptibles
ont accès à la mémoire d’accéder à la mémoire
Peu de modes d’adressage Plusieurs modes d’adressage

Compilateur complexe Compilateur simple

108 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Langage de programmation (1/4)
 Le langage machine est le langage compris par le
microprocesseur
 Ce langage est difficile à maîtriser puisque chaque
instruction est codée par une séquence propre de bits
 Afin de faciliter la tâche du programmeur, on a créé
différents langages plus ou moins évolués
 Le langage assembleur est le langage le plus « proche » du
langage machine. Il est composé d’instructions assez
rudimentaires que l’on appelle des mnémoniques
 Ce sont essentiellement des opérations de transfert de
données entre les registres et l'extérieur du
microprocesseur (mémoire ou périphérique), ou des
109
opérations
Mohamed arithmétiques
Aymen CHARRADA - ISET du KEF - Infoou
1 logiques 27/10/2021
 Langage de programmation (2/4)
 Chaque instruction représente un code machine différent.
Chaque microprocesseur peut posséder un assembleur
différent
 La difficulté de mise en œuvre de ce type de langage, et leur
forte dépendance avec la machine a nécessité la conception
de langages de haut niveau, plus adaptés à l'homme, et
aux applications qu'il cherche à développer
 Ces langages permettent l'expression d'algorithmes sous
une forme plus facile à apprendre, et à manipuler (C, Java,
Python…)
 Chaque instruction en langage de haut niveau correspondra
à une succession d’instructions en langage assembleur
110 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
 Langage de programmation (3/4)
 Une fois développé, le programme en langage de haut
niveau doit être compilé pour le traduire en assembleur
puis l’assembler pour le convertir en code machine
compréhensible par le microprocesseur
 Ces opérations sont réalisées à partir de logiciels spécialisés
appelés compilateur et assembleur

111 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Langage de programmation (4/4)
 Exemple

Assembleur Code machine


Langage C
( 68HC11 )* ( 68HC11 )*

LDAB #100 @00 C6 64


A=0 ; LDAA #0 @01 B6 00
for ( i=1 ; i<101 ; i++) ret ABA @03 1B
A=A+i ; DECB @04 5A
BNE ret @05 26 03

 * : « 68HC11 » est le modèle du microprocesseur étudié dans cet


exemple

112 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021


 Performances d’un microprocesseur
 On peut caractériser la puissance d’un microprocesseur par
le nombre d’instructions traitées par seconde
 Pour cela, on définit :
 Le CPI (Cycle Par Instruction) qui représente le nombre moyen de
cycles d’horloge nécessaire pour l’exécution d’une instruction
pour un microprocesseur donné
 Le MIPS (Millions d'Instructions Par Seconde) qui représente la
puissance de traitement du microprocesseur
𝑭𝑯
𝑴𝑰𝑷𝑺 =
𝑪𝑷𝑰
 Avec 𝑭𝑯 : Fréquence de l’horloge du microprocesseur
 Pour augmenter les performances d’un microprocesseur, on peut
donc soit augmenter la fréquence d'horloge (limitation matérielle),
soit diminuer le CPI (choix d'un jeu d'instruction adapté)
113 Mohamed Aymen CHARRADA - ISET du KEF - Info 1 27/10/2021
Mohamed Aymen CHARRADA - ISET El KEF - Info1

Vous aimerez peut-être aussi