Vous êtes sur la page 1sur 14

Chapitre 3 Les mémoires

3.1 Définition :
On appelle mémoire tout dispositif électronique capable de stocker et de restituer des
informations. Apres le microprocesseur, la mémoire est sans doute le composant le plus
important dans un ordinateur. Ainsi, la quantité et le type de mémoire vont influencer
grandement la performance globale de l’ordinateur. Par ailleurs, la stabilité et la fiabilité de
l’ordinateur dépendent de la qualité des modules de mémoires ; une mémoire de mauvaise
qualité va souvent provoquer des pannes aléatoires ou des blocages systématiques.

Le nombre de fils d’adresses d’un boîtier mémoire définit le nombre de cases mémoire que
comprend le boîtier. Le nombre de fils de données définit la taille des données que l’on peut
sauvegarder dans chaque case mémoire.
En plus du bus d’adresses et du bus de données, un boîtier mémoire comprend une entrée de
commande qui permet de définir le type d’action que l’on effectue avec la mémoire
(lecture/écriture) et une entrée de sélection qui permet de mettre les entrées/sorties du boîtier
en haute impédance.
On peut donc schématiser un circuit mémoire par la figure suivante où l’on peut distinguer :

Figure 1
- les entrées d’adresses
- les entrées de données
- les sorties de données
- les entrées de commandes :
• une entrée de sélection de lecture ou d’écriture. (R/W)
• une entrée de sélection du circuit. (CS)

Remarque :
Les entrées et sorties de données sont très souvent regroupées sur des bornes
bidirectionnelles.

3.2 Caractéristiques d’une mémoire


Une mémoire peut-être caractérisée par les différentes entités suivantes:

− différents types de technologie utilisée : Les différents supports utilisés sont


principalement :
• Semi-conducteurs
• Magnétique
• Optique
− durée de mémorisation : Elle peut être fonction du temps ou en fonction de la présence
d’alimentation électrique
− Emplacement : Il correspond à la localisation de mémoire dans la machine :
• Dans le processeur
• Interne
• Externe

− Capacité : qui représente le nombre d'informations qu'il est possible de stocker. Elle est
exprimée en octets (bytes) ou en mots de 8, 16 ou 32 bits.
− Format des données : c’est le nombre de bits que l’on peut mémoriser par case mémoire.
On dit aussi que c’est la largeur du mot mémorisable.
− Mode d’accès : Il s’agit de la manière de retrouver une information, d’accéder à un mot
mémoire. Ex : Accès aléatoire, accès par contenu, accès séquentiel, accès direct….
− Le temps d’accès : c’est le temps qui s'écoule entre l'instant où a été lancée une opération
de lecture/écriture en mémoire et l'instant où la première information est disponible sur le bus
de données.
− Le temps de cycle : il représente l'intervalle minimum qui doit séparer deux demandes
successives de lecture ou d'écriture.
− Le débit : c’est le nombre maximum d'informations échangé) par unité de temps.
3.3 Classification des mémoires à semi-conducteur
Les mémoires à semi-conducteur peuvent êtres classée en deux catégories comme l’indique la
figure 2 selon la technologie utilisée :

Figure 2

3.3.1 Les mémoires vives


Nous savons que dans un ordinateur toutes les informations : valeur numérique, instruction,
adresse, symbole (chiffre, lettre,…) etc… sont manipulées sous une forme binaire. Ces
informations doivent en général être conservées pendant un certain temps pour permettre leur
exploitation. Ce rôle est dévolu aux mémoires chargées de conserver programmes, données
provenant de l'extérieur, résultats intermédiaires, données à transférer à l'extérieur, etc.
Il faut pour cela des mémoires à lecture et écriture ou mémoires vives, qui permettent
d'enregistrer une information, de la conserver et de la restituer.

La mémoire vive constitue la mémoire centrale (ou principale) de la machine (ordinateur /


calculateur). Elle représente l’espace de travail de la machine dont l’organe principal de
rangement des informations utilisées par le processeur. Dans une machine pour exécuter un
programme il faut le charger dans la mémoire centrale.
3.3.1.1 Caractéristiques de la mémoire centrale
La mémoire centrale est dite à accès aléatoire (RAM : Random Acces Memory) c'est-à-dire
que le temps d'accès à l'information est indépendant de sa place en mémoire. Cette
appellation, d'origine historique, est toujours synonyme de mémoire vive. Bien que très
répandue cette appellation n'est plus suffisante car tous les circuits à semi-conducteur sont
aujourd'hui à accès aléatoire. Elle est volatile : la conservation de son contenu nécessite la
permanence de son alimentation électrique. Son temps d’accès est moyen mais plus rapide
que les mémoires magnétiques. Sa capacité limitée donne la possibilité d’une extension.

3.3.1.2 Types des mémoires centrales


• Il existe deux grandes familles des mémoires centrales selon la technique de point mémoire
utilisée: les mémoires statiques (SRAM) et les mémoires dynamiques (DRAM).

– Les mémoires statiques sont à base de bascules, elles possèdent un faible taux d’intégration
mais un temps d’accès rapide (Utilisation pour les mémoires cache). Les deux technologies
utilisées pour construire les mémoires vives statiques sont TTL ("Transistor Transistor
Logic") ou logique de transistor à transistor ; et CMOS ("Complementary Metal Oxyde
semiconductor") ou semi-conducteur métal-oxyde complémentaire.
.

Figure 3
Dans une mémoire RAM statique, chaque bit d'information est mémorisé dans une bascule à
transistors qui nécessite au moins deux transistors. En réalité, pour que cette bascule soit
adressable, le schéma de chaque cellule mémoire se complique un peu et se présente sous la
forme indiquée figure 3.
Les transistors T3, T4, T5 et T6 forment la bascule ; le transistor T1 sert à sélectionner la
mémoire pour y écrire une donnée, alors que le transistor T2 sert à sélectionner la cellule pour
lire son contenu.
La mémoire statique nécessite donc 6 transistors par bit et s’avère très coûteuse en pratique,
même si elle est la plus rapide.
Les bascules garantissent la mémorisation de l'information aussi longtemps que l'alimentation
électrique est maintenue sur la mémoire.
On l’utilise généralement pour la mémoire cache.

– Les mémoires dynamiques en anglais Dynamic RAM (DRAM) à base de condensateurs,


ces mémoires possèdent un très grand taux d’intégration, elles sont plus simples que les
mémoires statiques mais avec un temps d’accès plus long.
Figure 4
L’élément de mémorisation est constitué par un condensateur et un transistor à effet de champ
(généralement réalisé en technique MOS). Ce transistor joue le rôle d'un interrupteur
commandé. L'information est mémorisée sous la forme d'une charge électrique stockée dans
le condensateur. Cette technique permet une plus grande densité d'intégration, car un point
mémoire nécessite environ deux à quatre fois moins de place que dans une mémoire statique.
Par contre, du fait des courants de fuite le condensateur a tendance à se décharger. C'est
pourquoi les RAM dynamiques doivent être rafraîchies régulièrement pour entretenir la
mémorisation : il s'agit de lire l'information avant qu'elle n'ait totalement disparu et de la
recharger. Par ailleurs, la lecture étant destructive, il est également nécessaire de restaurer la
charge électrique à la fin de l'opération.
Ce rafraîchissement indispensable a plusieurs conséquences. Tout d'abord il complique la
gestion des mémoires dynamiques car il faut tenir compte des actions de rafraîchissement qui
sont prioritaires. D'autre part, la durée de ces actions augmente le temps d'accès aux
informations. Le temps d'attente des données est variable selon que la lecture est interrompue
ou non par des opérations de rafraîchissement et la quantité de cellules à restaurer. Il faut donc
se placer dans le cas le plus défavorable pour déterminer le temps d'accès à utiliser en
pratique.
3.3.1.3 Vue logique de la mémoire centrale
La mémoire centrale peut être vue comme un large vecteur (tableau) de mots ou octets.
•Un mot mémoire stocke une information sur n bits. Il est constitué de plusieurs cellules
mémoire stockant chacune 1 seul bit. Chaque mot possède sa propre adresse ayant un numéro
unique permettant d’accéder à un mot mémoire. Les adresses sont séquentielles
(consécutives) et leur taille (le nombre de bits) dépend de la capacité de la mémoire.

Figure 5
3.3.1.4 Structure physique interne d’une mémoire centrale
Les entités constituant la mémoire centrale sont :
– RAM (Registre d’adresse Mémoire) : ce registre stock l’adresse du mot à lire ou a écrire.
– RIM (Registre d’information mémoire) : stock l’information lu à partir de la mémoire ou
l’information à écrire dans la mémoire.
– Décodeur : permet de sélectionner un mot mémoire.
– R/W : commande de lecture/écriture, cette commande permet de lire ou d’écrire dans la
mémoire (si R/w=1 alors lecture sinon écriture)
• Bus d’adresses de taille k bits
• Bus de données de taille n bits

Figure 5

3.3.1.4.1 Comment sélectionner un mot mémoire ?

Figure 6

Chaque cellule y est matérialisée avec uniquement une ligne de sélection et une ligne de
sortie. Si la ligne de sélection est à "0", la cellule est "isolée" de la sortie. Si la ligne de
sélection est à "1", l'information mémorisée se retrouve sur la ligne de sortie.
La figure 6 correspond au mécanisme de lecture, mais le principe est également valable en
écriture. En fonction de l'adresse chargée dans le registre RAM, le décodeur recevant la
k
même information que celle de la RAM active une et une seule des 2 lignes. Ainsi seules les
cellules (mot mémoire) correspondant à l'adresse demandée sont sélectionnées et l'information
mémorisée est alors disponible en sortie.

3.3.1.4.2 Comment calculer la capacité d’une Mémoire Centrale ?


Soit k la taille du bus d’adresses (taille du registre RAM). Soit n la taille du bus de données
(taille du registre RIM ou la taille d’un mot mémoire). On peut exprimer la capacité de la
mémoire centrale soit en nombre de mots mémoire ou en bits (octets, kilo-octets,….) :
– La capacité = 2k Mots mémoire
– La capacité = 2k * n Bits

Exemple :
Dans une mémoire la taille du bus d’adresses K=14 et la taille du bus de données n=4.
Calculer la capacité de cette mémoire ?

3.3.1.4.3 Comment lire une information ?


Pour lire une information en mémoire centrale, il faut effectuer les opérations suivantes:
– Charger dans le registre RAM l’adresse du mot à lire.
– Lancer la commande de lecture (R/W=1)
L’information, par après, est disponible dans le registre RIM au bout d’un certain temps
(temps d’accès).

3.3.1.4.4 Comment écrire une information ?


Pour écrire une information en mémoire centrale, il faut effectuer les opérations suivantes:
– Charger dans le RAM l’adresse du mot ou se fera l’écriture.
– Placer dans le RIM l’information à écrire.
– Lancer la commande d’écriture pour transférer le contenu du RIM dans la mémoire.

3.3.1.5 Assemblage de blocs mémoires


Les techniques d'intégration ne permettent pas d'obtenir des boîtiers ayant des capacités ou
des formats suffisants pour toutes les applications. Il est alors nécessaire d'associer plusieurs
boîtiers pour augmenter la longueur des mots ou le nombre de mots. D’autre part, l'association
de plusieurs blocs peut permettre d'améliorer les performances temporelles de la mémoire en
faisant fonctionner plusieurs blocs en parallèle.

3.3.1.5.1 Augmentation de la longueur des mots


k
La figure 7 montre qu'il est aisé d'associer deux boîtiers de 2 mots de n bits pour obtenir un
k
bloc de 2 mots de 2 n bits. L'adressage doit être appliqué simultanément aux deux circuits,
l'un fournissant les n bits de bas poids et l'autre les n bits de haut poids.

Figure 7
3.3.1.5.2 Augmentation du nombre de mots
k
De même la figure suivante montre la réalisation d'un bloc de 4 x 2 mots de n bits à l'aide de
k
4 boîtiers de 2 x n bits. Il nous faut k+2 lignes d'adresse. Les k bits de bas poids de l'adresse
sont appliqués simultanément sur les 4 boîtiers. Les deux bits de haut poids attaquent un
décodeur à quatre sorties. Chacune de ces quatre lignes permet de sélectionner un boîtier
(entrée de validation du boîtier : CS). Un seul boîtier est alors connecté aux lignes de sortie.

Figure 8

3.3.1.6 Applicabilité pour la conception des Mémoires centrales

3.3.1.6.1 Problème ?
On veut réaliser une mémoire de capacité C, mais nous disposons uniquement de boîtiers
(des circuits) de taille inférieure ?

3.3.1.6.2 Structure d’un boîtier


Un boîtier possède la même structure qu’une mémoire
(RAM, RIM,…) en plus de la commande CS (Chip Select)
permettant de le sélectionner (activer) :
CS=0 le boîtier est sélectionné
CS=1 le boîtier n’est pas sélectionné

Figure 9
3.3.1.6.3 Solution
Soit M une mémoire de capacité C, tel que m est le nombre de mot et n la taille d’un mot.
Soit M’ un boîtier de capacité C’, tel que m’ le nombre de mot et n’ la taille d’un mot. On
suppose que C > C’ (m >= m’, n >=n’).
– Quel est le nombre de boîtiers M’ nécessaire pour réaliser la mémoire M ?
Pour connaître le nombre de boîtiers nécessaire, il faut calculer les deux facteurs suivants :
– P =m/m’
– Q=n/n’
• P : permet de déterminer de nombre de boîtiers M’ nécessaire pour obtenir le nombre de
mots de la mémoire M (extension lignes).
• Q : permet de déterminer le nombre de boîtier M’ nécessaire pour obtenir la taille de mot de
la mémoire M (extension mots ou extension colonnes).
• P.Q donne le nombre total de boîtiers nécessaire pour réaliser la mémoire M.
De même, comme nous l’avons mentionné plus haut, pour sélectionner les boîtiers on utilise
les bits de poids forts d’adresses. Si P est le facteur d’extension lignes alors on prend k bits
tel que P=2k. Les autres bits d’adresses restants sont utilisés pour sélectionner un mot dans un
boîtier.

3.3.1.6.4 Exemples d’application :


Réaliser une mémoire de 1Ko (la taille d’un mot est de 8 bits) en utilisant des boîtiers de taille
256 mots de 8 bits ?

3.3.1.7 Architectures des mémoires centrales


Dans une architecture à un seul processeur : le processeur à l’exclusivité d’accéder à la
mémoire. Le rendement de l’Unité Centrale n’est conditionné que par le temps d’accès à la
Mémoire Centrale.

Figure 10

Si le calculateur possède plusieurs processeurs qui fonctionnent en parallèle (en même


temps), c’est possible que deux processeurs ou plus demandent d’accéder à la mémoire au
même instant. Si la mémoire est structurée en un seul bloc alors un processeur peut
monopoliser la mémoire centrale. Même si le temps d’accès est très petit, des processeurs
vont être pénalisés, ce qui démontre que la structure de la mémoire centrale est aussi
importante.

Figure 11

3.3.1.7.1 Mémoire modulaire


La solution est de découper la mémoire en plusieurs modules. Ainsi plusieurs bus permettent
d’accéder simultanément à la mémoire centrale. Il est alors possible d’avoir autant d’accès
que de modules mais on ne peut pas accéder simultanément à un module.

Figure 12

Remarque :
Les adresses à l’intérieur d’un module sont séquentiels (successives). Il est possible qu’un
module soit réalisé avec des boîtiers de taille inférieure (il faut calculer les facteur d’extension
lignes et colonnes)

Comment sélectionner un mot dans une architecture modulaire ?


• L’adresse est divisée en deux parties :
– Les bits de poids forts pour sélectionner un module.
Si le nombre de module est égale à n, alors il faut prendre k bits tel que 2k >= n
– Les bits de poids faibles pour sélectionner un mot dans un module.
Exemple
Soit une mémoire de taille de 4 Ko. Cette mémoire est découpée en 4 modules. Donner le
schéma de cette mémoire en utilisant des boîtiers de 1 Ko?

3.3.1.7.2 Mémoire entrelacée


Avec une mémoire centrale modulaire, c’est possible qu’un processeur monopolise un
module (par exemple il accède à des adresses consécutives), Pour éviter ce problème :
– Un module est divisé en plusieurs Blocs.
– les adresses consécutives sont placées dans des blocs différents.
– Le nombre de blocs représente le degré d’entrelacement.

Sélectionner un mot dans une mémoire centrale entrelacée


L’adresse est divisée en deux parties :
– Les bits de poids faibles pour sélectionner le bloc.
Si on dispose de n bloc, il faut prendre k bits tel que 2k>=n.
– Les bits de poids forts pour sélectionner le mot dans le bloc.

Exemple : une mémoire entrelacée avec un degré d’entrelacement égale à 4, un bloc est de
taille de 4 mots

3.3.1.7.3 Les mémoires modulaires entrelacées


• La MC est divisée en plusieurs modules
• Chaque module est divisé en n Blocs (n le degré d’entrelacement)
• Pour sélectionner un mot :
– Il faut sélectionner le module (bits de poids forts)
– Sélectionner le bloc dans le module (bits de poids faibles)
– Sélectionner le mot dans le bloc (les bits restant)

Exemple
• Réaliser une mémoire de 64 mots de 8 bits organisé en deux modules entrelacé,
l’entrelacement se fait à l’intérieur (D=2). En utilisant des circuits (boîtiers) de 16 mots de 8
bits.

Remarque :
Voici un historique de quelques DRAM qui ont été ou sont utilisées dans les PC :
• La DRAM FPM (Fast Page Mode, 1987) : Elle permet d'accéder plus rapidement à des
données en introduisant la notion de page mémoire. (33 à 50 Mhz)

• La DRAM EDO (Extended Data Out, 1995) : Les composants de cette mémoire permettent
de conserver plus longtemps l'information, on peut donc ainsi espacer les cycles de
rafraîchissement. Elle apporte aussi la possibilité d’anticiper sur le prochain cycle mémoire.
(33 à 50 Mhz)
• La DRAM BEDO (Bursted EDO) : On n'adresse plus chaque unité de mémoire
individuellement lorsqu'il faut y lire ou y écrire des données. On se contente de transmettre
l'adresse de départ du processus de lecture/écriture et la longueur du bloc de données (Burst).
Ce procédé permet de gagner beaucoup de temps, notamment avec les grands paquets de
données tels qu'on en manipule avec les applications modernes. (66 Mhz)

• La Synchronous DRAM (SDRAM, 1997) : La mémoire SDRAM a pour particularité de se


synchroniser sur une horloge. Les mémoires FPM, EDO étaient des mémoires asynchrones et
elles induisaient des temps d'attentes lors de la synchronisation. Elle se compose en interne de
deux bancs de mémoire et des données peuvent être lues alternativement sur l'un puis sur
l'autre de ces bancs grâce à un procédé d'entrelacement spécial. Le protocole d'attente devient
donc tout à fait inutile. Cela lui permet de supporter des fréquences plus élevées qu’avant
(100 Mhz).

• La DDR-I ou DDR-SDRAM (Double Data Rate Synchronous DRAM, 2000) : La DDR-


SDRAM permet de recevoir ou d'envoyer des données lors du front montant et du front
descendant de l’horloge. (133 à 200 MHz)

3.3.1.8 Mémoire cache ou antémémoire


Le cache-mémoire ne contient, à un instant donné, que les copies de petits blocs de mots de la
mémoire physique récemment référencés. On utilise pour les caches des mémoires statiques
très rapides. La mémoire cache permet de combler en partie la différence entre les vitesses de
l'unité centrale et de la mémoire. On trouve très souvent deux niveaux de mémoire cache. Le
premier niveau est intégré au processeur et dispose d'un temps d'accès équivalent au cycle de
fonctionnement de celui-ci. Le second niveau est de plus grande taille mais plus lent. Une
mémoire cache intégrée au processeur, ou très proche, est basée sur une mémoire associative.

Lors d’un accès mémoire, le système de gestion de mémoire cache doit déterminer si
l’information désirée se trouve dans le cache. Si elle s’y trouve, on n’a pas besoin d’aller en
mémoire centrale et on obtient l’information à la vitesse du cache, ~ 5 ns.
Si elle ne s’y trouve pas, on la copie de la mémoire centrale vers le cache, de sorte qu’elle s’y
trouvera la prochaine fois.

La figure 23 illustre le schéma de principe d'une architecture avec hiérarchisation de la


mémoire.

Figure 13
Comme son coût est moindre et que sa densité d’intégration est supérieure, la mémoire
dynamique est utilisée pour la mémoire principale de l’ordinateur. Par contre, la mémoire
statique est utilisée pour les caches en raison de sa plus grande vitesse.

3.3.2. Les mémoires mortes «Read Only Memory»


Naturellement, l’information que l’on a stockée est disponible en lecture seule. Le processus
de placement de cette information s’appelle programmation et se fait durant la fabrication à
l’aide d’un masque. Le contenu des mémoires à lecture seule est fixé lors de la fabrication en
usine et reste dans la mémoire lorsque celle-ci n’est pas alimentée. Les ROM conservent des
programmes élémentaires de démarrage de micro ordinateurs, des génératrices de
configuration pour l’affichage des caractères,…
Exemple de données stockées en ROM :
- Le BIOS et le setup CMOS ;
- Le Power-On Self Test (POST), programme permettant de tester le matériel au démarrage de
la machine.

Principe
Extérieurement une mémoire morte ressemble à un bloc mémoire sans ligne d'entrée ni
commande d'écriture. Ce système peut se restreindre à k lignes d'adresse, n lignes de sortie et
un signal de sélection du circuit.

Figure 13

Ces mémoires, contrairement aux RAM, ne peuvent être que lue. L’inscription en mémoire
des données reste possible mais est appelée programmation. Suivant le type de ROM, la
méthode de programmation changera. Il existe donc plusieurs types de ROM :

3.3.2.1 LA ROM
Elle est programmée par le fabricant et son contenu ne peut plus être ni modifié, ni effacé par
l'utilisateur.
- Structure :
Cette mémoire est composée d'une matrice dont la programmation s’effectue en reliant les
lignes aux colonnes par des diodes. L'adresse permet de sélectionner une ligne de la matrice et
les données sont alors reçues sur les colonnes (le nombre de colonnes fixant la taille des mots
mémoire).
- Programmation :
L'utilisateur doit fournir au constructeur un masque indiquant les emplacements des diodes
dans matrice.
- Avantages :
• Densité élevée
• Non volatile
• Mémoire rapide
- Inconvénients :
• Écriture impossible
• Modification impossible (toute erreur est fatale).
• Délai de fabrication (3 à 6 semaines)
• Obligation de grandes quantités en raison du coût élevé qu'entraîne la production du
masque et le processus de fabrication.

3.3.2.2 La PROM
C’est une ROM qui peut être programmée une seule fois par l'utilisateur (Programmable
ROM). La programmation est réalisée à partir d’un programmateur spécifique.

- Structure :
Les liaisons à diodes de la ROM sont remplacées par des fusibles pouvant être détruits ou des
jonctions pouvant être court-circuitées.
- Programmation :
Les PROM à fusible sont livrées avec toutes les lignes connectées aux colonnes (0 en chaque
point mémoire). Le processus de programmation consiste donc à programmer les
emplacements des ‘’1’’ en générant des impulsions de courants par l’intermédiaire du
programmateur ; les fusibles situés aux points mémoires sélectionnés se retrouvant donc
détruits.
Le principe est identique dans les PROM à jonctions sauf que les lignes et les colonnes sont
déconnectées (1 en chaque point mémoire). Le processus de programmation consiste donc à
programmer les emplacements des ‘’0’’ en générant des impulsions de courants par
l’intermédiaire du programmateur ; les jonctions situées aux points mémoires sélectionnés se
retrouvant court-circuitées par effet d’avalanche.

- Avantages :
• idem ROM
• Claquage en quelques minutes
• Coût relativement faible
- Inconvénients :
• Modification impossible (toute erreur est fatale).

3.3.2.3 L’EPROM ou UV-EPROM
Pour faciliter la mise au point d'un programme ou tout simplement permettre une erreur de
programmation, il est intéressant de pouvoir reprogrammer une PROM. La technique de
claquage utilisée dans celles-ci ne le permet évidemment pas. L'EPROM (Erasable
Programmable ROM) est une PROM qui peut être effacée.

- Structure
Dans une EPROM, le point mémoire est réalisé à partir d’un transistor FAMOS (Floating gate
Avalanche injection Metal Oxyde Silicium). Ce transistor MOS a été introduit par Intel en
1971 et a la particularité de posséder une grille flottante.
- Programmation
La programmation consiste à piéger des charges dans la grille flottante. Pour cela, il faut tout
d’abord appliquer une très forte tension entre Grille et Source. Si l’on applique ensuite une
tension entre D et
S, la canal devient conducteur. Mais comme la tension Grille-Source est très importante, les
électrons sont déviés du canal vers la grille flottante et capturés par celle-ci. Cette charge se
maintient une dizaine d'années en condition normale.
L’exposition d’une vingtaine de minutes à un rayonnement ultraviolet permet d’annuler la
charge stockée dans la grille flottante. Cet effacement est reproductible plus d’un millier de
fois. Les boîtiers des EPROM se caractérisent donc par la présence d’une petite fenêtre
transparente en quartz qui assure le passage des UV. Afin d’éviter toute perte accidentelle de
l’information, il faut obturer la fenêtre d’effacement lors de l’utilisation.

- Avantages :
• Reprogrammable et non Volatile
- Inconvénients :
• Impossible de sélectionner une seule cellule à effacer
• l’écriture est beaucoup plus lente que sur une RAM. (environ 1000x)

3.3.2.4 L’EEPROM
L’EEPROM (Electically EPROM) est une mémoire programmable et effaçable
électriquement.
Elle répond ainsi à l’inconvénient principal de l’EPROM.

Vous aimerez peut-être aussi