Vous êtes sur la page 1sur 146

Ordinateur

• Ordinateur (PC)
• Typologies
 Types d'ordinateurs
 Ordinateur portable
 PDA (organiseur)
• Au cœur de l'ordinateur
 Processeur
 Carte mère
 Boîtier
• Mémoire
 Mémoire
 Mémoire vive (RAM)
 Mémoire morte (ROM)
 Carte mémoire flash
• Cartes mémoire
 Compact Flash (CF)
 Memory stick (MS)
 Multimedia Card (MMC)
 Secure Digital (SD)
 Smartmedia (SM)
 xD Picture card
• Les bus
 Bus
 ISA, MCA, VLB
 PCI
 AGP
 PCI Express
• Interfaces d'entrée-sortie
 Port série/parallèle
 USB
 FireWire
 IDE / ATA
 Serial ATA
 SCSI
 PC Card (PCMCIA)
• Périphériques
 Périphérique
 Interruption (IRQ/DMA)
• Périphériques d'affichage
 Ecran/moniteur
 Tube cathodique
 Ecran LCD/Plasma
• Périphériques de stockage
 Disque dur
 Disque dur SSD
 Lecteur CD-ROM
 Lecteur DVD-ROM
 Blu ray
 Clé USB
• Autres périphériques
 Clavier
 Souris
 Imprimante
 Scanner
 Modem
• Cartes d'extension
 Carte graphique
 Carte son
 Carte réseau
• BIOS
 BIOS
• Voir aussi :
 FAQ matériel

PC (ordinateur personnel)
Introduction à la notion d'ordinateur
La compréhension du vocabulaire informatique représente généralement la principale difficulté à laquelle
se heurtent les acheteurs potentiels d'ordinateurs personnels. En effet, contrairement à un téléviseur,
pour lequel les critères de choix sont assez limités, le choix d'un ordinateur revient à choisir chaque
élément qui le compose et à en connaître les caractéristiques. Ce dossier n'a pas pour but de donner un
sens à toutes les abréviations informatiques (dans la mesure où de nombreux constructeurs ont leurs
propres terminologies), mais il cherche à aider à mieux comprendre les principaux composants d'un
ordinateur, d'en expliquer le fonctionnement et d'en donner les principales caractéristiques.

Présentation de l'ordinateur
Un ordinateur est un ensemble de circuits électroniques permettant de manipuler des données sous
forme binaire, c'est-à-dire sous forme de bits. Le mot « ordinateur » provient de la société IBM France.
François Girard, alors responsable du service promotion générale publicité de l'entreprise IBM France,
eut l'idée de consulter son ancien professeur de lettres à Paris, afin de lui demander de proposer un mot
caractérisant le mieux possible ce que l'on appelait vulgairement un « calculateur » (traduction littérale
du mot anglais « computer »).

Ainsi, Jaques Perret, agrégé de lettres, alors professeur de philologie latine à la Sorbonne, proposa le 16
avril 1955 le mot « Ordinateur » en précisant que le mot « Ordinateur » était un adjectif provenant
duLittré signifiant « Dieux mettant de l'ordre dans le monde ». Ainsi, il expliqua que le concept de « mise
en ordre » était tout à fait adapté.

Types d'ordinateurs
Toute machine capable de manipuler des informations binaires peut être qualifiée d'ordinateur, toutefois
le terme « ordinateur » est parfois confondu avec la notion d'ordinateur personnel (PC, abréviation
depersonal computer), le type d'ordinateur le plus présent sur le marché. Or il existe beaucoup d'autres
types d'ordinateurs (la liste suivante est non exhaustive) :
• Amiga
• Atari
• Apple Macintosh
• stations Alpha
• stations SUN
• stations Silicon Graphics
La suite de ce dossier, aussi générique soit-elle, s'applique ainsi plus particulièrement aux ordinateurs de
type PC, appelés aussi ordinateurs compatibles IBM, car IBM est la firme qui a créé les premiers
ordinateurs de ce type et a longtemps (jusqu'en 1987) été le leader dans ce domaine, à tel point qu'elle
contrôlait les standards, copiés par les autres fabricants.

Constitution de l'ordinateur
Un ordinateur est un ensemble de composants électroniques modulaires, c'est-à-dire des composants
pouvant être remplacés par d'autres composants ayant éventuellement des caractéristiques différentes,
capables de faire fonctionner des programmes informatiques. On parle ainsi de « hardware » pour
désigner l'ensemble des éléments matériels de l'ordinateur et de « software » pour désigner la partie
logicielle.

Les composants matériels de l'ordinateur sont architecturés autour d'une carte principale comportant
quelques circuits intégrés et beaucoup de composants électroniques tels que condensateurs,
résistances, etc. Tous ces composants sont soudés sur la carte et sont reliés par les connexions du
circuit imprimé et par un grand nombre de connecteurs : cette carte est appelée carte mère.

La carte mère est logée dans un boîtier (ou châssis), comportant des emplacements pour les
périphériques de stockage sur la face avant, ainsi que des boutons permettant de contrôler la mise sous
tension de l'ordinateur et un certain nombre de voyants permettant de vérifier l'état de marche de
l'appareil et l'activité des disques durs. Sur la face arrière, le boîtier présente des ouvertures en vis-à-vis
des cartes d'extension et des interfaces d'entrée-sortie connectées sur la carte mère.

Enfin, le boîtier héberge un bloc d'alimentation électrique (appelé communément alimentation), chargé
de fournir un courant électrique stable et continu à l'ensemble des éléments constitutifs de l'ordinateur.
L'alimentation sert donc à convertir le courant alternatif du réseau électrique (220 ou 110 Volts) en une
tension continue de 5 Volts pour les composants de l'ordinateur et de 12 volts pour certains périphériques
internes (disques, lecteurs de CD-ROM, ...). Le bloc d'alimentation est caractérisé par sa puissance, qui
conditionne le nombre de périphériques que l'ordinateur est capable d'alimenter. La puissance du bloc
d'alimentation est généralement comprise entre 200 et 450 Watts.

On appelle « unité centrale », l'ensemble composé du boîtier et des éléments qu'il contient. Les
éléments externes à l'unité centrale sont appelés périphériques.

L'unité centrale doit être connectée à un ensemble de périphériques externes. Un ordinateur est
généralement composé au minimum d'une unité centrale, d'un écran (moniteur), d'un clavier et
d'unesouris, mais il est possible de connecter une grande diversité de périphériques sur les interfaces
d'entrée-sortie (ports séries, port parallèle, port USB, port firewire, etc.) :
• imprimante,
• scanner,
• carte son externe,
• disque dur externe,
• périphérique de stockage externe,
• appareil photo ou caméra numérique,
• assistant personnel (PDA),
• etc.
Les familles d'ordinateurs
Familles d'ordinateurs
On distingue généralement plusieurs familles d'ordinateurs selon leur format :

• Les mainframes (en français ordinateurs centraux), ordinateurs possédant une grande
puissance de calcul, des capacités d'entrée-sortie gigantesques et un haut niveau de fiabilité. Les
mainframes sont utilisés dans de grandes entreprises pour effectuer des opérations lourdes de calcul
ou de traitement de données volumineuses. Les mainframes sont généralement utilisés dans des
architectures centralisées, dont ils sont le coeur.
• Les ordinateurs personnels, parmi lesquels on distingue :
• Les ordinateurs de bureau (en anglais desktop computers), composés d'un boîtier
renfermant une carte mère et permettant de raccorder les différents périphériques tels que
l'écran .
• Les ordinateurs portables (en anglais laptop ou notebooks), composé d'un boîtier
intégrant un écran dépliable, un clavier et un grand nombre de périphériques incorporés.
• Les tablettes PC (en anglais tablet PC, également appelées ardoises électroniques), composées
d'un boîtier intégrant un écran tactile ainsi qu'un certain nombre de périphériques incorporés.
• Les centres multimédia (Media Center), représentant une plate-forme matérielle, destinée à une
utilisation dans le salon pour le pilotage des éléments hifi (chaîne hifi, téléviseur, platine DVD, etc.).
• Les assistants personnels (appelés PDA, pour Personal digital Assistant, ou encore handheld,
littéralement «tenu dans la main»), parfois encore qualifiés d'organiseur (en anglais organizer) ou
d'agenda électronique, sont des ordinateurs de poche proposant des fonctionnalités liées à
l'organisation personnelle. Ils peuvent être dotés des fonctions d’un téléphone portable. On parle alors
souvent dans ce cas de smartphone.
• Enfin, les netbooks sont des ordinateurs portables dotés d’un écran de petite dimension
(généralement 12") et dont on a remplacé le disque dur par de la mémoire flash, afin de réduire la
consommation électrique (et le coût).

Ordinateur portable (ou laptop)


Lecture de DVD, jeu vidéo, traitement d'images 3D... L'ordinateur portable possède des fonctions
multimédia et des capacités qui rivalisent sans problème avec celles d'un ordinateur de bureau. En outre,
du fait de sa mobilité, son usage s'en retrouve multiple et varié. Transportable, portable, ultra
portableou mini portable, il existe autant de formats que d'usages. Avec l'apparition du mini portable
ou netbook, c'est l'avènement de la portabilité informatique.

1. 1. Présentation
2. 2. Usages
3. 3. L'écran
4. 4. Le processeur
5. 5. Le disque dur
6. 6. La carte graphique
7. 7. Lecteur graveur
8. 8. Souris et clavier
9. A voir aussi
10. Ressources sur le même sujet

1. Présentation
- Du tout en un
Un ordinateur portable (en anglais laptop ou notebook) est un ordinateur personnel dont la caractéristique
essentielle réside dans la portabilité. A la différence d'un ordinateur fixe, il ne dispose pas d'unité
centrale. Un ordinateur portable est composé de plusieurs éléments permettant son fonctionnement : le
processeur, la carte mère, le disque dur... d'un clavier, d'un écran et d'une souris.
- Des prix variables
Tous ces éléments sont compactés à l'intérieur d'un boitier de faible dimension, d'où le prix généralement
plus élevé d'un ordinateur portable par rapport à un ordinateur fixe. Exception faite pour les minis
portables dont les capacités de base permettent un coût moindre.
- La légèreté : un atout de poids
La taille moyenne d'un portable est de 35 cm de large sur 27cm de profondeur, et de 25 cm sur 17 cm
pour un mini portable. Il existe des ordinateurs portables de grandes dimensions : 40 cm de largeur sur
30 cm de profondeur. Il s'agit en fait de PC transportables dont le poids avoisine souvent les 4kg. La taille
allant de paire avec le poids, plus un ordinateur est petit, plus il est léger et facile à transporter.
- Des pièces intégrées
Comme la plupart des pièces sont intégrées, elles ne peuvent être changées. Il est donc nécessaire de
bien connaître les caractéristiques techniques d'un portable et l'usage que l'on souhaite en faire avant de
l'acquérir. En outre, l'intégration de toutes les pièces par le constructeur permet de minimiser les risques
d'incompatibilités matérielles.
- Autonomie
L'intérêt d'un ordinateur portable est d'être autonome le plus longtemps possible sans avoir besoin d'être
branché sur secteur. Il fonctionne avec une batterie rechargeable sur secteur.

2. Usages
La mobilité et l'encombrement réduit de l'ordinateur portable présentent des intérêts certains au niveau de
son utilisation. Limité au départ à un strict usage bureautique et professionnel, l'ordinateur portable a
évolué vers un usage multimédia complet et extrêmement varié proche du PC fixe : retouche photo, jeux
vidéo, lecture de DVD... Avec le netbook, le portable est revenu à un usage simplifié, mettant l'accent sur
la connexion et la mobilité.

• Avec l'émergence des réseaux sans fil, les pros de la communication peuvent se connecter avec
leur portable depuis presque n'importe quelle zone, du moment qu'elle soit couverte par le WiFi ou la
3G. Petits et légers, les ultraportables et les miniportables / netbook permettent aux nomades de se
connecter au net pour dialoguer sur leur messagerie instantanée, consulter leurs mails, effectuer des
tâches bureautiques simples depuis un café, un train, une salle d'attente équipés Wifi. En se glissant
aisément dans un sac à main, le netbook a su en outre conquérir un large public féminin.
• Joueurs et cinéphiles peuvent s'adonner à leurs passions, où qu'ils soient, sur un portable doté
d'un écran confortable (15" pour un portable, jusqu'à 20" pour un transportable), d'une carte graphique
performante et d'un processeur puissant.
• Mémoire, puissance de calcul... Avec un ordinateur portable pourvu d'un disque dur et d'un
processeur puissants, les professionnels en déplacement peuvent utiliser les mêmes fonctions que
leur ordinateur de bureau et gérer plusieurs logiciels.
• Montage vidéo, traitement photo, mixage de sons... toutes ces applications multimédias sont
également rendues possibles en dehors de chez soi avec des portables qui conjuguent capacité de
stockage importante et vitesse d'exécution. Le nombre d'entrées et de sorties permettent par ailleurs
une grande interactivité avec les accessoires high-tech : les ports USB 2 pour un téléphone mobile,
une clé USB, un appareil photo numérique, un disque dur externe... Le port Firewire (ou IEEE 1394)
pour un caméscope numérique (dont le débit est plus important qu'un port USB), une sortie VGA pour
un moniteur externe, un connecteur S-Vidéo pour la télé...

3. L'écran
• La taille

La taille d'un écran fait partie des critères déterminants dans le choix d'un ordinateur portable. Elle est
souvent corrélée au poids et à la taille de la machine.
Si vous souhaitez vous limiter à un usage bureautique simple, l'achat d'un portable à écran large n'est
peut-être pas justifié.
En revanche si vous voulez un portable pour visionner des films, choisissez un portable à écran
confortable pour vos yeux.
De 10" pour un mini portable / netbook jusqu'à 20" pour un transportable, la taille moyenne d'un écran
d'ordinateur portable est de 15" (1 pouce = 2,54 cm).

• Le format

Le format d'affichage le plus courant est en 4/3 (format télé normal) mais il existe des formats d'écrans
d'ordinateurs portables exotiques, proches du 16:9, tel que le format 15:10, plus adapté à la visualisation
de séquences vidéo (lecture de DVD par exemple).

• Le temps de réponse

D'un point de vue technologique, la plupart des écrans d'ordinateurs portables sont plats et TFT (Thin
Film Transistor) utilisant un affichage LCD (à cristaux liquides). La qualité d'un écran TFT dépend de son
temps de réponse ou latence, c'est-à-dire le temps nécessaire pour descendre et remonter des
informations. Plus le temps de réponse indiqué est bas (en dessous de 20 ms), meilleur il est, plus fluides
sont les images animées. Les écrans à faible de temps de réponse sont plutôt indiqués pour les joueurs
et les écrans dont le temps de réponse est supérieur à 20 ms convient plus à un usage basique.

4. Le processeur
• La fréquence

Le processeur est le cerveau de l'ordinateur, c'est lui qui traite les instructions. Sa vitesse d'exécution est
conditionnée par sa fréquence (en MHz), mais deux processeurs de marques différentes peuvent avoir
des performances tout à fait équivalentes avec des fréquences très différentes.
Pour un usage gourmand en logiciels et en applications multimédias, un ordinateur avec un processeur
puissant (avec une fréquence > 2,4Ghz) est recommandé.
Pour une utilisation plus basique, un processeur de gamme moyenne (=2Ghz) suffit.
Mais aujourd'hui, il vaut mieux considérer la qualité de l'ensemble des composants (carte graphique,
mémoire) que s'en tenir à la seule valeur de la fréquence du processeur.

• La mémoire vive

La quantité de mémoire vive peut avoir une importance considérable sur les performances, notamment
pour des usages multimédias. Elle sert uniquement de zone de transit d'informations (lorsque vous
allumez ou téléchargez un programme par exemple).

• La fréquence de fonctionnement

Outre la quantité de mémoire, il est également important d'être attentif également à sa fréquence de
fonctionnement, correspondant à la fréquence à laquelle vont tourner la plupart des périphériques.

5. Le disque dur
• Capacité

C'est la mémoire de l'ordinateur, le lieu où sont stockés les données et les programmes de l'ordinateur.
On s'intéresse à sa capacité : à partir de 160Go on évite les risques de saturation, à partir de 320Go, on
rejoint l'utilisation d'un PC fixe.
Vous pouvez étendre autant que besoin la capacité de stockage de votre ordinateur portable grâce à un
disque dur externe ou une clé USB (certaines montent jusqu'à 64Go).
Des marques de miniportables ont fait le choix de fonctionner avec un disque dur à mémoire flash (SSD),
ce qui les rend plus résistant aux chocs, plus légers aussi. Leur usage - limité à de la bureautique légère
et à la connexion - peut être enrichi avec des applications multimédias stockées sur une clé USB ou un
disque dur externe.

• Vitesse d'exécution

Pour un confort d'utilisation, on recommande une vitesse de rotation de 5 400 tours/minute minimum
(jusqu'à 7 200 tours/minute).

6. La carte graphique
Le choix de la carte graphique est important, surtout pour faire tourner des jeux vidéo aux graphismes
élaborés, regarder des films, faire de la PAO ou gérer des images en 3D. Comme elle est intégrée à la
carte mère, il vaut mieux vérifier au préalable sa puissance. Les joueurs ont tout intérêt à choisir un
portable avec une carte graphique de marque, compatible avec des programmes indispensables aux
animations comme DirectX 9.

7. Lecteur graveur
Devenus standard, les graveurs DVD double couche ont remplacé peu à peu les combos lecteurs CD et
DVD et graveurs CD. Ils permettent de conserver sur un seul et même support plusieurs Go de données.
Certains portables intègrent même des lecteurs ou lecteur/graveur HD/DVD ou Blu-ray avec des
capacités de stockage allant de 30 Go à 50 Go et plus.

8. Souris et clavier
Si l'ordinateur portable intègre un clavier et un touchpad (pavé tactile), rien n'empêche l'ajout de
périphériques plus confortables. Il existe des « souris de poche » adaptées au format des portables et
miniportables avec un enrouleur de fil intégré et des claviers ergonomiques plus spacieux permettant une
meilleure frappe sur les touches.

A voir aussi
Lors de l'achat d'un ordinateur portable, outre le choix des éléments matériels, il est notamment important
de veiller aux caractéristiques suivantes :

• La température de fonctionnement : Le fonctionnement des différents éléments de l'ordinateur


portable (notamment le processeur) induit une augmentation de la température de l'ordinateur
portable pouvant parfois être gênante (en particulier lorsque la température du clavier devient trop
importante).

Il peut exister un danger dû à la surchauffe, accentué notamment lorsque


l'ordinateur portable fonctionne avec l'écran fermé, car celui-ci peut
empêcher une bonne dissipation thermique.

• Le bruit : Afin de dissiper la chaleur due au fonctionnement des différents éléments de


l'ordinateur portable (notamment le processeur), les ordinateurs portables sont parfois équipés de
dispositifs d'évacuation de la chaleur tels que des ventilateurs, pouvant créer une gêne auditive
importante. Il en est de même pour les moteurs entraînant la rotation des disques durs ou du
lecteur/graveur de CD/DVD. Il convient donc de se renseigner sur le niveau de bruit de l'ordinateur en
fonctionnement.
• Garantie : L'achat d'un ordinateur portable est un investissement important, il est donc essentiel
de se prémunir des risques liés à un dysfonctionnement en souscrivant à une garantie. La garantie
est d'autant plus essentielle sur un ordinateur portable qu'il n'est pas possible d'interchanger des
éléments (carte graphique, carte son, etc.) comme cela peut être le cas sur des ordinateurs de
bureau. La plupart des offres incluent de facto une garantie de quelques mois à un an, mais il peut
être avisé de prendre une extension de garantie de quelques années afin de couvrir le maximum de
risques.

Veillez à vous renseigner sur le type de dommages couverts par la garantie.


Les batteries sont notamment rarement couvertes.

• L'offre logicielle : Les ordinateurs portables sont presque systématiquement équipés


d'un système d'exploitation à l'achat mais certaines offres incluent également un bouquet de logiciels
tels que des outils de bureautique, une encyclopédie ou encore un antivirus qui peuvent s'avérer
utiles. Il peut donc être intéressant de prendre en compte cet aspect lors de l'achat d'un micro
portable.
• La housse de protection : Lorsque l'ordinateur portable est destiné à un usage nomade, une
mallette de transport est nécessaire afin de le protéger et de le transporter ainsi que l'ensemble de
ses accessoires.

Par ailleurs il est vivement conseillé d'investir dans un câble de sécurité (Kensington ComboSaver)
permettant d'attacher l'ordinateur portable à un élément de mobilier fixe grâce à l'encoche standard
présente sur la quasi-totalité des appareils du marché.
PDA
Introduction aux PDA
Un PDA (Personal Digital Assistant, littéralement assistant numérique personnel, aussi appeléorganiseur)
est un ordinateur de poche composé d'un processeur, de mémoire vive, d'un écran tactile et de
fonctionnalités réseau dans un boîtier compact d'extrêmement petite taille.

Utilité du PDA
Le PDA est un ordinateur de poche dont l'usage est prévu originalement dans un but d'organisation.
Un assistant personnel fournit donc généralement en standard les application suivantes :

• Un agenda, pour l'organisation de l'emploi du temps, avec des mécanismes de rappel visuels ou
auditifs. Les rendez-vous et événements planifiés dans l'agenda peuvent être contextualisés, afin de
répondre à des besoins tant professionnels que personnels, grâce à une classification adaptable
(bureau, privé, etc.)
• Un gestionnaire de tâches faisant office d'aide-mémoire pour les tâches à effectuer. Une
priorité, des dates limites ou des mécanismes de rappel peuvent être affectées à chaque tâche.
• Un carnet d'adresses (gestionnaires de contacts), permettant d'avoir à tout moment sous la
mains les coordonnées de ses contacts (numéro de téléphone, adresse postale, adresse de
messagerie, etc.).
• Un logiciel de messagerie, rendant possible la consultation de ses méls ainsi que la rédaction de
nouveaux messages.

Les assistants personnels proposent des outils de bureautique allégés tels qu'un traitement de texte, un
tableur, une calculatrice, des visualiseurs pour un grand nombre de formats de fichiers (fichiers PDF,
images, etc.).

En plus de ces fonctions de base, de plus en plus de PDA proposent des outils multimédias avancés
permettant de lire des vidéos (dans les différents formats, y compris le format DivX), des musiques
(notamment au format mp3) ou des animations Flash.

Les PDA sont également de plus en plus utilisés pour des usages de géolocalisation, de cartographie et
de navigation routière lorsqu'ils sont couplés à un dispositif de géolocalisation (GPS, Global Positionning
System). En effet, pour un faible coût il est possible de disposer d'un système GPS embarqué très
performant permettant une navigation routière à l'aide d'une carte indiquant en permanence sa position,
la vitesse et une représentation visuelle de la route (éventuellement en 3D) avec des instructions à
l'écran et dictées par une voix de synthèse.
Système d'exploitation
Les PDA possèdent des systèmes d'exploitation dont la définition est adaptée à la résolution d'affichage
de l'écran et dont les fonctionnalités correspondent aux caractéristiques de ce type d'appareil.
Il existe plusieurs systèmes d'exploitation pour PDA, correspondant la plupart du temps à des types de
PDA différents et portés par des constructeurs différents, au même titre qu'il existe des ordinateurs Mac
et PC. Les deux principaux systèmes sont :

• PalmOS, promu par la société Palm.


• Windows Mobile ou Pocket PC (anciennement Windows CE), promu par la société Microsoft.

Ces deux systèmes possèdent à peu près les mêmes caractéristiques et les mêmes fonctionnalités avec
une prise en main différentes mais surtout des applications incompatibles entre les deux systèmes.

Il est à noter qu'il existe des systèmes d'exploitation Linux développés spécifiquement pour les deux
types de machines.

Caractéristiques techniques
Lors de l'achat d'un PDA il est notamment important de veiller aux caractéristiques suivantes :

• poids et dimensions : Le PDA est destiné à être emporté partout et doit donc tenir dans la main
ou la poche. Ses dimensions et son poids doivent donc être choisis les plus petits possible, en
gardant à l'esprit le besoin d'ergonomie et de surface d'affichage.
• autonomie : L'autonomie du PDA est fonction des caractéristiques de la batterie.
• Ni-Cad (Nickel / Cadmium) : type de batterie rechargeable devenu obsolète car
souffrant de l'effet mémoire, c'est-à-dire une baisse progressive de la charge maximale lorsque
celle-ci est rechargée alors qu'elle n'est pas complétement "à plat".
• Ni-Mh (Nickel / Métal Hybride): type de batterie rechargeable plus performant que les
batteries Nickel-Cadmium.
• Li-Ion (Lithium / Ion): type de batterie rechargeable équipant la majorité des
ordinateurs portables. Les batteries Li-Ion offrent d'excellentes performances pour un coût
modeste. D'autre part les batteries Li-Ion ne souffrent pas de l'effet mémoire, ce qui signifie qu'il
n'est pas nécessaire de vider complétement la batterie avant de recharger l'appareil.
• Li-Polymer (Lithium / Polymère) : type de batterie rechargeable ayant des
performances équivalentes aux batteries Li-Ion mais beaucoup plus légères dans la mesure où
le liquide électrolytique et le séparateur microporeux des batteries Li-Ion sont remplacés par un
polymère solide, beaucoup plus léger. En contrepartie le temps de charge est plus important et
leur durée de vie est plus faible.

Attention aux pertes de données lorsque la batterie est totalement vidée !

Processeur
1. Présentation
2. Fonctionnement
3. Instruction
4. Registres
5. Mémoire cache
6. Signaux de commande
7. Unités fonctionnelles
8. Transistor
9. Circuits intégrés
10. Familles
11. Jeu d'instruction
12. Architecture CISC
13. Architecture RISC
14. Améliorations technologiques
15. Le parallélisme
16. Le pipeline
17. Technologie superscalaire
18. HyperThreading
19. Multi-coeur
20. Ressources sur le même sujet

Présentation
Le processeur (CPU, pour Central Processing Unit, soit Unité Centrale de Traitement) est le cerveau de
l'ordinateur. Il permet de manipuler des informations numériques, c'est-à-dire des informations codées
sous forme binaire, et d'exécuter les instructions stockées en mémoire.

Le premier microprocesseur (Intel 4004) a été inventé en 1971. Il s'agissait d'une unité de calcul de 4
bits, cadencé à 108 kHz. Depuis, la puissance des microprocesseurs augmente exponentiellement. Quels
sont donc ces petits morceaux de silicium qui dirigent nos ordinateurs?

Fonctionnement
Le processeur (noté CPU, pour Central Processing Unit) est un circuit électronique cadencé au rythme
d'une horloge interne, grâce à un cristal de quartz qui, soumis à un courant électrique, envoie des
impulsions, appelées « top ». La fréquence d'horloge (appelée également cycle, correspondant au
nombre d'impulsions par seconde, s'exprime en Hertz (Hz). Ainsi, un ordinateur à 200 MHz possède une
horloge envoyant 200 000 000 de battements par seconde. La fréquence d'horloge est généralement un
multiple de la fréquence du système (FSB, Front-Side Bus), c'est-à-dire un multiple de la fréquence de
lacarte mère

A chaque top d'horloge le processeur exécute une action, correspondant à une instruction ou une partie
d'instruction. L'indicateur appelé CPI (Cycles Par Instruction) permet de représenter le nombre moyen de
cycles d'horloge nécessaire à l'exécution d'une instruction sur un microprocesseur. La puissance du
processeur peut ainsi être caractérisée par le nombre d'instructions qu'il est capable de traiter par
seconde. L'unité utilisée est le MIPS (Millions d'Instructions Par Seconde) correspondant à la fréquence
du processeur que divise le CPI.
Instruction
Une instruction est l'opération élémentaire que le processeur peut accomplir. Les instructions sont
stockées dans la mémoire principale, en vue d'être traitée par le processeur. Une instruction est
composée de deux champs :
• le code opération, représentant l'action que le processeur doit accomplir ;
• le code opérande, définissant les paramètres de l'action. Le code opérande dépend de
l'opération. Il peut s'agir d'une donnée ou bien d'une adresse mémoire.

Code Champ
opération opérande

Le nombre d'octets d'une instruction est variable selon le type de donnée (l'ordre de grandeur est de 1 à
4 octets).

Les instructions peuvent être classées en catégories dont les principales sont :

• Accès à la mémoire : des accès à la mémoire ou transferts de données entre registres.


• Opérations arithmétiques : opérations telles que les additions, soustractions, divisions ou
multiplication.
• Opérations logiques : opérations ET, OU, NON, NON exclusif, etc.
• Contrôle : contrôles de séquence, branchements conditionnels, etc.

Registres
Lorsque le processeur exécute des instructions, les données sont temporairement stockées dans de
petites mémoires rapides de 8, 16, 32 ou 64 bits que l'on appelle registres. Suivant le type de
processeur le nombre global de registres peut varier d'une dizaine à plusieurs centaines.

Les registres principaux sont :

• le registre accumulateur (ACC), stockant les résultats des opérations arithmétiques et


logiques ;
• le registre d'état (PSW, Processor Status Word), permettant de stocker des indicateurs sur l'état
du système (retenue, dépassement, etc.) ;
• le registre instruction (RI), contenant l'instruction en cours de traitement ;
• le compteur ordinal (CO ou PC pour Program Counter), contenant l'adresse de la prochaine
instruction à traiter ;
• le registre tampon, stockant temporairement une donnée provenant de la mémoire.

Mémoire cache
La mémoire cache (également appelée antémémoire ou mémoire tampon) est une mémoire rapide
permettant de réduire les délais d'attente des informations stockées en mémoire vive. En effet,
la mémoire centrale de l'ordinateur possède une vitesse bien moins importante que le processeur. Il
existe néanmoins des mémoires beaucoup plus rapides, mais dont le coût est très élevé. La solution
consiste donc à inclure ce type de mémoire rapide à proximité du processeur et d'y stocker
temporairement les principales données devant être traitées par le processeur. Les ordinateurs récents
possèdent plusieurs niveaux de mémoire cache :
• La mémoire cache de premier niveau (appelée L1 Cache, pour Level 1 Cache) est
directement intégrée dans le processeur. Elle se subdivise en 2 parties :
• La première est le cache d'instructions, qui contient les instructions issues de la
mémoire vive décodées lors de passage dans les pipelines.
• La seconde est le cache de données, qui contient des données issues de la mémoire
vive et les données récement utilisées lors des opérations du processeur.

Les caches du premier niveau sont très rapides d'accés. Leur délai d'accès tend à s'approcher de celui
des registres internes aux processeurs.

• La mémoire cache de second niveau (appelée L2 Cache, pour Level 2 Cache) est située au
niveau du boîtier contenant le processeur (dans la puce). Le cache de second niveau vient s'intercaler
entre le processeur avec son cache interne et la mémoire vive. Il est plus rapide d'accès que cette
dernière mais moins rapide que le cache de premier niveau.
• La mémoire cache de troisième niveau (appelée L3 Cache, pour Level 3 Cache) est située au
niveau de la carte mère.

Tous ces niveaux de cache permettent de réduire les temps de latence des différentes mémoires lors du
traitement et du transfert des informations. Pendant que le processeur travaille, le contrôleur de cache de
premier niveau peut s'interfacer avec celui de second niveau pour faire des transferts d'informations sans
bloquer le processeur. De même, le cache de second niveau est interfacé avec celui de la mémoire
vive(cache de troisième niveau), pour permettre des transferts sans bloquer le fonctionnement normal du
processeur.

Signaux de commande
Les signaux de commande sont des signaux électriques permettant d'orchestrer les différentes unités
du processeur participant à l'exécution d'une instruction. Les signaux de commandes sont distribués
grâce à un élément appelé séquenceur. Le signal Read / Write, en français lecture / écriture, permet par
exemple de signaler à la mémoire que le processeur désire lire ou écrire une information.

Unités fonctionnelles
Le processeur est constitué d'un ensemble d'unités fonctionnelles reliées entre elles. L'architecture d'un
microprocesseur est très variable d'une architecture à une autre, cependant les principaux éléments d'un
microprocesseur sont les suivants :

• Une unité d'instruction (ou unité de commande, en anglais control unit) qui lit les données
arrivant, les décode puis les envoie à l'unité d'exécution ;L'unité d'instruction est notamment
constituée des éléments suivants :
• séquenceur (ou bloc logique de commande) chargé de synchroniser l'exécution des
instructions au rythme d'une horloge. Il est ainsi chargé de l'envoi des signaux de commande ;
• compteur ordinal contenant l'adresse de l'instruction en cours ;
• registre d'instruction contenant l'instruction suivante.
• Une unité d'exécution (ou unité de traitement), qui accomplit les tâches que lui a données l'unité
d'instruction. L'unité d'exécution est notamment composée des éléments suivants :
• L'unité arithmétique et logique (notée UAL ou en anglais ALU pour Arithmetical and
Logical Unit). L'UAL assure les fonctions basiques de calcul arithmétique et les opérations
logiques (ET, OU, Ou exclusif, etc.) ;
• L'unité de virgule flottante (notée FPU, pour Floating Point Unit), qui accomplit les
calculs complexes non entiers que ne peut réaliser l'unité arithmétique et logique.
• Le registre d'état ;
• Le registre accumulateur.
• Une unité de gestion des bus (ou unité d'entrées-sorties), qui gère les flux d'informations
entrant et sortant, en interface avec la mémoire vive du système ;

Le schéma ci-dessous donne une représentation simplifiée des éléments constituant le processeur
(l'organisation physique des éléments ne correspond pas à la réalité) :

Transistor
Pour effectuer le traitement de l'information, le microprocesseur possède un ensemble d'instructions,
appelé « jeu d'instructions », réalisées grâce à des circuits électroniques. Plus exactement, le jeu
d'instructions est réalisé à l'aide de semiconducteurs, « petits interrupteurs » utilisant l'effet transistor,
découvert en 1947 par John Barden, Walter H. Brattain et William Shockley qui reçurent le prix Nobel en
1956 pour cette découverte.

Un transistor (contraction de transfer resistor, en français résistance de transfert) est un composant


électronique semi-conducteur, possédant trois électrodes, capable de modifier le courant qui le traverse à
l'aide d'une de ses électrodes (appelée électrode de commande). On parle ainsi de «composant actif»,
par opposition aux « composants passifs », tels que la résistance ou le condensateur, ne possédant que
deux électrodes (on parle de « bipolaire »).

Le transistor MOS (métal, oxyde, silicium) est le type de transistor majoritairement utilisé pour la
conception de circuits intégrés. Le transistor MOS est composé de deux zones chargées négativement,
appelées respectivement source (possédant un potentiel quasi-nul) et drain (possédant un potentiel de
5V), séparées par une région chargée positivement, appelée substrat (en anglais substrate). Le substrat
est surmonté d'une électrode de commande, appelée porte (en anglais gate, parfois également
appeléegrille), permettant d'appliquer une tension sur le substrat.

Lorsqu'aucune tension n'est appliquée à l'électrode de commande, le substrat chargé positivement agit
telle une barrière et empêche les électrons d'aller de la source vers le drain. En revanche, lorsqu'une
tension est appliquée à la porte, les charges positives du substrat sont repoussées et il s'établit un canal
de communication, chargé négativement, reliant la source au drain.

Le transistor agit donc globalement comme un interrupteur programmable grâce à l'électrode de


commande. Lorsqu'une tension est appliquée à l'électrode de commande, il agit comme un interrupteur
fermé, dans le cas contraire comme un interrupteur ouvert.

Circuits intégrés
Assemblés, les transistors peuvent constituer des circuits logiques, qui, assemblés à leur tour, constituent
des processeurs. Le premier circuit intégré date de 1958 et a été mis au point par la sociétéTexas
Instruments.

Les transistors MOS sont ainsi réalisés dans des tranches de silicium (appelées wafer, traduisezgaufres),
obtenues après des traitements successifs. Ces tranches de silicium sont alors découpées en éléments
rectangulaires, constituant ce que l'on appelle un « circuit ». Les circuits sont ensuite placés dans des
boîtiers comportant des connecteurs d'entrée-sortie, le tout constituant un « circuit intégré ». La finesse
de la gravure, exprimée en microns (micromètres, notés µm), définit le nombre de transistors par unité de
surface. Il peut ainsi exister jusqu'à plusieurs millions de transistors sur un seul processeur.
La loi de Moore, édictée en 1965 par Gordon E. Moore, cofondateur de la société Intel, prévoyait que les
performances des processeurs (par extension le nombre de transistors intégrés sur silicium) doubleraient
tous les 12 mois. Cette loi a été révisée en 1975, portant le nombre de mois à 18. La loi de Moore se
vérifie encore aujourd'hui.

Dans la mesure où le boîtier rectangulaire possède des broches d'entrée-sortie ressemblant à des pattes,
le terme de « puce électronique » est couramment employé pour désigner les circuits intégrés.

Familles
Chaque type de processeur possède son propre jeu d'instruction. On distingue ainsi les familles de
processeurs suivants, possédant chacun un jeu d'instruction qui leur est propre :

• 80x86 : le « x » représente la famille. On parle ainsi de 386, 486, 586, 686, etc.
• ARM
• IA-64
• MIPS
• Motorola 6800
• PowerPC
• SPARC
• ...

Cela explique qu'un programme réalisé pour un type de processeur ne puisse fonctionner directement sur
un système possédant un autre type de processeur, à moins d'une traduction des instructions,
appeléeémulation. Le terme « émulateur » est utilisé pour désigner le programme réalisant cette
traduction.

Jeu d'instruction
On appelle jeu d'instructions l'ensemble des opérations élémentaires qu'un processeur peut accomplir.
Le jeu d'instruction d'un processeur détermine ainsi son architecture, sachant qu'une même architecture
peut aboutir à des implémentations différentes selon les constructeurs.

Le processeur travaille effectivement grâce à un nombre limité de fonctions, directement câblées sur les
circuits électroniques. La plupart des opérations peuvent être réalisé à l'aide de fonctions basiques.
Certaines architectures incluent néanmoins des fonctions évoluées courante dans le processeur.

Architecture CISC
L'architecture CISC (Complex Instruction Set Computer, soit « ordinateur à jeu d'instruction complexe »)
consiste à câbler dans le processeur des instructions complexes, difficiles à créer à partir des instructions
de base.

L'architecture CISC est utilisée en particulier par les processeurs de type 80x86. Ce type d'architecture
possède un coût élevé dû aux fonctions évoluées imprimées sur le silicium.

D'autre part, les instructions sont de longueurs variables et peuvent parfois nécessiter plus d'un cycle
d'horloge. Or, un processeur basé sur l'architecture CISC ne peut traîter qu'une instruction à la fois, d'où
un temps d'exécution conséquent.
Architecture RISC
Un processeur utilisant la technologie RISC (Reduced Instruction Set Computer, soit « ordinateur à jeu
d'instructions réduit ») n'a pas de fonctions évoluées câblées.

Les programmes doivent ainsi être traduits en instructions simples, ce qui entraîne un développement
plus difficile et/ou un compilateur plus puissant. Une telle architecture possède un coût de fabrication
réduit par rapport aux processeurs CISC. De plus, les instructions, simples par nature, sont exécutées en
un seul cycle d'horloge, ce qui rend l'exécution des programmes plus rapide qu'avec des processeurs
basés sur une architecture CISC. Enfin, de tels processeurs sont capables de traîter plusieurs
instructions simultanément en les traitant en parallèle.

Améliorations technologiques
Au cours des années, les constructeurs de microprocesseurs (appelés fondeurs), ont mis au point un
certain nombre d'améliorations permettant d'optimiser le fonctionnement du processeur.

Le parallélisme
Le parallélisme consiste à exécuter simultanément, sur des processeurs différents, des instructions
relatives à un même programme. Cela se traduit par le découpage d'un programme en plusieurs
processus traités en parallèle afin de gagner en temps d'exécution.

Ce type de technologie nécessite toutefois une synchronisation et une communication entre les différents
processus, à la manière du découpage des tâches dans une entreprise : le travail est divisé en petits
processus distincts, traités par des services différents. Le fonctionnement d'une telle entreprise peut être
très perturbé lorsque la communication entre les services ne fonctionne pas correctement.

Le pipeline
Le pipeline (ou pipelining) est une technologie visant à permettre une plus grande vitesse d'exécution
des instructions en parallélisant des étapes.

Pour comprendre le mécanisme du pipeline, il est nécessaire au préalable de comprendre les phases
d'exécution d'une instruction. Les phases d'exécution d'une instruction pour un processeur contenant un
pipeline « classique » à 5 étages sont les suivantes :

• LI : (Lecture de l'Instruction (en anglais FETCH instruction) depuis le cache ;


• DI : Décodage de l'Instruction (DECODe instruction) et recherche des opérandes (Registre ou
valeurs immédiate);
• EX : Exécution de l'Instruction (EXECute instruction) (si ADD, on fait la somme, si SUB, on fait la
soustraction, etc.);
• MEM : Accès mémoire (MEMory access), écriture dans la mémoire si nécéssaire ou chargement
depuis la mémoire ;
• ER : Ecriture (Write instruction) de la valeur calculée dans les registres.

Les instructions sont organisées en file d'attente dans la mémoire, et sont chargées les unes après les
autres.
Grâce au pipeline, le traitement des instructions nécessite au maximum les cinq étapes précédentes.
Dans la mesure où l'ordre de ces étapes est invariable (LI, DI, EX, MEM et ER), il est possible de créer
dans le processeur un certain nombre de circuits spécialisés pour chacune de ces phases.

L'objectif du pipeline est d'être capable de réaliser chaque étape en parallèle avec les étapes amont et
aval, c'est-à-dire de pouvoir lire une instruction (LI) lorsque la précédente est en cours de décodage (DI),
que celle d'avant est en cours d'exécution (EX), que celle située encore précédemment accède à la
mémoire (MEM) et enfin que la première de la série est déjè en cours d'écriture dans les registres (ER).

Il faut compter en général 1 à 2 cycles d'horloge (rarement plus) pour chaque phase du pipeline, soit 10
cycles d'horloge maximum par instruction. Pour deux instructions, 12 cycles d'horloge maximum seront
nécessaires (10+2=12 au lieu de 10*2=20), car la précédente instruction était déjà dans le pipeline. Les
deux instructions sont donc en traitement dans le processeur, avec un décalage d'un ou deux cycles
d'horloge). Pour 3 instructions, 14 cycles d'horloge seront ainsi nécessaires, etc.

Le principe du pipeline est ainsi comparable avec une chaîne de production de voitures. La voiture passe
d'un poste de travail à un autre en suivant la chaîne de montage et sort complètement assemblée à la
sortie du bâtiment. Pour bien comprendre le principe, il est nécessaire de regarder la chaîne dans son
ensemble, et non pas véhicule par véhicule. Il faut ainsi 3 heures pour faire une voiture, mais pourtant
une voiture est produite toute les minutes !

Il faut noter toutefois qu'il existe différents types de pipelines, de 2 à 40 étages, mais le principe reste le
même.

Technologie superscalaire
La technologie superscalaire (en anglais superscaling) consiste à disposer plusieurs unités de traitement
en parallèle afin de pouvoir traiter plusieurs instructions par cycle.

HyperThreading
La technologie HyperThreading (ou Hyper-Threading, noté HT, traduisez HyperFlots ou HyperFlux)
consiste à définir deux processeurs logiques au sein d'un processeur physique. Ainsi, le système
reconnaît deux processeurs physiques et se comporte en système multitâche en envoyant deux thréads
simultanés, on parle alors de SMT (Simultaneous Multi Threading). Cette « supercherie » permet d'utiliser
au mieux les ressources du processeur en garantissant que des données lui sont envoyées en masse.

Multi-coeur
Un processeur multi-coeur est tout simplement un processeur composé non pas de 1 mais de 2 (ou 4
ou 8) unités de calcul. Ainsi, pour un processeur bi-coeur (ou DualCore) le processeur dispose à
fréquence d'horloge égale d'une puissance de calcul deux fois plus importante. Pour autant, le gain n'est
pas systématiquement visible. En effet, il faut que les logiciels et les systèmes d'exploitation sachent
gérer correctement ces processeurs afin qu'un gain significatif soit perceptible. Ainsi, sous Windows, seul
Vista et Sept exploitent correctement ces processeurs. Dans ce cas, la version 64 bits est conseillée.

Carte mère
1. Présentation de la carte mère
2. Caractéristiques
3. Facteur d'encombrement d'une carte mère
4. Composants intégrés
5. Le chipset
6. L'horloge et la pile du CMOS
7. Le BIOS
8. Le support de processeur
9. Les connecteurs de mémoire vive
10. Les connecteurs d'extension
11. Les connecteurs d'entrée-sortie
12. Ressources sur le même sujet

Présentation de la carte mère


L'élément constitutif principal de l'ordinateur est la carte mère (en anglais « mainboard » ou
«motherboard », parfois abrégé en « mobo »). La carte mère est le socle permettant la connexion de
l'ensemble des éléments essentiels de l'ordinateur.
Comme son nom l'indique, la carte mère est une carte maîtresse, prenant la forme d'un grand circuit
imprimé possédant notamment des connecteurs pour les cartes d'extension, les barrettes de mémoires,
le processeur, etc.

Caractéristiques
Il existe plusieurs façons de caractériser une carte mère, notamment selon les caractéristiques
suivantes :

• le facteur d'encombrement,
• le chipset,
• le type de support de processeur,
• les connecteurs d'entrée-sortie.

Facteur d'encombrement d'une carte mère


On désigne généralement par le terme « facteur d'encombrement » (ou facteur de forme, en
anglaisform factor), la géométrie, les dimensions, l'agencement et les caractéristiques électriques de la
carte mère. Afin de fournir des cartes mères pouvant s'adapter dans différents boîtiers de marques
différentes, des standards ont été mis au point :
• AT baby / AT full format est un format utilisé sur les premiers ordinateurs PC du type 386 ou
486. Ce format a été remplacé par le format ATX possédant une forme plus propice à la circulation de
l'air et rendant l'accès aux composants plus pratique ;
• ATX : Le format ATX est une évolution du format Baby-AT. Il s'agit d'un format étudié pour
améliorer l'ergonomie. Ainsi la disposition des connecteurs sur une carte mère ATX est prévue de
manière à optimiser le branchement des périphériques (les connecteurs IDE sont par exemple situés
du côté des disques). D'autre part, les composants de la carte mère sont orientés parallèlement, de
manière à permettre une meilleure évacuation de la chaleur ;
• ATX standard : Le format ATX standard présente des dimensions classiques de
305x244 mm. Il propose un connecteur AGP et 6 connecteurs PCI.
• micro-ATX : Le format microATX est une évolution du format ATX, permettant d'en
garder les principaux avantages tout en proposant un format de plus petite dimension (244x244
mm), avec un coût réduit. Le format micro-ATX propose un connecteur AGP et 3
connecteurs PCI.
• Flex-ATX : Le format FlexATX est une extension du format microATX afin d'offrir une
certaine flexibilité aux constructeurs pour le design de leurs ordinateurs. Il propose un
connecteur AGP et 2 connecteurs PCI.
• mini-ATX : Le format miniATX est un format compact alternatif au format microATX
(284x208 mm), proposant un connecteur AGP et 4 connecteurs PCI au lieu des 3 du format
microATX. Il est principalement destiné aux ordinateurs de type mini-PC (barebone).
• BTX : Le format BTX (Balanced Technology eXtended), porté par la société Intel, est un format
prévu pour apporter quelques améliorations de l'agencement des composants afin d'optimiser la
circulation de l'air et de permettre une optimisation acoustique et thermique. Les différents
connecteurs (connecteurs de mémoire, connecteurs d'extension) sont ainsi alignés parallèlement,
dans le sens de circulation de l'air. Par ailleurs le microprocesseur est situé à l'avant du boîtier au
niveau des entrées d'aération, où l'air est le plus frais. Le connecteur d'alimentation BTX est le même
que celui des alimentations ATX. Le standard BTX définit trois formats :
• BTX standard, présentant des dimensions standard de 325x267 mm ;
• micro-BTX, de dimensions réduites (264x267 mm) ;
• pico-BTX, de dimensions extrêmement réduites (203x267 mm).
• ITX : Le format ITX (Information Technology eXtended), porté par la société Via, est un format
extrêmement compact prévu pour des configurations exigûes telles que les mini-PC. Il existe deux
principaux formats ITX :
• mini-ITX, avec des dimensions minuscules (170x170 mm) est un emplacement PCI ;
• nano-ITX, avec des dimensions extrêmement minuscules (120x120 mm) et un
emplacement miniPCI.

Ainsi, du choix d'une carte mère (et de son facteur de forme) dépend le choix du boîtier. Le tableau ci-
dessous récapitule les caractéristiques des différents facteurs de forme :

Facteur de Emplacemen
Dimensions
forme ts

305 mm x 244
ATX AGP / 6 PCI
mm

244 mm x 244
microATX AGP / 3 PCI
mm

229 mm x 191
FlexATX AGP / 2 PCI
mm

284 mm x 208
Mini ATX AGP / 4 PCI
mm

170 mm x 170
Mini ITX 1 PCI
mm

120 mm x 120
Nano ITX 1 MiniPCI
mm

325 mm x 267
BTX 7
mm

264 mm x 267
microBTX 4
mm

203 mm x 267
picoBTX 1
mm

Composants intégrés
La carte mère contient un certain nombre d'éléments embarqués, c'est-à-dire intégrés sur son circuit
imprimé :

• Le chipset, circuit qui contrôle la majorité des ressources (interface de bus du processeur,
mémoire cache et mémoire vive, slots d'extension,...),
• L'horloge et la pile du CMOS,
• Le BIOS,
• Le bus système et les bus d'extension.

En outre, les cartes mères récentes embarquent généralement un certain nombre de périphériques
multimédia et réseau pouvant être désactivés :

• carte réseau intégrée ;


• carte graphique intégrée ;
• carte son intégrée ;
• contrôleurs de disques durs évolués.

Le chipset
Le chipset (traduisez jeu de composants ou jeu de circuits) est un circuit électronique chargé de
coordonner les échanges de données entre les divers composants de l'ordinateur (processeur,
mémoire...). Dans la mesure où le chipset est intégré à la carte mère, il est important de choisir une carte
mère intégrant un chipset récent afin de maximiser les possibilités d'évolutivité de l'ordinateur.

Certains chipsets intègrent parfois une puce graphique ou une puce audio, ce qui signifie qu'il n'est pas
nécessaire d'installer une carte graphique ou une carte son. Il est toutefois parfois conseillé de les
désactiver (lorsque cela est possible) dans le setup du BIOS et d'installer des cartes d'extension de
qualité dans les emplacements prévus à cet effet.

L'horloge et la pile du CMOS


L'horloge temps réel (notée RTC, pour Real Time Clock) est un circuit chargé de la synchronisation des
signaux du système. Elle est constituée d'un cristal qui, en vibrant, donne des impulsions (appelés tops
d'horloge) afin de cadencer le système. On appelle fréquence de l'horloge (exprimée en MHz) le nombre
de vibrations du cristal par seconde, c'est-à-dire le nombre de tops d'horloge émis par seconde. Plus la
fréquence est élevée, plus le système peut traiter d'informations.

Lorsque l'ordinateur est mis hors tension, l'alimentation cesse de fournir du courant à la carte mère. Or,
lorsque l'ordinateur est rebranché, le système est toujours à l'heure. Un circuit électronique,
appelé CMOS(Complementary Metal-Oxyde Semiconductor, parfois appelé BIOS CMOS), conserve en
effet certaines informations sur le système, telles que l'heure, la date système et quelques paramètres
essentiels du système.

Le CMOS est continuellement alimenté par une pile (au format pile bouton) ou une batterie située sur la
carte mère. Ainsi, les informations sur le matériel installé dans l'ordinateur (comme par exemple le
nombre de pistes, de secteurs de chaque disque dur) sont conservées dans le CMOS. Dans la mesure
où le CMOS est une mémoire lente, certains systèmes recopient parfois le contenu du CMOS dans la
RAM (mémoire rapide), le terme de « memory shadow » est employé pour décrire ce processus de copie
en mémoire vive.

Le « complémentary metal-oxyde semiconductor », est une technologie de fabrication de transistors,


précédée de bien d'autres, telles que la TTL (« Transistor-transistor-logique »), la TTLS (TTL Schottky)
(plus rapide), ou encore le NMOS (canal négatif) et le PMOS (canal positif).

Le CMOS a permis de mettre des canaux complémentaires sur une même puce. Par rapport à la TTL ou
TTLS, le CMOS est beaucoup moins rapide, mais a consomme en revanche infiniment moins d'énergie,
d'où son emploi dans les horloges d'ordinateurs, qui sont alimentées par des piles. Le terme de CMOS
est parfois utilisé à tort pour désigner l'horloge des ordinateurs.

Lorsque l'heure du système est régulièrement réinitialisée, ou que l'horloge prend du retard, il suffit
généralement d'en changer la pile !

Le BIOS
Le BIOS (Basic Input/Output System) est le programme basique servant d'interface entre le système
d'exploitation et la carte mère. Le BIOS est stocké dans une ROM (mémoire morte, c'est-à-dire une
mémoire en lecture seule), ainsi il utilise les données contenues dans le CMOS pour connaître la
configuration matérielle du système.

Il est possible de configurer le BIOS grâce à une interface (nommée BIOS setup, traduisez configuration
du BIOS) accessible au démarrage de l'ordinateur par simple pression d'une touche (généralement la
touche Suppr. En réalité le setup du BIOS sert uniquement d'interface pour la configuration, les données
sont stockées dans le CMOS. Pour plus d'informations n'hésitez pas à vous reporter au manuel de votre
carte mère).

Le support de processeur
Le processeur (aussi appelé microprocesseur) est le cerveau de l'ordinateur. Il exécute les instructions
des programmes grâce à un jeu d'instructions. Le processeur est caractérisé par sa fréquence, c'est-à-
dire la cadence à laquelle il exécute les instructions. Ainsi, un processeur cadencé à 800 MHz effectuera
grossièrement 800 millions d'opérations par seconde.

La carte mère possède un emplacement (parfois plusieurs dans le cas de cartes mères multi-
processeurs) pour accueillir le processeur, appelé support de processeur. On distingue deux catégories
de supports :
• Slot (en français fente) : il s'agit d'un connecteur rectangulaire dans lequel on enfiche le
processeur verticalement
• Socket (en français embase) : il s'agit d'un connecteur carré possédant un grand nombre de
petits connecteurs sur lequel le processeur vient directement s'enficher

Au sein de ces deux grandes familles, il existe des version différentes du support, selon le type de
processeur. Il est essentiel, quel que soit le support, de brancher délicatement le processeur afin de ne
tordre aucune de ses broches (il en compte plusieurs centaines). Afin de faciliter son insertion, un support
appelé
ZIF (Zero Insertion Force, traduisez force d'insertion nulle) a été créé. Les supports ZIF possèdent une
petite manette, qui, lorsqu'elle est levée, permet l'insertion du processeur sans aucune pression et,
lorsqu'elle est rabaissée, maintient le processeur sur son support.

Le processeur possède généralement un détrompeur, matérialisé par un coin tronqué ou une marque de
couleur, devant être aligné avec la marque correspondante sur le support.
Dans la mesure où le processeur rayonne thermiquement, il est nécessaire d'en dissiper la chaleur pour
éviter que ses circuits ne fondent. C'est la raison pour laquelle il est généralement surmonté
d'undissipateur thermique (appelé parfois refroidisseur ou radiateur), composé d'un métal ayant une
bonne conduction thermique (cuivre ou aluminium), chargé d'augmenter la surface d'échange thermique
du microprocesseur. Le dissipateur thermique comporte une base en contact avec le processeur et des
ailettes afin d'augmenter la surface d'échange thermique. Un ventilateur accompagne généralement le
dissipateur pour améliorer la circulation de l'air autour du dissipateur et améliorer l'échange de chaleur.
Le terme « ventirad » est ainsi parfois utilisé pour désigner l'ensemble Ventilateur + Radiateur. C'est le
ventilateur du boîtier qui est chargé d'extraire l'air chaud du boîtier et permettre à l'air frais provenant de
l'extérieur d'y entrer. Pour éviter les bruits liés au ventilateur et améliorer la dissipation de chaleur, il est
également possible d'utiliser un système de refroidissement à eau (dit watercooling).

Les connecteurs de mémoire vive


La mémoire vive (RAM pour Random Access Memory) permet de stocker des informations pendant tout
le temps de fonctionnement de l'ordinateur, son contenu est par contre détruit dès lors que l'ordinateur
est éteint ou redémarré, contrairement à une mémoire de masse telle que le disque dur, capable de
garder les informations même lorsqu'il est hors tension. On parle de « volatilité » pour désigner ce
phénomène.

Pourquoi alors utiliser de la mémoire vive alors que les disques durs reviennent moins chers à capacité
égale ? La réponse est que la mémoire vive est extrêmement rapide par comparaison aux périphériques
de stockage de masse tels que le disque dur. Elle possède en effet un temps de réponse de l'ordre de
quelques dizaines de nanosecondes (environ 70 pour la DRAM, 60 pour la RAM EDO, et 10 pour la
SDRAM voire 6 ns sur les SDRam DDR) contre quelques millisecondes pour le disque dur.

La mémoire vive se présente sous la forme de barrettes qui se branchent sur les connecteurs de la carte
mère.

Les connecteurs d'extension


Les connecteurs d'extension (en anglais slots) sont des réceptacles dans lesquels il est possible
d'insérer des cartes d'extension, c'est-à-dire des cartes offrant de nouvelles fonctionnalités ou de
meilleures performances à l'ordinateur. Il existe plusieurs sortes de connecteurs :
• Connecteur ISA (Industry Standard Architecture) : permettant de connecter des cartes ISA, les
plus lentes fonctionnant en 16-bit
• Connecteur VLB (Vesa Local Bus): Bus servant autrefois à connecter des cartes graphiques
• Connecteur PCI (Peripheral Component InterConnect) : permettant de connecter des cartes PCI,
beaucoup plus rapides que les cartes ISA et fonctionnant en 32-bit
• Connecteur AGP (Accelerated Graphic Port): un connecteur rapide pour carte graphique.
• Connecteur PCI Express (Peripheral Component InterConnect Exress) : architecture de bus plus
rapide que les bus AGP et PCI.
• Connecteur AMR (Audio Modem Riser): ce type de connecteur permet de brancher des mini-
cartes sur les PC en étant équipés

Les connecteurs d'entrée-sortie


La carte mère possède un certain nombre de connecteurs d'entrées-sorties regroupés sur le « panneau
arrière ».

La plupart des cartes mères proposent les connecteurs suivants :

• Port série, permettant de connecter de vieux périphériques ;


• Port parallèle, permettant notamment de connecter de vieilles imprimantes ;
• Ports USB (1.1, bas débit, ou 2.0, haut débit), permettant de connecter des périphériques plus
récents ;
• Connecteur RJ45 (appelés LAN ou port ethernet) permettant de connecter l'ordinateur à un
réseau. Il correspond à une reseau.php3 carte réseau intégrée à la carte mère ;
• Connecteur VGA (appelé SUB-D15), permettant de connecter un écran. Ce connecteur
correspond à la graphique.php3 carte graphique intégrée ;
• Prises audio (entrée Line-In, sortie Line-Out et microphone), permettant de connecter des
enceintes acoustiques ou une chaîne hi fi, ainsi qu'un microphone. Ce connecteur correspond à
la son.php3 carte son intégrée.

Boîtier PC
1.
Le boîtier
2. Bloc d'alimentation
3. Facteur de forme
4. Taille
5. Aération
6. Connectique
7. Ressources sur le même sujet

Le boîtier
Le boîtier (ou châssis) de l'ordinateur est le squelette métallique abritant ses différents composants
internes. Les boîtiers ont par ailleurs d'autres utilités telles que l'isolement phonique ou la protection
contre les rayonnements électromagnétiques. Ainsi des normes existent afin de garantir un niveau de
protection conforme à la réglementation en vigueur.

Les éléments de choix principaux d'un boîtier sont son facteur de forme, ses dimensions, le nombre
d'emplacements pour des lecteurs, son alimentation, la connectique en façade et enfin son design et ses
couleurs. Ainsi, si les boîtiers se ressemblaient tous aux débuts du PC, il existe aujourd'hui des boîtiers
de toutes les formes, parfois même transparents afin de permettre aux utilisateurs de faire du tuning à
l'aide par exemple de néons.

Bloc d'alimentation
La plupart des boîtiers sont fournis avec un bloc d'alimentation (en anglais power supply).
L'alimentation permet de fournir du courant électrique à l'ensemble des composants de l'ordinateur. Aux
Etats-Unis les blocs d'alimentation délivrent un courant à 110V et à 60 Hz, tandis qu'en Europe la norme
est 220V à une fréquence de 50 Hz, c'est la raison pour laquelle les blocs d'alimentation possèdent la
plupart du temps un commutateur permettant de choisir le type de tension à délivrer.
Il est essentiel de s'assurer que le commutateur est bien positionné sur le bon voltage afin de ne pas
risquer de détériorer des éléments de l'unité centrale.

Le bloc d'alimentation doit posséder une puissance suffisante pour alimenter les périphériques de
l'ordinateur.

Une attention particulière devra également être portée sur le niveau sonore de l'alimentation.

Facteur de forme
Le facteur de forme (en anglais form factor) désigne le format de l'emplacement prévu pour la carte
mère, les types de connecteurs et leur agencement. Il conditionne ainsi le type de carte mère que le
boîtier peut accueillir.

Taille
La taille du boîtier conditionne le nombre d'emplacements pour les lecteurs en façade, ainsi que le
nombre d'emplacements pour des disques durs en interne. On distingue généralement les catégories
suivantes :

• Grand tour : il s'agit de boîtiers de grande taille (60 à 70 cm de hauteur), possédant 4 à 6


emplacements 5"1/4 et 2 ou 3 emplacements 3"1/2 en façade, ainsi que deux ou trois emplacements
3"1/2 en interne.
• Moyen tour : il s'agit de boîtiers de taille moyenne (40 à 50 cm de hauteur), possédant 3 à 4
emplacements 5"1/4 en façade et deux emplacements 3"1/2.
• Mini tour : il s'agit de boîtiers de petite dimension (35 à 40 cm de hauteur), possédant
généralement 3 emplacements 5"1/4 et deux emplacements 3"1/2 en façade, ainsi que deux
emplacement 3"1/2 en interne.
• Barebone (littéralement « os nu ») ou mini-PC : il s'agit du plus petit format de boîtier (10 à 20
cm de hauteur). La plupart du temps les barebone sont des ordinateurs pré assemblés embarquant
une carte mère ayant un facteur de forme réduit (SFF, pour Small Form Factor). Ils possèdent
généralement un ou deux emplacements 5"1/4 et un emplacement 3"1/2 en façade, ainsi qu'un
emplacement 3"1/2 en interne.
Aération
Un boîtier renferme l'ensemble de l'électronique interne de l'ordinateur. Or, les éléments de l'ordinateur
sont amenés à atteindre des températures élevées. Il est donc impératif de choisir un boîtier possédant
une bonne ventilation, c'est-à-dire un maximum de ventilateurs, ainsi que des aérations. Il est ainsi
conseillé de choisir un boîtier comportant a minima une entrée d'air à l'avant, munie d'un filtre à air
amovible, ainsi que d'une sortie d'air à l'arrière.

Connectique
Pour des raisons évidentes d'ergonomie, de plus en plus de boîtiers proposent un panneau de
connecteurs en façade. Ces connecteurs doivent, pour être fonctionnels, être raccordés en interne à la
carte mère.

Ordinateur - Introduction à la notion de mémoire


Rôle de la mémoire
On appelle « mémoire » tout composant électronique capable de stocker temporairement des données.
On distingue ainsi deux grandes catégories de mémoires :
• la mémoire centrale (appelée également mémoire interne) permettant de mémoriser
temporairement les données lors de l'exécution des programmes. La mémoire centrale est réalisée à
l'aide de micro-conducteurs, c'est-à-dire des circuits électroniques spécialisés rapides. La mémoire
centrale correspond à ce que l'on appelle la mémoire vive.
• la mémoire de masse (appelée également mémoire physique ou mémoire externe) permettant
de stocker des informations à long terme, y compris lors de l'arrêt de l'ordinateur. La mémoire de
masse correspond aux dispositifs de stockage magnétiques, tels que le disque dur, aux dispositifs de
stockage optique, correspondant par exemple aux CD-ROM ou aux DVD-ROM, ainsi
qu'aux mémoires mortes.

Caractéristiques techniques
Les principales caractéristiques d'une mémoire sont les suivantes :

• La capacité, représentant le volume global d'informations (en bits) que la mémoire peut stocker ;
• Le temps d'accès, correspondant à l'intervalle de temps entre la demande de lecture/écriture et
la disponibilité de la donnée ;
• Le temps de cycle, représentant l'intervalle de temps minimum entre deux accès successifs ;
• Le débit, définissant le volume d'information échangé par unité de temps, exprimé en bits par
seconde ;
• La non volatilité caractérisant l'aptitude d'une mémoire à conserver les données lorsqu'elle n'est
plus alimentée électriquement.

Ainsi, la mémoire idéale possède une grande capacité avec des temps d'accès et temps de cycle très
restreints, un débit élevé et est non volatile.

Néanmoins les mémoires rapides sont également les plus onéreuses. C'est la raison pour laquelle des
mémoire utilisant différentes technologiques sont utilisées dans un ordinateur, interfacées les unes avec
les autres et organisées de façon hiérarchique.
Les mémoires les plus rapides sont situées en faible quantité à proximité du processeur et les mémoires
de masse, moins rapides, servent à stocker les informations de manière permanente.

Types de mémoires

Mémoire vive

La mémoire vive, généralement appelée RAM (Random Access Memory, traduisez mémoire à accès
direct), est la mémoire principale du système, c'est-à-dire qu'il s'agit d'un espace permettant de stocker
de manière temporaire des données lors de l'exécution d'un programme.

En effet, contrairement au stockage de données sur une mémoire de masse telle que le disque dur, la
mémoire vive est volatile, c'est-à-dire qu'elle permet uniquement de stocker des données tant qu'elle est
alimentée électriquement. Ainsi, à chaque fois que l'ordinateur est éteint, toutes les données présentes
en mémoire sont irrémédiablement effacées.

Mémoire morte

La mémoire morte, appelée ROM pour Read Only Memory (traduisez mémoire en lecture seule) est un
type de mémoire permettant de conserver les informations qui y sont contenues même lorsque la
mémoire n'est plus alimentée électriquement. A la base ce type de mémoire ne peut être accédée qu'en
lecture. Toutefois il est désormais possible d'enregistrer des informations dans certaines mémoires de
type ROM.

Mémoire flash

La mémoire flash est un compromis entre les mémoires de type RAM et les mémoires mortes. En effet,
la mémoire Flash possède la non-volatilité des mémoires mortes tout en pouvant facilement être
accessible en lecture ou en écriture. En contrepartie les temps d'accès des mémoires flash sont plus
importants que ceux de la mémoire vive.
La mémoire vive (RAM ou mémoire PC)
1.
Types de mémoires vives
2. Fonctionnement de la mémoire vive
3. Formats de barrettes de mémoire vive
1. DRAM PM
2. DRAM FPM
3. DRAM EDO
4. SDRAM
5. DR-SDRAM (Rambus DRAM)
6. DDR-SDRAM
7. DDR2-SDRAM
8. DDR3-SDRAM
9. Tableau récapitulatif
4. Synchronisation (timings)
5. La correction d'erreurs
1. Bit de parité
2. Barrettes ECC
3. Barrettes avec registre ou tampon (registered ou buffered)
6. Dual Channel
7. Ressources sur le même sujet

Types de mémoires vives


On distingue généralement deux grandes catégories de mémoires vives :

• Les mémoires dynamiques (DRAM, Dynamic Random Access Module), peu coûteuses. Elles
sont principalement utilisées pour la mémoire centrale de l'ordinateur ;
• Les mémoires statiques (SRAM, Static Random Access Module), rapides et onéreuses. Les
SRAM sont notamment utilisées pour les mémoires cache du processeur ;

Fonctionnement de la mémoire vive


La mémoire vive est constituée de centaines de milliers de petits condensateurs emmagasinant des
charges. Lorsqu'il est chargé, l'état logique du condensateur est égal à 1, dans le cas contraire il est à 0,
ce qui signifie que chaque condensateur représente un bit de la mémoire.

Etant donné que les condensateurs se déchargent, il faut constamment les recharger (le terme exact
estrafraîchir, en anglais refresh) à un intervalle de temps régulier appelé cycle de rafraîchissement. Les
mémoires DRAM nécessitent par exemple des cycles de rafraîchissement est d'environ 15
nanosecondes (ns).

Chaque condensateur est couplé à un transistor (de type MOS) permettant de « récupérer » ou de
modifier l'état du condensateur. Ces transistors sont rangés sous forme de tableau (matrice), c'est-à-dire
que l'on accède à une case mémoire (aussi appelée point mémoire) par une ligne et une colonne.
Chaque point mémoire est donc caractérisé par une adresse, correspondant à un numéro de ligne (en
anglais row) et un numéro de colonne (en anglais column). Or cet accès n'est pas instantané et s'effectue
pendant un délai appelé temps de latence. Par conséquent l'accès à une donnée en mémoire dure un
temps égal au temps de cycle auquel il faut ajouter le temps de latence.

Ainsi, pour une mémoire de type DRAM, le temps d'accès est de 60 nanosecondes (35ns de délai de
cycle et 25 ns de temps de latence). Sur un ordinateur, le temps de cycle correspond à l'inverse de la
fréquence de l'horloge, par exemple pour un ordinateur cadencé à 200 MHz, le temps de cycle est de 5
ns (1/(200*106)).

Par conséquent un ordinateur ayant une fréquence élevée et utilisant des mémoires dont le temps
d'accès est beaucoup plus long que le temps de cycle du processeur doit effectuer des cycles
d'attente (en anglais wait state) pour accèder à la mémoire. Dans le cas d'un ordinateur cadencé à 200
MHz utilisant des mémoires de types DRAM (dont le temps d'accès est de 60ns), il y a 11 cycles d'attente
pour un cycle de transfert. Les performances de l'ordinateur sont d'autant diminuées qu'il y a de cycles
d'attentes, il est donc conseillé d'utiliser des mémoires plus rapides.

Formats de barrettes de mémoire vive


Il existe de nombreux types de mémoires vives. Celles-ci se présentent toutes sous la forme de barrettes
de mémoire enfichables sur la carte-mère.

Les premières mémoires se présentaient sous la forme de puces appelées DIP (Dual Inline Package).
Désormais les mémoires se trouvent généralement sous la forme de barrettes, c'est-à-dire des cartes
enfichables dans des connecteurs prévus à cet effet. On distingue habituellement trois types de barrettes
de RAM :
• les barrettes au format SIMM (Single Inline Memory Module) : il s'agit de circuits imprimés dont
une des faces possède des puces de mémoire. Il existe deux types de barrettes SIMM, selon le
nombre de connecteurs :
• Les barrettes SIMM à 30 connecteurs (dont les dimensions sont 89x13mm) sont des
mémoires 8 bits qui équipaient les premières générations de PC (286, 386).

• Les barrettes SIMM à 72 connecteurs (dont les dimensions sont 108x25mm) sont des
mémoires capables de gérer 32 bits de données simultanément. Ces mémoires équipent des PC
allant du 386DX aux premiers Pentium. Sur ces derniers le processeur travaille avec un bus de
données d'une largeur de 64 bits, c'est la raison pour laquelle il faut absolument équiper ces
ordinateurs de deux barrettes SIMM. Il n'est pas possible d'installer des barrettes 30 broches sur
des emplacements à 72 connecteurs dans la mesure où un détrompeur (encoche au centre des
connecteurs) en empêche l'enfichage.
• les barrettes au format DIMM (Dual Inline Memory Module) sont des mémoires 64 bits, ce qui
explique pourquoi il n'est pas nécessaire de les apparier. Les barrettes DIMM possèdent des puces
de mémoire de part et d'autre du circuit imprimé et ont également 84 connecteurs de chaque côté, ce
qui les dote d'un total de 168 broches. En plus de leurs dimensions plus grandes que les barrettes
SIMM (130x25mm) ces barrettes possèdent un second détrompeur pour éviter la confusion.

Il peut être intéressant de noter que les connecteurs DIMM ont été améliorés afin de faciliter leur insertion
grâce à des leviers situés de part et d'autre du connecteur. Il existe en outre des modules de plus petite
taille, appelés SO DIMM (Small Outline DIMM), destinés aux ordinateurs portables. Les barrettes SO
DIMM comportent uniquement 144 broches pour les mémoires 64 bits et 77 pour les mémoires 32 bits.

• les barrettes au format RIMM (Rambus Inline Memory Module, appelées également RD-
RAM ou DRD-RAM) sont des mémoires 64 bits développée par la société Rambus. Elles possèdent
184 broches. Ces barrettes possèdent deux encoches de repérage (détrompeurs), évitant tout risque
de confusion avec les modules précédents.

Compte tenu de leur vitesse de transfert élevée, les barrettes RIMM possèdent un film thermique chargé
d'améliorer la dissipation de la chaleur.

Comme dans le cas des DIMM, il existe des modules de plus petite taille, appelés SO RIMM (Small
Outline RIMM), destinés aux ordinateurs portables. Les barrettes SO RIMM comportent uniquement 160
broches.

DRAM PM

La DRAM (Dynamic RAM, RAM dynamique) est le type de mémoire le plus répandu au début du
millénaire. Il s'agit d'une mémoire dont les transistors sont rangés dans une matrice selon des lignes et
des colonnes. Un transistor, couplé à un condensateur donne l'information d'un bit. 1 octet comprenant 8
bits, une barrette de mémoire DRAM de 256 Mo contiendra donc 256 * 2^10 * 2^10 = 256 * 1024 * 1024 =
268 435 456 octets = 268 435 456 * 8 = 2 147 483 648 bits = 2 147 483 648 transistors. Une barrette de
256 Mo possède ainsi en réalité une capacité de 268 435 456 octets, soit 268 Mo ! Ce sont des mémoires
dont le temps d'accès est de 60 ns.

D'autre part, les accès mémoire se font généralement sur des données rangées consécutivement en
mémoire. Ainsi le mode d'accès en rafale (burst mode) permet d'accéder aux trois données
consécutives à la première sans temps de latence supplémentaire. Dans ce mode en rafale, le temps
d'accès à la première donnée est égal au temps de cycle auquel il faut ajouter le temps de latence, et le
temps d'accès aux trois autres données est uniquement égal aux temps de cycle, on note donc sous la
forme X-Y-Y-Y les quatre temps d'accès, par exemple la notation 5-3-3-3 indique une mémoire pour
laquelle 5 cycles d'horloge sont nécessaires pour accéder à la première donnée et 3 pour les suivantes.

DRAM FPM

Pour accélérer les accès à la DRAM, il existe une technique, appelée pagination consistant à accéder à
des données situées sur une même colonne en modifiant uniquement l'adresse de la ligne, ce qui permet
d'éviter la répétition du numéro de colonne entre la lecture de chacune des lignes. On parle alors
deDRAM FPM (Fast Page Mode). La FPM permet d'obtenir des temps d'accès de l'ordre de 70 à 80
nanosecondes pour une fréquence de fonctionnement pouvant aller de 25 à 33 Mhz.

DRAM EDO

La DRAM EDO (Extended Data Out, soit Sortie des données améliorée parfois également appelé "hyper-
page") est apparue en 1995. La technique utilisée avec ce type de mémoire consiste à adresser la
colonne suivante pendant la lecture des données d'une colonne. Cela crée un chevauchement des accès
permettant de gagner du temps sur chaque cycle. Le temps d'accès à la mémoire EDO est donc
d'environ 50 à 60 nanosecondes pour une fréquence de fonctionnement allant de 33 à 66 Mhz.

Ainsi, la RAM EDO, lorsqu'elle est utilisée en mode rafale permet d'obtenir des cycles de la forme 5-2-2-
2, soit un gain de 4 cycles sur l'accès à 4 données. Dans la mesure où la mémoire EDO n'acceptait pas
des fréquences supérieures à 66 Mhz, elle a disparu au bénéfice de la SDRAM.

SDRAM

La SDRAM (Synchronous DRAM, traduisez RAM synchrone), apparue en 1997, permet une lecture des
données synchronisée avec le bus de la carte-mère, contrairement aux mémoires EDO et FPM
(qualifiées d'asynchrones) possédant leur propre horloge. La SDRAM permet donc de s'affranchir des
temps d'attente dus à la synchronisation avec la carte-mère. Celle-ci permet d'obtenir un cycle en mode
rafale de la forme 5-1-1-1, c'est-à-dire un gain de 3 cycles par rapport à la RAM EDO. De cette façon la
SDRAM est capable de fonctionner avec une cadence allant jusqu'à 150 Mhz, lui permettant d'obtenir des
temps d'accès d'environ 10 ns.

DR-SDRAM (Rambus DRAM)

La DR-SDRAM (Direct Rambus DRAM ou encore RDRAM) est un type de mémoire permettant de
transférer les données sur un bus de 16 bits de largeur à une cadence de 800Mhz, ce qui lui confère une
bande passante de 1,6 Go/s. Comme la SDRAM, ce type de mémoire est synchronisé avec l'horloge du
bus pour améliorer les échanges de données. En contrepartie, la mémoire RAMBUS est une technologie
propriétaire, ce qui signifie que toute entreprise désirant construire des barrettes de RAM selon cette
technologie doit reverser des droits (royalties) aux sociétés RAMBUS et Intel.

DDR-SDRAM

La DDR-SDRAM (Double Data Rate SDRAM) est une mémoire basée sur la technologie SDRAM,
permettant de doubler le taux de transfert de la SDRAM à fréquence égale.

La lecture ou l'écriture de données en mémoire est réalisé sur la base d'une horloge. Les mémoires
DRAM standard utilisent une méthode appelé SDR (Single Data Rate) consistant à lire ou à écrire une
donnée à chaque front montant.
La DDR permet de doubler la fréquence des lectures/écritures, avec une horloge cadencée à la même
fréquence, en envoyant les données à chaque front montant, ainsi qu'à chaque front descendant.

Les mémoires DDR possèdent généralement une appellation commerciale du type PCXXXX où «XXXX»
représente le débit en Mo/s.

DDR2-SDRAM

La mémoire DDR2 (ou DDR-II) permet d'atteindre des débits deux fois plus élevés que la DDR à
fréquence externe égale.

On parle de QDR (Quadruple Data Rate ou quad-pumped)pour désigner la méthode de lecture et


d'écriture utilisée. La mémoire DDR2 utilise en effet deux canaux séparés pour la lecture et pour
l'écriture, si bien qu'elle est capable d'envoyer ou de recevoir deux fois plus de données que la DDR.

La DDR2 possède également un plus grand nombre de connecteurs que la DDR classique (240 pour la
DDR2 contre 184 pour la DDR).

DDR3-SDRAM

Le DDR3 SDRAM améliore les performances par rapport au DDR2, mais surtout diminue la
consommation électrique. En effet, celle-ci est de 40 % inférieure, en particulier grâce à une baisse du
voltage utilisé, une finesse de gravure accrue. Si le débit théorique de ces barrettes peut dépasser les 10
Go/s, les temps de latence sont restés dans les mêmes ordres de grandeur que ceux des DDR2.

Les barrettes DDR3 ont 240 connecteurs comme les DDR2 mais ne sont absolument pas compatibles
(des détrompeurs empêchent l'insertion).

Tableau récapitulatif

Le tableau ci-dessous donne la correspondance entre la fréquence de la carte-mère (FSB), celle de la


mémoire (RAM) et son débit :
Mémoire Appellation Fréquence E/S Fréquence mémoire Débit

DDR200 PC1600 100 MHz 100 MHz 1,6 Go/s

DDR266 PC2100 133 MHz 133 MHz 2,1 Go/s

DDR333 PC2700 166 MHz 166 MHz 2,7 Go/s

DDR400 PC3200 200 MHz 200 MHz 3,2 Go/s

DDR433 PC3500 217 MHz 217 MHz 3,5 Go/s

DDR466 PC3700 233 MHz 233 MHz 3,7 Go/s

DDR500 PC4000 250 MHz 250 MHz 4 Go/s

DDR533 PC4200 266 MHz 266 MHz 4,2 Go/s

DDR538 PC4300 269 MHz 269 MHz 4,3 Go/s

DDR550 PC4400 275 MHz 275 MHz 4,4 Go/s

DDR2-400 PC2-3200 200 MHz 100 MHz 3,2 Go/s

DDR2-533 PC2-4300 266 MHz 133 MHz 4,3 Go/s

DDR2-667 PC2-5300 333 MHz 166 MHz 5,3 Go/s

DDR2-675 PC2-5400 337 MHz 168 MHz 5,4 Go/s

DDR2-800 PC2-6400 400 MHz 200 MHz 6,4 Go/s

DDR2-1066 PC2-8500 533 MHz 266 MHz 8,5 Go/s

DDR2-1100 PC2-8800 560 MHz 280 MHz 8,8 Go/s

DDR2-1200 PC2-9600 600 MHz 300 MHz 9,6 Go/s

DDR3-800 PC3-6400 400 MHz 100 MHz 6,4 Go/s

DDR3-1066 PC3-8500 533 MHz 133 MHz 8,5 Go/s

DDR3-1333 PC3-10600 666 MHz 166 MHz 10,7 Go/s

DDR3-1600 PC3-12800 800 MHz 200 MHz 12,8 Go/s


Synchronisation (timings)
Il n'est pas rare de voir des notations du type 3-2-2-2 ou 2-3-3-2 pour décrire le paramétrage de la
mémoire vive. Cette suite de quatre chiffres décrit la synchronisation de la mémoire (en anglais timing),
c'est-à-dire la succession de cycles d'horloge nécessaires pour accéder à une donnée stockée en
mémoire vive. Ces quatre chiffres correspondent généralement, dans l'ordre, aux valeurs suivantes :
• CAS delay ou CAS latency (CAS signifiant Column Address Strobe) : il s'agit du nombre de
cycles d'horloge s'écoulant entre l'envoi de la commande de lecture et l'arrivée effective de la donnée.
Autrement dit, il s'agit du temps d'accès à une colonne.
• RAS Precharge Time (noté tRP, RAS signifiant Row Address Strobe) : il s'agit du nombre de
cycles d'horloge entre deux instructions RAS, c'est-à-dire entre deux accès à une ligne. opération.
• RAS to CAS delay (noté parfois tRCD) : il s'agit du nombre de cycles d'horloge correspondant
au temps d'accés d'une ligne à une colonne.
• RAS active time (noté parfois tRAS) : il s'agit du nombre de cycles d'horloge correspondant au
temps d'accés à une ligne.

Les cartes mémoires sont équipées d'un dispositif appelé SPD (Serial Presence Detect), permettant
auBIOS de connaître les valeurs nominales de réglage définies par le fabricant. Il s'agit
d'une EEPROM dont les données seront chargées par le BIOS si l'utilisateur choisi le réglage « auto ».

La correction d'erreurs
Certaines mémoires possèdent des mécanismes permettant de pallier les erreurs afin de garantir
l'intégrité des données qu'elles contiennent. Ce type de mémoire est généralement utilisé sur des
systèmes travaillant sur des données critiques, c'est la raison pour laquelle on trouve ce type de mémoire
dans les serveurs.

Bit de parité

Les barrettes avec bit de parité permettent de s'assurer que les données contenues dans la mémoire
sont bien celles que l'on désire. Pour ce faire, un des bits de chaque octet stocké en mémoire sert à
conserver la somme des bits de données.
Le bit de parité vaut 1 lorsque la somme des bits de données est impaire et 0 dans le cas contraire.

De cette façon les barrettes avec bit de parité permettent de vérifier l'intégrité des données mais ne
permettent pas de corriger les erreurs. De plus pour 9 Mo de mémoire, seulement 8 serviront à stocker
des données, dans la mesure où le dernier mégaoctet conservera les bits de parité.

Barrettes ECC

Les barrettes de mémoire ECC (Error Correction Coding) sont des mémoires possédant plusieurs bits
dédiés à la correction d'erreur (on les appelle ainsi bits de contrôle). Ces barrettes, utilisées
principalement dans les serveurs, permettent de détecter les erreurs et de les corriger.

Barrettes avec registre ou tampon (registered ou buffered)

Ces barrettes ont un registre entre les puces de DRAM et le contrôleur mémoire du système (dans le
chipset ou dans le processeur). Ce registre retient les données pendant un cycle d'horloge avant qu'elles
ne soient envoyées vers le contrôleur mémoire. Ce processus augmente la fiabilité du transfert de
données, au détriment du temps de traitement, en retard d'un cycle d'horloge par rapport à de la mémoire
sans registre. Ces modules de mémoire avec registre ne sont généralement utilisés que dans les
serveurs.

Dual Channel
Certains contrôleurs mémoire proposent un double canal (en anglais Dual Channel) pour la mémoire. Il
s'agit d'exploiter les modules de mémoire par paire afin de cumuler la bande passante et ainsi exploiter
au maximum les capacités du système. Il est essentiel, lors de l'utilisation du Dual Channel, d'utiliser des
barrettes identiques par paire (fréquence, capacité et préférentiellement de même marque).

La mémoire morte (ROM)


La mémoire morte (ROM)
Il existe un type de mémoire permettant de stocker des données en l'absence de courant électrique, il
s'agit de la ROM (Read Only Memory, dont la traduction littérale est mémoire en lecture seule)
appeléemémoire morte, parfois mémoire non volatile car elle ne s'efface pas lors de la mise hors tension
du système.

Ce type de mémoire permet notamment de conserver les données nécessaires au démarrage de


l'ordinateur. En effet, ces informations ne peuvent être stockées sur le disque dur étant donné que les
paramètres du disque (essentiels à son initialisation) font partie de ces données vitales à l'amorçage.
Différentes mémoires de type ROM contiennent des données indispensables au démarrage, c'est-à-dire :
• Le BIOS est un programme permettant de piloter les interfaces d'entrée-sortie principales du
système, d'où le nom de BIOS ROM donné parfois à la puce de mémoire morte de la carte-mère qui
l'héberge.
• Le chargeur d'amorce: un programme permettant de charger le système d'exploitation en
mémoire (vive) et de le lancer. Celui-ci cherche généralement le système d'exploitation sur le lecteur
de disquette, puis sur le disque dur, ce qui permet de pouvoir lancer le système d'exploitation à partir
d'une disquette système en cas de dysfonctionnement du système installé sur le disque dur.
• Le Setup CMOS, c'est l'écran disponible à l'allumage de l'ordinateur permettant de modifier les
paramètres du système (souvent appelé BIOS à tort...).
• Le Power-On Self Test (POST), programme exécuté automatiquement à l'amorçage du système
permettant de faire un test du système (c'est pour cela par exemple que vous voyez le système
"compter" la RAM au démarrage).

Etant donné que les ROM sont beaucoup plus lentes que les mémoires de types RAM (une ROM a un
temps d'accès de l'ordre de 150 ns tandis qu'une mémoire de type SDRAM a un temps d'accès d'environ
10 ns), les instructions contenues dans la ROM sont parfois copiées en RAM au démarrage, on parle
alors de shadowing (en français cela pourrait se traduire par ombrage, mais on parle généralement
demémoire fantôme).

Les types de ROM


Les ROM ont petit à petit évolué de mémoires mortes figées à des mémoires programmables, puis
reprogrammables.
ROM

Les premières ROM étaient fabriquées à l'aide d'un procédé inscrivant directement les
données binairesdans une plaque de silicium grâce à un masque. Ce procédé est maintenant obsolète.

PROM

Les PROM (Programmable Read Only Memory) ont été mises au point à la fin des années 70 par la
firmeTexas Instruments. Ces mémoires sont des puces constituées de milliers de fusibles (ou bien de
diodes) pouvant être "grillés" grâce à un appareil appelé « programmateur de ROM », appliquant une
forte tension (12V) aux cases mémoire devant être marquées. Les fusibles ainsi grillés correspondent à
des 0, les autres à des 1.

EPROM

Les EPROM (Erasable Programmable Read Only Memory) sont des PROM pouvant être effacées. Ces
puces possèdent une vitre permettant de laisser passer des rayons ultra-violets. Lorsque la puce est en
présence de rayons ultra-violets d'une certaine longueur d'onde, les fusibles sont reconstitués, c'est-à-
dire que tous les bits de la mémoire sont à nouveau à 1. C'est pour cette raison que l'on qualifie ce type
de PROM d'effaçable.

EEPROM

Les EEPROM (Electrically Erasable Read Only Memory) sont aussi des PROM effaçables, mais
contrairement aux EPROM, celles-ci peuvent être effacées par un simple courant électrique, c'est-à-dire
qu'elles peuvent être effacées même lorsqu'elles sont en position dans l'ordinateur.

Il existe une variante de ces mémoires appelée mémoires flash (également ROM Flash ou Flash
EPROM). Contrairement aux EEPROM classiques, utilisant 2 à 3 transistors par bit à mémoriser, la Flash
EPROM utilise un seul transistor. D'autre part l'EEPROM peut-être écrite et lue mot par mot, alors que la
Flash ne peut être effacée que par pages (la taille des pages étant en constante diminution).

Enfin la densité de la mémoire Flash est plus importante, ce qui permet la réalisation de puces contenant
plusieurs centaines de Mégaoctets. Des EEPROM sont ainsi préférentiellement utilisées pour la
mémorisation de données de configuration et la mémoire Flash pour du code programmable
(programmes informatiques).

On qualifie de flashage l'action consistant à reprogrammer une EEPROM.

Carte mémoire (mémoire Flash)


Introduction à la mémoire Flash
La mémoire flash est une mémoire à semi-conducteurs, non volatile et réinscriptible, c'est-à-dire une
mémoire possédant les caractéristiques d'une mémoire vive mais dont les données ne se volatilisent pas
lors d'une mise hors tension. Ainsi la mémoire flash stocke les bits de données dans des cellules de
mémoire, mais les données sont conservées en mémoire lorsque l'alimentation électrique est coupée.

En raison de sa vitesse élevée, de sa durabilité et de sa faible consommation, la mémoire flash est idéale
pour de nombreuses applications - comme les appareils photos numériques, les téléphones cellulaires,
les imprimantes, les assistants personnels (PDA), les ordinateurs portables, ou les dispositifs de lecture
ou d'enregistrement sonore tels que les baladeurs mp3. De plus ce type de mémoire ne possède pas
d'éléments mécaniques, ce qui leur confère une grande résistance aux chocs.

Les types de cartes mémoire


Il existe un grand nombre de formats de cartes mémoires non compatibles entre-eux, portés par presque
autant de constructeurs. Parmi ces formats de cartes mémoire les plus courants sont :

• Les cartes Compact Flash


• Les cartes Secure Digital (appelées SD Card)
• Les cartes Memory Stick
• Les cartes SmartMedia
• Les cartes MMC (MultimediaCard)
• Les cartes xD picture card

Tableau comparatif
Taux de Taille Taille
Dimension Volume Masse Broche
Carte transfert max. max.
s (mm) (mm3) (g) s
max. théorique actuelle

Compact 43 x 36 x
5 108 3,3 50 20 Mo/s 137 Go 128 Go
Flash type I 3,3

Compact
43 x 36 x 5 7 740 4 50 20 Mo/s 137 Go 12 Go
Flash type II

37 x 45 x
SmartMedia 1 265 2 22 2 Mo/s 128 Mo 128 Mo
0,8

24 x 32 x
MMC 1 075 1,3 7 20 Mo/s 128 Go 8 Go
1,4

24 x 32 x
MMC Plus 1 075 1,3 7 52 Mo/s 128 Go 4 Go
1,4

RS-MMC 24 x 16 x
538 1,3 13 8 Mo/s 128 Go 2 Go
MMC Mobile 1,4

14 x 12 x
MMC Micro 185 <1 13 128 Go 2 Go
1,1

Memory
Stick 21,5 x 50 x
3 010 4 10 2 Mo/s 128 Mo 128 Mo
Standard, 2,8
Pro

Memory 20 x 31 x 992 2 10 20 Mo/s 32 Go 16 Go


Stick Duo, 1,6
Pro Duo

Memory 20 x 31 x
992 2 10 60 Mo/s 32 Go 32 Go
Stick Pro-HG 1,6

Memory
12,5 x 15 x
Stick Micro 225 2 10 20 Mo/s 32 Go 8 Go
1,2
M2

24 x 32 x
SD 1 613 2 9 20 Mo/s 32 Go 32 Go
2,1

20 x 21,5 x
mini SD 602 1 11 12 Mo/s 32 Go 4 Go
1,4

micro SD 15 x 11 x 1 165 0,3 8 10 Mo/s 32 Go 12 Go

25 x 20 x
xD 890 2,8 18 9 Mo/s 8 Go 2 Go
1,8

Lecteurs de cartes mémoire


Il est à noter l'existence de lecteurs de cartes mémoire multi-formats pouvant être connectés la plupart du
temps sur un port USB.

Carte mémoire Compact Flash


Compact Flash
La mémoire Compact Flash (notée parfois CF) est un type de carte mémoire créé en 1994 par la
firmeSanDisk. La mémoire Compact Flash est constituée d'un contrôleur mémoire et de mémoire flash
contenues dans un boîtier de faible dimension (42.8mm de largeur et 36.4mm de hauteur), de taille
inférieure à une petite boite d'allumettes, et pesant 11.4 grammes.

Il existe deux types de cartes Compact Flash de dimensions différentes :

• Les cartes Compact Flash type I, possédant une épaisseur de 3.3mm ;

• Les cartes Compact Flash type II, possédant une épaisseur de 5mm.
Les cartes CompactFlash sont conformes à la norme PCMCIA/ATA si ce n'est que le connecteur
possède 50 broches au lieu des 68 broches des cartes PCMCIA. Ainsi il est possible d'enficher une carte
CompactFlash dans un emplacement PCMCIA passif de type II.

La version CF+ permet un débit de 16 Mo/s (voire 66 Mo/s) et une capacité de 137 Go.

Memory Stick (MS Card)


Memory stick
La mémoire Memory Stick (notée MS ou MS Card) est un type de carte mémoire créé conjointement par
Sony et SanDisk en janvier 2000.

L'architecture des cartes Memory Stick est basée sur des circuits de mémoire flash (EEPROM) de type
NAND.

La mémoire Memory stick possède de petites dimensions (21.5mm x 50.0mm x 2.8mm), équivalentes à
celles d'une petite boîte d'allumettes, et pèse à peine 4 grammes.

L'accès aux données est réalisée par l'intermédiaire d'un connecteur latéral possédant 10 broches,
permettant d'atteindre un taux de transfert de 14.4 Mb/s et jusqu'à 19.6 Mb/s en pointe.

Il existe deux types de cartes Memory Stick, la mémoire Memory Stick dite «normale» et la mémoire
«Magic Gate» permettant la protection des fichiers protégés par droit d'auteur.

Ce format a été remplacé par le Memory Stick Duo de dimensions plus petites (31 x 20 x 1,6 mm).

Cartes MMC (Multimedia Card)


MMC - Multimedia Card
La mémoire Multimedia Card (notée MMC) est un type de carte mémoire créé conjointement
parSanDisk et Siemens en novembre 1997.

Son architecture est basée sur une combinaison de mémoire morte (ROM) pour les applications en
lecture seule et de mémoire flash pour les besoins en lecture/écriture.

La mémoire MMC possède de très petites dimensions (24.0mm x 32.0mm x 1.4mm), équivalentes à
celles d'un timbre poste, et pèse à peine 2.2 grammes.

Il existe deux types de cartes MMC possédant des voltages différents :

• Les cartes MMC 3.3V, possédant une encoche à gauche


• Les cartes MMC 5V, possédant une encoche à droite

L'accès aux données est réalisée par l'intermédiaire d'un connecteur latéral possédant 7 broches,
permettant d'atteindre un taux de transfert de 2 Mb/s, et potentiellement jusqu’à 2.5 MB/s.

Carte SD / SD Card (Secure Digital)

Secure Digital
La mémoire Secure Digital (notée SD ou SD Card) est un type de carte mémoire créé par Matsushita
Electronic, SanDisk et Toshiba en janvier 2000. La mémoire Secure Digital est une mémoire
spécifiquement développée pour répondre aux exigences de sécurité nouvellement apparues dans les
domaines des dispositifs électroniques audio et vidéo. Elle inclut ainsi un mécanisme de protection
dudroit d'auteur qui répond au standard SDMI (Secure Digital Music Initiative).

L'architecture des cartes SD est basée sur des circuits de mémoire flash (EEPROM) de type NAND.

La mémoire Secure Digital possède de très petites dimensions (24.0mm x 32.0mm x 2.1mm),
équivalentes à celles d'un timbre poste, et pèse à peine 2 grammes.
L’accès aux données est réalisé par l’intermédiaire d’un connecteur latéral possédant 9 broches,
permettant d’atteindre un taux de transfert maximal de 10 Mo/s pour la norme 1.01, et de 22,5 Mo/s pour
la norme 1.1.

Le temps d’accès à la mémoire SD est d’environ 25 µs pour le premier accès et de cycles de 50 ns pour
les suivants.

La norme SDHC (High Capacity) ou SD 2.0 permet de construire des cartes de plus de 4 Go. De mêmes
dimensions que les SD classiques, les SDHC utilisent un mode d’adressage différent, ce qui empêche
leur utilisation sur du matériel non compatible HC.

Carte SmartMedia
SmartMedia
La mémoire SmartMedia est un type de carte mémoire créé par Toshiba et Samsung.

Son architecture est basée sur des circuits de mémoire flash (EEPROM) de type NAND

La mémoire SmartMedia possède de très petites dimensions (45.0mm x 37.0mm x 0.76mm),


équivalentes à celles d'un timbre poste, et pèse à peine 2 grammes.

Il existe deux types de cartes SmartMedia possédant des voltages différents :

• Les cartes SmartMedia 3.3V possèdent une encoche à droite

• Les cartes SmartMedia 5V possèdent une encoche à gauche


L'accès aux données est réalisé par l'intermédiaire d'une puce possédant 22 broches. Quelle que soit la
capacité de la carte Smartmedia, les dimensions et l'emplacement de la puce sont les mêmes.

Le temps d'accès à la mémoire est d'environ 25µs pour le premier accès et de cycles de 50 ns pour les
suivants.

Compatibilité
Il existe des adaptateurs permettant d'insérer une carte SmartMedia dans un emplacement PCMCIA, afin
de permettre le transfert des données directement d'une carte SmartMedia vers un ordinateur portable.

Ce format n’est plus fabriqué et est désormais remplacé par le SD ou le xD.

Carte xD Picture Card

xD Picture card
La mémoire xD Picture (pour eXtreme Digital) est un type de carte mémoire créé par Fuji et Olympus en
août 2002.

L'architecture des cartes xD est basée sur des circuits de mémoire flash (EEPROM) de type NAND.

La mémoire xD picture card possède de très petites dimensions (20.0mm x 25.0mm x 1.7mm), plus
petites que celles d'un timbre poste, et pèse à peine 2 grammes.

L'accès aux données est réalisée par l'intermédiaire d'un connecteur latéral possédant 18 broches,
permettant d'atteindre un taux de transfert de 1.3 Mb/s et potentiellement jusqu’à 3 MB/s en écriture et
d'environ 5 Mb/s en lecture.

Les cartes xD Picture sont prévues pour atteindre, à terme, une capacité de 8 Go.

Qu'est-ce qu'un bus informatique ?


Introduction à la notion de bus
On appelle bus, en informatique, un ensemble de liaisons physiques (câbles, pistes de circuits imprimés,
etc.) pouvant être exploitées en commun par plusieurs éléments matériels afin de communiquer.
Les bus ont pour but de réduire le nombre de « voies » nécessaires à la communication des différents
composants, en mutualisant les communications sur une seule voie de données. C'est la raison pour
laquelle la métaphore d'« autoroute de données » est parfois utilisée.

Dans le cas où la ligne sert uniquement à la communication de deux composants matériels, on parle
deport matériel (port série, port parallèle, etc.).

Caractéristiques d'un bus


Un bus est caractérisé par le volume d'informations transmises simultanément. Ce volume, exprimé
enbits, correspond au nombre de lignes physiques sur lesquelles les données sont envoyées de manière
simultanée. Une nappe de 32 fils permet ainsi de transmettre 32 bits en parallèle. On parle ainsi de
«largeur » pour désigner le nombre de bits qu'un bus peut transmettre simultanément.
D'autre part, la vitesse du bus est également définie par sa fréquence (exprimée en Hertz), c'est-à-dire le
nombre de paquets de données envoyés ou reçus par seconde. On parle de cycle pour désigner chaque
envoi ou réception de données.
De cette façon, il est possible de connaître le débit maximal du bus (ou taux de transfert maximal), c'est-
à-dire la quantité de données qu'il peut transporter par unité de temps, en multipliant sa largeur par sa
fréquence. Un bus d'une largeur de 16 bits, cadencé à une fréquence de 133 MHz possède donc un débit
égal à :
16 * 133.106 = 2128*106 bit/s,
soit 2128*106/8 = 266*106 octets/s
soit 266*106 /1000 = 266*103 Ko/s
soit 259.7*103 /1000 = 266 Mo/s

Sous-ensembles de bus
En réalité chaque bus est généralement constitué de 50 à 100 lignes physiques distinctes, classées en
trois sous-ensembles fonctionnels :

• Le bus d'adresses (appelé parfois bus d'adressage ou bus mémoire) transporte les adresses
mémoire auxquelles le processeur souhaite accéder pour lire ou écrire une donnée. Il s'agit d'un bus
unidirectionnel.
• Le bus de données véhicule les instructions en provenance ou à destination du processeur. Il
s'agit d'un bus bidirectionnel.
• Le bus de contrôle (parfois bus de commandes) transporte les ordres et les signaux de
synchronisation en provenance de l’unité de commande et à destination de l'ensemble des
composants matériels. Il s'agit d'un bus directionnel dans la mesure où il transmet également les
signaux de réponse des éléments matériels.
Les principaux bus
On distingue généralement sur un ordinateur deux principaux bus :

• le bus système (appelé aussi bus interne, en anglais internal bus ou front-side bus, noté FSB).
Le bus système permet au processeur de communiquer avec la mémoire centrale du système
(mémoire vive ou RAM).
• le bus d'extension (parfois appelé bus d'entrée/sortie) permet aux divers composants de la
carte-mère (USB, série, parallèle, cartes branchées sur les connecteurs PCI, disques durs, lecteurs et
graveurs de CD-ROM, etc.) de communiquer entre eux mais il permet surtout l'ajout de nouveaux
périphériques grâce aux connecteurs d'extension (appelés slots) connectés sur le bus d'entrées-
sorties.

Le chipset
On appelle chipset (en français jeu de composants) l'élément chargé d'aiguiller les informations entre les
différents bus de l'ordinateur afin de permettre à tous les éléments constitutifs de l'ordinateur de
communiquer entre eux. Le chipset était originalement composé d'un grand nombre de composants
électroniques, ce qui explique son nom. Il est généralement composé de deux éléments :
• Le NorthBridge (Pont Nord ou Northern Bridge, appelé également contrôleur mémoire) est
chargé de contrôler les échanges entre le processeur et la mémoire vive, c'est la raison pour laquelle
il est situé géographiquement proche du processeur. Il est parfois appelé GMCH, pour Graphic and
Memory Controller Hub.
• Le SouthBridge (Pont Sud ou Southern Bridge, appelé également contrôleur d'entrée-
sortie oucontrôleur d'extension) gère les communications avec les périphériques d'entrée-sortie. Le
pont sud est également appelé ICH (I/O Controller Hub).
On parle généralement de bridge (en français pont) pour désigner un élément d'interconnexion entre
deux bus.

Il est intéressant de noter que, pour communiquer, deux bus ont besoin d'avoir la même largeur. Cela
explique pourquoi les barrettes de mémoire vive doivent parfois être appariées sur certains systèmes (par
exemple sur les premiers Pentium, dont la largeur du bus processeur était de 64 bits, il était nécessaire
d'installer des barrettes mémoire d'une largeur de 32 bits par paire).

Voici un tableau récapitulant les caractéristiques des principaux bus :

Largeur du bus Vitesse du bus Bande passante


Norme
(bits) (MHz) (Mo/sec)

ISA 8-bit 8 8.3 7.9

ISA 16-bit 16 8.3 15.9

EISA 32 8.3 31.8

VLB 32 33 127.2

PCI 32-bit 32 33 127.2

PCI 64-bit 2.1 64 66 508.6

AGP 32 66 254.3

AGP(x2 Mode) 32 66x2 528

AGP(x4 Mode) 32 66x4 1056

AGP(x8 Mode) 32 66x8 2112

ATA33 16 33 33

ATA100 16 50 100

ATA133 16 66 133

Serial ATA (S-ATA) 1 180

Serial ATA II (S-ATA2) 2 380

USB 1 1.5

USB 2.0 1 60

Firewire 1 100

Firewire 2 1 200

SCSI-1 8 4.77 5

SCSI-2 - Fast 8 10 10
SCSI-2 - Wide 16 10 20

SCSI-2 - Fast Wide 32


32 10 40
bits

SCSI-3 - Ultra 8 20 20

SCSI-3 - Ultra Wide 16 20 40

SCSI-3 - Ultra 2 8 40 40

SCSI-3 - Ultra 2 Wide 16 40 80

SCSI-3 - Ultra 160


16 80 160
(Ultra 3)

SCSI-3 - Ultra 320


16 80 DDR 320
(Ultra 4)

SCSI-3 - Ultra 640


16 80 QDR 640
(Ultra 5)

Les bus ISA, MCA et VLB


Bus d'extension
On appelle bus d'extension (parfois Bus de périphérique ou en anglais expansion bus) les bus possédant
des connecteurs permettant d'ajouter des cartes d'extension (périphériques) à l'ordinateur. Il existe
différents types de bus internes normalisés caractérisés par :
• leur forme,
• le nombre de broches de connexion,
• le type de signaux (fréquence, données, etc).

Le bus ISA
La version originale du bus ISA (Industry Standard Architecture), apparue en 1981 avec le PC XT, était
un bus d'une largeur de 8 bits cadencé à une fréquence de 4,77 MHz.
En 1984, avec l'apparition du PC AT (processeur Intel 286), la largeur du bus est passée à 16 bits et la
fréquence successivement de 6 à 8 MHz, puis finalement 8,33 MHz, offrant ainsi un débit théorique
maximal de 16 Mo/s (en pratique seulement 8 Mo/s dans la mesure où un cycle sur deux servait à
l'adressage).
Le bus ISA permettait le bus mastering, c'est-à-dire qu'il permettait de communiquer directement avec
les autres périphériques sans passer par le processeur. Une des conséquences du bus mastering est
l'accès direct à la mémoire (DMA, pour Direct Memory Access). Toutefois le bus ISA ne permettait
d'adresser que les 16 premiers mégaoctets de la mémoire vive.
Jusqu'à la fin des années 1990 le bus ISA équipait la quasi-totalité des ordinateurs de type PC, puis il a
été progressivement remplacé par le bus PCI, offrant de meilleures performances.
• Connecteur ISA 8 bits :
• Connecteur ISA 16 bits :

Le bus MCA
Le bus MCA (Micro Channel Architecture) est un bus propriétaire amélioré conçu par IBM en 1987 afin
d'équiper leur gamme d'ordinateurs PS/2. Ce bus, d'une largeur de 16 et 32 bits, était incompatible avec
le bus ISA et permettait d'obtenir un taux de transfert de 20 Mo/s.

Le bus EISA
Le bus EISA (Extended Industry Standard Architecture), a été mis au point en 1988 par un consortium de
sociétés (AST, Compaq, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, Wyse and Zenith), afin de
concurrencer le bus propriétaire MCA lancé par IBM l'année précédente. Le bus EISA utilisait des
connecteurs de même dimension que le connecteur ISA, mais avec 4 rangées de contacts au lieu de 2,
permettant ainsi un adressage sur 32 bits.
Les connecteurs EISA étaient plus profonds et les rangées de contacts supplémentaires étaient placées
en dessous des rangées de contacts ISA. Il était ainsi possible d'enficher une carte ISA dans un
connecteur EISA. Elle rentrait cependant moins profondément dans le connecteur (grâce à des ergots) et
n'utilisait ainsi que les rangées de contacts supérieures (ISA).

Notion de bus local


Les bus d'entrée-sortie traditionnels, tels que le bus ISA, MCA ou EISA, sont directement reliés au bus
principal et sont donc forcés de fonctionner à la même fréquence, or certains périphériques d'entrée-
sortie nécessitent une faible bande passante tandis que d'autres ont besoin de débits plus élevés : il
existe donc des goulots d'étranglement sur le bus (en anglais le terme « bottleneck », littéralement
« goulot de bouteille » est couramment utilisé). Afin de remédier à ce problème l'architecture dite de
« bus local » (en anglais local bus) propose de tirer partie de la vitesse du bus processeur (FSB) en
s'interfaçant directement sur ce dernier.

Le bus VLB
En 1992 le bus local VESA (VLB pour VESA Local Bus) a été mis au point par l'association VESA(Video
Electronics Standard Association sous l'égide de la société NEC) afin de proposer un bus local dédié aux
systèmes graphiques. Il s'agit d'un connecteur ISA 16-bits auquel vient s'ajouter un connecteur
supplémentaire de 16 bits :

Le bus VLB est ainsi un bus 32-bit prévu initialement pour fonctionner à une fréquence de 33 MHz
(fréquence des premiers PC 486 de l'époque). Le bus local VESA a été utilisé sur les modèles suivants
de 486 (respectivement 40 et 50 MHz) ainsi que sur les tout premiers Pentium, mais il a rapidement été
remplacé par le bus PCI.

Bus PCI
Le bus PCI
Le bus PCI (Peripheral Component Interconnect) a été mis au point par Intel le 22 juin 1992.
Contrairement au bus VLB il ne s'agit pas à proprement parler d'un bus local mais d'un bus intermédiaire
situé entre le bus processeur (NorthBridge) et le bus d'entrées-sorties (SouthBridge).

Connecteurs PCI
Les connecteurs PCI sont généralement présents sur les cartes mères au nombre de 3 ou 4 au minimum
et sont en général reconnaissables par leur couleur blanche (normalisée).

L'interface PCI existe en 32 bits, avec un connecteur de 124 broches, ou en 64 bits, avec un connecteur
de 188 broches. Il existe également deux niveaux de signalisation :

• 3.3V, destiné aux ordinateurs portables ;


• 5V, destiné aux ordinateurs de bureau.
La tension de signalisation ne correspond pas à la tension d'alimentation de la carte mais aux seuils de
tension pour le codage numérique de l'information.

Il existe 2 types de connecteurs 32 bits :

• Connecteur PCI 32 bits, 5 V :

• Connecteur PCI 32 bits, 3.3 V :

Les connecteurs PCI 64 bits proposent des broches supplémentaires, mais peuvent néanmoins accueillir
les cartes PCI 32 bits. Il existe 2 types de connecteurs 64 bits :

• Connecteur PCI 64 bits, 5 V :

• Connecteur PCI 64 bits, 3.3 V :

Interopérabilité
D'une manière générale, il n'est pas possible de se tromper lors du branchement d'une carte PCI dans un
emplacement PCI. En effet, dans la mesure où la carte s'enfiche correctement, elle est compatible, dans
le cas contraire des détrompeurs empêcheront son installation.
Il existe des cartes d'extension possédant des connecteurs dits « universels « (en anglais universal),
c'est-à-dire possédant les deux types de détrompeurs (deux encoches). Ces cartes d'extension sont
capables de détecter la tension de signalisation et de s'y adapter et peuvent ainsi être insérées
indépendamment dans des emplacements 3.3 V ou 5 V.

Révisions du bus
Le bus PCI, dans sa version initiale, possède une largeur de 32 bits et est cadencé à 33 MHz ce qui lui
permet d'offrir un débit théorique de 132 Mo/s en 32 bits. Sur les architectures 64 bits le bus fonctionne à
64 bits et propose un taux de transfert théorique de 264 Mo/s

Un groupement d'intérêt constitué d'un grand nombre de constructeurs, baptisé PCI-SIG (PCI Special
Interests Group), a vu le jour afin de faire évoluer le standard PCI. Des révisions du bus ont ainsi été
publiées. La version 2.0 du 30 avril 1993 définit la géométrie des connecteurs et des cartes additionnelles
et lui permet d'être cadencé à 66 MHz, contre 33 MHz pour la version 1.0, et double ainsi son taux de
transfert théorique, pour atteindre 266 Mo/s en 32 bits.
Le 1er juin 1995, la révision 2.1 du bus PCI améliore son utilisation à 66 MHz. Les ingénieurs prévoient à
cette époque une évolution progressive de la tension de signalisation de 5 V vers une signalisation en 3.3
V.
La version 2.2 du bus PCI, parue le 18 décembre 1998, permet le branchement à chaud des
périphériques (hot plug).
La révision 2.3, éditée le 29 mars 2002, supprime la possibilité d'utiliser des cartes additionnelles 5V,
mais gard la possibilité d'utiliser des cartes supportant les deux tensions pour assurer une compatibilité
descendante. La révision 3.0 du standard PCI supprime toute possibilité d'utiliser des cartes compatibles
5V.

En septembre 1999, une évolution majeure du bus PCI voit le jour, baptisée PCI-X. Le bus PCI-X 1.0
supporte des fréquences de 66, 100 et 133 MHz. Le bus PCI-X est pleinement compatible avec le format
PCI et permet ainsi d'utiliser des cartes additionnelles au format PCI conventionnel dans des
emplacements PCI-X et vice-versa.
La révision 2.0 du bus PCI-X supporte des fréquence de 66, 100, 133, 266 et 533 MHz et permet
d'atteindre des débits de l'ordre de 4.27 Go/s en 64 bits.

Le tableau ci-dessous récapitule les différentes révisions du bus PCI :

Révisi Date de Fréquenc Largeu


Voltage
on sortie e r

32 bits 133 Mo/s


PCI 1.0 1992 33 MHz Néant
64 bits 266 Mo/s

32 bits 132 Mo/s


PCI 2.0 1993 33 MHz 3.3 V / 5 V
64 bits 264 Mo/s

PCI 2.1 1995 32 bits 132 Mo/s


33 MHz 3.3 V / 5 V
64 bits 264 Mo/s

66 MHz 3.3 V 32 bits 264 Mo/s


64 bits 528 Mo/s

32 bits 132 Mo/s


33 MHz 3.3 V / 5 V
64 bits 264 Mo/s
PCI 2.2 1998
32 bits 264 Mo/s
66 MHz 3.3 V
64 bits 528 Mo/s

32 bits 132 Mo/s


33 MHz 3.3 V / 5 V
64 bits 264 Mo/s
PCI 2.3 2002
32 bits 264 Mo/s
66 MHz 3.3 V
64 bits 528 Mo/s

32 bits 264 Mo/s


66 MHz 3.3 V
64 bits 528 Mo/s

32 bits 400 Mo/s


PCI-X
1999 100 MHz 3.3 V
1.0
64 bits 800 Mo/s

32 bits 532 Mo/s


133 MHz 3.3 V
64 bits 1064 Mo/s

PCI-X 2002 32 bits 264 Mo/s


2.0 66 MHz 3.3 V
64 bits 528 Mo/s

32 bits 400 Mo/s


100 MHz 3.3 V
64 bits 800 Mo/s

32 bits 532 Mo/s


133 MHz 3.3 V
64 bits 1064 Mo/s

32 bits 1064 Mo/s


3.3 V / 1.5
266 MHz
V
64 bits 2128 Mo/s

533 MHz 3.3 V / 1.5 32 bits 2128 Mo/s


V
64 bits 4256 Mo/s
Bus AGP
Présentation du bus AGP
Le bus AGP (sigle de Accelerated Graphics Port, soit littéralement port graphique accéléré) est apparu en
Mai 1997, sur des chipsets à base de «Slot One», puis est apparu par la suite sur des supports à base de
Super 7 afin de permettre de gérer les flux de données graphiques devenant trop importants pour le bus
PCI. Ainsi le bus AGP est directement relié au bus processeur (FSB, Front Side Bus) et bénéficie de la
même fréquence, donc d'une bande passante élevée.

L'interface AGP a été mise au point spécifiquement pour la connexion de la carte graphique en lui
ouvrant un canal direct d'accès à la mémoire (DMA, Direct Memory Access), sans passer par
le contrôleur d'entrée-sortie. Les cartes utilisant ce bus graphique ont donc théoriquement besoin de
moins de mémoire embarquée, puisqu'elles peuvent accéder directement aux données graphiques (par
exemple des textures) stockées dans la mémoire centrale, leur coût de revient est donc théoriquement
plus faible.

La version 1.0 du bus AGP, travaillant à une tension de 3.3 V, propose un mode 1X permettant d'envoyer
8 octets tous les deux cycles ainsi qu'un mode 2x permettant le transfert de 8 octets par cycle.

En 1998 la version 2.0 du bus AGP a apporté un mode AGP 4X permettant l'envoi de 16 octets par cycle.
La version 2.0 du bus AGP étant alimentée à une tension de 1.5 V, des connecteurs dits "universels"
(AGP 2.0 universal) sont apparus, supportant les deux tensions.

La version 3.0 du bus AGP, apparue en 2002, a permis de doubler le débit de l'AGP 2.0 en proposant un
mode AGP 8x.

Caractéristiques du bus AGP


Le port AGP 1X est cadencé à 66 MHz, contre 33 MHz pour le bus PCI, ce qui lui offre un débit de 264
Mo/s (contre 132 Mo/s à partager entre les différentes cartes pour le bus PCI), soit de bien meilleures
performances, notamment pour l'affichage de scènes 3D complexes.

Avec l'apparition du port AGP 4X, le débit est passé à 1 Go/s. Cette génération de carte est alimentée en
25 W. La génération de carte suivante se nomme AGP Pro et est alimentée en 50W.

La norme AGP Pro 8x propose un débit de 2 Go/s.

Les débits des différentes normes AGP sont les suivants :

• AGP 1X : 66,66 MHz x 1(coef.) x 32 bits /8 = 266.67 Mo/s


• AGP 2X : 66,66 MHz x 2(coef.) x 32 bits /8 = 533.33 Mo/s
• AGP 4X : 66,66 MHz x 4(coef.) x 32 bits /8 = 1,06 Go/s
• AGP 8X : 66,66 MHz x 8(coef.) x 32 bits /8 = 2,11 Go/s
Il est à noter que les différentes normes AGP conservent une compatibilité ascendante, c'est-à-dire qu'un
emplacement AGP 8X pourra accueillir des cartes AGP 4X ou AGP 2X.

Connecteurs AGP
Les cartes mères récentes sont équipées d'un connecteur AGP général reconnaissable par sa couleur
marron (normalisée). Il existe trois types de connecteurs :

• Connecteur AGP 1,5 volts :

• Connecteur AGP 3,3 volts :

• Connecteur AGP universel :

Récapitulatif
Voici un tableau récapitulant les caractéristiques des différentes caractéristiques des versions et modes
AGP :

AGP Tension Mode

AGP 1.0 3.3 V 1x, 2x

1x, 2x,
AGP 2.0 1.5 V
4x

AGP 2.0 1.5 V, 3.3 1x, 2x,


universal V 4x

AGP 3.0 1.5 V 4x, 8x

Bus PCI Express (PCI-E)


Le bus PCI Express
Le bus PCI Express (Peripheral Component Interconnect Express, noté PCI-E ou 3GIO pour «Third
Generation I/O»), est un bus d'interconnexion permettant l'ajout de cartes d'extension dans l'ordinateur.
Le bus PCI Express a été mis au point en juillet 2002. Contrairement au bus PCI, qui fonctionne en
interfaceparallèle, le bus PCI Express fonctionne en interface série, ce qui lui permet d'obtenir une bande
passante beaucoup plus élevée que ce dernier.

Caractéristiques du bus PCI Express


Le bus PCI Express se décline en plusieurs versions, 1X, 2X, 4X, 8X, 12X, 16X et 32X, permettant
d'obtenir des débits compris entre 250 Mo/s et 8 Go/s, soit près de 4 fois le débit maximal des ports AGP
8X. Ainsi, avec un coût de fabrication similaire à celui du port AGP, le bus PCI Express est amené à le
remplacer progressivement.

Connecteurs PCI Express


Les connecteurs PCI Express sont incompatibles avec les anciens connecteurs PCI et possèdent des
tailles variables et une plus faible consommation électrique. Une des caractéristiques intéressantes du
bus PCI Express est la possibilité de brancher ou débrancher des composants à chaud, c'est-à-dire sans
éteindre ou redémarrer la machine. Les connecteurs PCI Express sont reconnaissables grâce à leur
petite taille et leur couleur anthracite :
• Le connecteur PCI Express 1X possède 36 connecteurs et est destiné à un usage d'entrées-
sorties à haut débit :

• Le connecteur PCI Express 4X possède 64 connecteurs et est destiné à un usage sur serveurs :

• Le connecteur PCI Express 8X possède 98 connecteurs et est destiné à un usage sur serveurs :

• Le connecteur PCI Express 16X possède 164 connecteurs, et mesure 89 mm de long et a


vocation à servir de port graphique :

Le standard PCI Express a également vocation à supplanter la technologie PC Card sous la forme de
connecteurs « PCI Express Mini Card ». De plus, contrairement aux connecteurs PCI dont l'usage était
limité à la connectique interne, le standard PCI Express permet de connecter des périphériques externes
à l'aide de câbles. Pour autant il ne se positionne pas en concurrence des ports USB ou FireWire.

Port série et port parallèle


Introduction aux ports d'entrée-sortie
Les ports d'entrée-sortie sont des éléments matériels de l'ordinateur, permettant au système de
communiquer avec des éléments extérieurs, c'est-à-dire d'échanger des données, d'où l'appellation
d'interface d'entrée-sortie (notée parfois interface d'E/S).

Port série
Les ports série (également appelés RS-232, nom de la norme à laquelle ils font référence) représentent
les premières interfaces ayant permis aux ordinateurs d'échanger des informations avec le "monde
extérieur". Le terme série désigne un envoi de données via un fil unique : les bits sont envoyés les uns à
la suite des autres (reportez-vous à la section transmission de données pour un cours théorique sur les
modes de transmission).

A l'origine les ports série permettaient uniquement d'envoyer des données, mais pas d'en recevoir, c'est
pourquoi des ports bidirectionnels ont été mis au point (ceux qui équipent les ordinateurs actuels le sont);
les ports séries bidirectionnels ont donc besoin de deux fils pour effectuer la communication.

La communication série se fait de façon asynchrone, cela signifie qu'aucun signal de synchronisation
(appelé horloge) n'est nécessaire: les données peuvent être envoyées à intervalle de temps arbitraire. En
contrepartie, le périphérique doit être capable de distinguer les caractères (un caractère a une longueur
de 8 bits) parmi la suite de bits qui lui est envoyée.
C'est la raison pour laquelle dans ce type de transmission, chaque caractère est précédé d'un bit de
début (appelé bit START) et d'un bit de fin (bit STOP). Ces bits de contrôle, nécessaires pour une
transmission série, gaspillent 20% de la bande passante (pour 10 bits envoyés, 8 servent à coder le
caractère, 2 servent à assurer la réception).
Les ports série sont généralement intégrés à la carte mère, c'est pourquoi des connecteurs présents à
l'arrière du boîtier, et reliés à la carte mère par une nappe de fils, permettent de connecter un élément
extérieur. Les connecteurs séries possèdent généralement 9 ou 25 broches et se présentent sous la
forme suivante (respectivement connecteurs DB9 et DB25) :

Un ordinateur personnel possède généralement de un à quatre ports séries.


Port parallèle
La transmission de données en parallèle consiste à envoyer des données simultanément sur plusieurs
canaux (fils). Les ports parallèle présents sur les ordinateurs personnels permettent d'envoyer
simultanément 8 bits (un octet) par l'intermédiaire de 8 fils.

Les premiers ports parallèles bidirectionnels permettaient d'atteindre des débits de l'ordre de 2.4Mb/s.
Toutefois des ports parallèles améliorés ont été mis au point afin d'obtenir des débits plus élevés :

• Le port EPP (Enhanced Parralel Port, port parallèle amélioré) a permis d'atteindre des débits de
l'ordre de 8 à 16 Mbps
• Le port ECP (Enhanced Capabilities Port, port à capacités améliorées), mis au point par Hewlett
Packard et Microsoft. Il reprend les caractéristiques du port EPP en lui ajoutant un support Plug and
Play, c'est-à-dire la possibilité pour l'ordinateur de reconnaître les périphériques branchés
Les ports parallèles sont, comme les ports série, intégrés à la carte mère. Les connecteurs DB25
permettent de connecter un élément extérieur (une imprimante par exemple).

Le bus USB (Universal Serial Bus)

Présentation du bus USB


Le bus USB (Universal Serial Bus, en français Bus série universel) est, comme son nom l'indique, basé
sur une architecture de type série. Il s'agit toutefois d'une interface entrée-sortie beaucoup plus rapide
que les ports série standards. L'architecture qui a été retenue pour ce type de port est en série pour deux
raisons principales :
• l'architecture série permet d'utiliser une cadence d'horloge beaucoup plus élevée qu'une interface
parallèle, car celle-ci ne supporte pas des fréquences trop élevées (dans une architecture à haut
débit, les bits circulant sur chaque fil arrivent avec des décalages, provoquant des erreurs) ;
• les câbles série coûtent beaucoup moins cher que les câbles parallèles.

Les normes USB


Ainsi, dès 1995, le standard USB a été élaboré pour la connexion d’une grande variété de périphériques.

Le standard USB 1.0 propose deux modes de communication :


• 12 Mb/s en mode haute vitesse,
• 1.5 Mb/s à basse vitesse.
Le standard USB 1.1 apporte quelques clarifications aux constructeurs de périphériques USB mais ne
modifie en rien le débit. Les périphériques certifiés USB 1.1 portent le logo suivant :

La norme USB 2.0 permet d'obtenir des débits pouvant atteindre 480 Mbit/s. Les périphériques certifiés
USB 2.0 portent le logo suivant :

En l'absence de logo la meilleure façon de déterminer s'il s'agit de périphériques USB à bas ou haut débit
est de consulter la documentation du produit dans la mesure où les connecteurs sont les mêmes.

La compatibilité entre périphériques USB 1.0, 1.1 et 2.0 est assurée. Toutefois l'utilisation d'un
périphérique USB 2.0 sur un port USB à bas débit (i.e. 1.0 ou 1.1), limitera le débit à 12 Mbit/s maximum.
De plus, le système d'exploitation est susceptible d'afficher un message expliquant que le débit sera
bridé.

Types de connecteurs
Il existe deux types de connecteurs USB :

• Les connecteurs dits de type A, dont la forme est rectangulaire et servant généralement pour des
périphériques peu gourmands en bande passante (clavier, souris, webcam, etc.) ;
• Les connecteurs dits de type B, dont la forme est carrée et utilisés principalement pour des
périphériques à haut débit (disques durs externes, etc.).

• 1. Alimentation +5V (VBUS) 100mA maximum


• 2. Données (D-)
• 3. Données (D+)
• 4. Masse (GND)
Fonctionnement du bus USB
L’architecture USB a pour caractéristique de fournir l’alimentation électrique aux périphériques qu’elle
relie, dans la limite de 15 W maximum par périphérique. Elle utilise pour cela un câble composé de quatre
fils (la masse GND, l’alimentation VBUS et deux fils de données appelés D- et D+).

La norme USB permet le chaînage des périphériques, en utilisant une topologie en bus ou en étoile. Les
périphériques peuvent alors être soit connectés les uns à la suite des autres, soit ramifiés.
La ramification se fait à l’aide de boîtiers appelés « hubs » (en français concentrateurs), comportant une
seule entrée et plusieurs sorties. Certains sont actifs (fournissant de l’énergie électrique), d’autres passifs
(alimentés par l'ordinateur).

La communication entre l’hôte (l’ordinateur) et les périphériques se fait selon un protocole (langage de
communication) basé sur le principe de l’anneau à jeton (token ring). Cela signifie que la bande passante
est partagée temporellement entre tous les périphériques connectés. L’hôte (l'ordinateur) émet un signal
de début de séquence chaque milliseconde (ms), intervalle de temps pendant lequel il va donner
simultanément la « parole » à chacun d’entre eux. Lorsque l’hôte désire communiquer avec un
périphérique, il émet un jeton (un paquet de données, contenant l’adresse du périphérique, codé sur 7
bits) désignant un périphérique, c'est donc l'hôte qui décide du « dialogue » avec les périphériques. Si le
périphérique reconnaît son adresse dans le jeton, il envoie un paquet de données (de 8 à 255 octets) en
réponse, sinon il fait suivre le paquet aux autres périphériques connectés. Les données ainsi échangées
sont codées selon le codage NRZI.

Puisque l’adresse est codée sur 7 bits, 128 périphériques (2^7) peuvent être connectés simultanément à
un port de ce type. Il convient en réalité de ramener ce chiffre à 127 car l’adresse 0 est une adresse
réservée. (cf plus loin).
A raison d'une longueur de câble maximale entre deux périphériques de 5 mètres et d'un nombre
maximal de 5 hubs (alimentés), il est possible de créer une chaîne longue de 25 mètres !

Les ports USB supportent le Hot plug and play. Ainsi, les périphériques peuvent être branchés sans
éteindre l’ordinateur (branchement à chaud, en anglais hot plug). Lors de la connexion du périphérique
à l’hôte, ce dernier détecte l’ajout du nouvel élément grâce au changement de la tension entre les fils D+
et D-. A ce moment, l’ordinateur envoie un signal d’initialisation au périphérique pendant 10 ms, puis lui
fournit du courant grâce aux fils GND et VBUS (jusqu’à 100mA). Le périphérique est alors alimenté en
courant électrique et récupère temporairement l’adresse par défaut (l’adresse 0). L’étape suivante
consiste à lui fournir son adresse définitive (c’est la procédure d’énumération). Pour cela, l’ordinateur
interroge les périphériques déjà branchés pour connaître la leur et en attribue une au nouveau, qui en
retour s’identifie. L’hôte, disposant de toutes les caractéristiques nécessaires est alors en mesure de
charger le pilote approprié.

Le bus Firewire (iLink / IEEE 1394)


Présentation du bus Firewire (IEEE 1394)
Le bus IEEE 1394 (nom de la norme à laquelle il fait référence) a été mis au point à la fin de l’année 1995
afin de fournir un système d’interconnexion permettant de faire circuler des données à haute vitesse en
temps réel. La société Apple lui a donné le nom commercial « Firewire », qui est devenu le plus usité.
Sony lui a également donné le nom commercial de i.Link, tandis que Texas Instrument lui a préféré le
nom de Lynx.

Il s'agit ainsi d'un port, équipant certains ordinateurs, permettant de connecter des périphériques
(notamment des caméras numériques) à très haut débit. Il existe ainsi des cartes d'extension
(généralement au format PCI ou PC Card / PCMCIA ) permettant de doter un ordinateur de connecteurs
FireWire. Les connecteurs et câbles FireWire sont repérables grâce à leur forme, ainsi qu'à la présence
du logo suivant :

Les normes FireWire


Il existe différentes normes FireWire permettant d'obtenir les débits suivants :

Débit
Norme
théorique

IEEE 1394a

IEEE 1394a-
100 Mbit/s
S100
IEEE 1394a-
200 Mbit/s
S200

IEEE 1394a-
400 Mbit/s
S400

IEEE 1394b

IEEE 1394b-
800 Mbit/s
S800

IEEE 1394b-
1200 Mbit/s
S1200

IEEE 1394b-
1600 Mbit/s
S1600

IEEE 1394b-
3200 Mbit/s
S3200

La norme IEEE 1394b est également appelée FireWire 2 ou FireWire Gigabit.

Connecteurs Firewire
Il existe différents connecteurs FireWire pour chacune des normes IEEE 1394.

• La norme IEEE 1394a définit deux connecteurs :


• Les connecteurs 1394a-1995 :

• Les connecteurs 1394a-2000 appelés mini-DV car ils sont utilisés sur les caméras
vidéo numériques DV (Digital Video) :

• La norme IEEE 1394b définit deux types de connecteurs dessinés de façon à ce que les prises
1394b-Beta puissent s'enficher dans les connecteurs Beta et Bilingual mais que les prises 1394b
Bilingual ne puissent s'enficher que dans les connecteurs Bilingual :
• Les connecteurs 1394b Bêta :

• Les connecteurs 1394b Bilingual :

Fonctionnement du bus Firewire


Le bus IEEE 1394 suit à peu près la même structure que le bus USB, si ce n’est qu’il utilise un câble
composé de six fils (deux paires pour les données et pour l’horloge, et deux fils pour l’alimentation
électrique) lui permettant d’obtenir un débit de 800 Mb/s (il devrait atteindre prochainement 1.6 Gb/s,
voire 3.2 Gb/s à plus long terme). Ainsi, les deux fils dédiés à une horloge montrent la différence majeure
qui existe entre le bus USB et le bus IEEE 1394, c'est-à-dire la possibilité de fonctionner selon deux
modes de transfert :
• le mode de transfert asynchrone : Le mode de transfert asynchrone est basé sur une
transmission de paquets à intervalles de temps variables. Cela signifie que l’hôte envoie un paquet de
données et attend de recevoir un accusé de réception du périphérique. Si l’hôte reçoit un accusé de
réception, il envoie le paquet de données suivant, sinon le paquet est à nouveau réexpédié au bout
d’un temps d’attente.
• le mode isochrone : Le mode de transfert isochrone permet l’envoi de paquets de données de
taille fixe à intervalle de temps régulier. Un noeud, appelé Cycle Master est chargé d'envoyer un
paquet de synchronisation (appelé Cycle Start packet) toutes les 125 microsecondes. De cette façon
aucun accusé de réception n’est nécessaire, ce qui permet de garantir un débit fixe. De plus, étant
donné qu’aucun accusé de réception n’est nécessaire, l’adressage des périphériques est simplifié et
la bande passante économisée permet de gagner en vitesse de transfert.

Autre innovation du standard IEEE 1394 : la possibilité d’utiliser des ponts, systèmes permettant de relier
plusieurs bus entre eux. En effet, l’adressage des périphériques se fait grâce à un identificateur de nœud
(c’est-à-dire de périphérique) codé sur 16 bits. Cet identificateur est scindé en deux champs : un champ
de 10 bits permettant de désigner le pont et un champ de 6 bits spécifiant le nœud. Il est donc possible
de relier 1023 ponts (soit 210 -1), sur chacun desquels il peut y avoir 63 nœuds (soit 26 -1), il est ainsi
possible d’adresser 65535 périphériques ! Le standard IEEE 1394 permet aussi le Hot plug’n play, mais
alors que le bus USB est destiné à l’utilisation de périphériques peu gourmands en ressources (souris ou
clavier par exemple), la bande passante de l’IEEE 1394 la destine à des utilisations multimédias sans
précédents (acquisition vidéo, etc.)

ATA, IDE et EIDE


Tour d'horizon
Le standard ATA (Advanced Technology Attachment) est une interface standard permettant la connexion
de périphériques de stockage sur les ordinateurs de type PC. Le standard ATA a été mis au point le 12
mai 1994 par l'ANSI (document X3.221-1994).

Malgré l'appellation officielle "ATA", ce standard est plus connue sous le terme
commercial IDE(Integrated Drive Electronics) ou Enhanced IDE (EIDE ou E-IDE).

Le standard ATA est originalement prévu pour connecter des disques durs, toutefois une extension
nommée ATAPI (ATA Packet Interface) a été développée afin de pouvoir interfacer d'autres
périphériques de stockage (lecteurs de CD-ROM, lecteurs de DVD-ROM, etc) sur une interface ATA.

Depuis l'émergence de la norme Serial ATA (notée S-ATA ou SATA), permettant de transférer les
données en série, le terme « Parallel ATA » (noté PATA ou P-ATA) remplace parfois l'appellation "ATA"
afin de marquer le contraste entre les deux normes.

Principe
La norme ATA permet de relier des périphériques de stockage directement à la carte mère grâce à
unenappe IDE (en anglais ribbon cable) généralement composée de 40 fils parallèles et de trois
connecteurs (un connecteur pour la carte mère, généralement bleu, et les connecteurs restants pour
deux périphériques de stockage, respectivement noir et gris).

Sur la nappe un des périphériques doit être déclaré comme maître (master), l'autre en esclave (slave).
Par convention le connecteur à l'extrémité (noir) est réservé au périphérique maître et le connecteur du
milieu (gris) au périphérique esclave. Un mode appelé cable select (noté CS ou C/S) permet de définir
automatiquement le périphérique maître et l'esclave pour peu que le BIOS de l'ordinateur supporte cette
fonctionnalité.

Modes PIO
La transmission des données se fait grâce à un protocole appelé PIO (Programmed Input/Output)
permettant aux périphériques d'échanger des données avec la mémoire vive à l'aide de commandes
gérées directement par le processeur. Toutefois, de gros transferts de données peuvent rapidement
imposer une grosse charge de travail au processeur et ralentir l'ensemble du système. Il existe 5 modes
PIO définissant le taux de transfert maximal :
Mode Débit
PIO (Mo/s)

Mode 0 3.3

Mode 1 5.2

Mode 2 8.3

Mode 3 11.1

Mode 4 16.7

Modes DMA
La technique du DMA (Direct Memory Access) permet de désengorger le processeur en permettant à
chacun des périphériques d'accéder directement à la mémoire. On distingue deux types de modes DMA :
• Le DMA dit "single word" (en français mot simple) permettant de transmettre un mot simple (2
octets soient 16 bits) à chaque session de transfert,
• Le DMA dit "multi-word" (en français mots multiples) permettant de transmettre successivement
plusieurs mots à chaque session de transfert.

Le tableau suivant liste les différents modes DMA et les taux de transfert associés :

Débit
Mode DMA
(Mo/s)

0 (Single
2.1
word)

1 (Single
4.2
word)

2 (Single
8.3
word)

0 (Multiword
4.2
)

1 (Multiword
13.3
)

2 (Multiword
16.7
)
Ultra DMA
Le standard ATA est à l'origine basé sur un mode de transfert asynchrone, c'est-à-dire que les envois
commandes et les envois de données sont cadencés à la fréquence du bus et se font à chaque front
montant (en anglais rising edge) du signal de l'horloge (strobe). Toutefois les envois des données et des
commandes ne se font pas simultanément, c'est-à-dire qu'une commande ne peut être envoyée tant que
la donnée n'a pas été reçue et inversement.

Pour augmenter le taux de transfert des données il peut donc sembler logique d'augmenter la fréquence
du signal d'horloge. Toutefois sur une interface où les données sont envoyées en parallèle l'augmentation
de la fréquence pose des problèmes d'interférence électromagnétiques.

Ainsi l'Ultra DMA (parfois noté UDMA) a été pensé dans le but d'optimiser au maximum l'interface ATA.
La première idée de l'Ultra DMA consiste à utiliser les front montants ainsi que les fronts descendants
(falling edges) du signal pour les transferts soit un gain de vitesse de 100% (avec un débit passant de
16.6 Mo/s à 33.3 Mo/s). De plus l'Ultra DMA introduit l'utilisation de codes CRC pour détecter les erreurs
de transmission. Ainsi les différents modes Ultra DMA définissent la fréquence de transfert des données.
Lorsqu'une erreur est rencontrée (lorsque le CRC reçu ne correspond pas aux données) le transfert
passe dans un mode Ultra DMA inférieur, voire sans Ultra DMA.

Débit
Mode Ultra DMA
(Mo/s)

UDMA 0 16.7

UDMA 1 25.0

UDMA 2 (Ultra-
33.3
ATA/33)

UDMA 3 44.4

UDMA 4 (Ultra-
66.7
ATA/66)

UDMA 5 (Ultra-
100
ATA/100)

UDMA 6 (Ultra-
133
ATA/133)

A partir de l'Ultra DMA mode 4 un nouveau type de nappe a été introduit afin de limiter les interférences ;
il s'agit d'une nappe ajoutant 40 fils de masse (soit un total de 80), entrecalés avec les fils de données
afin de les isoler et possédant les mêmes connecteurs que la nappe de 40 fils.
Seuls les modes Ultra DMA 2, 4, 5 et 6 sont réellement implémentés par les disques durs.

Les normes ATA


Le standard ATA se décline en plusieurs versions, ayant vu le jour successivement :

ATA-1
Le standard ATA-1, connu sous le nom de IDE, permet la connexion de deux périphériques sur une
nappe de 40 fils et propose une transmission 8 ou 16 bits avec un débit de l'ordre de 8.3 Mo/s. ATA-
1 définit et supporte les modes PIO (Programmed Input/Output) 0, 1 et 2 ainsi que le mode DMA
multiword (Direct Memory Access) 0.

ATA-2
Le standard ATA-2, connu sous le nom de EIDE (parfois Fast ATA, Fast ATA-2 ou Fast IDE), permet la
connexion de deux périphériques sur une nappe de 40 fils et propose une transmission 8 ou 16 bits avec
un débit de l'ordre de 16.6 Mo/s.

ATA-2 permet le support des modes PIO 0, 1, 2, 3 et 4 et modes DMA multiword 0, 1 et 2. De plus,
ATA-2 définit permet de repousser la limite de la taille maximale de disque de 528 Mo imposée par la
norme ATA-1 à 8.4 Go grâce au LBA (Large Block Addressing).

ATA-3
Le standard ATA-3 (également appelé ATA Attachment 3 Interface) représente une révision mineure de
l'ATA-2 (avec une compatibilité descendante) et fut publié en 1997 sous le standard X3.298-1997. Le
standard ATA-3 apporte les améliorations suivantes :
• Fiabilité améliorée : L'ATA-3 permet d'augmenter la fiabilité des transferts à haute vitesse.
• Le S.M.A.R.T (Self-Monitoring Analysis and Reporting Technology, traduisez Technologie d'auto
surveillance, d'analyse et de rapport) : il s'agit d'une fonction destinée à améliorer la fiabilité et à
prévenir les pannes.
• Fonction de sécurité : les périphériques peuvent être protégés à l'aide d'un mot de passe ajouté
dans le BIOS. Au démarrage de l'ordinateur, celui-ci vérifie que le mot de passe codé dans le BIOS
correspond à celui stocké sur le disque. Cela permet notamment d'empêcher l'utilisation du disque sur
une autre machine.

ATA-3 n'introduit pas de nouveau mode mais supporte les modes PIO 0, 1, 2, 3 et 4 ainsi que les modes
DMA 0, 1 et 2.

ATA-4
Le standard ATA-4, ou Ultra-ATA/33, a été défini en 1998 sous sous le standard ANSI NCITS 317-1998.
ATA-4 modifie le mode LBA afin de porter la capacité maximale des disques à 128 Go.
En effet, le mode LBA permet un adressage codé par un nombre binaire de 28 bits. Or chaque secteur
représente 512 octets, ainsi la capacité maximale exacte d'un disque dur en mode LBA est la suivante :
228*512 = 137 438 953 472 octets
137 438 953 472/(1024*1024*1024)= 128 Go

ATA-5
En 1999 le standard ATA-5 définit deux nouveaux modes de transfert :
Ultra-DMA mode 3 et 4 (le mode 4 est aussi appelé Ultra ATA/66 ou Ultra DMA/66) De plus il propose la
détection automatique du type de nappes utilisées (80 ou 40 fils).

ATA-6
Depuis 2001 ATA-6 définit le support de l'Ultra DMA/100 (aussi appelé Ultra DMA mode 5 ou Ultra-
ATA100) permettant d'atteindre des débits théoriques de 100 Mo/s.

D'autre part ATA-6 définit une nouvelle fonctionnalité, appelée Automatic Acoustic Management (AAM),
permettant d'ajuster automatiquement la vitesse d'accès aux disques supportant cette fonction afin d'en
réduire le bruit de fonctionnement.

Enfin, la norme ATA-6 permet un mode d'adressage des secteurs du disque dur sur 48 bits, appelé
LBA48 (Logical Block Addressing 48 bits). Grâce au LBA48, il est possible d'utiliser des disques durs de
2^48 secteurs de 512 octets, soit une capacité de maximale de 2 pétaoctets.

ATA-7
ATA-7 définit le support de l'Ultra DMA/133 (aussi appelé Ultra DMA mode 6 ou Ultra-ATA133)
permettant d'atteindre des débits théoriques de 133 Mo/s.

Tableau récapitulatif
Norme Mode Débit Commentair
Nom Synonyme
ANSI (PIO/DMA) (Mo/s) es

PIO
3,3
mode 0

PIO
mode 5,2
1
ANSI
ATA-1 X3.221- IDE
PIO
1994
mode 8,3
2

DMA
mode 8,3
0
PIO
11,1
mode 3

PIO
mode 16,7
4
ANSI EIDE, Fast
ATA-2 X3.279- ATA, Fast LBA 28 bits
DMA
1996 ATA-2
mode 13,3
1

DMA
mode 16,7
2

PIO
11,1
mode 3

PIO
mode 16,7
4
ANSI
SMART, LBA 28
ATA-3 X3.298-
DMA bits
1997
mode 13,3
1

DMA
mode 16,7
2

UDMA
16,7
mode 0
Ultra-ATA/33, Ultra DMA 33 et
ATA- ANSI NCITS
UDMA 33, support des CD-
UDMA 4/ATAPI-4 317-1998
Ultra DMA 33 ROM (ATAPI)
mode 25,0
1

UDMA
mode 33,3
2

UDMA
44,4
mode 3 Ultra DMA 66,
Ultra-ATA/66,
ATA- ANSI NCITS utilisation d'un
UDMA 66,
UDMA 5/ATAPI-5 340-2000 câble de 80
Ultra DMA 66
mode 66,7 broches
4

ATA- ANSI NCITS Ultra- UDMA 100 Ultra DMA 100,


6/ATAPI-6 347-2001 ATA/100, LBA48 et norme
UDMA 100, AAC (Automatic
Ultra DMA mode 5 Acoustic
100 Management)

Ultra-
ATA/133,
ATA- ANSI NCITS UDMA
UDMA 133, 133 Ultra DMA 133
7/ATAPI-7 361-2002 mode 6
Ultra DMA
133

Serial ATA (SATA ou S-ATA)

Introduction
Le standard Serial ATA (S-ATA ou SATA) est un bus standard permettant la connexion de périphériques
de stockage haut débit sur les ordinateurs de type PC.

Le standard Serial ATA est apparu en février 2003 afin de pallier les limitations de la norme ATA (plus
connue sous le nom "IDE" et rétro-activement appelée Parallel ATA), qui utilise un mode de transmission
en parallèle. En effet, le mode de transmission en parallèle n'est pas prévu pour supporter des
fréquences élevées en raison des problèmes liés aux interférences électromagnétiques entre les
différents fils.

Les câbles et périphériques à la norme S-ATA peuvent notamment être reconnu par la présence du logo
suivant :

Principe du Serial ATA


Le standard Serial ATA est basé sur une communication en série. Une voie de données est utilisée pour
transmettre les données et une autre voie sert à la transmission d'accusés de réception. Sur chacune de
ces voies les données sont transmises en utilisant le mode de transmission LVDS (Low Voltage
Differential Signaling) consistant à transférer un signal sur un fil et son opposé sur un second fil afin de
permettre au récepteur de reconstituer le signal par différence. Les données de contrôle sont transmises
sur la même voie que les données en utilisant une séquence de bits particulière pour les distinguer.

Ainsi la communication demande deux voies de transmission, chacune effectuée via deux fils, soit un
total de quatre fils pour la transmission.
Connecteurs Serial-ATA
Le câble utilisé par le Serial ATA est un câble rond composé de sept fils et terminé par un connecteur de
8 mm :

Trois fils servent à la masse et les deux paires servent à la transmission de données.

Le connecteur d'alimentation est également différent : il est composé de 15 broches permettant


d'alimenter le périphérique en 3.3V, 5V ou 12V et possède une allure similaire au connecteur de
données :

Caractéristiques techniques
Le Serial ATA permet d'obtenir des débits de l'ordre de 187.5 Mo/s (1,5 Gb/s), or chaque octet est
transmis avec un bit de démarrage (start bit) et un bit d'arrêt (stop bit), soit un débit utile théorique de 150
Mo/s (1,2 Gb/s). Le standard Serial ATA II devrait permettre d'avoisiner les 375 Mo/s (3 Gb/s), soit 300
Mo/s utiles théoriques, puis à terme 750 Mo/s (6 Gb/s), soit 600 Mo/s utiles théoriques.

Les câbles Serial ATA peuvent mesurer jusqu'à 1 mètre de long (contre 45 cm pour les nappes IDE). De
plus, le faible nombre de fils dans une gaine ronde permet plus de souplesse et une meilleure circulation
de l'air dans le boîtier qu'avec des nappes IDE (même si des nappes IDE rondes existent). Contrairement
à la norme ATA, les périphériques Serial ATA sont seuls sur chaque câble et il n'est plus nécessaire de
définir des "périphériques maîtres" et des "périphériques esclaves"

D'autre part, la norme Serial ATA permet le raccordement à chaud des périphériques (Hot Plug).

eSATA
Par ailleurs, il existe une version de connecteurs destinés au stockage externe appelés External SATA ou
eSATA. La longueur maximale de câble est alors de 2 m.
La norme eSATA est similaire à la norme SATA, à la différence près qu’elle est destinée à la connexion
de disques externes (vous trouverez sur les cartes mères récentes un port eSATA à l’arrière de celles-ci).
Il est donc possible de trouver des boîtiers externes eSATA offrant des débits similaires à ceux des
disques durs internes (beaucoup plus performants donc que les boîtiers USB classiques).

Par exemple, le boîtier Vantec NexStar 3 permet de connecter un disque dur SATA via le port eSATA
mais également par USB ou FireWire si votre carte mère n’est pas de dernière génération.

SCSI
Présentation de l'interface SCSI
Le standard SCSI (Small Computer System Interface) est une interface permettant la connexion de
plusieurs périphériques de types différents sur un ordinateur par l’intermédiaire d’une carte,
appeléeadaptateur SCSI ou contrôleur SCSI (connecté généralement par l'intermédiaire d'un
connecteur PCI).

Le nombre de périphériques pouvant être branchés dépend de la largeur du bus SCSI. En effet, avec un
bus 8 bits il est possible de connecter 8 unités physiques, contre 16 pour un bus 16 bits. Le contrôleur
SCSI représentant une unité physique à part entière, le bus peut donc accepter 7 (8 - 1) ou 15 (16 - 1)
périphériques.

Adressage des périphériques


L’adressage des périphériques se fait grâce à des numéros d’identification. Le premier numéro est l’ID, il
s’agit d’un numéro permettant de désigner le contrôleur intégré à chaque périphérique (celui-ci est défini
grâce à des cavaliers à positionner sur chaque périphérique SCSI ou bien logiciellement). En effet, le
périphérique peut avoir jusqu’à 8 unités logiques (par exemple un lecteur de CD-ROM comportant
plusieurs tiroirs). Les unités logiques sont repérées par un identificateur appelé LUN (Logical Unit
Number). Enfin, un ordinateur peut comporter plusieurs cartes SCSI, c’est pourquoi un numéro de carte
est assigné à chacune d’entre-elles.

De cette façon, pour communiquer avec un périphérique, l’ordinateur doit donner une adresse de la forme
« numéro de carte - ID - LUN ».

SCSI asymétrique et différentiel


Deux types de bus SCSI existent :

• le bus asymétrique, noté SE (pour Single Ended), basé sur une architecture parallèle dans
laquelle chaque canal circule sur un fil, ce qui le rend sensible aux interférences. Les nappes SCSI en
mode SE possèdent donc 8 fils dans le cas de transmission 8 bits (on parle alors de narrow, signifiant
"étroit") ou 16 fils pour un câble 16 bits (appelé wide, dont la traduction est "large") Il s'agit du type de
bus SCSI le plus répandu
• le bus différentiel permet le transport des signaux sur une paire de fils. L’information est codée
par différence entre les deux fils (chacun véhiculant la tension opposée) afin de compenser les
perturbations électromagnétiques, ce qui permet une distance de câblage importante (de l'ordre de 25
mètres). On distingue généralement le mode LVD (Low Voltage Differential, en français différentiel
basse tension), basé sur des signaux 3.3V, et le mode HVD (High Voltage differential, en
françaisdifférentiel haute tension), utilisant des signaux 5V. Les périphériques utilisant ce type de
transmission, plus rare, portant généralement l'inscription "DIFF".

Les connecteurs des deux catégories de périphériques sont les mêmes, mais les signaux électriques ne
le sont pas, il faut donc veiller à identifier les périphériques (grâce aux symboles prévus à cet effet) afin
de ne pas les détériorer !

Les normes SCSI


Les normes SCSI définissent les paramètres électriques des interfaces d’entrées-sorties. Le
standardSCSI-1 date de 1986, il définissait des commandes standard permettant le contrôle des
périphériques SCSI sur un bus cadencé à 4,77 MHz d'une largeur de 8 bits, ce qui lui permettait d'offrir
des débits de l'ordre de 5 Mo/s.

Toutefois un grand nombre de ces commandes étaient optionnelles, c’est pourquoi en 1994 la norme
SCSI-2 a été adoptée. Elle définit 18 commandes appelées CCS (Common Command Set). Diverses
versions du standard SCSI-2 ont été définies :
• Le Wide SCSI-2 est basé sur un bus de largeur 16 bits (au lieu de 8) et permet d'offrir un débit de
10Mo/s ;
• Le Fast SCSI-2 est un mode synchrone rapide permettant de passer de 5 à 10 Mo/s pour le SCSI
standard, et de 10 à 20 Mo/s pour le Wide SCSI-2 (baptisé pour l'occasion Fast Wide SCSI-2);
• Les modes Fast-20 et Fast-40 permettent respectivement de doubler et quadrupler ces débits.

La norme SCSI-3 intègre de nouvelles commandes, et permet le chaînage de 32 périphériques ainsi


qu'un débit maximal de 320 Mo/s (en mode Ultra-320).

Le tableau suivant récapitule les caractéristiques des différentes normes SCSI :

Largeur Vitesse Bande


Norme Connectique
du bus du bus passante

50 broches(bus
SCSI-1(Fast-5 SCSI) 8 bits 4.77 MHz 5 Mo/sec asymétrique ou
différentiel)

50 broches(bus
SCSI-2 - Fast-10 SCSI 8 bits 10 MHz 10 Mo/sec asymétrique ou
différentiel)

50 broches(bus
SCSI-2 - Wide 16 bits 10 MHz 20 Mo/sec asymétrique ou
différentiel)

68 broches(bus
SCSI-2 - Fast Wide 32
32 bits 10 MHz 40 Mo/sec asymétrique ou
bits
différentiel)

50 broches(bus
SCSI-2 - Ultra SCSI-
8 bits 20 MHz 20 Mo/sec asymétrique ou
2(Fast-20 SCSI)
différentiel)

SCSI-2 - Ultra Wide


16 bits 20 MHz 40 Mo/sec
SCSI-2

SCSI-3 - Ultra-2
8 bits 40 MHz 40 Mo/sec
SCSI(Fast-40 SCSI)

SCSI-3 - Ultra-2 Wide 16 bits 40 MHz 80 Mo/sec 68 broches(bus


SCSI différentiel)

SCSI-3 - Ultra-160(Ultra- 68 broches(bus


16 bits 80 MHz 160 Mo/sec
3 SCSI ou Fast-80 SCSI) différentiel)

SCSI-3 - Ultra-320(Ultra-
80 MHz 68 broches(bus
4 SCSI ou Fast-160 16 bits 320 Mo/sec
DDR différentiel)
SCSI)

SCSI-3 - Ultra-640 80 MHz 68 broches(bus


16 640 Mo/sec
(Ultra-5 SCSI) QDR différentiel)

Bus PC Card (PCMCIA)


Présentation du bus PC Card
Le bus PC Card a été mis au point en 1989 par le consortium PCMCIA (Personal Computer Memory
Card International Association, d'où le nom donné parfois au bus) afin d'étendre les capacités d'accueil
de périphériques des ordinateurs portables.

Caractéristiques techniques
Les périphériques PCMCIA sont au format carte de crédit (54 mm par 85 mm) et possèdent un
connecteur de 68 broches.

Il existe trois types de facteur de forme (form factor) correspondant à trois épaisseurs standard :

Largeur Longueur épaisseur


Type
(mm) (mm) (mm)

PC Card
54 85 3.3
Type I
PC Card
54 85 5.0
Type II

PC Card
54 85 10.5
Type III

Les cartes de type I sont généralement utilisées pour des cartes d'extension de mémoire. Les cartes de
type II servent habituellement pour des périphériques de communication (modem, carte réseau, carte
réseau sans fil) et de petits disques durs. Enfin les cartes de type III, beaucoup plus épaisses, sont en
général réservées à des périphériques embarquant des éléments mécaniques (disques dur de grosse
capacité).

CardBus
A partir de 1995 la norme CardBus (parfois appelée PC Card 32-bit) est apparue, permettant des
transferts de données en 32 bits, cadencés à une fréquence de 33 MHz avec une tension de 3V (contre
5.5 pour le PCMCIA).

Périphérique
Notion de périphérique
On appelle « périphérique » un matériel électronique pouvant être raccordé à un ordinateur par
l'intermédiaire de l'une de ses interfaces d'entrée-sortie (port série, port parallèle, bus USB, bus
firewire,interface SCSI, etc.), le plus souvant par l'intermédiaire d'un connecteur. Il s'agit donc des
composants de l'ordinateur externes à l'unité centrale.
On distingue habituellement les catégories de périphériques suivantes :

• périphériques d'affichage : il s'agit de périphériques de sortie, fournissant une représentation


visuelle à l'utilisateur, tels qu'un moniteur (écran).
• périphériques de stockage : il s'agit d'un périphérique d'entrée-sortie capable de stocker les
informations de manière permanent (disque dur, lecteur de CD-ROM, lecteur de DVD-ROM, etc.) ;
• périphériques d'acquisition. Ils permettent à l'ordinateur d'acquérir des données telles
particulières, telles que des données vidéo, on parle alors d'acquisition vidéo ou bien d'images
numérisées (scanner) ;
• périphériques d'entrée : ce sont des périphériques capables uniquement d'envoyer des
informations à l'ordinateur, par exemple les dispositifs de pointage (souris) ou bien le clavier.

Carte d'extension
On appelle « carte d'extension » un matériel électronique sous forme de carte pouvant être raccordé à
un ordinateur par l'intermédiaire de l'un de ses connecteurs d'extension (ISA, PCI, AGP, PCI Express,
etc.).
Il s'agit de composants connectés directement à la carte mère et situés dans l'unité centrale, permettant
de doter l'ordinateur de nouvelles fonctionnalités d'entrée-sortie.

Les principales cartes d'extension sont notamment :


• La carte graphique ;
• La carte son ;
• La carte réseau.

Interruptions matérielles (IRQ) et conflits


Notion d'interruption
Puisque le processeur ne peut pas traiter plusieurs informations simultanément (il traite une information à
la fois), un programme en cours d'exécution peut, grâce à une interruption, être momentanément
suspendu, le temps que s'exécute une routine d'interruption. Le programme interrompu peut ensuite
reprendre son exécution. Il existe 256 adresses d'interruption différentes.

Une interruption devient une interruption matérielle lorsqu'elle est demandée par un composant matériel
de l'ordinateur. En effet, il existe dans l'ordinateur de nombreux périphériques. Ceux-ci ont généralement
besoin d'utiliser les ressources du système, ne serait-ce que pour communiquer avec lui.

Lorsqu'un périphérique souhaite accéder à une ressource, il envoie une demande d'interruption au
processeur pour qu'il lui prête son attention. Ainsi, les périphériques ont un numéro d'interruption, que l'on
appelle IRQ (Interruption ReQuest, soit « requête d'interruption »). A titre d'image, chaque périphérique
tire une « ficelle » reliée à une cloche pour signaler à l'ordinateur qu'il veut qu'il lui prête attention.
Cette « ficelle » est en fait une ligne physique qui relie chaque connecteur d'extension, ainsi que chaque
interface d'entrée-sortie, à la carte mère. Pour un emplacement ISA 8 bits par exemple, il existe 8 lignes
IRQ reliant les slots ISA 8 bits à la carte mère(IRQ0 à IRQ7). Ces IRQ sont contrôlés par un « contrôleur
d'interruption » chargé de « donner la parole » à l'IRQ ayant la plus grande priorité.
Avec l'apparition de slots 16 bits, les IRQ 8 à 15 ont été ajoutés, il a donc fallu ajouter un second
contrôleur d'interruption. La liaison entre les deux groupes d'interruptions se fait par l'intermédiaire de
l'IRQ 2 reliée à l'IRQ 9 (appelée « cascade »). La cascade vient donc en quelque sorte "insérer" les IRQ
8 à 15 entre les IRQ 1 et 3 :

La priorité étant donnée par ordre d'IRQ croissant, et les IRQ 8 à 15 étant insérées entre les IRQ 1 et 3,
l'ordre de priorité est donc le suivant :

0 > 1 > 8 > 9 > 10 > 11 > 12 > 13 > 14 > 15 > 3 > 4 > 5 > 6 > 7

DMA
Les périphériques ont régulièrement besoin d'« emprunter de la mémoire » au système afin de s'en servir
comme zone de tampon (en anglais buffer), c'est-à-dire une zone de stockage temporaire permettant
d'enregistrer rapidement des données en entrée ou en sortie.
Un canal d'accès direct à la mémoire, appelé DMA (Direct Memory Access soit Accès direct à la
mémoire), a ainsi été défini pour y remédier.
Le canal DMA désigne un accès à un emplacement de la mémoire vive (RAM) de l’ordinateur, repéré par
une « adresse de début » (ou «RAM Start Address» en anglais) et une « adresse de fin ». Cette méthode
permet à un périphérique d'emprunter des canaux spéciaux qui lui donnent un accès direct à la mémoire,
sans faire intervenir le microprocesseur, afin de le décharger de ces tâches.
Un ordinateur de type PC possède 8 canaux DMA. Les quatre premiers canaux DMA ont une largeur de
bande de 8 bits tandis que les DMA 4 à 7 ont une largeur de bande de 16 bits.

Les canaux DMA sont généralement assignés comme suit :

• DMA0 - libre
• DMA1 - (carte son)/ libre
• DMA2 - contrôleur de disquettes
• DMA3 - port parallèle (port imprimante)
• DMA4 - contrôleur d'accès direct à la mémoire
(renvoi vers DMA0)
• DMA5 - (carte son)/ libre
• DMA6 - (SCSI)/ libre
• DMA7 - disponible

Adresses de base
Les périphériques ont parfois besoin d'échanger des informations avec le système, c'est pourquoi des
adresses mémoire leur sont assignées pour l'envoi et la réception de données. Ces adresses sont
appelées «adresses de base» (les termes suivants sont également parfois utilisés : «ports
d'entrée/sortie», «ports d'E/S», «adresse d'E/S», «adresses de ports d'E/S», «ports de base», ou en
anglais I/O address qui signifie «Input/Output Address», littéralement «Adresse d'entrée - sortie»).
C'est par l'intermédiaire de cette adresse de base que le périphérique peut communiquer avec le système
d'exploitation. Il ne peut donc exister qu'une adresse de base unique par périphérique.
Voici une liste de quelques adresses de base courantes :

• 060h - clavier
• 170h/376h - contrôleur IDE secondaire
• 1F0h/3F6h - contrôleur IDE primaire
• 220h - carte son
• 300h - carte réseau
• 330h - carte adaptatrice SCSI
• 3F2h - contrôleur de lecteur de disquettes
• 3F8h - COM1
• 2F8h - COM2
• 3E8h - COM3
• 2E8h - COM4
• 378h - LPT1
• 278h - LPT2
Tous ces éléments sont toutefois transparents pour l'utilisateur , c'est-à-dire qu'il n'a pas à s'en
préoccuper.

Conflits matériels
Une interruption est une ligne reliant un périphérique au processeur. L'interruption est matérielle
lorsqu'elle est demandée par un composant matériel du PC. C'est le cas, par exemple, lorsqu'une touche
a été frappée et que le clavier veut attirer l'attention du processeur sur cet événement. Cependant, les
256 interruptions ne peuvent pas toutes être demandées comme des interruptions matérielles et les
différents périphériques appellent toujours des interruptions bien précises.

Ainsi, lors de l'installation de cartes d'extension, il faut veiller, au moment de la configuration, à ce que la
même interruption ne soit pas utilisée par deux périphériques différents, auquel cas cela provoque un
«conflit matériel », aboutissant à un dysfonctionnement d'un des deux périphériques.
En effet, si deux périphériques utilisent la même interruption, le système ne saura pas les distinguer. Un
conflit matériel ne se produit pas uniquement pour deux périphériques ayant la même interruption
matérielle, un conflit peut également se produire lorsque deux périphériques possèdent la même adresse
d'entrées/sorties ou utilisent les mêmes canaux DMA.

Configuration des IRQ


L'IRQ d'une carte d'extension peut être modifiée afin de lui allouer un numéro d'IRQ non utilisé par un
autre périphérique.

• Sur les anciens périphériques il est fixé grâce à des cavaliers (jumpers), présents sur la carte.
• Sur les cartes récentes (comportant un BIOS Plug & Play), le paramétrage des ressources (IRQ,
DMA, Adresses d'entrée-sortie) est automatique. Il peut également être réalisé grâce au système
d'exploitation ou bien à l'aide d'utilitaires fourni avec la carte d'extension. Le mode plug & play doit
parfois être désactivé pour pouvoir modifier les paramètres manuellement.
Il n'est pas toujours évident de trouver des ressources libres pour tous les périphériques, voici donc une
liste non exhaustive de ressources généralement utilisées, ne pouvant donc pas être assignées
manuellement :

IR
Périphérique
Q

0 Horloge interne

1 clavier

contrôleur d'interruptions programmable


2
Renvoi vers les IRQ 8 à 15

3 port de communication COM2/COM4

4 port de communication COM1/COM3

5 libre

6 contrôleur de disquettes

7 port imprimante LPT1

8 CMOS (Horloge temps réel)

9 libre

10 libre
11 libre

12 port souris PS2/libre

processeur numérique de données(Coprocesseur


13
arithmétique)

14 contrôleur de disques durs primaire (IDE)

15 contrôleur de disques durs secondaire (IDE)

Les ports COM1 et COM4 ainsi que les ports COM2 et COM3 utilisent les mêmes interruptions. Cela
peut paraître illogique dans la mesure où une même interruption ne peut pas être utilisée par deux
périphériques. En réalité il est possible d'utiliser le port COM1 ainsi que le port COM4 (ainsi que le port
COM2 et le port COM3) à condition que ceux-ci ne soient pas actifs simultanément. Dans le cas
contraire l'ordinateur peut se bloquer ou avoir un comportement anormal.

Résolution des conflits matériels


En cas de problème matériel, la première chose à faire est de tenter d'isoler le problème afin de
déterminer quel périphérique pose problème. Cela signifie qu'il faut tenter d'éliminer toutes les variables
possibles jusqu'à la découverte de l'élément responsable :

• en ouvrant le capot de la machine et en ôtant petit à petit les éléments susceptibles de provoquer
un conflit ;
• en désactivant les périphériques par voie logicielle dans le système d'exploitation.
Le moniteur ou écran d'ordinateur
Introduction aux écrans d'ordinateur
On appelle écran (ou moniteur) le périphérique d'affichage de l'ordinateur. On distingue habituellement
deux familles d'écrans :
• Les écrans à tube cathodique (notés CRT pour Cathod Ray Tube), équipant la majorité des
ordinateurs de bureau. Il s'agit de moniteurs volumineux et lourds, possédant une consommation
électrique élevée.
• Les écrans plats équipant la totalité des ordinateurs portables, les assistants personnels (PDA),
les appareils photo numérique, ainsi qu'un nombre de plus en plus grand d'ordinateurs de bureau. Il
s'agit d'écrans peu encombrants en profondeur (d'où leur nom), légers et possédant une faible
consommation électrique.

Caractéristiques techniques
Les moniteurs sont souvent caractérisés par les données suivantes :

• La définition: c'est le nombre de points (pixel) que l'écran peut afficher, ce nombre de points est
généralement compris entre 640x480 (640 points en longueur, 480 points en largeur) et 2048x1536,
mais des résolutions supérieures sont techniquement possibles. Le tableau ci-dessous donne les
définitions conseillées selon la taille de la diagonale :
Diagona Définitio
le n

15" 800x600

17" 1024x768

1280x102
19"
4

1600x120
21"
0

• La taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée en pouces (un
pouce équivaut à 2,54 cm). Il faut veiller à ne pas confondre la définition de l'écran et sa taille. En effet
un écran d'une taille donnée peut afficher différentes définitions, cependant de façon générale les
écrans de grande taille possèdent une meilleure définition. Les tailles standard des écrans sont les
suivantes (liste non exhaustive) :
• 14 pouces, soit une diagonale de 36 cm environ ;
• 15 pouces, soit une diagonale de 38 cm environ ;
• 17 pouces, soit une diagonale de 43 cm environ ;
• 19 pouces, soit une diagonale de 48 cm environ ;
• 21 pouces. soit une diagonale de 53 cm environ ;
• Le pas de masque (en anglais dot pitch): C'est la distance qui sépare deux luminophores; plus
celle-ci est petite plus l'image est précise. Ainsi un pas de masque inférieur ou égal à 0,25 mm
procurera un bon confort d'utilisation, tandis que les écrans possédant des pas de masque supérieurs
ou égaux à 0,28 mm seront à proscrire.
• La résolution: Elle détermine le nombre de pixels par unité de surface (pixels par pouce linéaire
(en anglais DPI: Dots Per Inch, traduisez points par pouce). Une résolution de 300 dpi signifie 300
colonnes et 300 rangées de pixels sur un pouce carré ce qui donnerait donc 90000 pixels sur un
pouce carré. La résolution de référence de 72 dpi nous donne un pixel de 1"/72 (un pouce divisé par
72) soit 0.353mm, correspondant à un point pica (unité typographique anglo-saxonne).

Les modes graphiques


On appelle mode graphique le mode d'affichage des informations à l'écran, en terme de définition et de
nombre de couleurs. Il représente ainsi la capacité d'une carte graphique à gérer des détails ou celle
d'unécran de les afficher.

MDA
La mode MDA (Monochrome Display Adapter), apparu en 1981, est le mode d'affichage des écrans
monochromes fournissant un affichage en mode texte de 80 colonnes par 25 lignes. Ce mode permettait
d'afficher uniquement des caractères ASCII.

CGA
Le mode CGA (color graphic adapter) est apparu en 1981 peu après le mode MDA avec l'arrivée du PC
(personal computer). Ce mode graphique permettait :
• un affichage en mode texte amélioré, permettant d'afficher les caractères avec 4 couleurs
• un affichage en mode graphique permettant d'afficher les pixels en 4 couleurs avec une
résolution de 320 pixels par 200 (notée 320x200)

EGA
Le mode EGA (Enhanced Graphic Adapter) est apparu au début des années 1985. Il permettait d'afficher
16 couleurs avec une résolution de 640 par 350 pixels (notée 640x350), soit des graphismes beaucoup
plus fins qu'en mode CGA.

VGA
Le mode VGA (Video graphics Array) a vu le jour en 1987. Il permet une résolution de 720x400 en mode
texte et une résolution de 640 par 480 (640x480) en mode graphique 16 couleurs. Il permet également
d'afficher 256 couleurs avec une définition de 320x200 (mode également connu sous le nom
de MCGApour Multi-Colour Graphics Array). Le VGA est rapidement devenu le mode d'affichage
minimum pour les ordinateurs de type PC.

XGA
In 1990, IBM a introduit le XGA (eXtended Graphics Array). La version 2 de ce mode d'affichage,
baptiséXGA-2 offrait une résolution de 800 x 600 en 16 millions de couleurs et de 1024 x 768 en 65536
couleurs.

SVGA
Le mode SVGA (Super Video Graphics Array) est un mode graphique permettant d'afficher 256 couleurs
à des résolutions de 640x200, 640x350 et 640x480. Le SVGA permet également d'afficher des définitions
supérieures telles que le 800x600 ou le 1024x768 en affichant moins de couleurs.

VESA
Afin de pallier le manque de standardisation des modes graphiques un consortium réunissant les
principaux fabricants de cartes graphiques s'est créé (le VESA, Video Electronic Standard Association)
afin de mettre au point des standards graphiques.

SXGA
Le standard SXGA (Super eXtended Graphics Array) défini par le consortium VESA fait référence à une
résolution de 1280 x 1024 en 16 millions de couleurs. Ce mode a pour caractéristique d'avoir un ration de
5:4 contrairement aux autres modes (VGA, SVGA, XGA, UXGA).

UXGA
Le mode UXGA (Ultra eXtended Graphics Array) définit une résolution de 1600 x 1200 avec 16 millions
de couleurs.
WXGA
Le mode WXGA (Wide eXtended Graphics Array) définit une résolution de 1280 x 800 avec 16 millions
de couleurs.

WSXGA
Le mode WSXGA (Wide Super eXtended Graphics Array) définit une résolution de 1600 x 1024 avec 16
millions de couleurs.

WSXGA+
Le mode WSXGA+ (Wide Super eXtended Graphics Array+) définit une résolution de 1680 x 1050 avec
16 millions de couleurs.

WUXGA
Le mode WUXGA (Wide Ultra eXtended Graphics Array) définit une résolution de 1920 x 1200 avec 16
millions de couleurs.

QXGA
Le mode QXGA (Quad eXtended Graphics Array) définit une résolution de 2048 x 1536 avec 16 millions
de couleurs.

QSXGA
Le mode QSXGA (Quad Super eXtended Graphics Array) définit une résolution de 2560 x 2048 avec 16
millions de couleurs.

QUXGA
Le mode QUXGA (Quad Ultra eXtended Graphics Array) définit une résolution de 3200 x 2400 avec 16
millions de couleurs.

tableau récapitulatif
Le tableau suivant récapitule les différentes résolutions, ainsi que le ratio correspondant :

Format Résolution Résolution Nombre de


Ratio
d'affichage horizontale verticale pixels

VGA 640 480 307 200 1

SVGA 800 600 480 000 1,56

XGA 1024 768 786 432 2,56

SXGA 1280 1024 1 310 720 4,27


SXGA+ 1400 1050 1 470 000 4,78

SXGA+ 1280 1024 1 310 720 4,27

UXGA 1600 1200 1 920 00 6,25

QXGA 2048 1536 3 145 728 10,2

QSXGA 2560 2048 5,242,800 17,1

QUXGA 3200 2400 7,680,000 25

Les normes d'énergie et de rayonnement


Il existe de nombreuses normes s'appliquant aux moniteurs permettant de garantir la qualité de ceux-ci
ainsi que d'assurer le consommateur que le matériel a été conçu de manière à limiter le rayonnement dû
aux émissions d'ondes électrostatiques et à réduire la consommation d'énergie.

Ainsi, à la fin des années 80 la norme MPR1 a été élaborée par une autorité suédoise afin de mesurer
l'émission de rayonnements par les matériels émettant des ondes électrostatiques. Cette norme fut
amendée en 1990 pour donner la norme MPR2, reconnue internationalement.

En 1992, la confédération suédoise des employés professionels (Swedish Confederation of Professional


Employees) introduit le standard TCO décrivant le niveau d'émission de rayonnements non plus en terme
de niveau de sécurité minimal mais en terme de niveau minimal possible techniquement.

La norme TCO a subit des révisions en 1992, 1995 et 1999 afin de donner respectivement lieu aux
normesTCO92, TCO95 et TCO99.

En 1993, un consortium de fabricants de matériel informatique (VESA, Video Electronics Standards


Association) créa la norme DPMS (Display Power Management Signalling) proposant 4 modes de
fonctionnement pour les appareils s'y conformant :
• En marche.
• En veille (standby), avec une consommation inférieure à 25W.
• En suspension, avec une consommation inférieure à 8W. Dans ce mode le canon à électrons est
éteint, ce qui implique un délai de remise en route plus grand qu'en veille.
• En arrêt.

Écran à tube cathodique (CRT)


1. Le moniteur à tube cathodique
2. Le moniteur couleur
3. Caractéristiques techniques
4. Ressources sur le même sujet

Le moniteur à tube cathodique


Les moniteurs (écrans d'ordinateur) sont la plupart du temps des tubes cathodiques (notés CRT,
soitcathode ray tube ou en français tube à rayonnement cathodique), c'est à dire un tube en verre sous
vide dans lequel un canon à électrons émet un flux d'électrons dirigés par un champ électrique vers un
écran couvert de petits éléments phosphorescents.

Le canon à électrons est constitué d'une cathode, c'est-à-dire une électrode métallique chargée
négativement, d'une ou plusieurs anodes (électrodes chargées positivement). La cathode émet des
électrons attirés par l'anode. L'anode agit ainsi comme un accélérateur et un concentrateur pour les
électrons afin de constituer un flux d'électrons dirigé vers l'écran.
Un champ magnétique est chargé de dévier les électrons de gauche à droite et de bas en haut. Il est créé
grâce à deux bobines X et Y sous tension (appelées déflecteurs) servant respectivement à dévier le flux
horizontalement et verticalement.

L'écran est recouvert d'une fine couche d'éléments phosphorescents, appelés luminophores, émettant de
la lumière par excitation lorsque les électrons viennent les heurter, ce qui constitue un point lumineux
appelé pixel.

En activant le champ magnétique, il est possible de créer un balayage de gauche à droite, puis vers le
bas une fois arrivé en bout de ligne.

Ce balayage n'est pas perçu par l'oeil humain grâce à la persistance rétinienne, essayez par exemple
d'agiter votre main devant votre écran pour visualiser ce phénomène : vous voyez votre main en
plusieurs exemplaires !
Grâce à ce balayage, combiné avec l'activation ou non du canon à électrons, il est possible de faire
"croire" à l'oeil que seuls certains pixels sont "allumés" à l'écran.

Le moniteur couleur
Un moniteur noir et blanc permet d'afficher des dégradés de couleur (niveaux de gris) en variant
l'intensité du rayon.
Pour les moniteurs couleur, trois faisceaux d'électrons (correspondant à trois cathodes) viennent chacun
heurter un point d'une couleur spécifique : un rouge, un vert et un bleu (RGB, correspondant à Red,
Green, Blue ou en français RVB, Rouge, vert, bleu).

Trois points de couleur sont ainsi appelée une triade (en anglais triad ou dot trio).

Les luminophores bleus sont réalisés à base de sulfure de zinc, les verts en sulfure de zinc et de
cadmium. Les rouges enfin sont plus difficile à réaliser, et sont faits à partir d'un mélange d'yttrium et
europium, ou bien d'oxyde de gadolinium.

Cependant ces luminophores sont si proches les uns des autres que l'oeil n'a pas un pouvoir séparateur
assez fort pour les distinguer: il voit une couleur composée de ces trois couleurs. Essayez de mettre une
minuscule goutte d'eau sur le verre de votre moniteur: celle-ci faisant un effet de loupe va faire apparaître
les luminophores.

De plus, pour éviter des phénomènes de bavure (un électron destiné à frapper un luminophore vert
percutant le bleu) une grille métallique appelée masque est placée devant la couche de luminophores
afin de guider les flux d'électrons.

On distingue selon le masque utilisé plusieurs catégories d'écrans cathodiques :

• Les tubes FST-Invar (Flat Square Tube) dont les luminophores sont ronds. Ces moniteurs
utilisent une grille appelée masque (ou shadow mask en anglais). Ils donnent une image nette et de
bonnes couleurs mais possèdent l'inconvénient de déformer et d'assombrir l'image dans les coins.

• Les tubes Diamondtron de Mitsubishi et Trinitron de Sony dont le masque est constitué de
fentes verticales (appelée aperture grille ou grille à fentes verticales), laissant passer plus d'électrons
et procurant donc une image plus lumineuse.

• Les tubes Cromaclear de Nec dont le masque est constitué d'un système hybride avec des
fentes en forme d'alvéoles constituant la meilleure technologie des trois.
Caractéristiques techniques
Les moniteurs CRT sont caractérisés par les données suivantes :

• La taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée en pouces (un
pouce équivaut à 2,54 cm). Il faut veiller à ne pas confondre la définition de l'écran et sa taille. En effet
un écran d'une taille donnée peut afficher différentes définitions, cependant de façon générale les
écrans de grande taille possèdent une meilleure définition.
• Le pas de masque (en anglais dot pitch) : il représente la distance qui sépare deux
luminophores de même couleur. Plus le pas de masque est petit, meilleure est la qualité de l'image.
Ainsi un pas de masque inférieur ou égal à 0,25 mm procurera un bon confort d'utilisation, tandis que
les écrans possédant des pas de masque supérieurs ou égaux à 0,28 mm seront à proscrire.
• La résolution : elle détermine le nombre de pixels par unité de surface (pixels par pouce linéaire
(en anglais DPI: Dots Per Inch, traduisez points par pouce). Une résolution de 300 dpi signifie 300
colonnes et 300 rangées de pixels sur un pouce carré ce qui donnerait donc 90000 pixels sur un
pouce carré. La résolution de référence de 72 dpi nous donne un pixel de 1"/72 (un pouce divisé par
72) soit 0.353 mm, correspondant à un point pica (unité typographique anglo saxonne). Les termes «
résolution » et « définition » sont souvent confondus à tort dans la presse.
• La fréquence de balayage vertical (refresh rate en anglais) : Elle représente le nombre
d'images qui sont affichées par seconde, ou plus exactement le nombre de rafraîchissement de
l'image par seconde. On l'appelle ainsi également taux de rafraîchissement, elle est exprimée en
Hertz. Plus cette valeur est élevée meilleur est le confort visuel (on ne voit pas l'image scintiller), il faut
donc qu'elle soit bien supérieure à 67 Hz (limite inférieure à partir de laquelle l'oeil voit véritablement
l'image "clignoter"). La plupart des personnes ne perçoivent plus de scintillement (en anglais flicker) à
partir de 70 Hz, ainsi une valeur supérieure ou égale à 75 Hz conviendra généralement.

Écran plat
Les moniteurs à écran plat
Les moniteurs à écran plat (notés parfois FPD pour Flat panel display) se généralisent de plus en plus
dans la mesure où leur facteur d'encombrement et leur poids sont très inférieurs à ceux des écrans
CRTtraditionnels.

De plus, les technologies utilisées dans les écrans plats sont moins consommatrices d'énergie
(consommation inférieure à 10W contre 100W pour les écrans CRT) et n'émettent pas de rayonnement
électromagnétique.

La technologie LCD
La technologie LCD (Liquid Crystal Display) est basée sur un écran composé de deux plaques parallèles
rainurées transparentes, orientées à 90°, entre lesquelles est coincée une fine couche de liquide
contenant des molécules (cristaux liquides) qui ont la propriété de s'orienter lorsqu'elles sont soumises à
du courant électrique.

Combiné à une source de lumière, la première plaque striée agit comme un filtre polarisant, ne laissant
passer que les composantes de la lumière dont l'oscillation est parallèle aux rainures.
En l'absence de tension électrique, la lumière est bloquée par la seconde plaque, agissant comme un
filtre polarisant perpendiculaire.

Sous l'effet d'une tension, les cristaux vont progressivement s'aligner dans le sens du champ électrique et
ainsi pouvoir traverser la seconde plaque !

En contrôlant localement l'orientation de ces cristaux il est possible de constituer des pixels. On distingue
habituellement deux types d'écrans plats selon le système de commande permettant de polariser les
cristaux :

• Les écrans dits à « matrice passive », dont les pixels sont contrôlés par ligne et par colonne.
Ainsi les pixels sont adressés par lignes et par colonne grâce à des conducteurs transparents situés
dans la dalle. Le pixel s'allume lors de son adressage et s'éteint entre deux balayages.
• Les écrans dits à « matrice active », dont chaque pixel est contrôlé individuellement.

Que les écrans soient à matrice active ou passive, ils ont besoin d'une source lumineuse pour
fonctionner. Les termes suivants définissent la manière par laquelle l'écran est éclairé :

• Les écrans réflectifs sont des écrans éclairés par devant, par une lumière artificielle ou tout
simplement par la lumière ambiante (comme c'est le cas pour la plupart des montres digitales).
• Les écrans transmissifs utilisent un rétro éclairage pour afficher les informations. Ce type
d'écran est particulièrement adapté pour un usage en intérieur ou dans des conditions de faible
éclairage et fournissent habituellement une image contrasté et lumineuse. En contrepartie, ils
deviennent difficilement lisibles utilisés en extérieur (en plein soleil par exemple).
• Les écrans transflectifs utilisent un rétro éclairage ainsi qu'un polariseur composé d'un matériau
translucide capable de transmettre la lumière d'arrière plan tout en réfléchissant une partie de la
lumière ambiante. Ce type d'écran convient en particulier aux appareils destinés à une utilisation tant
en intérieur qu'en extérieur (appareils photo numérique, PDA).

Écrans plasma
La technologie plasma (PDP, Plasma Display Panel) est basée sur une émission de lumière grâce à
l'excitation d'un gaz. Le gaz utilisé dans les écrans plasma est un mélange d'argon (90%) et de xénon
(10%). Du gaz est contenu dans des cellules, correspondant aux pixels, dans lesquelles sont adressées
une électrode ligne et une électrode colonne permettant d'exciter le gaz de la cellule. En modulant la
valeur de la tension appliquée entre les électrodes et la fréquence de l'excitation il est possible de définir
jusqu'à 256 valeurs d'intensités lumineuses. Le gaz ainsi excité produit un rayonnement lumineux
ultraviolet (donc invisible pour l'œil humain. Grâce à des luminophores respectivement bleus, verts et
rouges répartis sur les cellules le rayonnement lumineux ultraviolet est converti en lumière visible, ce qui
permet d'obtenir des pixels (composés de 3 cellules) de 16 millions de couleurs (256 x 256 x 256).

La technologie plasma permet d'obtenir des écrans de grande dimension avec de très bonnes valeurs de
contrastes mais le prix d'un écran plasma reste élevé. De plus la consommation électrique est plus de 30
fois supérieure à celle d'un écran LCD.

Les caractéristiques
Les écrans plats sont souvent caractérisés par les données suivantes :

• La définition : il s'agit du nombre de points (pixels) que l'écran peut afficher, ce nombre de points
est généralement compris entre 640x480 (640 points en longueur, 480 points en largeur) et
1600x1200, mais des résolutions supérieures sont techniquement possibles.
• La taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée en pouces (un
pouce équivaut à 2,54 cm). Il faut veiller à ne pas confondre la définition de l'écran et sa taille. En effet
un écran d'une taille donnée peut afficher différentes définitions, cependant de façon générale les
écrans de grande taille possèdent une meilleure définition.
• La résolution : Elle détermine le nombre de pixels par unité de surface (pixels par pouce linéaire
(en anglais DPI: Dots Per Inch, traduisez points par pouce). Une résolution de 300 dpi signifie 300
colonnes et 300 rangées de pixels sur un pouce carré ce qui donnerait donc 90000 pixels sur un
pouce carré. La résolution de référence de 72 dpi nous donne un pixel de 1"/72 (un pouce divisé par
72) soit 0.353mm, correspondant à un point pica (unité typographique anglo-saxonne).
• Le temps de réponse : Défini par la norme internationale ISO 13406-2, il correspond à la durée
nécessaire afin de faire passer un pixel du blanc au noir, puis de nouveau au blanc. Le temps de
réponse (défini en millisecondes) doit être choisi le plus petit possible (pragmatiquement, inférieur à
25 ms).
• La luminance : Exprimée en candelas par mètre carré (Cd/m<sup>2</sup>, elle permet de
définir la « luminosité » de l'écran. L'ordre de grandeur de la luminance est d'environ 250
cd/m<sup>2</sup>.
• L'angle de vision vertical et horizontal : Exprimée en degrés, il permet de définir l'angle à partir
duquel la vision devient difficile lorsque l'on n'est plus face à l'écran.

Disque dur
1. Le rôle du disque dur
2. Structure
3. Fonctionnement
4. Mode bloc
5. Mode 32 bits
6. Caractéristiques techniques
7. Ressources sur le même sujet

Le rôle du disque dur


Le disque dur est l'organe de l'ordinateur servant à conserver les données de manière permanente,
contrairement à la mémoire vive, qui s'efface à chaque redémarrage de l'ordinateur, c'est la raison pour
laquelle on parle parfois de mémoire de masse pour désigner les disques durs.

Le disque dur est relié à la carte-mère par l'intermédiaire d'un contrôleur de disque dur faisant
l'interface entre le processeur et le disque dur. Le contrôleur de disque dur gère les disques qui lui sont
reliés, interprête les commandes envoyées par le processeur et les achemine au disque concerné. On
distingue généralement les interfaces suivantes :
• IDE
• SCSI
• Serial ATA

Avec l'apparition de la norme USB, des boîtiers externes permettant de connecter un disque dur sur un
port USB ont fait leur apparition, rendant le disque dur facile à installer et permettant de rajouter de la
capacité de stockage pour faire des sauvegardes. On parle ainsi de disque dur externe par opposition
aux disques durs internes branchés directement sur la carte mère, mais il s'agit bien des mêmes disques,
si ce n'est qu'ils sont connectés à l'ordinateur par l'intermédiaire d'un boîtier branché sur un port USB.

Structure
Un disque dur est constitué non pas d'un seul disque, mais de plusieurs disques rigides (en anglais hard
disk signifie disque dur) en métal, en verre ou en céramique, empilés à une très faible distance les uns
des autres et appelés
plateaux (en anglais platters).
Les disques tournent très rapidement autour d'un axe (à plusieurs milliers de tours par minute
actuellement) dans le sens inverse des aiguilles d'une montre. Un ordinateur fonctionne de
manièrebinaire, c'est-à-dire que les données sont stockées sous forme de 0 et de 1 (appelés bits). Il
existe sur les disques durs des millions de ces bits, stockés très proches les uns des autres sur une fine
couche magnétique de quelques microns d'épaisseur, elle-même recouverte d'un film protecteur.

La lecture et l'écriture se fait grâce à des têtes de lecture (en anglais heads) situées de part et d'autre
de chacun des plateaux. Ces têtes sont des électro-aimants qui se baissent et se soulèvent pour pouvoir
lire l'information ou l'écrire. Les têtes ne sont qu'à quelques microns de la surface, séparées par une
couche d'air provoquée par la rotation des disques qui crée un vent d'environ 250km/h ! De plus ces têtes
sont mobiles latéralement afin de pouvoir balayer l'ensemble de la surface du disque.

Cependant, les têtes sont liées entre elles et une tête seulement peut lire ou écrire à un moment donné.
On parle donc de cylindre pour désigner l'ensemble des données stockées verticalement sur la totalité
des disques.

L'ensemble de cette mécanique de précision est contenu dans un boîtier totalement hermétique, car la
moindre particule peut détériorer la surface du disque. Vous pouvez donc voir sur un disque des
opercules permettant l'étanchéité, et la mention "Warranty void if removed" qui signifie littéralement "la
garantie expire si retiré" car seuls les constructeurs de disques durs peuvent les ouvrir (dans des salles
blanches, exemptes de particules).

Fonctionnement
Les têtes de lecture/écriture sont dites « inductives », c'est-à-dire qu'elles sont capables de générer un
champ magnétique. C'est notamment le cas lors de l'écriture : les têtes, en créant des champs positifs ou
négatifs, viennent polariser la surface du disque en une très petite zone, ce qui se traduira lors du
passage en lecture par des changements de polarité induisant un courant dans la tête de lecture, qui sera
ensuite transformé par un convertisseur analogique numérique (CAN) en 0 et en 1 compréhensibles par
l'ordinateur.
Les têtes commencent à inscrire des données à la périphérie du disque (piste 0), puis avancent vers le
centre. Les données sont organisées en cercles concentriques appelés « pistes », créées par
leformatage de bas niveau.

Les pistes sont séparées en quartiers (entre deux rayons) que l'on appelle secteurs, contenant les
données (au minimum 512 octets par secteur en général).

On appelle cylindre l'ensemble des données situées sur une même piste sur des plateaux différents
(c'est-à-dire à la verticale les unes des autres) car cela forme dans l'espace un "cylindre" de données.
On appelle enfin cluster (ou en français unité d'allocation) la zone minimale que peut occuper un fichier
sur le disque. En effet le système d'exploitation exploite des blocs qui sont en fait
plusieurs secteurs(entre 1 et 16 secteurs). Un fichier minuscule devra donc occuper plusieurs secteurs
(un cluster).

Sur les anciens disques durs, l'adressage se faisait ainsi de manière physique en définissant la position
de la donnée par les coordonnées cylindre / tête / secteur (en anglais CHS pour Cylinder / Head /
Sector).

Mode bloc
Le mode bloc et le transfert 32 bits permettent d'exploiter pleinement les performances de votre disque
dur. Le mode bloc consiste à effectuer des transferts de données par bloc, c'est-à-dire par paquets de
512 octets généralement, ce qui évite au processeur d'avoir à traiter une multitude de minuscules
paquets d'un bit. Le processeur a alors du "temps" pour effectuer d'autres opérations.
Ce mode de transfert des données n'a malheureusement une véritable utilité que sous d'anciens
systèmes d'exploitation (tels que MS-DOS), car les systèmes d'exploitation récents utilisent leur propre
gestionnaire de disque dur, ce qui rend ce gestionnaire obsolète.

Une option du BIOS (IDE HDD block mode ou Multi Sector Transfer) permet parfois de déterminer le
nombre de blocs pouvant être gérés simultanément. Ce nombre se situe entre 2 et 32. Si vous ne le
connaissez pas, plusieurs solutions s'offrent à vous :
• consulter la documentation de votre disque dur ;
• rechercher les caractéristiques du disque sur internet ;
• déterminer expérimentalement en effectuant des tests.

Le mode bloc peut toutefois générer des erreurs sous certains systèmes, à cause d'une redondance de
gestionnaire de disque dur. La solution consiste alors à désactiver l'un des deux gestionnaires :

• la gestion logicielle du mode 32-bit sous le système d'exploitation ;


• le mode bloc dans le BIOS.

Mode 32 bits
Le mode 32 bits (par opposition au mode 16 bits) est caractérisé par un transfert des données sur 32 bits.
Le transfert sur 32 bits correspond à 32 portes qui s'ouvrent et se ferment simultanément. En mode 32
bits, deux mots (ensemble de bits) de 16 bits sont transmis successivement, puis assemblés.

Le gain de performance lié au passage du mode 16 bits au mode 32 bits est généralement insignifiant.
Quoiqu'il en soit il n'est la plupart du temps plus possible de choisir le mode, car la carte mère détermine
automatiquement le type de mode à adopter en fonction du type de disque dur.

La détermination automatique du mode 32 bits peut toutefois ralentir les lecteurs de CD-ROM IDE dont la
vitesse est supérieure à 24x lorsqu'ils sont seuls sur une nappe IDE. En effet, dans le cas où le lecteur de
CD-ROM est seul sur la nappe, le BIOS peut ne pas détecter sa compatibilité avec le mode 32 bits
(puisqu'il cherche un disque dur), auquel cas il passe en mode 16 bits. La vitesse de transfert (appelée
par abus de langage taux de transfert) est alors en dessous du taux de transfert annoncé par le
constructeur.
La solution dans ce genre de cas consiste à brancher sur la même nappe que le lecteur de CD-ROM un
disque dur supportant le mode 32 bits.

Caractéristiques techniques
• Capacité : volume de données pouvant être stockées sur le disque.
• Taux de transfert (ou débit) : quantité de données pouvant être lues ou écrites sur le disque par
unité de temps. Il s'exprime en bits par seconde.
• Vitesse de rotation : vitesse à laquelle les plateaux tournent, exprimée en tours par minutes
(notésrpm pour rotations par minute). La vitesse des disques durs est de l'ordre de 7200 à 15000 rpm.
Plus la vitesse de rotation d'un disque est élevée meilleur est le débit du disque. En revanche, un
disque possédant une vitesse de rotation élevé est généralement plus bruyant et chauffe plus
facilement.
• Temps de latence (aussi appelé délai rotationnel) : temps écoulé entre le moment où le disque
trouve la piste et le moment où il trouve les données.
• Temps d'accès moyen : temps moyen que met la tête pour se positionner sur la bonne piste et
accéder à la donnée. Il représente donc le temps moyen que met le disque entre le moment où il a
reçu l'ordre de fournir des données et le moment où il les fournit réellement. Il doit ainsi être le plus
court possible.
• Densité radiale : nombre de pistes par pouce (tpi: Track per Inch).
• Densité linéaire : nombre de bits par pouce sur une piste donnée (bpi: Bit per Inch).
• Densité surfacique : rapport de la densité linéaire sur la densité radiale (s'exprime en bits par
pouce carré).
• Mémoire cache (ou mémoire tampon) : quantité de mémoire embarquée sur le disque dur. La
mémoire cache permet de conserver les données auxquelles le disque accède le plus souvent afin
d'améliorer les performances globales ;
• Interface : il s'agit de la connectique du disque dur. Les principales interfaces pour disques durs
sont les suivantes :
• IDE/ATA ;
• Serial ATA ;
• SCSI ;
• Il existe par ailleurs des boîtiers externes permettant de connecter des disques durs
en USB oufirewire.

Disque dur SSD


Disque dur SSD
La mémoire flash peut remplacer dans certains cas un disque dur. On parle dans ce cas de
disques SSD(Solid State Drive). La traduction en lecteur à état solide fait référence aux composants
électroniques dont il est constitué, par opposition aux disques durs classiques disposant de parties
mécaniques mobiles.

Le terme anglais solid state désigne un appareil ou composant électronique à semi-conducteurs, donc
sans pièces mobiles.
Avantages d'un disque dur SSD
Son principal avantage est son temps d’accès particulièrement faible, généralement de 0,1 ms. Sa
consommation électrique est également plus faible, en particulier en veille. Par ailleurs, le silence total et
sa résistance accrue aux chocs sont des atouts incontournables.
Ces disques utilisent généralement une interface SATA et sont disponibles en 3" ½ ou 2" ½.

Inconvénients d'un disque dur SSD


Pour autant, le nombre d’écritures sur une même zone du « disque » est limité à quelques centaines de
milliers (ce qui est rapidement atteint en cas d’utilisation de mémoire virtuelle ou de fichiers de log). En
attendant des solutions pour contourner ce défaut, augmenter la capacité (à ce jour, 256 Go maximum) et
surtout réduire le coût, les utilisations du SSD comme disque principal restent limitées à certaines
applications telles que les mini PC.

Type de puces
Il existe deux puces différentes sur les SSD. Les puces MLC et SLC.

La puce MLC

Elle est l'abréviation de "Multi-Level Cell" literralement cellule à multi-niveaux. Cette puce est utilisée
dans les SSD grand public.

• Son avantage réside dans son faible coût de production.


• Ces inconvénients sont qu'elle ne permet pas d'atteindre d'importantse vitesses de transfert, elle
consomme beaucoup plus, et à une durée de vie plus faible que la puce SLC.

La puce SLC

Elle est l'abréviation de "Single Level Cell", ce qui signifie cellule à un niveau. On trouve cette puce dans
les SSD professionnel, ainsi que dans les SSD haut de gamme.

• Elle présente l'avante d'avoir des vitesses de transfert accrues, une consommation moins
importante, et une durée de vie plus importante que la puce MLC.
• Son seul inconvénient est son coût de fabrication trés elevé.

CD, CD audio et CD-ROM


Le Compact Disc a été inventé par Sony et Philips en 1981 afin de constituer un support audio compact
de haute qualité permettant un accès direct aux pistes numériques. Il a été officiellement lancé en octobre
1982. En 1984, les spécifications du Compact Disc ont été étendues (avec l'édition du Yellow Book) afin
de lui permettre de stocker des données numériques.

La géométrie du CD
Le CD (Compact Disc) est un disque optique de 12 cm de diamètre et de 1.2 mm d'épaisseur
(l'épaisseur peut varier de 1.1 à 1.5 mm) permettant de stocker des informations numériques, c'est-à-dire
correspondant à 650 Mo de données informatiques (soient 300 000 pages dactylographiées) ou bien
jusqu'à 74 minutes de données audio. Un trou circulaire de 15 mm de diamètre en son milieu permet de
le centrer sur la platine de lecture.

La composition du CD
Le CD est constitué d'un substrat en matière plastique (polycarbonate) et d'une fine pellicule métallique
réfléchissante (or 24 carat ou alliage d'argent). La couche réfléchissante est recouverte d'une laque anti-
UV en acrylique créant un film protecteur pour les données. Enfin, une couche supplémentaire peut être
ajoutée afin d'obtenir une face supérieure imprimée.

La couche réfléchissante possède de petites alvéoles. Ainsi lorsque le laser traverse le substrat de
polycarbonate, la lumière est réfléchie sur la couche réfléchissante, sauf lorsque le laser passe sur une
alvéole, c'est ce qui permet de coder l'information.

Cette information est stockée sur 22188 pistes gravées en spirales (il s'agit en réalité d'une seule piste
concentrique).

Les CD achetés dans le commerce sont pressés, c'est-à-dire que les alvéoles sont réalisées grâce à du
plastique injecté dans un moule contenant le motif inverse. Une couche métallique est ensuite coulée sur
le substrat en polycarbonate, et cette couche métallique est elle-même prise sous une couche
protectrice.

Les CD vierges par contre (CD-R) possèdent une couche supplémentaire (située entre le substrat et la
couche métallique) composée d'un colorant organique (en anglais dye) pouvant être marqué (le
termebrûler est souvent utilisé) par un laser de forte puissance (10 fois celle nécessaire pour la lecture).
C'est donc la couche de colorant qui permet d'absorber ou non le faisceau de lumière émis par le laser.
Les colorants les plus souvent utilisés sont :

• La cyanine de couleur bleue, donnant une couleur verte lorsque la couche métallique est en or
• La pthalocyanine de couleur "vert clair", donnant une couleur dorée lorsque la couche
métallique est en or
• L'AZO, de couleur bleu foncé

Etant donné que l'information n'est plus stockée sous forme de cavité mais par une marque "colorée",
une pré-spirale (en anglais pre-groove) est présente dans le support vierge afin d'aider le graveur à
suivre le chemin en spirale, ce qui évite la présence d'une mécanique de précision sur les graveurs de
CD-R.
D'autre part, cette spirale ondule selon une sinusoïdale, appelée wobble, possédant une amplitude de +/-
0.03µm (30nm) et une fréquence de 22,05kHz. Le wobble permet de donner une information au graveur
sur la vitesse à laquelle il doit graver. Cette information est appelée ATIP (Absolute Time in PreGroove).

Fonctionnement
La tête de lecture est composé d'un laser (Light Amplification by Stimulated Emission of Radiation)
émettant un faisceau lumineux et d'une cellule photoélectrique chargée de capter le rayon réfléchi. Le
laser utilisé par les lecteurs de CD est un laser infrarouge (possédant une longueur d'onde de 780 nm)
car il est compact et peu coûteux. Une lentille située à proximité du CD focalise le faisceau laser sur les
alvéoles.

Un miroir semi réfléchissant permet à la lumière réfléchie d'atteindre la cellule photoélectrique, comme
expliqué sur le dessin suivant :
Un chariot est chargé de déplacer le miroir de façon à permettre à la tête de lecture d'accéder à
l'intégralité du CD-ROM.

On distingue généralement deux modes de fonctionnement pour la lecture de CD :

• La lecture à vitesse linéaire constante (notée CLV soit constant linear velocity). Il s'agit du
mode de fonctionnement des premiers lecteurs de CD-ROM, basé sur le fonctionnement des lecteurs
de CD audio ou bien même des vieux tourne-disques. Lorsqu'un disque tourne, la vitesse des pistes
situées au centre est moins importante que celle des pistes situées sur l'extérieur, ainsi il est
nécessaire d'adapter la vitesse de lecture (donc la vitesse de rotation du disque) en fonction de la
position radiale de la tête de lecture. Avec ce procédé la densité d'information est la même sur tout le
support, il y a donc un gain de capacité. Les lecteurs de CD audio possèdent une vitesse linéaire
comprise entre 1.2 et 1.4 m/s.
• La lecture à vitesse de rotation angulaire constante (notée CAV pour constant angular
velocity) consiste à ajuster la densité des informations selon l'endroit où elles se trouvent afin d'obtenir
le même débit à vitesse de rotation égale en n'importe quel point du disque. Cela crée donc une faible
densité de données à la périphérie du disque et une forte densité en son centre.

La vitesse de lecture du lecteur de CD-ROM correspondait à l'origine à la vitesse de lecture d'un CD


audio, c'est-à-dire un débit de 150 ko/s. Cette vitesse a par la suite été prise comme référence et
notée 1x. Les générations suivantes de lecteurs de CD-ROM ont été caractérisées par des multiples de
cette valeur. Le tableau suivant donne les équivalences entre les multiples de 1x et le débit :

Temps de
Débit
réponse

1x 150 ko/s 400 à 600 ms

2x 300 ko/s 200 à 400 ms

3x 450 ko/s 180 à 240 ms

4x 600 ko/s 150 à 220 ms

6x 900 ko/s 140 à 200 ms

8x 1200 ko/s 120 à 180 ms

10
1500 ko/s 100 à 160 ms
x

12
1800 ko/s 90 à 150 ms
x

16
2400 ko/s 80 à 120 ms
x

20
3000 ko/s 75 à 100 ms
x
24
3600 ko/s 70 à 90 ms
x

32
4500 ko/s 70 à 90 ms
x

40
6000 ko/s 60 à 80 ms
x

52
7800 ko/s 60 à 80 ms
x

Le codage des informations


La piste physique est en fait constituée d'alvéoles d'une profondeur de 0,168µm, d'une largeur de 0,67µm
et de longueur variable. Les pistes physiques sont écartées entre elles d'une distance d'environ 1.6µm.
On nomme creux (en anglais pit) le fond de l'alvéole et on nomme plat (en anglais land) les espaces
entre les alvéoles.

Le laser utilisé pour lire les CD a une longueur d'onde de 780 nm dans l'air. Or l'indice de réfraction du
polycarbonate étant égal à 1.55, la longueur d'onde du laser dans le polycarbonate vaut 780 / 1.55 =
503nm = 0.5µm.

La profondeur de l'alvéole correspond donc à un quart de la longueur d'onde du faisceau laser, si bien
que l'onde se réfléchissant dans le creux parcourt une moitié de longueur d'onde de plus (un quart à
l'aller plus un quart au retour) que celle se réfléchissant sur le plat.
De cette façon, lorsque le laser passe au niveau d'une alvéole, l'onde et sa réflexion sont déphasées
d'une demi-longueur d'onde et s'annulent (interférences destructrices), tout se passe alors comme si
aucune lumière n'était réfléchie. Le passage d'un creux à un plat provoque une chute de signal,
représentant un bit.

C'est la longueur de l'alvéole qui permet de définir l'information. La taille d'un bit sur le CD, notée "T", est
normalisée et correspond à la distance parcourue par le faisceau lumineux en 231.4 nanosecondes,
soit0.278µm à la vitesse standard minimale de 1.2 m/s.

D'après le standard EFM (Eight-to-Fourteen Modulation), utilisé pour le stockage d'information sur un CD,
il doit toujours y avoir au minimum deux bits à 0 entre deux bits consécutifs à 1 et il ne peut y avoir plus
de 10 bits consécutifs à zéro entre deux bits à 1 pour éviter les erreurs. C'est pourquoi la longueur d'une
alvéole (ou d'un plat) correspond au minimum à la longueur nécessaire pour stocker la valeur OO1 (3T,
c'est-à-dire 0.833µm) et au maximum à la longueur correspondant à la valeur 00000000001 (11T,
soit3.054µm).

Standards
Il existe de nombreux standards décrivant la façon selon laquelle les informations doivent être stockées
sur un disque compact, selon l'usage que l'on désire en faire. Ces standards sont référencés dans des
documents appelés books (en français livres) auxquels une couleur a été affectée :
• Red book (livre rouge appelé aussi RedBook audio): Développé en 1980 par Sony et Philips, il
décrit le format physique d'un CD et l'encodage des CD audio (notés parfois CD-DA pour Compact
Disc - Digital Audio). Il définit ainsi une fréquence d'échantillonnage de 44.1 kHz et une résolution de
16 bits en stéréo pour l'enregistrement des données audio.
• Yellow book (livre jaune): il a été mis au point en 1984 afin de décrire le format physique des CD
de données (CD-ROM pour Compact Disc - Read Only Memory). Il comprend deux modes :
• CD-ROM Mode 1 , utilisé pour stocker des données avec un mode de correction
d'erreurs (ECC, pour Error Correction Code) permettant d'éviter les pertes de données dûes à
une détérioration du support
• CD-ROM Mode 2, permettant de stocker des données graphiques, vidéo ou audio
compressées. Pour pouvoir lire ce type de CD-ROM un lecteur doit être compatible Mode 2.
• Green book (livre vert): format physique des CD-I (CD Interactifs de Philips)
• Orange book (livre orange): format physique des CD inscriptibles. Il se décline en trois parties :
• Partie I: le format des CD-MO (disques magnéto-optiques)
• Partie II: le format des CD-WO (Write Once, désormais notés CD-R)
• Partie III: le format des CD-RW (CD ReWritable ou CD réinscriptibles)
• White book (livre blanc): format physique des CD vidéo (VCD ou VideoCD)
• Blue book (livre bleu): format physique des CD extra (CD-XA)
Structure logique
Un CD-R, qu'il soit audio ou CD-ROM, est constitué, d'après le Orange Book, de trois zones constituant
lazone d'information (information area) :
• La zone Lead-in Area (parfois notée LIA) contenant uniquement des informations décrivant le
contenu du support (ces informations sont stockées dans la TOC, Table of Contents). La zone Lead-
in s'étend du rayon 23 mm au rayon 25 mm. Cette taille est imposée par le besoin de pouvoir stocker
des informations concernant un maximum de 99 pistes. La zone Lead-in sert au lecteur de CD à
suivre les creux en spirale afin de se synchroniser avec les données présentes dans la zone
programme
• La zone Programme (Program Area) est la zone contenant les données. Elle commence à partir
d'un rayon de 25 mm, s'étend jusqu'à un rayon de 58mm et peut contenir l'équivalent de 76 minutes
de données. La zone programme peut contenir un maximum de 99 pistes (ou sessions) d'une
longueur minimale de 4 secondes.
• La zone Lead-Out (parfois notée LOA) contenant des données nulles (du silence pour un CD
audio) marque la fin du CD. Elle commence au rayon 58 mm et doit mesurer au moins O.5 mm
d'épaisseur (radialement). La zone lead-out doit ainsi contenir au minimum 6750 secteurs, soit 90
secondes de silence à la vitesse minimale (1X).

Un CD-R contient, en plus des trois zones décrites ci-dessus, une zone appelée PCA (Power Calibration
Area) et une zone PMA (Program Memory Area) constituant à elles deux une zone appelé SUA (System
User Area).

La PCA peut être vue comme une zone de test pour le laser afin de lui permettre d'adapter sa puissance
au type de support. C'est grâce à cette zone qu'est possible la commercialisation de supports vierges
utilisant des colorants organiques et des couches réfléchissantes différents. A chaque calibration, le
graveur note qu'il a effectué un essai. Un maximum de 99 essais par media est autorisé.
Systèmes de fichiers
Le format de CD (ou plus exactement le système de fichiers) s'attache à décrire la manière selon laquelle
les données sont stockées dans la zone programme.

Le premier système de fichiers historique pour les CD est le High Sierra Standard.

Le format ISO 9660 normalisé en 1984 par l'ISO (International Standards Organization) reprend le High
Sierra Standard afin de définir la structure des répertoires et des fichiers sur un CD-ROM. Il se décline en
trois niveaux :
• Niveau 1 : Un CD-ROM formaté en ISO 9660 Level 1 ne peut contenir que des fichiers dont le
nom est en majuscule (A-Z), pouvant contenir des chiffres (0-9) ainsi que le caractère "_". L'ensemble
de ces caractères est appelé d-characters. Les répertoires ont un nom limité à 8 d-characters et une
profondeur limitée à 8 niveaux de sous-répertoires. De plus la norme ISO 9660 impose que chaque
fichier soit stocké de manière continue sur le CD-ROM, sans fragmentation. Il s'agit du niveau le plus
restrictif. Le respect du niveau 1 permet ainsi de s'assurer que le média sera lisible sur un grand
nombre de plates formes.
• Niveau 2 : Le format ISO 9660 Level 2 impose que chaque fichier soit stocké comme un flux
continu d'octets, mais permet un nommage de fichiers plus souple en acceptant notamment les
caractères @ - ^ ! $ % & ( ) # ~ et une profondeur de 32 sous-répertoires maximum.
• Niveau 3 : Le format ISO 9660 Level 3 n'impose aucune restriction de noms de fichiers ou de
répertoires.

Microsoft a également défini le format Joliet, une extension au format ISO 9660 permettant d'utiliser des
noms de fichiers longs (LFN, long file names) de 64 caractères comprenant des espaces et des
caractères accentués selon le codage Unicode.

Le format ISO 9660 Romeo est une option de nommage proposée par Adaptec, indépendante donc du
format Joliet, permettant de stocker des fichiers dont le nom peut aller jusqu'à 128 caractères mais ne
supportant pas le codage Unicode.

Le format ISO 9660 RockRidge est une extension de nommage au format ISO 9660 lui permettant d'être
compatible avec les systèmes de fichiers UNIX.

Afin de pallier les limitations du format ISO 9660 (le rendant notamment inapproprié pour les DVD-ROM),
l'OSTA (Optical Storage Technology Association) a mis au point le format ISO 13346, connu sous le nom
de UDF (Universal Disk Format).

Les méthodes d'écriture


• Monosession : Cette méthode crée une seule session sur le disque et ne donne pas la
possibilité de rajouter des données ultérieurement.
• Multisession : Contrairement à la méthode précédente, cette méthode permet de graver un CD
en plusieurs fois, en créant une table des matières (TOC pour table of contents) de 14Mo pour
chacune des sessions
• Multivolume : C'est la gravure Multisession qui considère chaque session comme un volume
séparé.
• Track At Once : Cette méthode permet de désactiver le laser entre deux pistes, afin de créer
une pause de 2 secondes entre chaque piste d'un CD audio.
• Disc At Once : Contrairement à la méthode précédente, le Disc At Once écrit sur le CD en une
seule traite (sans pause).
• Packet Writing : Cette méthode permet la gravure par paquets.

Caractéristiques techniques
Un lecteur CD-ROM est caractérisé par les éléments suivants :

• Vitesse: la vitesse est calculée par rapport à la vitesse d'un lecteur de CD-Audio (150 Ko/s). Un
lecteur allant à 3000Ko/s sera qualifié de 20X (20 fois plus rapide qu'un lecteur 1X).
• Temps d'accès : il représente le temps moyen pour aller d'une partie du CD à une autre.
• Interface : ATAPI (IDE) ou SCSI ;

DVD, DVD audio et DVD-ROM (DVD-R,


DVD-RW, DVD+W, DVD+RW)
Présentation du DVD
Le DVD (Digital Versatile Disc, plus rarement Digital Video Disc) est une
«alternative» au disque compact (CD) dont la capacité est six fois plus importante
(pour le support DVD de moindre capacité, simple face, simple couche). Le format
DVD a été prévu afin de fournir un support de stockage universel alors que le CD
était originalement prévu en tant que support audio uniquement.

Le format DVD est prévu afin de rendre les données adressables et accessibles
aléatoirement (de manière non séquentielle). Il possède une structure complexe,
permettant une plus grande interactivité, mais nécessitant l'utilisation de
microprocesseurs évolués.

Le format DVD était porté originalement (dès le 15 septembre 1995) par un


consortium de dix sociétés du monde multimédia (Hitachi, JVC, Matsushita,
Mitsubishi, Philips, Pioneer, Sony, Thomson, Time Warner et Toshiba). A partir de
1997, un nouveau consortium, baptisé «DVD Forum» a succédé au consortium
initial.

Un DVD peut facilement être confondu avec un CD dans la mesure où les deux
supports sont des disques en plastique de 12 cm de diamètre et de 1.2 mm
d'épaisseur et que leur lecture repose sur l'utilisation d'un rayon laser. Toutefois, les
CD utilisent un laser infrarouge possédant une longueur d'onde de 780 nanomètres
(nm) tandis que les graveurs de DVD utilisent un laser rouge avec une longueur
d'onde de 635 nm ou 650 nm. De plus, les lecteurs de CD utilisent généralement
une lentille dont la focale vaut 0,5, alors que les lecteurs de DVD sont basés sur une
lentille ayant une focale de 0,6. Ainsi, les DVD possèdent des alvéoles dont la taille
minimum est de 0,40µ avec un espacement de 0,74µ, contre 0,834µ et 1,6µ pour le
CD.
L'intérêt du DVD est essentiellement sa capacité de stockage, ce qui en fait le
support par excellence pour la vidéo. Un DVD de 4,7 Go permet ainsi de stocker
plus de deux heures de vidéo compressée en MPEG-2 (Motion Picture Experts
Group), un format qui permet de compresser les images tout en gardant une grande
qualité d'image.

Structure physique
Les DVD existent en version «simple couche» et «double couche» (en anglais «Dual
Layer», noté DL). Ces derniers sont constitués d'une couche translucide semi
réfléchissante à base d'or et d'une couche réflexive opaque à base d'argent,
séparées par une couche de liaison (bonding layer). Pour lire ces deux couches le
lecteur dispose d'un laser pouvant changer d'intensité en modifiant sa fréquence et
sa focale :

• avec une intensité faible le rayon est réfléchi sur la surface dorée supérieure,
• avec une intensité plus élevée le rayon traverse la première couche et est
réfléchi sur la surface argentée inférieure.

La couche inférieure possède toutefois une densité moindre. De plus l'information y


est stockée «à l'envers» sur une spirale inversée, afin de limiter le temps de latence
lors du passage d'une couche à une autre.
Par ailleurs, les DVD existent en version simple face ou double face, à la manière
des disques vinyles. Dans le second cas, l'information est stockée de part et d'autre
du support.

On distingue généralement 4 grandes familles de supports DVD, possédant


différentes capacités selon leurs caractéristiques physiques :

Type de Capaci Temps musical Nombre de CD


Caractéristiques
support té équivalent équivalent

CD 650Mo 1h14 min 1

simple face, simple


DVD-5 4.7 Go 9h30 7
couche

simple face double


DVD-9 8.5 Go 17h30 13
couche

double face, simple


DVD-10 9.4 Go 19h 14
couche

double face, double


DVD-17 18 Go 35h 26
couche

Formats standard de DVD


Les spécifications officielles des DVD se déclinent en cinq livres :
• le livre A (Book A) pour le DVD-ROM ;
• le livre B (Book B) pour le DVD Vidéo ;
• le livre C (Book C) pour le DVD Audio ;
• le livre D (Book D) pour le DVD inscriptible (DVD-R) et le DVD réinscriptible
(DVD-RW). Le format DVD-R est un format inscriptible une seule fois (Write-
Once), tandis que le format DVD-RW est un format réinscriptible, permettant
l'effacement et la modification de données grâce à une phase capable de
changer d'état ;
• le livre E (Book E) pour le DVD réinscriptible (également DVD-RAM, pour DVD
Random Access Memory). Le DVD-RAM est un support réinscriptible utilisant
une technologie du changement de phase pour l'enregistrement. Les DVD-
RAM sont en réalité des cartouches composées d'un boîtier et d'un DVD.
Certaines cartouches sont amovibles, afin de permettre la lecture d'un DVD-
RAM dans un lecteur DVD de salon.

Formats standard de DVD enregistrables


Il existe actuellement trois formats de DVD enregistrables :

• DVD-RAM de Toshiba © et Matsushita ©. Il s'agit d'un format


essentiellement utilisé au Japon.
• DVD-R / DVD-RW, porté par le DVD Forum. Les DVD au format DVD-R sont
enregistrables une seule fois tandis que les DVD au format DVD-RW sont
réinscriptibles à raison d'environ 1 000 enregistrements. Le format DVD-R,
ainsi que le format DVD-RW, permet d'obtenir une capacité totale de 4.7 Go.
• DVD+R / DVD+RW, porté par Sony et Philips au sein de la DVD+RW
Alliance, regroupant, en plus des deux précédentes, les sociétés Dell,
Hewlett-Packard, Mitsubishi/Verbatim, Ricoh, Thomson et Yamaha.

Ces trois formats sont incompatibles entre eux, malgré des performances
équivalentes. Le format DVD-RAM ne fera pas l'objet de détails, dans la mesure où il
est principalement utilisé au Japon. Les formats DVD-R(W) et DVD+R(W) sont par
contre largement utilisés en Europe.

DVD-R/RW
Le format DVD-R/DVD-RW est basé sur une technique dite du «pré-pits». À la
manière des CD inscriptibles (CD-R), les DVD inscriptibles et réinscriptibles utilisent
une «pre-groove» (spirale préalablement gravée sur le support), ondulant selon une
sinusoïdale appelée
wobble. La pre-groove permet de définir le positionnement de la tête
d'enregistrement sur le support (appelé tracking) tandis que la fréquence
d'oscillation permet au graveur d'ajuster sa vitesse. Les informations d'adressage
(position des données) sont par contre définies grâce à des cuvettes pré-gravées
sur le support, dans les creux (appelés land) entre les sillons du disque (appelés
groove), baptisées «land pré pits» (abrégé en LPP).
Les pré-pits constituent ainsi un second signal servant au positionnement des
données. Lorsque le laser rencontre un pré-pit, un pic d'amplitude apparaît dans
l'oscillation, indiquant au graveur où la donnée doit être gravée. Les spécifications
du DVD-R précise qu'un pré-pit doit posséder une longueur d'au moins une période
(1T).

Le format DVD-R/DVD-RW propose des fonctionnalités de gestion des erreurs,


essentiellement logicielles (appelées Persistent-DM et DRT-DM).

DVD+R/RW
Le format DVD+R/DVD+RW utilise une spirale dont l'oscillation (wobble) possède
une fréquence beaucoup plus élevée que les DVD-R (817,4 kHz pour les DVD+R
contre 140,6 pour les DVD-R) et gère l'adressage grâce à une modulation de la
phase de l'oscillation, c'est-à-dire un codage par inversion de phase appelé ADIP
(ADdress In Pre-groove). L'inversion de phase a lieu toutes les 32 périodes (32T).

Le format DVD+RW offre une fonctionnalité de correction d'erreurs appelée


DVD+MRW (Mount Rainier for DVD+RW abrégé en Mt Rainier for DVD+RW)
permettant de marquer les blocs défectueux. De plus, si des données lisibles
existent sur ce bloc, un mécanisme permet de les déplacer sur un bloc sain et met à
jour la table d'allocation des fichiers (on parle alors de Logical to Physical Address
Translation).
En outre, une vérification en arrière-plan est prévue dans les spécifications,
permettant de vérifier les erreurs présentes sur le disque, lorsque le lecteur est
inactif. L'utilisateur peut néanmoins lire le support ou l'éjecter à tout moment,
auquel cas les vérifications continueront où elles s'étaient arrêtées dès que le
lecteur sera à nouveau en veille.

Différences entre DVD+ et DVD-


D'une manière générale la méthode d'adressage utilisée par les DVD+R
(modulation de phase) possède une meilleure résistance aux perturbations
électromagnétiques que la méthode des pré-pits. En effet, lors de la gravure, le
graveur doit également lire les pré-pits afin de positionner correctement les
données sur le support. Or, la lumière émise par le laser peut provoquer des
perturbations.

D'autre part, étant donné la période correspondant à la longueur d'un pré-pit (1T),
les pré-pits sont d'autant plus difficiles à détecter que la vitesse de lecture est
élevée. Il n'est donc pas étonnant que le premier graveur 16x commercialisé ait été
au format DVD+RW.

Ainsi, le format DVD+R(W), bénéficiant de spécifications plus récentes, propose de


meilleures performances ainsi que des fonctionnalités supplémentaires. En
contrepartie, le format DVD-R(W) est ratifié par le DVD Forum et correspond au
format initial, si bien qu'une majorité de lecteurs (notamment de salon) sont
compatibles.

Les graveurs de DVD supportent généralement les deux formats de disques. En


conclusion, compte tenu de sa meilleure compatibilité avec les platines de salon, le
format DVD-R(W) est à privilégier pour la création de DVD Vidéo, tandis que le
format DVD+R(W) comporte des avantages pour la création de DVD de données.

DVD DL
Le terme «DVD DL» (DVD Dual Layer) désigne les DVD enregistrables double
couche. Ces supports, proposant une plus grande capacité de stockage que les DVD
simple couche, utilisent une technologie proche des DVD-9 (DVD pressés double
couche).

Structure logique
Un DVD est essentiellement constitué de trois zones représentant la «zone
d'information» (information area) :

• La zone Lead-in Area (parfois notée LIA) contenant uniquement des


informations décrivant le contenu du support (ces informations sont stockées
dans la TOC, Table of Contents, traduisez table des contenus). La zone Lead-
in sert au lecteur à suivre les creux en spirale afin de se synchroniser avec
les données présentes dans la zone programme.
• La zone Programme (Program Area) est la zone contenant les données.
• La zone Lead-Out (parfois notée LOA), contenant des données nulles (du
silence pour un DVD audio), marque la fin du CD.
Un DVD enregistrable contient, en plus des trois zones décrites ci-dessus, une zone
appelée PCA (Power Calibration Area) et une zone RMA
(Recording Management Area) situées avant la zone Lead-In.

La PCA peut être vue comme une zone de test pour le laser afin de lui permettre
d'adapter sa puissance au type de support. C'est grâce à cette zone qu'est possible
la commercialisation de supports vierges utilisant des couches réfléchissantes et
des colorants organiques différents. A chaque calibration, le graveur note qu'il a
effectué un essai. Un maximum de 99 essais par media est autorisé.

Système de fichiers et répertoires


Les DVD utilisent le système de fichiers UDF (Universal Disk Format). Afin de
maintenir une certaine compatibilité avec d'anciens systèmes d'exploitation, un
système de fichiers hybride, appelé «UDF Bridge», supportant l'UDF et le système
de fichiers ISO 9660 utilisé par les CD-ROM, a été mis au point. Il est toutefois
important de noter que les lecteurs de DVD Vidéo et de DVD Audio ne supportent
que le système UDF.

Structure d'un DVD Vidéo


Un DVD vidéo peut contenir des données destinées à des platines de salon ainsi que
des données additionnelles pouvant être lues sur un ordinateur.

Un DVD-Video possède une organisation hiérarchique de ses répertoires permettant


de contenir les données vidéo et audio. Il repose habituellement sur la structure
suivante :

Le répertoire principal, nommé VIDEO_TS (pour Video Title Sets), a pour vocation de
contenir les fichiers du DVD Vidéo. Le répertoire AUDIO_TS concerne les DVD-Audio
mais sa présence est parfois demandée par certains lecteurs DVD de salon.
JACKET_P contient les images des jaquettes du DVD. Il est enfin possible d'y
adjoindre d'autres répertoires, pouvant être lus sur un ordinateur.

Un DVD vidéo est composé d'un certain nombre d'éléments, présents dans le
répertoire VIDEO_TS :

• un gestionnaire vidéo (VMG, pour Video Manager). Le VMG contient


généralement la ou les vidéos d'introduction, ainsi que le menu donnant
accès aux autres titres vidéo (y compris les sous-menus).
• un ou plusieurs ensembles de titres vidéo (VTS, pour video titles sets),
contenant les titres vidéo.

Les «titres vidéo» correspondent à des films, des vidéos ou des albums. Un titre est
composé d'un «ensemble d'objets vidéo» (VOBS, Video Object Block Sets), chacun
composé :

• d'un «fichier de contrôle» (appelé VTSI, pour Video Title Set Information), et
contenant les données de navigation.
• d'un ou plusieurs objets vidéo (VOB, Video Object Block). L'objet vidéo (VOB)
est l'élément de base du DVD. Il contient des données vidéo, audio et des
images multiplexées, au format MPEG2. Ainsi, un fichier .VOB peut être lu par
un lecteur vidéo logiciel en changeant son extension en «.MPG». Les
spécifications du DVD imposent que chaque fichier VOB ne dépasse pas un
giga-octet. Chaque VOB est lui-même composé de «cellules» (Cells),
représentant les différents clips vidéo ou audio composant le VOB : par
exemple des chapitres vidéo ou les chansons d'un album.
• d'une copie du VTSI (VTSI Backup).

Un DVD peut contenir jusqu'à 99 titres (VTS), chacun subdivisé jusqu'à 10 chapitres.
Ainsi, le répertoire VIDEO_TS contient habituellement trois types de fichiers
possédant les extensions suivantes :

• IFO contenant les informations de navigation (il correspond au Video


Manager).
• VOB (Video Object Block) contenant les flux vidéo, les différents canaux
audio ainsi que les sous-titres d'un titre vidéo.
• BUP (BUP signifiant Backup), contenant une sauvegarde des fichiers IFO, au
cas où ils seraient illisibles.

Le fichier particulier nommé VIDEO_TS.IFO (IFO signifiant information) contient les


informations nécessaires au lecteur pour l'affichage du menu principal. Il est
accompagné du fichier VIDEO_TS.VOB, contenant le clip d'animation d'introduction,
ainsi que d'un fichier de sauvegarde (nommé VIDEO_TS.BUP).

Zones
Les DVD Vidéo sont conçus pour ne pouvoir être consultés que dans certaines
régions du monde : il s'agit du découpage en zone (prévu initialement pour limiter
la diffusion des copies illicites). Il est ainsi théoriquement impossible de lire un DVD
d'une zone en étant situé dans une autre. Néanmoins, la quasi-totalité des lecteurs
de DVD pour ordinateurs et une grande partie des lecteurs de salon peuvent être
«dézonés» grâce à des utilitaires.
Blu ray
Disques Blu-ray
Le disque Blu-ray (ou BD) est un média optique conçu pour le stockage de vidéos
haute définition et de données. Il présente les mêmes dimensions qu’un CD ou un
DVD standard.

Ce format a fini par s’imposer après une « guerre de standard » l’opposant au


format HD DVD, soutenu essentiellement par Microsoft et Toshiba. Ce format avait
l’avantage d’être moins cher, mais se contentait d’un espace de stockage un peu
plus réduit. À la suite de l’annonce par Toshiba d’abandonner en février 2008 le
développement des produits HD DVD, l’ensemble des autres partenaires ont
abandonné le format, laissant Blu-ray s’imposer en tant que standard du stockage
haute définition.

Laser bleu
Son nom provient de l’utilisation d’un laser bleu (en fait plutôt violet) pour la lecture
ou l’écriture des données. Ce laser a une longueur d’onde de 405 nm, alors que les
lasers présents dans les lecteurs CD ou DVD classiques utilisent respectivement des
lasers infrarouges proches (780 nm) ou rouges (650 nm). Le laser bleu, avec sa
longueur d’onde plus faible, permet de lire ou écrire des « trous » plus petits sur un
même espace, ce qui permet par là même d’augmenter le nombre de sillons du
disque et donc de stocker un plus grand nombre d’informations.

Sa capacité courante est de 25 Go en simple face et 50 Go en double face. Trois


standards sont définis : le BD-R (disque enregistrable), le BD-RE (réinscriptible) et le
BD-ROM (lecture seule).

Des disques BD-ROM à 4 couches sont également possibles : il existe ainsi des
disques de 100 Go utilisant 4 couches de 25 Go, et de même de 200 Go utilisant 6
couches de 33,3 Go. Pour le moment, tous les lecteurs du marché ne sont pas
capables de les lire. À terme, il pourrait exister jusqu’à 10 couches (par face).

Comme pour les CD-R ou DVD-R, plusieurs vitesses d’enregistrement ont été
définies pour le BD-R (ou -RE) :

Temps d’écriture (min) pour un disque


Vitess Taux de transfert Blu-ray
e (Mo/s)
Simple couche Double couche

1x 4,5 90 180

2x 9 45 90

4x 18 23 45

6x 27 15 30

8x 36 12 23
12x 54 8 15

À ce jour, les deux dernières vitesses (8x et 12x) restent totalement théoriques.

Sur les disques Blu-ray, la surface sur laquelle sont présentes les données doit
toutefois être plus près de la surface du disque. Comparé à un DVD standard, il est
donc plus sensible aux rayures. Les premières versions utilisaient pour éviter ce
désagrément des boîtiers de protection intégrés de type cartouche. Les progrès
rapides effectués par les fabricants (TDK, Sony, Verbatim, etc.) dans le domaine des
polymères ont permis de supprimer ces protections et d’abandonner l’enveloppe de
protection.

Comme pour le CD ou le DVD, il existe un format réduit de Blu-ray à 8 cm (au lieu


de 12 cm). Ce format, simple couche, à une face, est destiné à de petits appareils
portables (caméra, console portable, etc.) et permet de stocker 15 Go.

Compression, codecs et heures de vidéo


Le format BD-ROM spécifie trois formats de compression pour la vidéo : MPEG-2,
H.264/AVC, SMPTE VC-1. Le codec MPEG-2 est le standard actuellement utilisé pour
les DVD. En utilisant ce codec, il est possible de placer deux heures de vidéo haute
définition sur un disque simple couche, car le MPEG-2 haute définition nécessite un
taux de transfert d’environ 25 Mbit/s (chaque seconde de film utilise donc 3 Mo). En
comparaison, le codec H.264/AVC (qui est une évolution du MPEG-4) et le codec
SMPTE VC-1 (dérivé des développements de Microsoft pour son codec inclus dans
Windows Media Player 9) permettent de stocker jusqu’à 4 heures de film sur le
même support.

Le choix du codec par le producteur du disque n’est pas qu’une affaire de temps
maximal disponible sur le disque. C’est également un problème de coûts de licence
et de royalties à payer. Il arrive ainsi que sur un même disque on trouve le film
principal en VC-1 et les bonus en MPEG-2.

Les graveurs de salon disponibles actuellement (formats BD-R et BD-RE) ne


supportent que le codec MPEG-2. En effet, ce standard étant utilisé pour la diffusion
HDTV (TV haute définition), l’enregistreur écrit directement ce flux sur le disque
(aucun enregistreur actuellement disponible pour le grand public n’est capable de
transcrire en temps réel du MPEG-2 vers un autre codec).

Il n’est pas précisé dans la norme Blu-ray que les lecteurs doivent être compatibles DVD ou CD.
Si la quasi-totalité des modèles présents dans le commerce le sont effectivement, il est
indispensable de s’en assurer, quelques-uns ne permettant toujours pas la lecture de certains CD.

Zonage et protections
Comme pour les DVD, les disques Blu-ray peuvent être soumis à l’utilisation sur une
zone géographique. Il n’existe toutefois avec ce standard que trois régions définies
à l’échelle mondiale.

La zone A correspond aux Amériques, à l’Asie de l’Est et du Sud-Est, la zone B, à


l’Europe, l’Afrique, le Moyen-Orient, et l’Océanie. Enfin, la zone C couvre l’Asie
centrale et du Sud ainsi que la Russie.

Ainsi, la plupart des fabricants de BD (Japon, Corée, Malaisie) sont situés dans la
même zone que l’Amérique du Nord. En 2008, environ deux tiers des disques
produits n’étaient pas rattachés à une région.

Le disque Blu-ray permet d’utiliser plusieurs types de systèmes de gestion de droits


ou DRM (Digital Rights Management).

• AACS (Advanced Access Content System) est un standard utilisé depuis


plusieurs années par LLC, un consortium incluant Disney, IBM, Intel,
Microsoft, Panasonic, Sony, Toshiba et Warner Bros. Bien que des failles aient
été trouvées en 2006, cet algorithme continue à être utilisé en utilisant de
nouvelles clés cryptographiques.
• BD+ est développé par Cryptography Research Inc. et basé sur l’utilisation
d’une mini-machine virtuelle (sur le même principe qu’un Java embarqué)
capable de vérifier le bon usage du lecteur, si ses clés n’ont pas été
modifiées, si chaque élément de la chaîne (du lecteur au téléviseur HD par
exemple) est valide, et de décoder le contenu audio et vidéo.
• Enfin, BD-ROM Mark permet de stocker une clé cryptographique sur un BD-
ROM sans que cette clé puisse être dupliquée vers un BD-R grâce à l’usage
d’un format propriétaire de BD-ROM, décodable uniquement avec une puce
spécifique, présente sur les lecteurs compatibles.

Clé USB
Introduction à la notion de clé USB

Une clé USB (en anglais USB key) est un périphérique de stockage amovible de petit format
pouvant être branché sur le port USB d'un ordinateur.

Une clé USB embarque dans une coque plastifiée un connecteur USB et de la mémoire flash, une
mémoire à semi-conducteurs, non volatile et réinscriptible, c'est-à-dire une mémoire possédant
les caractéristiques d'une mémoire vive mais dont les données ne se volatilisent pas lors d'une
mise hors tension.

Ainsi une clé USB est capable de stocker jusqu'à plusieurs gigaoctets de données, tout en étant
capable de conserver les données lorsque l'alimentation électrique est coupée, c'est-à-dire lorsque
la clé est débranchée.

Dans la pratique une clé USB est très pratique pour des utilisateurs nomades car elle est très
facile à transporter et peut contenir une grande quantité de documents et de données.

Par ailleurs, les cartes mères récentes permettent de booter sur des clés USB, ce qui signifie qu'il
est désormais possible de démarrer un système d'exploitation à partir d'une simple clé USB !
Pratique pour les utilisateurs souhaitant disposer de leur environnement de travail où qu'ils soient
ou pour amorcer et dépanner un système en cas de plantage !

Caractéristiques

Les caractéristiques à prendre en compte lors du choix d'une clé USB sont les suivantes :

• Capacité
• Taux de transfert : il s'agit de la vitesse de transfert des données. Il est à
noter que le taux de transfert en lecture est généralement différent du taux
de transfert en écriture, car le processus d'écriture sur la mémoire flash est
plus lent. Le taux de transfert dépend de la vitesse en lecture et en écriture
de la mémoire Flash, ainsi que de la version de la norme USB
supportée :**USB 1.1 (USB bas débit) pouvant atteindre 12 Mbit/s,
o USB 2.0 (USB Haut débit ou Hi-speed) pouvant atteindre 480 Mbit/s. Il
est important de noter que pour pouvoir profiter pleinement de ce taux
de transfert, la clé devra être branchée sur un port USB 2.0. Dans le
cas contraire (port USB 1.1), la clé fonctionnera à bas débit.
• Fonctionnalités de chiffrement : certaines clés proposent des outils
permettant de crypter les données ou une partie des données présentes sur
la clé afin d'en renforcer leur confidentialité.
• Protection des données en écriture : sur certaines clés, un interrupteur
matériel permet de mettre la clé en lecture seule afin d'éviter la suppression
ou la modification des données.
• Fonctions multimédias : lorsque la clé USB possède une prise casque et
permet la lecture de fichiers audios (généralement au format MP3), on parle
alors de lecteur MP3 ou baladeur MP3.

Le clavier
Présentation du clavier

Le clavier (en anglais keyboard) permet, à la manière des machines à écrire, de saisir des
caractères (lettres, chiffres, symboles ...), il s'agit donc d'un périphérique d'entrée essentiel pour
l'ordinateur, car c'est grâce à lui qu'il nous est possible d'envoyer des commandes.

Le terme "AZERTY" (en rapport avec les 6 premières touches alphabétiques du clavier) désigne
un type de clavier, équipant la quasi-totalité des ordinateurs en France et en Belgique. Il s'agit de
la déclinaison pour les pays francophones du clavier QWERTY.

Le clavier Qwerty a été conçu en 1868 à Milwaukee par Christopher Latham Sholes en
répartissant aux opposées du clavier les touches correspondant aux paires de lettres les plus
utilisées dans la langue anglaise afin d'empêcher les tiges (portant les caractères) des machines à
écrire de l'époque de se croiser et de se coincer. Ce clavier a été vendu à l'entreprise Remington
en 1873. Le clavier Qwerty (et par extension le clavier Azerty) a donc été conçu dans une
optique purement technique, à l'encontre de l'ergonomie et de l'efficacité. La légende veut que la
disposition des touches sur la première ligne du clavier Qwerty a été motivée par les vendeurs de
machines à écrire de l'époque de telle manière à ce que toutes les touches nécessaires à l'écriture
de "typewriter" ("machine à écrire" en anglais) s'y trouvent lorsqu'ils faisaient des
démonstrations !
En 1936, August Dvorak (professeur à l'université de Washington) a mis au point un clavier dont
la disposition des touches est entièrement pensée en terme d'efficacité. Ainsi le clavier Dvorak a
été mis au point en disposant sur la ligne centrale l'ensemble des voyelles de l'alphabet et les cinq
consonnes les plus utilisées, de façon à permettre leur accessibilité tout en favorisant une bonne
alternance entre main gauche et main droite. D'autre part les lettres de l'alphabet les plus
fréquentes ont été placées au centre du clavier.

Différentes études ont montré que les apports du clavier Dvorak en matière d'efficacité étaient
maigres dans la pratique et que l'effort demandé pour passer du clavier Azerty ou Qwerty au
clavier Dvorak était trop lourd pour que cela soit nécessaire, cela explique pourquoi tous les
ordinateurs sont encore aujourd'hui équipés du clavier Azerty/Qwerty.

Connecteur de clavier

Les claviers sont généralement branchés à l'arrière de l'unité centrale, sur la carte mère, sur un
connecteur PS/2 de couleur violette :

Fonctionnement

A chaque pression d'une touche du clavier, un signal spécifique est transmis à l'ordinateur. Le
clavier utilise en effet un réseau matriciel permettant d'identifier chaque touche grâce à une ligne
et une colonne.
Lorsqu'une touche est pressée, un contact électrique s'établit entre la ligne et la colonne. Les
signaux électriques sont transmis à un micro-contrôleur, qui envoie un code (BCD, ASCII ou
Unicode) à l'ordinateur décrivant le caractère correspondant à la touche.

Les types de claviers

Il existe 4 types de claviers pour PC, les trois premiers ont été inventés par IBM, le dernier est la
conséquence d'une modification due à la sortie de Microsoft Windows 95. Voici les quatre types
de clavier :

• le clavier à 83 touches, de type PC/XT


• Le clavier à 84 touches, de type PC/AT
• Le clavier à 102 touches, appelé aussi clavier étendu
• Le clavier à 105 touches compatible Microsoft Windows 95

Les claviers de type PC/XT

Il s'agit du premier clavier pour PC, il a la particularité d'être dissocié de l'ordinateur,


contrairement à tous les ordinateurs de l'époque (Apple II, Amiga, ...) pour lesquels l'ordinateur
et le clavier étaient une seule et même entité.

Ce clavier comportait 83 touches, mais était critiqué pour la disposition des touches
et leurs disproportions (notamment les touches Maj et Entrée qui étaient trop
petites et mal placées). D'autre part, la communication entre le clavier et l'unité
centrale était à sens unique, ce qui signifie que le clavier ne pouvait pas comporter
d'afficheur de type LED.

Les clavier de type PC/AT

Le clavier de type PC/AT, possédant 84 touches, a équipé les PC de type AT en 1984.


Ce type de clavier corrige les erreurs de son prédécesseur en redimensionnant notamment les
touches Maj et Entree. D'autre part ce clavier est bidirectionnel, c'est-à-dire qu'il peut afficher
des états à l'aide d'afficheurs LED. Enfin, la carte mère équipant les PC de type AT comportait
un contrôleur permettant de paramétrer :

• La fréquence de répétition, c'est-à-dire le nombre de caractères envoyés par


seconde lorsqu'une touche est enfoncée
• Le délai de répétition: le temps au bout duquel l'ordinateur considère que la
touche est enfoncée, afin de différencier une simple pression de touche (un
caractère) d'un enfoncement de touche prolongé

Les claviers étendus

Les nouveaux ordinateurs compatibles IBM lancés en 1986 étaient équipés de claviers
comportant 102 touches.

Ce clavier comporte différents blocs de touches : les touches de fonctions ont été déplacés sur le
bord haut du clavier à partir de ce modèle, et des touches de contrôle de curseur représentant des
flèches ont été ajoutées à ce clavier.

Les claviers compatibles Windows

Microsoft a défini trois nouvelles touches permettant d'effectuer des raccourcis vers des
fonctionnalités de Windows.
Ces trois nouvelles touches sont, de gauche à droite :

• La touche Windows gauche


• La touche Windows droite
• La touche Application

Voici certains des raccourcis que permettent ces nouvelles touches :

Combinais
Description
on

WIN - E Afficher l'explorateur

WIN - F Rechercher un fichier

WIN - F1 Afficher l'aide

Minimiser toutes les fenêtres du


WIN - M
bureau

WIN - Pause Afficher les propriétés du système

WIN - Tab Explorer la barre des tâches

WIN - R Afficher la boîte "Exécuter"

La souris
Présentation de la souris

La souris (en anglais «mouse» ou «mice») est un périphérique de pointage (en anglais pointing
device) servant à déplacer un curseur sur l'écran et permettant de sélectionner, déplacer,
manipuler des objets grâce à des boutons. On appelle ainsi «clic» l'action consistant à appuyer
(cliquer) sur un bouton afin d'effectuer une action.
La première souris a été inventée et mise au point par Douglas Carle Engelbart du Stanford
Research Institute (SRI) : il s'agissait d'une souris en bois contenant deux disques
perpendiculaires et relié à l'ordinateur par une paire de fils torsadés.

Connecteur de souris

La souris est généralement branchée à l'arrière de l'unité centrale, sur la carte mère, sur un
connecteur PS/2 de couleur verte :

Certaines souris, possédant des fonctionnalités avancées possèdent parfois une connectique <a
ref="usb.php3">USB</a>.

Types de souris

Il existe plusieurs types de souris, classifiés selon la technologie de positionnement d'une part,
selon la transmission des données à l'unité centrale d'autre part.

On distingue ainsi plusieurs grandes familles de souris :

• Les souris mécaniques, dont le fonctionnement est basé sur une boule (en
plastique ou en caoutchouc) encastrée dans un châssis (en plastique)
transmettant le mouvement à deux rouleaux;
• Les souris opto-mécaniques, dont le fonctionnement est similaire à celui
des souris mécaniques, si ce n'est que le mouvement de la boule est détecté
par des capteurs optiques ;
• Les souris optiques, capables de déterminer le mouvement par analyse
visuelle de la surface sur laquelle elles glissent.

Souris mécanique

La souris mécanique comporte une bille sur laquelle tournent deux rouleaux. Ces rouleaux
comportent chacun un disque cranté qui tourne entre une photodiode et une LED (Diode
électroluminescente) laissant passer la lumière par séquence. Lorsque la lumière passe, la
photodiode renvoie un bit (1), lorsqu'elle rencontre un obstacle, la photodiode renvoie un bit nul
(0). A l'aide de ces informations, l'ordinateur peut connaître la position du curseur, voire sa
vitesse.
Astuce: A force de l'utiliser, de la poussière se dépose sur les rouleaux de la souris,
empêchant celle-ci de tourner correctement et provoquant des réactions curieuses
de la part du curseur. Pour y remédier, il suffit d'ouvrir la cage contenant la bille et
de nettoyer les rouleaux (avec une brosse à dents de récupération par exemple).

Souris optique

La souris optique possède un fonctionnement basé sur l'analyse de la surface sur laquelle elle se
déplace. Ainsi une souris optique est constituée d'une LED, d'un système d´acquisition d´images
(IAS) et d'un processeur de signaux numériques (DSP).

La LED est chargée d'éclairer la surface afin de permettre au système IAS d'acquérir l'image de
la surface. Le DSP, par analyse des caractéristiques microscopiques de la surface, détermine le
mouvement horizontal et vertical.

Les souris optiques fonctionnent sur toutes surfaces non parfaitement lisses ou bien possèdant
des dégradés de couleur. Les avantages principaux de ce type de dispositif de pointage par
rapport aux souris mécaniques sont notamment une précision accrue ainsi qu'un salissement
moindre.

Souris sans fil

Les souris sans fil (en anglais cordless mouse) sont de plus en plus populaire car elles peuvent
être utilisées sans être physiquement reliées à l'ordinateur, ce qui procure une sensation de
liberté.

Il existe également plusieurs catégories de souris sans-fil, selon la technologie utilisée :

• souris infrarouges (en anglais «IR» pour «infrared»): ces souris sont
utilisées en vis-à-vis avec un récepteur infrarouge connecté à l'ordinateur. La
portée de ce type de dispositif est de quelques mètres au plus, en vision
directe, au même titre que la télécommande d'un téléviseur.
• souris hertzienne : ces souris sont utilisées avec un récepteur hertzien,
généralement propriétaire au constructeur. La portée de ce type de dispositif
est d'une dizaine de mètres au plus,, sans nécessairement avoir une ligne
visuelle avec l'ordinateur. Ce type de dispositif peut notamment être pratique
pour les personnes connectant leur ordinateur à leur téléviseur, situé dans
une autre pièce.
• souris bluetooth : ces souris sont utilisées avec un récepteur bluetooth
connecté à l'ordinateur. La portée de ce type de dispositif est équivalente aux
technologies hertziennes propriétaires.

Souris à molette

De plus en plus de souris sont équipées d'une molette. La molette, généralement situé entre le
bouton gauche et le bouton droit permet de faire défiler des pages tout en permettant à
l'utilisateur de déplacer le curseur sur l'écran.

L'imprimante
L'imprimante

L'imprimante (en anglais printer) est un périphériques permettant de faire une sortie imprimée
(sur papier) des données de l'ordinateur.

Il existe plusieurs technologies d'imprimantes dont les plus courantes sont :

• l'imprimante à marguerite ;
• l'imprimante matricielle (également appelée imprimante à aiguilles) ;
• l'imprimante à jet d'encre et imprimante à bulles d'encre</a> ;
• l'imprimante laser.

De nos jours, les imprimantes à marguerite et les imprimantes matricielles ne sont


quasiment plus utilisées.

Caractéristiques

L'imprimante est généralement caractérisée par les éléments suivants :

• Vitesse d'impression : exprimée en pages par minute (ppm), la vitesse


d'impression représente la capacité de l'imprimante à imprimer un grand
nombre de pages par minute. Pour les imprimantes couleur, on distingue
habituellement la vitesse d'impression en monochrome et en couleur.
• Résolution : exprimée en points par pouces (notés ppp ou dpi, pour dot per
inch), la résolution définit la finesse de l'impression. La résolution est parfois
différente pour une impression monochrome, couleur ou photo.
• Temps de préchauffage : il représente le temps d'attente nécessaire avant
la première impression. En effet une imprimante ne peut pas imprimer « à
froid », il lui est nécessaire d'atteindre une certaine température pour
fonctionner de manière optimale.
• Mémoire embarquée : il s'agit de la quantité de mémoire permettant à
l'imprimante de stocker les travaux d'impression. Plus la quantité de
mémoire est élevée, plus la file d'attente des travaux peut être importante.
• Le format de papier : selon leur taille, les imprimantes sont capables
d'accueillir différentes taille de documents, généralement au format A4 (21 x
29,7 cm), plus rarement au format A3 (29,7 x 42 cm). Certaines imprimantes
permettent également d'imprimer sur d'autres types de support, tels que les
CD ou les DVD.
• Alimentation papier : il s'agit du mode de chargement de l'imprimante,
caractérisant la façon de laquelle le papier vierge est stocké. Elle a
notamment son importance selon l'emplacement prévue pour l'imprimante
(un chargement par l'arrière est à proscrire si l'imprimante est collée contre
un mur).* Les principaux modes d'alimentation papier sont les suivants :
o L'alimentation par bac (également appelée alimentation par tiroir),
utilise une source d'alimentation de papier interne. Sa capacité
représente le nombre maximal de feuilles de papier qu'il peut
accueillir.
o L'alimentation par plateau est un mode d'alimentation manuel,
permettant d'insérer les feuilles par petite quantité (environ une
centaine). Le plateau est parfois horizontal, parfois vertical, à l'arrière
de l'imprimante.
• Cartouches : les cartouches sont rarement standard et dépendent fortement
de la marque et du modèle d'imprimante. Ainsi certains constructeurs
privilégient des cartouches multicolores, tandis que d'autres proposent des
cartouches d'encre séparées. Les cartouches d'encre séparées sont
globalement plus économiques car il n'est pas rare qu'une couleur soit plus
utilisée que les autres.

Il est intéressant de regarder le coût d'impression à la feuille. La taille de la goutte d'encre a


notamment son importance. Plus la goutte d'encre est petite, moins le coût d'impression sera
élevé et meilleure sera la qualité d'image. Certaines imprimantes permettent d'obtenir des gouttes
de 1 ou 2 picolitre.

• Interface : il s'agit de la connectique de l'imprimante. Les principales


interfaces sont les suivantes :
o USB ;
o Parallèle ;
o Réseau : ce type d'interface permet de partager très facilement une
imprimante entre plusieurs ordinateurs. Il existe également des
imprimantes WiFi, accessibles via un réseau sans fil. Si votre
imprimante ne dispose pas d’interface réseau, vous pouvez
tout de même la brancher à votre réseau (local ou Wi-Fi)
grâce à un boîtier spécifique appelé "serveur d'impression".

L'imprimante à marguerite

Les imprimantes à marguerite sont basées sur le principe des machines dactylographiques.
Tous les caractères sont imprimés en relief sur une matrice en forme de marguerite. Pour
imprimer, un ruban imbibé d'encre est placé entre la marguerite et la feuille. Lorsque la matrice
frappe le ruban, celui-ci dépose de l'encre uniquement au niveau du relief du caractère.

Ces imprimantes sont devenues obsolètes car elles sont beaucoup trop bruyantes et très peu
rapides.

L'imprimante matricielle

L'imprimante matricielle (parfois appelée imprimante à aiguilles, imprimante à impact ou en


anglais Dot-Matrix printer) permet d'imprimer des documents sur le papier grâce à un « va-et-
vient » d'un chariot comportant une tête d'impression.

La tête est constituée de petites aiguilles, poussées par des électro-aimants, venant heurter un
ruban de carbone, appelé « ruban encreur », situé entre la tête et le papier.
Le ruban de carbone défile afin qu'il y ait continuellement de l'encre dessus. A chaque fin de
ligne un rouleau fait tourner la feuille.

Les imprimantes matricielles les plus récentes sont équipées de têtes d'impression comportant 24
aiguilles, ce qui leur permet d'imprimer avec une résolution de 216 ppp (points par pouce ou en
anglais dots per inch, notés dpi).

L'imprimante à jet d'encre et à bulles d'encre

La technologie des imprimantes à jet d'encre (Bubble jet printers) a été originalement inventée
par Canon, elle repose sur le principe qu'un fluide chauffé produit des bulles.

Le chercheur qui a découvert ce principe avait mis accidentellement en contact une seringue
remplie d'encre et un fer à souder, cela créa une bulle dans la seringue qui fit jaillir de l'encre de
la seringue.

Les têtes des imprimantes actuelles sont composées de nombreuses buses (jusqu'à 256),
équivalentes à plusieurs seringues, chauffées entre 300 et 400°C plusieurs fois par seconde.

Chaque buse produit une bulle minuscule qui fait s'éjecter une gouttelette extrêmement fine. Le
vide engendré par la baisse de pression aspire une nouvelle goutte.
On distingue généralement deux technologies :

• Les imprimantes à jet d'encre, utilisant des buses possédant leur propre
élément chauffant intégré. La technologie utilisée est ainsi thermique.
• Les imprimantes à bulles d'encre, utilisant des buses possédant une
technologie piézo-électrique. Chaque buse est associé à un quartz piézo-
électrique, qui, excité sur sa fréquence de résonance, se déforme et éjecte la
goutte d'encre.

L'imprimante laser

L'imprimante laser permet d'obtenir des tirages papier de qualité, à faible coût et avec une
vitesse d'impression élevée. En revanche le coût d'acquisition d'une telle imprimante la réserve à
des usages semi professionnels ou professionnels.

L'imprimante laser utilise une technologie proche de celle utilisée dans les photocopieurs. Une
imprimante laser est ainsi principalement constituée d'un tambour photosensible (en anglais «
drum ») qui, chargé électrostatiquement, est capable d'attirer l'encre afin de former un motif qui
sera déposé sur la feuille de papier.

Le fonctionnement global est le suivant : un ioniseur de papier charge les feuilles positivement.
Le laser charge le tambour positivement en certains points grâce à un miroir pivotant. Ainsi,
l'encre sous forme de poudre (toner), chargée négativement, se dépose sur les parties du toner
ayant été préalablement chargées par le laser.

En tournant, le tambour dépose l'encre sur le papier. Un fil chauffant (appelé coronaire) permet
enfin de fixer l'encre sur le papier.
Ainsi, l'imprimante laser, n'ayant pas de tête mécanique, est rapide et peu bruyante.

On distingue en fait deux technologies pour les imprimantes laser : "carrousel" (quatre passages)
ou "tandem" (monopasse).

• carrousel : Avec la technologie carrousel, l'imprimante effectue quatre


passages pour imprimer un document (un par couleur primaire et un pour le
noir, ce qui fait que l'impression est en théorie quatre fois moins rapide en
couleur qu'en noir).
• tandem : Une imprimante laser exploitant la technologie « tandem » dépose
chaque couleur en un seul passage, les toners étant disposés parallèlement.
Les sorties sont aussi rapides en noir qu'en couleur. Cette technologie a
toutefois un prix de revient plus élevé, la mécanique étant plus complexe.
Elle est donc réservée en principe aux imprimantes laser couleur de milieu ou
de haut de gamme.

L'imprimante LED

Une autre technologie d'impression concurrence les imprimantes laser : la technologie LED
(Light Emitting Diode). Avec cette technologie, une rampe de diodes électro-luminescentes
polarise le tambour au moyen d'un rayon lumineux très fin, permettant d'obtenir de très petits
points. Cette technologie et particulièrement bien adaptée pour l'obtention de hautes résolutions
(600,1200 ou 2400 ppp).

Etant donné que chaque diode est à l'origine d'un point, la cadence d'impression ne souffre
presque pas des différences de résolution. De plus, cette technologie est dépourvue de parties
mobiles, ce qui permet de concevoir des produits moins coûteux, mais aussi plus robustes et plus
fiables.
Les langages de description de page

Le langage de description de page est le langage standard que l'ordinateur utilise pour
communiquer avec l'imprimante. En effet, il faut que l'imprimante soit capable d'interpréter les
informations que l'ordinateur lui envoie.

Les deux langages de description de page principaux sont les suivants :

• Langage PCL: il s'agit d'un langage constitué de séquences binaires. Les


caractères sont transmis selon leur code ASCII
• Langage PostScript: ce langage, utilisé à l'origine pour les imprimantes
Apple LaserWriter, est devenu le standard en matière de langage de
description de page. Il s'agit d'un langage à part entière basé sur un
ensemble d'instructions

Le scanner
Le scanner

Un scanner (anglicisme pour le mot français «numériseur») est un périphérique d'acquisition


permettant de numériser des documents, c'est-à-dire de transformer un document papier en image
numérique.

On distingue généralement trois catégories de scanners :

• Les scanners à plats permettant de numériser un document en le plaçant à


plat contre une vitre. Il s'agit du type de scanner le plus courant.
• Les scanners à main possédant une taille réduite. Ces scanners doivent
être déplacés manuellement (ou semi manuellement) sur le document, par
bandes successives, afin de le numériser en entier.
• Les scanners par défilement faisant défiler le document devant une fente
lumineuse fixe afin de le numériser, à la manière des télécopieurs (fax). Ce
type de scanner est de plus en plus intégré dans des appareils tels que des
imprimantes multifonctions.

Il existe également des scanners capables de numériser des supports particuliers


tels que les diapositives.

Caractéristiques d'un scanner

Un scanner est généralement caractérisé par les éléments suivants :

• Résolution : exprimée en points par pouces (notés ppp ou dpi, pour dot per
inch), la résolution définit la finesse de la numérisation. L'ordre de grandeur
de la résolution est d'environ 1200 par 2400 dpi. La résolution horizontale est
fortement dépendante de la qualité et du nombre de capteurs, tandis que la
résolution verticale est intimement liée à la précision du moteur
d'entraînement. Il faut toutefois veiller à distinguer la résolution optique,
représentant la résolution réelle du scanner, de la résolution interpolée.
L'interpolation est une technique consistant à définir des pixels
intermédiaires entre des pixels réels, en calculant la moyenne des couleurs
des pixels avoisinants. Cette technologie permet donc d'obtenir des résultats
intéressants mais la résolution interpolée ainsi définie n'est en aucun cas une
grandeur permettant de comparer des scanners.
• Le format de document : selon leur taille, les scanners sont capables
d'accueillir différentes taille de documents, généralement A4 (21 x 29,7 cm),
plus rarement A3 (29,7 x 42 cm).
• Vitesse d'acquisition : exprimée en pages par minute (ppm), la vitesse
d'acquisition représente la capacité du scanner à acquérir un grand nombre
de pages par minute. La vitesse d'acquisition dépend du format du document
ainsi que de la résolution choisie pour la numérisation.
• Interface : il s'agit de la connectique du scanner. Les principales interfaces
sont les suivantes :
o Firewire. Il s'agit de l'interface de prédilection, car son débit est
particulièrement adapté à ce type de périphériques ;
o USB 2.0. Présent sur la totalité des ordinateurs récents, il s'agit d'une
interface standard, conseillée si l'ordinateur ne possède pas de
connexion firewire ;
o SCSI. Interface de prédilection pour le scanner à la fin des années 90,
le standard SCSI est actuellement délaissé au profit du Firewire et de
l'USB 2.0 ;
o Port parallèle. Lent par nature, ce type de connectique est de moins en
moins utilisée et à éviter si l'ordinateur possède une des connectiques
précédentes ;
• Caractéristiques physiques : d'autres éléments peuvent être pris en
compte lors du choix d'un scanner :
o L'encombrement, correspondant aux dimensions physiques du
scanner.
o Le poids.
o La consommation électrique, exprimée en Watts (W).
o Les températures de fonctionnement et de stockage.
o Le niveau sonore. Un scanner peut s'avérer être très bruyant, ce qui
peut constituer une nuisance non négligeable.
o Les accessoires : Les pilotes et le manuel d'utilisation sont
habituellement fourni, mais il faut s'assurer que les câbles de
raccordement le sont également ou, dans le cas contraire, les acheter
à part.

Fonctionnement d'un scanner

Le principe du fonctionnement d'un scanner est le suivant :

• Le scanner parcourt le document ligne par ligne ;


• Chaque ligne est décomposée en « points élémentaires », correspondant à
des pixels.
• Un capteur analyse la couleur de chacun des pixels ;
• La couleur de chaque pixel est décomposée selon 3 composantes (rouge, vert
, bleu) ;
• Chacune des composantes de couleur est mesurée et représentée par une
valeur. Pour une quantification sur 8 bits, chacune des composantes aura une
valeur comprise entre 0 et 255.
La suite de cet article décrira en particulier le fonctionnement d'un scanner à plat, toutefois le
mode de fonctionnement pour un scanner à main ou un scanner à défilement est exactement le
même. Seul la façon de faire défiler le document diffère.

Un scanner à plat possède une fente lumineuse motorisée, balayant le document ligne par ligne
située sous une vitre transparente sur laquelle est posé le document, face à numériser vers le bas.

La lumière de grande intensité ainsi émise est réfléchie par le document et converge vers une
série de capteurs grâce à un système de lentilles et de miroirs. Les capteurs convertissent les
intensités lumineuses reçues en signaux électriques, eux-mêmes convertis en données
numériques par un convertisseur analogique-numérique.

On distingue deux catégories de capteurs :

• Les capteurs CMOS (Complementary Metal Oxyd Semi-conductor, ou encore


MOS complémentaires). On parle alors de technologie CIS (Contact Image
Sensor). Ce type de dispositif utilise une rampe de LED (Light Emitting Diode
pour l'éclairage du document et requiert une distance très étroite entre les
capteurs et le document. En contrepartie, la technologie CIS est bien moins
consommatrice d'énergie.
• Les capteurs CCD (Charge-coupled devices). Les scanners utilisant la
technologie CCD sont souvent plus épais car ils utilisent une lampe froide de
type néon. La qualité de l'image numérisée est en revanche globalement
meilleure, grâce à un rapport signal/bruit plus faible.

Le modem
A quoi sert un modem ?

Le modem est le périphérique utilisé pour transférer des informations entre plusieurs ordinateurs
via un support de transmission filaire (lignes téléphoniques par exemple). Les ordinateurs
fonctionnent de façon numérique, ils utilisent le codage binaire (une série de 0 et de 1), mais les
lignes téléphoniques sont analogiques. Les signaux numériques passent d'une valeur à une autre,
il n'y a pas de milieu, de moitié, c'est du « Tout Ou Rien » (un ou zéro). Les signaux analogiques
par contre n'évoluent pas « par pas », ils évoluent de façon continue.

Le piano par exemple fonctionne plus ou moins de façon numérique car il y a un "pas" entre les
notes. Un violon par contre peut moduler ses notes pour passer par toutes les fréquences
possibles.

Un ordinateur fonctionne à la manière d'un piano, un modem comme un violon. Le modem


convertit en analogique l'information binaire provenant de l'ordinateur, afin de le moduler par la
ligne téléphonique. On peut entendre des bruits étranges si l'on monte le son provenant du
modem.

Ainsi, le modem module les informations numériques en ondes analogiques. En sens inverse, il
démodule les données analogiques pour les convertir en numérique. Le mot « modem » est ainsi
un acronyme pour « MOdulateur/DEModulateur ».
La vitesse de transmission du modem est généralement exprimée en bauds, en
hommage à Emile Baudot (11 septembre 1845 - 28 mars 1903), un célèbre
ingénieur français ayant oeuvré dans les télécommunications. Cette unité de
vitesse de transmission d'information caractérise la fréquence de (dé)modulation,
c'est-à-dire le nombre de changement d'états que le modem fait subir au signal par
seconde. Ainsi, le débit en bauds n'est pas tout à fait égal au débit en bits par
secondes, car plus d'un changement d'état du signal peuvent être nécessaires pour
coder un bit.

Les standards de communication


La multiplication des modems a nécessité une standardisation des protocoles de
communication par modem afin qu'ils parlent tous un langage commun. C'est
pourquoi deux organismes ont mis au point des standards de communication :

• Les laboratoires BELL, précurseurs en matière de télécommunication ;


• Le Comité consultatif international de téléphonie et de télégraphie (CCITT),
renommé depuis 1990 en union internationale des télécommunication (UIT).

L'UIT a pour but de définir les standards de communications internationaux. Les


standards des modems peuvent se diviser en 3 catégories :

• Les standards de modulation (par exemple CCITT V.21)


• Les standards de correction d'erreurs (par exemple CCITT V.42)
• Les standards de compression des données (par exemple CCITT V.42bis)

Voici une liste des principaux standards de modem :

Standard Débit
de théoriqu Mode Description
modulation e

Standard américain et canadien utilisant un codage à


Full
Bell 103 300 bps changement de fréquence. Il permet ainsi d'envoyer
duplex
un bit par baud.

CCITT V.21 300 bps Full Standard international proche du standard Bell 103.
duplex

Standard américain et canadien fonctionnant selon


Full le codage à changement de phase différentiel. Il
Bell 212A 1200 bps
duplex permet de cette façon de transmettre 2 bits par
baud

Half
UIT V.22 1200 bps Standard international proche du standard Bell 212A.
duplex

Standard international constituant une version


Full
UIT V.22bis 2400 bps améliorée du standard V.22 (d'o&grave; l'appellation
duplex
V.22bis).

Standard international fonctionnant en half-duplex,


"Half
c'est-à-dire permettant de transférer les données sur
UIT V.23 1200 bps duplex
une seule voie à la fois. Possibilité d'une voie de
"
retour à 75 bauds facultative.

Standard international fournissant un duplex intégral


1200 "Full
asymétrique, c'est-à-dire qu'il permet de transférer
UIT V.23 bps/75 duplex
des données à 1200 bps dans un sens et 75 bps
bps "
dans l'autre.

Standard international fonctionnant en half-duplex,


Half c'est-à-dire permettant de transférer les données sur
UIT V.29 9600 bps
duplex une seule voie à la fois. Ce standard a été mis au
point particulièrement pour les faxs.

Standard international fonctionnant en full-duplex et


incorporant des standards de correction d'erreur. La
transmission de données se fait selon une technique
Full de correction d'erreurs appelée modulation
UIT V.32 9600 bps
duplex d'amplitude en quadrature codée en treillage. Cette
technique consiste à envoyer un bit supplémentaire
pour chaque groupe de 4 bits envoyés sur la ligne de
transmission.

Standard international améliorant le standard v.32,


14400 Full
UIT V.32bis en permettant d'envoyer 6 bits par baud, pour
bps duplex
atteindre une vitesse de transmission de 14400 bps.

Standard international, nommé parfois V.FC (Fast


28800 Full
UIT V.32fast Class), permettant d'atteindre une vitesse de
bps duplex
transmission des données de 28800bps.

Standard international permettant d'obtenir un débit


de 28800. Grâce à un processeur DSP (Digital Signal
28800 Full
UIT V.34 Processor, processeur de traitement numérique du
bps duplex
signal) les modems utilisant ce standard peuvent
atteindre un débit de 33600 bps.

56000 Full Standard international permettant d'obtenir des


UIT V.90
bps duplex vitesses de transmission de 56000 bps.
Carte graphique
• Présentation de la carte graphique
o GPU
o Mémoire vidéo
o RAMDAC
o BIOS Vidéo
o Interface
o Connectique
 DVI
 S-Vidéo
 HDMI
• Les cartes accélératrices 3D
• Fonctions accélératrices 3D et 2D
• Ressources sur le même sujet

Présentation de la carte graphique

La carte graphique (en anglais graphic adapter), parfois appelée carte vidéo ou
accélérateur graphique, est l'élément de l'ordinateur chargé de convertir les
données numériques à afficher en données graphiques exploitables par un
périphérique d'affichage.

Le rôle de la carte graphique était initialement l'envoi de pixels graphique à un


écran, ainsi qu'un ensemble de manipulation graphiques simples :

• déplacement des blocs (curseur de la souris par exemple) ;


• tracé de lignes ;
• tracé de polygones ;
• etc.

Les cartes graphiques récentes sont désormais équipées de processeurs spécialisés


dans le calcul de scènes graphiques complexes en 3D !
Les principaux composants d'une carte vidéo sont :

GPU

Un processeur graphique (appelé GPU, pour Graphical Processing Unit),


constituant le coeur de la carte graphique et chargé de traiter les images en
fonction de la résolution et de la profondeur de codage sélectionnée. Le GPU est
ainsi un processeur spécialisé possédant des instructions évoluées de traitement de
l'image, notamment de la 3D. En raison de la température que peut atteindre le
processeur graphique, il est parfois surmonté d'un radiateur et d'un ventilateur.

Mémoire vidéo

La mémoire vidéo chargée de conserver les images traitées par le processeur


graphique avant l'affichage. Plus la quantité de mémoire vidéo est importante, plus
la carte graphique pourra gérer de textures lors de l'affichage de scènes en 3D. On
parle généralement de frame buffer

RAMDAC

Le RAMDAC (random access memory digital-analog converter) permet de convertir


les images numériques stockées dans le frame buffer en signaux analogiques à
envoyer au moniteur. La fréquence du RAMDAC détermine les taux de
rafraîchissement (nombre d'images par seconde, exprimé en Hertz - Hz) que la
carte graphique peut supporter.

BIOS Vidéo

Le BIOS vidéo contient les paramètres de la carte graphique, notamment les


modes graphiques que celle-ci supporte.

Interface

L'interface : Il s'agit du type de bus utilisé pour connecter la carte graphique à la


carte mère. Le bus AGP est ainsi spécialement prévu pour accepter des débits
important de données, nécessaire pour l'affichage de séquences vidéo ou 3D. Le
bus PCI Express possède de meilleures performances que le bus AGP et est amené
à le remplacer.

Connectique

La connectique :
====VGA===
L'interface VGA standard : Les cartes graphiques sont la plupart du temps équipées
d'un connecteur VGA 15 broches (Mini Sub-D, composé de 3 séries de 5 broches),
généralement de couleur bleue, permettant notamment la connexion d'un
moniteur.
DVI

L'interface DVI (Digital Video Interface), présente sur certaines cartes graphiques,
permet d'envoyer, aux écrans le supportant, des données numériques. Ceci permet
d'éviter des conversions numérique-analogique, puis analogique numériques,
inutiles.

S-Vidéo

L'interface S-Vidéo : De plus en plus de cartes sont équipée d'une prise S-Video
permettant d'afficher sur une télévision, c'est la raison pour laquelle elle est
souvent appelée prise télé (notée « TV-out »).

HDMI

L'interface HDMI (High-Definition Multimedia Interface) rassemble sur un même


connecteur à la fois les signaux vidéo et audio. Ceux-ci sont transmis
numériquement et peuvent être cryptés (protection du contenu contre la copie).
Elle permet d'interconnecter une source audio/vidéo - tel qu'un lecteur HD DVD ou
Blu-ray, un ordinateur, une console de jeu ou un téléviseur HD. Elle vise donc à
remplacer les câbles Péritel, coaxiaux, S-Video, et supporte aussi bien la vidéo
standard que la haute définition. Elle se base sur l'interface DVI qu'elle étend
largement. Il existe en effet plusieurs versions de la norme HDMI (1.0, 1.1, 1.2,
1.3...) en fonction des besoins et possibilités de l'appareil à connecter. La version
1.3 permet ainsi de connecter des appareils de très haute définition (3 840 x 2 400),
jusqu'à 8 voix audio peuvent être utilisées.

• Le connecteur HDMI type A dispose de 19 broches et est utilisé dans la


plupart des cas.
• Il existe un connecteur étendu disposant de 29 broches réservé aux appareils
très haute définition.
• Enfin, un connecteur de type C au format réduit mais disposant également de
19 broches, est destiné aux appareils portables.

Les cartes accélératrices 3D

Le calcul d'une scène 3D est un processus qui se décompose grossièrement en


quatre étapes:

• le script: mise en place des éléments


• la geometry: création d'objets simples
• le setup: découpage en triangles 2D
• le rendering: C'est le rendu, c'est-à-dire le plaquage des textures

Ainsi, plus la carte accélératrice 3D calcule elle-même ces étapes, plus le


processeur central est libéré de cette tâche et donc plus l'affichage est rapide. Les
premières puces n'effectuaient que le rendering, laissant le processeur s'occuper du
reste. Depuis, les cartes possèdent un « setup engine » qui prend en charge les
deux dernières étapes. A titre d'exemple, un Pentium II à 266 Mhz qui calcule les
trois premières étapes peut calculer 350 000 polygones par secondes, lorsqu'il n'en
calcule que deux, il atteint 750 000 polygones par seconde. Cela montre à quel
point ces cartes déchargent le processeur.

Le type de bus est lui aussi déterminant. Alors que le bus AGP n'apporte aucune
amélioration dans le domaine de la 2D, les cartes utilisant ce bus plutôt que le bus
PCI sont beaucoup plus performantes. Cela s'explique par le fait que le bus AGP est
directement relié à la mémoire vive, ce qui lui offre une bande passante beaucoup
plus grande que le bus PCI.

Ces produits de haute technologie ont maintenant besoin de la même qualité de


fabrication que les processeurs, ainsi que des gravures allant de 0.35 µm à 0.25
µm.

Afin d'augmenter encore plus la vitesse de calcul 3D, il est possible de placer
plusieurs cartes graphiques dans un même ordinateur. On parle alors de multi-GPU
(Graphics Processing Unit). Les cartes sont reliées par un bus spécifique, en plus du
PCI Express. L'architecture proposée par nVIDIA se nomme SLI alors qu'ATI le
nomme crossfire. Les deux architectures ne sont évidemment pas compatibles.

Fonctions accélératrices 3D et 2D

Terme Définition

Affiche une représentation d'une scène selon 2 axes de référence


2D Graphics
(x et y)

Affiche une représentation d'une scène selon 3 axes de référence


3D Graphics
(x, y et z)

Le monde est composé d'objets opaques, translucides et


transparents. L'alpha blending est une manière d'ajouter des
informations de transparence à des objets translucides. Cela est
fait en effectuant un rendu des polygones à travers des masques
dont la densité est proportionnelle à la transparence des objets.
Alpha blending La couleur du pixel résultant est une combinaison de la couleur
du premier plan et de la couleur de l'arrière-plan. L'alpha a
généralement une valeur comprise entre 0 et 1 calculée de la
manière suivante:
nouveau pixel=(alpha)*(couleur du premier pixel)+(1-
alpha)*(couleur du second pixel)

C'est un canal supplémentaire pour stocker l'information de


Alpha buffer
transparence (Rouge-Vert-Bleu-Transparence).

Technique permettant de faire apparaître les pixels de façon


Anti-aliasing
moins crénelée.
appelé aussi anti-
crénelage)
Effets Effets tels que le brouillard ou bien l'effet de distance, qui
atmosphériques améliorent le rendu d'un environnement.

Bitmap Image pixel par pixel

Permet de fluidifier le passage d'un pixel d'un endroit à un autre


Bilinear filtering
(lors d'une rotation par exemple)

C'est l'une des fonctions d'accélération les plus importantes, elle


permet de simplifier le déplacement d'un bloc de données, en
BitBLT
prenant en compte les particularités de la mémoire-vidéo. Elle est
par exemple utilisée lors du déplacement d'une fenêtre

Blending Combinaison de deux images en les ajoutant bit-à-bit

Une fonction du bus PCI permettant de recevoir directement des


Bus Mastering
informations de la mémoire sans transiter par le processeur

Une méthode pour faire du mappage (enveloppage) avec des


textures (texture mapping). Elle prend en compte la valeur de Z
Correction de pour mapper les polygones. Lorsqu'un objet s'éloigne de l'objectif,
perspective il apparaît plus petit en hauteur et en largeur, la correction de
perspective consiste à dire que le taux de changement dans les
pixels de la texture est proportionnel à la profondeur.

Depth Cueing Baisse l'intensité des objets s'éloignant de l'objectif

Permet d'archiver des images de qualité 24-bit dans des tampons


Dithering plus petits (8 ou 16 bits). Le dithering utilise deux couleurs pour
en créer une seule

Une méthode utilisant deux tampons, une pour l'affichage, l'autre


Double buffering pour le calcul du rendu, ainsi lorsque le rendu est fait les deux
tampons sont échangés.

Flat shading ou Assigne une couleur uniforme sur un polygone. L'objet ainsi rendu
Constant shading apparaît facettisé.

Utilise la fonction blending pour un objet avec une couleur fixe


Fog
(plus il s'éloigne de l'objectif, plus cette fonction est utilisée)

Les caractéristiques d'un affichage utilisant des phosphores sont


non-linéaires : un petit changement de la tension à basse tension
crée un changement dans l'affichage au niveau de la brillance, ce
Gamma
même changement à plus haute tension ne donnera pas la même
magnitude de brillance. La différence entre ce qui est attendu et
ce qui est mesuré est appelée Gamma

Gamma Avant d'être affichées, les données doivent être corrigées pour
Correction compenser le Gamma

Algorithme (portant le nom du mathématicien français qui l'a


inventé) permettant un lissage des couleurs par interpolation. Il
Gouraud Shading
assigne une couleur à chaque pixel d'un polygone en se basant
(lissage Gouraud)
sur une interpolation de ses arêtes, il simule l'apparence de
surfaces plastiques ou métalliques.
Façon mathématique de régénérer des informations manquantes
Interpolation ou endommagées. Lorsqu'on agrandit une image par exemple, les
pixels manquants sont régénérés par interpolation.

Line Buffer C'est un tampon fait pour mémoriser une ligne vidéo

Algorithme (portant le nom de Phong Bui-Tong) permettant un


lissage des couleurs en calculant le taux de lumière en de
Lissage Phong nombreux points d'une surface, et en changeant la couleur des
pixels en fonction de la valeur. Il est plus gourmand en ressources
que le lissage Gouraud

C'est un mot provenant du latin "Multum in Parvum" qui signifie


"plusieurs en un". Cette méthode permet d'appliquer des textures
de différentes résolutions pour des objets d'une même image,
MIP Mapping
selon leur taille et leur distance. Cela permet entre autres de
mettre des textures de plus haute résolution lorsqu'on se
rapproche d'un objet.

C'est le fait de transformer (en le réduisant) un espace en 3


Projection
dimensions en un espace en 2 dimensions

Rasterisation Transforme une image en pixels

Rendu C'est le fait de créer des images réalistes sur un écran en utilisant
(Rendering) des modèles mathématiques pour le lissage, les couleurs ...

Partie matérielle ou logicielle chargée de calculer les primitives


Rendering engine
3D (Généralement des triangles)

Le fait de calculer des graphiques en 3D peut être divisé en 3


parties: la facettisation, la géométrie et le rendu. La facettisation
Tesselation ou
est la partie consistant à découper une surface en plus petites
facettisation
formes, en la découpant (souvent en triangles ou en
quadrilatères)

Consiste à stocker des images constituées de pixels (texels), puis


Texture Mapping à envelopper des objets 3D de cette texture pour obtenir une
représentation plus réaliste des objets

Basé sur le principe du filtrage bilinéaire, le filtrage trilinéaire


Tri-linear filtering consiste à faire une moyenne de deux niveaux de filtrage
bilinéaire.

Partie de la mémoire qui stocke la distance de chaque pixel à


Z-buffer l'objectif. Lorsque les objets sont rendus à l'écran, le rendering
engine doit supprimer les surfaces cachées.

C'est le fait de supprimer les faces cachées en utilisant les valeurs


Z-buffering
stockées dans le Z-buffer

Carte son
Introduction à la carte son
La carte son (en anglais audio card ou sound card) est l'élément de l'ordinateur
permettant de gérer les entrées-sorties sonores de l'ordinateur.

Il s'agit généralement d'un contrôleur pouvant s'insérer dans un emplacement ISA


ou PCI (pour les plus récentes) mais de plus en plus de cartes mères possèdent une
carte son intégrée.

Les connecteurs de la carte son


Les principaux éléments d'une carte son sont :

• Le processeur spécialisé, appelé DSP (digital signal processor) chargé de


tous les traitements numériques du son (écho, réverbération, vibrato chorus,
tremolo, effets 3D, etc.) ;
• Le convertisseur digital-analogique appelé DAC (digital to analog
converter) permettant de convertir les données audio de l'ordinateur en
signal analogique vers un système de restitution sonore (enceintes,
amplificateur, etc.) ;
• Le convertisseur analogique / numérique appelé ADC
• Les connecteurs d'entrées-sorties externes :
o Une ou deux sorties ligne au format jack standard 3.5 mm (notée Line
Out ou bien Speaker output ou SPK, signifiant « hauts parleurs » en
anglais), habituellement de couleur vert clair ;
o Une entrée ligne (Line in) ;
o Une entrée microphone (notée parfois Mic), généralement au format
jack 3.5 mm et de couleur rose ;
o Une sortie numérique SPDIF (Sony Philips Digital Interface, noté
également S/PDIF ou S-PDIF
o Une interface MIDI, généralement de couleur or (ocre) permettant de
connecter des instruments de musique et pouvant faire office de port
de jeu
• Les connecteurs d'entrées-sorties internes :
o Connecteur CD-ROM / DVD-ROM, possédant un connecteur noir,
permettant de connecter la carte son à la sortie audio analogique du
CD-ROM à l'aide d'un câble CD Audio ;
o Entrée auxiliaire (AUX-In) possédant un connecteur blanc, permettant
de connecter des sources audio internes telles qu'une carte tuner TV ;
o Connecteur pour répondeur téléphonique (TAD, Telephone Answering
Devices) possédant un connecteur vert ;
Carte réseau
Qu'est-ce qu'une carte réseau ?

La carte réseau (appelée Network Interface Card en anglais et notée NIC) constitue l’interface
entre l’ordinateur et le câble du réseau. La fonction d’une carte réseau est de préparer, d’envoyer
et de contrôler les données sur le réseau.

La carte réseau possède généralement deux témoins lumineux (LEDs) :

• La LED verte correspond à l'alimentation de la carte ;


• La LED orange (10 Mb/s) ou rouge (100 Mb/s) indique une activité du réseau
(envoi ou réception de données).

Pour préparer les données à envoyer, la carte réseau utilise un transceiver qui
transforme les données parallèles en données séries. Chaque carte dispose d’une
adresse unique, appelée adresse MAC, affectée par le constructeur de la carte, ce
qui lui permet d’être identifiée de façon unique dans le monde parmi toutes les
autres cartes réseau.

Les cartes réseau disposent de paramètres qu’il est possible de configurer. Parmi eux figurent
l’interruption matérielle (IRQ), l’adresse de base du port E/S et l’adresse de base de la mémoire
(DMA).

Pour garantir la compatibilité entre l’ordinateur et le réseau, la carte doit être adaptée à
l’architecture du bus de données de l’ordinateur et avoir le type de connecteur approprié au
câblage. Chaque carte est conçue pour s’adapter à un certain type de câble. Certaines cartes
comprennent plusieurs connecteurs d’interfaces (à paramétrer soit avec les cavaliers, soit avec
les DIP, soit de façon logicielle). Les connecteurs les plus répandus sont les connecteurs RJ-45.
NB : Certaines topologies réseau propriétaires utilisant la paire torsadée ont recours au
connecteur RJ-11. Ces topologies sont parfois appelées « pré-10BaseT ».

Enfin pour garantir cette compatibilité entre ordinateur et réseau, la carte doit être compatible
avec la structure interne de l’ordinateur (architecture du bus de données) et avoir un connecteur
adapté à la nature du câblage.

• Quel est le rôle de la carte réseau ?


o La préparation des données
o Le rôle d'identificateur
o Les autres fonctions de la carte réseau
o Envoi et contrôle des données
o Paramètres de configuration de la carte
• Cartes réseau Ethernet
• Cartes réseau Wi-Fi
• Ressources sur le même sujet

Quel est le rôle de la carte réseau ?

Une carte réseau sert d’interface physique entre l’ordinateur et le câble. Elle prépare pour le
câble réseau les données émises par l’ordinateur, les transfère vers un autre ordinateur et contrôle
le flux de données entre l’ordinateur et le câble. Elle traduit aussi les données venant du câble et
les traduit en octets afin que l’Unité Centrale de l’ordinateur les comprenne. Ainsi une carte
réseau est une carte d'extension s'insérant dans un connecteur d’extensions (slot).

La préparation des données

Les données se déplacent dans l’ordinateur en empruntant des chemins appelés « bus ». Plusieurs
chemins côte à côte font que les données se déplacent en parallèle et non en série (les unes à la
suite des autres).

• Les premiers bus fonctionnaient en 8 bits (8 bits de données transportés à la


fois)
• L’ordinateur PC/AT d’IBM introduit les premiers bus 16 bits
• Aujourd’hui, la plupart des bus fonctionnent en 32 bits

Toutefois sur un câble les données circulent en série (un seul flux de bits), en se
déplaçant dans un seul sens. L’ordinateur peut envoyer OU recevoir des
informations mais il ne peut pas effectuer les deux simultanément. Ainsi, la carte
réseau restructure un groupe de données arrivant en parallèle en données circulant
en série (1 bit).

Pour cela, les signaux numériques sont transformés en signaux électriques ou optiques
susceptibles de voyager sur les câbles du réseau. Le dispositif chargé de cette traduction est le
Transceiver.

Le rôle d'identificateur

• La carte traduit les données et indique son adresse au reste du réseau afin de
pouvoir être distinguée des autres cartes du réseau.
• Adresses MAC : définies par l’IEEE (Institute of Electrical and Electronics
Engineer) qui attribue des plages d’adresses à chaque fabriquant de cartes
réseau.
• Elles sont inscrites sur les puces des cartes : procédure appelée « Gravure de
l’adresse sur la carte ». Par conséquent, chaque carte a une adresse MAC
UNIQUE sur le réseau.
Les autres fonctions de la carte réseau

L’ordinateur et la carte doivent communiquer afin que les données puissent passer de l’un vers
l’autre. L’ordinateur affecte ainsi une partie de sa mémoire aux cartes munies d’un Accès Direct
à la Mémoire (DMA : Direct Access Memory).

La carte indique qu’un autre ordinateur demande des données à l’ordinateur qui la contient.
Le bus de l’ordinateur transfère les données depuis la mémoire de l’ordinateur vers la carte
réseau.

Si les données circulent plus vite que la carte ne peut les traiter, elles sont placées dans la
mémoire tampon affectée à la carte (RAM) dans laquelle elles sont stockées temporairement
pendant l’émission et la réception des données.

Envoi et contrôle des données

Avant que la carte émettrice envoie les données, elle dialogue électroniquement avec la carte
réceptrice pour s’accorder sur les points suivants :

• Taille maximale des groupes de données à envoyer


• Volume de données à envoyer avant confirmation
• Intervalles de temps entre les transmissions partielles de données
• Délai d’attente avant envoi de la confirmation
• Quantité que chaque carte peut contenir avant débordement
• Vitesse de transmission des données

Si une carte plus récente, donc plus perfectionnée, communique avec une carte
plus lente, elles doivent trouver une vitesse de transmission commune. Certaines
cartes ont des circuits leur permettant de s’adapter au débit d’une carte plus lente.

Il y a donc acceptation et ajustement des paramètres propres à chacune des deux cartes avant
émission et réception des données.

Paramètres de configuration de la carte

Les cartes réseau sont munies d’options de configuration. Entre autres :

• Interruption (IRQ): Dans la plupart des cas, ce sont les IRQ 3 et 5 qui sont
attribués aux cartes réseau. L’IRQ 5 est même conseillé (s’il est disponible !)
et la plupart des cartes l’utilisent comme paramètre par défaut.
• Adresse de base du port d’entrée/sortie (E/S) : Chaque périphérique doit
utiliser une adresse de base différente pour le port correspondant.
• Adresse de base de la mémoire : Elle désigne un emplacement de la mémoire
vive (RAM) de l’ordinateur. La carte utilise cet emplacement comme tampon
pour les données qui entrent et qui sortent. Ce paramètre est parfois appelé
« adresse de début » (RAM Start Address). En général, l’adresse de base de la
mémoire pour une carte réseau est D8000. Le dernier 0 est parfois supprimé
pour certaine carte réseau. Il est essentiel de prendre soin de ne pas
sélectionner une adresse de base déjà utilisée par un autre périphérique. A
noter toutefois que certaines cartes réseau n’ont pas de réglage pour
l’adresse de base de la mémoire car elles n’utilisent pas les adresses RAM de
la machine.
• Le transceiver
Remarque : il est possible de configurer la carte de manière logicielle. Les
paramètres doivent correspondre avec la disposition des cavaliers ou des
commutateurs DIP (Dual Inline Package) situés sur la carte réseau. Les réglages
sont fournis avec la documentation de la carte. Beaucoup de cartes récentes sont
en PnP (Plug and Play). Cela dispense de configurer la carte à la main mais peut
parfois être gênant (apparition de conflits) auquel cas il est généralement agréable
de pouvoir désactiver l'option PnP et configurer la carte "à la main".

Cartes réseau Ethernet


La plupart des cartes réseau destinées au grand public sont des cartes Ethernet.
Elles utilisent comme support de communication des paires torsadées (8 fils en
cuivre), disposant à chaque extrémité de prises RJ45.

Les trois standards Ethernet (norme 802.3) les plus courants correspondent aux
trois débits les plus fréquemment rencontrés :

• Le 10Base-T permet un débit maximal de 10 Mbit/s. Le câble RJ45 peut alors


mesurer jusqu’à une centaine de mètres et seuls 4 des 8 fils sont utilisés.
• Le 100Base-TX permet un débit maximal de 100 Mbit/s. Il est également
appelé Fast Ethernet et est désormais supporté par la quasi-totalité des
cartes réseau. Comme pour le 10Base-T, le câble RJ45 peut alors mesurer
jusqu’à une centaine de mètres et seuls 4 des 8 fils sont utilisés.
• Le 1000Base-T permet un débit maximal de 1 000 Mbit/s. Il est également
appelé Gigabit Ethernet et se démocratise rapidement. Pour que le réseau
fonctionne correctement, le câble RJ45 peut toujours mesurer jusqu’à 100 m,
mais doit être de bonne qualité. Cette fois, les 8 fils sont utilisés.

Afin d’étendre les distances maximales, d’autres normes Ethernet existent : elles
utilisent dans la plupart des cas de la fibre optique comme support de
communication.

Pour relier deux ordinateurs en réseau, un câble RJ45 spécifique suffit : il s’agit d’un
câble « croisé » dont on branche simplement les extrémités dans chaque carte.
Pour relier plus de deux machines, on utilise un matériel nommé hub ou switch :
une extrémité du câble sera alors branchée sur l’ordinateur alors que l’autre sera
relié au switch. Les deux caractéristiques fondamentales d’un switch sont sa vitesse
(compatibilité 10Base-T, 100Base-TX et/ou 1000Base-T) et son nombre de ports
(nombre de prises RJ45).

Cartes réseau Wi-Fi


Les réseaux sans fil Wi-Fi (Wireless Fidelity) ou WLAN (Wireless Local Area Network)
fonctionnent sur les mêmes principes que les réseaux Ethernet filaires. Une carte
réseau Wi-Fi doit être installée sur chaque ordinateur du réseau sans fil. Cette carte
peut être directement incluse dans la carte mère (cas de nombreux portables), mais
peut également se trouver sous la forme d’une carte PCI ou d’une clé USB. Une
antenne, parfois intégrée dans la carte, permet l’envoi et la réception des signaux.

Il est possible de relier deux machines directement par Wi-Fi (on parle alors
d’architecture ad hoc). Comme en Ethernet filaire, pour relier plus de deux
machines, on utilise généralement un matériel spécifique, appelé routeur Wi-Fi (ou
point d’accès). Ce dernier dispose d’une à trois antennes afin d’optimiser l’envoi et
la réception des signaux. En outre, il possède au moins un port RJ45 afin de pouvoir
le relier à un réseau Ethernet filaire (généralement compatible 100Base-TX). On
parle alors d’architecture de type infrastructure.

Plusieurs normes Wi-Fi ont été mises en œuvre afin d’augmenter progressivement
la portée et la vitesse des échanges :

• Ainsi, le 802.11b permet un débit théorique jusqu’à 11 Mbit/s (environ


6 Mbit/s réel) pour une portée maximale de 300 m (en intérieur, cette portée
est toutefois généralement limitée à quelques dizaines de mètres). Tous les
ordinateurs grand public, les PDA ou les smartphones équipés de cartes Wi-Fi
sont au moins compatibles avec cette norme.
• Le 802.11g permet un débit théorique maximal de 54 Mbit/s (environ
25 Mbit/s réel). Le 802.11g a une compatibilité ascendante avec la norme
802.11b, ce qui signifie que des matériels conformes à la norme 802.11g
peuvent fonctionner en 802.11b.
• Le 802.11n, dit également WWiSE (World-Wide Spectrum Efficiency) ou TGn
Sync, est une norme finalisée en 2008. Le débit théorique atteint les
600 Mbit/s (débit réel de 100 Mbit/s dans un rayon de 90 m) grâce aux
technologies MIMO (Multiple-Input Multiple-Output) et OFDM (Orthogonal
Frequency Division Multiplexing). Depuis 2006, des équipements qualifiés
généralement de pré-N sont disponibles. Ils mettent en œuvre la technologie
MIMO d’une façon propriétaire, plus ou moins éloignée de la norme 802.11n
finale

BIOS
Présentation du BIOS
Le BIOS (« Basic Input/Output System » traduisez « Système de gestion
élémentaire des entrées/sorties ») est un composant essentiel de l'ordinateur,
permettant le contrôle des éléments matériels. Il s'agit d'un petit logiciel dont une
partie est dans une ROM (mémoire morte, c'est-à-dire une mémoire qui ne peut pas
être modifiée), et une autre partie est dans un EEPROM (mémoire modifiable par
impulsions électriques, d'où le terme flasher pour désigner l'action de modifier
l'EEPROM).

Le POST
Lorsque le système est mis sous-tension ou réamorcé (Reset), le BIOS fait
l'inventaire du matériel présent dans l'ordinateur et effectue un test (appelé POST,
pour "Power-On Self Test") afin de vérifier son bon fonctionnement.

• Effectuer un test du processeur (CPU)


• Vérifier le BIOS
• Vérifier la configuration du CMOS
• Initialiser le timer (l'horloge interne)
• Initialiser le contrôleur DMA
• Vérifier la mémoire vive et la mémoire cache
• Installer toutes les fonctions du BIOS
• Vérifier toutes les configurations (clavier, disquettes, disques durs ...)
Si jamais le POST rencontre une erreur, il va essayer de continuer le démarrage de
l'ordinateur. Toutefois si l'erreur est grave, le BIOS va arrêter le système et :

• afficher un message à l'écran si possible (le matériel d'affichage n'étant pas


forcément encore initialisée ou bien pouvant être défaillant) ;
• émettre un signal sonore, sous forme d'une séquence de bips (beeps en
anglais) permettant de diagnostiquer l'origine de la panne ;
• envoyer un code (appelé code POST) sur le port série de l'ordinateur, pouvant
être récupéré à l'aide d'un matériel spécifique de diagnostic.

Si tout est correct, le BIOS émettra généralement un bip bref, signalant qu'il n'y a
pas d'erreur.

Signification des bips pour les BIOS Award récents

Nb de bips Signification Résolution du problème

Le PC démarre
1 bip court
normalement

Réinitialiser le CMOS en enlevant la pile du BIOS


2 bips courts Problème CMOS et en la remettant ou en déplaçant le cavalier
JP4

Problème de carte-
1 bip long / 1 Enficher correctement les modules de mémoire
mère ou de mémoire
bip court vive, tester sa RAM ou les changer
vive

Vérifier que la carte graphique est bien enfichée.


1 bip long / 2 Problème lié à la
Eventuellement, tester avec une autre carte
bips courts carte graphique
vidéo

Vérifier que le clavier est bien enfiché et


1 bip long / 3 Problème lié au
qu'aucune touche n'est enfoncée.
bips courts clavier
Eventuellement, tester avec un autre clavier

1 bip long / 9 Le BIOS est invalide, flasher le BIOS avec une


Problème du BIOS
bips courts version plus récente

Problème dans les 64


La mémoire vive contient des erreurs. Essayer
3 bips premiers Ko de la
de la réinsérer correctement ou en changer
RAM

La mémoire vive n'est pas rafraîchie


Problème de correctement. Remettre des valeurs de
4 bips
rafraîchissement rafraiîchissement correctes dans le BIOS ou faire
un reset du BIOS.

Vérifier que le processeur est correctement


Problème de
5 bips branché, que son ventilateur fonctionne.
processeur
Eventuellement, en changer.

6 bips Problème lié au Vérifier que le clavier est bien enfiché et


clavier qu'aucune touche n'est enfoncée.
Eventuellement, tester avec un autre clavier

Vérifier que la carte graphique est bien enfichée.


Problème lié à la
8 bips Eventuellement, tester avec une autre carte
carte graphique
vidéo

Bips longs Problème de mémoire Enficher correctement les modules de mémoire


incessants vive vive, tester sa RAM ou les changer

Vérifier que tous les câbles d'alimentation sont


Bips courts Problème
bien reliés à la carte mère, tester avec une autre
incessants d'alimentation
alimentation ou bien en changer

Signification des bips pour les BIOS AMI (AMIBIOS)

Nb
de Signification Résolution du problème
bips

La mémoire vive n'est pas rafraîchie


Refresh failure(erreur lors du correctement. Remettre des valeurs de
1 rafraîchissement de la rafraiîchissement correctes dans le BIOS ou
mémoire) faire un reset du BIOS. Enficher correctement
les modules de mémoire vive ou les changer.

Enficher correctement les modules de mémoire


2 Parity Error(erreur de parité)
vive ou les changer. Tester sa mémoire vive.

Base 64K RAM failure(erreur Enficher correctement les modules de mémoire


3 dans les 64 premiers Ko de la vive ou les changer. Eventuellement, flasher le
mémoire vive) BIOS.

4 System timer not operational La carte mère doit être envoyée en réparation

Vérifier que le processeur est correctement


Processor Error(erreur du
5 branché, que son ventilateur fonctionne.
processeur)
Eventuellement, en changer.

Vérifier que le clavier est bien enfiché et


6 Gate A20 failure(échec clavier) qu'aucune touche n'est enfoncée.
Eventuellement, tester avec un autre clavier.

Processor exception interrupt


7 error(erreur d'interruption du La carte mère doit être envoyée en réparation
processeur)

Display memory read/write Vérifier que la carte graphique est bien


8 failure(erreur de mémoire enfichée. Eventuellement, tester avec une
vidéo) autre carte vidéo.

ROM checksum error(erreur de


9 la somme de contrôle de la La puce du BIOS doit être changée ou flashée.
mémoire morte)

10 CMOS shutdown register La carte mère doit être envoyée en réparation


read/write error(erreur de
lecture/écriture lors de
l'enregistrement dans le
CMOS)

Vérifier que le processeur est correctement


Cache memory branché, que son ventilateur fonctionne.
11 problem(problème de Eventuellement, en changer. Enficher
mémoire cache) correctement les modules de mémoire vive ou
les changer

Signification des bips pour les BIOS Phoenix

Nb de
Signification Résolution du problème
bips

DRAM Refresh error(erreur lors du Enficher correctement les modules


1-3-1-1
rafraîchissement de la mémoire) de mémoire vive ou les changer

ROM checksum error(erreur de la somme Enficher correctement les modules


1-2-2-3
de contrôle de la mémoire morte) de mémoire vive ou les changer

Keyboard Controller Error(erreur du Enficher correctement le clavier ou


1-3-1-3
contrôleur de clavier) le changer

Enficher correctement les modules


1-3-4-1RAM error(erreur dans la mémoire)
de mémoire vive ou les changer

Enficher correctement les modules


1-3-4-3RAM error(erreur dans la mémoire)
de mémoire vive ou les changer

Enficher correctement les modules


1-4-1-1RAM error(erreur dans la mémoire)
de mémoire vive ou les changer

Unexpected interrupt(interruption
2-2-3-1
inattendue)

Pour le BIOS Award, seules les erreurs relatives à la vidéo font l'objet de signaux
sonores, les autres erreurs sont envoyées sous forme de codes POST et sont
affichées à l'écran.

Ainsi un long bip, suivi de deux bips courts indique une erreur due aux
périphériques vidéo (carte graphique). Dans ce cas il est nécessaire d'essayer
d'enficher correctement la carte vidéo voire d'en changer. Tout autre bip indique
une erreur due à la mémoire.

Voici la liste des codes POST et de la signification des bips pour les 3 principaux
constructeurs de BIOS :

• Phoenix - Phoenix BIOS POST code


• AMIBIOS - AMIBIOS POST code
• Award - BIOS Award POST code

Le setup du BIOS
La plupart des BIOS ont un « setup » (programme de configuration) qui permet de
modifier la configuration basique du système. Ce type d'information est stockée
dans une mémoire autoalimentée (à l'aide d'une pile) afin que l'information soit
conservée même lorsque le système est hors tension (la mémoire vive est
réinitialisée à chaque redémarrage).

Il existe de nombreux BIOS dans chaque machine :

• Le BIOS de la carte mère


• Le BIOS qui contrôle le clavier
• Le BIOS de la carte vidéo
• et éventuellement
o Le BIOS de contrôleurs SCSI qui permettent de booter sur le
périphérique SCSI, qui communique alors avec le DOS sans pilote
supplémentaire
o (Le BIOS de cartes réseau qui permettent de booter sur le réseau)

Lorsque le système est mis sous tension, le BIOS affiche un message de copyright à
l'écran, puis il effectue les tests de diagnostics et d'initialisation. Lorsque tous les
tests ont été effectués, le BIOS affiche un message invitant l'utilisateur à appuyer
sur une ou plusieurs touches afin d'entrer dans le setup du BIOS.

Selon la marque du BIOS il peut s'agir de la touche F2, de la touche F10, de la


touche DEL (sur les claviers français : "Suppr"), ou bien d'une des séquences de
touche suivantes :

• Ctrl+Alt+S
• Ctrl+Alt+Esc
• Ctrl+Alt+Ins

Sur les BIOS Award le message suivant est affiché lors du POST :
TO ENTER SETUP BEFORE BOOT PRESS CTRL-ALT-ESC OR DEL KEY

Ce message signifie « PRESSEZ "CTRL-ALT-ESC" ou la touche "DEL" pour entrer


dans le "SETUP" avant le démarrage du PC »

Réinitialiser le BIOS
Dans la mesure où le setup du BIOS permet de modifier des paramètres matériels, il

peut arriver que le système devienne instable, voire ne redémarre plus. Ainsi,

lorsque cela arrive, il devient nécessaire d'annuler les modifications apportées au

BIOS et de remettre les paramètres par défaut.


Si l'ordinateur démarre et que l'accès au setup du BIOS est possible, celui-ci offre

généralement la possibilité de rétablir les paramètres par défaut. Sur les BIOS de

type PhoenixBIOS, l'appui sur la touche F9 permet de rétablir les paramètres par

défaut du constructeur. Sur les BIOS de type AwardBIOS

l'appui sur la touche F5 rétablit les paramètres précédents, l'appui sur F6 rétablit les

valeurs par défaut du BIOS Award, enfin la touche F7 permet de rétablir les

paramètres par défaut fournis par le contructeur de la carte mère.

Si l'accès au BIOS est impossible par la procédure standard, la plupart des cartes

mères sont dotées d'un cavalier (jumper) leur permettant de rétablir les valeurs par

défaut. Il suffit de changer la position du cavalier, et de le laisser maintenu dans

cette nouvelle position pendant une dizaine de secondes.

Il est fortement conseillé de procéder à ces manipulations en ayant

préalablement mis l'ordinateur hors tension. Pour toutes ces

manipulations référez-vous au manuel fourni avec votre carte mère !