Vous êtes sur la page 1sur 157

513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 1 / 157

Table des matières

1 Le système de numération binaire 5


1.1 Introduction 5
1.2 Système décimal 5
1.3 Système binaire 7
1.4 Addition et multiplication binaires 11
1.5 Soustraction et division binaires 15
1.6 Compléments 18

2 Les codes 33
2.1 Introduction 33
2.2 Systèmes de numération 33
2.3 Système octal 36
2.4 Système hexadécimal 38
2.5 Codes DCB à 4 bits 41
2.6 Le code DCB à 6 bits 43
2.7 Codes DCB à 8 bits 45
2.8 Formats décimal zoné et décimal condensé 47

3 Notions fondamentales 63
3.1 Définition globale d’un ordinateur 63
3.2 Quantification des volumes de données 64
3.3 Codage des caractères 65
3.4 Codage des nombres 65
3.5 Protection contre les erreurs 68
3.6 Logique câblée 69

4 Processeurs 73
4.1 Composants et fonctionnement général 73
4.2 Types et architectures 77
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 2 / 157

4.3 Performances 83

5 Mémoires 86
5.1 Définition et technologies 86
5.2 Bancs 87
5.3 Mémoire cache 88
5.4 Hiérarchie 91
5.5 Mémoire virtuelle 93

6 Entrées/sorties 103
6.1 Unités de traitement des entrées/sorties 103
6.2 Interfaces d’entrées/sorties 109
6.3 Composants principaux sur la carte mère 113

7 Périphériques 117
7.1 Disques durs et RAID 117
7.2 Lecteurs de tapes 126
7.3 Ecrans 132
7.4 Imprimantes et traceurs 136
7.5 Scanners 141
7.6 Claviers et périphériques de pointage 142
7.7 Système LINUX : Nomination des périphériques 150

8 Réseaux 151
8.1 Types de réseaux informatiques 151
8.2 Câbles et autres supports de transmission 153
8.3 Cartes et méthodes d’accès 155
8.4 Modems 155
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 3 / 157

Références

http://www.eyrolles.com/Informatique/Livre/9782100051588/livre-architecture-de-l-ordinateur.php

http://www.eyrolles.com/Informatique/Livre/9782744070020/livre-systemes-d-exploitation.php

http://www.eyrolles.com/Informatique/Livre/9782744070013/livre-reseaux.php

LIPSCHUTZ, S. : « Mathématiques pour informaticiens »,


McGRAW-HILL (Série Schaum), 1985.

http://jetel.free.fr/inf_stru.htm
http://jetel.free.fr/inf_os.htm
http://jetel.free.fr/inf_rsx.htm

http://www.bipm.org/fr/si/
http://www.bipm.org/fr/si/si_brochure/chapter3/prefixes.html
http://physics.nist.gov/cuu/Units/binary.html

http://www.dil.univ-mrs.fr/~gispert/enseignement/coursSysteme/ES.php
http://www.dil.univ-mrs.fr/~gispert/enseignement/coursSysteme/coursSyst.php

http://www.lmcp.jussieu.fr/impmc/Enseignement/ye/informatique/systemes/

http://villemin.gerard.free.fr/Wwwgvmm/Numerati/FixeFlot.htm

http://dept-info.labri.fr/ENSEIGNEMENT/archi/cours/05_flottants.pdf

http://www.commentcamarche.net/contents/c/ctype.php3
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 4 / 157

http://yann.esposito.free.fr/enseignement/0506/td2rez0.pdf

http://www.commentcamarche.net/contents/pc/processeur.php3

http://www.google.fr/imgres?imgurl=http://www.mines.inpl-
nancy.fr/~tisseran/cours/architectures/images/ordinateur.gif&imgrefurl=http://www.mines.inp
l-
nancy.fr/~tisseran/cours/architectures/&h=393&w=485&sz=12&tbnid=KsPL05LAYXwTrM:
&tbnh=105&tbnw=129&prev=/images%3Fq%3Darchitecture%2Bordinateur&zoom=1&q=ar
chitecture+ordinateur&hl=fr&usg=__PuZJGIY-
kQM7KB3rMyVpvzw7TF4=&sa=X&ei=LmtdTfr1GtOEhQelmKGqCA&ved=0CBUQ9QEw
Aw

http://www.geea.org/IMG/pdf/Cours_II.pdf
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 5 / 157

1. Le système de numération binaire


513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 6 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 7 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 8 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 9 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 10 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 11 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 12 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 13 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 14 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 15 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 16 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 17 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 18 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 19 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 20 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 21 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 22 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 23 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 24 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 25 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 26 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 27 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 28 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 29 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 30 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 31 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 32 / 157

Méthode des compléments – Nouvelle présentation

Hypothèse :   

Base 2 Base 10 Base 36


- - -
=  -  + (1…1 + 1) – (10…0) =  -  + (9…9 + 1) – (10…0) =  -  + (Z…Z + 1) – (10…0)
=  + (1…1 –  + 1) – (10…0) =  + (9…9 –  + 1) – (10…0) =  + (Z…Z –  + 1) – (10…0)

Hypothèse :   

Base 2 Base 10 Base 36


- - -
= - ( - ) = - ( - ) = - ( - )
= - ( -  + (1…1 + 1) – (10…0)) = - ( -  + (9…9 + 1) – (10…0)) = - ( -  + (Z…Z + 1) – (10…0))
= - ( + (1…1 –  + 1) – (10…0)) = - ( + (9…9 –  + 1) – (10…0)) = - ( + (Z…Z –  + 1) – (10…0))
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 33 / 157

2. Les codes
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 34 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 35 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 36 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 37 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 38 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 39 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 40 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 41 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 42 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 43 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 44 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 45 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 46 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 47 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 48 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 49 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 50 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 51 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 52 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 53 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 54 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 55 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 56 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 57 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 58 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 59 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 60 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 61 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 62 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 63 / 157

3. Notions fondamentales

3.1. Définition globale d’un ordinateur

En première approche, un ordinateur simple est constitué d’un processeur qui effectue
des traitements, d’une mémoire centrale où ce processeur range les données et les
résultats de ces traitements, et de périphériques permettant l’échange d’informations
avec l’extérieur. Tous ces constituants sont reliés entre eux par l’intermédiaire d’un
bus, qui est l’artère centrale leur permettant de s’échanger des données. Pratiquement,
tous les ordinateurs actuels ont une architecture qui est une évolution de cette
architecture simple, que ce soient les ordinateurs personnels ou les gros ordinateurs
des entreprises. Les différences résident essentiellement dans le nombre et les
performances des constituants.

La plupart des systèmes supportent les mêmes types de périphériques. Les systèmes à
vocation scientifique ou industrielle sont également dotés de périphériques particuliers
capables d’accomplir les fonctions qui leur sont demandées.

En ce qui concerne la nature physique des informations échangées entre les


constituants à l’intérieur d’un ordinateur, toutes les informations manipulées par les
utilisateurs (images, sons, textes, nombres, etc.), afin de pouvoir être traitées par la
machine, sont décomposées en séquences de signaux électriques à deux états (deux
niveaux de tension), représentées par des suites de chiffres binaires (0 ou 1), appelés
« bits » (binary digits) [unité : bit], structurées généralement en séquences d’« octets »
[unité : o] ou de « bytes » [unité : B] (c’est-à-dire des suites de 8 bits).

Si mystérieux que paraissent les composants électroniques des ordinateurs, ils ne font
qu’allumer ou éteindre des milliers de minuscules interrupteurs. En combinant un
grand nombre de ces interrupteurs, on peut créer une grande variété d’instructions pour
commander un ordinateur.

Les processeurs peuvent manipuler des séquences de 32 bits ou de 64 bits, selon leurs
caractéristiques. Pour toutes les opérations portant sur des séquences plus importantes,
les processeurs doivent travailler en plusieurs fois.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 64 / 157

3.2. Quantification des volumes de données

Avec l’augmentation des volumes de données échangées, manipulées et stockées, des


unités adéquates ont été standardisées. En effet, si une disquette ne contient que
1,44 Mo, un disque dur contient souvent 1 To ou plus, une mémoire centrale 8 Go ou
plus, une clé USB 32 Go ou plus. En 1998, la Commission Electrotechnique
Internationale (IEC = International Electrotechnical Commission) a établi que les
préfixes kilo, méga, giga, téra, etc. correspondent aux mêmes multiplicateurs que dans
tous les autres domaines, soit des puissances de 10. D’où l’invention des préfixes kibi,
mébi, gibi, tébi, etc. pour les puissances de 2 (bi pour binary). En ce qui concerne les
puissances négatives de 10, on dispose des préfixes milli, micro, nano, pico, etc.

Préfixes SI (International System of Units)

Facteur Nom Symbole Facteur Nom Symbole Facteur Nom Symbole


101 déca da 10–1 déci d
102 hecto h 10–2 centi c
103 kilo k 210 kibi Ki 10–3 milli m
106 méga M 220 mébi Mi 10–6 micro µ
109 giga G 230 gibi Gi 10–9 nano n
1012 téra T 240 tébi Ti 10–12 pico p
1015 péta P 250 pébi Pi 10–15 femto f
1018 exa E 260 exbi Ei 10–18 atto a
1021 zetta Z 270 zébi Zi 10–21 zepto z
1024 yotta Y 280 yobi Yi 10–24 yocto y

Exemples :

103 bits = 1000 bits = 1 kbit (kilobit)


106 octets = 1 000 000 octets (= 1000 ko) = 1 Mo (méga-octet)
109 bytes = 1 000 000 000 bytes (= 1000 MB) = 1 GB (gigabyte)

250 octets = 1 Pio (pébi-octet)


260 bytes = 1 EiB (exbibyte)

10–9 seconde = 1 ns (nanoseconde)


10–12 seconde = 1 ps (picoseconde)
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 65 / 157

3.3. Codage des caractères

Pour permettre la manipulation, l’échange et le stockage de fichiers de texte, il faut les


coder sous un format universel qui peut être reconnu par tous les ordinateurs. Le
codage des caractères alphanumériques se fait par une table de correspondance propre
à chaque code utilisé. Voici les codes fondamentaux :

 BCD (Binary Coded Decimal) : chaque caractère est codé sur 6 bits
 ASCII (American Standard Code for Information Interchange) : chaque
caractère est codé sur 7 bits
 EBCDIC (Extended Binary Coded Decimal Interchange Code) : chaque
caractère est codé sur 8 bits
 UNICODE : chaque caractère est codé sur 16 bits (soit 65536 combinaisons
possibles), ce qui permet de représenter un grand nombre de jeu de caractères

3.4. Codage des nombres

Entiers positifs

Exemple : comment peut-on coder le nombre 1944 en une séquence de "0" et "1"
(sur 16 bits) ?

On peut coder chacun de ses chiffres séparément (minimum 4 bits par chiffre) :
0001 1001 0100 0100

On peut coder la valeur (1944)10 par conversion de la base 10 à la base 2 :


0000011110011000

Avec 16 bits, on ne peut représenter que les nombres de 0 à 9999 en « format


décimal », ce qui nous donne 10000 combinaisons, alors qu'en « format binaire
pur », on peut représenter 65536 nombres différents. C'est pour cela qu'on dit que le
« format binaire pur » est plus efficace et qu’il est utilisé pour le codage des entiers.

Entiers négatifs
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 66 / 157

Il existe quatre façons de représenter les entiers négatifs dans une machine.

La première méthode, la valeur signée, consiste à réserver tout simplement un bit


pour le signe (le bit de poids fort, le plus à gauche, avec 0 pour « + » et 1 pour « - »),
les autres bits servant à représenter la valeur absolue du nombre. Sur n bits (=>2 n
possibilités), ceci permet donc 2n-1 combinaisons (de 0 à 2n-1-1) signées différentes.
(+ 0)10 est représenté par 000…0, tandis que (- 0)10 est représenté par 100…0.

Dans la deuxième méthode, le complément à 1 (ou complément restreint), on a


également un bit de signe qui vaut 0 pour « + » et 1 pour « - ». Pour effectuer la
négation d’un nombre, on remplace tous les bits (y compris le bit de signe) qui sont à
0 par 1 et tous les bits qui sont à 1 par 0. (+ 0)10 est représenté par 000…0, tandis
que (- 0)10 est représenté par 111…1.

Dans la troisième méthode, le complément à 2 (ou complément vrai), on a également


un bit de signe qui vaut 0 pour « + » et 1 pour « - ». On effectue la négation d’un
nombre en deux étapes : on remplace d’abord tous les 1 par 0 et tous les 0 par 1,
comme dans le complément à 1. Puis, on additionne 1 au résultat ainsi obtenu.

Exemple (sur 16 bits) :

(13)10 => 00000000000011012


Complément à 1 => inversion des bits => 1111111111110010
Complément à 2 => on ajoute 1 au complément à 1 => 1111111111110011
(- 13)10 => 11111111111100112

Remarques : lors de l’ajout de 1, si une retenue est engendrée au niveau du bit le


plus à gauche, elle est ignorée ; contrairement aux deux méthodes précédentes, les
représentations de (+ 0)10 et (- 0)10 sont pareilles, soit : 000…0 ; sur n bits, cette
troisième méthode permet de représenter les valeurs de (- 2n-1) à (+ 2n-1-1), soit, sur
16 bits, de (- 32 768) à (32 767) ; 100…0 est son propre complément à 2 et sert à
représenter (- 2n-1).

La quatrième méthode, le codage par excédent, consiste, pour les nombres


représentés sur n bits, à stocker le résultat de la conversion binaire sur n bits de la
somme du nombre et de 2n-1. Par exemple, pour les nombres représentés sur 8 bits,
on stocke le résultat de la conversion binaire de la somme du nombre et de 128.
C’est ainsi que, sur 8 bits, (-3)10 devient 01111101 (puisque -3 + 128 = 125). Sur 8
bits, on mappe ainsi l’intervalle de nombres : -128…+127 sur l’intervalle : 0…255.

On peut remarquer que cette quatrième méthode donne un résultat identique à celle
du complément à 2, au bit de signe près qui est inversé. Les deux premières
méthodes (valeur signée et complément à 1) autorisaient deux représentations
distinctes de la valeur 0. C’était un inconvénient important. Ce n’est ni le cas de la
méthode du complément à 2 ni le cas de la méthode du codage par excédent. En
revanche, dans ces deux méthodes, l’intervalle dans lequel les nombres négatifs
prennent leur valeur n’est pas le symétrique de celui des nombres positifs : il y a un
nombre négatif qui n’a pas de contrepartie positive : le nombre (- 2n-1).
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 67 / 157

Fractionnaires en virgule fixe

Dans cette méthode, les nombres fractionnaires sont traités comme des entiers avec
une virgule virtuelle gérée par le programmeur ; le problème est la gestion de la
place de la virgule au cours des opérations, ce qui rend son traitement très difficile et
le résultat peu précis.

Fractionnaires en virgule flottante

Cette méthode est basée sur la notation « des ingénieurs » :


nombre = mantisse (signée)  10 exposant (signé)

C’est une façon de dissocier la précision [mantisse] de l’intervalle [exposant].

 Dans l’exemple :
300 000 = 0,3  106
0,3 est la mantisse
6 est l'exposant
 Selon cette méthode, la mantisse est « normalisée », c’est-à-dire que :
0,1  | mantisse | < 1 (ou mantisse = 0)
Exemples : (mantisse de trois chiffres)
65,1234 = 0,651  102 = 0,651 E 2
0,00034 = 0,340  10-3 = 0,340 E -3
- 512 = - 0,512  103 = - 0,512 E 3

Codage
 Un bit de signe
 Un groupe de bits pour coder la mantisse
 Un autre groupe de bits pour coder l'exposant

Codage IEEE sur 32 bits (Simple précision)


Signe Exposant Mantisse
1 bit 8 bits 23 bits

Codage IEEE sur 64 bits (Double précision)


Signe Exposant Mantisse
1 bit 11 bits 52 bits

En anglais
Sign Exponent Mantissa
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 68 / 157

Caractéristiques des nombres flottants au standard IEEE 754 (1985)


Codage 32 bits 64 bits
Signe 1 bit 1 bit
Exposant 8 bits 11 bits
Mantisse 23 bits 52 bits
Variation de l’exposant - 126 à + 127 - 1022 à + 1023
-38 +38
Echelle des décimaux Environ 10 à 10 Environ 10-308 à 10+308

3.5. Protection contre les erreurs

Les canaux de transmission n’étant jamais parfaits, avec l’augmentation constante


des débits de transfert de données entre les composants électroniques ou au travers
des réseaux, il a fallu sans cesse perfectionner les algorithmes de vérification de
l’intégrité des données transmises. Le principe général consiste, pour l’envoi de
m bits, à rajouter r bits qui permettent de tester si une erreur a lieu [ la suite de m bits
est appelée le message ou l’information – la suite des r bits rajoutés est appelée le
code ou le contrôle – la séquence des (m + r) bits est appelée une trame ou un mot
de code ]. Les principaux codes détecteurs ou détecteurs/correcteurs d’erreurs sont
les suivants.

1. Bit de parité (code détecteur)


Dans ce cas, le mot de code se compose de (m + 1) bits [ r = 1 ]. Dans le message
de m bits, le nombre de bits à 1 est compté. Si par convention on travaille en « parité
paire » [ c’est-à-dire : s’il faut par convention que le nombre total de bits à 1 du mot
de code de (m + 1) bits soit pair ], alors la valeur du bit de contrôle est choisie en
fonction de cette convention et selon le comptage du nombre de bits à 1 du message
de m bits : si ce nombre est pair, on rajoute 0 et, s’il est impair, on rajoute 1. Si, à
l’arrivée, la parité n’est plus respectée, le code permet de détecter qu’il y a eu une
erreur de transmission sur au moins un bit (en fait sur un nombre impair de bits sans
pouvoir repérer lesquels). Mais s’il y a eu une double erreur ou un nombre pair de
bits erronés, la parité n’est plus trahie et l’erreur de transmission n’est plus détectée.

2. Parité double
Dans ce cas, les trames sont considérées comme des matrices carrées de bits de
dimension n  n (avec n = 8, généralement). On rajoute alors un bit de parité par
colonne et un bit de parité par ligne. Un contrôle double est donc réalisé. Chaque bit
de parité ne permet toujours de détecter qu’un nombre impair d’erreurs. Toutefois,
dans le cas d’une erreur simple, les bits de parité de la colonne et de la ligne à
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 69 / 157

l’intersection desquelles l’erreur se situe permettent de la corriger. C’est pourquoi on


parle ici de « code autocorrecteur ».

3. Codes de Hamming (correcteurs)


Les codes de Hamming sont encore basés sur des tests de parité. Dans un code de
Hamming, on rajoute r bits de parité aux m bits du message pour constituer un mot
de code comprenant (m + r) bits. Chaque bit de parité est inséré à une position bien
ciblée du mot de code, de façon à ce qu’il puisse servir à tester une sous-séquence
particulière du mot de code. En comparant les différents contrôles ainsi réalisés,
l’algorithme permet, par déduction logique, de corriger un bit erroné. En passant à
une représentation matricielle du message, l’algorithme de Hamming peut toutefois
être utilisé dans le cas d’erreurs multiples.

4. CRC (Cyclic Redundancy Check - code détecteur)


Il s’agit de codes de détection, mais non correcteurs, qui permettent de mieux
prendre en compte les erreurs groupées ; ils sont utilisés dans les protocoles de
communication (pour la couche « Liaison de Données » des réseaux). En fait, il s’agit
de la méthode des codes polynomiaux cycliques. La suite de m bits du message est
ici considérée comme la liste des coefficients binaires d’un polynôme de m termes, et
donc de degré m - 1. Pour former la trame de (m + r) bits, r bits de contrôle sont
rajoutés de la manière suivante. Si M(x) représente le polynôme associé au message
de m bits, la méthode considère le polynôme xrM(x), polynôme de (m + r) termes,
résultat de la multiplication par xr du polynôme M(x) (ses r derniers termes sont donc
nuls). La méthode utilise aussi un polynôme G(x), dit « générateur », de r termes. Si
R(x) représente le polynôme, de r termes, reste de la division polynomiale de xrM(x)
par G(x), alors la trame transmise est la suite binaire associée au polynôme de
(m + r) termes : xrM(x) + R(x), c’est-à-dire la concaténation de la suite M et de la
suite R (appelée CRC). Or, ce polynôme possède la propriété algébrique d’être
divisible par le polynôme générateur G(x). À destination, il suffit donc d’exécuter un
algorithme de division polynomiale afin de vérifier si le reste est bien nul. Si ce n’est
pas le cas, il y a détection d’erreur(s).

3.6. Logique câblée

Certaines des fonctions accomplies par un ordinateur, les opérations de logique


booléenne, sont exécutées dans des circuits particuliers du processeur. C’est
pourquoi cette technique s’appelle « logique câblée ». Une Unité Centrale peut
exécuter en effet aussi bien des opérations logiques que des opérations
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 70 / 157

arithmétiques. Ces opérations sont surtout utilisées pour comparer des données
entre elles et déclencher, à partir du résultat, une transaction particulière. Par
exemple, on peut insérer dans un programme calculant des feuilles de paie un
système de contrôle du nom lu ; si ce nom est « FIN », alors la machine doit en
aviser l’opérateur et mettre fin à l’exécution du programme.

Dans l’exécution d’un calcul logique ou arithmétique, nous pouvons distinguer trois
notions fondamentales :

1 - Les opérandes : arguments sur lesquels doit s’effectuer l’opération ;


2 - L’opérateur : symbole indiquant l’opération à accomplir ;
3 - Le résultat : donnée délivrée au terme de l’opération.

On connaît les opérateurs correspondant aux opérations arithmétiques ordinaires,


mais il existe aussi des opérateurs appelés « les opérateurs logiques ». Ces
opérateurs obéissent à des règles spécifiques, parfois très complexes.

Prenons l’exemple des feux de circulation.


Il n’y a que quatre situations possibles :
1 - feux éteints
2 - feu rouge
3 - feu orange
4 - feu vert

A la question : « Quel est l’état des feux de circulation ? », la réponse est


nécessairement l’une des quatre situations énumérées plus haut.
Soit : éteints OU rouge OU orange OU vert.

Le mot OU est un opérateur logique. Le symbole est par exemple : « OU ».

On peut donc exprimer les quatre situations possibles de la façon suivante :


Etat des feux de circulation = 1 OU 2 OU 3 OU 4

Question : « Quand une voiture a-t-elle le droit de passer ? »


Réponse : « Feux éteints OU feu vert. »
On peut traduire symboliquement la réponse par :
PASSEZ = 1 OU 4
En réalité, l’expression : « 1 OU 4 » n’est pas suffisante puisque si les feux sont
éteints, il faut encore s’assurer que la voie est libre.
La réponse complète est donc :
PASSEZ = feu vert OU feux éteints ET voie libre
Considérons cette dernière proposition logique.
Le mot ET signifie qu’on doit avoir simultanément les deux situations :
feux éteints et voie libre ; dans cette dernière proposition logique, le connecteur
« ET » doit être interprété conventionnellement prioritaire sur le connecteur « OU ».

C’est donc un nouvel opérateur logique, que l’on symbolise par exemple par : « ET ».

En attribuant le chiffre 5 à la condition « voie libre », on aura :


PASSEZ = 4 OU 1 ET 5
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 71 / 157

Mais, à propos de la priorité conventionnelle entre les opérateurs, cette expression


est susceptible à priori de deux interprétations :
a) PASSEZ = (4 OU 1) ET 5
b) PASSEZ = 4 OU (1 ET 5)

L’expression a) signifie que le passage est autorisé si l’on a (4 OU 1) et en même


temps 5. C’est une interprétation erronée, contrairement à l’expression b) qui est
correcte. Il est donc indispensable d’utiliser correctement les parenthèses,
exactement comme dans les formules algébriques.

Les opérateurs ET / OU s’appliquent à deux éléments d’un ensemble quelconque.


Considérons comme éléments deux chiffres binaires A et B. Ces deux éléments
peuvent prendre la valeur 0 ou la valeur 1. Il s’ensuit que les diverses combinaisons
de valeurs possibles pour nos deux variables binaires A et B sont les suivantes :

A B
1 1
1 0
0 1
0 0

En faisant appel aux opérateurs ET / OU, nous obtenons les « tables de vérité » :

A B A ET B A OU B
1 1 1 1
1 0 0 1
0 1 0 1
0 0 0 0

Introduisons maintenant un nouvel opérateur : OU exclusif, « OUX » (XOR en


anglais). Cet opérateur est équivalent à OU sauf dans le cas où A=1 et B=1, où il
donne 0 comme résultat.
En d’autres termes, OUX ne délivre 1 que si l’un seulement des nombres A ou B a
comme valeur 1. La table de vérité de cet opérateur est par conséquent :

A B A OUX B
1 1 0
1 0 1
0 1 1
0 0 0

Un autre opérateur, « unaire » et non « binaire », est : « NON » (NOT en anglais). Il


s’applique dès lors à un seul opérande booléen. Son action consiste à délivrer la
valeur complémentaire de l’argument. Il remplace donc la valeur 1 par 0 et
réciproquement.

A NON A
1 0
0 1
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 72 / 157

On peut également appliquer les opérateurs logiques à des suites binaires de


plusieurs chiffres.

Si nous prenons :
A = 01101
B = 10011

On a :
NON A = 10010
NON B = 01100

A ET B = 00001
A OU B = 11111
A OUX B = 11110

D’autres fonctions logiques sont : « NOR », « NAND » ; en l’occurrence :

A NOR B = 00000

A NAND B = 11110

Les opérateurs logiques peuvent s’appliquer aux signaux électriques à deux états
(signaux électriques numériques), de la même manière qu’ils s’appliquent aux
symboles 0 et 1.
Ces opérations sont effectuées par des circuits numériques spécialisés que l’on
appelle les circuits logiques.
Chacun de ces circuits a une fonction qui lui est propre. A chaque opérateur logique
correspond un circuit spécifique.
Il faut donc construire un appareil particulier renfermant un circuit pour chacune des
fonctions logiques dont on a besoin.
Concevoir un circuit, c’est relier électriquement entre eux un certain nombre de
composants. On obtient ainsi un circuit intégré.
Cette opération de connexion s’appelle un câblage et le circuit prend alors le nom de
« logique cablée ».
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 73 / 157

4. Processeurs

4.1. Composants et fonctionnement général

L’unité centrale (UC) est le "cerveau" de l’ordinateur. Son rôle est d’exécuter les
programmes stockés en mémoire centrale en chargeant les instructions, en les
décodant et en les exécutant l’une après l’autre. L’UC est composée d’une unité de
commande qui charge les instructions et les décode, d’une unité arithmétique et
logique (UAL) qui exécute des opérations, et de registres.

Unité de commande
L’unité de commande est constituée de plusieurs organes qui permettent la
recherche en mémoire et le décodage d’une instruction. On trouve :
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 74 / 157

 Le compteur ordinal qui est un registre contenant l’adresse de l’instruction à


rechercher.
 Le registre d’instruction qui reçoit l’instruction à exécuter.
 Le décodeur de code opération qui détermine l’opération à effectuer parmi
toutes celles possibles.
 Le séquenceur qui génère les signaux de commande.
 L’horloge qui synchronise toutes les actions de l’unité centrale.

L’unité de commande comprend une mémoire très rapide qui lui permet de stocker
des résultats temporaires ou des informations de commande. Cette mémoire est
formée de quelques registres, chaque registre ayant une fonction particulière. Le
registre le plus important est le compteur ordinal (CO) qui pointe vers la prochaine
instruction à exécuter. On trouve aussi le registre instruction (RI) qui contient
l’instruction en cours d’exécution. La plupart des ordinateurs contiennent également
d’autres registres qui permettent aux programmeurs système de stocker des
résultats intermédiaires.

L’exécution d’une instruction par l’UC passe par les étapes suivantes :

1. Chargement dans le registre instruction de la prochaine instruction à exécuter,


depuis la mémoire
2. Modification du compteur ordinal pour qu’il pointe vers l’instruction suivante
3. Décodage de l’instruction qui vient d’être chargée
4. Localisation dans la mémoire des éventuelles données utilisées par
l’instruction
5. Chargement des données, si nécessaire, dans les registres internes de l’unité
centrale
6. Exécution de l’instruction
7. Stockage des résultats à leurs destinations respectives
8. Retour à l’étape 1 pour exécuter l’instruction suivante

Cette suite d’étapes s’appelle « cycle de chargement-décodage-exécution », cycle


qui est au coeur du fonctionnement de tous les ordinateurs.
Il n’est pas obligatoire qu’un programme soit exécuté directement par une UC
matérielle, c’est-à-dire composée de circuits électroniques. Un programme qui
charge, décode et exécute les instructions d’un autre programme est appelé un
interpréteur.

Cette équivalence entre processeurs matériels et interpréteurs a d’importantes


conséquences du point de vue de l’architecture des ordinateurs. Lorsqu’on spécifie le
langage machine L d’un nouvel ordinateur, il convient de décider si ce langage L
sera directement exécuté par le matériel ou s’il sera interprété. Si l’on décide d’écrire
un interpréteur, il faudra alors faire une machine sur laquelle tournera cet
interpréteur. Puisqu’un interpréteur traite les instructions de sa machine cible par
petites étapes, la machine sur laquelle tourne l’interpréteur est souvent plus simple et
donc moins chère, que ne le serait le mécanisme cible réalisé en matériel. C’est pour
cela que les programmes du niveau machine traditionnel sont, sur la plupart des
ordinateurs, traités par un interpréteur qui tourne sur une machine beaucoup plus
simple qui est appelée « niveau microprogrammé ».
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 75 / 157

L’unité arithmétique et logique


L’UAL réalise les opérations mathématiques et logiques nécessaires au
fonctionnement de l’ordinateur et permet tout particulièrement le mode de calcul en
virgule flottante.
Elle possède entre autres les registres suivants :

 Les registres arithmétiques


 Les registres de base et d’index (pour les calculs d’adresse dits « de base »
ou « indexé »)
 Les registres banalisés (pour les stockages de résultats intermédiaires)
 Le registre d’état (PSW=Program Status Word) qui indique l’état du système

C’est l’UAL qui exécute les additions, les soustractions et toutes les opérations
simples sur ses entrées, et qui produit un résultat placé dans le registre de sortie. Le
contenu du registre de sortie peut alors être placé dans un autre registre avant de
rejoindre, si nécessaire, la mémoire.

À part les instructions d’entrée/sortie, du point de vue de l’accès à un stockage


interne, on peut regrouper les instructions en trois catégories :

- Registre-mémoire (2 à 3 cycles)
les instructions registre-mémoire permettent de charger depuis la mémoire des mots
dans des registres qui pourront, par exemple, être utilisés par d’autres instructions
comme entrées de l’UAL.

- Registre-registre (1 cycle)
les instructions registre-registre typiques chargent deux opérandes pris dans les
registres, les placent dans les registres d’entrée de l’UAL, exécutent sur eux une
certaine opération et remettent le résultat dans un registre.

- Mémoire-mémoire (plusieurs cycles)


Une instruction mémoire-mémoire prend ses opérandes dans la mémoire et les place
dans les registres entrées de l’UAL, exécute ensuite une opération, et place le
résultat en mémoire.

Exemple de cycle d'exécution d'une instruction machine

Soit un programme en langage machine comportant à l'adresse "a" en mémoire l'instruction


"accu <- not accu" provoquant l'inversion des bits de données contenues dans le registre
accumulateur, interne au processeur. L'adresse de l'instruction à exécuter est à chaque instant
contenue dans le registre "compteur ordinal" du processeur.

Dans un premier temps, le processeur va rechercher en mémoire l'instruction à exécuter :


513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 76 / 157

Puis dans une deuxième étape, l'instruction à exécuter va être chargée dans le "registre
instruction" du processeur. C'est en fait le transfert du mot d'adresse "a" en mémoire vers le
registre instruction :

Enfin dans une troisième étape, l'instruction est décodée, pour connaitre son "code opération"
et ses "parties adresses", puis exécutée :
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 77 / 157

4.2. Types et architectures

Généralités
Il existe deux types de microprocesseurs :

Microprocesseurs CISC (Complex Instruction Set Computer) de conception plus


ancienne et moins performants puisqu’ils disposent d’un jeu d’instructions important
(jusqu’à 500 instructions environ), ce qui ralentit la recherche de l’instruction désirée.
Exemples : i80486, Pentium, MC68000, MC68040, …
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 78 / 157

Microprocesseurs RISC (Reduced Instruction Set Computer) de conception récente


et plus performants qui, eux, disposent d’un petit jeu d’instructions polyvalent (jusqu’à
200 instructions environ), ce qui les rend plus rapide. Ils intègrent dans leur matériel
les instructions les plus utilisées et peuvent exécuter plusieurs instructions en un seul
cycle.
Exemples : i960, RS6000, DecAlpha,.PowerPC, …

La tendance actuelle semble montrer que les processeurs de type RISC sont plus
performants que les CISC bien que ces derniers, à l’heure actuelle, ne soient plus
des CISC à proprement parler, mais plutôt des hybrides regroupant différentes
technologies comme le pipelining et le mode superscalaire, ou sont carrément CISC
et RISC à la fois comme le pentium pro (c’est un processeur RISC qui traduit les
instructions CISC).

Synchronisation des opérations


La synchronisation des différentes opérations est réalisée par une horloge qui définit
le cycle de base et qui est en général la fréquence d’horloge du processeur. Le
temps d’exécution d’une instruction dépend du type d’opération à effectuer et du type
de processeur utilisé, ce qui peut prendre un ou plusieurs cycles d’horloge.

Séquenceur
Le séquenceur est un automate générant les signaux de commande nécessaires
pour actionner et contrôler les unités participant à l’exécution d’une instruction. Il
existe deux types de séquenceurs :
- le séquenceur câblé qui est un circuit séquentiel complexe mais d’exécution très
rapide.
- le séquenceur microprogrammé contenu dans une ROM qui est plus simple à
utiliser et à concevoir, mais moins rapide.

Structure des instructions de niveau machine


Une instruction machine doit fournir au processeur toutes les informations pour
déclencher une opération élémentaire. Elle doit contenir un code opération (type
d’action demandée) et une ou plusieurs adresses (ces adresses peuvent être :
l’adresse de l’opérande, l’adresse où envoyer le résultat, l’adresse où chercher
l’instruction suivante,.etc.). Par conséquent, une instruction machine comportera un
champ code opération et jusqu’à 4 champs adresse, selon le type d’instruction.

Jeu d’instructions
L’ensemble de toutes les instructions dont dispose le programmeur système à un
niveau donné est appelé le jeu d’instructions. Le nombre d’instructions d’un jeu est
variable suivant les machines et les niveaux. Pour un niveau machine traditionnel,
par exemple, la taille du jeu d’instructions varie couramment de 200 à 300. Un grand
jeu d’instructions n’est pas forcément meilleur qu’un petit, c’est même souvent le
contraire, puisque l’existence d’un jeu d’instructions très grand sous-entend que les
instructions elles-mêmes ne sont pas générales. Les compilateurs de langages de
haut niveau (C, Ada, Pascal) fonctionnent généralement mieux sur des machines
dont le jeu d’instructions est petit mais bien adapté, que sur celles qui ont un jeu
d’instructions très lourd. Les machines à jeu d’instructions très réduit (machines
RISC) sont extrêmement rapides et n’ont pas de microprogrammes.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 79 / 157

Chaque machine possède donc son jeu d’instructions. Il existe 6 groupes


d’instructions que l’on retrouve sur les machines de tous les types :

Les transferts de données (load, move, store, …).


Les opérations arithmétiques (+, -, *, /).
Les opérations logiques (OU, ET, NON, …).
Les contrôles de séquence.
Les entrées/sorties.
Les manipulations diverses (décalages, incrémentations, …).

Registres du CPU

Le CPU possède ses propres registres qui lui permettent d’exécuter ses instructions :

 Le compteur ordinal (CO) contient l’adresse en mémoire de la prochaine


instruction à charger et à exécuter. Il est incrémenté après chaque
chargement d’instruction à exécuter. Le programmeur système n’y accède
pas.
 Le registre d’instruction (RI) qui est l’endroit où le processeur va chercher
l’instruction à exécuter. Le programmeur système n’y accède pas.
 L’accumulateur (ACC), qui appartient à l’UAL, contient une des opérandes
avant exécution et le résultat après. Il peut aussi servir de tampon dans les
opérations d’entrées-sorties. Le programmeur système y accède souvent.
 Les registres généraux qui permettent de sauvegarder des résultats
intermédiaires ou des informations utilisées pendant l’exécution du
programme. Le programmeur système y accède souvent.

Les instructions les plus répandues qui manipulent ces registres sont :

 Le chargement d’un registre à partir de la mémoire.


 L’enregistrement en mémoire d’un registre.
 Le transfert d’un registre dans l’accumulateur.
 L’incrémentation ou la décrémentation d’un registre.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 80 / 157

Adressage des opérandes


Afin d’accéder aux instructions ou aux données, il existe de nombreux types
d’adressages. Parmi les différents modes d’adressage, les principaux sont :

L’adressage direct : c’est le champ d’adresse qui contient l’adresse effective.


L’adressage indirect : le champ d’adresse contient l’adresse où se trouve l’adresse
effective.
L’adressage immédiat : le champ d’adresse contient l’opérande.
L’adressage implicite : c’est le code opération qui indique dans quel registre se
trouve l’opérande.
L’adressage indexé : adresse effective = contenu du champ d’adresse + contenu du
registre d’index.
L’adressage de base : adresse effective = contenu du champ d’adresse + contenu
du registre de base.
L’adressage relatif : c’est comme l’adressage de base, mais il utilise le contenu du
compteur ordinal comme adresse de base.

Schéma de principe de l'architecture d'un processeur

Niveaux de parallélisme
Le développement des besoins en informatique a conduit à faire évoluer les
architectures des processeurs, de manière à pouvoir supporter des puissances de
traitement de plus en plus grandes. Mais les développements ont bien sûr également
porté sur l’architecture globale des machines, c’est à dire la manière dont sont
agencés les différents composants des ordinateurs : processeurs, mémoires,
connexions, canaux d’entrées-sorties, etc.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 81 / 157

Le mode de fonctionnement classique d’un ordinateur consiste à exécuter


séquentiellement les instructions d’un programme, selon la procédure décrite par
John Von Neumann, le pionnier et l’inventeur de l’architecture de base.
Classiquement, à tout instant, une seule instruction, portant sur une seule variable ou
un seul couple de variables, est exécutée. Si le traitement comporte plusieurs
opérations, celles-ci doivent être effectuées séquentiellement, une opération ne
pouvant commencer que lorsque la précédente est terminée.
Une telle machine nécessite un seul processeur, un compteur d’instructions et une
mémoire contenant, à la fois, les données et les instructions, abstraction faite des
entrées/sorties. Selon la classification de Flynn, on donne à ce type d’architecture le
nom de SISD = Single Instruction Single Data stream (une seule instruction, une
seule donnée).

Pour accélérer le traitement, une solution consiste à le répartir sur plusieurs


processeurs. Il y a différentes façons de procéder. La plus simple, équivalent du
travail à la chaîne dans les usines, consiste à répartir, sur différents processeurs, le
traitement portant sur une donnée :

 Recherche de l’instruction en mémoire


 Décodage de l’instruction
 Calcul d’adresse de la donnée (ou des composants du couple à traiter)
 Chargement de la donnée et exécution de l’instruction
 Rangement de la donnée transformée en mémoire

Une telle structure, dite MISD = Multiple Instruction Single Data stream, est plus
connue sous le nom de "pipeline", par analogie avec les canalisations où le carburant
liquide entre, s’écoule et ressort à la sortie. Ce type d’architecture permet de
multiplier la capacité de traitement étant donné le nombre de processeurs mis bout à
bout dans la chaîne. L’avantage de cette structure par rapport à la structure SISD est
qu’elle ne nécessite que peu d’accès à la mémoire, sachant que cette phase du
traitement représente de 80 à 90 % du temps d’occupation du processeur.

Les processeurs RISC puissants modernes possèdent cette structure.

Le traitement d’une opération élémentaire, addition ou multiplication, demande


un certain nombre de cycles de l’horloge du processeur, jusqu’à 20 dans le cas
d’une multiplication. Soit n ce nombre. Le multiplicateur produit donc une
opération tous les n cycles. Au passage, on remarquera que ces performances n’ont
rien à voir avec les performances annoncées par les constructeurs.

Imaginons que le multiplicateur soit structuré en p étages, couramment de 3 à 6.


Un étage ne peut être utilisé que par un seul couple de nombres en cours de
traitement et les différents étages peuvent être employés simultanément. On
pourra introduire un couple tous les n/p cycles. Le premier couple de nombres est
traité au bout de n cycles, comme avec un processeur classique, mais, lorsque le
multiplicateur est alimenté régulièrement, celui-ci pourra traiter un couple tous
les n/p cycles.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 82 / 157

Ci-dessus, les registres a et b alimentent les deux entrées du multiplicateur. Dans


cet exemple seul l’étage 4 du pipe-line est occupé. Les autres sont disponibles.

Soit q le nombre de couples de nombres à traiter, le temps total de calcul sera :


T = n  (q1)n/p. Si q est assez grand, le temps est quasiment divisé par le
nombre d’étages !

Ci-dessus : traitement d’une opération dans une unité de calcul.


(a) unité classique : le deuxième couple attend que le premier soit entièrement
traité avant d’entrer dans l’unité de calcul ;
(b) unité pipe-line : les couples de nombres à traiter entrent successivement
dans les différents étages.

D’autre part, il est souvent avantageux de faire effectuer simultanément la même


instruction sur des données différentes. On peut alors véritablement parler
d’architecture parallèle. Dans ce cas de figure, les données sont intrinsèquement
structurées en "vecteurs" de données, destinés à subir le même traitement. Toutes
ces données arrivent simultanément dans un ensemble de processeurs
élémentaires, constituant un "processeur vectoriel", où elles sont traitées en même
temps selon une instruction unique. Le fonctionnement parallèle de ces processeurs
élémentaires est coordonné par un « superviseur ». Ce parallélisme vectoriel est
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 83 / 157

également appelé SIMD = Single Instruction Multiple Data stream (une instruction,
plusieurs données).

Le quatrième grand type d’architecture, dit parallélisme concurrent ou asynchrone,


encore désigné par MIMD = Multiple Instruction Multiple Data stream (instructions
multiples, données multiples), convient bien à la résolution de problèmes
décomposables en fonctions, pouvant travailler simultanément sur des ensembles
distincts de données, tels que les méthodes de résolution de systèmes d’équations
par éléments finis. Plusieurs instructions différentes, portant chacune sur une donnée
ou un groupe de données, sont exécutées indépendamment l’une de l’autre.

Schéma de principe de l'architecture d'un micro-ordinateur à mots de 16 bits


avec adressage sur 12 bits

4.3. Performances

Les performances des processeurs se mesurent en principe en nombre d’instructions


qu’ils peuvent traiter par seconde. Par exemple, 80 Mips représente 80 millions
d’instructions par seconde. A priori, on pourrait penser que cette valeur devrait être
identique à la valeur de la fréquence de base du processeur, mais celui-ci n’exécute
pas toujours une instruction par cycle. Pour certaines instructions, il peut avoir besoin
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 84 / 157

de 2 à 6 cycles, par exemple. C’est pourquoi le nombre de Mips est souvent inférieur
au nombre de MHz. En utilisant des techniques de traitement parallèle ou de
pipeline, et des architectures de type multi-bus, certains microprocesseurs peuvent
offrir des performances en Mips égales ou supérieures à leur fréquence d’horloge.

FLOPS est une unité de performance appliquée aux ordinateurs scientifiques dédiés
au calcul numérique. Leur puissance de traitement est généralement exprimée en
multiple de FLOPS = Floating-point Operations Per Second (nombre d’opérations en
virgule flottante par seconde).
On parle plus particulièrement de Mflops (Mégaflops) ou de Gflops (Gigaflops).

Enfin, il existe également : lips = logical inferences per second (nombre d’inférences
logiques par seconde).

La mesure des performances des processeurs n’est cependant pas si simple. Elle
pose deux problèmes : quelle unité de mesure utiliser, et sur quelle type d’instruction
mesurer la performance. Il est généralement admis que la seule manière correcte
d’apprécier les performances est la mesure du temps d’exécution sur des
programmes réels pour des entrées déteminées. Les programmes spécifiques
d’évaluation de performance ou « benchmark », et les unités de mesure comme
Mips, Mflops ou Gflops, ne peuvent que donner des ordres de grandeur de la
performance réelle. Souvent, ces unités serviront à donner les performances
maximales ou de crête, que la machine ne peut pas dépasser. Même si l’on utilise le
temps comme unité de mesure, il faut encore distinguer entre le temps passé par
l’unité centrale pour l’exécution du programmme de l’utilisateur et le temps écoulé
entre l’ordre de début d’exécution d’un programme et l’obtention des résultats, qui
comprend en plus le temps utilisé par le système d’exploitation pour ses différentes
tâches dont les entrées/sorties.

Les performances dépendent de l’architecture globale de la machine, outre du type


de processeur. Le bus est le circuit d'échange des informations. Son débit ou bande
passante est un paramètre important pour définir la rapidité d'une machine. Souvent,
dans les micro-ordinateurs, elle est trop faible par rapport à la rapidité du processeur.
Celui-ci attend fréquemment les informations en provenance de la mémoire ou des
contrôleurs d'entrées-sorties. Un écran et un disque ne sont pas branchés sur le
même contrôleur. Par exemple, on trouve les mêmes processeurs PowerPC dans les
MacIntoshs et certaines machines SP d'IBM. La rapidité du bus et sa bande
passante ne sont pourtant pas les mêmes, ce qui est explique les différences de
performance comme de prix. Les ordinateurs les plus performants possèdent un bus
qui permet de transférer en parallèle 256 bits ou plus, les moins performants 32 bits
seulement. Il faut donc plus de cycles pour transférer une information de même
longueur (c'est à dire contenant le même nombre de bits) de la mémoire vers le
processeur et la rapidité effective de la machine n'a dès lors rien à voir avec celle du
processeur.

Un processeur moderne peut contenir plusieurs unités de calcul, additionneur,


multiplicateur entier ou flottant. Certains peuvent effectuer des opérations plus
complexes comme plusieurs additions et multiplications flottantes simultanément. Le
processeur peut donc réaliser plusieurs instructions élémentaires parallèlement. Les
plus puissants possèdent la structure, appelée pipe-line qui permet d'enchaîner,
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 85 / 157

dans certains cas, une opération à chaque cycle d'horloge, alors que la précédente
n'est pas terminée. Ceci accélère considérablement le débit de calcul. Cette
complexité explique que la cadence de l'horloge ne permette pas de comparer des
processeurs d'architecture différente.

Deux directions se sont fait jour pour augmenter les performances : compliquer
l'architecture interne du processeur, mais conserver un cycle relativement lent (IBM
PowerPC par exemple), ou diminuer le temps de cycle (Intel Pentium par exemple),
mais avec une architecture plus simple. Il n'existe pas de meilleur choix: suivant les
programmes, l'une ou l'autre architecture se révèle la meilleure.

Les unités de commande travaillent selon les processeurs sur des mots de 32 bits
ou, de plus en plus aujourd'hui, sur 64 bits (AMD Athlon, IBM Power, …). Le jeu
d'instructions varie fortement d'une réalisation à l'autre : instructions courtes RISC
(Power IBM, Sparc Sun, Intel Itanium par exemple) ou longues (Intel Pentium, AMD
Athlon). Le code d'un langage évolué correspond donc à un nombre plus ou moins
grand d'instructions machine et la comparaison des performances est beaucoup plus
compliquée que la simple mesure des cycles d'horloge.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 86 / 157

5. Mémoires

5.1. Définition et technologies

Définition
La mémoire est la partie de l’ordinateur dans laquelle programmes et données sont
rangés. Sans mémoire, dans laquelle le processeur lit et écrit de l’information, il n’y
aurait pas d’ordinateurs tels que nous les connaissons. Elle ne peut contenir que
deux types d’information, les instructions et les données.

Logiquement, une mémoire est formée d’un certain nombre de cellules (ou cases),
chacune de ces cellules contenant une certaine quantité d’information. Chaque
cellule possède une adresse, qui permet à un programme de la référencer. Toutes
les cases de la mémoire contiennent le même nombre de bits, par exemple k bits, ce
qui permet de représenter 2k combinaisons différentes.

En fait, la mémoire est organisée, dans tous les ordinateurs, en groupes de 8 bits
appelés octets ou bytes en anglais. C’est en réalité chaque octet qui possède une
adresse numérique. Cependant, le quantum manipulé par le processeur est le mot
qui regroupe de quatre à huit octets, selon le processeur. Le mot est de deux octets
dans les micro-ordinateurs anciens. Les ordinateurs personnels et les stations de
travail utilisent des mots de quatre ou huit octets. Les superordinateurs CRAY
possèdent des mots de huit octets.

La mémoire est organisée de façon matricielle par des transistors, où chacun d’eux
se trouve à l’intersection d’une ligne et d’une colonne.

Technologies de mémoires à semi-conducteurs


Le principe de base est d’utiliser des bistables (bascules RS) comme point de
mémoire. Les RAM (Random Access Memory) sont des mémoires à accès direct qui
peuvent être lues et écrites. Il en existe plusieurs types, de diverses technologies, qui
sont de conception et de nature différente et qui correspondent à des besoins bien
particuliers en informatique.

- SRAM (Static RAM) : de technologie bipolaire (2 portes NOR et chaque porte


NOR est formée de deux transistors). C’est un type de mémoire qui est très rapide et
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 87 / 157

on s’en sert essentiellement pour constituer la mémoire centrale de l’ordinateur.


- DRAM (Dynamic RAM) : de technologie MOS (transistor + condensateur); Elle
demande à être rafraîchie périodiquement et est donc plus lente. Elle sert beaucoup
en vidéo, en particulier sur les cartes graphiques, et permet pour une résolution
d’écran donnée d’afficher davantage de couleurs.
- SDRAM (Synchronous DRAM – exemple : DDR3) : DRAM d’accès synchrone;
c’est-à-dire que chaque requête mémoire se fait en un seul cycle d’horloge.
- EDO (Extended Data Output) : elle est structurée comme la DRAM, à une petite
différence près : un petit circuit a été ajouté, qui agit comme une minuscule zone de
stockage ou tampon servant à sauvegarder les adresses. Ce tampon reçoit l’adresse
de la prochaine donnée à lire ou à écrire avant même que la donnée précédemment
lue ou écrite ait été traitée.
- MRAM (Magnetic RAM) : mémoire non volatile, de type magnétique.

D’autre part, il existe les ROM et plusieurs variantes de cette technologie.

La ROM (Read Only Memory) est une mémoire morte où l’on peut lire uniquement.
Ce sont des mémoires non volatiles et de technologie MOS et bipolaire
(programmation par masque). Elles sont fréquemment utilisées pour y implanter le
BIOS (Basic Input Output System) de l’ordinateur.
La PROM (Programmable ROM) est une mémoire morte programmable une seule
fois par l’utilisateur. Elle est non volatile et de technologie MOS-bipolaire
(programmation courante par stockage de charge), MOS (unipolaire à grille flottante
qui décide s’il y a canal ou pas), ou par claquage de jonctions (réseau de diodes en
matrice). Elle est très peu utilisée en informatique.
L’EPROM (Erasable PROM) est basée sur le même principe que la PROM mais peut
être reprogrammée plusieurs fois après effacement aux rayons Ultra-Violet.

Les EEPROM, EAROM, EEROM sont des ROM programmables et effaçables


électriquement. La mémoire flash rentre dans cette catégorie.

5.2. Bancs

L'accès à la mémoire se fait de façon matricielle, selon des lignes et des colonnes.
Comme une ligne ou une colonne qui vient d'être lue ou écrite est inhibée pendant
un certain temps appelé temps de latence, la mémoire est divisée en « bancs ».
Deux octets dont les adresses sont consécutives sont placés dans des bancs
différents ; ainsi plusieurs bancs peuvent être accédés simultanément, ce qui
améliore les échanges avec le processeur. Il ne faut pas oublier que le temps
d'accès à la mémoire est bien plus long que le temps de cycle du processeur, de
l'ordre de quatre fois au minimum. Multiplier les bancs permet d'échanger plus
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 88 / 157

rapidement plusieurs informations entre le processeur et la mémoire. Un PC


comporte habituellement quatre bancs, une grosse machine seize ou plus.

Chaque octet est accompagné d'un certain nombre de bits qui servent au contrôle
d'erreurs et à leur correction lors des échanges. Ce nombre peut atteindre 8 sur les
gros ordinateurs, il est limité à un seul sur les micro-ordinateurs. La fiabilité, les
capacités de fonctionner en environnement dégradé, sont liées à ce nombre. On
comprend donc pourquoi, indépendamment de sa rapidité, le prix de la mémoire
varie avec les modèles de machines.

5.3. Mémoire cache

Le principe de la mémoire cache est de trouver une solution à la grande différence


de vitesse de fonctionnement entre le processeur et la mémoire centrale (elle peut
atteindre un rapport 10).

Les processeurs modernes intègrent dans leur puce une mémoire cache de niveau 1
ou L1, accessible très rapidement pour accélérer les opérations. On ajoute
également un deuxième niveau de mémoire, placée juste à côté du processeur sur la
carte mère, connue sous le nom de cache de niveau 2 ou L2.

Les communications avec le processeur sont plus rapides que celles avec la
mémoire car elles ne passent pas par le bus dont la bande passante est bien
inférieure au débit que peut accepter le processeur. Lorsqu'une instruction ou une
donnée est contenue dans un cache, son fonctionnement est accéléré car il n'attend
plus un transfert.

Le processeur demande simultanément l'information voulue à la mémoire et aux


caches. Lorsqu'elle est disponible dans ceux-ci, la réponse arrive très rapidement et
la requête à la mémoire est abandonnée. On a donc intérêt à posséder des caches
de grande dimension car, statistiquement, la chance d'y retrouver une information est
plus grande. Idéalement toute la mémoire devrait être un immense cache accessible
très rapidement mais cela exploserait le prix des machines. C'est la cas des
superordinateurs comme les Cray. La mémoire y est construite avec les dispositifs
les plus rapides, identiques à ceux utilisés dans les caches des machines ordinaires.
Les performances sont optimales mais le coût est absolument prohibitif !

Les ordinateurs ont différents types de mémoire cache, chacune a son propre usage,
mais elles possèdent toutes, à peu de chose près, la même définition. La mémoire
cache réalise quelques tâches spécifiques. Certaines mémoires caches sont dédiées
à ne faire qu’une seule tâche, mais la plupart réalisent les tâches suivantes.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 89 / 157

Cache en écriture : utilisé lorsqu’un composant rapide transfert de l’information à un


composant lent. Normalement, le composant rapide devrait attendre que le
composant lent lui indique qu’il est prêt à recevoir d’autres données. C’est comme
essayer de tenir une conversation pendant que quelqu’un traduit chaque mot que
l’on dit avec un dictionnaire. Ainsi, le cache en écriture possède une logique et les
logiciels qui lui permettent de transmettre (écrire) son contenu dans le composant
lent à la vitesse de celui-ci automatiquement, de manière à ce que le composant
rapide soit libéré et prêt pour une autre utilisation.

Le rapport entre les vitesses des composants décidera de la capacité du cache à


utiliser (plus la différence de vitesse est grande, plus grand devra être le cache).

Métaphore : imaginez par exemple l’évier de votre cuisine. Lorsque vous désirez y
déverser un litre d’eau, vous pouvez verser le litre entier d’un seul trait, et cela même
si le drain de l’évier n’est pas aussi rapide que le déversement que vous effectuez.
L’évier peut être vu ainsi comme un cache - c’est un tampon (buffer) entre vous et le
drain. Vous versez l’eau dans l’évier et il se remplit aussi rapidement que vous
déversez l’eau, le drain pendant ce temps videra l’évier à sa propre vitesse (qui est
plus lente). Si vous remplissez complètement l’évier d’eau, vous devrez alors
attendre que le niveau d’eau soit assez bas pour y déverser un autre litre ;
cependant, vous avez la possibilité de faire autre chose pendant ce temps.

Cache en lecture : utilisé lorsqu’un composant rapide obtient de l’information d’un


composant lent. Les caches en lecture possèdent la plupart du temps une logique
leur permettant de lire d’avance (« prefetch ») ce qui pourrait être nécessaire par la
suite. Ainsi, lorsque le cache est vide, il peut se remplir de lui-même afin d’être prêt
lorsque survient une requête.

Ce principe de fonctionnement est basé sur le fait que les exécutions de programmes
effectuent souvent un travail répétitif, ce qui favorise la possibilité de déterminer à
chaque instant ce qui pourrait être nécessaire par la suite. La plupart des caches
possèdent des combinaisons des fonctions énumérées précédemment, voire toutes
ces fonctions.

Comme niveaux de cache, on distingue :

Cache L1

Le processeur étant beaucoup plus rapide (jusqu’à 50 fois) que la mémoire RAM
standard, les concepteurs de processeurs (CPU) ont réservé un espace mémoire
très rapide à l’intérieur même de la puce du processeur. C’est la mémoire cache L1,
qui fonctionne à la même vitesse que le processeur. Coûtant très cher, il n’est pas
possible de réserver une grande quantité de mémoire pour la mémoire cache L1 ; on
compte approximativement 1/1000 de la taille totale de la mémoire RAM. Puisque les
exécutions de programmes effectuent souvent un travail répétitif, les instructions et
les données de la cache L1 sont utilisées à de nombreuses reprises. Même une
petite cache L1 peut donner un gain très appréciable de vitesse. Plus rapide est la
vitesse du processeur par rapport à la mémoire principale RAM, plus grande doit être
la mémoire cache L1.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 90 / 157

Cache L2

La mémoire cache rapide située dans le processeur (cache L1) étant de petite taille,
lorsque que les données ne sont pas dans le cache L1, le processeur doit aller les
chercher dans la mémoire RAM. Il y a alors un ralentissement notable, car le
processeur ne peut alors rien faire d’autre qu’attendre. Ainsi entre le cache rapide L1
(dans le processeur), et la mémoire RAM lente, est insérée une deuxième mémoire
cache, la mémoire cache niveau 2 ou L2. Cette mémoire cache est fabriquée à partir
de mémoire rapide, mais relativement peu dispendieuse, appelée mémoire statique
ou SRAM et est approximativement 10 fois plus rapide que la mémoire RAM
standard. On peut ainsi se permettre quelques mégabytes de SRAM. Ainsi, le
processeur peut travailler presque toujours sans arrêt ; car il fera probablement
quelque chose qu’il a fait récemment (une boucle) et les données seront dans la
cache L1, ou il possédera la logique qui lui aura permis de lire d’avance (prefetch)
l’information située dans la cache L1 ; cependant, les ordinateurs exécutent des
centaines de millions d’instructions par seconde ; 1% de données manquantes dans
le cache L1 signifie que pendant un million de fois par seconde le processeur devra
lire dans la mémoire RAM. Les données manquantes dans le cache L1 peuvent
atteindre 10 à 20% ; ainsi le cache L2 apporte une aide précieuse. Lorsque le
processeur ne trouve pas ce dont il a besoin dans le cache L1, il le trouvera la
plupart du temps dans le cache L2. Le fait que la mémoire RAM soit plus lente que le
processeur devient alors beaucoup moins significatif.

Lorsqu’on entend parler de mémoire cache, il s’agit la plupart du temps de la


mémoire cache L2. La majorité des ordinateurs personnels d’aujourd’hui possèdent
les deux niveaux de cache (L1 et L2).

Cache L3 et L4

Certains systèmes sont tellement rapides qu’ils ont besoin de plusieurs niveaux de
cache entre le processeur et la mémoire RAM. Chacun de ces niveaux possède le
numéro suivant dans la séquence de numérotation des caches (L1, L2, L3, etc.).

Cache de disque dur

De la même manière que le processeur est plus rapide que la mémoire RAM, celle-ci
est beaucoup plus rapide que les disques durs. Une mémoire cache est utilisée entre
le disque dur et la mémoire. Lorsque l’ordinateur écrit sur le disque, les données sont
placées dans la mémoire cache, elles sont alors écrites lentement (à la vitesse
maximale du disque dur), alors que l’ordinateur peut s’occuper d’autre chose.
Lorsque l’ordinateur désire lire sur le disque, la mémoire cache peut avoir lu
d’avance (prefetch) ou posséder des données lues auparavant ; celles-ci sont alors
retirées directement de la mémoire cache sans avoir à passer par le disque dur. Non
seulement l’ordinateur peut lui-même utiliser une partie de sa mémoire RAM comme
mémoire cache entre lui et le disque dur (cache « logicielle »), mais les concepteurs
de disques durs ont également ajouté une petite quantité de mémoire directement
sur les contrôleurs de disques durs comme mémoire cache (cache « matérielle »), et
c’est la norme actuellement dans la fabrication des disques durs. Ces deux types de
mémoire cache doivent être bien distinguées.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 91 / 157

Cache de CD-ROM

Les disques durs sont rapides comme l’éclair comparativement à la majorité des
lecteurs de CD-ROM. Des ingénieurs astucieux ont décidé d’utiliser le disque dur ou
la mémoire RAM ou les deux à la fois pour accélérer les accès au CD-ROM. Ils
fonctionnement comme les caches des disques durs et conservent les données
temporairement sur le disque dur ou dans la mémoire RAM, jusqu’à ce que
l’ordinateur ait besoin de les lire. Il y a également des caches en lecture d’avance
(prefetch) sur les lecteurs de CD-ROM. Les CD-ROM ne peuvant être que lus, il n’y a
donc pas de cache en écriture pour ceux-ci. Sinon, il s’agit de graveurs de CD-R/RW
(ou de DVD-R/RW ou DVD-RAM).

En conclusion, une mémoire cache est placée entre deux composants possédant
des vitesses différentes. Quelquefois, la mémoire cache est matérielle, mais plus
souvent elle est matérielle et logicielle. Les mémoires caches ne sont parfois utilisées
que pour stocker de l’information, mais elles peuvent posséder également leur propre
logique leur permettant de se vider et/ou lire d’avance (« prefetch »).

5.4. Hiérarchie

Il faut distinguer le rôle des différentes mémoires qui existent dans un ordinateur. Les
disques servent à stocker l'information de façon permanente. Leur contenu se
conserve même lorsque l'ordinateur n'est plus sous tension. Cependant, comme les
transferts entre ces périphériques et le processeur sont lents, celui-ci ne travaille
jamais directement avec ces supports. Le processeur échange ses informations avec
la mémoire et la mémoire dialogue avec les disques. Pour exécuter un programme, il
faut donc d'abord le déplacer du support permanent (le disque) vers la mémoire.
Puis, au cours de l'exécution, les données lues dans les fichiers sont déplacées par
morceaux des disques vers la mémoire pour être employées par le processeur. Il en
est de même, en sens inverse, pour les écritures.

Il existe donc un mécanisme caché en deux étapes qui fait obligatoirement transiter
les échanges par la mémoire. Cette « hiérarchie » se retrouve également dans les
échanges entre la mémoire et le processeur, avec les caches. Le processeur
recherche ses informations d'abord dans ceux-ci. Ceci met en œuvre des
algorithmes complexes, car il faut savoir gérer les cas où les données recherchées
ne s'y trouvent pas. Enfin, il faut également considérer le rôle des registres, véritable
mémoire interne du processeur. L'utilisateur n'y accède pas directement, mais un
compilateur bien écrit sait en tenir compte.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 92 / 157

Il convient de ne pas confondre la taille de la mémoire qui définit les possibilités


logicielles de la machine et la taille d’un disque qui indique sa capacité à stocker des
informations permanentes. Le couple [longueur du mot , longueur du registre
d'adresse (ou compteur ordinal)] est la première notion de l'architecture physique
visible de l'extérieur. En particulier, il permet de définir les tailles maximales des
programmes et des tableaux : tous les adressages nécessaires pour accéder aux
informations, que ce soit dans la mémoire ou sur disque, se font au moyen de
nombres entiers.

Une architecture à mot de 32 bits permet donc d'adresser un peu plus de quatre
Gigaoctets et il devient impossible d'adresser directement un système de fichiers ou
une mémoire plus grands. Il faut se déplacer par indirection au moyen d'informations
relais jamais séparées par une distance supérieure à cette valeur fatidique, ce qui
diminue fortement l'efficacité de l'ordinateur. On comprend donc pourquoi aujourd'hui
on développe des processeurs à mot de 64 bits : l'ordre de grandeur du plus grand
entier est 1,81019 (puique : 264 = 18446744073709551616), ce qui laisse une marge
certaine pour les disques et les mémoires que l'on sait fabriquer aujourd'hui !

On peut distinguer, comme quantités d’information, dans l’ordre croissant : le bit,


l’octet, le caractère, le mot, l’enregistrement, le bloc de données, et le fichier.

Globalement, chaque type de « mémoire » au sens large peut donc être inséré dans
un « hiérarchie » dictée essentiellement par la rapidité des composants. Par ordre
décroissant de vitesse (donc par ordre croissant de temps d’accès), on peut établir le
classement succinct suivant :

 Registres du CPU : Ils servent au stockage des opérandes et des résultats


intermédiaires (5ns).
 Antémémoire ou mémoire cache : Elle sert de tampon entre le CPU et la
mémoire centrale (15 ns).
 Mémoire centrale : Elle est utilisée pour le rangement des informations. Elle
contient le programme à exécuter (60 ns).
 Mémoire d’appui : C’est la mémoire tampon qui se situe entre la mémoire
centrale et les mémoires de masse (100 ns).
 Mémoire de masse : Ce sont tous les systèmes d’archivage comme le Hard
Disk Drive, le Tape Drive, etc. (10-30 ms).

Ses principales caractéristiques sont : la capacité, le temps d’accès, le cycle


mémoire (temps entre deux accès successifs), le débit et la volatilité.

Il existe différents types d’accès suivant les fonctions à assurer :

 Accès séquentiel : Pour accéder à l’information, il faut parcourir toutes celles


qui la précèdent (bande magnétique).
 Accès direct : L’information possède une adresse propre qui permet de la
localiser directement (RAM).
 Accès semi-séquentiel : C’est une combinaison entre l’accès direct et l’accès
séquentiel (Disque dur).
 Accès par contenu : L’information est identifiée par une clé de recherche
(mémoire cache).
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 93 / 157

Hiérarchie des mémoires

Type de mémoire Taille moyenne Temps d’accès


Registres De l’ordre de 100 octets De l’ordre de la ns
Mémoire cache Plusieurs Mo 1 à 10 cycles
Mémoire centrale Plusieurs Go 5 à 20 cycles
Mémoire de masse 1 à plusieurs To 10 à 50 ms

5.5. Mémoire virtuelle


513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 94 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 95 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 96 / 157

( à 12287).

comprises entre 8192 et 12288.

20500
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 97 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 98 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 99 / 157

12 bits.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 100 / 157

[Correction du texte ci-dessus : l’entrée 3 qui correspond aux adresses 12288 à 16383]
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 101 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 102 / 157
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 103 / 157

6. Entrées/sorties

6.1. Unités de traitement des entrées/sorties

Les performances d’un ordinateur dépendent, outre du type de CPU et des


types de mémoires, de l’architecture globale de la machine, en particulier
de la manière dont sont gérés les échanges d’informations entre les
composants sur la carte mère. A cet égard, la complexité des unités de
traitement de ces échanges, de même que la largeur des bus (le nombre
de bits pouvant être transférés en parallèle) sont des paramètres
importants. La rapidité effective de fonctionnement d'une machine y est
très sensible.

Les contrôleurs, eux, sont construits pour assurer les communications


avec les périphériques. Ils sont spécialisés dans leur usage et possèdent
leur propre mémoire. Un contrôleur d'écran stocke ainsi une partie des
informations qu'il présente à l'utilisateur. Un ou des processeurs
auxiliaires présents sur la carte mère assurent le fonctionnement de base.
Le problème fondamental est de réussir à faire fonctionner cet ensemble,
à assurer les échanges d'informations entre les différents éléments qui
constituent la machine et surtout, du point de vue de l'utilisateur, à
dialoguer avec lui. C'est le rôle du système d'exploitation.

Les unités d’entrées-sorties les plus courantes, qui permettent de transférer des
informations entre l’unité centrale et les périphériques, sont :

 les bus
 les DMA (Direct Memory Access)
 les canaux d’entrées-sorties
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 104 / 157

Bus
Le bus n’est rien d’autre au fond qu’un simple câble de n lignes qui permet de faire
passer des données du processeur à la mémoire et vice-versa. Il constitue une sorte
d’autoroute qui traverse le PC, réglementée par le processeur. C’est une voie
d’interconnexion et d’échanges permettant le transfert de données entre les
éléments internes d’un ordinateur, le processeur et la mémoire centrale. Le bus
permet de véhiculer tous les signaux entre l’Unité Centrale et les périphériques. On
peut le décomposer en trois grands groupes principaux qui sont :

Le bus de données qui sert à transporter l’information proprement dite et qui est
constitué, pour les processeurs les plus récents, de 32 ou 64 lignes parallèles.
Le bus d’adresses qui permet l’identification de la case mémoire concernée par
l’opération en cours (lecture ou écriture), qui a lui aussi 32 ou 64 lignes parallèles.
Le bus de commande qui véhicule le type d’opération à effectuer (lecture, écriture,
sélection du composant, etc.).

En regard des vitesses de fonctionnement des processeurs actuels, celle des


périphériques est bien inférieure. C’est pourquoi le bus est divisé au moins en trois
sections ; l’une rapide dessert l’intérieur de l’Unité Centrale (mémoire cache, …), la
seconde, appelée bus local, interface les périphériques du voisinage immédiat
(vidéo, disque dur, …) et la dernière connecte les périphériques les plus lents (carte
son, clavier, …). Le bus est caractérisé en cycles, généralement un multiple de la
fréquence d’horloge du processeur, ce qui exige une synchronisation précise et
parfaite.

Chaque périphérique doit être relié à un bus ou un canal par un contrôleur spécialisé.
Il existe plusieurs types de contrôleurs de bus :

Bus ISA (Industry Standard Architecture) : C’est le bus originel du PC qui se décline
en version 8 bits ou 16 bits. Il permet au maximum un transfert de 8 Mégabits par
seconde soit 1Mo/s ce qui est parfois suffisant pour certains périphériques comme
des cartes réseaux. C’est l’architecture du bus du PC/AT.
Bus LOCAL : Pour améliorer la vitesse des échanges entre le processeur et la
mémoire, la solution adoptée consiste à installer un bus local entre ces deux
éléments. Ce bus fonctionne à la vitesse du microprocesseur sans nécessiter une
électronique coûteuse, en raison de sa faible longueur et du fait qu’aucun autre
périphérique n’y est relié. La grande majorité des PC vendus aujourd’hui possèdent
un bus local de ce type.
Bus VESA (Video Electronics Standards Association) : La présence d’un bus local
donna rapidement aux constructeurs l’envie de l’utiliser pour les périphériques
demandant une grande vitesse de transfert. Il s’agit en premier lieu de l’affichage,
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 105 / 157

dont les besoins croissent dans des proportions énormes avec l’adoption des
interfaces graphiques telles que Windows et, dans une moindre mesure, des disques
durs et des cartes réseau. Dans le cas d’un disque dur par exemple, il ne sert à rien
de communiquer à une vitesse supérieure à celle du disque. Cependant, le problème
peut être contourné en installant sur la carte d’interface du disque une quantité de
mémoire servant de tampon. L’échange de données peut ainsi se faire à une vitesse
maximale entre le processeur et le tampon, l’électronique de la carte se chargeant
ensuite d’envoyer le contenu du tampon sur le disque pendant que le processeur fait
autre chose. Un certain nombre de constructeurs ont développé leur propre bus
local, incompatible avec les produits de marque différente.
En revanche, certains se sont associés pour créer le standard VESA (Video
Electronics Standards Association) qui avait pour objet initial de permettre
l’installation d’une carte d’affichage sur le bus local.
Bus EISA (Extended Industry Standard Architecture) : C’est une évolution du bus
ISA qui permet la reconnaissance automatique des périphériques connectés à ce
bus.
Bus VLB ou VL-BUS (VESA Local-BUS) : C’est un bus 32 bits qui permet la
technique du "bus mastering". Il nécessite 2 cycles d’horloge pour transférer un mot
de 32 bits à 33 Mhz dont le débit peut varier de 66 Mo/s à 105 Mo/s en mode rafale.
Le VL-Bus 2, quant à lui, est un bus 64 bits, fonctionnant à 50 Mhz et autorisant un
taux de tranfert de 320 Mo/s.
Bus PCI : C’est un bus 32 bits indépendant, séparé du CPU et qui est contrôlé par
ce que l’on appelle le "chipset" qui est en fait un véritable processeur. Il permet des
taux de tranferts de 132 Mo/s et 264 Mo/s avec la norme 2.1. Il fonctionne à des
fréquences de 33 voire 66 Mhz. Il permet lui aussi la technique du "bus mastering" et
représente une partie de la norme plug and play. Conçu par Intel, ce bus connaît un
beau succès.

Le bus PC Card (PCMCIA) a été mis au point en 1989 par le consortium PCMCIA
(Personal Computer Memory Card International Association), pour les ordinateurs
portables. Ses performances sont relativement limitées. Sa largeur n’est que de 16
bits et sa vitesse ne dépasse pas 33 Mhz. Il ne possède que 26 lignes d’adresses, ce
qui limite l’espace mémoire à 64 mégaoctets. Il n’autorise pas la prise de contrôle du
bus par les périphériques, mais présente un certain nombre d’avantages : le principal
est la très petite taille des connecteurs et des cartes d’extension (format carte de
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 106 / 157

crédit). De plus, c’est le seul qui autorise la connexion et la déconnexion des cartes
d’extension sans couper l’alimentation de l’ordinateur.

Date Longueur des Fréquence


Type de bus Débit théorique
d’introduction données d’horloge
PC/XT 1981 8 bits 4,77 MHz 4,77 Mo/s
PC/AT 1985 16 bits 8,33 MHz 16,66 Mo/s
Nu Bus 1987/1993 32/32 bits 10/20 MHz 40/80 Mo/s
MCA 1987/1991/1994 32/64/64 bits 10/10/20 MHz 40/80/160 Mo/s
EISA 1988 32 bits 8,33 MHz 33 Mo/s
132/264/528
VL Bus 1991/1994/1994+ 32/32/64 bits 33/66/66 MHz
Mo/s
PCI Bus 1993/1994 32/64 bits 33/33 MHz 132/264 Mo/s
PCI Bus
1995 64 bits 66 MHz 528 Mo/s
v2.1
PCI-X ou
1999 64 bits 133 MHz 1 Go/s
NGI/O

Accès direct à la mémoire (DMA)


DMA (Direct Memory Access) permet à un périphérique d’accéder directement à la
mémoire sans passer par le CPU ; il est prioritaire sur celui-ci pour l’accès à la
mémoire. Il est doté d’un registre d’adresses, d’un compteur, d’un registre de
données et d’un dispositif de commande capable d’assurer le transfert. Il ne vérifie
pas l’intégrité des informations, qui est assurée par le contrôleur du périphérique
concerné. Le fait d’utiliser un DMA pour gérer un périphérique améliore notablement
les performances de celui-ci. La carte son utilise ce procédé.

Canaux d’entrées-sorties
Ils sont plus performants que les DMA et permettent à plusieurs périphériques de
travailler simultanément ; ce sont de véritables processeurs spécialisés. Ils sont
programmables, enchaînent les opérations d’entrées-sorties et ont un accès
prioritaire à la mémoire par la technique du "vol-de-cycle". De plus, ils vérifient
l’intégrité des informations échangées, ce que ne fait pas le DMA. Il existe deux
types de canaux :

 Le canal sélecteur ou spécialisé totalement réservé au périphérique concerné.


Il est particulièrement adapté aux échanges avec des unités rapides, tels que
des disques. Il ne répond qu’à un transfert à la fois.
 Le canal multiplexé partagé entre plusieurs unités et appelé sous-canal, qui
peut gérer plusieurs échanges simultanés. Il peut ainsi travailler « en
parallèle », et offrant plusieurs accès simultanés à des périphériques à faible
débit, tels que des terminaux.

Système d’interruption
Pour mener à bien les échanges, les unités d’entrées-sorties doivent pouvoir signaler
au CPU qu’elles sont connectées et prêtes à transférer des données ou bien que
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 107 / 157

l’échange de celles-ci s’est bien déroulé. Le traitement d’une interruption, assuré par
le système d’exploitation, se déroule en plusieurs étapes et consiste globalement à :

1. arrêter le programme en cours


2. sauvegarder l’état de la machine
3. exécuter le programme de service de l’interruption
4. rétablir l’état de la machine
5. reprendre l’exécution du programme interrompu

Il peut arriver que plusieurs interruptions arrivent simultanément. Pour parer à cette
éventualité, il existe des systèmes d’interruptions hiérarchisées à niveaux de priorités
qui les gèrent non pas dans l’ordre chronologique d’arrivée mais dans l’ordre de
priorité défini par le dispatcheur. Les conflits possibles sont gérés en attachant à
chaque niveau de priorité une file d'attente pour traiter successivement les causes
d'interruptions. On peut schématiser les différents niveaux d'interruptions comme
dans le tableau ci-dessous. La priorité va en décroissant du haut vers le bas.

Erreurs matérielles
Horloge
Requêtes disque
Requêtes réseau
Terminaux
Interruptions logicielles

Hiérarchie des interruptions, dans l’ordre de priorité décroissante

Les interruptions font partie de l'architecture d'un ordinateur. Leur conception diffère
selon le constructeur mais elles obéissent toutes à des principes communs. Leur rôle
est de transférer le traitement au programme approprié comme le schématise la
figure ci-dessous :
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 108 / 157

Pour gérer ce transfert on pourrait concevoir un programme unique qui examinerait


une information liée à l'interruption puis qui, à son tour, appellerait un gestionnaire
spécifique. Ceci n'est pas efficace car les interruptions doivent être traitées le plus
rapidement possible.

On fait donc l'économie de ce double appel en utilisant une table de pointeurs vers
des programmes spécifiques de traitement. Cette table est stockée dans les
adresses basses de la machine. On l'appelle « vecteur d'interruptions ». Le système
d'exploitation doit savoir utiliser les informations contenues dans ce vecteur.

Les « déroutements » ou les « appels au superviseur » sont déclenchés par une


cause interne au programme en cours (donc : « synchrones » avec lui) ; une telle
cause peut être une division par zéro, un point d'arrêt, un code d'opération non
valide, une erreur dans la pile, une erreur de protection, un défaut de page, etc. Par
contre, les « interruptions » sont d'origine externe, déclenchées par un autre
processus ou par le matériel (donc : « asynchrones »).

À titre d’exemple, le processeur Pentium possède 16 interruptions hardware,


appelées IRQ (Interrupt ReQuest), reprises dans le tableau suivant. Chaque
interruption correspond à un élément matériel ; dès lors, il peut y avoir un problème,
par exemple, lorsque deux cartes mal configurées tentent d’employer la même IRQ.

Fonction IRQ Adresse Commentaires


Horloge système 0
Clavier 1
Contrôleur d'IRQ
2
programmable
Com 2 2F8-2FF
3
Com 4 2E8 - 2EF
Com 1 3F8-3FF
4
Com 3 3E8-3EF
Libre 5 Souvent utilisé par la carte son
Contrôleur lecteur de
6
disquette
378 -37F (3C
LPT 1 pour les produits
7 de marque)
LPT 2
278 - 27F
Horloge : date et heure 8
9 Souvent utilisé par la carte son
10 Libre
11 Libre
12 Libre
Coprocesseur
13
mathématique
14 Souvent IDE 1
15 Souvent IDE 2

Interruptions du processeur Pentium


513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 109 / 157

6.2. Interfaces d’entrées/sorties

La quantité de données complexes (les données multimédia par exemple), que tout
utilisateur de PC souhaite manipuler sur son système, s’est considérablement accrue
depuis quelques décennies. L’émergence des appareils numériques et de l’Internet a
conforté cette accélération de la quantité de données utilisées. Cette tendance a été
de pair avec l’utilisation de microprocesseurs de plus en plus rapides, de disques
durs de plus en plus gros, d’écrans de plus en plus larges, de connexions Internet de
plus en plus rapides.

Les interfaces de connexion à un ordinateur ont suivi la même tendance. Elles ont su
s’adapter à la Loi de Moore qui observe le doublement de la puissance disponible
tous les 18 mois environ. Les interfaces ont donc su assurer les échanges de
données de plus en plus importants qui ont lieu dans la chaîne multimédia. C’est
pour cette raison que le classement des interfaces suivant leur débit ne peut être
qu’éphémère, car telle interface qui était à débit « moyen » à un instant donné aura
tendance à devenir « d’entrée de gamme » quelques temps plus tard pour assurer
l’augmentation des performances que l’utilisateur souhaite.

Les standards d’interface à faible débit

Interface PS/2 : vitesse jusqu’à 25 kbits/s, utilisée pour connecter le clavier et la


souris au PC, en cours de remplacement par l’interface USB pour cette fonction.

Interface Infrarouge : vitesse inférieure à 1 Mb/s (premières générations de la norme


Bluetooth), utilisée pour connecter un agenda personnel, un téléphone GSM,
toujours disponible sur les ordinateurs portables, rarement sur les PC de bureau,
appelée à être remplacée par les interfaces utilisant les générations ultérieures de la
norme Bluetooth.

Interface Série (UART en mode normal, EPP, ECP) : vitesse jusqu’à 115 Kbits/s,
utilisée pour connecter modem, agenda personnel, téléphone GSM, liaison de PC à
PC, quasiment remplacée par l’interface USB dans toutes ces fonctions.

Interface Port Jeux : vitesse jusqu’à 31 Kbits/s, utilisée pour connecter manettes de
jeux, volants et instruments de musique MIDI, en cours de remplacement par
l’interface USB pour toutes ces applications.

Interface Parallèle : vitesse jusqu’à 1,2 Mbits/s, utilisée pour connecter une
imprimante, pour une liaison PC à PC, en cours de remplacement par l’interface USB
pour toutes ces fonctions.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 110 / 157

Les standards d’interface à moyen débit

Interface USB (Universal Serial Bus) 1.1 : elle possède deux vitesses de transfert,
1,5 Mbits/s et 12 Mbits/s, utilisée pour connecter clavier, souris, manette de jeux,
liaison PC à PC, appareil photo et caméra vidéo à faible résolution, lecteur MP3,
agenda mais aussi lecteur de disquette standard ou ZIP, disque externe de
sauvegarde, graveur de CD-R/RW ou graveur de DVD-R/RW, enceintes audio, un
certain nombre d’interfaces émulant des interfaces de générations antérieures telles
interfaces séries, parallèles, réseau, liaison PC à PC, SCSI, interface réseau sans fil
à la norme 802.11b. Après un démarrage laborieux, l’interface USB est devenue
l’interface de choix par défaut dans bien des cas. La généralisation de son utilisation
provient en grande partie de la simplicité à ajouter ou retirer les périphériques "à
chaud" (Plug and Play), c’est-à-dire sans arrêter le PC. La version 1.1 est appelée à
être progressivement remplacée par la nouvelle version 2.0, qui autorise un débit 40
fois supérieur, puis par les versions suivantes.

Les standards d’interface à haut débit

Interface USB 2.0 : vitesse jusqu’à 480 Mbits/s, utilisable pour connecter clavier,
souris, manette de jeux, liaison PC à PC, appareil photo et caméra vidéo à haute
résolution, lecteur MP3, agenda, lecteur de disquette standard ou ZIP, disque dur
externe, clé, graveurs.

Icone de l'USB

Différents types de connecteurs USB, de gauche à droite : micro B mâle, mini B mâle 8 pin,
mini B mâle 5 pin, A femelle, A mâle et B mâle.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 111 / 157

Différents types de prises USB.

Prises USB de type A et B, vue de face.

Interface SCSI (Small Computer System Interface) 1 et 2 : elle a été déclinée en


plusieurs versions depuis son apparition : SCSI-1 à 32 Mbits/s, SCSI-2 et Wide SCSI
jusqu’à 160 Mbits/s, Ultra 2 Wide SCSI à 640 Mbits/s. C’est une interface parallèle.
Elle a toujours été utilisée pour connecter des disques durs de hautes performances
mais également les graveurs, scanners, imprimantes. Elle permet la connexion d’un
grand nombre de périphériques, 7 en général et même 31 pour certaines versions.
Outre sa rapidité, elle fait peu appel au processeur central du système grâce à la
sophistication du contrôleur. Elle assure ainsi d’excellentes performances de débits,
indépendantes de la charge du système. Mais de ce fait, l’interface n’est pas bon
marché. Son plus gros inconvénient est la limitation de la longueur des connexions,
qui est inversement proportionnelle à la fréquence utilisée. Ce handicap a cependant
été levé par l’emploi de signaux différentiels sur les versions récentes.

Symbole du SCSI

Connecteurs SCSI 25-50 broches (à gauche, le connecteur 50 broches)

Interface FireWire ou i.LINK, jusqu’à IEEE 1394b-s1200 : elle a été normalisée sous
la référence IEEE 1394. C’est une interface série, déclinée en plusieurs versions,
jusqu’à IEEE 1394b-s1200, à un « haut » débit de 1200 Mb/s. Elle présente de
grandes similitudes avec l’interface USB telles que le Plug and Play (elle est dite Hot
Plug) ou l’utilisation de trames. Des considérations totalement non techniques ne lui
ont pas permis de figurer sur la carte mère, ce qui a freiné sa commercialisation. Elle
est très utilisée dans les périphériques d’imagerie, en particulier dans les
caméscopes au standard DV. Malgré des performances très bonnes, elle risque
d’être fortement concurrencée par les versions récentes de l’interface USB. Il est clair
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 112 / 157

que la performance et le coût des bus séries tels que USB et IEEE 1394 les rendent
particulièrement attractifs pour les évolutions futures des architectures de PC, quant
à la connexion des disques, des graveurs, et autres supports de sauvegardes.

Deux ports FireWire 400 « femelles »

Connecteur FireWire 400 « mâle »

Les standards d’interface à très haut débit

Interface USB 3.0 : la version 3.0 propose des débits jusqu'à 4,8 Gbit/s (soit environ
600 Mo/s), proches des 6 Gbit/s du SATA 3.

Interface SCSI (Small Computer System Interface) 3 : elle a été déclinée en plusieurs
versions depuis son apparition : Ultra SCSI, Ultra Wide SCSI, … , jusqu’à la version
Ultra-640 SCSI à 640 Mo/s (environ 5 Gbit/s).

Interfaces IEEE 1394b-s1600 et IEEE 1394b-s3200 : IEEE 1394b-s1600 a un débit


de 1600 Mb/s, et IEEE 1394b-s3200 a un débit de 3200 Mb/s.

Interface AGP (Accelerated Graphics Port) : ce bus a été introduit par Intel en 1998
pour relier directement la mémoire du système au processeur de la carte graphique.
Avec un bus de 32 bits, il offre un débit maximum de 4,2 Gbits/s en version de base.
Il a été décliné en versions AGP 2X, 4X et bientôt 8X, qui lui permettent d’atteindre la
vitesse respectable de 33,6 Gbits/s. Le connecteur AGP ressemble énormément à
un connecteur PCI, si ce n’est qu’il est de couleur brune. Par contre, il est placé plus
en recul du bord de la carte mère que les slots PCI.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 113 / 157

Interface Fiber Channel : jusqu'à 400 Mo/s (environ 3 Gbit/s), sur 20 à 200 m (cuivre)
et sur 10 km (fibre optique). L’utilisation de la fibre optique permet la résolution des
problèmes de sensibilité aux parasites à des fréquences de plus en plus élevées,
défavorables pour les signaux électromagnétiques. Son implantation existe en mode
Canal et en mode Réseau. Bien que les performances de débit soient en forte
augmentation, du fait de son coût encore élevé, cette interface ne trouve
d’applications que dans le domaine des commutations extrêmement rapides (dans
les équipements liés aux réseaux à très hauts débits). Son utilisation dans un PC
n’est pas encore à l’ordre du jour, alors que l’on commence à la trouver sur les
serveurs connectés à un réseau de stockage (SAN).

6.3. Composants principaux sur la carte mère


513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 114 / 157

Séquence d’actions au démarrage d’un système

* Allumage : BIOS transféré en RAM et exécuté


* BIOS : transfère en RAM le chargeur contenu dans le MBR et l’exécute
* Chargeur : transfère en RAM le noyau et l’exécute
* Noyau : transfère en RAM et exécute le processus init, puis traite toutes
les demandes, venant de programmes ou de périphériques,
consécutives à son exécution
* Init : transfère en RAM et exécute toute une série de programmes et
de services, afin d’initialiser le système et les périphériques

BIOS (Basic Input/Output System)

Le matériel de tout ordinateur doit pouvoir coopérer avec les logiciels par une
interface (moyen de communication). Le BIOS est un petit système de lancement
permettant à l’ordinateur de lancer les autres logiciels à partir d’un lecteur de
disquettes ou d’un disque rigide. Le BIOS est responsable d’une étape de démarrage
de l’ordinateur en fournissant un jeu d’instructions de base. Il effectue des tâches
nécessaires lors du démarrage : l’auto-test de démarrage et le lancement du
chargeur permettant le lancement d’un système d’exploitation à partir d’une disquette
ou du disque rigide. De plus, il fournit une interface avec le matériel de l’ordinateur au
système d’exploitation sous la forme d’une librairie d’interruptions. Par exemple,
chaque fois qu’une touche du clavier est enfoncée, le processeur utilise une
interruption du BIOS pour lire la touche. C’est le même principe pour les autres
composants d’entrées/sorties (ports série et parallèle, cartes vidéo, cartes de son,
contrôleurs de disque, etc.). Certains vieux PC ne sont pas capables de
communiquer avec les nouveaux composants matériels parce que leur BIOS ne les
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 115 / 157

supporte pas ; le système d’exploitation ne peut alors pas utiliser une interruption du
BIOS pour communiquer avec ce matériel ; ce problème peut être résolu en
remplaçant le BIOS par un plus récent, qui supporte le nouveau matériel ou en
installant un pilote (driver) pour ce matériel.

CMOS (Complementary Metal Oxide Semiconductor)

Pour effectuer ses tâches, le BIOS a besoin de connaître plusieurs paramètres, soit
la configuration du matériel de l’ordinateur. Ces informations sont conservées dans
un petit espace mémoire (64 octets), appelé mémoire CMOS, ou simplement CMOS.
L’alimentation du CMOS est assurée par une petite pile, ainsi son contenu est
préservé même si on coupe l’alimentation du PC. Donc, on retrouve une pile et une
petite quantité de mémoire sur la carte mère, qui ne perd jamais (ou presque …) ses
informations. Cette mémoire faisait partie autrefois de l’horloge du processeur,
maintenant elle fait partie d’un circuit intégré. CMOS est le nom d’une technologie qui
a la caractéristique de consommer très peu d’énergie ; ainsi, la pile de l’ordinateur
peut durer très longtemps. De nos jours, il n’y a plus de piles sur les cartes mères
des ordinateurs, mais un accumulateur (NiCad dans la plupart des cas). Cet
accumulateur est rechargé chaque fois que l’ordinateur est en marche. Si la mémoire
CMOS est alimentée par une pile, il faut s’assurer qu’elle est en bonne condition et
qu’elle ne coule pas, car cela pourrait endommager la carte mère. Si la pile est
défectueuse, la mémoire CMOS perdra ses informations et donc la configuration du
matériel, et cela pourrait affecter le fonctionnement de l’ordinateur. Dans les vieux
PC et PC/XT monolithiques, l’information sur la configuration du matériel est fournie
par des micro-interrupteurs (DIP switch) sur la carte mère ou les cartes de
périphériques. Certaines cartes mères possèdent une technologie appelée Dallas
Nov-Ram, qui élimine le besoin d’avoir une pile ; une cellule de lithium ayant une
espérance de vie de 10 ans est collée dans la puce.

CHIPSET

Un PC est constitué de plusieurs composants installés sur la carte mère : cartes


d’expansion, mémoire, mémoire cache, raccord de clavier, etc. Le CHIPSET fournit
un ensemble d’instructions permettant au processeur de communiquer avec les
composantes de la carte mère. De nos jours, la plupart des puces spécialisées : PIC
(Programmable Interrupt Controller - contrôleur d’interruptions programmable), DMA
(Direct Memory Access - accès direct à la mémoire), MMU (Memory Management
Unit - unité de gestion de la mémoire), la mémoire cache, … , sont toutes
rassemblées sur une, deux ou trois puces : le CHIPSET. Puisque les CHIPSET de
marques différentes sont conçus différemment, pour chacun d’eux, il existe une
version spécifique de BIOS. Certains CHIPSET possèdent beaucoup de
fonctionnalités, d’autres moins. OPTi est un CHIPSET couramment utilisé. Les cartes
mères à haute intégration n’ont que quelques composants : le processeur (CPU), le
BIOS, un CHIPSET, une mémoire cache, la mémoire standard et une puce horloge.

SETUP

SETUP est un ensemble de procédures permettant à l’utilisateur de configurer


l’ordinateur selon ses caractéristiques matérielles, donc de changer la configuration
que le BIOS utilise pour configurer le CHIPSET. Le PC d’origine d’IBM était configuré
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 116 / 157

au moyen de micro-interrupteurs sur la carte mère. L’utilisation des micro-


interrupteurs sur ces PC et XT était extrêmement difficile. Les micro-interrupteurs
sont encore utilisés pour la configuration de la mémoire et pour la sélection de la
vitesse d’horloge. Lors de l’introduction du PC/AT, ce dernier renfermait une pile
alimentant une mémoire CMOS pour conserver les informations de configuration. La
mémoire CMOS était configurée originellement par un programme situé sur une
disquette de diagnostic, plus tard certains clones avaient des fonctions du BIOS
permettant de configurer la mémoire CMOS lors de l’utilisation de certaines touches
magiques. Malheureusement, les CHIPSET contrôlant les processeurs modernes
sont devenus de plus en plus complexes, et la variété des paramètres du SETUP a
augmenté également. De plus, il y a eu peu de standardisation dans la terminologie
utilisée par la demi-douzaine de fabricants de BIOS, les trois douzaines de fabricants
de CHIPSET et le très grand nombre de fabricants de cartes mères. Les plaintes
concernant la documentation souvent très pauvre du SETUP des cartes mères sont
très fréquentes. Pour en rajouter, certains paramètres sont définis par les fabricants
de BIOS, d’autres par les fabricants de CHIPSET, et d’autres encore par les
fabricants de cartes mères.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 117 / 157

7. Périphériques

Les périphériques permettent à l’utilisateur la saisie, la visualisation, l’impression, … ,


des données. Ce sont les claviers, souris, écrans, imprimantes, disques durs, etc.
Plus généralement, ils permettent la communication de l’ordinateur avec son
environnement ; les cartes réseaux, capteurs, etc. en font également partie.

7.1. Disques durs et RAID

Disques durs
Un disque magnétique consiste en une plaque métallique (en aluminium) circulaire,
recouverte d’une mince couche d’oxyde de fer. L’information est enregistrée sur la
surface de ce disque, le long de « pistes » concentriques de quelques microns de
largeur. Le système permet en fait d’enregistrer des données des deux côtés, sur les
deux faces du disque. Le nombre de têtes de lecture/écriture est donc le double du
nombre de plateaux. La capacité d’une piste varie d’un modèle à l’autre ; cependant,
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 118 / 157

sur un même disque, elle est constante pour toutes les pistes concentriques, ce qui
implique une densité d’enregistrement variable. Chaque piste est divisée en
« secteurs ».

Schéma d’un disque dur

Dans la majorité des disques durs (Hard Disks Drives), il y a plusieurs disques
magnétiques superposés et regroupés autour d’un axe. Dans ce cas, les disques
sont séparés par un espace de quelques millimètres qui permet le passage du
mécanisme portant les têtes pour effectuer la lecture et l’écriture. On appelle
« cylindre » l’ensemble des pistes superposées (une par face) que le bras support
des têtes peut lire ou écrire sans se déplacer. Ainsi, du point de vue physique, dans
un disque dur, on peut distinguer comme unités d’allocation : le « Cylindre » (2n
pistes superposées si n = nombre de disques), la « Piste » (ensemble des secteurs
sur une face à une distance radiale déterminée), le « Bloc » ou « Cluster » (un ou
plusieurs secteurs consécutifs sur une piste) et le « Secteur » (nombre d’octets fixé
au formatage).

Caractéristiques d’un disque dur :

- Format (pouces) : 3,5 pouces, 5,25 pouces, etc.


- Capacité formatée (Go) : 9 Go, 36 Go, 120 Go, etc.
- Nombre de plateaux : 2, 3, 4, etc.
- Nombre de têtes : 4, 6, 8, etc.
- Nombre de cylindres : plusieurs milliers
- Taille de la mémoire tampon (Ko) : 96 Ko, 512 Ko, etc.
- Temps d’accès moyen (ms) : 10 - 15ms
- Vitesse de rotation (rpm) : 7000 - 10000 rpm
- Technique d’enregistrement : RLL, PRML
- Densité d’enregistrement (bpi) : environ 100000 bpi
- Densité de pistes (tpi) : 4000 à 7000 tpi
- Type d’interface : EIDE/ATA, SATA, SCSI, etc.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 119 / 157

Typiquement, on trouve sur chaque piste une succession de secteurs, composés de :

1. un petit espace « blanc » (gap) : il laisse à la logique du contrôleur de disque une zone
inutilisée de cette piste du disque pendant le temps nécessaire au basculement du mode
lecture au mode écriture et inversement (cela permet également de compenser de
légères dérives de la vitesse de rotation des surfaces de disque) ;
2. une zone servo : elle contient des « tops » permettant de synchroniser la logique du
contrôleur de disque avec les données qui vont défiler sous la tête de lecture juste
après ;
3. un en-tête contenant le numéro (ID=identifiant) du bloc qui va suivre : il permet au
contrôleur du disque de déterminer le numéro de secteur que la tête de lecture va lire
juste après (et par là de déterminer également si le bras portant les têtes est positionné
sur la bonne piste) ;
4. les données : ce qui est véritablement stocké par l’utilisateur du disque ;
5. une somme de contrôle (Σ) permettant de détecter/corriger des erreurs : cela fournit
également un moyen de mesurer le vieillissement du disque dur (il perd petit à petit de
sa fiabilité).

Format d’un secteur

Système RAID
Un système RAID [Redundant Array of Independent (or inexpensive) Disks] permet
de répartir des données sur plusieurs disques durs afin d’améliorer soit la tolérance
aux pannes, soit la sécurité, soit les performances de l’ensemble, ou une
combinaison de tout cela. Chacun de ces disques amovibles peut facilement être
remplacé : cela se présente comme une armoire à tiroirs.

Ainsi, la particularité principale de la technologie RAID est son aptitude à combiner


de nombreux périphériques de stockage bon marché, de sorte que ce groupement
offre une capacité, une fiabilité et/ou des performances accrues, et ce pour un coût
largement inférieur à un périphérique de stockage unique équivalent exploitant des
technologies de pointe, donc beaucoup plus cher, et qui peut nécessiter, pour
récupérer les données, en cas de panne, de procéder à une restauration de la
dernière sauvegarde, ce qui peut prendre plusieurs heures et ce qui est évidemment
inacceptable pour le système informatique d'une entreprise. Au contraire, avec
l’architecture RAID, le système peut continuer à fonctionner et, une fois le disque en
panne échangé, son contenu est reconstruit à partir des autres disques pendant le
fonctionnement normal du système.

Quel que soit le niveau de RAID utilisé et quel que soit le nombre de disques
physiques utilisés pour construire le RAID, le système reste complètement
transparent pour l'utilisateur qui ne verra jamais qu'un seul grand volume logique,
auquel il accédera de façon tout à fait habituelle.

Parmi les niveaux de RAID existant, ceux qui sont le plus souvent retenus dans les
systèmes d’exploitation sont le RAID 0, le RAID 1 et le RAID 5. Cependant, le noyau
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 120 / 157

Linux ( 2.6) gère logiciellement les RAID 0, 1, 4, 5, 6, et 10, ainsi que les
combinaisons de ces types. Dans ce cas, on parle de « RAID logiciel » (ou de
« contrôleur standard »). Pour les niveaux qui ne sont pas assurés par une couche
logicielle du système d'exploitation, il est nécessaire d’utiliser un « RAID matériel »
(on parle de « matériel dédié » ou de « contrôleur RAID » – avec un processeur et de
la mémoire sur ce contrôleur), qui offre une virtualisation complète du système de
stockage, du point de vue du système d'exploitation. Cette solution est très rapide
mais malheureusement son prix est encore élevé.

RAID 0

Avec RAID 0, les informations sont réparties sur plusieurs disques sans aucun
contrôle de parité. Il faut au minimum 2 disques. RAID 0 n’est donc pas un système à
tolérance de pannes : il améliore seulement le taux de transfert (débit), mais ne
garantit pas une meilleure fiabilité. Au contraire, il la réduit d'autant que le nombre de
disques. RAID 0 présente de très bonnes performances, puisque l’information est
répartie sur plusieurs disques, qui vont traiter indépendamment et pratiquement en
parallèle les requêtes qui leur sont adressées. En revanche, si un des disques tombe
en panne, il est impossible de récupérer les données qui y sont inscrites. RAID 0 est
également connu sous le nom d'« entrelacement de disques » ou de « volume
agrégé par bandes » (striping en anglais).

RAID 0

HDD 1 HDD 2 HDD 3 HDD 4


Information 1 Information 2 Information 3 Information 4
Information 5 Information 6 Information 7 Information 8

RAID 1

Avec RAID 1 (disques en miroir), les informations sont intégralement recopiées sur
un disque supplémentaire. Il existe deux variantes du RAID 1 : le mirroring ou le
duplexing (on utilise un contrôleur ou on utilise deux contrôleurs). Cette copie
procure donc deux disques parfaitement identiques. L’avantage est le gain en
sécurité. En cas de panne d’un disque, il suffit de recopier les informations du second
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 121 / 157

disque sur le disque remplacé, même en cours de fonctionnement du serveur. Bien


entendu, les performances du serveur seront plus faibles pendant la recopie du
disque. L’inconvénient de cette solution est qu’elle est chère.

Si la capacité de stockage nécessaire implique plusieurs disques, il faut donc avec


RAID 1 un nombre de disques pair (deux au minimum).

La généralisation de ce système consiste en l'utilisation de n disques redondants


(avec n  2), chaque disque de la grappe contenant à tout moment exactement les
mêmes données, d'où l'utilisation du mot « miroir » (mirroring en anglais). Cette
solution offre un excellent niveau de protection des données. Elle accepte une
défaillance de n − 1 éléments.

RAID 1

HDD 1 HDD 2 HDD 3 HDD 4


Information 1 Information 1 Information 2 Information 2
Information 3 Information 3 Information 4 Information 4

RAID 5

Avec RAID 5 (« volume agrégé par bandes à parité répartie »), les informations sont
réparties sur plusieurs disques, comme avec RAID 0, mais ici il y a un contrôle de
parité.

C’est le système de redondance le plus simple. Ce système repose sur l'opération


logique XOR (OU exclusif) et consiste à déterminer si, sur n bits de données
considérés, le nombre de bits à l'état 1 est pair ou impair. Si le nombre de 1 est pair,
alors le bit de parité vaut 0. Si le nombre de 1 est impair, alors le bit de parité vaut 1.
Lorsque l'un des n + 1 bits de données ainsi formés devient indisponible, il est alors
possible de régénérer le bit manquant en appliquant à nouveau la même méthode
sur les n éléments restants.

En effet, l'opération XOR ( ) a la propriété suivante : si on considère N blocs de


taille identique et si alors , et de façon
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 122 / 157

générale, . C'est-à-dire que n'importe quel bloc de


données Ak perdu à cause d'un disque défaillant sur un RAID 5 de N + 1 disques
peut-être récupéré grâce au bloc X de données de contrôle.

Avec RAID 5, les données sont donc toujours réparties sur tous les disques. Le
calcul de parité se fait à l’écriture et la lecture des données. Les bits de parité sont
aussi répartis sur tous les disques. Il s'agit donc d'un ensemble à redondance N + 1.
La parité, qui est incluse avec chaque écriture, se retrouve répartie circulairement sur
les différents disques. Chaque « bande » est donc constituée de N blocs de données
et d'un bloc de parité. Ainsi, en cas de défaillance de l'un des disques de la grappe,
pour chaque bande, il manquera soit un bloc de données soit le bloc de parité. Si
c'est le bloc de parité, ce n'est pas grave, car aucune donnée ne manque. Si c'est un
bloc de données, on peut calculer son contenu à partir des N − 1 autres blocs de
données et du bloc de parité. L'intégrité des données de chaque bande est
préservée.

Il faut au minimum 3 disques. Si un disque tombe en panne, grâce au contrôle de


parité, on peut le remplacer et reconstruire les données plus ou moins rapidement,
selon la qualité du contrôleur. C’est aussi une solution moins chère que RAID 1, car
la capacité de stockage est de N - 1 disques sur N, soit au minimum de 66,666 %.
C’est une solution de plus en plus rentable lorsqu’on augmente le nombre de
disques.

Malgré tout, le temps de reconstruction des données peut être assez lent. Il faut en
effet à chaque fois recalculer la parité des blocs de données. De plus, RAID 5 ne
supporte la perte que d'un seul disque à la fois. Ce qui devient un problème depuis
que les disques qui composent une grappe sont de plus en plus gros (1 To et plus).
Le temps de reconstruction de la parité en cas de disque défaillant est allongé. Il est
généralement de 2 h pour des disques de 300 Go contre une dizaine d'heures pour
1 To. Pour limiter le risque il est courant de dédier un disque dit de « spare ». En
régime normal il est inutilisé. En cas de panne d'un disque il prendra
automatiquement la place du disque défaillant. Cela nécessite une phase
communément appelée « recalcul de parité ». Elle consiste pour chaque bande à
recréer sur le nouveau disque le bloc manquant (données ou parité). Bien sûr,
pendant tout le temps du recalcul de la parité, le disque est disponible normalement
pour l'ordinateur, qui se trouve seulement un peu ralenti.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 123 / 157

RAID 5

HDD 1 HDD 2 HDD 3 HDD 4


Information 1 Information 2 Information 3 Parité (ECC 1, 2, 3)
Parité (ECC 4, 5, 6) Information 4 Information 5 Information 6
Information 7 Parité (ECC 7, 8, 9) Information 8 Information 9

D’autres niveaux de RAID, peu courants, sont :

NRAID (Near/Non Redundant Array of Inexpensive/Independent Disk) ou JBOD


(Just a Bunch Of Disks) : concaténation de disques non redondante

3 disques en JBOD

RAID 2 : volume agrégé par bandes à parité : aujourd'hui obsolète

RAID3 et RAID4

RAID 3
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 124 / 157

Le RAID3 tend à disparaître au profit du RAID4 qui offre des performances nettement
supérieures. Ces niveaux de RAID nécessitent une matrice d’au moins 3 disques.
Les n − 1 premiers disques contiennent les données tandis que le disque n stocke la
parité. Il est donc crucial qu’il soit de très bonne qualité.

RAID 6

RAID 6

Le RAID 6 est une évolution du RAID 5 qui accroît la sécurité en utilisant n


informations redondantes au lieu d'une. Les fondements mathématiques utilisés pour
les informations de redondance du RAID 6 sont beaucoup plus complexes que pour
le RAID 5 (polynomiales plutôt que de parité). Il peut donc résister à la défaillance de
n disques, mais les implantations de l'algorithme se limitent souvent à n = 2 (soit la
perte de 2 disques). Le coût en matériel est plus élevé et la vitesse est moindre. La
puissance CPU nécessaire, pour calculer les redondances et surtout pour
reconstruire un volume défectueux, est également nettement plus importante.

D’autres niveaux de RAID, combinés, sont :

RAID 01 (ou RAID 0+1)

RAID 01

RAID 10 (ou RAID 1+0)


513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 125 / 157

RAID 10

RAID 05

Même principe que pour le raid 0+1 mais en employant du RAID5 pour la partie
globale. Chaque grappe contenant au minimum 2 disques, et un minimum de 3
grappes étant nécessaire, il faut au minimum 6 unités de stockage pour créer un
volume RAID05.

RAID 15

RAID 15

Il permet d'obtenir un volume agrégé par bandes avec redondance répartie très fiable
(puisqu'il est basé sur des grappes répliquées en miroir). Chaque grappe contenant
au minimum 2 disques, et un minimum de 3 grappes étant nécessaire, il faut au
minimum 6 unités de stockage pour créer un volume RAID15. Ce mode est très
fiable puisqu'il faut que tous les disques de 2 grappes différentes cessent de
fonctionner pour le mettre en défaut. Ce mode est cependant coûteux par rapport à
la capacité obtenue.

RAID 50

Il permet d'obtenir un volume agrégé par bandes basé sur du RAID 5 + 0. Chaque
grappe contenant au minimum 3 disques, et un minimum de 2 grappes étant
nécessaire, il faut au minimum 6 unités de stockage pour créer un volume RAID 50.

RAID 51
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 126 / 157

RAID 51

Il permet d'obtenir un volume répliqué basé sur des grappes en RAID5. Chaque
grappe contenant au minimum 3 disques, et un minimum de 2 grappes étant
nécessaire, il faut au minimum 6 unités de stockage pour créer un volume RAID51.
C'est un mode coûteux (faible capacité, en regard du nombre de disques).

Niveaux de RAID spéciaux :

Enfin, des niveaux de RAID spéciaux existent encore, tels que : RAID 5E, RAID 5DP,
RAID TP, RAID 1.5, RAID 7, RAID ADG, RAID S, Matrix RAID, IBM ServeRAID 1E,
Sun RAID-Z et X-RAID (NetGear).

7.2. Lecteurs de tapes

DDS : Digital Data Storage (DAT - jusqu’à 320 GB)

DDS-2/DAT cassette

Digital Data Storage (DDS) est un format de stockage de données basé sur le système Digital
Audio Tape (DAT).
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 127 / 157

DDS utilise des bandes magnétiques d’une largeur de 3,81 mm (initialement d’une longueur
de 60 ou 90 mètres). DAT 160 et DAT 320 utilisent des bandes magnétiques d’une largeur de
8,00 mm. La longueur a augmenté dans les dernières versions.

Tape Width Tape Length Capacity Speed


Format Date
(mm) (m) (GB) (MB/s)
DDS-1 1989 3.81 60/90 1.3/2.0 0.18
DDS-2 1993 3.81 120 4.0 (non c.) 0.6
DDS-3 1996 3.81 125 12.0 (non c.) 1.1
DDS-4 1999 3.81 150 20.0 (non c.) 3.2
DAT-72 2003 3.81 170 36.0 (non c.) 3.2
80 (non c.)
DAT-160 2007 8 154 ou 160 6.9
(compressé 2:1)
160 (non c.)
DAT-320 2009 8 ou 320 12
(compressé 2:1)
Gen 8 TBA 8 ~300 (non c.) >16

DLT : Digital Linear Tape (jusqu’à 800 GB)

Cartouche Super DLT I

Digital Linear Tape (DLT) est une technique de sauvegarde de données informatiques sur
bande magnétique, inventée par DEC (Digital Equipment Corporation) en 1984, et rachetée
par Quantum Corporation en 1994. Une variante à plus haute capacité a été développée par la
suite sous le nom de Super DLT (SDLT). Une gamme "premier prix" a été développée par
Benchmark Storage Innovations puis a été rachetée par Quantum en 2002.

Depuis 2005, les deux gammes sont appelées DLT-S et DLT-V.

Standard de Lecteur Interface Date Media


Capacité Vitesse de
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 128 / 157

(GB) transfert (MB/s)

TK50/TZ30 0.1 propriétaire/SCSI 0.045 1984 CT I

TK70 0.3 proprietary 0.045 1987 CT II

THZ01/DLT260/Tx85 2.6 DSSI/SCSI 0.8 1989 DLT III

THZ02/DLT600/Tx86 6 DSSI/SCSI 0.8 1991 DLT III

DLT2000/Tx87 10 Fast SCSI-2 1.25 1993 DLT III

DLT
DLT2000XT 15 Fast SCSI-2 1.25 1995
IIIXT

DLT4000/Tx88 20 Fast SCSI-2 1.5 1994 DLT IV

DLT7000/Tx89 35 Fast/Wide SCSI-2 5 1996 DLT IV

DLT8000 40 Fast/Wide SCSI-2 6 1999 DLT IV

SDLT 220 110 Ultra-2 10 1998 SDLT I

SDLT 320 160 Ultra-2 16 2002 SDLT I

SDLT 600 300 Ultra 160/FC 2Gb 36 2004 SDLT II

SDLT 600A 300 GbE (FTP, HTTP) 36 2005 SDLT II

Ultra 320/FC
DLT-S4 800 60 2006 S4
4Gb/SAS
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 129 / 157

DLT-S5 1500? 100?

Value line

DLT1 40 Fast/Wide SCSI-2 3 1999 DLT IV

DLT-VS80 40 Fast/Wide SCSI-2 3 2001 DLT IV

DLT-VS160 80 Ultra-2 8 2003 VS1

DLT-V4 160 Ultra 160/SATA 10 2005 VS1

DLT-V5 250? 18?

Cartouche DLT ouverte, l’amorce est visible

Media Name Formats Color Supported by

CompacTape I 0.1 Gray TK50/70

CompacTape II 0.3 Gray TK70

Light DLT260/600,
DLTtape III 2.6, 6, 10
brown DLT2000/2000XT/4000/7000

DLTtape IIIXT 15 White DLT2000XT/4000/7000/8000


513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 130 / 157

DLT4000/7000/8000, SDLT220/320
DLTtape IV 20, 35, 40 Dark brown
(ro)

Bande de nettoyage
20 cleans Beige DLT2000/2000XT/4000/7000/8000
III

110, 160, SDLT220/320, SDLT600 (ro), DLT-S4


SDLTtape I Dark green
320 (ro)

SDLTtape II 300 Dark blue SDLT600, DLT-S4 (ro)

DLTtape S4 800 Dark purple DLT-S4

SDLT Cleaning Tape 20 cleans Light gray SDLT220/320/600, DLT-S4

DLTtape VS1 80, 160 Ivory/Black VS160, DLT-V4, SDLT600 (ro)

DLT VS Cleaning
20 cleans Brown DLT1, DLT-VS80
Tape

DLT VS160 Cleaning


20 cleans Light gray DLT-VS160, DLT-V4
Tape

LTO : Linear Tape-Open (jusqu’à 3,2 TB)

Cartouche et Drive LTO-2

Linear Tape-Open (ou LTO) est une technique de stockage sur bande magnétique au format
ouvert. Elle a été développée à la fin des années 1990, conjointement par HP, IBM et la
division magnetic tape de Seagate. Cette dernière entité a pris son indépendance quelques
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 131 / 157

années plus tard, puis est devenue Certance, avant d’être rachetée par Quantum Corporation,
qui était elle-même à l’origine du SDLT, le format qui dominait le marché avant le
développement de LTO.

La bande LTO Ultrium est découpée dans sa largeur en 4 mini-bandes de data prises en
sandwich entre 5 fines bandes servo. L’assemblage de têtes enfourche deux bandes servo
consécutives, avec 2 têtes de lecture servo (têtes servo) et 8 ou 16 têtes de lecture/écriture de
données (têtes de données). Chaque tête de données se déplace de haut en bas dans sa propre
sous-bande de la largeur de bande servo.

Premièrement, l’assemblage positionne toutes les têtes en haut de leur sous-bande et 8 ou 16


pistes sont écrites en avant. L’assemblage de têtes se déplace ensuite en bas de la même sous-
bande et 8 ou 16 pistes sont écrites dans l’autre sens.

La bande est divisée en sous-parties, appelées wraps (assemblage), utilisées par toutes les
têtes de données simultanément, et écrivant donc en même temps 8 ou 16 pistes. Les wraps
sont numérotés dans l’ordre d’écriture en avant 0,2,4,6… puis en marche arrière …7,5,3,1.

Quand la première mini-bande est remplie aller-retour (elles sont remplies dans l’ordre 3,1,0,2
sur la bande), l’assemblage de têtes se déplace sur la mini-bande suivante, et un nouveau
groupe de wraps est écrit, chaque wrap étant considéré comme une passe.

Le nombre total de pistes sur une bande est (4 mini-bandes) x (11 à 20 wraps par bande) x (8
ou 16 pistes par wrap).

Par exemple, une bande LTO-2 dispose de 16 wraps par bande (8 en avant et 8 en arrière), et
nécessite donc 16 x 4 = 64 passes pour remplir les 64 x 8 = 512 pistes.

Cartouche LTO-2 de marque Fuji

Les différentes générations de LTO sont:

 LTO-1: 2000, capacité native 100 Go, débit 20 Mo/s.


 LTO-2: 2002, capacité native 200 Go, débit 40 Mo/s.
 LTO-3: 2005, capacité native 400 Go, débit 80 Mo/s.
 LTO-4: 2007, capacité native 800 Go, débit 120 Mo/s, ajout de chiffrement materiel
(256-bit AES-GCM).
 LTO-5: 2008, capacité initialement prévue de 1,6 To, débit initialement prévu de 180
Mo/s. La capacité a par la suite été revue à 1,5 To et le débit à 140 Mo/s. Le 19 janvier
2010, «LTO Program», la société chargée de gérer la promotion et les licences de
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 132 / 157

LTO, annonçait la disponibilité des spécifications techniques. Le 24 janvier 2008, on


annonçait la disponibilité de la licence LTO-5.
 LTO-6: annoncé, capacité prévue 3,2 To, débit prévu 270 Mo/s.

Les capacités et les débits indiqués correspondent à des données non compressées; en pratique
on peut considérer un ratio de 2:1. À noter que le LTO-3 peut écrire plus rapidement que la
plupart des disques durs actuels.

Les différentes générations de LTO sont compatibles entre elles de façon ascendante, c’est-à-
dire par exemple qu’un lecteur LTO-4 peut lire et écrire sur une cartouche LTO-4, lire et
écrire sur un support LTO-3 avec les mêmes performances qu’un lecteur LTO-3, mais ne peut
que lire une cartouche LTO-2.

7.3. Ecrans

Un système d’affichage graphique (à bitmap) est composé d’une carte vidéo


graphique (ou contrôleur graphique) et d’un certain type de périphérique vidéo
graphique (écran ou …). Auparavant, on utilisait des systèmes d’affichage
alphanumériques, ne permettant d’afficher que des caractères. Les performances
d’un système d’affichage sont mesurées, en première approche, selon deux
paramètres de base : vitesse et résolution.

La vitesse, ou rapidité de mise à jour de l’image vidéo, est mesurée en termes de


« taux de rafraîchissement ». Avec un taux de rafraîchissement de 72 Hz (ou 72
Hertz, ou 72 fois par seconde), ou mieux, les objets en mouvement apparaissent
fluides et réalistes. En utilisant un taux de rafraîchissement de moins de 72 Hz, les
graphiques « sautillent » et l’on observe des pauses notables dans les images en
mouvement. Les taux de rafraîchissement sous les 72 Hz peuvent également causer
un scintillement irritant de l’ensemble de l’image vidéo.

La résolution (qui conditionne la qualité ou la finesse de l’image) concerne la quantité


de détails ou de « pixels » rendue par une image vidéo. La résolution est donc
définie par le nombre de pixels (éléments d’image ou points de couleur) que peut
supporter un système d’affichage vidéo. Ainsi, plus le nombre de pixels est grand et
plus la résolution sera grande. Un bon système d’affichage devrait offrir au moins
1024 pixels horizontaux par 768 pixels verticaux.

En outre, dans un système d’affichage idéal, une palette de 65000 couleurs


(conditionnée par le nombre d’octets utilisé pour le codage) devrait être supportée
pour chaque pixel.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 133 / 157

Ces paramètres de base (taux de rafraîchissement et nombre de pixels) sont


associés pour établir un taux de performance globale mesuré en termes de bande
passante (bandwidth). Plus grande est la bande passante et meilleure sera la
performance du système d’affichage.

Carte vidéo

La fonction première de la carte vidéo est de convertir les informations de textes et


de graphiques emmagasinées dans l’ordinateur en informations vidéo à haute
résolution qui peuvent être affichées par le système.

Accélérateur de graphiques

Cette puce est utilisée pour contrôler les fonctions vidéo. Plutôt que d’utiliser le
microprocesseur du système pour faire la maintenance de la vidéo, c’est cette puce
qui effectue ces fonctions, libérant le microprocesseur pour d’autres tâches, ce qui en
retour augmente les performances globales du système. D’où le terme «accélérateur
de graphiques».

VRAM (Video Random Access Memory ou Mémoire vive vidéo)

C’est une mémoire qui est dédiée au traitement de la vidéo uniquement, augmentant
ainsi les performances du système. La mémoire centrale du système peut ainsi
traiter d’autres informations sans se préoccuper de l’information vidéo.

DAC (Digital to Analog Converter)

C’est le convertisseur numérique-analogique qui prend l’information vidéo numérique


emmagasinée dans la VRAM et la convertit en signal analogique vidéo qui est
envoyé directement au périphérique vidéo.

CRT (Cathode Ray Tube)

Périphérique vidéo le plus ancien, l’écran de type CRT (tube à cathode) fut introduit il
y a plus de 50 ans et il s’est considérablement amélioré au cours des années. Une
image est reproduite sur le devant du moniteur CRT par la stimulation à l’aide d’un
faisceau d’électrons d’un matériel à base de phosphore qui recouvre l’écran et le
rend luminescent, le phosphore émettant en retour une lumière. Lorsque le faisceau
d’électrons frappe le phosphore avec une grande quantité d’énergie, l’image
reproduite sur l’écran est brillante. Un faisceau d’électrons avec une quantité
d’énergie moindre produira une image plus pâle à l’écran. La dimension de l’écran
est toujours mesurée diagonalement sur la surface en verre de l’écran.

La carte vidéo contrôle les bobines de déviation qui provoquent le balayage du


faisceau d’électrons envoyé sur l’écran (balayage de trame ou « raster scan », de
gauche à droite et de bas en haut, en suivant des lignes horizontales successives).
Elle contrôle également son intensité.

Un haut voltage est utilisé pour envoyer les électrons sur la surface de l’écran CRT.
Voilà pourquoi vous pouvez sentir l’électricité statique présente sur la surface en
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 134 / 157

verre de la plupart des CRT. C’est la raison pour laquelle, également, vous ne
devriez jamais avoir accès à l’intérieur d’un moniteur vidéo de type CRT, à moins que
vous ne vouliez être traversé par un voltage potentiellement mortel !

La hauteur de point (dot pitch) fait référence à la proximité des blocs de phosphore
entre eux. Lorsque les blocs de phosphore sont rapprochés, l’image apparaît nette et
détaillée. Plus ils sont rapprochés, meilleure sera l’image. Cette distance est
mesurée en millimètres. Une hauteur de point de 0,28 mm (ou moins) est attendue
d’un bon moniteur CRT.

Sur les moniteurs CRT couleurs, trois faisceaux d’électrons indépendants sont
utilisés pour stimuler séparément les blocs de phosphore rouge, vert et bleu
(couleurs fondamentales). Lorsque les trois phosphores sont illuminés également, on
perçoit la couleur blanche. En variant l’intensité de ces trois faisceaux indépendants,
la gamme de couleurs (au moins 65000) peut être obtenue, pour chaque pixel.

Si vous examinez attentivement votre moniteur sur les bords d’un objet blanc, vous
pourrez voir les phosphores rouge, vert et bleu séparément. S’ils sont faciles à voir,
vous pouvez avoir un problème de convergence sur votre moniteur. Un moniteur
correctement aligné aura les trois faisceaux d’électrons qui convergent vers les
phosphores rouge, vert et bleu correctement, produisant un objet apparemment
blanc. Si la convergence ne se fait pas, les phosphores rouge, vert et bleu seront très
faciles à voir, plus particulièrement sur les bords de l’écran.

LCD (Liquid Crystal Display) et autres écrans plats

Un écran de type LCD à cristaux liquides est un dispositif qui ne nécessite pas d’être
sous vide, et qui n’a besoin ni d’un haut voltage, ni de bobines de déviation comme
un écran CRT. Il n’est donc plus question ici de balayage de trame. Le dispositif
génère à tout instant une image complète. Un écran de type LCD est ainsi de faible
épaisseur et consomme peu d’énergie électrique, par rapport à un écran CRT. Il peut
être alimenté facilement par piles, ce qui le rend idéal pour les ordinateurs portatifs.

Il utilise la polarisation de la lumière, assurée par des filtres polarisants et par la


biréfringence de certains cristaux liquides, dont on peut faire varier l’orientation en
fonction du champ électrique appliqué entre deux grilles d’électrodes. Du point de
vue optique, l’écran à cristaux liquides est un dispositif « passif » : il n’émet pas de
lumière, seule sa transparence varie, et il doit donc disposer d'un éclairage.

L’application d’une différence de potentiel plus ou moins élevée entre les deux
électrodes d’un pixel entraîne un changement d’orientation des molécules, une
variation du plan de polarisation, et donc une variation de la transparence de
l’ensemble du dispositif. Cette variation de transparence est exploitée par un
rétro-éclairage, par réflexion de la lumière incidente ou par projection.

Dans le cas d’un écran à cristaux liquides couleur, le principe nécessite trois cellules
par pixel et le sandwich est complété par un filtre coloré de motifs rouges, verts et
bleus. Généralement, le filtre est une succession de bandes verticales alternant les
trois couleurs.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 135 / 157

Détail d’un écran à cristaux liquides couleur

Dans un écran à rétro-éclairage (moniteur informatique, télévision, appareil photo ou


encore caméra), le LCD est éclairé depuis l’arrière grâce à une ou des lampes à
décharge à cathode froide, dont la lumière est répartie par deux réseaux de prismes
orthogonaux.

Depuis 2007, une nouvelle technique de rétro-éclairage se démocratise. Les lampes


à décharge sont remplacées par une matrice de diodes électroluminescentes
blanches ou LED (Light-Emitting Diode), permettant d’obtenir un meilleur taux de
contraste et de diminuer la consommation électrique de l’appareil. Certains
constructeurs tirent parti de ce type de rétro-éclairage en illuminant l’écran de
manière séquentielle (par groupe de pixels) pour augmenter à la fois le taux de
contraste et le taux de réponse.

Malgré plusieurs améliorations qui procurent une bonne réactivité, les diverses
technologies d’écrans à matrice de cristaux liquides passive, qui sont transparents au
repos, offrent un rapport de contraste limité, des angles de vision sur les côtés
ouverts mais un angle de vision inférieur noir, une dalle à la luminosité non
homogène, une certaine rémanence et une qualité moyenne des noirs en général.

En informatique et pour la télévision, une variante qui utilise des transistors de type
TFT (Thin-Film Transistor) est la plus répandue pour les écrans couleurs. La grille
d’électrodes arrière y est remplacée par une matrice de transistors en film mince
(Thin-film transistor), lui-même situé derrière le film à cristaux liquides, un par pixel et
trois pour les couleurs fondamentales, par pixel, dans un écran couleur, ce qui
permet de mieux contrôler le maintien de tension de chaque pixel, pour améliorer le
temps de réponse et la stabilité de l’affichage.

La plupart des écrans à cristaux liquides couleurs de qualité emploient cette


technologie TFT dite à « matrice active » (AMLCD), qui apporte des temps de
réponse et un contraste nettement meilleurs.

Dans ces écrans de type AMLCD, les TFT et les cristaux liquides se comportent
comme des interrupteurs lumineux, laissant passer ou bloquant la lumière du rétro-
éclairage aux travers de filtres de couleurs (les trois couleurs fondamentales). Ces
petits TFT permettent aux cristaux liquides de laisser passer la lumière lorsqu’ils sont
« ON » ou de la bloquer lorsqu’ils sont « OFF ». Le rétro-éclairage, derrière les filtres
rouge, vert et bleu, produit une image sur le devant de l’écran de type LCD. Tout
comme sur les écrans CRT, les combinaisons de couleurs peuvent donc être
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 136 / 157

reproduites avec les écrans LCD sur base du dosage fin des trois couleurs
fondamentales. Mis hors tension, les écrans TFT présentent une couleur noire.

Dans le domaine industriel, les TFT sont actuellement très utilisés pour fabriquer
l'électronique d'affichage (circuits pixels ou de commande), non seulement dans le
cas des écrans plats à base de cristaux liquides et à matrice active, de type AMLCD,
mais aussi dans le cas des écrans à matrice active et à base de diodes organiques
électroluminescentes, de type AMOLED. Sur ces écrans, chaque pixel intègre un
circuit composé d'un ou plusieurs TFT. Dans les AMLCD, chaque TFT a une fonction
d'interrupteur, mais dans les AMOLED, chaque TFT a une fonction de source de
courant.

En télévision et dans le domaine industriel, pour les écrans de grandes dimensions,


une autre technologie d’écran plat est représentée par les écrans « à plasma ». Les
écrans à plasma fonctionnent de façon similaire aux tubes d'éclairage fluorescents.
Ils utilisent l’électricité pour illuminer un gaz.

7.4. Imprimantes et traceurs

Imprimantes

Caractéristiques

Les imprimantes ont été conçues dès l’apparition des premiers ordinateurs, pour permettre la
consultation et la conservation sur support papier des résultats produits par les programmes
informatiques. Ensuite, elles ont évolué considérablement de façon à pouvoir imprimer tout
type de document avec une qualité remarquable. Il est important de considérer les
caractéristiques suivantes dans le choix d’une imprimante :

 la vitesse d’impression : le nombre de pages imprimées par minute ; pour les


imprimantes couleur, le nombre de pages imprimées par minute peut varier selon que
l’impression se fasse en noir et blanc ou en couleur ;
 la résolution : la précision de l’impression ; la précision est mesurée en points par
pouce (ppp ou dpi pour dot per inch en anglais) ; pour les imprimantes couleur, la
résolution peut varier selon que l’impression se fasse en noir et blanc ou en couleur ;
 la mémoire de l’imprimante : elle mesure la quantité d’information en attente
d’impression que l’imprimante peut conserver dans sa mémoire ;
 les consommables :
o les produits d’impression : comme les cartouches qui sont rarement standard ;
o le papier conditionné par :
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 137 / 157

 le format de papier : la taille maximale des feuilles que l’imprimante


peut accepter ;
 le type d’alimentation du papier vierge : les deux principaux types
d’alimentation sont :
 l’alimentation par bac ou tiroir qui utilise un stockage interne
d’un grand nombre de feuilles de papier,
 l’alimentation par plateau qui utilise un stockage externe d’une
petite quantité de feuilles (de 50 à 100) ;
 l’imposition : la manière dont les pages composées sont placées sur le papier ;
o Recto seul ;
o Recto-Verso : il existe le mode recto-verso manuel et le mode recto-verso
automatique ; il existe également les dénominations Tumble et NoTumble, qui
correspondent respectivement à imprimer en recto-verso, de manière à obtenir
une lecture en tournant les pages comme un bloc-notes, ou comme un livre
normal ;
o Mode livret : il permet d’imprimer en recto-verso et de manière à ce que
chaque côté d’une feuille contienne deux pages ;
 la méthode de traction du papier :
o Listing : ce support est une longue bande de papier bordée de chaque côté de
marges perforées à intervalles serrés ; on parle de bandes Caroll ;
o Feuille à feuille : depuis l’apparition des premières imprimantes à laser, le
papier à bandes Caroll a petit à petit disparu : la traction du papier se fait
dorénavant par des rouleaux qui enserrent et guident le papier tout au long de
son chemin dans l’imprimante ; néanmoins, si cette méthode permet
l’utilisation de papier normal, elle ne garantit pas toujours un cadrage parfait
du papier, et est plus sujette aux bourrages ;
o Bobine : une part des imprimantes industrielles n’utilisent pas le feuille à
feuille mais le mode continu ; ce sont des bobines de papier, qui se présentent
comme de gros rouleaux, qui alimentent ces machines ; ce mode est plus
rapide et plus sûr que le feuille à feuille ; comme il provoque une gâche
importante en début et en fin d’impression et qu’il exige un massicotage en
sortie, ce mode ne convient qu’à des productions industrielles importantes ;

 l’interface : liaison série, port parallèle, USB, Wi-Fi, ethernet/IPv4, ethernet/IPv6 ;


 d’autres caractéristiques physiques comme la dimension, le poids et le niveau sonore
peuvent aussi être importantes, ou encore le temps de préchauffage (le temps de
chauffage de l’imprimante avant le début de l’impression).

Imprimante laser feuille à feuille

Techniques d’impression
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 138 / 157

Les imprimantes peuvent être classées en deux catégories distinctes selon qu’elles utilisent
une frappe mécanique (imprimante « impact ») ou non (imprimante « non-impact » ou NIP).

Dans la catégorie des imprimantes « impact », il y eut les imprimantes à marteaux ou


imprimantes à chaîne, les imprimantes à aiguilles ou imprimantes matricielles, les
imprimantes à roue ou imprimantes à marguerite (obsolètes dès 1988) et encore les
imprimantes à tulipe.

Dans la catégorie des imprimantes « non-impact », on distingue les imprimantes à tête


thermique (télécopieurs, distributeurs de billets, balances de supermarché, étiquetage -
impression de textes, logos, code-barres, impression sur les emballages, impression de tickets
d’embarquement ferroviaire et aérien), les imprimantes à sublimation, les imprimantes à DEL
(diodes électroluminescentes ou LED), les imprimantes magnétographiques, les imprimantes
à jet d’encre et les imprimantes laser.

Sur les imprimantes laser, l’encre se présente sous la forme d’une poudre extrêmement fine,
le « toner ». Lors de l’impression, un laser dessine sur un tambour photo-sensible rotatif la
page à imprimer, un dispositif électrique polarisant en fait une image magnétique. Sur ce
tambour, l’encre en poudre polarisée inversement vient alors se répartir, n’adhérant qu’aux
zones marquées par le laser. Une feuille vierge passe entre le tambour et une grille elle-même
chargée électriquement et est appliquée au tambour encré, récupérant l’encre. La fixation de
l’encre sur la feuille se fait ensuite par chauffage et compression de la feuille encrée dans un
four thermique.

Cette technique, bien que sophistiquée, permet une impression rapide (non plus ligne par
ligne, mais page par page) très fine et très souple (impression de tous types de textes, de
graphismes, de photos…) avec une qualité irréprochable pour le noir et blanc. Cependant, elle
est peu adaptée aux niveaux de gris, et de ce fait, à l’impression en couleur. Les évolutions
technologiques du début du XXIe siècle ont permis d’adapter la couleur à ce système
d’impression.

L’imprimante laser permet d’obtenir des tirages papier de qualité, à faible coût et avec une
vitesse d’impression élevée. Le coût d’acquisition d’une imprimante laser est en chute libre
depuis quelques années.

Cette technologie d’impression est directement dérivée de celle utilisée autrefois dans les
photocopieurs, à cela près qu’auparavant, c’est la lumière réfléchie par la page à dupliquer qui
déchargeait le tambour. Depuis 2000, la grande majorité des photocopieurs sont en fait des
imprimantes laser surmontées d’un scanner et sont utilisés comme imprimante.

Le système employé pour charger les différents éléments d’électricité statique avant 1992
était constitué par un fil conducteur placé à un potentiel de plusieurs milliers de volts ; ce
système était nommé « corona ». Son principal inconvénient était un dégagement d’ozone au
cours de l’impression. Le système corona faisait réagir l’oxygène en le transformant en ozone.
Les imprimantes étaient alors dotées d’un filtre piège à ozone, pas toujours remplacé, n’ayant
pas d’incidence sur la qualité des impressions. Ce défaut de maintenance pouvait poser
problème surtout dans les locaux mal ventilés. À partir de 1992, le fil corona a été remplacé
par un rouleau souple et conducteur nommé rouleau de transfert, directement en contact avec
le papier. Dès lors, il n’y a plus de production d’ozone significative.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 139 / 157

Une tête d’imprimante laser démontée

Pour les imprimantes laser en couleurs, on distingue deux technologies : « carrousel » (quatre
passages) ou « tandem » (monopasse).

 carrousel : Avec la technologie carrousel, l’imprimante effectue quatre passages pour


imprimer un document (un par couleur primaire et un pour le noir, ce qui fait que
l’impression est en théorie quatre fois moins rapide en couleur qu’en noir).
 tandem : Une imprimante laser exploitant la technologie « tandem » dépose chaque
couleur en un seul passage, les toners étant disposés parallèlement. Les sorties sont
aussi rapides en couleur qu’en noir. Cette technologie a toutefois un prix de revient
plus élevé, la mécanique étant plus complexe. Elle était donc, jusqu’à il y a peu,
réservée en principe aux imprimantes laser couleur de milieu ou de haut de gamme.
Depuis 2005, de plus en plus de marques proposent des modèles « tandem » dès
l’entrée de gamme.

Traceurs

Un traceur, ou table traçante, ou plotter, est un périphérique d’impression informatique


pour les impressions graphiques en mode trait. Depuis les années 1960, les traceurs à plume
ou jet d’encre ont accompagné l’expansion de la conception assistée par ordinateur. Depuis
les années 1980, ils ont généralement été remplacés par des imprimantes laser de format A0,
de sorte qu’il est maintenant courant de se référer à ces imprimantes grand format comme
« traceurs », même si, techniquement, ces imprimantes permettent aussi bien le tracé d’aplats.

Un traceur format A0 moderne

Technologie
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 140 / 157

Les premières tables traçantes ou traceurs à plumes, se composaient d’une table horizontale et
d’un porte-stylo motorisé. Le papier était fixé à la table soit par un système électrostatique,
soit par une dépression d’air à travers des trous de très petite taille. Sur certains modèles très
bon marché des années 1970, on le collait même avec du Ruban adhésif. Par la suite, le papier
fut posé sur un gros cylindre en caoutchouc dur. La rotation du cylindre permet de parcourir le
papier dans un sens, tandis que le porte-stylo ne doit se déplacer que sur un seul axe.

Les traceurs sont limités à l’art de la ligne, plutôt que d’être capables de graphismes
« rastérisés » comme sur d’autres imprimantes. Les traceurs à plume peuvent dessiner des
motifs complexes, comme les écritures, mais c’est au détriment de la vitesse, car le
mouvement mécanique des plumes est lent. Ces traceurs sont souvent incapables de créer des
aplats, mais peuvent hachurer une zone en traçant un certain nombre de lignes régulières
rapprochées : c’est d’ailleurs le moyen le plus rapide de produire efficacement des dessins de
très grande taille ou des œuvres d’art à haute résolution à base de vecteurs de couleur ;
stratagème utile, à une époque où la mémoire de l’ordinateur était très chère et la puissance du
processeur, fort limitée. Le dessin ou tracé était réalisé à partir d’une suite de commandes
élémentaires formant un langage graphique rudimentaire : « prendre plume », « lever plume »,
« baisser plume », « se déplacer en X-Y », « prendre feuille », « éjecter feuille », etc. Le
langage HPGL de Hewlett Packard fut longtemps le plus répandu. Ce type de langage de
commande est à l’origine du concept d’image vectorielle, tel que les langages PostScript
d’Adobe et HPGL2 de Hewlett Packard l’imposent à la fin des années 1980.

Ces Traceurs à plumes, désuets, et ont été remplacés par les imprimantes à jet d’encre et laser.
Ces imprimantes sont encore appelées traceurs, même si ce sont des appareils d’impression
plutôt que de traçage.

Les nouveaux traceurs communiquent toujours via des protocoles vectoriels HPGL2, ceci du
au fait que la langue est un moyen efficace pour décrire comment dessiner un fichier. Un
dessin technique en HPGL2 peut être un tout petit peu plus petit que le même dessin sous sa
forme « raster » (graphisme par balayage de trame).

7.5. Scanners

Un scanner, ou numériseur de document, est un périphérique informatique qui permet de


transformer un document en une image numérique. Le document est soumis au balayage d’un
rayon lumineux ; un capteur transforme la lumière reçue en un signal électrique qui est
transféré à l’ordinateur, pour y être ensuite sauvegardé, traité ou analysé. L’appareil prend
souvent la forme d’une tablette sur laquelle le document doit être posé, mais il existe aussi des
scanners à main et des stylos numériseurs.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 141 / 157

Un scanner à plat

Caractéristiques techniques

 La résolution : c’est la précision de la capture de l’image ; la précision est mesurée en


points par pouce (ppp ou dpi pour dot per inch en anglais) ; il faut distinguer la
résolution optique (ou réelle) et la résolution interpolée ; la résolution optique est la
précision réelle de l’appareil, alors que la résolution interpolée est une résolution plus
fine obtenue par calcul de points intermédiaires entre les points réellement mesurés.
 Le format de papier : c’est la grandeur maximale des feuilles que le numériseur peut
accepter.
 L’interface : FireWire (IEEE 1394), USB, SCSI, port série et port parallèle (ces deux
derniers, étant devenus trop lents, tendent à disparaître).
 La vitesse de numérisation : le nombre de pages numérisées par minute ; la vitesse de
numérisation dépend non seulement de la puissance du numériseur mais aussi du
format des documents à numériser et de la résolution choisie pour le travail.

Types de scanners

On distingue les « scanners à plat » (très courants), de deux types :

 ceux dont les capteurs (en général, de type CCD) sont fixes et dont la partie mobile est
un miroir ; ces scanners sont plus coûteux à réaliser et embarquent un système optique
d’une certaine complexité ; la qualité de leurs numérisations peut être excellente ;
 ceux dont les capteurs (de type CIS - Contact Image Sensor) sont mobiles, et
appliqués directement contre la vitre ; bien qu’ils aient énormément progressé, leur
image est toujours un peu floue car ils ne peuvent pas empêcher une diffusion de la
lumière contre la vitre ; c’est la technologie utilisée pour les scanners ultra plats ;

ensuite les « scanners à défilement » (le document, de format allant de la carte de visite à
l’A3, est entraîné, comme pour un fax - c’est lui qui se déplace et non les capteurs ou un
miroir – ces scanners sont utilisés dans le monde de la bureautique) ; les « scanners à main »
(l’opérateur fait défiler l’outil contre le document à scanner) ; les « scanners à diapositives »
(la lumière est directe et traverse le document transparent, ce qui permet d’obtenir une qualité
chromatique et une résolution très importantes) ; les « scanners à tambour » (qui offrent une
résolution et une qualité colorimétrique sans égal, mais qui ne sont pas adaptés à tous les
types de documents) et les « scanners automatiques de livres » (capables de traiter sans
intervention humaine 1500 pages à l’heure).
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 142 / 157

S’agissant des « scanners à plat », le document est posé contre une vitre. Sous cette vitre, un
miroir et une source de lumière effectuent ensemble un passage. La source lumineuse éclaire
le document au travers de la vitre. La lumière réfléchie par le document est renvoyée par le
miroir mobile à un système optique qui le transmet à une batterie de capteurs de type CCD
(Charged Couple Device). L’ordinateur se charge ensuite de recomposer l’image obtenue.

Fonctionnement d’un scanner à plat à CCD

Puisque la lumière traverse deux fois la vitre, les images souffrent d’une légère diffusion de la
lumière et d’une relative perte de luminosité. Il existe cependant d’excellents scanners à plat
depuis la fin des années 1990.

7.6. Claviers et périphériques de pointage

Claviers

Un clavier d’ordinateur est un périphérique d’entrée de l’ordinateur composé de touches


envoyant des instructions à la machine une fois actionnées. Les touches sont un ensemble
d’interrupteurs électroniques similaires aux boutons d’une souris, d’une télécommande ou
d’une manette sur une console de jeu. Elles sont fréquemment imprimées ou gravées de
symboles, lettres, chiffres, mots ou images et permettent essentiellement à un utilisateur de
saisir des caractères pour écrire du texte avec l’alphabet d’un langage.

Une norme ISO régit la disposition des claviers. Des variantes existent pour s’adapter aux
nouveaux « ordinateurs » : clavier d’un téléphone portable, clavier en forme de manette,
écrans tactiles sur de nombreux objets électroniques, pavés numériques optimisés pour la
saisie des nombres, touches de fonctions, touches multimédia, ajout de pédales pour faciliter
la saisie du texte, claviers optimisés pour la saisie avec une seule main, claviers à très peu de
touches fonctionnant par accords, pour le braille notamment, etc.

Dans l’industrie, on utilise des claviers très variés sur les machines-outils assistées par
ordinateur. Ce sont généralement de grands pavés de touches disposées en matrice et
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 143 / 157

programmées pour des tâches plus spécifiques que pour l’utilisation d’un ordinateur
personnel.

Caractéristiques

Les principaux types de claviers pour ordinateurs de type PC ont été :

 le clavier XT à 83 touches (clavier de l’IBM Personal Computer XT = PC avec


processeur Intel 8088) : ce clavier disparaît en 1987, incompatible avec les PC AT.

 le clavier AT standard à 84 touches (clavier de l’IBM Personal Computer AT = PC


avec processeur Intel 80286) : 10 touches F1 à F10 à gauche + 56 touches (Qwerty ou
Azerty ou autre) au centre + 18 touches de pavé numérique à droite.

 le clavier AT étendu, de 101 à 106 touches (par rapport à l’AT standard, les touches
F1 à F12 passent en haut du clavier, et on ajoute un pavé de flèches et un pavé de
fonctions entre le pavé Qwerty ou Azerty à gauche et le pavé numérique à droite) :
o 101 touches pour le clavier américain ;
o 102 touches pour les claviers européens (ajout d’une touche à droite de la
touche Maj gauche) ;
o 103 touches pour le clavier coréen (ajout de deux touches autour de la barre
Espace) ;
o 106 touches pour le clavier japonais (ajout d’une touche sous la touche Tab,
d’une touche à droite de la touche Maj gauche, d’une touche à gauche et de
deux touches à droite de la barre Espace).

 le clavier Windows, de 104 à 109 touches, apparu avec Windows 95, qui ajoute sur
la ligne de la barre Espace trois touches spécifiques (deux touches Windows,
équivalant à un clic sur le bouton Démarrer de Windows, respectivement à gauche de
la touche Alt et à droite de la touche Alt Gr ; une touche Menu, équivalant au clic sur
le bouton droit de la souris, à droite de la précédente) :
o 104 touches pour le clavier américain ;
o 105 touches pour les claviers européens ;
o 106 touches pour le clavier coréen ;
o 109 touches pour le clavier japonais.

Aux 105 touches de base du clavier Windows en Europe, les constructeurs ajoutent des
touches variables d’un modèle à l’autre, pour arriver à des claviers Windows dépassant 120
touches, avec des commandes supplémentaires comme :

 des contrôles multimédia : contrôle de volume, mode muet, lecture/pause, microphone


on/off ;
 des raccourcis internet (navigateur, courriel, chat) ou autres (recherche, calculatrice,
Facebook) ;
 des touches appelant des commandes à définir par l’utilisateur ;
 des contrôles d’affichage, comme le zoom, la luminosité ;

alors que la deuxième touche Windows (à droite de la barre Espace) tend à disparaître.

Ainsi, on trouve sur les claviers :


513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 144 / 157

 les touches de combinaison : Maj et Ctrl sur la plupart des claviers, auxquelles
s’ajoutent :
o Option (Alt à partir de la 3e génération) et Commande (Pomme) sur le clavier
Mac ;
o Alt, Alt Gr et Windows sur le clavier de la plupart des ordinateurs personnels ;
o la touche Fn (fonction) sur le clavier des ordinateurs portables ;
o la touche méta sur les claviers du MIT.

 les touches de verrouillage : Arrêt défil, Verr num (Num Lock), Verrouiller maj (Caps
Lock)
 les touches mortes (tous claviers), et la touche compose (UNIX)
 les touches de navigation : flèches directionnelles, défilement (page précédente,
suivante, début et fin, Ins)
 les touches de texte : espace, entrée, retour arrière, insert, suppr, tab, pavé numérique
 les touches système : Syst ou Impr. écran, pause Attn, échap, menu, fonction, touches
de gestion d’alimentation (I/O, mettre en veille, réveiller)

Clavier ergonomique

Les claviers se caractérisent par leurs particularités nationales (caractères nationaux) et parfois
techniques (touches muettes). L’ordinateur – ou au moins l’unité de contrôle quand il y en a
une – doit donc posséder une table spécifique (plan de codage) associant un scan code (code
hardware de la touche) à un caractère ASCII d’une page de code donnée ou à une séquence
Unicode sur les systèmes plus récents.

De nombreuses dispositions des touches existent : clavier AZERTY, clavier QWERTY,


clavier QWERTZ, clavier DVORAK, etc. Pour chacune de ces dispositions, des variantes
nationales existent. Par exemple, l’AZERTY français n’est pas le même que l’AZERTY
belge, et le QWERTZ allemand n’est pas le même que le QWERTZ suisse.

Mécaniques

Il existe deux technologies de mécanique de clavier.

La première nous vient d’IBM. Elle date des années 1980 avec les modèles F, puis les plus
connus modèles M qui leur firent suite. Elle se trouve aussi sur des modèles plus anciens
encore. Elle est connue sous le nom Buckling Spring. La pression du doigt sur la touche
(autour de 30 à 40 g) comprime un ressort hélicoïdal. Celui-ci travaille longitudinalement,
jusqu’à ce qu’il atteigne un point critique où il sort brutalement de son axe de travail. C’est le
dégagement latéral du ressort qui actionnera un interrupteur. Cette rupture à la fois sensible et
audible permet à l’utilisateur un meilleur contrôle de la touche en lui indiquant, sans qu’il ait
besoin de vérifier à l’écran, que la frappe a bien été prise en compte, et cela de manière
certaine.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 145 / 157

La seconde technologie correspond à certains claviers de la marque Cherry. Il y a deux sous-


catégories : les interrupteurs de type MX ou de type LX. Les seconds ont une course plus
courte que les premiers, leur durée de vie est aussi deux fois moindre avec 20 millions
d’activations par touche. Les seconds se déclinent en trois sous-catégories. Une première est
dite linéaire : la course de la touche ne rencontre aucun obstacle. La seconde est dite sensitive
avec clic audible : elle imite le toucher des claviers originaux IBM, quoique nécessitant une
force d’activation moindre. La troisième est une variante de la seconde mais avec un retour
sensitif moindre et sans retour auditif.

Périphériques de pointage

Souris

Une souris est composée d’un petit boîtier fait pour tenir sous la main, sur lequel se trouvent
un ou plusieurs boutons, et une molette dans la plupart des cas. Elle fut inventée en 1963 par
Douglas Engelbart du Stanford Research Institute, et présentée au public en 1968. Comme
pour de plus en plus de périphériques (les claviers par exemple), elle peut actuellement
communiquer avec l’ordinateur par ondes radio ou par liaisons infra-rouge.

Actuellement aussi, les souris à boules ont été majoritairement remplacées par les souris
optiques.

Souris à boule :
1 : Mouvement de la boule
2 : Rouleau transmettant les mouvements latéraux de la souris
3 : Disque perforé
4 : Diode électroluminescente
5 : Capteur optique

En ce qui concerne les souris optiques, le verre et les surfaces brillantes ou trop sombres ne
sont pas recommandées. Si le pointeur à l’écran ne reproduit pas les mouvements de la souris,
il est recommandé de placer une feuille rigide de papier clair sous la souris afin de réfléchir
les rayons lumineux.

En ce qui concerne les souris sans fil, l’avenir semble à la technologie Bluetooth, standardisée
pour tout type de périphérique, qui évite la profusion d’émetteurs/récepteurs. Elles sont
alimentées soit par des piles, soit par une batterie/accumulateurs (souvent appelés « piles
rechargeables »), qui se rechargent lorsqu’on pose la souris sur son réceptacle. Il existe aussi
des souris magnétiques, qui nécessitent un tapis spécial relié au port USB et alimenté par lui.
Le tapis est chargé de détecter les mouvements de la souris et les transmet à l’ordinateur. Les
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 146 / 157

souris sans fil peuvent avoir un temps de réponse plus long que les souris filaires, selon la
technologie employée. On parle aussi de latence.

Souris sans fil avec son boîtier de réception

Par ailleurs, de nombreux systèmes ont été imaginés pour déterminer les actions qui seront
effectuées à l’écran : crayon optique, écran tactile, boule, joystick, tablette tactile, molettes
diverses, tablette graphique, trackpoint.

Alors que certains d’entre eux donnent un pointage absolu (les écrans tactiles, par exemple),
la souris détecte un déplacement. Celui-ci, par sommation, fournit donc une position relative :
par exemple, un mouvement de la souris vers la droite provoque un mouvement du pointeur à
l’écran vers la droite, indépendamment de la position absolue de la souris sur le plan de
travail. Si le pointeur se trouve déjà à droite de l’écran, un mouvement de la souris vers la
droite n’aura aucun effet (l’environnement graphique veille en effet à ce que le pointeur ne
puisse apparaître que dans des zones autorisées).

La souris ne permettait au départ de fournir que deux informations de position (x et y). Ce


dispositif ne convenait donc pas pour un déplacement spatial de précision exigeant trois
coordonnées (x, y et z) quand ce n’était pas six (en y ajoutant les trois angles d’attaque).
D’autres dispositifs, plus onéreux (ring, bat) ont été créés à cet effet. L’ajout d’une molette à
la souris a cependant permis d’ajouter dans une certaine mesure cette troisième dimension qui
lui manquait. Des outils de pointage plus récents et plus abordables complètent la souris au
lieu de chercher à la concurrencer.

Certaines souris sont symétriques, se prêtant facilement à l’inversion des boutons (accessible
dans la configuration du système), d’autres sont asymétriques, et les gauchers devront veiller
à choisir des souris inverses des droitiers. Dans la pratique, cette asymétrie obéit à un
impératif plus marketing que fonctionnel.

Sous Unix, et particulièrement sous les systèmes X-Window, il est parfois nécessaire
d’indiquer le périphérique et son protocole au fichier de configuration du serveur X. Ainsi,
pour une souris USB, on indiquera le périphérique /dev/input/mice ; pour une souris PS/2,
/dev/psaux ; et pour une souris Série, /dev/tty0 à tty4 suivant le port.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 147 / 157

Les tablettes graphiques peuvent aussi utiliser une souris à la place du stylet, mais la zone de
détection reste limitée à celle du tapis ou de la tablette.

Les souris standard pour PC ont aujourd’hui une molette en plus de leurs deux boutons ; la
molette (un bouton spécial) qui peut aussi bien être tournée (molettes mécaniques) que
pressée (Trackpoint, donnant respectivement un et deux degrés de liberté aux souris
correspondantes) s’est répandue. Les souris avec plus de deux boutons (voire deux molettes)
remplissent différentes fonctions assignées à chacun par les applications, le pilote ou le
système d’exploitation.

Par exemple, un utilisateur du bureau Windows, GNOME ou KDE utilisera le bouton de


gauche dans le navigateur web pour suivre les liens, alors que celui de droite fera apparaître
un menu contextuel permettant à l’utilisateur de copier des images ou un lien, d’imprimer, etc.

Dans le monde UNIX ou Linux (plus généralement utilisant X-Window), le troisième bouton
est traditionnellement utilisé pour la fonction de collage : un simple balayage d’une zone de
texte avec le bouton gauche enfoncé copie du texte, un clic sur le bouton central le colle.

Du fait que le troisième bouton est quasiment standard sous Unix, on lui a attribué de
nombreuses autres fonctions dans les bureaux graphiques évolués : un clic central sur de
nombreux éléments du bureau ou des fenêtres donne un accès facile à de nombreuses
fonctions.

Sous la plupart des navigateurs web récents, un clic central sur un lien ouvre la page dans un
nouvel onglet, un clic central sur un onglet ferme celui-ci.

Pour les souris qui n’ont que deux boutons, il est possible de simuler un troisième bouton par
appui simultané sur les deux boutons.

Pour la plupart des souris actuelles, le troisième bouton se présente sous la forme d’une
roulette cliquable permettant de faire défiler les pages sans déplacer la souris.

On trouve facilement des souris ayant les deux boutons classique, une molette que l’on peut
cliquer (soit déjà 5 actions possibles, que l’on appelle 5 boutons), plus encore deux boutons
« précédent » et « suivant ». Ces deux derniers boutons servent par exemple à consulter la
page précédente ou suivante dans un navigateur web ou un explorateur de fichiers. Ils sont
parfois intégrés à la molette, qui peut basculer à droite et à gauche.

Il existe également des souris ayant une multitude de boutons (une quinzaine par exemple).
Ce genre de souris reste toutefois réservée au contrôle de certains jeux ou logiciels spécialisés,
permettant d’accéder aux différentes fonctions depuis la souris. Certains dispositifs s’ajoutent
à la souris au lieu de la concurrencer, procurant six degrés de liberté. Par exemple, le 3D
SpaceNavigator, qui, s’utilise avec la main gauche tandis que la souris à molette continue à
fournir trois degrés de liberté à la main droite.

La technologie BlueTrack a été développée par Microsoft et mise pour la première fois sur le
marché en 2008. BlueTrack a été pensé pour remplacer les souris sans fil qui utilisent les
technologies laser, infrarouge et LED car elles posaient problème pour fonctionner sur
certaines surfaces. Les souris BlueTrack peuvent fonctionner sur presque tous les types de
surfaces (par exemple, le granit, tapis, bois, etc.) sauf le verre clair et les miroirs. La LED
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 148 / 157

utilisée par la technologie BlueTrack n’est plus rouge mais bleue car cette couleur est moins
sensible à la poussière et aux taches que le rouge, et fournit également des images avec un
contraste plus élevé et une résolution plus élevée, ce qui assure une meilleure précision sur les
surfaces granuleuses. Enfin, le faisceau utilisé par cette technologie est quatre fois plus grand,
afin que la lumière couvre une surface plus grande, ce qui entraîne une meilleure réflexion et
représentation de la surface du capteur.

La tendance actuelle est aux souris commutables instantanément du doigt entre trois
sensibilités différentes. On peut ainsi à la fois bénéficier de déplacements très rapides du
pointeur et d’une excellente précision sans effort de tension nerveuse chaque fois que l’on en
a besoin.

Pavé tactile

Un pavé tactile, ou touchpad (terme anglais), est utilisé principalement sur les ordinateurs
portables en remplacement d’une souris. On dirige le pointeur en déplaçant le doigt sur une
surface sensible. La surface du pavé tactile varie, mais dépasse rarement 50 cm². Les boutons
au-dessus ou au-dessous du pavé tactile servent de boutons de souris.

Pavé tactile moderne, avec une zone de défilement

Le pavé tactile fonctionne comme un dispositif de pointage relatif. Il n’existe pas de relation
entre la position du doigt et celle du curseur à l’écran. Cependant, certains fabricants mettent à
disposition des API, permettant aux programmeurs de connaître la position absolue du doigt,
ainsi que la pression exercée.

Certains pavés tactiles offrent des zones réservées, pouvant servir à différentes fonctions, par
exemple faire défiler les barres de défilement (comme avec la roulette d’une souris). Les
pavés tactiles Synaptics conservent ainsi la partie contre le bord droit du pavé réservée pour le
défilement vertical et la partie au-dessus du bord inférieur réservée pour le défilement
horizontal (même si aucun symbole ne l’indique sur le pavé tactile).

Certains pavés tactiles peuvent aussi émuler le clic de la souris en tapant sur la surface. Il est
également possible d’effectuer des clics des 3 boutons de souris en appuyant sur la surface ;
par exemple, avec Linux et le driver Synaptics :

 clic gauche → taper avec un doigt


 clic milieu → taper avec deux doigts
 clic droit → taper avec trois doigts
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 149 / 157

La plupart des pavés tactiles utilisent une propriété physique nommée capacité électrique :
quand deux corps conduisant l’électricité sont très proches l’un de l’autre sans se toucher,
leurs champs électriques interagissent pour former une certaine capacité. La surface du pavé
tactile est composée d’un maillage d’électrodes métalliques conductives et le doigt étant lui
aussi un conducteur électrique, chaque contact sur la couche de protection du pavé tactile crée
une capacité ; le doigt n’entre pas directement en contact avec la surface conductrice grâce à
la couche de protection mais en est très proche.

Afin de détecter la capacité générée, des capteurs capacitifs sont placés sur les axes
horizontaux et verticaux de la surface pour former un maillage. La position du doigt est
déterminée par la combinaison de la position des capteurs dont la capacité augmente.

La pression exercée par le doigt est aussi détectée par certains pavés tactiles, soit par le biais
de capteurs de pression indépendants (ce qui est plutôt rare, mais offre l’avantage de
permettre au pavé tactile de fonctionner avec des corps non-conducteurs, comme un stylet),
soit en analysant le nombre d’électrodes « activées ». En effet, plus la pression est forte, plus
le doigt s’aplatit sur le pavé tactile, activant un plus grand nombre d’électrodes.

Stylo numérique

Un stylo numérique ou stylo intelligent est un stylo à encre qui enregistre les traits tracés par
son utilisateur, de manière à les transmettre à un ordinateur. Ce type de stylo est généralement
utilisé de pair avec un cahier numérique.

Certains stylos numériques sont munis d’un dispositif d’enregistrement qui permet de les
utiliser comme dictaphone intelligent. Ils peuvent par exemple être utilisés par les étudiants
pour enregistrer la voix du professeur lors de la prise de notes de cours. Il est ensuite possible
de réécouter un segment sonore associé à une zone de la feuille, en touchant le cahier
numérique à l’aide de la pointe du stylo.

7.7. Système LINUX : Nomination des périphériques

Système LINUX : Nomination des disques, partitions et fichiers spéciaux :

Les nominations en usage se réfèrent aux types de carte contrôleur d’interface :


 IDE (Integrated Drive Electronics) ou EIDE (Enhanced IDE) ou ATA (AT Attachment) ou
ATAPI (AT Attachment Packet Interface)
 SCSI (Small Computer System Interface)
 SATA (Serial ATA)

hda1 Disque EIDE/ATA n°1, partition 1 (primaire) /dev/hda1


hda2 Disque EIDE/ATA n°1, partition 2 (primaire) /dev/hda2
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 150 / 157

hdb1 Disque EIDE/ATA n°2, partition 1 (primaire) /dev/hdb1


Si l’ordinateur est pourvu de deux disques durs EIDE/ATA :
hdc Lecteur de CD-ROM EIDE/ATA /dev/hdc
sda1 Disque SCSI ou SATA n°1, partition 1 (primaire) /dev/sda1
sda5 Disque SCSI ou SATA n°1, partition 5 (logique) /dev/sda5
sdb1 Disque SCSI ou SATA n°2, partition 1 (primaire) /dev/sdb1

Système LINUX : Nomination des lecteurs de disquettes et fichiers spéciaux :

fd0 Premier lecteur /dev/fd0


fd1 Deuxième lecteur /dev/fd1

Système LINUX : Nomination des lecteurs de tapes et fichiers spéciaux :

st0 Premier lecteur /dev/st0


st1 Deuxième lecteur /dev/st1
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 151 / 157

8. Réseaux

8.1. Types de réseaux informatiques

Pour envoyer une lettre à l’autre bout du monde, il faut la mettre sous enveloppe, y
écrire l’adresse du destinataire, la confier à un transporteur qui lui-même la donnera
peut-être à un transporteur aérien, etc.
De la même manière, pour transférer une information à un destinataire distant, il faut
« l’emballer », préciser l’adresse du destinataire, établir le chemin de transmission,
etc. C’est l’ensemble de ces tâches que les techniques de réseaux assument,
conformément à des normes de communication.
Un réseau est un ensemble de connexions entre plusieurs ordinateurs. Il permet à
différentes machines d’accéder en commun à la plupart des ressources aussi
efficacement que dans le cadre d’un système centralisé. Dans le cas où les
connexions se limitent à relier des ordinateurs sur un même site, on parle de réseau
local. Un réseau longue distance englobe plusieurs sites interconnectés par des
liaisons plus élaborées, selon différentes technologies : lignes terrestres, liaisons via
des satellites, etc.

Réseaux étendus (WAN)


Les réseaux intersites sont encore appelés WAN (Wide Area Network) et nécessitent
de mettre en œuvre des moyens particuliers (modem, routeurs, commutateurs,
passerelles, etc.) pour s’affranchir des problèmes de distance et de disponibilité des
liaisons dont les débits intersites sont toujours, hélas, plus lents qu’en local. Ils offrent
un service point à point entre deux interlocuteurs.
Exemples : Transpac (filiale de France Telecom), RATP, SNCF (fibres optiques sous
les voies), Air France (via satellites).

Réseaux locaux (LAN)


Les réseaux locaux, encore appelés LAN (Local Area Network) sont constitués des
moyens de communication d’un site, donc entièrement maîtrisés par l’entreprise ou
l’institution concernée. C’est un système de communication de données limité à une
zone géographique restreinte (jusqu’à 10 Km environ) et utilisant des débits moyens
à élevés (de 100 kbps à 1 Gbps). La zone couverte peut être un simple bâtiment, un
complexe de bâtiments ou un site plus large. Le réseau utilise ou non une forme de
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 152 / 157

commutation et n’utilise en principe pas les circuits des opérateurs publics, mais peut
contenir des passerelles vers d’autres réseaux privés ou publics.

Selon les types de systèmes installés, on distingue deux catégories de réseaux :

 Réseaux poste à poste


 Réseaux avec serveur(s) dédié(s)

Le réseau poste à poste


Dans un tel réseau, chaque poste ou station fait office de serveur. Les données ne
sont pas centralisées. L’avantage majeur d’une telle installation est son faible coût en
matériel (les postes de travail et une carte réseau par poste). En revanche, si le
réseau commence à contenir trop de machines, il devient impossible à gérer.
Par exemple : Si l’on a 4 postes et 10 utilisateurs, chaque poste doit contenir les 10
mots de passe afin que les utilisateurs puissent travailler sur n’importe lequel de ces
postes, ce qui est envisageable. Mais, s’il y a 60 postes et 300 utilisateurs, une telle
gestion des mots de passe devient périlleuse.

Le réseau avec serveur(s) dédié(s)


Dans un tel réseau, on rajoute aux postes une(des) station(s) plus puissante(s),
dédiée(s) à des tâches bien précises. C’est-à-dire un(des) serveur(s). Dans ce cas,
un serveur centralise les données relatives au bon fonctionnement du réseau. Dans
l’exemple des 60 postes et des 300 utilisateurs, c’est ce serveur qui contient tous les
mots de passe. Ainsi, ils ne se trouvent plus qu’à un seul endroit. Il est donc plus
facile pour l’administrateur du réseau de les modifier ou d’en créer d’autres. C’est
l’avantage de ce type de réseau. Son inconvénient majeur est son coût souvent très
élevé en matériel. En effet, en plus des postes de travail, il faut se procurer un
serveur qui coûte cher. C’est une machine généralement plus puissante. De plus, la
carte réseau que l’on y met est de meilleure qualité.

D’autres serveurs secondaires peuvent résider dans un tel réseau. On distingue


ainsi :

- serveur de fichiers :
il s’occupe de la gestion des fichiers. Il faut pour cela un très bon sous-système
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 153 / 157

disque (contrôleur et disques), suffisamment de RAM et une carte réseau très


performante.

- serveur d’applications :
il contient les applications que les utilisateurs du réseau peuvent utiliser. Tous les
traitements des logiciels s’exécutent sur le serveur, donc la rapidité du processeur et
la quantité de RAM sont primordiales.

- serveur d’impression :
il gère les files d’impression. Ce type de serveur est souvent couplé avec un serveur
de fichiers ou un serveur d’applications car il ne demande pas un sous-système très
performant.

Il est possible d’installer ces 3 types de serveurs sur la même machine, mais son
optimisation devient alors difficile et le risque de pannes augmente.

8.2. Câbles et autres supports de transmission

Il existe différents câbles et médias pour connecter des réseaux.


513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 154 / 157

Câble coaxial
Assez semblable au câble qui relie le téléviseur à son antenne, le câble coaxial est
composé d’un câble central entouré d’un isolant, lui-même recouvert d’une tresse
métallique, elle-même recouverte d’un isolant. Il peut supporter, selon son épaisseur
(norme 10Base2 ou 10Base5), des vitesses de transmission bien plus élevées que la
paire torsadée et des connexions à plus grande distance. Il reste néanmoins assez
coûteux.

Paires torsadées
Assez semblable au câble utilisé en téléphonie, le câble à paires torsadées peut
contenir, selon son type, 2 ou 4 paires, mais aussi des paires blindées (STP) ou non
blindées (UTP). Défini d’après la norme 10BaseT, ce type de câble est utilisé pour du
câblage dit universel, en usage dans diverses topologies de réseaux. C’est une
solution économique mais limitée. La paire torsadée ne permet pas une grande
vitesse de transmission de l’information et elle est en outre très sensible à
l’environnement électromagnétique. D’où la fabrication de la variante STP.

Fibre optique
C’est un média beaucoup plus performant, véhiculant des impulsions lumineuses (et
non des signaux électroniques). Elle n’est absolument pas sensible aux perturbations
électromagnétiques pouvant affecter les autres supports. Etant de très petite taille
(0,1 mm), cela permet de réunir dans un seul conduit un grand nombre de fibres.
La fibre optique permet d’envoyer des impulsions sur une distance de plusieurs
kilomètres avant que l’information ne se dégrade et nécessite donc d’être restaurée,
ce qui est nécessaire après moins d’un kilomètre pour le câble coaxial.
Du point de vue de la sécurité, ne générant pas d’ondes électromagnétiques, la fibre
optique ne peut pas faire l’objet d’une « écoute de câble » pirate, ce qui est le cas
des câbles électroniques.
C’est donc un média utilisé pour des liaisons longues distances, insensible aux
perturbations électromagnétiques, défini d’après la norme 10BaseF et utilisé dans les
topologies en étoile ou en anneau.

Les ondes hertziennes


Elles supportent des grandes distances et des grandes capacités, pour une
propagation en visibilité directe (entre 50 et 80 km). Elles prolongent et remplacent
les câbles, pour une plus grande souplesse. Mais elles présentent une plus grande
sensibilité au bruit. Elles sont d’autre part en usage dans les transmissions avec les
satellites. Pour les télécommunications, il s’agit des satellites géostationnaires.
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 155 / 157

8.3. Cartes et méthodes d’accès

Ethernet ou CSMA/CD
Ces cartes fonctionnent suivant le système Ethernet ou CSMA/CD (Carrier Sense
Multiple Access with Collision Detection). Le principe de base d’un réseau Ethernet
est la diffusion à toutes les stations de toutes les trames. La propagation de ces
trames est bidirectionnelle. Les débits prévus pour les évolutions du système sont de
1 Mb/s, 10 Mb/s, 100 Mb/s et 1 Gb/s.
Selon CSMA/CD, pour qu’une station puisse émettre, elle doit d’abord « écouter » le
média, afin de vérifier que le média est libre, c’est-à-dire qu’aucune autre station
n’émet à ce moment. C’est la fonction de récepteur de la carte Ethernet (Carrier
Sense). Grâce au droit d’accès multiple (Multiple Access), la station émettrice
expédie alors sa trame.
Si une trame est déjà en circulation, alors l’émetteur continue la phase de
« d’écoute » jusqu’à ce que le média soit libre.
Mais si deux ou plusieurs stations transmettent simultanément, il se crée une
collision. Pour résoudre ce conflit, la norme prévoit (Collision Detection) que les
machines détectent d’abord la collision puis arrêtent de transmettre et observent un
temps d’attente de durée aléatoire avant de rebasculer en mode d’émission.

Token Ring (anneau à jeton)


Ces cartes fonctionnent suivant le système Token Ring. Le principe de base d’un
réseau Token Ring est la circulation d’un jeton (token) sur l’anneau, de station en
station. Lorsqu’une station désire émettre, elle « capture » le jeton, expédie sa trame
avec son adresse et l’adresse du destinataire, puis remet le jeton en circulation. Le
destinataire détecte que la trame lui est adressée et la traite. Chaque machine
voulant émettre suit la même procédure, sinon remet le jeton en circulation sans rien
envoyer.

8.4. Modems
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 156 / 157

Pour transmettre des données informatiques à grande distance, on a utilisé en


premier lieu les lignes du réseau téléphonique. Mais celui-ci est adapté à la
transmission de la voix humaine et non à la transmission de signaux numériques
binaires « carrés », correspondant à des successions de niveaux de tension
électrique, par exemple +5 volts et 0 volt respectivement pour les deux valeurs
binaires. Ces signaux à deux états, transmis tels quels sur une ligne téléphonique,
subiraient d’importantes distorsions et modifications, qui entraîneraient des erreurs
de transmission inévitables. En revanche, un signal sinusoïdal d’une fréquence
comprise entre 1000 et 2000 Hz est transmis correctement, pratiquement sans subir
de distorsion. On parle alors de transmission analogique. Un « modem » (modulateur
- démodulateur) réalise la conversion d’un signal numérique binaire en un signal
analogique, à l’émission, et la conversion inverse, à la réception.

Les trois paramètres d’un signal sinusoïdal sont :

 l’amplitude
 la fréquence
 la phase

En faisant varier, selon deux valeurs, l’un des trois paramètres du signal sinusoïdal
au rythme d’apparition des bits (0 ou 1), ce paramètre pouvant donc se trouver dans
deux états, il est ainsi possible de transmettre un signal binaire, au moyen de cette
conversion binaire/analogique. Cette action, sur le signal sinusoïdal, est appelée
« modulation ». Le signal sinusoïdal de base qui subit cette modulation est appelé
« porteur » ou « porteuse ».

En combinant des variations de plusieurs des trois paramètres du signal sinusoïdal,


selon un nombre d’états  2, soit une puissance entière positive de 2 = 2n, au lieu de
transmettre un bit à la fois, on peut transmettre une séquence de n bits à la fois. Ce
principe a été appliqué de façon de plus en plus complexe dans les générations
successives de modem.

A titre d’exemple, voici un système de modulation, avec 2 niveaux d’amplitude et 2


états de phase : le système MDA 4 Symétrique :
513---INFORMATIQUE - STRUCTURE DES ORDINATEURS - PIRET page 157 / 157

La rapidité de modulation, exprimée en « bauds », correspond au nombre d’états de


modulation par seconde (on peut dire aussi le nombre d’intervalles de temps
élémentaires de modulation par seconde). Lorsque l’on transmet, non pas un seul
bit, mais deux ou plusieurs bits (une séquence de n bits) par état de modulation, le
débit (en bits/s ou bps) est supérieur à la rapidité de modulation (en bauds).

Par exemple, si l’on doit transmettre des caractères codés sur 8 bits, il est préférable
de disposer en local d’une structure d’interconnexion permettant la transmission
simultanée (en parallèle) des 8 bits d’un caractère. Mais, à grande distance, la ligne
téléphonique n’offrant qu’un seul canal de transmission, il est nécessaire d’effectuer
une transmission en série. Le caractère analogique du réseau téléphonique impose
d’insérer un modem, qui, moyennant un système de modulation approprié, transmet
les bits d’un caractère dans l’intervalle de temps élémentaire de modulation.

Donc, à l’une des extrémités de la ligne, c’est un modem qui réalise la modulation de
la porteuse, au rythme d’apparition des bits de données, et à l’autre extrémité de la
ligne, c’est un autre modem qui reconstitue les bits de données, à partir du signal
modulé reçu. Les bits sont transmis à intervalles de temps régulier. Dès que le
modem récepteur détecte le début d’une transmission, son horloge interne est
synchronisée avec celle du modem émetteur. La reconstitution des caractères peut
alors se faire au rythme des bauds. Par exemple, un modem à 1200 bauds signifie
que l’intervalle de temps élémentaire de modulation est de 833,333… µs.

Vous aimerez peut-être aussi