Vous êtes sur la page 1sur 59

REPUBLIIQUE DEMOCRATIQUE DU CONGO

MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET


UNIVERSITAIRE
INSTITUT SUPERIEUR DES TECHNIQUES DU
SANKURU
ISTSAN

Notes de cours

ARCHITECTURE DES
ORDINATEURS
Ir. Placide MULANGUA
Notes de cours destinées aux étudiants de 2ème année Licence en
informatique.
Année universitaire
2022-2023
Plan Pédagogique du cours
Matière : Architecture des Ordinateurs
Domain : Informatique
Filière : 2ème année Licence Informatique
Volume Horaire du cours : 45
Coefficient : 2.5
Crédits : 4
Evaluation : Contrôle continu : 50%, Examen : 50 %.

p. 1
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Objectif général du cours

Objectif du cours est de mettre en claire le principe de fonctionnement de l’ordinateur avec une
présentation détaillée de son architecture.

Pour cela l’objectif du cours est :

 Culture : Comprendre le fonctionnement de l’ordinateur dans ses mécanismes


élémentaires et identifier les rôles et l’interface des différents composants matériels d’un
système informatique.
 Technique : Manipuler les concepts basiques récurrents en informatique.
 Informatique : Acquérir une connaissance de programmation en langage assembleur.

PLAN DU COURS

PARTIE 1 ARCHITECTURE MATERIELLE


CHAPITRE I: CONCEPT THEORIQUE SUR LE FONCTIONNEMENT DE
L’ORDINATEUR
CHAPITRE II : LE BOITIER ET L’ALLIMENTATION
CHAPITRE III : LA CARTE MERE
CHAPITRE IV : LE DISQUE DUR
CHAPITRE V: LES PORTS ET LES BUS

PARTIE 2 ARCHITECTURE LOGIQUE

p. 2
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
0. INTRODUCTION

Parmi toutes les machines inventées par l'Homme, l'ordinateur est celle qui
se rapproche le plus du concept anthropologique suivant : Organe d'entrée, organe de traitement
de l'information et organe de sortie. Pour les ordinateurs modernes, les organes d'entrée sont le
clavier et la souris et les organes de sortie, l'écran, l'imprimante, le graveur de DVD, etc.

Les techniques utilisées pour fabriquer ces machines ont énormément


changé depuis les années 1940 et sont devenues une technologie (c’est-à-dire un ensemble
industriel organisé autour de techniques) à part entière depuis les années 1970.

Beaucoup utilisent encore les concepts définis par John Von Neumann,
bien que cette architecture soit en régression : les programmes ne se modifient plus guère eux-
mêmes (ce qui serait considéré comme une mauvaise pratique de programmation), et le matériel
prend en compte cette nouvelle donne en séparant aujourd'hui nettement le stockage des
instructions et des données, y compris dans les caches.

Ce cours est subdivisé en deux parties. Une partie est cependant consacrée
à une illustration plus concrète : c’est l'architecture physique du PC. Et une autre partie est
consacrée à une illustration plus fonctionnelle : c’est l'architecture logique du PC.

CHAP. I: CONCEPT THEORIQUE SUR LE FONCTIONNEMENT DE L’ORDINATEUR

p. 3
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
I.1 Notion
L'informatique, contraction d'information et automatique, est
devenue la science du traitement de l'information. Un ordinateur peut être découpé en blocs
fonctionnels. Le traitement de l'information est fait au niveau d'un processeur. Les actions que
celui-ci doit effectuer sont définies par des instructions.
Pour accéder au processeur les données à traiter et les instructions
doivent être stockées dans une mémoire. Le processeur et la mémoire sont reliés par un bus. Par
ailleurs il faut que l'utilisateur puisse fournir à l'ordinateur des données et les instructions à suivre,
tout comme il doit avoir connaissance des résultats. Il faut donc des dispositifs d'entrées et de
sorties.
Chaque bloc fonctionnel peut lui-même être décrit par un ensemble
d'unités fonctionnelles. On parle alors de l'architecture du processeur, de l'architecture de la
mémoire, etc. Par ailleurs on peut étudier l'architecture d'un réseau rassemblant plusieurs
ordinateurs.
On voit ainsi apparaître la notion de niveau de représentation. A
chaque niveau un objet considéré est décrit comme un ensemble de blocs interconnectés. Au
niveau suivant chacun de ces blocs est à son tour décrit comme un ensemble de blocs
interconnectés et ainsi de suite. Cette décomposition hiérarchique en niveaux dépend des besoins
de la conception ou des outils utilisés : elle n'est ni figée, ni unique. Nous pouvons, par exemple,
descendre au niveau des portes logiques et même au niveau des transistors qui composent ces
portes.
L'architecture d'un ordinateur constitue la représentation de ses unités
fonctionnelles et de leurs interconnexions. Le choix d'une architecture est toujours le résultat d'un
compromis :
 entre performances et coûts;
 entre efficacité et facilité de construction;
 entre performances d'ensemble et facilité de programmation; - etc.…
Chaque solution adoptée pour une machine donnée, à un instant
donné et pour un marché donné, pourra très vite être remise en cause par un nouveau progrès
technologique. De même, des architectures proposées à un moment donné, puis abandonnées pour
des raisons techniques ou économiques, pourront un jour être à nouveau employées.
Quelle que soit sa dimension (mini, micro ou super) on retrouve
toujours dans un ordinateur les mêmes blocs fonctionnels :
• unité de traitement;
• mémoire;
• disque dur;
• écran, clavier, souris
• archivage : disquette, bande magnétique, disque optique;
•Imprimante;
• Etc. Reliés par des bus ou des réseaux.
L'informatique se trouve également être embarquée dans un grand

p. 4
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
nombre de dispositifs de la vie courante, aussi variés que machines à laver, distributeurs, voitures
ou cartes bancaires. Si, par rapport à un ordinateur classique, les tâches à réaliser ne sont pas aussi
polyvalentes et si les contraintes sont différentes, on y retrouve cependant les mêmes briques.
Partant des portes logiques, nous allons essayer d'étudier dans ce cours les principes de base de
chacun de ces composants.
D'autre part, il est important de réaliser que matériel et logiciel sont
indissociables, en particulier au niveau de la conception de tout système informatique.
Mais avant d'aborder l'étude de la partie physique de l'ordinateur et
voir les fonctionnements des portes logiques, remontons dans le temps.

Le cours d’Architecture des Ordinateurs expose les principes de


fonctionnement des ordinateurs. Il ne s’agit pas ici d’apprendre à programmer, mais de
comprendre, à bas niveau, l’organisation de ces machines. Le fonctionnement de différents
périphériques de l’ordinateur (écran, clavier, disques durs, CD-ROM...), afin d’apprendre à les
mettre en œuvre à bon escient, puis nous conclurons cette partie par un panorama des différentes
architectures actuelles (processeurs CISC et RISC, stations de travail etc.).

Nous aborderons aussi l’étude détaillée de l’architecture du PC, dont


nous étudierons le processeur et son langage machine, les fonctions de base de son système
d’exploitation (BIOS), et ses mécanismes de communication avec l’extérieur
(entrées/sorties).

I.2 HISTORIQUE DE L’ORDINATEUR

Un ordinateur est une machine électronique qui fonctionne par la lecture


séquentielle d'un ensemble d'instructions, organisées en programmes, qui lui font exécuter des
opérations logiques et arithmétiques sur des chiffres binaires.
Si les premiers ordinateurs sont apparus après la seconde Guerre mondiale en
commençant par l'ENIAC en 1946, leur conception héritait de diverses expériences comme
l'Harvard Mark I et le Z3, machines électromécaniques programmables commencées en 1939, ou
comme le Colossus du service de cryptanalyse britannique, ainsi que de théories comme la «
machine de Turing », ou de la combinaison de techniques bien plus anciennes comme les
premières machines à calculer mécaniques (XVIIe siècle) et les premières machines à tisser
automatisées par la lecture de cartes et de rubans perforés (XVIIIe siècle). Son histoire remonte
aussi avec l’évolution des inventions des composants électroniques tels que : carte perforés, tube
à vide, transistor, circuit intégré…

I.3 ARCHITECTURE D’UN ORDINATEUR

I.3.1 ARCHITECTURE DE VON NEUMAN

L’architecture dite architecture de Von Neumann est un modèle pour

p. 5
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
un ordinateur qui utilise une structure de stockage unique pour conserver à la fois les instructions
et les données demandées ou produites par le calcul. De telles machines sont aussi connues sous
le nom d’ordinateur à programme enregistré. La séparation entre le stockage et le processeur est
implicite dans ce modèle.

L’architecture de Von Neumann décompose l’ordinateur en 4 parties distinctes :

1. l’unité arithmétique et logique (UAL ou ALU en anglais) ou unité de traitement : son rôle
est d’effectuer les opérations de base ;
2. l’unité de contrôle, chargée du « séquençage » des opérations ;
3. la mémoire qui contient à la fois les données et le programme qui indiquera à l’unité de
contrôle quels sont les calculs à faire sur ces données. La mémoire se divise entre
mémoire volatile (programmes et données en cours de fonctionnement) et mémoire
permanente (programmes et données de base de la machine) ;
4. les dispositifs d’entrée-sortie, qui permettent de communiquer avec le monde extérieur.

I.3.2 ARCHITECTURE HARVARD

L’architecture de type Harvard est une conception


de microprocesseurs qui sépare physiquement la mémoire de données et la mémoire programme.
L’accès à chacune des deux mémoires s’effectue via deux bus distincts.
Cette architecture a été expérimentée très tôt, puis abandonnée pendant une
vingtaine d'années. Elle est à nouveau employée dans certains microordinateurs spécialisés pour le
traitement numérique des signaux. Elle est également reprise par l'intermédiaire de deux caches
mémoires, par exemple, dans le microprocesseur 68030.
Par exemple, pour permettre aux interfaces d'E/S de lire ou d'écrire
des données en mémoire pendant que le processeur effectue des calculs sur les données
précédentes, il est intéressant d'utiliser une mémoire de données accessible depuis deux ports
différents. De cette façon le processeur et l'interface peuvent chacun accéder alternativement à
une moitié différente de la mémoire.

p. 6
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
CHAPITRE II : LE BOITIER ET L’ALLIMENTATION

II.1 Le boîtier
Le boitier et l’alimentation sont en général vendus ensemble, mais il

p. 7
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
est possible de les trouver séparément. Les boitiers existent en différents modèles déterminés par
la taille de la carte mère à y installer, par le nombre de baies disponible pour les lecteurs et par la
forme du boitier selon qu’il est destiné à être posé sur un bureau ou au sol.

Dans la plupart des cas, il est préférable d’opter pour un boitier de


type tour moyenne ATX. Le sigle ATX fait référence au terme « facteur d’encombrement » qui
catégorise actuellement les différents types de boîtiers et cartes mères.

Ce facteur prend en compte la forme du boîtier, les options


d’alimentations ainsi que la forme et la taille de la carte mère.

II.1.1 La forme du boîtier :


Il existe différents formats de boîtiers conçus au fur et à mesure des années (format AT, format
ATX, format ATX 2.0, format BTX, format ITX, ...).On peut classer les PC selon la forme de
leur boitier en trois catégories :

 Le boîtier horizontal
 Le boîtier vertical,
 Les portables

Les boîtiers sont dimensionnés par rapport aux facteurs d’encombrements des cartes mères.

a) Le boîtier horizontal (desktop)

Boîtiers de faible encombrement, d’usage assez vieux, il permet de poser le moniteur dessus
(jusqu’aux écrans 17’), cependant il ne pourra plus être utilisé maintenant car l’agencement de
l’intérieur est difficile et ne permet donc pas une bonne circulation de l’air.

b) Le boîtier vertical

Ce type de boîtier est le plus répandu actuellement. Il se divise en trois types :

• La mini tour et moyenne tour : la mini tour est un petit format offrant 2 logements 5 ¼ et 2
logements 3 ½ faible encombrement pour petit prix mais défaut de circulation d’air,

p. 8
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
surtout pour les ordinateurs équipés de processeur Pentium II… la moyenne tour offre 1
logement 5 ¼ supplémentaire

• La tour : grand format offrants de nombreux logements 5 1/4 et 31/2Grand encombrement


mais offrant des possibilités d’extensions intéressantes, l’accès aux composants internes
est des plus faciles. Très bonne circulation d’air, il dispose souvent d’un ventilateur
supplémentaire permettant de refroidir dans de très bonne condition surtout si l’ordinateur
dispose de plusieurs disques.
• Le boîtier ATX : le plus utilisé actuellement, il définit par rapport au facteur
d’encombrement ATX conçu par INTEL en juillet 1995 pour la première révision et
février 1997 pour la révision 2.01. La position de la carte mère, vis, cales de fixation est
donc normalisée par rapport à cette norme. Il faut donc disposer d’une carte mère au
format ATX, d’une alimentation ATX (250W). Il est conçu pour améliorer la circulation
d’air en augmentant l’espace libre et en diminuant ses composants internes. Ainsi, les
connecteurs séries, parallèles et USB sont directement intégré à la carte mère d’où la
disparition des nappes de connexions à ces composants. Ce format est donc très utile mais
plus cher.

p. 9
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
II.1.2 LA VENTILATION
La ventilation des PC modernes est un problème sérieux. La fiabilité d’un
ordinateur dépend en partie du bon respect de la température idéale de fonctionnement. La forme du boitier
a une influence sur la ventilation.

Ventilateur Alimentation Ventilateur Pentium II

En effet, plus l’espace libre est faible, plus le refroidissement est problématique et
plus les risques de surchauffe sont grands. Un boitier de grande taille est donc un gage de sécurité. Les
boîtiers verticaux favorisent la convection naturelle (Mouvement de l’air chaud). Dans ces boîtiers,
l’alimentation toujours placée en haut) est plus dégagée des composants électroniques, qui sont ainsi
protégés de la chaleur qu’elle dissipe.

II.2 L’ALIMENTATION
L’alimentation est l’un des composants importants de tout PC, c’est
aussi celui qu’on oublie le plus souvent. Vous entendrez parler pendant des heures de la vitesse
du processeur, de la quantité de mémoire vive, de la capacité des disques durs, des performances
de la carte graphique, de la taille du moniteur, etc.… mais rarement de l’alimentation électrique.

p. 10
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Si un fabricant essaie de monter un PC pour le plus bas prix possible, sur quel élément va-t-il
rogner le plus ? L’alimentation électrique.

L’alimentation électrique est pourtant une des fonctions les plus


importantes de votre PC, car elle fournit aux différents éléments de la machine l’électricité dont
ils ont besoin pour fonctionner. C’est aussi l’un des composants les plus sujets aux pannes. Une
alimentation défectueuse peut endommager les autres composants de l’ordinateur en leur
délivrant une tension incorrecte ou instable.

II.2.1 ROLES
Le rôle de l’alimentation est essentiellement de convertir le courant
électrique disponible à la sortie d’une prise murale en courant compatible avec le circuit
électrique de l’ordinateur. L’alimentation d’une configuration classique est conçue pour convertir
le courant alternatif du secteur, d’une tension de 220v et d’une fréquence de 50 Hz, en courant
utilisable par l’ordinateur : courant continu de tension +/- 5v, +/- 12v et 3,3v.

La carte mère des ordinateurs actuels n’utilise que la tension +5v, mais
la tension de -5v sert à alimenter les bus ISA si l’en existe encore. L’alimentation de +/-12v était
surtout utilisée par les circuits des portes série. Hors actuellement sur la plupart des ports séries
récents, les circuits fonctionnent sur 5v, voir sur 3,3v.

II.2.2 FACTEURS D’ENCOMBREMENT DE L’ALIMENTATION ELECTRONIQUE


La forme et la configuration physique générale d’un composant
informatique sont appelées « facteur d’encombrement ». Les composants caractérisés par un
même facteur d’encombrement sont généralement interchangeables, au moins en ce qui concerne
leur taille. Au moment de concevoir un ordinateur, le fabriquant peut choisir un facteur
d’encombrement connu, ou au contraire concevoir son propre facteur d’encombrement.

Dans le premier cas, le fabricant et l’utilisateur peuvent trouver sur le


marché un large éventail d’alimentations de qualité et de puissances diverses. Dans le second cas,
le fabricant doit prévoir un temps et un investissement supplémentaire pour l’élaboration du
nouveau modèle d’alimentation. Pour l’utilisateur, cela signifie en outre que l’alimentation sera
spécifique à l’ordinateur.
En général le facteur d’encombrement utilisé est le même que celui
du boîtier ainsi que de la carte mère. Ainsi, actuellement, on utilise des cartes mère avec un
facteur d’encombrement ATX, donc on doit utiliser un boîtier ATX et donc une alimentation
ATX.

II.2.3 CONNECTEURS DE L’ALIMENTATION

En sortie de l’alimentation, plusieurs câbles peuvent sortir, le connecteur


d’alimentation de la carte mère, les connecteurs d’alimentation d’unités interne (Disque dur, CDROM,
lecteur de disquettes…). Il peut aussi se trouver certains câbles d’alimentation du ventilateur du châssis ou
d’autre…
p. 11
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
II.2.4 PUISSANCE DE L’ALIMENTATION
L’alimentation, est le plus souvent fournie avec le boîtier, cependant,
à l’achat de celui-ci ou si vous achetez une alimentation a part, une caractéristique est essentielle
pour le bon fonctionnement de votre machine une fois montée. Cette caractéristique essentielle est
la puissance de l’alimentation…

Actuellement, pour une carte mère ATX et donc un boîtier ATX, il


faut une alimentation ATX ayant pour puissance spécifiée au minimum 235 w pour pouvoir
mettre plusieurs composants dans sa machine, ainsi vous pourrez sans problèmes rajouter des
lecteurs (DVDROM, Graveurs, ZIP ou des cartes…)

Puissance en 232w 275w 300w 400w


watt spécifiée
Intensité de Intensité de Intensité de Intensité de
sortie (A) sortie (A) sortie (A) sortie (A)
+3,3 V 14 14 14 28
+5 22 30 30 30
Max+3,3/+5V 125 150 150 215
-5 V 0,5 0,5 0,5 1
+12 V 8 10 12 14
-12 V 1 1 1 1
Puissance en 235,5 W 284,4 W 308,5 W 400 W
Watt calculé

NB. Puissance en Watts = Tension x Intensité = (Volts x Ampères) en multipliant la tension par
l’intensité disponible à chaque sortie puis en additionnant les produits ainsi obtenus, vous pouvez
calculer la puissance en Watts totale de votre alimentation. Celle-ci doit être supérieure à la
puissance spécifiée ainsi, le fabricant se réserve une petite marge d’erreur.

II.2.5 GESTION D’ENERGIE


La spécification APM : (Advanced Power Management, gestion

p. 12
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
d’énergie avancée) a été élaborée conjointement par Intel et Microsoft. Elle définit une série
d’interface entre le matériel capable de gérer l’énergie et le système d’exploitation d’un
ordinateur.

Quand elle est implantée dans sa totalité, elle peut faire basculer
automatiquement l’ordinateur entre cinq états suivant l’activité de la machine. Chaque état
représente un niveau de réduction d’énergie réduite. Ces cinq états sont définis comme suit :

o Activité totale : l’ordinateur est complètement opérationnel, sans qu’aucun mécanisme de


gestion d’énergie ne soit enclenché.
o Gestion APM active : l’ordinateur est opérationnel ; mais l’énergie de certains éléments
est contrôlée.
o Veille APM : l’ordinateur n’est pas opérationnel ; la plupart de ses périphériques sont en
mode de consommation d’énergie réduite.
o Suspension APM : l’ordinateur n’est pas opérationnel ; la plupart de ses périphériques ne
sont plus alimentés. o Extinction : l’ordinateur n’est pas opérationnel. L’alimentation est
éteinte.

La spécification APM doit être compatible à la fois avec le matériel et les logiciels pour être
opérationnel sur un ordinateur.

La spécification ACPI (Advanced Configuration and Power Interface,


élément avancé d’économie d’énergie) est un nouveau standard d’alimentation prise en charge par
le BIOS. Si votre système d’exploitation et le BIOS prennent en charge le standard ACPI, la
gestion de toute l’alimentation est alors faite par le système d’exploitation, plutôt que par le
BIOS. Grâce à l’ACPI, le contrôle de la gestion de l’alimentation s’exécute en un seul
emplacement.

CHAPITRE III : LA CARTE MERE

III.1 INTRODUCTION

La carte mère est en fait le système nerveux de l’ordinateur. C'est sur


elle que sont connectés tous les éléments du pc. Son choix est primordial si vous souhaitez
pouvoir faire évoluer votre configuration à moindre coût. Une bonne carte mère vous permettra

p. 13
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
également de profiter au maximum de vos périphériques qui ne seront pas limités par une carte
mère peu performante. Nous allons maintenant voir de quoi est composée une carte mère, et
pourquoi les éléments qui la composent sont si importants.

III.2 Description des facteurs d’encombrement des cartes mère


Elle a la forme rectangulaire. Elle est l’ensemble des circuits imprimés,
des connecteurs, des piles etc.

III.3 Principales caractéristiques d’une carte mère


Outre les caractéristiques mécaniques et d’alimentation AT et ATX, les
cartes mères incluent des caractéristiques propres qui permettent d’installer ou d’insérer le
processeur accepté, la mémoire convenable, la carte d’extension (carte graphique, carte vidéo),…

III.4 Paramétrage
La carte mère doit répondre à certains impératifs tels que :

 La famille des processeurs : (286, 386, 486, Pentium MMX, Pentium II, III, IV,…)
 Socket d’insertion,
 Vitesse externe et interne de l’horloge et la tension d’alimentation,
 Les mémoires (barrettes mémoires) SIMM 30cm, SIMM 72cm (barrettes a deux fentes)
ou DIMM (barrettes a une seule fente),
 Les types de contrôleurs de disque dur (PIO, UDMA,…) sous peine que le disque dur ne
soit pas détecté ou que sa capacité soit fausse.
 Les slots d’extension disponible,
 Les BIOS

p. 14
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
III.5 Les supports processeurs (CPU : Central Processing Unit)
Définition : le processeur est le plus petit morceau de silicium qui fait tout ou presque tout le
travail au sein de l’ordinateur et plus particulièrement le calcul. Il sert aussi à gérer le flux de
l’information dans la machine et contient plusieurs millions des transistors.
Le processeur est parfois appelé CPU (de l’anglais Central Processing
Unit) ou encore MPU (Micro-Processing Unit) pour les microprocesseurs. Un microprocesseur
n’est rien d’autre qu’un processeur dont tous les constituants sont réunis sur la même puce
électronique (pastille de silicium), afin de réduire les coûts de fabrication et d’augmenter la
vitesse de traitement.
Les microordinateurs sont tous équipés de microprocesseurs. L’architecture
de base des processeurs équipant les gros ordinateurs est la même que celle des microprocesseurs.
Ses principales caractéristiques sont :La fréquence de l’horloge : c’est le
nombre de calcul simple que le CPU peut effectuer en une seconde. Cette fréquence est exprimée
en Hz. Plus elle est élevée, plus le processeur est rapide.

 L’interface ou socket : les sockets déterminent la forme de la connectique entre le processeur et


la carte mère. Pour fonctionner, le processeur et la carte mère doivent avoir les mêmes caches.
La cache est une mémoire dédiée au processeur. Il lui permet de stocker des données dont il a
souvent besoin plutôt que d’aller les rechercher ailleurs. Le processeur transite par la mémoire
cache et la mémoire vive pour trouver les données ou informations qui sont sur le disque dur.
La mémoire cache est proche du processeur et elle est la plus rapide. Le disque dur est une
mémoire secondaire ou mémoire de masse comme la disquette, le disque compact ou le flash.
Plus la cache est grande, plus le processeur est performent et plus il consomme et il chauffe. Il
y a 3 niveaux de cache : L1, L2 et L3.

Les registres et l’accumulateur


Le processeur utilise toujours des registres, qui sont des petites
mémoires internes très rapides d’accès utilisées pour stocker temporairement une donnée, une
instruction ou une adresse.
Chaque registre stocke 8, 16 ou 32 bits. Le nombre exact de registres
dépend du type de processeur et varie typiquement entre une dizaine et une centaine. Parmi
les registres, le plus important est le registre accumulateur, qui est utilisé pour stocker les
résultats des opérations arithmétiques et logiques.
L’accumulateur intervient dans une proportion importante des
instructions. Par exemple, examinons ce qu’il se passe lorsque le processeur exécute une
instruction comme “Ajouter 5 au contenu de la case mémoire d’adresse 180” :
1. Le processeur lit et décode l’instruction ;
2. le processeur demande à la mémoire la contenu de l’emplacement 180 ;
3. la valeur lue est rangée dans l’accumulateur ;
4. l’unité de traitement (UAL) ajoute 5 au contenu de l’accumulateur ;
5. le contenu de l’accumulateur est écris en mémoire à l’adresse 180.C’est l’unité de commande
(voir figure ci-dessous) qui déclenche chacune de ces actions dans l’ordre.

p. 15
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Définition : la carte mémoire est une mémoire non volatil et réinscriptible c’est-a-dire dont les
données ne s’efface pas si celle-ci est hors tension.

Elle est de petite taille et très robuste. Ces cartes sont utilisées dans les
appareils photo-numériques, dans des téléphones portables, dans des ordinateurs de poche, dans
les lecteurs MP3,…

III.7 Les barrettes mémoires


La mémoire se présente sous forme de composants électroniques
ayant la capacité de retenir des informations (les informations étant de type binaire, 0 ou1).
Chaque "bit" mémoire est composé d'un transistor (qui permet de lire ou d’écrire une valeur)
accouplé à un condensateur (qui permet de retenir l'état binaire : 1 quand il est chargé et 0 quand
il est déchargé).
Les informations peuvent être écrites ou lues. Il y a écriture lorsqu’on
enregistre des données en mémoire et il y a lecture lorsqu’on sort des informations précédemment
enregistrées. La lecture peut être destructive c’est-à-dire l’information lue ne plus dans la
mémoire.
Le temps d’accès est le temps qui s’écroule entre l’instant où

p. 16
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
l’information a été lancée pour une opération de lecture en mémoire et le moment ou la première
information est disponible. Le temps de sigle est l’intervalle minimum qui doit séparer deux
demandes successives de lecture ou d’écriture. Il est égal ou supérieur au temps d’accès.
La mémoire est formée d’un certain nombre des cellules ou cases
contenant chacune une information. Chaque cellule a un numéro qui permet de la localiser ou de
la référencer. Ce numéro est son adresse. Avec une adresse de n bites, il est possible de référencer
directement au plus 2ncellules.La capacité d’une mémoire est le nombre total des cellules qu’elle
contient. Elle s’exprime en nombre des Bits, d’octet (bytes), ou des mots. La capacité de mémoire
s’exprime en puissance de 2 ou en multiple de 210= 1024.
Voici une représentation d'un bit mémoire :

SYMBOLE PREFIXE DECIMAL BI NAIRE


1 Ko Kilo 103 210 1024
1 Mo Méga 106 220 1048576
1 Go Giga 109 230 1073741824
1 To Téra 1012 240 1099511627776

Les condensateurs se déchargeant (leur tension diminue), il est


nécessaire de les recharger pour éviter les pertes d'informations. On appelle cela le
rafraîchissement. Une barrette de mémoire est constituée de trois éléments principaux :
o La mémoire proprement dite (en réalité plusieurs tableaux de bits mémoire) o Un
buffer (zone de tampon) entre la mémoire et le bus de données
o Le bus de données (qui est relié à certains pins (contacts) de la barrette etest en
relation avec la carte-mère)
Les timings: L’accès à un bit de mémoire se fait suivant plusieurs étapes, chacune de ces étapes
nécessitant un temps. Il y a plusieurs étapes et donc plusieurs temps. Ces temps sont appelés
timings. Nous allons maintenant détailler chacun de ces timings (dont la valeur est indiqué en
cycles dans le bios, un cycle correspondant à 1/fréquence du bus, soit 5 ns à 200 MHz) :
Le RAS precharge Time : c'est l'intervalle de temps nécessaire avant d’envoyer une autre
commande RAS.
· Le RAS: c'est le temps nécessaire pour sélectionner une ligne.

Les différents types de mémoire :


On distingue deux grands types de mémoire :
p. 17
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
· La mémoire vive (ou RAM pour Random Access Memory): cette mémoire perd ses données si
elles ne sont pas rafraîchies régulièrement, on appelle ce type de mémoire de la mémoire
dynamique.
· La mémoire morte (ou ROM pour Read Only Memory) : cette mémoire ne perd pas ses données
(sauf par des techniques de réécriture, comme le flashage pour les mémoires flash), même si elle
n'est pas rafraîchie. On appelle les mémoires n'ayant pas besoin d'être rafraîchies pour conserver
leurs informations des mémoires statiques. Elles sont composées rebascules électroniques et
permettent de stocker plus d'informations à espace identique comparé aux mémoires dynamiques.

Les types de ROM :


· ROM : on gravait les données binaires sur une plaque de silicium grâce à un masque. Il était
impossible de reprogrammer cette mémoire. Ce genre de mémoire n'est plus utilisé aujourd'hui.
· PROM (Programmable Read Only Memory) : Ces mémoires sont constituées de fusibles
pouvant être grillés grâce à un appareil qui envoie une forte tension (12V) dans certains fusibles.
Un fusible grillé correspond à un 0, et un fusible non grillé à un 1. Ces mémoires ne peuvent être
programmées qu'une fois.
· EPROM (Erasable Programmable Read Only Memory) : Même principe que l'EPROM, sauf
que cette mémoire est effaçable. Lorsqu'on la met en présence de rayons ultra-violets d'une
longueur d'onde précise, les fusibles sont reconstitués, et tous les bits reviennent à une valeur de
1.C'est pour cette raison que l'on qualifie ce type de PROM d'effaçable.
· EEPROM (Electrically Erasableread Only Memory): Ce sont aussi des PROM effaçables, par
un courant électrique toutefois. Elles peuvent être effacées même lorsqu'elles sont en position
dans l'ordinateur. Ces mémoires sont aussi appelées mémoires flash, et donc voilà pourquoi on
appelle flashage l'opération qui consiste à flasher une mémoire EEPROM.
Les types de RAM :
· Les barrettes au format SIMM (single Inline Memory Module):
 Les barrettes SIMM à 30 connecteurs qui sont des mémoires 8 bits. Elles équipaient les
premières générations de PC (286, 386).
 Les barrettes SIMM à 72 connecteurs sont des mémoires capables de gérer 32 bits de
données simultanément. Ces mémoires équipent des PC allant du 386DX aux premiers
Pentiums. Sur ces derniers le processeur travaille avec un bus de données d'une largeur de
64 bits, c'est la raison pour laquelle il faut équiper ces ordinateurs par paire de barrettes.
. Les barrettes RAMBUS DRAM, qui équipaient pendant un moment les Pentium 4 de première
génération. Elle n'est ni au format SIMM (heureusement), ni au format DIMM, mais au format
RIMM. Elle dispose d'une largeur de 16 bit.
· Les barrettes au format DIMM (Dual InLine Memory Module): ce sont des mémoires à 64 bit, il
n'est donc pas nécessaire de les apparier pour faire fonctionner le système. Les barrettes de
SDRAM possèdent 128broches et un second détrompeur (à la différence de la DDR). Les
connecteurs DIMM possèdent des leviers permettant d'insérer facilement la barrette dans son
connecteur.
 La DRAM (Dynamic RAM) : c'est le type de mémoire qui était le plus répandu il y a très
longtemps. Il s'agit d'une mémoire dont les transistors sont rangés dans une matrice selon
des lignes et des colonnes. Un transistor, couplé à un condensateur donne l'état du bit
correspondant (0 ou 1). Ce sont des mémoires dont le temps d'accès est de 60ns.
p. 18
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
 La DRAM FPM (Fast Page Mode) est une variante de la mémoire DRAM. La FPM
permet d'obtenir des temps d'accès de l'ordre de 70 à 80 nanosecondes pour une fréquence
de fonctionnement pouvant aller de 25 à 33 MHz car elle permet de ne communiquer le
numéro de colonne qu'une seule fois (pour les données n'étant pas situées sur la même
ligne mais simplement sur la même colonne).
 La DRAM EDO (Extended Data Out) est apparue en 1995. On adresse la colonne
suivante pendant la lecture des données ce qui permet de gagner du temps sur un cycle. Le
temps d'accès à la mémoire EDO est donc de 50 à 60 nanosecondes pour une fréquence de
fonctionnement allant de 33 à 66 MHz.
 La SDRAM (Synchronous Dynamic Random Access Memory) est apparue en 1997. Elle
permet une lecture des données synchronisée avec le bus de la carte-mère, contrairement
aux mémoires EDO et FPM qui étaient asynchrones. La SDRAM permet donc de
supprimer les temps d'attente dus à la synchronisation avec la cartemère et permet d'avoir
des temps d'accès de 10 nanosecondes.
Voici la constitution de base d'une barrette mémoire SDRAM :

Barrette mémoire SDRAM (2 détrompeurs très rapprochés)

· La DDR (ou SDRAM DDR pour Double Data Rate). C'est une variantede la SDRAM. Elle
prend en compte les fronts montants et descendantsdu bus système. Cela permet de doubler le
taux de transfert.
Voici la constitution principale d'une barrette mémoire de DDR :

Le tableau de mémoire physique a été divisé en deux parties pour fournir deux bit par cycle au
lieu d'un. Il existe plusieurs types de barrettes DDR :
 La PC 1600 qui fonctionne à 100 MHz, ce qui permet d'atteindre les 200 MHz si on la
compare à de la SDRAM. Sa bande passante est de 1.5 Go par seconde.
 La PC 2100 qui fonctionne à 133 MHz, ce qui permet d'atteindre 266 MHz comparé à de
la SDRAM. Sa bande passante est de 2 Go par seconde.

p. 19
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
 La PC 2700 qui fonctionne à 166 MHz, ce qui nous fait 333 MHz comparé à de la
SDRAM. Sa bande passante est de 2.5 Go par seconde.
 La PC 3200 qui fonctionne à 200 MHz, ce qui nous fait 400 MHz comparé à de la
SDRAM. Sa bande passante est de 3 Go par seconde.
 La PC 3500 qui fonctionne à 217 MHz, ce qui permet d'atteindre 433 MHz comparé à de
la SDRAM. Sa bande passante est de 3.2Go par seconde.
 La PC 4000 qui fonctionne à 250 MHz, ce qui permet d'atteindre 500 MHz comparé à de
la SDRAM. Sa bande passante est de 4 Go par seconde.

Double Data Rate etDDR2 1seul détrompeur presqu’au milieu

. La DDR-2 (elle dispose de deux fronts d'horloge, un pour la lecture et l’autre pour l'écriture, ce
qui double les taux de transferts par rapport à la DDR). Voici le principe de base d'une mémoire
DDR 2 :

Le tableau de mémoire a encore été divisé en deux par rapport à la DDR ce qui permet de fournir
4 bit par cycle. La fréquence du buffer passe à 200 MHz pour doubler au final la fréquence de
sortie.
 La DDR 2 400/PC2-3200 : cadencée à 200 MHz en externe et 100 MHz en interne, elle a
une bande passante de 3 Go/s
 La DDR 2 533/PC2-4200 : cadencée à 266 MHz en externe et 133 MHz en interne, elle a
une bande passante de 4.2 Go/s
 La DDR 2 667/PC2-5300 : cadencée à 333 MHz en externe et 166 MHz en interne, elle a
une bande passante de 5.1 Go/s  La DDR 2 800/PC2-6400 : cadencée à 400 MHz en
externe et 200 MHz en interne, elle a une bande passante de 6.2 Go/s
 La DDR 2 1067/PC2 : cadencée à 533 MHz en externe et 266 MHz en interne, elle a une
bande passante de 8.1 Go/s
· La DR-SDRAM (Direct Rambus DRAM ou encore RDRAM pour Rambus DRAM) permet de
transférer les données à 1.6 Go/s par l’intermédiaire d'un bus de 16 bit de largeur avec une

p. 20
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
fréquence de 800MHz. Cette mémoire a été abandonnée rapidement car elle était chère à produire
et ne donnait pas les résultats escomptés en termes de performances.

Comment bien choisir une barrette de mémoire ?


Tout d'abord, vous devez identifier le type de barrette que vous pouvez mettre dans votre PC.
Pour cela, allez jeter un œil du côté des emplacements mémoire(les banques).

Barrette mémoire RAMBUS (2 détrompeurs très rapproché


s)

Banques des emplacements mémoire pour DDR et DDR2 avec1seul détrompeur presqu’au milieu

Si vous avez deux détrompeurs, il s'agit soit de SDRAM soit de RAMBUS. La RAMBUS à ses
deux détrompeurs très rapprochés, alors que la SDRAM en a deux mais éloignés. La DDR et la
DDR 2 n'ont qu'un détrompeur situé presque au milieu des banques (comme sur la photo). Si vous
avez de la DDR, prenez d'office de la PC 3200 si vous n'êtes pas un fana de l'overclocking. Sinon,
des barrettes plus hautement cadencées telle que la mémoire PC 4000 peuvent vous être utiles. En
DDR 2, évitez les modèles 400 et 533 qui offrent de piètres performances en raison de timings
trop haut que l'augmentation de fréquence seule n'arrive pas à combler. Optez plutôt pour de la
DDR 2 667 au minimum avec des timings de 3-3-3-8 ou inférieurs si vous trouvez. De la DDR 2
1067 offre d’excellentes performances combinées à un processeur Core 2 duo.
La capacité de stockage est variable selon le type et la marque. Elle
va de 128 Mo pour les SDRAM et à 4 Go pour le DDR2 et SDRAM dernier model. Attention
pour ne pas capacité maximale que peut accepter la carte mère. On pourra jamais installer deux
barrettes mémoires DDR2 et SDRAM de 2Go chacune sur une carte mère acceptant au moins
1Go de RAM.

III.8 La carte graphique


La carte graphique est l'un des rares périphériques reconnus par le PC

p. 21
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
dès l’initialisation de la machine. Elle permet de convertir des données numériques brutes en
données pouvant être affichées sur un périphérique destiné à cet usage(écran, vidéo projecteur,
etc...). Son rôle ne se limite cependant pas à ça puisqu’elle décharge de plus en plus le processeur
central des calculs complexes3D et ce au moyen de diverses techniques que nous allons voir plus
bas.

Une carte graphique est composée de quatre éléments principaux :


· Le GPU (Graphical Processing Unit) : c'est le processeur central de la carte graphique.
Aujourd'hui les GPU possèdent des fonctions très avancées. Chaque génération de GPU apporte
son lot d'innovations technologiques, qui sont plus ou moins utilisées dans les jeux. Le principal
intérêt est de soulager le processeur central, d'augmenter la qualité des images tout en faisant
chuter le moins possible les performances. Voici à quoi peut ressembler un GPU sans son
ventirad (le ventirad est le couple radiateur + ventilateur) :

· Le RAMDAC (Random Access Memory Digital Analog Converter) : cette puce est destinée à
convertir les données numériques en données analogiques compréhensibles par les écrans
cathodiques. La fréquence du RAMDAC nous renseigne sur le nombre maximal d'images par
seconde que la carte peut afficher au maximum (même si sa puissance théorique est supérieure,
elle sera limitée par le RAMDAC si celui-ci est cadencétrop faiblement). Rassurez-vous, les
cartes ne sont jamais bridées par cecomposant. On parle souvent de fréquence de
rafraîchissement.
·La fréquence de rafraîchissement est mesurée en Hz (hertz) et va déterminer le nombre maximal
d'images par seconde qui pourront être affichées. C'est pourquoi si vous avez un écran qui ne
rafraîchit votre image que 60 fois par seconde, il est inutile d'avoir une carte graphique qui en
débite 150, vous ne verrez pas la différence. Autant donc augmenter la qualité de l'image.
Nous verrons plus bas quelles sont les techniques permettant d’augmenter

p. 22
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
la qualité des images.
· La mémoire vidéo : variant généralement de 16 à 512 Mo, elle est utilisée pour stocker les
textures (généralement sous formes d'images). La largeur du bus de la mémoire joue également
beaucoup : un bus de 128 bit de largeur sera généralement moins performant qu'un 256 bit.
Aujourd'hui, il existe deux types de mémoire vidéo :
 La mémoire GDDR 2 (DDR pour Double Data Rate), exploitant les fronts montants et
descendants de la mémoire, autrement dit la bande passante est doublée par rapport à la
SD-RAM à même fréquence. On trouve plutôt ce type de mémoire sur les cartes
graphiques bas de gamme.
 La mémoire GDDR 3 : presque identique à la GDDR 2, elle gagne en fréquence et sa
tension d'alimentation diminue. Elle est toujours utilisée même dans les cartes graphiques
les plus haut de gamme.
· Les éventuelles entrées-sorties vidéos (VGA qui sert à relier les écrans cathodiques, DVI pour
les écrans plats, et une éventuelle sortie TV généralement au format S Vidéo...). La plupart des
cartes possèdent maintenant une sortie TV, qui permet de regarder des DVD sur sa télé par
exemple. La connectique de sortie est au format S-vidéo, avec, souvent un adaptateur
S-vidéo/composite. Quelques cartes possèdent aussi un tuner vidéo, qui permet de regarder la télé
sur son PC, ou encore un port DVI en plus du port VGA. Le port DVI est numérique et ne
nécessite pas la traduction des données par le RAMDAC. Équipée de telles cartes, l’ordinateur
devient une véritable télé associée à un magnétoscope. Certaines cartes disposent de plusieurs
sorties VGA pour pouvoir brancher deux écrans sur son ordinateur: L'intérêt du DUAL HEAD est
de disposer d'un affichage plus étendu sous Windows. On peut ainsi ouvrir plus de programmes
tout en se repérant mieux.

Performances graphiques :
Les performances d'une carte graphique dépendent en grande partie du processeur central. En
effet, le processeur indique à la carte graphique tout ce qu’elle doit calculer. Cependant celui-ci
devant aussi gérer les autres paramètres du jeu, il se peut qu'il ne fournisse pas assez
d'informations, et alors la carte graphique doit attendre que le processeur ait terminé de mouliner.
Il faut un processeur bien adapté à la carte vidéo afin d'éviter ce genre de piège. Mais il ne sert à
rien d'avoir un processeur dernier cri avec une carte graphique d'entrée de gamme en utilisation le
disque Plus la résolution augmente, plus le travail de la carte graphique sera important.

p. 23
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Les ports de connexion à la carte-mère :
La plupart des cartes graphiques se placent sur les ports AGP (pour
Accelerated Graphic Port) et PCI Express. Le port AGP est apparu avec le Pentium II d'Intel en
1997. Celui-ci est totalement différent d'un port PCI tant physiquement que par sa vitesse. En
effet le port AGP permet de partager la mémoire vive du PC quand la mémoire de la carte
graphique est saturée.
Cependant cette méthode d'accès est nettement plus lente que celle
de l'accès à la mémoire de la carte graphique. On différencie trois normesd'AGP :
· l'AGP2 X (500 Mo par seconde)
· l'AGP4 X (1 Go par seconde)
· l'AGP8 X (2 Go par seconde) Ports AGP (Accelerated Graphic Port)

Les cartes graphiques PCI Express :


Le PCI Express est la norme qui a désormais remplacé l'AGP sur le
marché des cartes graphiques. Plus rapide, existant en de nombreux formats, il remplace
avantageusement les ports PCI et AGP. Il existe en différents débits

Ports PCI

III.9 La carte réseau

III.9.1 NOTION
La carte réseau (appelée Network interface Card en anglais et note NIC)
constitue l’interface entre l’ordinateur et le câble du réseau. La fonction d’une carte réseau est de
préparer d’envoyer et de contrôler les données sur le réseau. La carte réseau possède
généralement deux témoins lumineux (LEDS) :

• La LED verte correspond à l’alimentation de la carte ;


• La LED orange (10 Mb/s) indique une activité du réseau (envoi ou réception de données).

p. 24
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Pour préparer les données à envoyer, la carte réseau utilise un transceiverqui transforme les
données parallèles en données séries. Chaque carte dispose d’une adresse unique, appelée adresse
MAC, affectée par le constructeur de la carte, ce qui lui permet d’être identifiée de façon unique
dans le monde parmi toutes les autres cartes réseau. Les cartes réseaux disposent de paramètres
qu’il est possible de configurer. Parmi eux figurent l’interruption matérielle (IRO), l’adresse de
base du port E/S et l’adresse de base de la mémoire (DMA).

III.9.2 ROLE DE LA CARTE RESEAU


Une carte réseau sert d’interface physique entre l’ordinateur et le câble. Elle
prépare du câble réseau les données émises par l’ordinateur, les transfère vers un autre ordinateur
; contrôle le flux de données entre l’ordinateur et le câble. Elle traduit aussi les données
numériques du câble et les traduit en octets afin que l’unité centrale de l’ordinateur les
comprenne. Une carte réseau est une carte d’extension s’insérant dans un connecteur
d’extensions.
III.9.3LE ROLE D’IDENTIFICATEUR
• La carte traduit les données et indique son adresse au reste du réseau afin de pouvoir être
distinguée des autres cartes du réseau.
• Adresses MAC : définies par l’IEEE (Institute of Electrical and Electronics Engineer) qui
attribue des plages d’adresses à chaque fabriquant de cartes réseau.
• Elles sont inscrites sur les puces des cartes : procédure appelée « Gravure de l’adresse sur
la carte». Par conséquent, chaque carte a une adresse MAC UNIQUE sur le réseau.

La carte indique qu’un autre ordinateur demande des données à


l’ordinateur que la contient. Le bus de l’ordinateur transfère les données depuis la mémoire de
l’ordinateur vers la carte réseau.

III.9.4 ENVOI ET CONTROLE DES DONNEES


Avant que la carte émettrice envoie les données, elle dialogue
électroniquement avec la carte réceptrice pour s’accorder sur les points suivants :

• Taille maximale des groupes de données à envoyer


• Volume de données à envoyer avant confirmation
• Intervalles de temps entre les transmissions partielles de données
• Délai d’attente avant envoi de la confirmation
• Quantité que chaque carte peut contenir avant débordement  Vitesse de transmission des
données.

III.9.5 SORTE DES CARTES RESEAUX


1. Cartes réseau Ethernet : la plupart des cartes réseau destinées au grand public sont des
cartes Ethernet. Elles utilisent comme support de communication des paires torsadées (8
fils en cuivre), disposant à chaque extrémité de prises Rj45. Les trois standards Ethernet
(norme 802.3) les plus courants correspondent aux trois débits les plus fréquemment
rencontrés :
p. 25
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
a. Le 10Base-T permet un débit maximal de 10 Mbits/s. le câble RJ 45 peut alors mesurer
jusqu’à une centaine de mètres et seul 4 des 8 fils sont utilisés.
b. Le 100Base-TX permet un débit maximal de 100 Mbits/s. il est également appelée Fast
Ethernet et est désormais supporté par la quasi-totalité des cartes réseau. Comme pour
le 10 Base-T, le câble RJ 45 peut alors mesurer jusqu’à une centaine de mètres et seul
4 des 8 fils sont utilisés.
c. L e 1000Base-T permet un débit maximal de 1000 Mbits/s. il est également appelé
Gigabit Ethernet et. Le câble RJ 45 peut toujours mesurer jusqu’à 100m mais doit être
de bonne qualité. Cette fois les 8 fils sont utilisés.
III.10 AUTRES ELEMENTS DE LA CARTE MERE

1. LA CARTE SON : PRESENTATION ET PRINCIPE DE FONCTIONNEMENT


La carte son a un rôle simple dans l'ordinateur : produire du son,
même si ses rôles ne s'arrêtent pas là. Elle permet de gérer tout un tas d'effets qui auparavant
étaient traités par le processeur central, ce qui le décharge d'autant plus. Une bonne carte son
permet d'avoir des performances légèrement supérieures dans les jeux ce qui n'est pas
négligeable. Le choix d'une carte son conditionne l'usage que l'on doit en faire.
Aujourd'hui, une carte son standard possède une sortie stéréo au
format minijack, une entrée ligne stéréo ainsi qu'une prise micro. Ce type de carte sera suffisant
pour une utilisation bureautique, ou bien encore surfer sur Internet et écouter un peu de musique
occasionnellement. D’autres cartes offrent le double stéréo. Sous Windows, cela n'a que peu
d’intérêt, on pourra simplement brancher deux paires d'enceintes. Par contre, dans les jeux vidéo
ou même dans les DVD Vidéo, chaque voix pourra être gérée indépendamment si le logiciel le
permet. Enfin les cartes sons 5.1, gèrent 5 voix.
Il existe maintenant des cartes-son gérant même le 7.1 ! Cela ne sert
que pour les DVD Vidéo, ce système est comparable aux ensembles 5.1 de Home Cinéma. Il
suffit juste de brancher 3paires d'enceintes différentes et le tour est joué. Pour ceux qui souhaitent
avoir un meilleur son, il est possible de brancher ses enceintes via la sortie numérique de sa carte
son, via un ampli 5.1 par exemple.
Ce type d'enceintes est vraiment adapté aux joueurs qui pourront
s'immerger totalement en entendant des sons qui semblent venir de l'endroit où ils proviennent
grâce aux enceintes placées judicieusement dans la pièce.

p. 26
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
2. Le DSP :
Chaque carte son possède son processeur : le DSP (Digital Signal
Processor). Cette puce va s'occuper de transcrire les signaux numériques qui proviennent du
processeur et les transformer en sons audibles.
Les DSP les plus évolués permettent de rajouter de l’écho, de la
distorsion. C'est aussi lui qui distribue les différents sons sur les sorties. Le DSP va donc prendre
en charge la plupart des calculs audio, le reste sera laissé au processeur de l’ordinateur. Plus le
DSP sera puissant, et moins le CPU de l'ordinateur travaillera. C'est donc un choix à ne pas
négliger si vous êtes joueur.

Le son intégré :
Beaucoup de cartes mères intègrent maintenant des cartes Son
intégrées. Les meilleures cartes Son intégrées ne sont pas au niveau de celles sur port PCI.
Cependant, ces chipsets intégrés ont fait d'énormes progrès et restent tout à fait acceptables pour
qui ne recherche pas la performance à tout prix (ils occupent généralement plus le processeur
qu'une bonne carte son PCI).

Enregistrement du son :
Un signal sonore est un signal analogique visible sous une forme
sinusoïdale. Or, en numérique, on utilise des bits (0 ou 1) pour stocker l’information. Lorsque l'on
enregistre du son, il faut trouver le moyen de le convertir d'une source analogique en numérique.
Voici à quoi ressemble un signal analogique :

p. 27
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Pour enregistrer du son il faut d'abord savoir combien de fois par
seconde on va "récupérer une valeur sur la courbe". En effet, il faut bien se limiter en un nombre
de points fini pour pouvoir acquérir numériquement un signal analogique. On parle de fréquence
d'échantillonnage. Plus la fréquence d’échantillonnage n’est élevée, mieux ça sera au niveau
qualité. Le signal devient donc découpé en périodes de temps. On obtient un signalé échantillonné
:

Plus la fréquence d'échantillonnage est élevée, plus on diminue


l'intervalle de temps entre deux "prises de valeur", et donc plus la précision est grande. A chaque
période il va donc falloir récupérer la "valeur de la courbe", c’est là que l'on va parler de son "24
bit" par exemple.
Quand on parle de son "24bit" il s'agit en fait du niveau de précision
avec laquelle on va lire la courbe. On regarde donc la "hauteur" de la courbe et on la convertit en
nombre stocké sur un nombre de bit défini. En effet, si nous stockons par exemple ce nombre sur
1 bit, il n'y a que 0 ou 1 comme possibilités (en gros si la courbe en dessous de l'axe des abscisses
on utilisera 0 et sinon 1).
Le son ne ressemblera donc à rien car la précision utilisée est bien trop
faible. Il faut donc augmenter la précision verticale (la fréquence d'échantillonnage augmentant la
précision horizontale). On pourra donc par exemple coder la hauteur en 16 bit ce qui permet
65536 valeurs possibles (216). En 24 bitson peut coder 16777216 valeurs différentes, ce qui
permet d'avoir une précision plus grande.

3. Les connecteurs internes :


Outre des connecteurs externes, toutes les cartes sons disposent au

p. 28
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
moins de deux entrées internes : une entrée ligne ainsi qu'une entrée pour connecter de CDROM
pour les CD Audio. Ensuite, cela dépend de la carte son, comme les entrées SPDIF (lecteur de
DVD), entrée auxiliaire (par exemple la sortie d'une carte d'acquisition).
Un slot ou socket est le format du connecteur sur lequel le processeur
va s’implanter sur la carte mère. Il existe différents formats de slot selon la marque et le model du
processeur : Intel, AMD,…
Une carte mère peut accueillir plusieurs processeurs selon l’utilisation
que l’on veut en faire. Pour une utilisation personnelle, le nombre de processeur est généralement
un seul; tandis que pour un usage professionnel, certaines cartes mères de serveur par exemple
peuvent contenir plusieurs processeurs selon la capacité d’information à traiter.
Le BIOS (Basic Input Output System) est le programme de base lancé au
démarrage du PC, c'est lui qui va charger les pilotes de base nécessaires au démarrage du
système. Il peut arriver que vous entendiez des "bips" lorsque votre PC démarre. Leur nombre et
leur durée sont autant d'indications qui pourront vous mettre sur la piste d'un éventuel problème
matériel que nous allons tenter de diagnostiquer ici. Les bips identifiés comme étant des bips de
Boot block sont les premiers bips que vous entendrez. Le boot block est une zone généralement
de 64Ko généralement non effaçable directement, elle contient les données vitales du BIOS.
Voici donc la signification des bips du BIOS au démarrage :
1. BIOS AMI - Bips de Boot Block :
Bips Signification Remède possible
1 bip Votre BIOS est endommagé, il manque Insérez une disquette contenant le fichier
une disquette de flashage dans le lecteur image du BIOS ainsi que le programme de
A flashage dans le lecteur A
2 bips Fichier AMIBOOT.ROM non trouvé Retéléchargez le programme de flashage et
à la racine de la disquette copiez-le à la racine de la disquette de
Récupération
3 bips Erreur dans la mémoire de base Changez la puce du BIOS
4bips Flashage correctement effectué
5 bips Erreur de lecture de la disquette Vérifiez que les données contenues sur la
disquette ne sont pas corrompues, dans le
doute jetez la disquette et prenez-en une
autre ! Si le problème n'est pas résolu,
changez de lecteur de disquettes
6bips Erreur dans le contrôleur clavier Changez de clavier. Si le problème persiste,
changez de carte-mère.
7bips Pas de mémoire EPROM détectée Vérifiez que la puce du BIOS est bien
enfoncée sur votre carte-mère.
8bips Erreur du contrôleur de lecteur de Vérifiez que votre lecteur de disquettes est
Disquettes bien branché. Si le problème persiste, tentez
débrancher votre lecteur sur un autre port
floppy si votre carte-mère en dispose, sinon
p. 29
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
changez de carte-mère.
9bips Checksum de la zone de Boot Block Faites reprogrammer votre zone de boot
erronée block si possible, sinon changez de
cartemère sivce problème vous empêche de
démarrer le PC.
10 Erreur d'effacement du contenu de la Le programme de flashage a été in- capable
bips Mémoire d'effacer le contenu "flashable".
11 Erreur dans le programme deflashage Changez de programme de flashage et de
bips fichier image.
12 Taille du fichier AMIBOOT. ROM Vérifiez que vous avec téléchargé la bonne
bips incorrecte version du fichier AMIBOOT.ROM.

13 Erreur dans le fichier de flashage Vérifiez que vous avec téléchargé la bonne
bips version du fichier AMIBOOT.ROM.

Les chipsets c’est un circuit intégré à la carte mère dont la fonction est d’assurer les échanges des
données entre les différents éléments. Plus récent sera le chipset, plus la machine pourra intégrer
les éléments récents.

Les racks :
Beaucoup de cartes son haut de gamme sont disponibles avec des
racks, internes ou externes : ils combinent plusieurs avantages. On peut directement brancher des
périphériques audio, USB ou même firewire, sans avoir à aller derrière son ordinateur. Ils
augmentent le nombre de ports disponibles, et peuvent faire même office de Hub USB.

p. 30
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
4. Le lecteur de cd-rom : principe de fonctionnement, présentation
Le Compact Disc (CD) a été inventé par Sony © et Philips © en 1981. Les
spécifications du Compact Disc ont été étendues en 1984 afin de permettre au CD de stocker des
données numériques, c'est le CD-ROM.

Géométrie d'un CD :
Le CD (Compact Disc) est un disque de 12 cm de diamètre d'épaisseur
comprise entre 1.1 à 1.5 mm qui permet de stocker des informations numériques, c’est-àdire
correspondant à 800 Mo de données informatiques en langage binaire (0 ou 1). Un trou circulaire
de 15 mm de diamètre au milieu du CD permet de le centrer.

Composition d'un CD :
Le CD se compose de trois couches superposées. La couche principale
qui est la plus épaisse est en polycarbonate, un plastique résistant et transparent (1). Ce plastique
laisse passer la lumière émise par le laser lors de la lecture d'un CD. On trouve ensuite une couche
métallique réfléchissante (2) très souvent en aluminium qui va réfléchir la lumière émise par le
laser. Il y a par-dessus tout ça une couche de vernis protecteur qui vient protéger le métal de
l'agression des Ultraviolets (3). Par-dessus le tout, on trouve la surface imprimée qui sert à
habiller le disque (4).

Lors de la lecture d'un CD de ce type, le faisceau laser traverse la


couche de polycarbonate et rencontre ou non un creux. Le faisceau est ensuite réfléchi parla
couche métallique. Le passage d'un creux à une bosse ou d'une bosse à un creux représente un 1
dans le langage binaire. Le reste représente un 0.
La lumière du laser est alors fortement déviée (on dit qu'elle est
réfractée), de telle sorte que la dose de lumière renvoyée par la couche réfléchissante est minime.
Le lecteur comprend alors qu'il s'agit d'un 1. La longueur du motif qui suit, qu'il soit bosse ou
creux, donne la longueur du nombre de 0 situés après. La succession de 0 et de 1 permet ensuite
de lire le contenu du disque. A noter que contrairement aux disques

p. 31
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
durs, un CD n'a qu'une seule piste organisée en spirale.

Les CD vierges (CD-R) possèdent une couche supplémentaire située


entre le polycarbonate et la couche métallique composée d'un colorant organique pouvant être
brûlé par un laser ayant 10 fois plus de puissance que la puissance requise pour lire un CD. Cette
couche de colorant est photosensible.
Lorsqu'elle est soumise à une forte lumière, elle l'absorbe et sa
température augmente à plus de 250°, ce qui fait qu'elle brûle localement, et recrée les plages
brûlées et non brûlées. Les creux et bosses du CD classique sont ici remplacés par le passage
d’une zone brûlée à une zone non brûlée, qui laisse passer plus de lumière.

Comparons maintenant les dvd entre eux et le cd-rom :

Type de support Capacité Nombre de CD


CD 800Mo 1
DVD-RAM 2.6, 3.9, 4.7 et 9.4 Go 4, 5, 6 et 12
DVD simple face 1 couche et DVD R- 4.7Go 6
W
DVD simple face 2 couches 8.5Go 11
DVD double face 1 couche 9.4Go 12
DVD double face 2 couches 17Go 22

On voit donc qu'un DVD peut contenir jusqu'à 22 cd-rom ce qui fait plus de12200 disquettes !
Pour le montage vidéo ou même tout simplement pour du stockage de données c'est le bonheur.
Les DVD vidéo du commerce sont conçus pour "empêcher" le piratage. De ce fait, vous ne

p. 32
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
pouvez théoriquement pas lire de DVD d'une autre zone. Quelques utilitaires permettent
cependant de s'en affranchir.

9.2. Lecteur DVD


9.2.1. Présentation et principe de fonctionnement
Le DVD-ROM (Digital Versatile Disc - Read Only Memory) est en fait
un cd-rom dont la capacité est bien plus grande. Ceci est du au fait que les alvéoles du DVD sont
beaucoup plus petites (0,4μ avec un espacement de 0.74μ contre1.6μ et 1.83μ pour le cd-rom).
Mais alors pourquoi ne peut-on pas les lire avec nos bons vieux lecteurs de cd-rom ? Tout
simplement parce qu'un DVD nécessite un laser ayant une longueur d'onde plus faible.

Les DVD existent en version "double couche", ces disques sont


constitués d'une couche transparente à base d'or et d'une couche réflexive à base d'argent. Leur
intérêt est que la capacité de ces DVD est bien supérieure à celle des DVD simple couche. Vous
pouvez alors enregistrer des Films plus longs et de meilleure qualité.
Pour lire ces données, le laser du lecteur de DVD possède deux intensités :
 lorsque l'intensité est faible, le rayon se réfléchit sur la surface en or, c'est à dire sur la
première couche et ne la traverse pas.
 lorsqu'on augmente l'intensité du laser, le faisceau traverse la première

Comment bien choisir un lecteur de dvd ?

Les normes : un bon lecteur de dvd doit lire le support à une vitesse
élevée. Cette vitesse se mesure en X : 1 X équivaut à 1.38 Mo par seconde pour le DVD contre
150 ko par seconde pour le CD. Un lecteur 16x lira donc vos dvd à 22 Mo par seconde, ce qui est
une excellente vitesse.
Pour les graveurs de DVD, optez systématiquement pour un graveur
qui vous permettra d'écrire dans les deux normes disponibles, à savoir le DVD-Ram et DVD Rw.
Vous y mettrez certes un peu plus d'argent, mais vous oublierez ensuite les problèmes
d'incompatibilité. Il existe deux types de lecteurs de DVD : les mange-disques et ceux à tiroirs.

CHAPITRE IV : LE DISQUE DUR

IV.1 Introduction
Le disque dur est l'organe du PC servant à conserver les données de
p. 33
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
manière permanente, même lorsque le PC est hors tension, contrairement à la mémoire vive, qui
s'efface à chaque redémarrage de l'ordinateur, c'est la raison pour laquelle on parle de mémoire de
masse.
Le disque dur est généralement l'élément le plus faible de l'ordinateur,
celui qui bride le plus les performances globales d'un PC. C'est pourquoi son choix est crucial si
vous ne souhaitez pas vous retrouver avec un PC dernier cri pourtant pachydermique.
Un disque dur est constitué de plusieurs disques rigides en métal, verre
ou en céramique appelés plateaux et empilés les uns sur les autres avec une très faible distance
d'écart. Les plateaux tournent autour d'un axe (entre 4000 et 15000 tours par minute) dans le sens
inverse des aiguilles d'une montre.

Axe, tête de lecture, bras, axe, DSP (digital signal processor), alimentation, cavaler, interface, vérin et
plateau.

IV.2 La capacité

Les données sont stockées sur le disque dur sous forme analogique sur

p. 34
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
une fine couche magnétique de quelques microns d'épaisseur recouverte d'un fil protecteur. Un
DSP (digital signal processor) se charge de la conversion des données analogiques en données
numériques compréhensibles par l'ordinateur (0ou 1, les bits).
La lecture et l'écriture se font grâce à des têtes de lecture/écriture situées de part et d'autre de
chacun des plateaux et fixées sur un axe. Ces têtes sont en fait des électroaimants qui se baissent
et se soulèvent (elles ne sont qu'à 15 microns de la surface, séparées par une couche d'air
provoquée par la rotation des plateaux) pour pouvoir lire l'information ou l'écrire.

Cependant, les têtes ne peuvent se déplacer individuellement et


seulement une tête peut lire ou écrire à un moment donné. Un cylindre correspond donc à
l’ensemble des données situées sur une même colonne parmi tous les plateaux. L’ensemble de
cette mécanique de précision est contenue dans un boitier totalement hermétique, car la moindre
particule peut détériorer l'état de surface du disque dur.
Les données d'un disque dur sont inscrites sur des pistes disposées en
cercles concentriques autour de l'axe de rotation. Leur nombre varie en fonction du type de
matériaux utilisés pour les plateaux et la couche magnétique.
En simplifiant, le disque dur s'organise en plateaux, cylindres et
secteurs. On appelle cylindre l’ensemble des pistes réparties sur les faces de chaque plateau et
situées à la même distance de l'axe de rotation :

Chaque piste est numérotée. La numérotation débute par 0 et


commence à l’extérieur du plateau. Les pistes sont à leur tour divisées en petites portions
appelées secteurs. Leur nombre est déterminé en usine lors d'une phase appelée formatage
physique. La numérotation des secteurs, elle, débute à 1. Cette organisation permet à l'ordinateur
de localiser sans ambiguïté une zone du disque. L'adresse sera du type : Plateau 1 face intérieure,
Cylindre (piste) 4, secteur 12.
On appelle cluster la zone minimale que peut occuper un fichier sur
le disque. Le système d'exploitation utilise des blocs qui sont en fait plusieurs secteurs (entre 1 et
16 secteurs). Un fichier minuscule devra donc occuper plusieurs secteurs (un cluster, taille
minimum gérée par Windows).
Un disque dur se différencie par :
· Sa capacité exprimée en Go
· Sa densité exprimée en Go par plateau
· Sa vitesse de rotation exprimée en tours minute
· Son temps d'accès exprimé en millisecondes
· Son interface, IDE, SCSI ou SATA
p. 35
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
· Son taux de transfert moyen exprimé en Mo par seconde

IV.3 La vitesse de rotation

Vitesse angulaire et vitesse linéaire :


Quand on dit qu'un disque tourne à 5400 trs/min on parle de vitesse
angulaire (1 tour = 1 angle de 360 °), cette vitesse est par définition constante. Par contre la
vitesse linéaire varie en permanence en fonction de la position des têtes de lecture/écriture du
disque par rapport à son centre. Plus les têtes s'éloignent du centre, plus la vitesse linéaire
augmente.
Plus la vitesse linéaire est grande, plus le débit est important. Une
donnée située près du centre du disque dur va donc être lue moins vite qu’une donnée située au
bord. C'est ainsi que le débit maximum du media du Bigfoot est quasi le même que celui de
disques durs tournant à 7200 tours tout en tournant 2 fois moins vite. Ce qui est dommage, c'est
que l'on ne fait plus de disques durs 5 pouces ¼ à cause d'un problème d'inertie.

La densité d'informations :
La densité est la quantité d'informations que vous pouvez stocker sur
une surface donnée. Elle n'influence que le débit du disque. Il ne faut pas se leurrer : un disque
dur avec une très grande densité et une vitesse de rotation plus faible ira généralement plus vite
qu'un autre qui a 10 ans et qui tourne à7200 tours par minute.
La difficulté de maîtrise de l'inertie fait que les constructeurs préfèrent
augmenter la densité d'informations pour augmenter les performances. Le débit des disques durs a
donc été multiplié par 50 avec une vitesse de rotation multipliée seulement par 4.Les informations
sur un disque dur sont stockées généralement longitudinalement :

Pour pouvoir stocker toujours plus d'informations, il a cependant fallu trouver un autre moyen de
stockage plus performant. En effet le stockage longitudinal commençait à atteindre ses limites
physiques. Les données sont donc, sur les disques durs les plus récents, stockées verticalement. Il
en ressort une densité d'informations accrue.
p. 36
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Le temps d'accès :
C'est le temps moyen que mettent les têtes de lecture pour trouver les
informations. Il est défini comme suit : Temps d'accès = Temps de latence+ Temps d'accès aux
données. Le temps de latence dépend uniquement de la vitesse de rotation du disque, puisqu'il
représente le temps nécessaire pour trouver des données suite à un changement de piste (si la
donnée se trouve un tour ou un quart de tour plus loin par exemple).
La faible évolution du temps d'accès entre les années 90 et nos jours
est un problème d'inertie (énergie que vous devez dépenser pour arrêter un objet en
mouvement).Énergie cinétique = 1/2*[Masse * (Vitesse)²]En augmentant légèrement la vitesse,
l'inertie augmente exponentiellement ce qui rend la maîtrise de la mécanique difficile.
On pourrait fabriquer des disques plus petits pour diminuer la masse
des plateaux et des têtes, mais la vitesse linéaire diminuerait. Bref, c'est l'impasse. Il vaut mieux
alors se tourner vers les disques durs SCSI qui offrent des temps d'accès de 3 ms pour certains.
Les formats

Les dimensions des disques durs sont normalisées :

• 19 pouces (48,26 cm) pour les anciens disques (à interface SMD) ;


• 8 pouces (20,32 cm) : génération suivante, permettant de mettre deux disques sur une
largeur de baie ;
• 5,25 pouces (13,335 cm) : format apparu en 1980 avec le ST-506, on le trouve aussi en
demi-hauteur ;
• 3,5 pouces (8,89 cm) est la taille standard depuis de nombreuses années ;
• 2,5 pouces (6,35 cm) pour les ordinateurs portables à l’origine et installé sur certains
serveurs depuis 2006, et qui est le format des Solid-state drives ;

p. 37
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
• 1,8 pouce (4,572 cm) pour les baladeurs numériques, les ordinateurs ultraportables,
certains disques durs externes.

De plus petits disques existent mais entrent dans la catégorie des microdrives, avec une taille de 1
pouce (2,54 cm).

Les formats normalisés précédents sont définis d’après la taille des plateaux. Il existe aussi une
normalisation de la taille des boîtiers pour permettre aux disques durs de tous les manufacturiers
de s’insérer dans tous les ordinateurs.

Depuis 2008, on voit la commercialisation d'ordinateur portable (généralement des ultra


portables) équipés de SSD à la place du disque dur, par la plupart des grands constructeurs
(Apple, Sony, Dell, Fujitsu, Toshiba, etc.). Ces modèles peuvent être utilisés par exemple dans un
autobus, ce qui serait déconseillé pour un modèle à disque dur physique, la tête de lecture risquant
alors d'entrer en contact avec le disque et d'endommager l'un et l'autre.

Comme toute nouvelle technologie les caractéristiques évoluent très rapidement :

• en 2009, on trouve des modèles de 128 Go à des prix d’environ 350 $ ce qui reste
nettement plus cher qu’un disque dur ;
• mi-2011, on trouve des SSD de 128 Go à moins de 200 euros, et la capacité des SSD
disponibles dépasse désormais 1 To ;
• fin 2012, on trouve des SSD de 128 Go aux alentours de 75 euros ;  fin 2014, on
trouve des SSD de 240 Go aux alentours de 80 euros.

IV.4 La mémoire cache


Le cache sert de relais entre le disque dur et le processeur. Pour pallier
aux performances stagnantes des disques durs, les constructeurs leurs ont adjoint un cache. Ce
cache est présent depuis bien longtemps dans les disques durs. Il peut atteindre désormais plus de
16 Mo. Plus sa capacité n’est élevée, mieux c'est. Attention, cela ne signifie pas pour autant qu'un
disque sera plus performant qu'un autre d'une marque concurrente !

IV.5 La taille du disque dur


La capacité d'un disque est exprimée en multiples de 1024 octets. La
table suivante résume la valeur des préfixes utilisés pour exprimer les capacités des disques. J'ai
quelque peu anticipé certains multiples ne servent pas encore même pour les sauvegardes

Symbole Préfixe Capacité


K kilo 210= 1024
M méga 220= (1024)2
G giga 230= (1024)3
T téra 240= (1024)4
P péta 250= (1024)5
p. 38
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
E exa 260= (1024)6
Z zêta 270= (1024)7
Y yotta 280= (1024)8

L'accès aux données sur un disque dur peut se décomposer en trois étapes :
• positionnement des têtes au niveau du cylindre;
• attente du passage du secteur devant la tête de lecture;
• transfert des données.

Un disque est dit à accès semi-séquentiel : accès direct à la piste avec


une constante de temps liée à la mécanique, puis accès séquentiel au secteur dans la piste. Le
temps de déplacement de la tête est appelé temps de recherche.

IV.7 Les interfaces du disque dur


Il existe trois interfaces pour disques durs : l'interface IDE, SATA et SCSI.
L'interface IDE :
L'IDE est une interface qui permet de connecter jusqu'à 4 unités
simultanément (disque dur, lecteur cd, etc...). L’IDE a beaucoup évolué depuis quelques années,
son débit ou taux de transfert n'a cessé d'augmenter. En effet, au à ses débuts, l'IDE était d'une
lenteur ridicule face au SCSI. Les dernières versions de l'IDE (UDMA 133) peuvent atteindre 133
Mo/s au maximum.
Spécificités de L'IDE :
· Vitesse de rotation maximale : 7200 tours.
· Taux de transfert Maximum : 133 Mo par seconde.
· Taux de transfert jusqu'à 60 Mo par seconde pour le disque le plus rapide
· Temps d'accès de 8 ms pour le disque le plus rapide
· Nombre maximum de périphériques gérés : 4 sans carte contrôleur. Les 4disques durs doivent se
répartir 133 Mo/s au maximum, ce qui fait qu'avec deux disques durs en raid 0 vous avez
pratiquement saturé l'interface.
Avantage pour les disques durs IDE, ils coûtent bien moins cher à
capacité égale que leurs homologues SCSI. Sachez que 150 MO par seconde suffisent largement
pour toutes les applications. Leur principal inconvénient est l'instabilité de leur taux de transfert et
leur temps d'accès bien trop important, ce qui limite leurs performances. L'interface SATA :
L'interface SATA (pour Serial ATA) est une évolution de l'IDE. La transmission des données se
fait par un bus série et non parallèle, ce qu’explique les faibles dimensions des nappes de ces
disques durs. Le débit maximum que peut atteindre cette

p. 39
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
interface est de 300 Mo par seconde pour le moment (révision Sata II, contre 150 Mo/s
pour la première version du Serial ATA
).

Interface SATA

InterfaceATA

L'interface serial ATA marque un progrès notable par rapport à l'IDE, même si les
performances à vitesse de rotation identique stagnent en raison d'une mécanique identique à celle
des disques IDE pour la plupart des disques vendus. Le Sata dispose cependant de nombreux
avantages :
· 7 Fils seulement permettent de communiquer avec un disque dur SATA(contre 80 pour les
dernières nappes IDE). La principale raison à cela vient du fait que le Serial ATA utilise un bus
série au lieu de parallèle. Le câble est donc largement plus compact et permet de mieux faire
circuler l’air dans le PC.
· Les disques durs peuvent désormais être branchés et débranchés à chaud(hot plug) · Chaque
disque est connecté sur un port Sata de la carte-mère, il n'y a donc plus de schéma maître/esclave
à prendre en compte.
· Les vieux disques IDE peuvent être réutilisés en utilisant un adaptateur et être connectés via
l'interface SATA.
L'interface SCSI :
L'histoire du SCSI commence en 1965. Le SCSI est une interface qui
permet en charge d'un nombre plus important d'unités (disques durs, CD-ROM,etc..., que
l'IDE).Elle est surtout utilisée pour sa stabilité au niveau du taux de transfert.
C'est un adaptateur SCSI (carte adaptatrice sur un emplacement PCI ou ISA) qui se charge de la
gestion et du transfert des données.

IV.7 La carte son : présentation et principe de fonctionnement


La carte son a un rôle simple dans l'ordinateur : produire du son,
même si ses rôles ne s'arrêtent pas là. Elle permet de gérer tout un tas d'effets qui auparavant
étaient traités par le processeur central, ce qui le décharge d'autant plus. Une bonne carte son
permet d'avoir des performances légèrement supérieures dans les jeux ce qui n'est pas
négligeable. Le choix d'une carte son conditionne l'usage que l'on doit en faire.

p. 40
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Aujourd'hui, une carte son standard possède une sortie stéréo au
format minijack, une entrée ligne stéréo ainsi qu'une prise micro. Ce type de carte sera suffisant
pour une utilisation bureautique, ou bien encore surfer sur Internet et écouter un peu de musique
occasionnellement. D’autres cartes offrent le double stéréo. Sous Windows, cela n'a que peu
d’intérêt, on pourra simplement brancher deux paires d'enceintes. Par contre, dans les jeux vidéo
ou même dans les DVD Vidéo, chaque voix pourra être gérée indépendamment si le logiciel le
permet.

IV.8 LE MODEM
Modem est un acronyme de Modulateur Démodulateur. Son rôle est
de convertir les données numériques provenant du PC (les bits = 0 ou 1) en données analogiques
(fréquences multiples) compréhensibles par la ligne téléphonique. Le modem est un périphérique
permettant de se connecter à Internet par l'intermédiaire d'un fournisseur d'accès comme Club-
Internet par exemple. Bref, le modem permet de communiquer par le réseau téléphonique.
On caractérise un modem par :
 Sa vitesse exprimée en Kilo bits par seconde (exemple 512 k/bit par seconde = 64 ko par
seconde). Les deux facteurs très importants sont la vitesse en réception et en émission.
Ainsi, la norme V92 a permis de porter la vitesse maximale en émission des modems à
48000 bits par seconde (5.9 ko par seconde), au lieu de 4.1 ko. Bien sur ces vitesses sont
purement théoriques et ne comptez pas les atteindre avec une connexion classique. En
revanche, les débits des modems ADSL (parfois plus d'un Mo par seconde), sont
facilement atteints, suivant la qualité du serveur du site que vous consultez.
 Son type : modem interne ou modem externe. Si vous avez un port PCI de libre, je vous
conseille le modem interne, qui coûte bien moins cher que l'externe à caractéristiques
comparables, sinon, les modems externes sont le seul choix. Pour les portables, si vous
n'avez pas de port USB ou série, un modem PCMCIA s'impose.
 Sa norme : V90 maintenant pour tous les modems (56600 bits par seconde en réception et
33600 en émission). Certains modems possèdent même le V92 qui permet d'accélérer un
peu le débit en émission (48000 au lieu de 36000 bits par seconde), mais pas en réception.
 Les modems ADSL : complètement différents des modems 56k de par leurs performances
et leur mode de fonctionnement, ils deviennent de plus en plus des objets décoratifs à
placer dans le salon. Ils font presque tous office de routeurs, sont généralement
p. 41
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
configurables à l'aide d'une interface web que l'on consulte avec son navigateur internet et
sont de plus souvent prêtés par les fournisseurs d'accès internet. Ils peuvent cependant
coûter assez cher si vous les achetez à part.
 Ses fonctionnalités : certains modems font office de répondeur, peuvent lire vos mails PC
éteint et les rapatrier, ou encore font fax et minitel. A vous de choisir, mais
je considère cela comme de simples gadgets.

Le Modem interne, externe et la PCMCIA

Les routeurs :
Les routeurs sont des hubs qui permettent de partager une connexion
ADSL. On n'a plus besoin d'un PC qui doit rester allumé pour partager la connexion internet. Le
routeur se configure à distance et attribue lui-même les adresses Internet locales (DHCP).C'est la
solution idéale pour se monter un petit réseau local chez soi si on dispose d'une ligne ADSL.

Comment bien choisir un modem ?


Le type : interne ou externe ? C'est un choix difficile mais le prix
devrait vous faire pencher vers l'interne. En effet, ils coûtent bien moins cher que leurs
homologues externes, à fonctionnalités égales. Si en revanche vous n'avez pas de port PCI de
libre sur votre carte mère, le modem externe est le seul choix. La norme : tous les modems 56k
sont désormais à la norme V92 qui augmente théoriquement un peu la vitesse en émission (lors de
l'envoi de mails par exemple) par rapport au V90.
Fonctionnalités : certains modems (surtout externes) permettent de
faire office de répondeur ou de fax, voire même de recevoir vos emails PC éteint (pour certains
modems externes). Cela ne sert pas à grand chose étant donné le prix plus élevé de ces appareils
qui n'offrent que des "gadgets".
Si vous avez le choix entre un modem simple et un modem routeur,
prenez le modèle routeur qui vous offrira une plus grande sécurité si bien configuré. En effet,
vous pourrez vous dispenser du pare-feu (vous pouvez donc gagner en performances) mais vous
pourrez parfois faire de la redirection de ports(autrement dit, via plusieurs PC de votre réseau,
p. 42
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
vous pourrez par exemple si vous recevez une information sur le port 81 la rediriger vers le PC
numéro 2,alors qu'une information sur le port 80 sera par exemple
redirigée vers votre PC). Pour plus d'informations, consultez cet article : les ports
IV.10 Etude de quelques cas
Si un disque dur n’est pas détection doit vérifier si le connecteur
d’alimentation du disque dur est bien enfiché ou connecté au disque qui a le système et à
l’alimentation de la carte mère.

Vérifiez si le disque dur qui a le système est placé en primaire ou en


secondaire. Vérifiez si le deuxième disque est configuré comme esclave à partir du pontage.
Vérifiez si les pontages sont mis correctement. Vérifiez si le connecteur ID a été utilisé dans le
bon sens. Le PC ancien ne détecté pas le nouveau disque dur. L’installation d’un vieux

CHAPITRE V: LES PORTS ET LES BUS

V.1 Les bus

Définition : le bus est un ensemble des fils qui permettent le transfert des données entre les
différents composants.
Sorte de bus : il existe deux sortes de bus. Nous avons les bus d’extension et les bus système.

1. Les bus d’extension sont ceux qui permettent de relier les différents composants de
l’ordinateur.
2. Les bus système permettent de connecter les différentes parties fonctionnelles de cet
ordinateur entre elles.

Bus ISA (Industry Standard Architecture)

p. 43
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Bus
Bus PCI (Peripheral Component Interconnect)
AGP(Accelerated / Advanced Graphics Port)

High Definition Multimedia


Interface (HDMI) (en français, «
Interface Multimédia Haute
Définition »)

Digital visual interface (DVI), aussi


appelée digital video interface

Remplacer par le HDMI a partir de

Port FireWire est dit Hot Plug (branchement à chaud)


SATA (Serial Advanced Technology
Attachment)

p. 44
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Connecteurs SCSI 25-50 broches (à gauche, le
connecteur 50 broches)

Connecteur et câble VHDCI

V.2 les ports

Un port matériel est une prise permettant de brancher des périphériques sur un ordinateur. Il est
conçu pour brancher un certain type de périphérique, soit directement, soit au moyen d'un câble.
Il est soumis à des normes aussi bien sur ses caractéristiques physiques (forme, considérations
électriques ou optiques) que logiques (à quoi sert chaque quel fil/patte/connecteur, que signifie tel
ou tel signal en entrée, en sortie).

Les ports matériels se répartissent en :

• ports internes destinés soit à relier à une carte mère des périphériques internes au boîtier
de l'ordinateur (disques, barrettes de mémoire ou même processeur en considérant un
socket comme un port matériel) soit à insérer une carte d'extension enfichable sur un bus
interne (on parle alors de connecteur d'extension).
• ports externes permettant de communiquer avec différents périphériques, souvent via un
câble, quoiqu'on trouve aussi notamment dans le cas des portables des connecteurs
d'extension reliés à un bus (par exemple PC-Card).

Un port logiciel est un système permettant aux ordinateurs de recevoir ou d'émettre des
informations. Il Correspond à la couche de transport du modèle OSI, la notion de port logiciel
permet, sur un ordinateur donné, de distinguer différents interlocuteurs. Ces interlocuteurs sont
des programmes informatiques qui, selon les cas, écoutent ou émettent des informations sur ces
ports. Un port est distingué par son numéro.

p. 45
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
PARTIE 2 ARCHITECTURE LOGIQUE

INTRODUCTION SYSTEME D’EXPLOITATION


Aujourd’hui, l’informatique, aussi bien dans les entreprises, que dans la recherche ou
l’enseignement, utilise des machines plus petites, fonctionnant avec des systèmes d’exploitation à
caractère universel. Parmi ces systèmes d’exploitation, deux se distinguent particulièrement, un
système mono-utilisateur, Windows, et un autre multiutilisateurs et multitâches, Unix. D’une
manière grossière – et contestable avec l’apparition des réseaux – on peut affirmer que le premier
système est destiné à des ordinateurs individuels, tandis que l’autre est réservé au travail en
groupe. Les systèmes actuels gèrent, par ailleurs une interface graphique, avec comme pionnier le
Finder du Macintosh. Les systèmes d’exploitation actuels ont intégré de façon généralisée le
multitâches et le service à plusieurs utilisateurs avec la généralisation des architectures client-
serveur, par exemple avec OS/2 d’IBM et Windows/NT. Parmi ces systèmes, Unix, qui est le plus
ancien, est celui qui offre le plus de richesses, le plus d’homogénéité et le plus de souplesse; il
dispose, dans les versions standards, d’extensions pour les réseaux et pour le graphique. Par
ailleurs le système MS-DOS puis Windows, en évoluant, ont incorporé beaucoup de
caractéristiques de leur prédécesseur. Les noyaux de ces systèmes se modifieront certainement
avec l’évolution des techniques. Cependant, les principes sur lesquels ils se fondent, et à plus
forte raison, leur « décor », devraient rester relativement stables, au moins pour les quelques
années à venir. L’étude des systèmes d’exploitation forme une part très importante de
l’informatique comme discipline et, à la différence des ses autres domaines, c’est une part qui lui
est propre. Ceci au contraire de l’algorithmique ou de la logique, par exemple, qui se partagent
avec les mathématiques. C'est aussi une discipline technique qui plus encore que les autres est
sujette au renouvellement.
On peut diviser les systèmes d’exploitation classiques en quatre parties principales : 1. les
processus, qui correspondent à l’exécution des programmes. Ces processus pouvant s’exécuter
simultanément dans un système multitâche. Le système a pour fonction de les créer, de les gérer,
de les synchroniser, ainsi que de leur permettre de communiquer entre eux; 2. la gestion de la
mémoire, qui permet de transférer les programmes et les données nécessaires à la création des
processus, d’un support secondaire, par exemple un disque, vers un support central, où a lieu
l’exécution des processus des ressources : disques, mémoires, périphériques. Le système gère la

p. 46
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
création des fichiers, leur destruction, leur correspondance avec les dispositifs physiques, ainsi
qu’un certain nombre d’autres caractéristiques, telles que la protection. Il les organise enfin, en
général, en une structure arborescente; 4. les entrées-sorties, qui correspondent aux mécanismes
qu’utilisent les processus pour communiquer avec l’extérieur. Ces entrées-sorties font largement
appel aux couches les plus proches du matériel, et dont le système tente de masquer les
particularités aux utilisateurs.
CHAPITRE I : GENERALITES SUR LE SYSTEME D’EXPLOITATION
I.1. Définition
Pour qu'un ordinateur soit capable de faire fonctionner un programme informatique, la machine
doit être en mesure d'effectuer un certain nombre d'opérations préparatoires afin d'assurer les
échanges entre le processeur, la mémoire et les ressources physiques (périphériques). Le système
d'exploitation, abrégé SE (en anglais operating system, abrégé OS), est l'ensemble de programmes
central d'un appareil informatique qui sert d'interface entre le matériel et les logiciels applicatifs.
I.2. Description d’un système d'exploitation Un système d'exploitation (noté SE ou OS,
abréviation du terme anglais Operating System), d’un ordinateur ou d’une installation
informatique est un ensemble de programmes qui remplissent deux grandes fonctions :
 Gérer les ressources de l’installation matérielle  Assurer un ensemble de services en
présentant aux utilisateurs une interface mieux adaptée à leurs besoins que celle de la
machine physique

I.3. Rôles du système d'exploitation Les rôles du système d'exploitation sont divers :
 Gestion du processeur
 Gestion de la mémoire vive
 Gestion des entrées/sorties
 Gestion de l'exécution des applications
 Gestion des droits
 Gestion des fichiers
 Gestion des informations

1. Gestion du processeur : le système d'exploitation est chargé de gérer l'allocation du


processeur entre les différents programmes grâce à un algorithme d'ordonnancement. Le type
d'ordonnanceur est totalement dépendant du système d'exploitation, en fonction de l'objectif visé.

p. 47
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
L'ordonnanceur (anglais scheduler) est le programme du système d'exploitation qui contrôle le
déroulement des autres programmes. Dans un système d'exploitation multitâche l'ordonnanceur
assure l'exécution simultanée de plusieurs programmes (concurrence). L'exécution simultanée de
plusieurs programmes est réalisée de la manière suivante: l'ordonnanceur commande l'exécution à
tour de rôle de chaque programme par le ou les processeurs de l'ordinateur, chaque processeur
exécute les instructions d'un programme pendant une fraction de seconde, puis l'ordonnanceur
effectue une commutation de contexte (anglais context switch), suspend l'exécution du
programme en cours et passe au programme suivant.
Les systèmes informatiques sont typiquement composés de nombreux programmes qui coopèrent
en s'échangeant des informations. Les échanges d'informations entre les processus (programmes
en cours d'exécution) peuvent se faire à l'aide de messages stockés en mémoire, le système
d'exploitation va s'occuper de collecter les messages et les mettre à la disposition de chaque
destinataire. Tout processus qui attend un message sera interrompu jusqu'à l'arrivée d'un message
et l'ordonnanceur évitera toute commutation de contexte vers un processus en attente.
2. Gestion de la mémoire vive : le système d'exploitation est chargé de gérer l'espace mémoire
alloué à chaque application et, le cas échéant, à chaque usager. En cas d'insuffisance de mémoire
physique, le système d'exploitation peut créer une zone mémoire sur le disque dur, appelée
«mémoire virtuelle». La mémoire virtuelle permet de faire fonctionner des applications
nécessitant plus de mémoire disponible sur le système. En contrepartie cette mémoire est
beaucoup plus lente.
3. Gestion des entrées/sorties : le système d'exploitation permet d'unifier et de contrôler l'accès
des programmes aux ressources matérielles par l'intermédiaire des pilotes (appelés également
gestionnaires de périphériques ou gestionnaires d'entrée/sortie).
Un pilote (anglais driver) est un programme qui contient les instructions à exécuter pour utiliser
un périphérique informatique. Les pilotes sont fournis par l'auteur du système d'exploitation ou le
fabricant du périphérique. Un système d'exploitation contient typiquement de nombreux pilotes
correspondant à de nombreux composants matériels susceptibles d'être montés dans l'ordinateur.
4. Gestion de l'exécution des applications : le système d'exploitation est chargé de la bonne
exécution des applications en leur affectant les ressources nécessaires à leur bon fonctionnement.
Il permet à ce titre de «tuer» une application ne répondant plus correctement. 4. Gestion des
droits : le système d'exploitation est chargé de la sécurité liée à l'exécution des programmes en

p. 48
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
garantissant que les ressources ne sont utilisées que par les programmes et utilisateurs possédant
les droits adéquats 6. Gestion des fichiers : le système d'exploitation gère la lecture et l'écriture
dans le système de fichiers et les droits d'accès aux fichiers par les utilisateurs et les applications.
7. Gestion des informations : le système d'exploitation fournit un certain nombre d'indicateurs
permettant de diagnostiquer le bon fonctionnement de la machine.
I.4. Historique des systèmes d'exploitation
1ère Génération (1945 - 1955) : les tubes à vide et les cartes perforées. Ces genres de Systèmes
d’exploitation sont inexistants
2ème Génération (1955 - 1965) : les transistors et le traitement par lots.
- Les ordinateurs sont devenus plus fiable grâce à l’apparition des Transistors,
-La Commercialisation des ordinateurs à des utilisateurs (grandes compagnies, université ou
administrations…)
-Les utilisations principales étaient le calcul scientifique et l'ingénierie (équations différentielles)
-L’Apparition des langages FORTRAN et assembleur
-L’Apparition des systèmes d'exploitation (SE) : FMS (Fortran Monitor System) et IBSYS (IBM
7094
3ème Génération (1965 - 1980) : Intègre les circuits intégrés et la Multiprogrammation par :
 Amélioration des coûts et des performances (circuits intégrés)  Apparition d’une famille
d'ordinateurs compatibles entre eux avec une seule architecture et un même jeu
d'instructions. Des ordinateurs uniques pour les calculs scientifiques et commerciaux 
Apparition aussi du spoule (spool, Simultaneous Peripheral Operation On Line) pour le
transfert des travaux des cartes vers le disque.  Apparition de la multiprogrammation
(partitionnement de la mémoire pour des tâches différentes). Mais, un système
d'exploitation énorme et très complexe pour satisfaire tous les besoins (plusieurs millions
de lignes d'assembleur)  Apparition du partage de temps, une variante de la
multiprogrammation (chaque utilisateur possède un terminal en ligne) ; naissance du
système MULTICS (MULTiplexed Information and Computing Service) pour ordinateur
central  Apparition d’une version simplifiée (monoutilisateur) de MULTICS appelée
UNICS (Uniplexed Information and Computer Service) ; ce nom allait devenir UNIX1. Par
la suite il y a réécriture de l’UNIX en langage C ; ce système d'exploitation a été le plus
porté sur toutes sortes de machine
p. 49
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
4ème Génération (1980 - 1990) : a connu l’apparition les ordinateurs personnels
 Développement des circuits LSI (Large Scale Intégration) contenant des centaines de
transistors au cm2
 Apparition de réseaux d'ordinateurs individuels qui fonctionnent sous des systèmes
d'exploitation en réseau ou des systèmes d'exploitation distribués.

5ème Génération (1990 - ????) : avec la naissance des ordinateurs personnels, portables et de
poche
o Apparition des PIC (Personal Intelligent Communicator) et des PDA (Personal Digital
Assistant), grâce à l'intégration des composants et l'arrivée des systèmes d'exploitation de
type «micro-noyau» utiles pour les systèmes de gestion des informations
o Les systèmes d'exploitation de type « micronoyau » sont modulaires (un module par
fonction) ; ils peuvent être réalisés avec plus ou moins de modules et donc adaptables à des
très petites machines (PDA et PIC)

I.5. Composantes du système d'exploitation Le système d'exploitation est composé d'un


ensemble de logiciels permettant de gérer les interactions avec le matériel. On distingue
généralement les éléments suivants :
 Le noyau représente les fonctions fondamentales du système d'exploitation (la gestion de la
mémoire, des processus, des fichiers, des entrées-sorties et des fonctionnalités de
communication)
 L'interpréteur de commande permet la communication avec le système d'exploitation par
l'intermédiaire d'un langage de commandes afin de permettre à l'utilisateur de piloter les
périphériques en ignorant tout les caractéristiques du matériel qu'il utilise, de la gestion des
adresses physiques, etc.  L’interface graphique permettant une communication simple
 Le système de fichiers permet d'enregistrer les fichiers dans une arborescence.  Les
utilitaires : Sont des programmes annexes spécialisés dans différentes tâches
supplémentaires.

I.6. Qualités d’un système d'exploitation


 Fiabilité : Limiter les conséquences des défaillances matérielles ou des erreurs des
utilisateurs. En cas de panne, éviter les pertes d’information ou leur incohérence 
Efficacité : Utiliser au mieux les ressources et possibilités matérielles  Facilité d’emploi :

p. 50
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Offrir un langage de commande (dialogue usager/système) et des diagnostics d’erreurs
(système/usager) clairs et précis  Adaptabilité : Permettre des modifications matérielles
et logicielles les plus simples possibles, à l’aide d’outils spécialisés
 Mesurabilité : Enregistrer la comptabilité des ressources utilisées par les usagers, mesurer
les paramètres de fonctionnement et de charge

I.7. Différentes classes de systèmes d'exploitation Systèmes multitâches : Un système


d'exploitation est dit «multi-tâche» lorsque plusieurs «tâches» (également appelées processus)
peuvent être exécutées simultanément Systèmes multi-processeurs : Le multiprocessing est une
technique consistant à faire fonctionner plusieurs processeurs en parallèle afin d'obtenir une
puissance de calcul plus importante que celle obtenue avec un processeur Systèmes embarqués :
Les systèmes embarqués sont des systèmes d'exploitation prévus pour fonctionner sur des
machines de petite taille ou des appareils électroniques autonomes (sondes spatiales, robot,
ordinateur de bord de véhicule, etc.), possédant une autonomie réduite Systèmes temps réel : Les
systèmes temps réel, essentiellement utilisés dans l'industrie, sont des systèmes dont l'objectif est
de fonctionner dans un environnement contraint temporellement. Système Préemptifs : Un
système est dit préemptif lorsqu'il possède un ordonnanceur (aussi appelé planificateur), qui
répartit, selon des critères de priorité, le temps machine entre les différents processus qui en font
la demande. Dans un tel système, le processeur signale au système d’exploitation que le processus
en cours d’exécution doit être mis en pause pour permettre l’exécution d’un autre processus. Le
système doit alors sauver l’état du processus en cours (le compteur ordinal, les valeurs des
registres) ; le processus est placé dans une file d’attente ; lorsqu’il est en bout de file, son contexte
d’exécution est restauré. Les systèmes d’exploitation les plus répandus sont les suivants :

p. 51
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
I.8. PRINCIPE DE SYSTEME D’EXPLOITATION
1. LE PROCESSUS Les processus correspondent à l’exécution de tâches : les programmes des
utilisateurs, les entrées-sorties, …etc. par le système. Un système d’exploitation doit en général
traiter plusieurs tâches en même temps. Il résout ce problème grâce à un pseudo-parallélisme. Il
traite une tâche à la fois, s’interrompt et passe à la suivante. La commutation des tâches étant très
rapide, l’ordinateur donne l’illusion d’effectuer un traitement simultané. Les processus sont
composés d’un espace de travail en mémoire formé de 3 segments : la pile, les données, le code et
d’un contexte.
2. SYSTEME D’EXPLOITATION RESEAU Il existe d’autres systèmes d’exploitation conçus
avec un logiciel réseau déjà incorporé l’un pour gérer les ressources et l’autre pour accéder aux
ressources externes. Ex : le cas de Unix et Netware de Nouvell, etc. Le système d’exploitation

p. 52
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
réseau gère l’allocation et l’utilisation de toutes les ressources de l’ordinateur et coordonne les
interactions entre l’utilisateur et les programmes qui sont utilisé sur l’ordinateur. Il gère aussi :
le temps de processeur ;
la mémoire du travail ;
l’exécution des applications ;
l’espace disque ;
l’écriture et la lecture du fichier.

Les systèmes d’exploitation se classent en 2 catégories :


 Soit ils sont conçus pour fonctionner sur une machine isolée
 Soit ils sont conçus pour fonctionner en réseau. Lorsqu’ils sont conçus pour fonctionner en
réseau il y a la présence du client et du serveur. N.B : On appelle Client : programme qui
demande service à d’autres programmes et machine sur laquelle tourne ce programme
client.  On appelle serveur : programme qui fournit des services à d’autres programmes
et machine sur laquelle tourne ce programme serveur

On appelle service : comportement d’un programme qui peut rendre service à d’autres
programmes.
I.10. Notion de Fichier
Définitions Un fichier informatique est une unité informationnelle physiquement stockée sur un
support de mémoire de masse permanent (disque dur par exemple)
Le fichier est donc enregistré sur le disque dur sous la forme "nom_du_fichier.ext". ".ext"
représente l’extension (c'est un moyen de reconnaître le type de programme avec lequel ce fichier
peut être ouvert)
Un fichier peut être une suite d'informations binaires, c'est-à dire une suite de 0 et de 1. Ce fichier
peut être stocké pour garder une trace d’informations.
Un fichier a généralement comme attributs : un nom ; un chemin d’accès ; une taille mesurée
en octets ; une date de création et une de dernière modification
Note : L’octet est une unité de mesure en informatique mesurant la quantité de données. Un octet
est lui-même composé de 8 bits, soit 8 chiffres binaires.
Le byte, qui est un ensemble de bits adjacents, a presque toujours une taille d'un octet. 210 octets
= 1024 octets 220 octets = 1024 Ko 230 octets = 1024 Mo Quelques extensions de fichiers 
p. 53
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Contenant du
texte .HTML .HTM .SHTM .SHTML .PHP .ASP .RTF .TXT .DOC .PDF .PS .EPS .TEX .DVI .
XLS
 Compression, archivage et encodage .ZIP .BIN .EXE .HQX .SIT .UUE .RAR  Les extensions
souvent recompressées .GZ .TAR .Z  Multimédia .PPT .PPS .DIR .SWF 
Images .PS .EPS .BMP .GIF .JPEG .JPG .TIFF .TIF
I.11. Notion de Répertoire et de chemin
Définition Un répertoire (appelé également dossier ou folder en anglais) est un objet
informatique pouvant contenir des fichiers. Un répertoire peut en effet contenir :
A. Des fichiers
B. D’autres répertoires (Sous répertoire)

On appelle «chemin» (en anglais path) la succession des répertoires en partant de la racine pour
atteindre un fichier. o Sous les systèmes MS DOS et Windows un chemin est de la forme : x:\
repertoire1\repertoire2\ o Sous un système Unix un chemin est de la forme
/repertoire1/repertoire2/

p. 54
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
Références bibliographies
Cours web
• Adam J.M., 2015, La gestion de la mémoire, Université de Lausanne.
• Beltrame G., 2018, INF1600 : Architecture des micro-ordinateurs (Mémoires – Mémoire
cache), Polytechnique Montréal.
• Cazes A., Delacroix J., 2011, Architecture des machines et des systèmes informatiques 4ème
édition, Collection : Informatique, Dunod.
• Dumartin T., 2004-2005, Architecture des ordinateur – Note de cours, Informatique
Industrielle.

• Essaddouki M., 2022, Généralités et algorithmique de base – Structure et fonctionnement


d’un ordinateur, développement informatique.
• Errami A., 2010-2011, Support du cours architecture des ordinateurs, Sup’Technology.
• Ghalouci L., 2015, Architecture de l’ordinateur-Voyage au centre de votre unité centrale,
Université d’Oran des Sciences et de la Technologie - Mohamed Boudiaf.
Sites web
• Cours de la Spécialité Numérique et Sciences Informatiques – Thème6 : Architecture
matérielles et systèmes d’exploitation, Consulter en 2020: http://portail.lyclamartiniere-
diderot.ac-lyon.fr/srv1/co/Div_6_Archi_OS.html Cours Architecture de l’ordinateur,
Consulter en 2019 :
https://rmdiscala.developpez.com/cours/LesChapitres.html/Cours1/Chap1.5.htm#
1.4 Histoire des machines, Consulter en 2019 :
http://aconit.inria.fr/omeka/exhibits/show/histoire-machines.1.html Liens vers
le microprocesseur MIPS R3000, Consulter en 2022 :
• ftp://132.227.86.9/pub/mips/mips.asm.pdf
• ftp://asim.lip6.fr/pub/mips/mips.externe.pdf
• ftp://asim.lip6.fr/pub/mips/mips.interne.pdf
p. 55
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
TABLE DE MATIERES

CHAPITRE I: CONCEPT THEORIQUE SUR LE FONCTIONNEMENT DE


L’ORDINATEUR ........................................................................................................... 2
CHAPITRE III : LA CARTE MERE ................................................................................... 2
CHAPITRE IV : LE DISQUE DUR ................................................................................... 2
CHAPITRE V: LES PORTS ET LES BUS ............................................................................ 2
PARTIE 2 ARCHITECTURE LOGIQUE ........................................................................... 2
p. 56
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
0. INTRODUCTION .................................................................................................. 3
CHAP. I: CONCEPT THEORIQUE SUR LE FONCTIONNEMENT DE L’ORDINATEUR .... 4
I.1 Notion ................................................................................................................. 4
I.2 HISTORIQUE DE L’ORDINATEUR ........................................................................ 5
I.3 ARCHITECTURE D’UN ORDINATEUR ................................................................. 5
I.3.1 ARCHITECTURE DE VON NEUMAN .............................................................. 5
I.3.2 ARCHITECTURE HARVARD ........................................................................... 6
CHAPITRE II : LE BOITIER ET L’ALLIMENTATION ........................................................ 9
II.1 Le boîtier ............................................................................................................. 9
II.1.1 La forme du boîtier : ....................................................................................... 9
II.1.2 LA VENTILATION ......................................................................................... 11
II.2 L’ALIMENTATION ............................................................................................. 11
II.2.1 ROLES ......................................................................................................... 12
II.2.2 FACTEURS D’ENCOMBREMENT DE L’ALIMENTATION ELECTRONIQUE ...
12
II.2.3 CONNECTEURS DE L’ALIMENTATION ....................................................... 13
II.2.4 PUISSANCE DE L’ALIMENTATION ............................................................. 13
II.2.5 GESTION D’ENERGIE ................................................................................. 14
CHAPITRE III : LA CARTE MERE ................................................................................. 15
III.1 INTRODUCTION ............................................................................................. 15
III.2 Description des facteurs d’encombrement des cartes mère .................................. 15
III.3 Principales caractéristiques d’une carte mère ...................................................... 15
III.4 Paramétrage ..................................................................................................... 15
III.5 Les supports processeurs (CPU : Central Processing Unit) ....................................
16 III.6 La carte mémoire .............................................................................................. 17
III.7 Les barrettes mémoires...................................................................................... 18
III.8 La carte graphique ............................................................................................ 23
III.9 La carte réseau .................................................................................................. 26
III.9.1 NOTION .................................................................................................... 26

p. 57
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
III.9.2 ROLE DE LA CARTE RESEAU ...................................................................... 26
III.9.3LE ROLE D’IDENTIFICATEUR ...................................................................... 27
III.9.4ENVOI ET CONTROLE DES DONNEES ........................................................ 27
III.9.5 SORTE DES CARTES RESEAUX .................................................................... 27
III.10 AUTRES ELEMENTS DE LA CARTE MERE ........................................................ 28
1. LA CARTE SON : PRESENTATION ET PRINCIPE DE FONCTIONNEMENT .........
28
2. Le DSP ........................................................................................................... 28
3. Les connecteurs internes ................................................................................. 30
Optimiser le BIOS ................................................................................................. 31
CHAPITRE IV : LE DISQUE DUR ................................................................................. 38
IV.1 Introduction ..................................................................................................... 38
IV.2 La capacité ....................................................................................................... 39
IV.3 La vitesse de rotation ........................................................................................ 40
IV.4 La mémoire cache ............................................................................................ 42
............................................................................................................................... 43
IV.5 La taille du disque dur ...................................................................................... 43
IV.7 Les interfaces du disque dur .............................................................................. 44
IV.7 La carte son : présentation et principe de fonctionnement ................................. 46
............................................................................................................................... 47
IV.8 LE MODEM ..................................................................................................... 48
............................................................................................................................... 48
IV.10 Etude de quelques cas ..................................................................................... 49
CHAPITRE V: LES PORTS ET LES BUS .......................................................................... 50
V.1 Les bus............................................................................................................... 50
Définition : le bus est un ensemble des fils qui permettent le transfert des données entre les
différents composants. ........................................................................................ 50
V.2 les ports ............................................................................................................ 51
PARTIE 2 ARCHITECTURE LOGIQUE ......................................................................... 53
SECTION 1 : INTRODUCTION ................................................................................... 53
p. 58
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data
1.1 Représentation des données ................................................................................ 53
1.1.1 Introduction .................................................................................................. 53
2 : LE CODAGE DES INFORMATIONS ........................................................................ 54
2.1 Représentation de l’information ......................................................................... 54
2.1.1 Information .................................................................................................. 54
2.1.2 Représentation des nombres ......................................................................... 54
2.2 Conversion ........................................................................................................ 54
3.1. Différentes configurations de bits en mémoire centrale .................................... 56 a) Le
système décimal codé binaire (DCB) ........................................................... 56

b) Code à 6 bits ou sextet ................................................................................... 57


c) Code à 7 bits ou ASCII ................................................................................... 57
d) Code à 8 bits ou octet .................................................................................... 57
2.3 Représentation en virgule fixe ............................................................................ 59
2.3.1 Nombres sans signe ..................................................................................... 59
2.3.2 Nombres avec signe .................................................................................... 59
2.3.3 Représentations en "virgule flottante" .......................................................... 60
2.7 Arithmétique binaire .......................................................................................... 61
2.7.1 Nombres en binaire, sans signe ..................................................................... 61
2.7.2. Nombres en complément à 2 ...................................................................... 63
2.7.3. Nombres en DCBN compacte ..................................................................... 64
2.8 Représentation des caractères ............................................................................. 65
Sites web ................................................................................................................. 67

p. 59
Ir. Placide MULANGUA TSHIONA Doctorant en Big-data

Vous aimerez peut-être aussi