Vous êtes sur la page 1sur 42

Dr.

Médard-Sylvain OVONO
Diplômé en Electrotechnique de l’ENSET (Gabon)
Diplômé en Informatique Appliquée aux SE de l’ULB. (Belgique)
Docteur en S.E, didactique de l’Informatique (Algorithmique) d’AMU. (France)

SYLLABUS DE COURS
INFORMATIQUE GENERALE 1
Code : 3ESB1103

Syllabus strictement réservé aux étudiants, toute reproduction sans l’accord de l’auteur est interdite.1
HISTORIQUE

L’ordinateur, cette machine à calculer moderne, est l’aboutissement d’une longue série de
perfectionnements qui s’échelonnent sur plusieurs siècles.
A l’origine, on trouve la machine la plus élémentaire : LE BOULIER CHINOIS, qui apparaît environ 2
500 avant notre ère. Il est constitué d’un certain nombre de boules pouvant être déplacées le long de
tiges parallèles. Il permet d’effectuer des opérations arithmétiques élémentaires.
On peut situer la naissance d’une véritable machine à calculer en 1642, lorsque Blaise Pascal, dans le
but de simplifier la tâche de son père, commissaire pour la levée des impôts en Normandie, invente la
machine arithmétique « LA PASCALINE ». Le but de Pascal était de rendre mécanique l’opération
d’addition et en particulier le « report », source fréquente d’erreurs, grâce à un système de roues
dentées munies d’ergots.
Au 17ème siècle toujours, Claude Perrault invente un boulier dont le report se fait automatiquement et
le mathématicien allemand Gottfried Wilhem Leibniz conçoit une machine permettant de faire les
quatre opérations par l’intermédiaire de roues à pignons.
Au cours du 19ème siècle quelques nouvelles inventions voient le jour : l’arithmomètre de Thomas de
Colmar conçu à partir des idées de Leibniz (1820), la machine à curseur du suédois Odhner (1875), le
comptomètre à clavier de l’américain Felt (1885). Toutes ces machines étaient capables d’effectuer les
quatre opérations arithmétiques.
L’ancêtre des calculateurs modernes a été conçu par le mathématicien anglais Charles Babbage (entre
1820 et 1834). On y trouvait, en effet, les trois éléments essentiels de nos calculateurs, à savoir : un
organe d’introduction de données, un organe de sortie des résultats et un organe de calcul et de contrôle.
L’introduction de données se faisait soit par cartes perforées, soit par des cadrans. La sortie des
résultats se faisait aussi soit par cartes perforées, soit par l’intermédiaire du cadran, soit par
l’impression sur papier. L’organe de calcul utilisait des dispositifs mécaniques et une mémoire était
réalisée par l’intermédiaire de roues dentées. Les opérations à effectuer étaient, elles aussi, introduite
à l’aide de cartes perforées, ce qui rendait le traitement automatique.
En 1890 le statisticien américain Hermann Hollerith, afin de permettre le dépouillement plus rapide
du recensement de la population américaine met au point une machine électromécanique. Puis il
fonde en 1896 la « Tabulating Machine Company ». C’est aussi lui qui introduit le format standard de
cartes perforées dont les dimensions sont celles du billet d’un dollar de l’époque.
Thomas Watson construit en 1911 la machine à cartes perforées dont un premier modèle avait été
réalisé par l’ingénieur américain Powers en 1907. Watson reprendra en 1924 la « Tabulating Machine
Company » pour fonder la firme IBM (International Business Machine).
Parallèlement, en 1924 également, une machine électromagnétique à cartes perforées est conçue par
l’ingénieur norvégien Bull dont les brevets sont exploités par les français qui créent en 1931 la
« Compagnie des Machines Bull ».
Les besoins des mathématiciens, des physiciens nucléaires, la mise au point de la bombe atomique
pendant la deuxième guerre mondiale ainsi que le déchiffrement des messages codées ennemis vont
intensifier les recherches sur les machines à calculer. Dans les années 30, à l’Université de Harvard,
Howard AIKEN conçoit, sur les idées de Babbage, la « Automatic Sequence Controlled Computer Mark
I », elle fonctionnera en 1944. On enregistre à cette époque un temps de calcul de l’ordre de 1/3 de
seconde pour l’addition, 6 secondes pour la multiplication et 11 secondes pour la division.
En 1940, la Compagnie Bull réalise un autre équipement utilisant toujours la technique des relais
électromagnétiques dans les organes de commande et de calcul.
De 1945 à 1946, à l’Université de Pennsylvanie, Presper Eckert et John Mauchly mettent au point
l’ENIAC. Cette machine permet de diviser les temps de calcul par 1000 mais présente l’inconvénient
d’un trop grand encombrement (270 m3 – 30 tonnes).
Deux idées nouvelles vont alors modifier la conception des machines mises au point à cette époque
(machines dites de la première génération). Les instructions, au lieu d’être exécutées au fur et à
mesure de leur introduction en machine, vont être soumises en bloc et conservées en mémoire, d’où
elles seront traitées les unes après les autres pour être exécutées.
2
Le système décimal utilisé jusqu’alors va céder la place au système binaire. Ces deux innovations sont
dues au professeur John Von Neumann de l’Université de Princeton (1947). L’EDVAC de l’Université
de Pennsylvanie et L’EDSAC à l’Université de Cambridge étaient fondés sur ces deux principes.
Les innovations technologiques vont, dès 1959, permettre une diminution du volume des
équipements, de la consommation électrique et du dégagement de chaleur. C’est l’époque où
apparaissent les mémoires à tores de ferrite1, les transistors2, les circuits imprimés3 et de nouveaux
supports des informations, les bandes et tambours magnétiques (calculateurs de la 2 ème génération).
Les vitesses de traitement et les capacités des mémoires s’en trouvent considérablement augmentées.
Ces perfectionnements donnent aux « ordinateurs » (néologisme français imaginé par IBM-France
pour traduire le mot anglais « computer ») une plus grande sûreté de fonctionnement, une facilité
d’emploi permettant d’assurer des tâches de plus en plus vastes par un nombre plus important
d’utilisateurs.
Dès 1963, une nouvelle étape dans la miniaturisation des équipements est franchie (3 ème génération).
Les circuits intégrés4 remplacent progressivement les circuits imprimés. On voit apparaître des mini-
et des micro-ordinateurs dont les coûts de plus en plus réduits permettent une plus grande diffusion
au sein des entreprises. On dépasse actuellement des vitesses d’exécution de l’ordre de quelque
dizaine de picosecondes (=10-12).

1
Tores de ferrite : un tore (anneau) de ferrite (composé d’oxydes métalliques) est susceptible d’être magnétisé dans les deux sens
opposés, sens que l’on peut représenter par 0 et 1, les deux chiffres du système de numération binaire.
2
Transistor : dispositif constitué principalement de semi-conducteur (sélénium, silicium et surtout germanium). Le mot transistor vient
de l’expression TRANsfer reSISTOR et a été utilisé par J. Bardeen et W.H. Brattain de la « Bell Telephone » pour désigner le dispositif
qu’ils avaient conçu.
3
Circuits imprimés : Circuits comportant un ensemble d’éléments (résistances, condensateurs…) qui sont connectés entre eux.
4 Circuits intégrés : les éléments et les connections d’un circuit imprimé sont cette fois introduits dans de petits morceaux de semi-

conducteurs.
3
Quelques dates importantes dans histoire des supports, représentations et manipulations de
l’information

? Concept de nombre
-12000 Ecriture sur tablette d’argile (Tchécoslovaquie)
-3000 Tablette d’argile en comptage (Mésopotamie), Papyrus (Egypte)
-2600 Abaque (Chine)
-1800 Numération de position (Mésopotamie)
-400 Table de comptage (Grèce)
-200 Papier (Chine)
-100 Tablette de cire (Grèce et Rome)
400 Parchemin (Europe)
1440 Imprimerie par caractères mobiles (Gutenberg)
1621 Règle à calcul (Oughtred)
1642 Machine à additionner (Pascal)
1671 Machine à calculer (Leibniz)
1686 Crayon
1728 Métier à tisser guider par carte perforées
1820 Analycal engine (Babbage)
1828 Porteplume
1868 Machine à écrire
1890 Trieuse et tabulatrice à cartes perforées (Hollerith)
1907 Lampe triode (de Forest)
1919 Relais électrique
1944 Mark I (Aiken)
1946 ENIAC (Mauchly et Eckert)
1948 Premier programme enregistré (sur Mark II), Transistor
1949 Tambour magnétique
1950 Bande magnétique
1951 Tore de ferrite
1953 Circuit imprimé, 1er ordinateur commercial (1er génération)
1956 FORTRAN (Formula Translator)
1959 Ordinateur de la 2nd génération, circuit intégré, COBOL (Common Bisiness Oriented
Language)
1962 Microprocesseur, Calculatrice électronique de poche
1964 Ordinateur de la 3ème génération
1965 BASIC (Beginner’s All-purpose Symbolic Instruction Code)
1967 Mémoire à bulles
1968 PASCAL
1970 Disque magnétique souple
1977 Microordinateur individuel

4
ARCHITECTURE DE BASE D’UN ORDINATEUR

GENERALITES

Les deux principaux constituants d’un ordinateur sont la mémoire principale et le


processeur. La mémoire principale (MP en abrégé) permet de stocker de l’information
(programmes et données), tandis que le processeur exécute pas à pas les instructions
composant les programmes.

NOTION DE PROGRAMME
Un programme est une suite d’instructions élémentaires, qui vont être exécutées dans
l’ordre par le processeur. Ces instructions correspondent à des actions très simples,
comme additionner deux nombres, lire ou écrire une case mémoire, etc. Chaque
instruction est codifiée en mémoire sur quelques octets.
Le processeur est capable d’exécuter des programmes en langage machine, c’est-à-
dire composés d'instructions très élémentaires suivant un codage précis. Chaque type
de processeur est capable d’exécuter un certain ensemble d’instructions, son jeu
d’instructions. Pour écrire un programme en langage machine, il faut donc connaître
les détails du fonctionnement du processeur qui va être utilisé.

I-ARCHITECTURE D’UN ORDINATEUR

I.1. LE PROCESSEUR

Le processeur est un circuit électronique complexe qui exécute chaque instruction très
rapidement, en quelques cycles d'horloges. Toute l’activité de l’ordinateur est cadencée
par une horloge unique, de façon à ce que tous les circuits électroniques travaillent
ensembles.
La fréquence de cette horloge s’exprime en MHz (millions de battements par seconde).
Par exemple, un ordinateur “PC Pentium 133” possède un processeur de type Pentium et
une horloge à 133 MHz.
Pour chaque instruction, le processeur effectue schématiquement les opérations
suivantes :
1. Lire en mémoire (MP) l'instruction à exécuter ;
2. Effectuer le traitement correspondant ;
3. Passer à l’instruction suivante.

Le processeur est divisé en deux parties, l’unité de commande et l’unité de traitement :


- l’unité de commande est responsable de la lecture en mémoire et du décodage des
instructions ;
- l’unité de traitement, aussi appelée Unité Arithmétique et Logique (U.A.L.), exécute les
instructions qui manipulent les données.

5
I.2. LA MÉMOIRE PRINCIPALE (MP)

I.2.1. STRUCTURE DE LA MÉMOIRE PRINCIPALE (MP)

La mémoire est divisée en emplacements de taille fixe (par exemple 8 bits) utilisés pour
stocker instructions et données.
En principe, la taille d’un emplacement mémoire pourrait être quelconque ; en fait, la
plupart des ordinateurs en service aujourd'hui utilisent des emplacements mémoire d’un
octet (byte en anglais, soit 8 bits, unité pratique pour coder un caractère par exemple).

Dans une mémoire de taille N, on a N emplacements mémoires, numérotés de 0 à N-1.


Chaque emplacement est repéré par son numéro, appelé adresse. L'adresse est le plus
souvent écrite en hexadécimal.

La capacité (taille) de la mémoire est le nombre d’emplacements, exprimé en général


en kilo-octets ou en méga-octets, voire davantage. Rappelons que le kilo informatique
vaut 1024 et non 1000 (210= 1024 = 1000). Voici les multiples les plus utilisés :
1 K (kilo) 210 = 1024
1 M (mega) 220= 1048 576
1 G (giga) 230 = 1 073 741 824
1 T (tera) 240 = 1 099 511 627 776

6
I.2.2. OPÉRATIONS SUR LA MÉMOIRE

Seul le processeur peut modifier l’état de la mémoire. Chaque emplacement mémoire


conserve les informations que le processeur y écrit jusqu’à coupure de l'alimentation
électrique, où tout le contenu est perdu (contrairement au contenu des mémoires
externes comme les disquettes et disques durs).

Les seules opérations possibles sur la mémoire sont :

- Écriture d’un emplacement : le processeur donne une valeur et une adresse, et la


mémoire range la valeur à l’emplacement indiqué par l'adresse ;
- Lecture d’un emplacement : le processeur demande à la mémoire la valeur contenue
à l'emplacement dont il indique l’adresse. Le contenu de l’emplacement lu reste
inchangé.

NB : Sur certains ordinateurs, les contrôleurs d’entrées /sorties peuvent accéder


directement à la mémoire (accès DMA), mais cela ne change pas le principe de
fonctionnement.

I.2.3. UNITÉ DE TRANSFERT

Notons que les opérations de lecture et d'écriture portent en général sur plusieurs octets
contigus en mémoire : un mot mémoire. La taille d'un mot mémoire dépend du type de
processeur ; elle est de :

-1 octet (8 bits) dans les processeurs 8 bits (par exemple Motorola 6502) ;

- 2 octets dans les processeurs 16 bits (par exemple Intel 8086) ;

- 4 octets dans les processeurs 32 bits (par ex. Intel 80486 ou Motorola 68030).

I.3. LE PROCESSEUR CENTRAL (CPU)

Le processeur est parfois appelé CPU (de l’anglais Central Processing Unit) ou encore MPU
{Micro-Processing Unit) pour les microprocesseurs.

Un microprocesseur n’est rien d'autre qu’un processeur dont tous les constituants sont
réunis sur la même puce électronique (pastille de silicium), afin de réduire les coûts de
fabrication et d'augmenter la vitesse de traitement. Les microordinateurs sont tous
équipés de microprocesseurs.

L’architecture de base des processeurs équipant les gros ordinateurs est la même que
celle des microprocesseurs.

I.3.1. LES REGISTRES ET L’ACCUMULATEUR

Le processeur utilise toujours des registres, qui sont des petites mémoires internes très
rapides d'accès utilisées pour stocker temporairement une donnée, une instruction ou une
adresse. Chaque registre stocke 8, 16 ou 32 bits.

Le nombre exact de registres dépend du type de processeur et varie typiquement entre


une dizaine et une centaine.

7
Parmi les registres, le plus important est le registre accumulateur, qui est utilisé pour stocker
les résultats des opérations arithmétiques et logiques. L'accumulateur intervient dans une
proportion importante des instructions.
Par exempte, examinons ce qu’il se passe lorsque le processeur exécute une instruction
comme "Ajouter 5 au contenu de ta case mémoire d’adresse 180" :

1. Le processeur lit et décode l'instruction :

2. Le processeur demande à la mémoire le contenu de l'emplacement 180 ;

3. La valeur lue est rangée dans l'accumulateur ;

4. L’unité de traitement (UAL) ajoure 5 au contenu de l'accumulateur ;

5. Le contenu de l’accumulateur est écrit en mémoire à l’adresse 180.

C’est l'unité de commande (voir figure suivante) qui déclenche chacune de ces
actions dans l’ordre. L'addition proprement dite est effectuée par l'UAL.

I.3.2. ARCHITECTURE D’UN PROCESSEUR À ACCUMULATEUR

La figure suivante représente l'architecture interne simplifiée d'un MPU à accumulateur.


On y distingue l'unité de commande. L’UAL et le décodeur d'instructions, qui, à partir du
code de l’instruction lu en mémoire actionne la partie ce l'unité de commande
nécessaire.

Le processeur est relié à l'extérieur par les bus de données et d'adresses, le signal d'horloge
et les signaux de commandes

8
Les informations circulent à l'intérieur du processeur sur deux bus internes, l’un pour les
données, l'autre pour les instructions.

On distingue les registres suivants :


ACC : Accumulateur ;

RTUAL : Registre Tampon de l'UAL, stocke temporairement l'un des deux opérandes d’une
instruction arithmétique (la valeur 5 dans l'exemple donné plus haut) ;

Reg. d’état : stocke les indicateurs ;

RI : Registre Instruction, contient le code de l’instruction en cours d’exécution (lu en


mémoire via le bus de données) :

IP : Instruction Pointer ou Compteur de Programme, contient l'adresse de remplacement


mémoire où se situe la prochaine instruction à exécuter ;

RTA : Registre Tampon d'Adresse, utilisé pour accéder à une donnée en mémoire.

Les signaux de commandes permettent au processeur de communiquer avec les autres


circuits de l’ordinateur. On trouve en particulier le signal R/W (Read/Write), qui est utilisé
pour indiquer à la mémoire principale si l’on effectue un accès en lecture ou en écriture.

I.3.3. LIAISONS PROCESSEUR-MÉMOIRE ; LES BUS

Les informations échangées entre la mémoire et le processeur circulent sur des bus. Un
bus est simplement un ensemble de n fils conducteurs, utilisés pour transporter n signaux
binaires.
Le bus d'adresse est un bus unidirectionnel : seul le processeur envoie des adresses.
Il est composé de a fils ; on utilise donc des adresses de a bits. La mémoire peut posséder
au maximum 2a emplacements (adresses 0 à 2a -1).

Le bus de données est un bus bidirectionnel. Lors d’une lecture, c’est la mémoire qui
envoie un mot sur le bus (le contenu de remplacement demandé) ; lors d'une écriture,
c'est le processeur qui envoie la donnée.

9
II- LES ENTREES / SORTIES

Les ordinateurs sont utilisés pour traiter et stocker des informations. Nous avons jusqu'ici
décrit le fonctionnement du processeur et la mémoire principale. Nous allons maintenant
étudier comment un ordinateur peut échanger de l’information avec son environnement
; ces échanges d'informations sont nommés entrées/sorties (ou I/O, Input/Output en
anglais).

Les techniques d'entrées/sorties sont très importantes pour les performances de


l’ordinateur. Rien ne sert d’avoir un processeur calculant très rapidement s’il doit souvent
perdre son temps pour lire des données ou écrire ses résultats.
Durant une opération d'entrée/sortie, de l’information est échangée entre la mémoire
principale et un périphérique relié à l’ordinateur. Cet échange nécessite une interface ou
contrôleur, circuit électronique gérant la connexion. L’interface réalise des fonctions plus
ou moins complexes suivant le type de périphérique. Son but est surtout de décharger le
processeur pour améliorer les performances du système.

II.1. LES BUS DU PC

Nous avons dans les chapitres précédents décrits de façon simplifiée les bus reliant le
processeur à la mémoire principale. Nous avons distingué le bus d'adresse, le bus de
données et le bus de commandes (signaux de commandes type R/W).

En fait, la plupart des échanges d'informations dans l’ordinateur se font sur des bus :
connexions processeur/mémoire, mais aussi connexions entre le processeur et les
interfaces d'entrées sorties. Il existe une grande variété de bus ; chacun est caractérisé
par sa largeur (nombre de bits) et sa fréquence (nombre de cycles par secondes, en
Méga-Hertz).

II.1.1. BUS LOCAL

Le bus local est le bus le plus rapide, sur lequel sont directement connectés le processeur
et la mémoire principale. Il regroupe un bus de données un bus d’adresse et de signaux
de commandes.
Le bus local est aussi relié aux contrôleurs des bus d’extensions, et parfois à des contrôleurs
de mémoire cache.

II.1.2. BUS D’EXTENSION DU PC

Les bus d'extensions (ou bus d’entrés/sorties) permettent de connecter au PC des


contrôleurs d’extensions (cartes) grâce à des connecteurs spéciaux (slots sur la carte
mère).
Les contrôleurs d'extensions sont utilisés pour relier le PC aux périphériques
d’entrées/sorties. Depuis l’apparition du PC au début des années 80, plusieurs standards
de bus d'extension ont étés proposés : ISA, MCA, EISA...

10
Le bus d’extension ISA (Industry Standard Architecture) est le plus répandu sur PC. De
fréquence relativement basse et de caractéristiques peu puissantes, il est utilisé pour con-
necter des cartes relativement lentes (modems, cartes sons, ...).

Les principales caractéristiques du bus ISA (PC-AT) sont : 16 bits de données, 24 bits
d’adresse, 16 lignes d'interruption, fréquence 8 MHz.

II.1.3. BUS LOCAL PCI

Les périphériques d’entrées/sorties “modernes” demandent des transferts d’information


très importants entre la mémoire principale [MP) et le contrôleur. Par exemple, une carte
graphique SVGA récente possède une mémoire vidéo de 1 à 8 Mo, et met en œuvre des
transferts entre cette mémoire et la MP à 60 Mo/s.

Pour permettre de tels débits, il est nécessaire de connecter le contrôleur de périphérique


directement sur le bus local. Le contrôleur bénéficie ainsi du haut débit de ce bus ; de
plus, il peut en prendre le contrôle pour effectuer des transferts directement avec la MP
sans passer par le processeur.

Le premier bus PC basé sur ces principes a été te bus VLB [VESA Local Bus), qui est
actuellement remplacé par le bus PCI (Peripheral Comportent interface).

Le bus PCI équipe la grande majorité des PC récents. Notons qu'il n'est pas réservé au
processeur INTEL, puisqu’il est aussi utilisé sur les Macintosh à base de processeurs
PowerPC. Le principe du bus PCI est justement de dissocier le processeur et les bus.

Cette séparation permet d’utiliser une fréquence de bus différente de celle du processeur
et facilite l’évolution des machines.

Les caractéristiques du bus PCI sont : 32 ou 64 bits de données, 32 bits d'adresse,


fréquence de 33 MHz. Il permet de débits de 132 Mo/s en 32 bits, ou 264 Mo/s en 64 bits.

11
La figure ci-dessus représente l’architecture d'un PC avec bus PCI.

Le contrôleur PCI est la plupart du temps intégré sur la carte mère (il s’agit d'un circuit
intégré complexe dont les performances sont cruciales pour celles du PC).

Les connecteurs (slot) PCI sont réservés aux périphériques demandant de hauts débits :
cartes vidéo, contrôleurs SCSI, cartes réseaux haut débit.

III- LES MEMOIRES

Nous revenons dans cette partie sur les différents types de mémoires utilisés dans les
ordinateurs. Nous nous intéressons au fonctionnement des mémoires vives (ou volatiles],
qui ne conservent leur contenu que lorsqu’elles sont sous tension.

Ce type de mémoire est souvent désigné par l'acronyme RAM, Random Access Memory,
signifiant que la mémoire adressable par opposition aux mémoires secondaires
séquentielles comme tes bandes. Nous mentionnerons aussi différents types de mémoires
mortes, qui sont des circuits accessibles uniquement en lecture (ROM, Read Only
Memory).

III.1. MÉMOIRE VIVE

La mémoire vive (RAM) est utilisable pour écrire ou lire des informations. Elle constitue la
plus grande partie de la mémoire principale d'un ordinateur.

III.1.1. TECHNOLOGIE DES MÉMOIRES VIVES

On peut réaliser des mémoires RAM avec deux technologies différentes, les RAM
dynamiques (DRAM), et les RAM statiques (SRAM).

12
III.1.2. MÉMOIRES VIVES DYNAMIQUES (DRAM)

Ce type de mémoire est très utilisé car peu coûteux.

Les boîtiers de mémoire dynamique enferment une pastille de silicium sur laquelle sont
intégrées un très grand nombre de cellules binaires. Chaque cellule binaire est réalisée à
partir d'un transistor relié à un petit condensateur. L’état chargé ou déchargé du
condensateur permet ae distinguer deux états (bit 0 ou bit 1).

L’inconvénient de cette technique simple est que 1e condensateur se décharge seul au


cours du temps (courants de fuite). Il est donc nécessaire de rafraîchir tous les
condensateurs du boîtier périodiquement, environ 1000 fois par seconde. Cette opération
est effectuée chaque cellule et le réécrit, ce qui recharge le condensateur. Notons que
cette opération empêche l'accès à une cellule mémoire durant quelques cycles
d'horloge.

Les mémoires DRAM sont utilisées en informatique, mais leur usage se répond aussi pour
des objets grand public, comme la télévision numérique. Les boitiers sont fabriqués en très
grandes séries dons des usines spécialisées, qui demandent des investissements énormes
(une nouvelle chaîne de fabrication coûte de l’ordre d'un milliard de dollars).

Lorsque des usines de nouvelle génération sont mises en service, les prix des mémoires
baissent dans le monde entier. La demande de mémoires augmentant sans cesse, les prix
remontent, avant la construction de nouvelles usines, etc. Les prix des mémoires subissent
ainsi des cycles économiques.

On trouve des boitiers DRAM de 256k x 1 bit, 256k x 4bits, 1M x I bit, 16M x 4bits...

III.1.3. MÉMOIRES VIVES STATIQUES (SRAM)

Les mémoires statiques n'utilisent pas de condensateurs : chaque cellule binaire est
réalisée à l’aide de 4 transistors formant un bistable, circuit restant d'un Létal 0 ou 1 tant
qu’il est alimenté électriquement.

Les SRAM permettent des temps d’accès plus court que les DRAM, mais sont plus
coûteuses car leur construction demande 4 fois plus de transistors que tes DRAM.

Les SRAM sont utilisées lorsque Lan désire maximiser les performances, par exemple pour
construire des mémoires caches.

Notons aussi l'existence des boitiers SRAM CMOS, caractérisé par leur très faible
consommation en énergie : une petite pile électrique suffit à tes maintenir en activité
plusieurs années. Ces mémoires, de petite capacité, sont utilisées par exempte dans
certains agendas électroniques pour te grand public.

III.1.4. LES MODULES DE MEMOIRE SIMM

Les modules SIMM Single In-line Memory Module sont des groupes de boîtiers de mémoires
dynamiques montés sur un circuit imprimé rectangulaire allongée, appelé barrette.
Chaque barrette SIMM offre une capacité importante (1 à 16 Mo, voir le giga), et s'entiche
sur des connecteurs prévus à cette effet sur la carte mère de l'ordinateur.

13
Les barrettes SIMM, utilisées au départ sur les stations de travail et les Macintosh, équipent
aujourd’hui tous les PC.

III.2. LES MÉMOIRES MORTES

Les mémoires mortes ne sont normalement accessibles qu’en lecture. On distingue diffé-
rents types de circuits de mémoires mortes :

ROM : circuit intégré dont le contenu est déterminé une fois pour toute au moment de la
fabrication.

Le coût relativement élevé de leur fabrication impose une fabrication en grandes séries,
ce qui complique lo mise à jour de leur contenu. Au départ, ces mémoires étaient utilisées
pour stocker les parties bas niveau du système d'exploitation de l’ordinateur (BIOS du PC
par exemple).

PROM (Programmable ROM) : Alors que la mémoire ROM est enregistrée de manière
irréversible lors de sa fabrication, la mémoire PROM est configurée par l'utilisateur en
utilisant un programmateur de PROM, utilisé pour enregistrer son contenu. Le circuit PROM
ne peut plus être modifié par la suite.

EPROM (Erasable PROM) : Les mémoires EPROM sont des PROM reconfigurables : il est
possible de les effacer pour les reprogrammer. L'effacement se produit en exposant le
boitier à un fort rayonnement ultraviolet (UV). Pour cela, le boîtier est percé d'une fenêtre
transparente permettant l'exposition du circuit intégré. L’opération d’effacement
nécessite de retirer l’EPROM de son support et entraîne sont immobilisation pendant
environ 30 minutes.

EEPROM (Electricaly Erasable PROM) : Même principe qu’une EPROM, mais l'effacement
se fait à l'aide de signaux électriques, ce qui est plus rapide et pratique.

FLASH EPROM Les mémoires FLASH sont similaires aux mémoires EEPROM, mais
l’effacement peut se faire sélectivement par blocs et ne nécessite pas le démontage du
circuit. Le temps d'écriture d’un bloc de mémoire FLASH est beaucoup plus grand que
celui d'écriture d'une mémoire RAM, mais du même ordre que celui d'un disque dur.

L’accès en lecture à une EEPROM est à peu près aussi rapide qu’a un DRAM. On utilise
donc parfois des cartes de mémoire FLASH comme mémoire secondaires, par exemple
pour les ordinateurs portables.

14
III.3. MÉMOIRES CACHES

III.3.1. HIERARCHIE MÉMOIRE

Chacun des différents types de mémoires primaires et secondaires que nous avons décrits
est caractérisé par un temps d’accès et une capacité caractéristique. Plus l'on s'éloigne
du processeur, plus la capacité et le temps d'accès augmentent :

Taille Temps d'accès

Registres du processeur 10 octets 10-8 s

Mémoire principale 106 octets 10-7 s

Disque dur 109 octets 10-2 s

On constate que le processeur est nettement plus rapide que la mémoire principale.

Dans les premières parties de ce cours, nous avons supposé pue presque chaque
instruction du processeur effectuait un accès, en lecture ou en écriture à la mémoire
principale. Si c’était réellement le cas, te processeur passerait la majeure partie de son
temps à attendre les accès mémoire, et l'on n’utiliserait pas pleinement ses possibilités.

III.3.2. PRINCIPE GÉNÉRAL DES MÉMOIRES CACHES

L'introduction de mémoires caches peut pallier à ce problème. L’idée est d’intercaler


entre te processeur et la mémoire principale un circuit de mémoire statique, plus rapide
que la mémoire dynamique constituant la mémoire principale mais de petite taille. Dans
cette mémoire, on va essayer de garder les informations normalement en mémoire
principale dont te processeur se sert te plus souvent à un instant donné.

15
III.3.3. EFFICACITE D’UN CACHE : PRINCIPE DE LOCALITÉ

L'utilisation d’une mémoire coche n'est efficace que s’il arrive fréquemment qu'un mot
demandé par le processeur se trouve déjà dans te cache.

Nous avons vu, sans entrer dans les détails, qu'une donnée entrait dans te cache
lorsqu'elle était lue en mémoire principale. Le premier accès à une donnée est donc lent,
mais les accès suivants à la même adresse vont être plus rapides.

On conçoit aisément que plus le programme que l’on exécute fait des accès mémoires
variés, moins le cache sera efficace.

Rappelons que le processeur effectue deux types d’accès mémoires : lecture des
instructions, et lecture (ou écriture) des données. Les accès aux instructions sont toujours
différents (on passe à chaque fois à l’adresse de l'instruction suivante), sauf lorsque te
programme effectue des répétitions (boucles), ce qui se produit en fait très fréquemment
(les longs calculs sont souvent effectués par répétition d’une suite d’instructions assez
courte).

Les accès aux variables se répètent eux aussi fréquemment (les variables locales d’une
fonction par exemple sont souvent accédées chacune un grand nombre de fois).

On appelle localité d'un programme sa tendance à effectuer des accès mémoires


répétés : cette tendance augmente le gain de vitesse apporté par 1e cache.

16
II-FONCTIONNEMENT DES ORDINATEUR
Il paraît essentiel de retenir qu'un ordinateur permet de manipuler rapidement et sans
erreur un grand nombre d’informations.
En fait, les procédés utilisés par ordinateur sont fort proches de la façon dont travaille un
opérateur humain. Ainsi, dans l’accomplissement d'une tâche, un ordinateur fonctionne
comme un employé (un homme) qui exécute fidèlement les instructions de son chef.
Remarque :
1- L'écriture sur une mémoire impose l'effacement préalable de son contenu initial.
En effet, ce mode d'exécution est typique à celui de la mémoire d’un ordinateur,
son contenu peut être modifié à la guise du programmeur.
2- La résolution d’un problème par un ordinateur impose sa décomposition en
opérations élémentaires. L’ordinateur opère généralement de cette manière en
se servant de programme de traduction (assembleurs- compilateurs).
3- Un ordinateur commence par recopier les instructions sur une mémoire qui servira
aussi pour les résultats intermédiaires. Une mémoire peut contenir à la fois des
données et des instructions.
A ce niveau, il est important d'introduire deux notions essentielles :
1- Résoudre un problème général à l’aide d'une machine ne peut se faire que s’il a
été préalablement décomposé en problèmes plus simples, résolubles par la
machine, se présentant sous la forme d’une suite d’opérations à exécuter les unes
à la suite des autres sans intervention extérieure.
On appelle algorithme une telle succession d’opérations permettant d’obtenir un
résultat escompté de façon automatique.
2- Pour être compréhensible par l’ordinateur un algorithme doit être formalisé. Il doit
être traduit et transcrit avec des codes et des termes réservés à cet usage. On
parle d’écriture de programme dans un langage précis.
Deux types d’erreurs sont possibles :
1- Utilisation d’un terme inconnu, on parle d'erreur syntaxique
2- L’exécution ne fournit pas le résultat attendu : C’est l'erreur logique.

II-1. REPRESENTATION DES DONNEES

II.1.1-LES SYSTEMES DE NUMERATION


Les informations traitées par un ordinateurs peuvent être de différents types (texte,
nombres, etc.) mais elles sont toujours représentées et manipulées par l’ordinateur sous
forme binaire. Toute information sera traitée comme une suite de 0 et de 1. L’unité
d’information est le chiffre binaire (0 ou 1), que l’on appelle bit (pour binary digit, chiffre
binaire).
Le codage d’une information consiste à établir une correspondance entre la
représentation externe (habituelle) de l’information (le caractère A ou le nombre 36 par
exemple), et sa représentation interne dans la machine, qui est une suite de bits.
17
La base est le nombre qui sert à définir un système de numération.
La base du système décimal est dix alors que celle du système octal est huit. Quel que soit
la base numérique employée, elle suit la relation suivante :

𝒊=𝒏

∑ 𝒃𝒊 𝒂𝒊 = 𝒃𝒊 𝒂𝒏 + ⋯ + 𝒃𝟐 𝒂𝟐 + 𝒃𝟏 𝒂𝟏 + 𝒃𝟎 𝒂𝟎
𝒊=𝟎

Avec :
bi : chiffre de la base de rang i
ai : puissance de la base a d'exposant de rang i

Exemple : base 10
1986= (1 x 103) + (9x 102) + (8x 101) + (6x10°)

A- LE SYSTÈME DÉCIMAL

Le système décimal est celui dans lequel nous avons le plus l'habitude d'écrire. Chaque
chiffre peut avoir 10 valeurs différentes : 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, de ce fait, le système
décimal a pour base 10.

Tout nombre écrit dans le système décimal vérifie la relation suivante :

745 = 7x100 + 4x10 + 5x1


745 = 7x10x10 + 4x10 + 5x1
745 = 7 x 102 + 4 x 10' + 5 x 103

Chaque chiffre du nombre est à multiplier par une puissance de 10 : c'est ce que l'on
nomme le poids du chiffre.

L'exposant de cette puissance est nul pour le chiffre situé le plus à droite et s'accroît d'une
unité pour chaque passage à un chiffre vers la gauche.
12 435 = 1 x 104 + 2 x 103 + 4 x 102 + 3 x 101 + 5 x 10°.

Cette façon d'écrire les nombres est appelée système de numération de position.

Dans notre système conventionnel, nous utilisons les puissances de 10 pour pondérer la
valeur des chiffres selon leur position, cependant il est possible d'imaginer d'autres
systèmes de nombres ayant comme base un nombre entier différent.

B-LE SYSTÈME OCTAL

Le système octal utilise un système de numération ayant comme base 8 (octal => latin
octo = huit).

Il faut noter que dans ce système nous n'aurons plus 10 symboles mais 8 seulement :0, 1,2,
3, 4, 5, 6,7.

Ainsi, un nombre exprimé en base 8 pourra se présenter ainsi qu’il suit : (745)8
18
Lorsque l'on écrit un nombre, il faudra bien préciser la base dans laquelle on l'exprime
pour lever les éventuelles indéterminations (745 existe aussi en base 10).

Ainsi le nombre sera mis entre parenthèses (745 dans notre exemple) et indicé d’un
nombre représentant sa base (8 est mis en indice).

Cette base obéira aux mêmes règles que la base 10, vue précédemment, ainsi on peut
décomposer (745)8 de la façon suivante :

(745)8 = 7 x 8 2 + 4 x 8 1 + 5 x 8 0

(745)8 = 7 x 64 + 4 x 8 + 5 x 1

(745)8 = 448 + 32 +5

Nous venons de voir que : (745)8 = (485)10

C- LE SYSTEME BINAIRE
Actuellement, à l'instar du processeur, la mémoire centrale se représente sous la forme
de circuits intégrés. On parle de « microprocesseur » et de « puces » tant ces composants
ont été miniaturisés.
Si les progrès techniques ont permis d'améliorer la vitesse d'exécution des ordinateurs, leur
fiabilité et leurs tailles, les principes de fonctionnement en sont restés sensiblement
identiques. Un courant électrique passe ou ne passe pas. (II y a ou non une différence de
potentiel). Un tel type de fonctionnement nécessite de représenter en machine toutes les
instructions et toutes les quantités comme une succession de :
- « passe » ou « ne passe pas »
- « oui » ou « non »
- « vrai » ou « faux »
- « 1 » ou « 0 »

Une telle représentation s'appelle représentation binaire de l'information.

D-NOMBRE BINAIRE

La représentation comme une suite de 0 et 1 est la plus couramment utilisée.


Exemple : 00101101 0011 0101.

On parle alors de nombre binaire succession de chiffres binaires par analogies avec les
chiffres décimaux que nous utilisons.

Le système décimal (ou représentation décimale) comprend dix (10) symboles (de 0 à9),
on parle de base 10.

Alors que les chiffres binaires ne peuvent prendre que deux valeurs (0 et 1) : c'est la base2.
Dans un nombre, chacun des chiffres a une valeur définie par la position qu'il y occupe
et par la base utilisée.

19
Ainsi, en base 10 on a :
(9516)10 = 9 x 103+ 5x102 + 1 x 101 + 6x100
(11)10= 1 x 101 + 1 x 100

En binaire :

(11)2 = 1 x 21 + 1 x 20 = 310
(1 01 1 00) 2 = 1 x 25 + 0 x 24 + 1 x 23 + 1 X 22 + 0 x 21 + 0 x 2° = 44 10
Chiffre binaire est souvent abrégé en BIT : Blnairy digiT
E- NOMBRE HEXADÉCIMAL

Dans le système binaire, une valeur devient très rapidement longue à


écrire.
Exemple : (9516)10 = (10 010100101100)2

Dans le système décimal, on regroupe par blocs de 3


chiffres.
Exemple : 12.624 et 3.652.223

Le binaire permet le regroupement par blocs de 4 appelés quadruplet (nybble) un


nombre binaire de 4 chiffres pouvant prendre des valeurs de 0 à 15, on l'appelle
chiffre hexadécimal (base 16). Ne disposant que de 10 symboles numériques, les
valeurs de 10 à 15 sont symbolisées par les lettres de A à F.

Tableau de correspondances

Décimal 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Hexadécim 0 1 2 3 4 5 6 7 8 9 A B C D E F
Binaire
al 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111

Les nombres hexadécimaux présentent un double avantage :


-ils sont court à écrire ;
-ils permettent un passage immédiat à la représentation binaire et réciproquement.

Exemple : (9 516 )10 = (0010 0101 0010 1100)2 = (252C)16


2 5 2 C

F- INSTRUCTIONS MACHINES

Les instructions exécutables par le processeur sont aussi mémorisées sous forme d'une suite
de bits. En général, on les représente sur papier sous la forme hexadécimale. La plupart
d'entre elles s'écrivent à l'aide de deux chiffres hexadécimaux, c'est à dire de 8 bits. Un
bloc de 8 bits s'appelle un octet (ou byte).

G- LES CHANGEMENTS DE BASES

Avant d'aborder la représentation des différents types de données (caractères, nombres


naturels, nombres réels), et après cette description sommaire des principaux systèmes de
numération, il convient de se familiariser avec la représentation d'un nombre dans une
20
base quelconque (par la suite, nous utiliserons souvent les bases 2, 8, 10 et 16).
Habituellement, on utilise la base 10 pour représenter les nombres, c'est-à-dire que l'on
écrit à l'aide de 10 symboles distincts, les chiffres.

En base b. on utilise b chiffres. Notons ai la suite des chiffres utilisés pour écrire un nombre
X = an an-1 … a1 a0

a0 est le chiffre des unités

En décimal, b = 10, ai ɛ {0, 1, 2, 3, 4, S, 6, 7, 8, 9} ;


- En octal, b = 8, ai ɛ {O, 1, 2, 3, 4, S, 6, 7} ;
- En binaire, b = 2, ai ɛ {0, 1} ; chiffres binaires, ou bits ;
- En hexadécimal, b = 16, ai ɛ {0, 1, 2, 3, 4, S, 6, 7, 8, 9, A, B, C, D, E, F} ; (on utilise les
6 premières lettres comme des chiffres).

H- REPRÉSENTATION DES NOMBRES ENTIERS

En base 10, on écrit par exemple 1996 pour représenter le nombre

1996= lxl03+9xl02+9xl01 +6xl00

Dans le cas général, en base b, le nombre représenté par une suite de chiffres anan-1
…a1a0 est donné par :

a0 est le chiffre de poids faible, et an le chiffre de poids


fort.
Exemple en base 2 :
(101 )2 = 1 X22 + 0x21 + 1 x20 = 4 + 0 + 1 = 5

La notation ( ) b indique que le nombre est écrit en base b.

I- REPRÉSENTATION DES NOMBRES FRACTIONNAIRES

Les nombres fractionnaires sont ceux qui comportent des chiffres après la virgule.
Dans le système décimal, on écrit par exemple :
12,346= 1 xl01 +2xl0o+3xl0-1 +4xl0-2+6xl0-3

En général, en base b, on écrit :

anan-1 ... a1 ao, a-1 a-2 ... a-p = anbn+an-l bn-l+ ... +aobo+a-l b-l+ ... +a-pb-p

21
J- PASSAGE D'UNE BASE QUELCONQUE À LA BASE 10

Il suffit d'écrire le nombre comme ci-dessous et d'effectuer les opérations en décimal.

Exemple en hexadécimal :

(AB)16 = 10xl61 + 11x16° = 160 + 11 = (171)10

(en base 16, A représente 10, B =11, et F= 15).

K- PASSAGE DE LA BASE 10 VERS UNE BASE QUELCONQUE

Nombres entiers : On procède par divisions successives. On divise le nombre par la base,
puis le quotient obtenu par la base, et ainsi de suite jusqu'à l'obtention d'un quotient nul.

La suite des restes obtenus correspond aux chiffres dans la base visée, a0 a1 …. an.

Exemple : soit à convertir (44) 10 vers la base2.


44 = 22 x 2 + 0 ➔ a0= 0
22 = 11 x 2 + 0 ➔ al = 0
11 = 5 x 2 + 1 ➔ a2 = 1
5= 2 x 2 + 1 ➔ a3 = 1
2= 1 x 2 + 0 ➔ a4 = 0
1= 0 x 2 + 1 ➔ a5 = 1
Donc (44)10 = (101100)2.

Nombres fractionnaires : On multiplie la partie fractionnaire par la base en répétant


l'opération sur la partie fractionnaire du produit jusqu'à ce qu'elle soit nulle (ou que la
précision voulue soit atteinte).
Pour la partie entière, on procède par divisions comme pour un entier.

Exemple : conversion de (54,25)10 en base 2

Partie entière (54)10 = (110110)2 par divisions successives par 2

Partie fractionnaire :

0,25 x 2 = 0,50 ➔ a-1 = 0

0,50 x 2 = 1,00 ➔ a-2 = 1

0,00 x 2 = 0,00 ➔ a-3 = 0

Alors (54,25)10 = (110110, 010)2

22
L-CAS DES BASES 2, 8 ET 16

Ces bases correspondent à des puissances de 2 (21; 23et 24), d'où des passages de
l'une à l'autre très simples. Les bases 8 et 16 sont pour cela très utilisées en
informatique, elles permettent de représenter rapidement et de manière compacte
des configurations binaires. La base 8 est appelée notation octale, et la base 16
notation hexadécimale.

Chaque chiffre en base 16 (2 4) représente un paquet de 4 bits consécutifs, on parle


souvent de quadruplet ou nybble.

Par exemple : (10011011) 2 = (1001 1011) 2 = (9B)16

De même, chaque chiffre octal représente 3 bits. On manipule souvent des nombres
formés de 8 bits, nommés octets, qui sont donc notés sur 2 chiffres hexadécimaux.

M- OPÉRATIONS ARITHMÉTIQUES

Les opérations arithmétiques s'effectuent en base quelconque b avec les mêmes


méthodes qu'en base 10. Une retenue ou un report apparait lorsque l'on atteint ou
dépasse la valeur b de la base.

II.1.2-MEMOIRES ET CODIFICATIONS

A. STRUCTURE DE LA MÉMOIRE

Afin de pouvoir manipuler plus aisément les informations binaires qui sont stockées
en mémoire centrale, on regroupe généralement les bits en blocs appelés « mots ».
La taille des mots diffère d'un ordinateur à l'autre. On rencontre fréquemment des
mots de 1, 2, ou 3 octets (8, 16, 24 ou 32 bits).

Le mot est la quantité minimale d'information que le processeur peut chercher ou


placer en mémoire.

Pour retrouver plus facilement ces mots en mémoire, on les numérote à partir de 0,
ce numéro est appelé l'adresse du mot.

Lorsqu'une mémoire est grande, on réunit parfois les mots en pages qui sont
également numérotées.

Les tailles des mémoires sont généralement exprimées en nombres de mots, dont il
faut connaître la taille, ou plutôt en nombre d'octets, de kilo octets (1024=210 octets
; k ou Ko), méga octets (10242 octets ; M ou Mo) ou giga octets (10243 octets ; G ou
Go).

23
B-CODIFICATION DES NOMBRES ENTIERS

La représentation (ou codification) des nombres est nécessaire afin de les stocker et
manipuler par un ordinateur. Le principal problème est la limitation de la taille du
codage : un nombre mathématique peut prendre des valeurs arbitrairement
grandes, tandis que le codage dans l'ordinateur doit s'effectuer sur un nombre de
bits fixé.

Entiers naturels
Les entiers naturels (positifs ou nuls) sont codés sur un nombre d'octets fixé (un octet est
un groupe de 8 bits). On rencontre habituellement des codages sur 1, 2 ou 4 octets, plus
rarement sur 64 bits (8 octets, par exemple sur les processeurs DEC Alpha).
Un codage sur n bits permet de représenter tous les nombres naturels compris entre 0 et
2n -1. Par exemple sur 1 octet, on pourra coder les nombres de 0 à 255 = 28 -1.
On représente le nombre en base 2 et on range les bits dans les cellules binaires
correspondant à leur poids binaire, de la droite vers la gauche. Si nécessaire, on
complète à gauche par des zéros (bits de poids fort).

Entiers relatifs
Il faut ici coder le signe du nombre.
Plusieurs codifications sont d'usage. La codification directe (utiliser le bit de poids le plus
fort comme « bit de signe » : O pour + et 1 pour -), celle du complément à 1 (complément
de a est 𝑎 ̅) et le complément à deux (la plus utilisée).
On utilise le codage en complément à deux, qui permet d'effectuer ensuite les
opérations arithmétiques entre nombres relatifs de la même façon qu'entre nombres
naturels.

1. Entiers positifs ou nuls : On représente le nombre en base 2 et on range les bits comme
pour les entiers naturels. Cependant, le bit de poids fort est toujours à 0 : on utilise donc
n-1 bits. Le plus grand entier positif représentable sur n bits en relatif est donc 2 n-1 -1

2. Entiers négatifs : Soit x un entier positif ou nul représenté en base 2 sur n-1 bits

On constate facilement que x + y = 2 n-1, ∀ αi

Or sur n bits, 2n-1 est représenté par n-1 zéros, donc on à x + y = 0 modulo 2n-l, ou encore y
= -x. y peut être considéré comme l'opposé de x.

La représentation de -x est obtenue par complémentation à 2n-1 de x. On dit


complément à deux.

24
Pour obtenir le codage d'un nombre x négatif, on code en binaire sa valeur absolue sur
n-1 bits, puis on complémente (ou inverse) tous les bits et on ajoute 1.

Exemple : soit à coder la valeur -2 sur 8 bits. On exprime 2 en binaire, soit 0000 0010. Le
complément à 1 est 11111101. On ajoute 1 et on obtient le résultat : 1111 1110.

Remarques :
(a) le bit de poids fort d'un nombre négatif est toujours 1 ;
(b) sur n bits, le plus grand entier positif est 2n-1 -1 = 011 ...1;
(c) sur n bits, le plus petit entier négatif est -2n-1

C- REPRÉSENTATION DES CARACTÈRES

Les caractères sont des données non numériques : il n'y a pas de sens à additionner ou
multiplier deux caractères. Par contre, il est souvent utile de comparer deux caractères,
par exemple pour les trier dans l'ordre alphabétique.

Les caractères, appelés symboles alphanumériques, incluent les lettres majuscules et


minuscules,
les symboles de ponctuation (& ~, . ; # "- etc ... ), et les chiffres.

Un texte, ou chaîne de caractères, sera représenté comme une suite de caractères.


Le codage des caractères est fait par une table de correspondance indiquant la
configuration binaire représentant chaque caractère. Les deux codes les plus connus
sont l'EBCDIC (en voie de disparition) et le code ASCII (American Standard Code for
Information Interchange).

Le code ASCII représente chaque caractère sur 7 bits (on parle parfois de code ASCII
étendu, utilisant 8 bits pour coder des caractères supplémentaires).

Notons que le code ASCII original, défini pour les besoins de l'informatique (en langue
anglaise) ne permet pas la représentation des caractères accentués (é, è, à, ù, …),
et encore moins des caractères chinois ou arabes. Pour ces langues, d'autres
codages existent, utilisant 16 bits par caractères.

A chaque caractère est associée une configuration de 8 chiffres binaires (1 octet), le


chiffre de poids fort (le plus à gauche) étant toujours égal à zéro. La table indique
aussi les valeurs en base 10 (décimal) et 16 (hexadécimal) du nombre correspondant.

Plusieurs points importants à propos du code ASCII:


- Les codes compris entre 0 et 31 ne représentent pas des caractères, ils ne sont pas
affichables.
Ces codes, souvent nommés caractères de contrôles sont utilisés pour indiquer des
actions comme passer à la ligne (CR, LF), émettre un bip sonore (BEL), etc.

- Les lettres se suivent dans l'ordre alphabétique (codes 65 à 90 pour les majuscules,
97 à 122 pour les minuscules), ce qui simplifie les comparaisons.

- On passe des majuscules aux minuscules en modifiant le 5ième bit, ce qui revient à
ajouter 32 au code ASCII décimal.
25
- Les chiffres sont rangés dans l'ordre croissant (codes 48 à 57), et les 4 bits de poids
faibles définissent la valeur en binaire du chiffre.

Un ordinateur est une machine de traitement de l'information. Il est capable


d'acquérir de l'information, de la stocker, de la transformer en effectuant des
traitements quelconques, puis de la restituer sous une autre forme. Le mot
informatique vient de la contraction des mots information et automatique.

Nous appelons information tout ensemble de données. On distingue généralement


différents types d’informations : textes, nombres, sons, images, etc., mais aussi les
instructions composant un programme. Comme nous venons de le voir, toute
information est manipulée sous forme binaire (ou numérique) par l'ordinateur.

III- LES LOGICIELS


Après cette brève étude sur les composants électroniques d'un ordinateur ainsi que
leur fonctionnement (matériel ou hardware), nous allons nous intéresser aux
programmes fondamentaux indispensables à la gestion des différentes ressources
de l'ordinateur et au dialogue avec ses périphériques (le logiciel ou software).

III-1. LANGAGES INFORMATIQUES

Un langage informatique, par opposition aux langages naturels comme le français ou


l'anglais, est un langage structuré utilisé pour décrire des actions (ou algorithmes)
exécutables par un ordinateur.

26
La principale différence entre les langages informatiques et les langues naturelles
réside dans l'absence d'ambigüité : alors que certaines phrases du français peuvent
être interprétées différemment par différents auditeurs, tous seront d'accord pour
dire ce que fait un programme donné.

Historiquement, le premier langage informatique a été l'assembleur. Or, la


programmation en assembleur est souvent fastidieuse, surtout pour des
programmes importants.

Plus grave, un programme écrit en assembleur dépend étroitement du type de


machine pour lequel il a été écrit. Si l'on désire l'adapter à une autre machine
("porter" le programme), il faut le réécrire entièrement.

C'est pour répondre à ces problèmes qu'ont été développés dès les années 50 des
langages de plus haut niveau. Dans ces langages, le programmeur écrit selon des
règles strictes mais dispose d'instructions et de structures de données plus
expressives qu'en assembleur. Par exemple, dans certains langages comme
MATLAB, on pourra écrire en une ligne que l'on désire multiplier deux matrices, alors
que le programme correspondant en assembleur prendrait quelques centaines de
lignes.

III.2. ASSEMBLEURS ET COMPILATEURS

Pour faire exécuter une tâche précise à un ordinateur, on y enregistre un


programme préalablement écrit dans un langage de programmation informatique
structuré. C'est un programme de traduction faisant partie du logiciel qui se charge
alors de décoder cette suite de caractères, de les interpréter et de transformer en
code d'instructions machines correspondantes.

Les langages de programmation se divisent en deux catégories :

1- Les langages de bas niveau : une instruction de programme se traduit par une
seule instruction machine. Leur programme de traduction s'appelle un
assembleur ;

2- Les langages de haut niveau (langages compilés) : ils peuvent normalement


être traduits, à l'aide d'un compilateur sur tout ordinateur.

III.3. CHARGEURS ET INTERPRÉTEURS

En général, l'assembleur et le compilateur place le résultat de sa traduction en


mémoire auxiliaire (disquette ou disque dur). C'est un autre programme, le
chargeur, qui place ensuite ce code d'instructions machines en mémoire centrale,
transmet au processeur l'adresse du mot contenant la première instruction à
exécuter et qui lance de ce fait, l'exécution du programme chargé en mémoire
centrale. Sur certaines machines cependant, la traduction des informations se fait
au moment de l'exécution et devra se recommencer lors de chaque exécution. Les
rôles du compilateur et du chargeur sont alors repris par un interpréteur (langages
interprétés).

27
III.4. PRINCIPAUX LANGAGES

Les principaux langages compilés sont :

C/C++ Programmation système et scientifique ;


ADA Logiciels embarqués ;
Cobol gestion ;
Fortran Calcul scientifique ;
Pascal Enseignement.

Quelques langages interprétés :


BASIC bricolage ;
LlSP "Intelligence Artificielle" ;
Prolog idem ;
Perl traitement de fichiers textes ;
Python programmation système, internet ;
Java "applets" internet ;
MA TLAB calcul scientifique ;
Mathematica idem.

Notons que la distinction compilé/interprété est parfois floue. Certains langages,


comme LlSP, Java ou Python, peuvent subir une première phase de compilation
vers un langage intermédiaire (bytecode), qui sera lui-même interprété.

III.5. SYSTÈME D'EXPLOITATION (OS)

Le logiciel comprend également plusieurs programmes permettant de gérer


facilement les unités périphériques. Ces programmes forment le système
d'exploitation (OS : Operating System).
Exemple : MS-DOS, OS-MAC, UNIX, WINDOWS ...
Le système d'exploitation d'un ordinateur est le programme qui permet d'accéder
aux ressources matérielles de cet ordinateur. Ces ressources matérielles sont
essentiellement les organes d'entrées/sorties : clavier, écran, liaisons réseau,
imprimante, disque dur, etc.

Les périphériques d'entrées/sorties varient d'un modèle d'ordinateur à l'autre. Même


au sein de la famille des "compatibles PC", on trouve difficilement deux modèles
dotés d'exactement les mêmes périphériques (cartes d'extension par exemple). De
ce fait, les instructions à exécuter pour piloter tel périphérique (par exemple pour
afficher un rectangle rouge à l'écran) diffèrent d'un ordinateur à l'autre.
Le rôle principal du système d'exploitation est d'isoler les programmes des détails du
matériel. Un programme désirant afficher un rectangle ne va pas envoyer des
instructions à la carte graphique de l'ordinateur, mais plutôt demander au système
d'exploitation de le faire. C'est le système d'exploitation qui doit connaitre les détails
du matériel (dans ce cas le type de carte graphique et les instructions qu'elle
comprend). Cette répartition des rôles simplifie grandement l'écriture des
28
programmes d'application.
NB : On appelle programme d'application, ou simplement application, un programme
qui effectue des traitements directement utiles pour l'utilisateur de l'ordinateur
(traitement de texte, base de données, etc.), par opposition aux programmes qui ne
sont pas directement visibles par l'utilisateur (comme le système d'exploitation ou les
divers utilitaires gérant l'ordinateur).

III.6. PRÉSENTATION DU BIOS


Le BIOS (Basic Input Output System, système d'entrées/sorties de base) constitue la
couche basse de tous les systèmes d'exploitation sur Pc. Il est donc responsable de la
gestion du matériel : clavier, écran, disques durs, liaisons séries et parallèles.
Le programme du BIOS se trouve en mémoire morte (ROM, plus exactement en
EEPROM ou FLASH), c'est à dire dans une mémoire gardant son contenu lorsque l'on
interrompt son alimentation électrique.
Chaque modèle de PC est vendu avec une version du BIOS adapté à sa
configuration matérielle.
A-LES FONCTIONS DU BIOS
Du point de vue de l'utilisation, on peut considérer le BIOS comme une librairie de
fonctions. Chaque fonction effectue une tâche bien précise, comme par exemple
afficher un caractère donné sur l'écran. L'appel de l'une de ces fonctions constitue
un appel système.
Il a été prévu de pouvoir modifier le comportement du BIOS en cours d'utilisation, par
exemple pour gérer un nouveau périphérique ou pour modifier la gestion d'un
périphérique existant. Le code du BIOS étant en mémoire morte, il n'est pas
modifiable.
De plus, le BIOS étant différent d'un ordinateur à l'autre, les adresses des fonctions
changent...
B-PRÉSENTATION DU DOS
Le système DOS (Disk Operating System, système d'exploitation de disque) repose sur
le BIOS, dont il appelle les fonctions pour interagir avec le matériel.

Les fonctions du DOS s'utilisent comme celles du BIOS, via des vecteurs d'interruptions.
Elles offrent des fonctionnalités de plus haut niveau que le BIOS (entrées/sorties,
ouverture de fichiers sur disque, etc.).
III.7. AUTRES SYSTEMES D'EXPLOITATION
Les systèmes d'exploitation les plus répandus sont les suivants :

Système Type de machine Caractéristiques


DOS PC Simple, répandu, peu puissant.
Windows PC Interface graphique, très répandu, peu fiable.
Window NT Pc. qq stations Multi-tâche.
VMS Vax Multi-tâche, fiable, ancien.
UNIX Tous Multi-tâche, fiable, flexible.

29
IV- ARCHITECTURE DES RESEAUX

DÉFINITION

On appelle réseau, le raccordement de microordinateurs et de périphériques


grâce auquel ils peuvent communiquer et leur permettant d'offrir des services ou
de transporter des données. Ce raccordement présente l'avantage de centraliser
le stockage des fichiers pour assurer leur intégrité et leur sauvegarde. Un réseau
permet aux utilisateurs de se partager les fichiers de données et les unités
périphériques et d'échanger des informations entre eux par une messagerie.

Fig : Schéma de principe d’un réseau

I-LES RESEAUX FILAIRES

I-1. LES PARTIES ESSENTIELLES D'UN RESEAU

Indépendamment de sa géométrie et de son importance, un réseau comporte


trois principaux éléments :
- Le serveur ;
- Les stations ;
- Les périphériques.

A- LE SERVEUR

C'est souvent à un PC qu'il est demandé de jouer le rôle de serveur. La fonction


principale d'un serveur est de garder dans sa mémoire les fichiers de données pour
les utilisateurs et d'assurer l'envoi et la réception des fichiers à la demande. Un
serveur doit avoir une grande capacité de disque ainsi que des programmes de
sauvegarde et de restauration (plusieurs dizaines de giga). Le serveur tourne avec
un logiciel d'exploitation pour réseau (NOS : Network Operating System) tel que
Netware, LAN manager, UNIX, Windows NT, Windows server et dispose d'une large
capacité mémoire (RAM : 4Go, 8Go ou plus)

30
B- LES STATIONS

Ce sont des ordinateurs classiques qui sont connectés au serveur donc au réseau. Ils
ont donc ainsi la possibilité de consulter la base de données que constitue le serveur
et aussi, une station a la possibilité de communiquer avec les autres stations du réseau.
Dans le cadre d'un réseau international, à partir de n'importe quelle station, on peut
consulter un serveur ou une autre station quel que soit son emplacement
géographique, à condition que l'information souhaitée ne soit pas protégée.

C- LES PÉRIPHÉRIQUES

Pilotées par le serveur à la demande des différentes stations du réseau, les


périphériques constituent la quincaillerie d'entrée et de sortie des PC : Ies modems,
les scanner, les imprimantes ... Une demande d'impression par exemple, formulée par
une station est envoyée sur le réseau au serveur qui dirige la demande à l'imprimante.
Tous les périphériques du réseau sont accessibles à n'importe quelle station présente
sur le réseau.

I-2- LA REALISATION D'UN RESEAU

La réalisation d'un réseau obéit à certaines contraintes d'équipement dont les plus
importants sont :

-Un serveur ;
-Des stations ;
-Des cartes interfaces réseau
• NIM (network interface module)
• NIC (network interface card)

-Un logiciel d'exploitation


-Un support de transmission
• Paire torsadée
• Câble coaxial
• Câble RJ45
• Fibre optique

(On peut aussi utiliser un équipement d’interconnexion : Switch ou hub)

I-3- LES DIFFERENTS TYPES DE RESEAU FILAIRE

Les réseaux sont classés en fonction de leur taille. On distingue donc ainsi trois
principaux types de réseaux :

-LAN (Local Area Network);


-MAN (Metropolitan Area Network);
-WAN (Wide Area Network).

31
A- LE LAN

C'est le réseau local par définition car il permet en effet de relier des ordinateurs qui se
trouvent dans un même immeuble ou distancés géographiquement au maximum de 2 à
6 Km. Ce type de réseau est souvent utilisé dans les sociétés pour relier les différents
services.

Fig : Schéma de principe d’un LAN

B-LE MAN

C'est un réseau qui peut être beaucoup plus étendu que le précédent. En effet, il
peut relier des stations qui se trouvent dans des villes différentes les stations peuvent
au maximum être distancées de 80 Km.

Pour ce type de réseau, la communication s'établit par ligne téléphonique

C-LE WAN

C'est le type de réseau le plus performant. Il est étendu et constitué par


l'interconnexion de plusieurs réseaux situés dans divers lieux géographiques. La
communication se fait par ligne téléphonique terrestre ou par satellite.

32
Par ailleurs, les réseaux sont aussi classés selon leur mode de construction (architecture).
En effet, il existe trois principales topologies :
 Ethernet ;
 Token ring;
 Etoile.

I-4- LES DIFFERENTS TOPOLOGIES DES RESEAUX FILAIRES

A- TOPOLOGIE ETHERNET

On peut décrire le réseau Ethernet comme une longueur de câble servant d'épine dorsale
à l'ensemble. La spécification d'Ethernet fut mise au point par DELL, INTEL et Xérox (norme
DIX)

33
B-TOPOLOGIE TOKEN RING (ANNEAU A JETON)

Comme son nom l'indique, le réseau token ring met en œuvre un câble en anneau
fermé relié à chaque PC en deux points. C'est IBM qui a développé le token ring.

C-TOPOLOGIE EN ETOILE

La topologie en étoile est construite à partir d’un nœud qui émule plusieurs liaisons
point à point.

34
II- LES RESEAUX SANS FIL

Un réseau sans fil (wireless network) est un réseau permettant à plusieurs ordinateurs
de communiquer sans liaison filaire. La communication s'effectue en utilisant les
ondes du spectre électromagnétique de la zone radio ou infrarouge à la place des
signaux électriques véhiculés par l'intermédiaire des câbles.

II-1-LES DIFFERENTS TYPES DE RESEAUX SANS FIL

Les réseaux sans fil peuvent être classés en différentes catégories, ceci en fonction
de la zone de couverture (rayon dans lequel une connexion est possible) et de la
topologie.

En fonction de la zone de couverture, on distingue :

A-LE WPAN

WPAN (Wireless Personnal Area Nefwork), réseau personnel sans fil. Il a une portée d'une
dizaine de mètre. Il existe principalement en technologie Bluetooth.

B-LE WLAN

WLAN (Wireless Local Area Nefwork), réseau local sans fil. Il a une portée d'une centaine
de mètre. La technologie Wi-Fi (Wireless Fidelity) étant la plus répandu pour ce type
de réseau.

C-LE WMAN

WMAN (Wireless Métropolitain Area Nefwork), réseau métropolitain sans fil. Il a une portée
de quatre à dix kilomètres.

E-LE WWAN

WWAN (Wireless wide Arec Nefwork), réseau étendu sans fil. Il a une zone de couverture à
l'échelle d'un pays.

Par ailleurs, les réseaux sans fil, en fonction de leur topologie, peuvent être définis en
deux principales architectures :

II-2-LES DIFFERENTS MODE DE CONNEXION

A-LE MODE INFRASTRUCTURE

35
Dans le mode infrastructure, des points d'accès permettent l'échange d'informations
entre les équipements du réseau sans fil. Dans une cellule, c'est-à-dire dans une zone
de couverture d'un point d'accès, toute communication entre deux équipements
passe ainsi obligatoirement par le point d'accès.
On distingue deux topologies en mode infrastructure :

- La Topologie BSS (Basic Service Set). Elle compte un seul point d'accès qui
peut gérer jusqu'à 30 équipements.

- La topologie ESS (Extented Service Set). Plusieurs points d'accès connectés


entre eux par le biais d'un réseau filaire.

B-LE MODE AD-HOC

Dans le mode ad-hoc ou IBSS (Independent Basic Service Set), les différents
équipements communiquent directement entre eux sans passer par un point
d'accès.

III- LE RESEAU INTERNET

III-1-HISTORIQUE

L'Internet qu'on appelle aussi le Net, le Réseau, le cyberespace ou l'autoroute de


l'information est un réseau mondial d'ordinateurs sur lequel circulent les informations.
Les origines du réseau mondial sont américaines et militaires ; au début des années
70, en pleine guerre froide, l'armée des Etats-Unis éprouva le besoin de sécuriser les
liaisons naissantes entre les quelques ordinateurs de l'époque (des armoires
emplissant des pièces entières et fonctionnant avec des bandes magnétiques). Il
fallait notamment éviter qu'une panne de l'une de ces machines ne paralysât
l'ensemble du réseau, privant ainsi l'armée des connexions. Aussi le système en étoile

36
devait-il être abandonné, en raison de sa faiblesse évidente : le réseau dépend en
effet de l'ordinateur central, et tout problème au niveau de ce dernier coupe la
communication entre toutes les machines.

Réseau en étoile

La solution qui s'imposa fût pour ainsi dire celle d'une démocratie absolue : aucun
des ordinateurs ne serait plus important que les autres, et il n'y aurait pour la
transmission de l'information nul chemin obligé. Le réseau devient ainsi indestructible
; en cas d'attaque, d'explosion atomique, de panne de l'une des machines ...
l'ensemble n'est que partiellement affecté.

Ce réseau, nommé ARPANET (pour Advanced Research Project Agency NETwork, Le


réseau de l'ARPA l'agence de recherche de la Défense américaine de l'époque)
repose sur le principe de la Toile qui permettra la naissance du Web une dizaine
d'années plus tard.

C'est cette organisation qui fonde l’Internet ; la connexion est toujours possible, mais
le chemin pris peut-être long et complexe (ce qui explique la lenteur de certaines
transmissions, voire leur arrêt en cas « d'embouteillage »). Lorsque l'on envoie un
courrier électronique à un autre abonné en France, il se peut qu'il transite par
l'Australie ou tout autre continent (même si la plupart du temps le trajet effectué est
plus court).

37
Réseaux en étoile

Dans les années 70 le réseau en toile se développa, sous l'impulsion des militaires et
des chercheurs ; il reliait alors essentiellement les grands centres universitaires, et
servait à l'échange de données numériques. Le grand public, outre le fait qu'il n'avait
pas les possibilités techniques d'y accéder, ne pouvait trouver aucun intérêt à un tel
réseau ; en effet, les machines nécessaires à son utilisation étaient encombrantes et
coûteuses.
L'avènement de la micro-informatique bouleversa les données ; par des procédés de
miniaturisation de plus en plus efficaces, on put en effet à la fin des années 70
construire des ordinateurs dont la dimension commençait à devenir raisonnable ; on
allait pouvoir utiliser sa machine dans son bureau plutôt que dans son garage. Pour
ces raisons de taille, on nomma ces ordinateurs des micro-ordinateurs, et la chute du
prix des composants électroniques contribua à rendre leur achat possible pour des
utilisateurs amateurs. Tous ses paramètres contribuèrent à la naissance de
l'informatique domestique et familiale au début des années 80.

- A la fin des années 1960, le ministère de la défense des Etats-Unis a créé un réseau
pour interconnecter les ordinateurs militaires dons le but de faciliter l'échange de
données entre divers chercheurs qui travaillaient sur des projets militaires.
- En 1969, le département de la défense américaine inaugure DARPAnet (Défense
Advanced Research Projects Agency network).
- En 1971, DARPAnet devient ARPANET (Advanced Research Projects Agency
Network). C'est ce nouveau réseau qui devint l'internet.
- En 1973, avec l'apparition des protocoles de communication ARPANET traverse
l'atlantique et se connecte avec l'Angleterre et la Norvège. Apparition en même
temps l'e-mail, FTP et Telnet.
- En 1980 ARPANET se divise en deux réseaux : un réseau militaire (Defense Dota
Network) et un réseau universitaire NSFnet (National Science Fondation net Work).
- En 1982, NSFnet donne naissance à l'Internet (Internet est la contraction
d'international et network). La vitesse de communication sur le réseau passe
rapidement de 56KB/s à 1544 KB/s.
- En 1985 : création du réseau NSFNET par la NSF (National Science Foundation),

38
pour les institutions scolaires et de Recherche.
- En 1988, apparition des premiers serveurs IRC (Internet Release Chat) qui disposent
de la possibilité de discuter en temps réel sur Internet.
- En 1991 : introduction du WWW (world wide web, "la toile") ouvrant le net ou public
en facilitant la navigation.
- En 1992 : introduction de la dimension multimédia (son, image et texte) dons le web
- En 1994 : création de NETSCAPE (logiciel de navigation).

III-2-FONCTIONNEMENT

A-LE MODELE CLIENT - SERVEUR

PRINCIPE : deux acteurs sont mis en jeu : d'un côté le client qui effectue des Requêtes en
direction du serveur, de l'autre le serveur qui exécute ces requêtes et renvoie le résultat
au client. Le client et le serveur désignent des logiciels qui communiquent grâce à un
protocole.

B-PROTOCOLE DE COMMUNICATION TCP/ lP

TCP /IP : Transfert Control Protocol/ Internet Protocol : c'est l'ensemble de règles qui
définissent :

- Le découpage de l'information à transmettre en Paquets ;

- L'acheminement des paquets (les routes) ;

- Le contrôle de la qualité du transport.

Un routeur est un équipement particulier qui reçoit les paquets d'octets et qui désigne le
prochain routeur où il faut les expédier.

II.2.1. L'ADRESSE IP

Adresse universelle permettant d'identifier une machine connectée sur INTERNET. Elle est
constituée d'un numéro de 32 bits, composé de 4 octets notés en décimal (de 0 à 255)
séparés par un point.

Exemple : 217.77.71.1 ou 192.160.13.227

39
Le DNS (Domain Nome Server) serveur servant à traduire le nom en adresse IP à chaque
requête.
On envisage maintenant passer de 32 bits à 128 bits du fait de la forte demande d'internet
(1000 milliards de connections).

II.2.2. LES PROTOCOLES D'ECHANGE OU SERVICE INTERNET

A- LE WEB (PROTOCOLE HTTP)

Le WWW est le service le plus célèbre d'internet. Il permet à partir d'une page ou format
HTML de lire des documents multimédias (texte, image, son et vidéo).
Le HTTP est le protocole du web, il gère les requêtes des documents d'un client en
direction d'un serveur grâce à l'hypertexte.

B-LA MESSAGERIE (PROTOCOLE SMTP expéditeur et POP récepteur)

Les fournisseurs d'accès Internet vous permettent d'ouvrir des boîtes aux lettres.
On peut ainsi :
- Envoyer des lettres ;
- Attacher des fichiers (texte, son, et image ...)
- Répondre à un message ;
- Transférer un message à d’autres ;

C- LE TRASFERT DE FICHIERS (PROTOCOLE FTP)

FTP : File Transfert Protocol (protocole de transfert de fichiers). Ce service permet de


récupérer et/ou de placer des fichiers sur un serveur à condition d'avoir une autorisation.
C'est grâce à ce service qu'on peut par exemple placer des fichiers de notre site web
dans le serveur de l'hébergeur.

D- LES FORUMS (PROTOCOLE NEWS)

Un forum ou groupe de discussion est un espace thématique public d'échanges de


messages. Les forums sont particulièrement pertinents pour obtenir un conseil, pour en
donner un, pour se foire aider sur un problème technique précis.

II.3. SE CONNECTER A INTERNET

II.3.1. CONNEXION CLIENT A UN SERVEUR

Pour se connecter comme client à un serveur, il fout établir une liaison physique par un fil
reliant la station à se serveur. Le même type de connexion est possible sur une station
d'un réseau local dont l'une des machines est connectée à internet.

40
II.3.2. PASSAGE ENTRE INTERNET ET TELEPHONE

Disposant d'un réseau téléphonique classique (type RTC), vous devez brancher sur la prise
téléphonique un MODEM (modulateur/démodulateur). Ce modem va se charger des
traductions entre signaux numériques et analogiques.
On peut aussi utiliser une puce (sorte de clé USB).

II.3.3. AUTRES TYPES DE CONNEXION

Il existe plusieurs autres types de connexion à internet, on peut citer :

-ADSL (Asymétric Digital Subscriber Line) dont le débit va jusqu'à plus de 2 Gbps ;

-La câble avec un débit allant de 512 Kbps à 10Mbps ;

41
-Le satellite offrant un débit de plus de 800Kbps.

42

Vous aimerez peut-être aussi