Vous êtes sur la page 1sur 135

VILLE DE CHARLEROI

Ecole Industrielle de Marcinelle - Monceau


rue du Chemin Vert, 66
6001 Marcinelle

INITIATION A L’INFORMATIQUE

Professeur : HOUX S. Année scolaire : 2003 - 2004


2
Objectifs pédagogiques de la formation « Initiation à l’Informatique »
( Code : 75101U21D1)

Etre capable de :
1. Présenter le schéma global d’un système informatique.
2. Reconnaître les divers éléments susceptibles d’être utilisés dans un environnement informatique :
- unité centrale ;
- connexions ;
- mémoires de masse.
3. Utiliser un système permettant d’effectuer les opérations élémentaires sur les mémoires et leurs
contenus.
4. Utiliser divers programmes.
5. Manipuler un clavier alphanumérique dans un contexte informatique.
6. Mettre en évidence les services que procure l’outil ainsi que les dangers encourus par un emploi abusif
ou inconsidéré d’environnements informatiques, dans divers contextes (exemples : enseignement,
sciences et techniques, industrie, administration, commerce, services publics).

Capacités terminales
Etre capable de :

a) pour le système (deux essais maximum) :

- vérifier que le système informatique est prêt à l’emploi ;


- charger un programme proposé à partir d’une mémoire de masse ;
- passer correctement un programme rencontré ;
- sortir d’un programme ;
- arrêter le système et le laisser prêt pour l’utilisateur suivant.

b) pour le clavier :

- déplacer le curseur ;
- utiliser la barre d’espacement, la touche « retour » et celle d’effacement ;
- introduire des données numériques (avec et sans pavé numérique) et des données alphanumériques
(minuscules / majuscules).

c) pour les éléments :

- identifier sur un schéma proposé, les composants d’un environnement informatique étudié ;
- différencier des éléments tels que les connexions, les périphériques.

Plan du cours
Introduction
1. Schéma global d’un système informatique
2. Les composants d'un micro-ordinateur
3. Système d'exploitation et opérations élémentaires sur les mémoires et leurs contenus
4. Utilisation des programmes essentiels
5. Manipulation du clavier numérique
6. Services et dangers de l’outil informatique

HOUX S. Initiation à l’informatique Septembre 2002


3

Introduction
a) définitions informatiques
Le mot "informatique", introduit en français en 1962, provient de la fusion entre les termes "information"
et "automatique".
L'informatique traite donc du traitement automatique des informations.
Certains mathématiciens et philosophes tels que Pascal, Leibnitz, Babbage et Boole ont été à la base de
l’informatique moderne.
Les premiers ordinateurs apparurent à la fin du 19ème siècle.
A cette époque furent construites des "machines à calculer à mémoire électronique capables de stocker
et de traiter automatiquement des informations".
Dans les années 40, le mathématicien John Von Neumann créa aux Etats-Unis un modèle de base encore
utilisé actuellement.
Voici quelques étapes importantes en ce domaine :
- 1944 : fabrication du "mark 1", énorme machine électromécanique (18 m. de longueur sur 2,5 m. de hauteur ;
800 kms de câbles électriques, plus de 7000 relais mécaniques; elle pesait 5 tonnes !) capable de réaliser 10
opérations par seconde, grâce notamment à l'apparition de mécanismes électromagnétiques;
- de 1945 à 1955 : 1ère génération de calculateurs électroniques (avec des circuits électroniques et des mémoires
de plus en plus performants);
- de 1955 à 1965 : 2ème génération permettant d'améliorer la gestion de la mémoire et des entrées-sorties et
d'effectuer 1.000.000 d'opérations par seconde;
- à partir de 1965 : 3ème génération avec utilisation de transistors et puis de circuits intégrés (ce qui permit une
baisse importante des prix);
- dans les années 70 : 4ème génération permettant de réaliser 1.000.000.000 d'opérations par seconde;
- dans les années 80 : 5ème génération permettant d'atteindre des vitesses de travail de l'ordre de
1.000.000.000.000 d'opérations par seconde.

b) domaines d'application
- la bureautique : traitement de textes, programmes d'aides à la réalisation de graphiques, services de
transmission du texte, de la voix, du graphisme, services de messagerie, comptabilité,...;
- la télématique (née de la fusion de l'informatique et des télécommunications);
- la robotique (applications dans le domaine industriel) ;
- la domotique (applications dans le domaine des bâtiments).

c) les micro-ordinateurs (individuels et professionnels)


Les ordinateurs peuvent être classés par taille :
 les gros ordinateurs (« mainframes » en anglais) ;
 les mini-ordinateurs ;
 les stations de travail ;
 les micro-ordinateurs, dont les PC (« personal computer » en anglais).

Nous pouvons classer les micro-ordinateurs dans deux grandes catégories :


- la gamme I.B.M. (« International Business Machine ») et les ordinateurs "compatibles IBM";
- les "non-compatibles IBM", dont essentiellement la marque APPLE.

Remarques :
- actuellement, il existe des possibilités d'utilisation de programmes conçus pour IBM avec les ordinateurs
APPLE et inversement !.
- un micro-ordinateur est dit "compatible IBM" lorsqu'un programme conçu pour tourner sur un IBM tourne
également sur ce micro-ordinateur. Cependant, la compatibilité n'est jamais absolue !.
Il convient donc d'essayer les programmes sur son ordinateur afin de voir s'ils fonctionnent.
L’ordinateur professionnel de la gamme « APPLE » est appelé le « Macintosh » (e-Mac) qui se caractérise par une
grande convivialité et certains programmes de qualité (dans les domaines du traitement de textes, du dessin et de

HOUX S. Initiation à l’informatique Septembre 2002


4
l'édition). Ce type de micro-ordinateur se retrouve surtout dans le secteur de services à orientation intellectuelle :
publicitaires, architectes, sociétés de conseils,...

1. Schéma global d’un système informatique

La structure d'un ordinateur est composée de plusieurs éléments fondamentaux :


1. une unité centrale de traitement (appelée microprocesseur) ;
2. des périphériques d'entrée et de sortie ;
3. des unités de stockage (mémoires externes et internes) ;
4. un bus (permettant de véhiculer l'information entre les composants de la machine).

HOUX S. Initiation à l’informatique Septembre 2002


5

2. Les composants d'un micro-ordinateur

Dans le cadre des micro-ordinateurs, il faut distinguer :


- le "HARDWARE" : matériel utilisé (comprenant l'unité centrale et les périphériques);
- le "SOFTWARE" : logiciels (= programmes) utilisés avec un micro-ordinateur.

a) le hardware

 l'unité centrale, moteur de l'ordinateur, traite les données et donne les résultats. Elle comprend :

- le microprocesseur (ou Central Processing Unit) : circuit intégré reprenant les dispositifs logiques
de lecture, le décodage et l'exécution d'une instruction.
Ce «cerveau», véritable centrale de calcul, est placé sur la "carte mère" de l'ordinateur.
Actuellement, le principal «fondeur» (constructeur de composants électroniques) s’appelle Intel
(microprocesseur Pentium) mais d’autres concurrents sont apparus (tels AMD) et fabriquent des
microprocesseurs de moindres coûts et parfois de moindre qualité.
Signalons aussi qu’Intel a commercialisé une version « allégée » de son Pentium appelée Celeron
moins chère mais aussi moins puissante en matière de calculs.
Microprocesseur F-100 . Ce microprocesseur de 0,6 cm2 est assez petit pour passer dans le chas d'une aiguille.

Le processeur contient beaucoup de transistors (par exemple 42 millions dans le cas d’un Pentium
4 sur une surface de 1 cm²).
Le « cœur » de l’ordinateur est constitué d’une minuscule horloge (ou quartz) vibrant des millions
de fois chaque seconde.

HOUX S. Initiation à l’informatique Septembre 2002


6
La fréquence de l’horloge placée sur la carte mère définit la vitesse du microprocesseur et va de
66 à 100 Mégahertz (c-à-d de 66 à 100 millions de pulsions par seconde).
Il est possible actuellement de démultiplier cette fréquence par des facteurs 2 (66 * 2 = 133 Mhz),
3,5 (66 * 3,5 = 233 Mhz),… pour atteindre actuellement des vitesses dépassant les 2.000 Mhz,
soit 2 Ghz (gigahertz, soit 2 milliards d’impulsions par seconde).
La carte mère est un grand circuit imprimé sur lequel sont placés des puces électroniques (chips),
des prises et d’autres circuits.
Elle constitue le « système sanguin » qui irrigue le PC, c-à-d qui s’occupe des échanges des
données entre les différents composants :

Processeur Mémoire RAM BIOS

Bus
Entrée/ sortie

Certaines petites mémoires spéciales appelées caches de second niveau permettent d’accélérer
sensiblement le fonctionnement du microprocesseur auxquelles elles sont associées.
Actuellement une cache de second niveau de 512 Ko constitue un choix judicieux.
Les « Pentium Celeron » ne disposent ni de cette cache ni d’un emplacement particulier
permettant de recevoir une carte d’affichage vidéo Agp (plus rapide que les autres).
La carte-mère intègre par ailleurs d’autres éléments :
 des puces électroniques ou chips : petits circuits comprenant des transistors tels que :
 les puces ROM de mémoire fixe reprenant le BIOS (petit programme placé en mémoire
permanente qui effectue des tests à la mise en route du PC, s’occupe des rapports entre le
matériel et le système d’exploitation) et d’autres programmes ;
 les puces CMOS reprenant des données du programme de configuration du BIOS ;
 les chipsets reprenant les contrôleurs effectuant des opérations vitales.
 des socles : connecteurs fixés sur la carte mère et correspondant exactement à une carte ou à
une puce. Ils permettent le montage du processeur et des modules RAM ainsi que des cartes
d’extension (adaptateurs PCI, AGP, AMR,…).
 des prises ( = connecteurs d’extension) permettant d’installer des cartes d’extension et donc
d’autres matériels. Ces connecteurs sont reliés au reste du système et en principal au
microprocesseur par des lignes spéciales appelées bus (le bus de données pour les informations
que traite le microprocesseur et le bus d’adresses pour les échanges avec la mémoire).
Trois formats de connecteurs d’extension existent:
1) ISA (fonctionnant sur 16 bits et mobilisant systématiquement le microprocesseur);
2) PCI (fonctionnant sur 32 bits et réalisant une partie des tâches sans le microprocesseur).
Les cartes PCI, plus rapides, sont surtout présentes pour les dispositifs qui demandent beaucoup de
débits (cartes vidéo ou réseau, SCSI pour graveur de CD-ROM,...);
3) AGP (= Accelerated Graphics Port ou port graphique accéléré).
 des branchements de connexion (appelés ports) des souris, imprimante, modem externe,...
Le port parallèle est associé à l’imprimante tandis que les ports série sont associés à la souris et
au modem. Les nouveaux standards sont les ports USB et FireWire.
 divers connecteurs :
1) le connecteur d’alimentation ;
2) des connexions au disque dur et aux lecteurs de disquettes et de CD-ROM ;
3) des cavaliers pour configurer la tension, la vitesse et d’autres paramètres ;
4) des prises de connexion au bouton de réinitialisation et aux diodes lumineuses pour
indiquer l’activité du disque dur, des haut-parleurs et autres composants.

HOUX S. Initiation à l’informatique Septembre 2002


7

- la mémoire centrale qui reprend les informations sur le système, les programmes en cours
d'exécution et les informations à traiter. Elle comprend :
1) les mémoires mortes ou ROM (Read Only Memory, mémoire en lecture seule).
Elles contiennent les informations lues et utilisées continuellement par l'ordinateur. Elles
ont notamment pour mission d’effectuer, à l’allumage du PC, les tests nécessaires au bon
fonctionnement du PC et puis de lancer le chargement du système d’exploitation. En
principe, l'utilisateur ne peut modifier ce type de mémoire mais les informations reprises
restent intactes même en cas de coupure de l'alimentation électrique.
2) les mémoires vives ou RAM (Random Access Memory, mémoire à accès aléatoire).
En principe, l'ordinateur ne peut effectuer qu'une seule opération à la fois.
Après un calcul, il stocke le résultat en mémoire (vive), passe au calcul suivant, stocke à
nouveau le résultat, etc...
En fait, il est actuellement possible de conserver les données lues sur le disque dur dans
une partie de la mémoire vive (appelée cache) afin d’accélérer la lecture.
Il existe plusieurs générations de mémoires vives : EDO, SDRAM, … qui se différencient
principalement par le temps d’accès aux données (de 10 nanosecondes pour les SDRAM à 60
nanosecondes pour les EDO). Le principal inconvénient de la mémoire Ram est qu’une
coupure de l'alimentation électrique entraîne la perte de toutes les informations non
enregistrées au préalable ! Les derniers modèles de PC sont équipés d’une mémoire vive
d’au moins 128 Mo, 256 Mo voire 512 Mo, surtout en cas d’utilisation d’applications
spécialisées dans le graphisme, la publication ou le multimédia.
L’accroissement des besoins en cette matière provient également de l’apparition et du
développement de Windows.
Remarques :
1) L’unité de travail des ordinateurs est le bit et exprime l’état magnétique d’un élément de base interprété grâce
au chiffre 0 ou 1. Les informaticiens parlent d’unité binaire. Les ordinateurs peuvent traiter des groupes de 8
bits appelés octets. Un octet peut représenter 256 (28) valeurs, allant de 0 à 255.
Ainsi, un microprocesseur 32 bits est capable de traiter en même temps 4 octets (soit environ 4,2 milliards
valeurs !). D’autres unités de mesure ont été inventées depuis le début des ordinateurs :
 le kilo-octet (Ko) vaut 1.024 octets;
 le méga-octet (Mo) vaut 1.048.576 octets;
 le giga-octet (Go) vaut 1.073.741.824 octets (ou 1.024 Mo).
Les ordinateurs peuvent traiter en une opération des chiffres d’une certaine longueur (de 4 bits pour le 1er
microprocesseur d’Intel à 32 bits pour le Pentium 4 et bientôt 64 bits avec les processeurs « Itanium » d’Intel
et « Hammer » d’AMD).
2) Un emplacement dans la mémoire se définit par une adresse qui permet au microprocesseur de communiquer
avec la mémoire ou les périphériques. Nous pouvons distinguer :
 les adresses les plus basses qui correspondent aux points d’accès des composants du système;
 la mémoire de base (jusqu’à 640 Ko) (utilisée par les programmes DOS et la seule existante avant
l’avènement des nouveaux PC avec Windows 95 ou 98);
 la mémoire haute (de 640 Ko à 1 Mo) correspondant aux zones d’affichage, d’accès à la ROM ou de
certaines cartes d’extension. La place résiduelle est utilisée pour libérer de la place en mémoire de base et
donc d’améliorer la configuration du PC.
 la mémoire étendue (au-delà de 1 Mo) ou mémoire XMS, gérée par Windows ou la mémoire expansée (ou
EMS) dans le cas notamment de la gestion de certains jeux.

 les périphériques :
Il s'agit des programmes d'entrées-sorties des informations.
L'unité centrale communique avec les périphériques par le biais de bus (= routes à plusieurs voies
véhiculant les informations).
En général, nous distinguons 3 types de périphériques :
- les périphériques d'entrées (clavier, souris, scanner,…);
- les périphériques de sorties (imprimante, écran, …);
HOUX S. Initiation à l’informatique Septembre 2002
8
- les périphériques d’entrées et de sorties (lecteur de disquette, disque dur, modem, …)

- le clavier :
Touches de fonction Lampes témoin

Pavé numérique

Touches courantes Flèches de Touches de


direction direction
 "Shift" : permet d'écrire les lettres en majuscules et les caractères "supérieurs" des
touches.
 "Backspace" : efface le caractère à gauche du curseur.
 "Del" : efface le caractère se trouvant sur le curseur.
 "Caps lock" : bloque le clavier en mode "majuscule".
 "Num lock" : active/désactive le pavé numérique.
 "Enter" / "Return" : valide une entrée.
 "Alt" et "Ctrl" : permettent d'activer d'autres fonctions.
 "F1", "F2", ... : touches de fonction.

- la souris :
Il s’agit d’un dispositif que l’utilisateur peut déplacer sur une surface plane (en général un tapis).
Les déplacements sont illustrés à l’écran par le pointeur, c-à-d une flèche ou un symbole adapté à chaque
situation particulière.
Pour effectuer une action ou un choix avec la souris, il convient d’appuyer (= cliquer) sur un des boutons
situés sur la souris.
Trois techniques coexistent actuellement :
1) mécanique (petite boule qui roule lors du déplacement de la souris);
2) optique (déplacement de la souris sur une surface réfléchissante quadrillée);
3) spéciale (petit écran sur lequel l’utilisateur promène son doigt).
De nouveaux modèles utilisent la technologie radio digitale avec roulette, ce qui permet de supprimer la
liaison physique (fil) avec l’unité centrale. Le coût de ce type de souris est cependant plus élevé.

Le track-ball est une variante de la souris. L’utilisateur fait rouler la boule située au-dessus de
l’instrument.

Quelques notions de vocabulaire en cette matière :


1) cliquer (gauche ou droit) signifie appuyer sur un des boutons de la souris;
2) double-cliquer (ou cliquer double) signifie appuyer 2 fois de suite, à intervalles rapprochés, sur le
bouton gauche; sur certains modèles existent cependant un bouton « du pouce » qui remplace cette
opération;
3) glisser signifie déplacer la souris tout en maintenant enfoncé le bouton gauche.

- l'écran (ou moniteur) et la carte vidéo :


Trois critères régissent le choix d’un écran :
1) la qualité de fabrication;
2) la résolution (c-à-d le nombre de points affichables);
3) la fréquence de balayage.

HOUX S. Initiation à l’informatique Septembre 2002


9
Il faut distinguer la résolution horizontale (nombre de points sur une ligne) et la résolution verticale
(nombre de points par colonne).
Par exemple, une résolution de 640x480 signifie 640 points de long sur 480 points de haut.

La taille du moniteur est mesurée selon la diagonale :


1°) 14 pouces (35,5 cm) ;
2°) 15 pouces (38 cm) ;
3°) 17 pouces (40,6 cm) ;
4°) 19 pouces (45,7 cm) ;
5°) 20 pouces (50,8 cm).
La fréquence (verticale) de balayage (ou de renouvellement de l’image) doit atteindre au moins 75 Hz afin
d’éviter un scintillement de l’image.
La dimension du point à l’écran ou espacement entre deux points de l’image (appelée dot pitch) doit de
préférence rester inférieure à 0,30 millimètre.
Il existe actuellement 3 modes de résolution pour les cartes vidéo :
1) le mode VGA (640 x 480 points) ;
2) le mode SVGA (800 x 600 points) ;
3) le mode SVGA étendu ou XGA (1024 x 768 points).
Chaque type de carte vidéo permet également d’afficher un certain nombre de couleurs selon sa capacité
(actuellement de 2 à 4 Mo de mémoire) et disposent de mémoires plus ou moins rapides.
Certaines cartes (3Dfx Voodoo graphics chipset,…) disposent de fonctions d’accélération 3D appréciées
pour certains jeux …

- les imprimantes :
Plusieurs types d’imprimantes existent. Voici les plus courantes :
1) à jet d'encre (inconvénient : impossibilité d'utiliser du papier carbone; avantages : bonne qualité
d'impression et absence de bruit);
2) laser (inconvénient : coût élevé surtout pour celles qui permettent l’impression en couleurs; avantage :
excellente qualité d'impression, reproduction d’une même page plus rapide, meilleure résolution).

Remarque :
Les imprimantes à marguerite et matricielles ne sont actuellement plus commercialisées.

- le modem :
Il existe 2 grandes catégories de modem :
1) les modems internes (carte à insérer dans un connecteur interne de l’ordinateur);
2) les modems externes (reliés à un port du PC et branchés sur le secteur).
Les modems récents sont plus rapides que les autres. En effet, leur rapidité est de 55600 bits par seconde
(bps). La rapidité des modems est également exprimée en bauds.

- le scanner :
Il permet de photographier (= numériser) un document dans le but de le transformer en une image dans la
mémoire de l’ordinateur et parfois de « récupérer » un document pour être retravailler dans un traitement
de textes. Son emploi nécessite en général le recours à un logiciel de reconnaissance de caractères.
Plusieurs modèles existent : 1) à défilement (par introduction d’une feuille dans un cylindre) ;
2) à plat (comme pour une photocopieuse).
Le prix dépend de la qualité de la construction, du nombre de couleurs lisibles, de l’ampleur de la
résolution, des logiciels fournis,…
La plupart des scanners actuels permettent une résolution de 600 points par pouce (ppp) et donnent une
image Truecolor (16,7 millions de couleurs, soit 3 octets par point). L’inconvénient majeur se situe au
niveau de la place occupée. Par exemple, une photographie 9 x 13 est transformée en une image de 2000
points sur 3000 et occupe une place de 18 Mo !

HOUX S. Initiation à l’informatique Septembre 2002


10
- les mémoires de stockage :
1) la disquette (ou disque souple ou floppy) :
 obligation de "formatage" (souvent réalisé par le fabricant);
 caractéristiques : dimension physique (3 ½ pouces - un pouce = 2,54 cm- )
et capacité (1.440.000 caractères).
 intérêt :
 remettre le PC en route en cas de problème (avec une disquette système) ;
 installer des programmes livrés sur disquettes (de plus en plus rare!);
 sauvegarder une partie du disque dur.
2) le disque dur
Il est composé d’un grand nombre de plateaux magnétiques circulaires entre lesquels flottent
des têtes de lecture et d’écriture.
Les plateaux des disques sont partagés en pistes concentriques, elles-mêmes découpées en
zones plus petites appelées secteurs (superposés pour former un volume).
Chaque secteur comporte 512 octets. Un disque dur de 1.220 Mo (soit 1,2 Go) comporte en fait
63 secteurs par piste et 39678 pistes.
L’utilisateur ne peut accéder qu’à un groupe de secteurs à la fois appelé unité d’allocation ou
cluster. La taille des clusters varie de 8 Ko à 32 Ko selon la capacité du disque dur.
Afin d’économiser de la place sur le disque dur, les versions récentes de Windows prévoient de
le formater dans un mode appelé FAT32.
Celui-ci permet de réduire la taille des clusters à 4 Ko mais est incompatible avec certains
programmes utilitaires relativement anciens.
La capacité de stockage est beaucoup plus grande que celle d’une disquette. Actuellement les
PC commercialisés disposent d’un disque dur d’une capacité d’au moins 2 Go (soit 2.000
Mo).
Par rapport à la disquette, le disque dur présente aussi comme avantages un temps d'accès aux
informations plus rapide (de 10 à 13 millièmes de secondes) ainsi qu’une précision mécanique
et une fiabilité plus grandes.
Actuellement, il faut distinguer 2 races de disques durs :
- les EIDE permettant via un contrôleur placé sur la carte mère de le faire fonctionner;
- les SCSI nécessitant la présence d’un contrôleur spécifique, plus rapides et d’un débit plus
régulier que les EIDE mais plus onéreux.

3) la bande magnétique (avantages : installation facile, pas de formatage, capacité de stockage


presque illimitée – de 800 Mo à 2 Go - , faible coût; inconvénient : temps d'accès séquentiel et
donc très long).

4) le lecteur de Cd-Rom peut être branché sur un connecteur de disque dur ou sur la carte son (ou sur
une carte SCI).
La vitesse d’un lecteur de Cd-Rom mesure le nombre de rotations du disque dur par unité de
temps.
Actuellement, le standard se compose de lecteurs 16x (voire 24x ou 32x) et permet théoriquement
de transférer plus de 2 Mo par seconde avec un temps d’accès d’environ 100 millisecondes.
Par ailleurs, le taux de sollicitation du microprocesseur varie d’un lecteur à l’autre.
Remarque :
Actuellement les Cd-Rom peuvent être reproduits grâce à l’utilisation d’un graveur de CD-ROM.

5) le DVD-ROM (Digital Video Disk), disque numérique multifonctionnel, permet d’enregistrer


plus de 4 Go de données (soit l’équivalent environ de 7 CD-ROM).
Ce type de matériel est surtout réservé à la diffusion de films numériques de haute qualité, avec
enregistrements sonores en plusieurs langues.

HOUX S. Initiation à l’informatique Septembre 2002


11
Le DVD-ROM présente cependant certains inconvénients : prix élevé, manque de titres
disponibles, nécessité d’avoir une carte MPEG pour afficher correctement les disques vidéo sur
l’écran,…
Les graveurs DVD-Rom sont apparus depuis plusieurs mois à des prix « accessibles ».

6) les disquettes de haute capacité (100 ou 250 Mo) (modèles ZIP de Ioméga).

7) les disques magnéto-optiques.


Autres périphériques :
1) la tablette à digitaliser (crayon à déplacer sur une surface pourvue d’un quadrillage très dense et qui
permet de dessiner à main levée);
2) le digitaliseur vidéo (pour récupérer des images provenant d’une caméra ou d’un magnétoscope ou
pour réaliser des montages vidéo);
3) l’appareil photographique numérique (permettant de transférer l’image dans une mémoire puis dans
le PC afin de la retoucher, de l’intégrer dans un document, de l’imprimer,…);
4) le joystick (destiné aux joueurs et qui se branche sur l’arrière de la carte son);
5) les cartes réseau (permettant de relier des PC entre eux en vue de travailler avec des programmes ou
des documents communs).

b) le software
 principes généraux
Le fonctionnement d'un micro-ordinateur est décomposé en 3 phases :

Entrée Traitement Sortie

- l'entrée des données( numériques, alphabétiques ou alphanumériques);


- le traitement des données (validation, classement, calculs, tri, ...);
- la sortie des résultats( stockés dans des fichiers, édités et/ou affichés).
 les logiciels
Les ordres ou instructions donnés à l'ordinateur afin d'atteindre l'objectif visé sont regroupés dans un
programme, souvent appelé "logiciel". Il existe plusieurs types de logiciels :
- les logiciels de base (système d'exploitation,...);
- les langages de programmation (Visual Basic, Cobol, Pascal, C++, ...);
- les logiciels "outils" (Word, Excel, Access, Wordperfect, Dbase, Lotus, ...) et les progiciels ou
programmes d'applications (Cubic, Ciel,...).

Tous les ordinateurs ne peuvent recevoir tous les logiciels.


Il faut en général une "configuration minimale" (version du système d'exploitation, mémoire RAM
suffisante, présence d'un disque dur,...).
Après copie sur le disque dur des disquettes du logiciel, il faut adapter ce dernier au matériel disponible et
aux besoins de l'utilisateur. Cette "paramétrisation" est appelée le "set up".

Glossaire
(Source : « L’Architecture PC – Théorie et pratique » ; Compétence Micro ; n° 28 ; Juin 2002)
Terme Définition
Cache Mémoire intermédiaire aussi appelée mémoire tampon
Chipset Ensemble de contrôleurs de la carte mère par exemple
Contrôleur Circuit contrôlant des composants matériels
Données binaires Données exprimées en 0 et 1
Fréquence horloge Cadence de transport de données
Hub Contrôleurs « pont nord » et « pont sud »
Interface Système de transmission de données d’un composant à un autre
Largeur de bande Capacité de transport de données mesurée en kilobits par seconde ou en méga-octets par
seconde
HOUX S. Initiation à l’informatique Septembre 2002
12
Largeur de bus Taille (8, 16, 32, 64, 128 ou 256 bits) des paquets de données traitées durant une durée de
travail
Mégahertz Vitesse de fréquence horloge (en millions d’oscillations par seconde)
Pont Nord Puce de la carte mère réalisant le contrôle rapproché de la circulation de données du
processeur
Pont Sud Puce de la carte mère gérant la circulation des données non rapprochées du processeur
(circulation entrée/sortie)
Protocoles Règles de circulation de données réglant le transport entre 2 composants ou systèmes

3. Système d'exploitation et opérations élémentaires sur les mémoires et leurs contenus

a) système d’exploitation et commandes DOS

Pour exécuter les commandes de base (copier, imprimer, ...), l'ordinateur a besoin du langage machine.
L'ensemble des commandes forme le système d'exploitation.
Le système d'exploitation qui était le plus usité s'appelait le "MS-DOS" (MicroSoft-Disk Operating
System).
Celui-ci est automatiquement chargé lorsque que nous allumons notre ordinateur.
Le nom d'un fichier comportait traditionnellement au maximum 8 caractères (lettres, chiffres, caractères
spéciaux tels que $, &, %, @,...) qui pouvaient être suivis d'un point et d'une extension de 3 caractères.

Exemples : Format.Com; Diskcopy.Sys, Backup.Exe, Autoexec.Bat,...


Les dernières versions de Windows de Microsoft Office permettent de définir des noms de fichiers plus
grands.
Certaines commandes (choisir le type de clavier, introduire la date et l'heure, afficher un menu, ...)
peuvent être exécutées au départ mais il est préférable de les inclure dans un fichier appelé "autoexec.bat".

Les principales commandes sont les suivantes :


1) Le formatage d'une disquette : FORMAT A: formate une disquette se trouvant dans le lecteur A;
2) L'affichage du contenu d'un disque dur ou d'une disquette (DIR) :
DIR : affiche les noms des fichiers et sous-répertoires du répertoire courant;
DIR B: : affiche les noms des fichiers et sous-répertoires se trouvant sur une disquette (placée dans le
lecteur B);
DIR *.EXE : affiche les noms des fichiers d'extension "EXE";
DIR/P : affiche le répertoire courant page par page;
DIR/W : affiche (en résumé) le répertoire courant;
DIR|SORT : affiche le répertoire courant par ordre alphabétique.
3) La modification de la date du jour (DATE)
4) La modification de l'heure (TIME)
5) L'énonciation de la version du DOS (VER)
6) Le nettoyage de l'écran (CLS)
7) La création d'un sous-répertoire (MD) : MD ECOLE : crée un sous-répertoire appelé ECOLE.
8) Le changement de sous-répertoire (CD) :
CD ECOLE : "ouvre" le sous-répertoire appelé ECOLE;
CD.. : ferme le sous-répertoire courant;
CD\ : ferme tous les sous-répertoires.
9) L'effacement d'un sous-répertoire (RD) : RD ECOLE : efface le sous-répertoire (vide !) ECOLE.
10) La création d'un chemin annexe de sous-répertoire (PATH)
11) La visualisation des sous-répertoires (TREE ou ARBRE)
12) La visualisation du contenu d'un fichier :TYPE AUTOEXEC.BAT : affiche le contenu du fichier.
13) La copie d'une disquette (DISKCOPY) : DISKCOPY : copie une disquette sur une autre disquette.
14) La copie d'un fichier (COPY) :
COPY AUTOEXEC.BAT B: : copie le fichier AUTOEXEC.BAT sur la disquette placée dans
le lecteur B et sous le même nom;
HOUX S. Initiation à l’informatique Septembre 2002
13
15) La copie de sécurité d'un disque dur (BACKUP) :
BACKUP C: A: : sauvegarde le contenu du disque dur (C) sur la disquette A;
16) La restauration des fichiers et (sous-)répertoires (RESTORE) :
RESTORE A: C: : restaure le contenu de la disquette A sur C.
17) Déterminer la mémoire interne disponible (CHKDSK ou MEM)

b) l’environnement logiciel

Windows (98, 2000, NT4,Millénium, XP, …) constitue le système d’exploitation le plus utilisé
actuellement.
Un système d’exploitation est un programme conçu pour permettre à l’utilisateur de dialoguer avec la
machine.
Il permet par exemples de lancer un programme, copier des fichiers, installer un nouveau logiciel, éteindre
l’ordinateur, etc.
Précédemment, l’utilisateur devait introduire une série de commandes (avec le respect d’une syntaxe
précise) afin de gérer le système d’exploitation.
Ce système peu convivial fut remplacé par un interface utilisateur totalement graphique appelé
« Windows » (= fenêtre en anglais), représentant les moyens mis en œuvre pour entrer en contact avec
l’utilisateur.
A cet effet, Windows utilise des menus, des icônes, des boîtes de dialogue et des messages.

L’installation de Windows (version 98) nécessite pour un bon fonctionnement :


- un processeur Pentium (100 Mhz) au minimum ;
- 16 à 32 Mo de mémoire vive (RAM) ;
- 170 Mo d’espace disque ;
- un CD-Rom 6 x ;
- une souris PC.

1. Exécution d’une application

Lors du démarrage de Windows, le système vérifie et initialise les différents périphériques connectés.
Le bureau de Windows apparaît ensuite.
Celui-ci permet de lancer les applications, copier des fichiers, configurer la machine, accéder à tous les
utilitaires du système exploitation, éteindre l’ordinateur, …

(2)

(1)
(1)

Le bureau de Windows comprend plusieurs éléments :


- la barre de tâches (1) reprenant le bouton Démarrer ainsi que diverses informations (heure,
programmes résidents chargés automatiquement au démarrage de l’ordinateur, …) ;
- des icônes (2) représentant des dossiers, des programmes et/ou des raccourcis à certaines applications.

Une icône est en fait un petit symbole graphique généralement accompagné d’un nom (nom de fichier ou
d’objet qu’il représente). Une icône peut représenter :
 un document (lettre, tableau, image, son, …) ;
 un fichier programme exécutable ;

HOUX S. Initiation à l’informatique Septembre 2002


14
 un dossier (zone créée par l’utilisateur ou par le système en vue du stockage et du rassemblement
des informations) ;
 un raccourci.

Un dossier est représenté par un classeur jaune. Il peut contenir d’autres dossiers ou des fichiers.

Double-cliquez par exemple sur l’icône dossier Mes documents. Une fenêtre apparaît :

Pour refermer la fenêtre, cliquez sur le bouton en forme de croix situé en haut à droite de la fenêtre.

La création d’un dossier vide (nommé Programmes) sur le bureau s’effectue comme suit :
- cliquez droit sur une zone vierge du bureau ;
- sélectionnez la commande Nouveau / Dossier ;
- entrez le mot Programmes ;
- validez (= appuyez sur la touche Enter / Return du clavier).

L’icône suivante apparaît :

Remarque :
En l’absence de précision, l’instruction « Cliquez » signifie « Appuyez sur le bouton gauche de la
souris ».
Lorsque vous devez cliquer sur le bouton droit de la souris, vous faites apparaître systématiquement un
menu contextuel, c’est à dire qui se rapporte à l’élément sélectionné.

La suppression d’une icône s’effectue comme suit :


- cliquez droit sur l’icône créée ci-dessus ;
- cliquez sur la commande Supprimer ;
- cliquez sur Oui (afin de confirmer la suppression de l’icône) :

HOUX S. Initiation à l’informatique Septembre 2002


15

Un double-clic sur une icône programme provoque l’exécution du programme et son chargement en
mémoire centrale.
Essayez cette opération sur une des icônes programmes du bureau.
Les raccourcis aux programmes constituent un moyen rapide d’accéder au logiciel à partir d’endroits
multiples. Ils se différencient des autres icônes par la présence d’une flèche dans le coin inférieur gauche.
Double-cliquez, par exemple, sur l’icône Microsoft Outlook :

La boîte de réception suivante apparaît :

Remarque :
Microsoft Outlook est un programme d’Office comportant un agenda, un carnet d’adresses, un gestionnaire de
courrier électronique et un gestionnaire de tâches.

Le déplacement des icônes est réalisé par la technique du glisser-déposer.


Essayez de déplacer une icône située dans le bureau.
Faites de même pour une icône placée dans la barre des tâches.
Pour déplacer simultanément plusieurs icônes, il suffit au préalable de les avoir toutes sélectionnées (en
cliquant sur la 1ère icône, en maintenant appuyée la touche Ctrl du clavier et en cliquant sur les autres
icônes à déplacer).

Les fenêtres constituent un élément fondamental de Windows (par définition !).


Une fenêtre peut être agrandie, réduite, déplacée ou fermée grâce à l’emploi de la souris.

HOUX S. Initiation à l’informatique Septembre 2002


16
Prenez par exemple la fenêtre Poste de travail :
(1)

(2)

(3)

(5)

(6)
(4)
Toutes les fenêtres
comportent le même genre d’éléments :
1) une barre de titre avec 4 boutons (1) ;
2) une barre de menus (2) ;
3) une barre d’outils (3) ;
4) une barre d’état (4) ;
5) une zone d’affichage des informations (5) ;
6) des barres de défilement horizontal et/ou vertical (6).

La barre de titres contient le nom du dossier ou de l’application ouverte (ici Poste de travail).
Sur la gauche se situe le bouton de contrôle (appelé bouton Système) qui comprend 6 commandes de
manipulation de la fenêtre (cliquez dessus) :

Restauration
Déplacement
Dimension
Réduction
Agrandissement
Fermeture – Alt + F4

Cependant, ce menu n’est pas couramment utilisé en raison de la présence des boutons placés à
l’extrémité droite de la barre titre.

La barre de menus comprend 6 menus :


1) Fichier (permet de créer un nouveau dossier, un nouveau document, un raccourci, de supprimer,
renommer un objet ou d’en afficher ses propriétés) ;
2) Edition (permet de sélectionner, copier, supprimer ou coller un objet) ;
3) Affichage (permet de modifier l’affichage des objets dans la fenêtre et d’ajouter des barres d’outils, de
trier les objets affichés ou de définir les options d’affichage) ;
4) Aller à (permet de se déplacer d’un site à un autre, d’accéder rapidement aux utilitaires liés à
l’Internet tels que le courrier électronique, les conférences, la recherche sur le Web) ;
5) Favoris (reprend toutes les commandes de gestion des sites favoris) ;
6) ? (permet d’accéder à l’aide de Windows).

Remarques :
1) Les menus et les commandes comportent une lettre soulignée (souvent la 1ère lettre). Pour exécuter une
commande, il suffit de cliquer simultanément sur la touche Alt du clavier et sur la lettre soulignée.
2) Comme nous l’avons déjà expliqué, chaque objet du système possède un menu contextuel qui apparaît en
cliquant droit sur l’icône de l’objet. Ce menu contextuel reprend les commandes principales de gestion de
l’objet, ce qui permet d’éviter le déplacement du pointeur de la souris vers le haut de la fenêtre dans la barre
des menus.
Essayez d’accéder à ces différentes commandes.
HOUX S. Initiation à l’informatique Septembre 2002
17
La barre d’outils permet d’exécuter rapidement certaines commandes.
Trois barres d’outils sont proposées par Windows 98 dans les dossiers :
- Boutons Standard (reprenant 10 icônes) ;
- Barre d’Adresses (permettant de sélectionner un dossier en vue d’afficher son contenu sur base d’une
liste déroulante) ;
- Liens (permettant d’afficher les différentes adresses de sites Web utiles).
La barre d’outils Standard comporte plusieurs commandes :

(1) (2) (3) (4) (5) (6) (7) (8) (9) (10)

(1) Précédente (montre le dossier précédent affiché) ;


(2) Suivante (montre le dossier suivant affiché) ;
(3) Dossier parent (affiche le dossier parent) ;
(4) Couper (place l’objet sélectionné dans le presse-papiers en vue d’un déplacement) ;
(5) Copier (place l’objet sélectionné dans le presse-papiers en vue d’une copie) ;
(6) Coller (insère l’objet provenant du presse-papiers) ;
(7) Annuler (annule la dernière opération) ;
(8) Supprimer (supprime l’objet sélectionné sans le placer dans le presse-papiers) ;
(9) Propriétés (affiche les propriétés de l’objet) ;
(10) Affichage (modifie l’affichage des objets).

Remarque :
Le presse-papier est une zone réservée par Windows afin de stocker des informations.

La barre d’état située au bas de la fenêtre fournit des informations utiles : nombre d’objets présents dans
la fenêtre, taille du fichier sélectionné, nombre d’objets sélectionnés, …
La zone d’affichage des données reprend toutes les icônes représentant des dossiers ou des fichiers.
L’ordre de présentation des informations peut être modifié grâce aux commandes du menu Affichage /
Réorganiser les icônes :
- par nom (tri alphabétique croissant des noms) ;
- par type (tri alphabétique croissant des types des icônes) ;
- par taille (tri croissant des tailles des fichiers) ;
- par date (tri chronologique des dates de modification des fichiers).
Le mode d’affichage des icônes dans une fenêtre peut être modifié via le bouton Affichage de la barre
d’outils Standard :
- Grandes icônes ;
- Petites icônes ;
- Liste (affichage des fichiers et dossiers les uns en dessous des autres) ;
- Détails (affichage des fichiers et dossiers les uns en dessous des autres ainsi que d’autres informations telles
que la taille du fichier, le type de fichier, la date de dernière modification du fichier).
Plusieurs fenêtres peuvent apparaître simultanément sur le bureau :
- ouvrez plusieurs applications (par exemple Word et Access) ;
- réduisez les deux fenêtres (bouton du milieu en haut à droite) ;
- cliquez droit sur une zone vierge de la barre de tâches ;
- cliquez sur Cascade ou sur Mosaïque horizontale ou verticale.
Les boîtes de dialogue permettent de choisir des options, des propriétés ou des paramètres pour un objet
ou un thème sélectionné.
Elles reprennent en général plusieurs onglets (ce qui augmente considérablement le nombre d’options
disponibles) ainsi que certains boutons (OK, Annuler et Appliquer).
Les commandes de la barre de menus provoquant l’affichage d’une boîte de dialogue sont identifiées par
l’ajout de 3 points.

HOUX S. Initiation à l’informatique Septembre 2002


18
Dans Poste de travail, cliquez par exemple sur le menu Affichage et sur la commande Options des
dossiers…
Windows propose une boîte de dialogue permettant de choisir les options d’affichage des dossiers :

La liste déroulante offre la possibilité de choisir une option parmi une liste prédéfinie.
Exemple, dans Word, cliquez sur Outils, Langue, Langue… :

Le bouton de commande provoque l’affichage d’une nouvelle boîte de dialogue se rapportant à l’intitulé
présent sur le bouton.
Exemple :

Les boutons radio sont toujours regroupés et permettent d’effectuer un choix entre plusieurs options
disponibles.
Exemple : dans Word, cliquez sur Fichier, Mise en page…, Taille :

Les onglets permettent d’afficher une série d’options en rapport avec l’intitulé de l’onglet dans la même
boîte de dialogue.
Exemple : dans Word, cliquez sur Fichier, Mise en page…, Taille :

HOUX S. Initiation à l’informatique Septembre 2002


19

Les cases à cocher permettent d’activer une option.


Exemple : dans Word, cliquez sur Fichier, Mise en page…, Disposition :

Le bouton est un bouton spécial permettant d’accéder à tous les programmes stockés sur le
disque dur ainsi qu’aux utilitaires de configuration du système.

La commande Programmes provoque l’affichage d’un sous-menu contenant les commandes d’accès à
toutes les applications présentes sur le disque dur. Il s’agit donc de la principale commande pour charger
une application en mémoire centrale.

Par exemple, nous allons charger un accessoire fourni avec Windows 98 : le Bloc-notes (c’est à dire un
petit traitement de textes) :
- cliquez sur le bouton ;
- déplacez la souris sur la commande Programmes puis cliquez sur le dossier Accessoires ;
- cliquez sur la commande Bloc-notes. La boîte suivante apparaît :

- refermez l’application en cliquant sur la croix en haut à droite.


Remarque :
Pour exécuter un programme, Windows doit le charger en mémoire centrale (qui n’est pas le disque dur !) avant
l’affichage à l’écran. L’opération d’exécution consiste donc à prendre le programme depuis le disque dur et à
l’envoyer (= le charger) dans la mémoire centrale. Il s’agit en effet du seul endroit où le processeur parvient à
effectuer des opérations.

2. Sortie d’une application

Comme nous l’avons vu ci-dessus, la sortie d’une application peut être réalisée simplement en cliquant
sur la croix située en haut à droite de l’application.
En général, il est possible également de passer par les menus.
Ouvrez, par exemple Access et cliquez sur le bouton de commande Annuler puis sur le menu Fichier.
Cliquez ensuite sur l’option Quitter : le programme est automatiquement fermé.

3. Organisation de l’agencement des différents objets utilisés

La barre des tâches peut être agencée de la manière suivante :


- cliquez droit sur la barre des tâches (sur un endroit vierge !);
- cliquez sur la commande Propriétés :

HOUX S. Initiation à l’informatique Septembre 2002


20

- cliquez (si nécessaire) sur l’onglet Options de la barre de tâches ;


- cochez successivement les 4 cases présentes :
 Toujours visible (afin de toujours afficher la barre des tâches au-dessous des autres fenêtres) ;
 Masquer automatiquement (afin de n’afficher la barre de tâches qu’en dirigeant le pointeur de
la souris vers le bas de l’écran) ;
 Afficher des petites icônes dans le menu Démarrer (afin de réduire la taille des icônes dans le
menu et les sous-menus affichés à l’aide du bouton );
 Afficher l’horloge (afin d’afficher l’heure système à l’extrémité droite de la barre des tâches).
- cliquez sur le bouton OK pour faire disparaître la boîte de dialogue Propriétés de Barre des tâches.

La barre des tâches peut être déplacée vers la droite, la gauche ou le haut de l’écran grâce à la technique
du glisser-déposer :
- cliquez sur une zone vierge de la barre des tâches ;
- maintenez le bouton de la souris enfoncé ;
- déplacez le pointeur de la souris vers le haut de l’écran ;
- relâchez le bouton de la souris.

L’agrandissement de la barre des tâches est facilement réalisable :


- placez le pointeur de la souris sur la ligne séparant la barre des tâches du bureau ;
- cliquez et maintenez le bouton de la souris enfoncé ;
- déplacez le pointeur vers le haut ;
- relâchez le bouton de la souris.

Il est possible de faire apparaître des barres d’outils prédéfinies contenant plusieurs icônes représentant
des raccourcis à certaines commandes ou dossiers spéciaux (par exemple les icônes du bureau) :
- cliquez droit sur une zone vierge de la barre des tâches ;
- déplacez la souris sur la commande Barres d’outils puis cliquez sur la commande Bureau :

Remarque :
Il est possible de faire disparaître la barre par le même procédé.

HOUX S. Initiation à l’informatique Septembre 2002


21
Windows 98 propose d’autres barres d’outils prédéfinies :
- Adresse ;
- Liens ;
- Lancement rapide.

La barre d’outils Lancement rapide contient un accès rapide au navigateur Explorer, au programme
Outlook et aux sites choisis par Windows 98 lors de l’installation du système.
Elle permet à l’utilisateur d’y placer toutes ses applications préférées auxquelles il pourra accéder
rapidement et en permanence.

Prenons un exemple :
- double-cliquez successivement sur les icônes Poste de travail, Unité C:, Program Files, Microsoft
Office et Office :

- cliquez sur l’icône Winword.exe (programme de démarrage du traitement de texte Word) et maintenez
le bouton enfoncé ;
- déplacez le pointeur de la souris jusqu’à la barre Lancement rapide.

Désormais, le lancement du programme Word peut être réalisé en cliquant sur cette icône (essayez !).

4. « Basculement » d’une application à une autre

Le basculement d’une application à une autre est facile avec Windows 98. En effet, au fur et à mesure que
les applications sont chargées en mémoire centrale, Windows 98 ajoute automatiquement un bouton
correspondant dans la barre des tâches.

Ainsi par exemple, la barre des tâches ci-dessous nous informe que deux programmes ont été ouverts :
- Microsoft Word (traitement de texte) ;
- Microsoft Access (Système de Gestion de Bases de Données) :

Chaque fois que nous chargeons une nouvelle application, celle-ci recouvre la fenêtre de l’application
précédente.

HOUX S. Initiation à l’informatique Septembre 2002


22
Nous pouvons cependant facilement rappeler une application précédemment ouverte en cliquant sur le
bouton correspondant dans la barre des tâches.
Par exemple, ouvrez successivement Microsoft Access, Microsoft Word et Microsoft Excel.
Passez d’une application à l’autre.
(1)(2) (3)
En haut à droite de chaque fenêtre se trouvent trois boutons utilisables dans ces
circonstances :
- le premier (1) permet de réduire la fenêtre ;
- le deuxième (2) permet de restaurer la fenêtre ;
- le troisième (3) permet de fermer la fenêtre.

Le deuxième bouton présente parfois une forme différente ( ) qui permet d’agrandir la fenêtre
(lorsqu’elle a été réduite).
Essayez d’utiliser ces différents boutons.

5. Manipulations de base

La gestion des fichiers et des dossiers comporte différentes opérations qui sont souvent réalisées à partir
de l’Explorateur Windows.
Il constitue l’outil idéal pour visualiser rapidement le contenu des dossiers stockés sur les différentes
unités de disque de l’ordinateur.

Il peut être utilisé pour :


- naviguer de dossiers en sous-dossiers ou d’une unité à l’autre ;
- copier des fichiers ;
- supprimer des fichiers ;
- examiner les propriétés des fichiers ;
- renommer un fichier ou un dossier ;
- lancer une application ;
- ouvrir et visualiser rapidement le contenu d’un fichier ;
- créer et supprimer des dossiers ;
- rechercher des dossiers ou des fichiers.
Pour accéder à l’Explorateur Windows, il faut :
- soit cliquer sur Démarrer, Programmes, Explorateur Windows ;
- soit cliquer droit sur l’icône d’un dossier/d’une unité de disque et sélectionner la commande
Explorer ;
- soit appuyer sur les touches du clavier Windows + E ;
- soit maintenir la touche Shift enfoncée et double-cliquer sur l’icône d’un dossier ou d’une unité de
disque.
L’Explorateur comporte 2 panneaux :

HOUX S. Initiation à l’informatique Septembre 2002


23

Celui de gauche représente l’arborescence de tout le bureau de Windows 98 avec les unités de disque et
les dossiers qui le composent.
La sélection d’un dossier ou d’une unité de disque provoque l’affichage de son contenu dans la partie
droite de l’Explorateur.

1°) la création de dossier

Etant dans l’Explorateur Windows :


- cliquez sur l’unité C : dans la colonne de gauche ;
- cliquez sur Fichier, Nouveau, Dossier ;
- encodez le nom du nouveau dossier (par exemple Source) ;
- créez de la même manière un nouveau dossier appelé Cible.

2°) la copie de fichiers

Elle permet de transférer des informations d’un dossier vers un autre ou d’une unité vers une autre unité
en laissant les données d’origine intactes.
Nous allons créer un petit fichier en traitement de texte, le sauvegarder dans le dossier Source (sous le
nom de As) et le recopier dans le dossier Cible :
- lancez l’application Word puis cliquez (éventuellement) sur Fichier/ Nouveau… ;
- encodez le texte suivant : Je suis un as de l’informatique ;
- cliquez sur Fichier / Enregistrer (ou sur l’icône représentant une disquette) ;
- cliquez sur la liste déroulante Enregistrer dans : …. ;
- double-cliquez sur C : puis sur Source ;
- encodez comme Nom de fichier : As ;
- cliquez sur le bouton Enregistrer.
Dans l’Explorateur Windows :
- cliquez sur Source (de préférence dans le panneau gauche) ;
- cliquez droit sur le nom As (apparu dans le panneau de droite) ;
- cliquez sur la commande Copier ;
HOUX S. Initiation à l’informatique Septembre 2002
24
- cliquez droit sur Cible (panneau de gauche) ;
- cliquez sur Coller.

A la fin de cette procédure, le fichier As (situé dans le dossier Source) a été copié dans le dossier Cible.
Il existe donc en 2 exemplaires sur le disque dur.

Remarque :
Il existe différentes façons d’arriver à la copie de fichiers.
Par rapport à la procédure ci-dessus, il est plus rapide de :
- cliquer droit sur le fichier As situé dans le dossier Cible puis sur Supprimer ;
- cliquer sur Oui (afin de confirmer la suppression) ;
- cliquer sur Source ;
- maintenir la touche Ctrl du clavier enfoncée et faire glisser le fichier As sur le dossier Cible (dans le panneau
de gauche).

3°) le déplacement de fichiers

Le déplacement de fichiers à partir de l’Explorateur Windows s’apparente en grande partie à la copie de


fichiers :
- cliquez droit sur le fichier As situé dans le dossier Cible puis sur Supprimer ;
- cliquez sur Oui (afin de confirmer la suppression) ;
- cliquez sur Source ;
- faites glisser le fichier As sur le dossier Cible (dans le panneau de gauche).

4°) la suppression de fichiers

La suppression d’un fichier est une opération dangereuse. Windows 98 a donc par conséquent prévu
certaines mises en garde ainsi que la possibilité de récupérer les fichiers effacés dans la Corbeille.

Plusieurs techniques permettent de supprimer un fichier ou un dossier :


- sélectionnez le fichier As dans le dossier Cible (dans le panneau de droite) ;
- appuyez sur la touche du clavier Suppr/Del ;
- cliquez sur Oui pour confirmer l’effacement
ou
cliquez droit sur le fichier (ou le dossier) à supprimer ;
- sélectionnez la commande Supprimer ;
- cliquez sur Oui (afin de confirmer la suppression).

5°) la modification du nom d’un fichier

Renommer un fichier ne présente guère de difficultés avec Windows 98. Evitez cependant de modifier
l’extension d’un fichier (car Windows 98 se sert de l’extension pour exécuter l’application correspondante
afin de charger un fichier et de visualiser son contenu).
Par ailleurs, même si le nom d’un fichier ne doit plus (dans les versions les plus récentes de Windows) se
limiter à 8 caractères, évitez des noms trop longs !

Examinons différentes manières de renommer un fichier :


1) 1ère méthode :
- cliquez sur le fichier As (dossier Source) puis sur Fichier / Renommer ;
- encodez le nouveau nom (par exemple As1).
2) 2ème méthode :
- cliquez droit sur le fichier As1 (dossier Source) puis sur Renommer ;
- encodez le nouveau nom (par exemple As2).

HOUX S. Initiation à l’informatique Septembre 2002


25
ème
3) 3 méthode :
- cliquez sur le fichier As2 (dossier Source) puis sur la touche de fonction F2 ;
- encodez le nouveau nom (par exemple As3).

4) 4ème méthode :
- cliquez à 2 reprises ( double-clic !) sur le fichier As3 (dossier Source) ;
- encodez le nouveau nom (par exemple As4).

6. Gestion des impressions

La gestion des impressions concerne plusieurs domaines.


Il convient d’abord d’être capable d’ajouter une imprimante :
- cliquez sur Démarrer – Paramètres – Imprimantes :

- 3 options sont possibles :


1) ajouter une nouvelle imprimante (suivez la procédure décrite) :
 double-cliquez sur Ajout d’imprimante :

 cliquez sur Suivant > :

HOUX S. Initiation à l’informatique Septembre 2002


26

 choisissez le Constructeur et le type d’imprimante à ajouter puis cliquez sur Suivant> :

 choisissez le Port à utiliser (en général LPT1) puis cliquez sur Suivant > :

 choisissez le Nom de l’imprimante, déterminez si cette imprimante sera l’imprimante


utilisée par défaut puis cliquez sur Suivant > :
HOUX S. Initiation à l’informatique Septembre 2002
27

 imprimez (éventuellement) une page de test puis cliquez sur Terminer.

2) configurer une imprimante :


 cliquez droit sur l’imprimante à configurer (dans l’exemple ci-dessous HP Deskjet 600) puis
sur la commande Propriétés.
Plusieurs onglets sont disponibles (et varient selon le type d’imprimante) :
 Papier :

 Général :

 Détails :
HOUX S. Initiation à l’informatique Septembre 2002
28

 Graphiques :

 Gestion des couleurs :

HOUX S. Initiation à l’informatique Septembre 2002


29

 Options du périphérique :

HOUX S. Initiation à l’informatique Septembre 2002


30
3) utiliser le gestionnaire d’impression qui permet de donner les informations sur les travaux
d’impression en cours, d’interrompre momentanément l’impression, de la reprendre ou de
l’annuler :
 double-cliquez sur l’imprimante en cours d’utilisation (ici HP DeskJet 600) :

A partir de cette fenêtre, il est possible de :


 Suspendre l’impression d’un document (sélectionné) (menu Document) ;
 Annuler l’impression du document (sélectionné) (menu Document) ;
 Suspendre l’impression de tous les documents (menu Imprimante) ;
 Purger les documents d’impression (menu Imprimante).

L’impression en elle-même comporte plusieurs étapes :


1) Aperçu avant impression (menu Fichier) :

HOUX S. Initiation à l’informatique Septembre 2002


31

2) Mise en page (menu Fichier) :


 onglet Marges :

 onglet Taille :

 onglet Alimentation papier :

HOUX S. Initiation à l’informatique Septembre 2002


32

 onglet Disposition :

3) Imprimer… (menu Fichier) :

Deux commandes complémentaires sont disponibles :


- Propriétés (voir la configuration de l’imprimante) ;
- Options :

HOUX S. Initiation à l’informatique Septembre 2002


33

4. Utilisation des programmes essentiels


Actuellement, de nombreux programmes coexistent.
Les programmes de la société Microsoft sont très utilisés :
 Windows (98 , 2000, NT, Millenium, XP,…) comme système d’exploitation ;
 Word (97, 2000, 2002, …) comme traitement de texte ;
 Excel (97, 2000, 2002, …) comme tableur ;
 Access (97, 2000, 2002, …) comme gestionnaire de bases de données ;
 Internet Explorer (4.0,…) pour naviguer sur Internet.
Cependant d’autres programmes, fabriqués par d’autres entreprises, prennent une certaine place :
 Linux et Mac Os comme système d’exploitation ;
 CorelDraw, QuattroPro, …. de la firme COREL ;
 logiciels spécialisés tels que les logiciels comptables (CUBIC, COMPAC, Flash, Ciel,…) ;
 Netscape comme navigateur Internet ;
 etc …

Nous allons tester plusieurs programmes en apprenant à les charger, les utiliser et les fermer.

HOUX S. Initiation à l’informatique Septembre 2002


34

5. Manipulation du clavier numérique

Les claviers sont petit à petit agrandis afin d’ajouter de nouvelles touches.
Cependant, tous les claviers ont sensiblement la même présentation :

Touches de fonction Lampes témoin

Pavé numérique

Touches courantes Flèches de Touches de


direction direction
 "Shift" : permet d'écrire les lettres en majuscules et les caractères
"supérieurs" des touches.
 "Backspace"/«retour arrière» : efface le caractère à gauche du curseur.
 "Del" : efface le caractère se trouvant sur le curseur.
 "Caps lock" : bloque le clavier en mode "majuscule".
 "Num lock" : active/désactive le pavé numérique.
 "Enter" ou "Return" : valide une entrée.
 "Alt" et "Ctrl" : permet d'activer d'autres fonctions.
 "F1", "F2", ... : touches de fonction.

Les touches de fonction concernent les 10 touches ou plus, nommées F1, F2, F3, etc., placées à gauche
ou en haut du clavier, fréquemment utilisées pour des tâches spéciales prédéfinies par la plupart des
logiciels.
Ces touches sont utilisées par une application ou un système d'exploitation afin de permettre soit un
raccourci pour une série de commandes courantes, soit d'accéder à une fonction indisponible autrement.
Utilisée seule ou en combinaison avec une autre touche telle que Control ou Alt, une touche de fonction
permet par exemple d'activer l'aide en ligne, de quitter le programme, de déplacer le curseur ou d'activer
un mode spécial (comme l'insertion ou l'impression).

HOUX S. Initiation à l’informatique Septembre 2002


35
Le pavé numérique n’est pas disponible sur les ordinateurs portables.

Il est possible de modifier les propriétés du clavier en cliquant sur Démarrer / Paramètres - Panneau de
configuration puis en double cliquant sur Clavier :

Il est également possible de modifier les propriétés d’accessibilité du clavier en cliquant sur Démarrer /
Paramètres - Panneau de configuration et en double-cliquant sur Options d’accessibilité :

HOUX S. Initiation à l’informatique Septembre 2002


36

6. Services et dangers de l’outil informatique

Etude de textes relatifs aux services et dangers de l’outil informatique

Liste des textes repris

Source : Universalis
Informatique
Evolution des systèmes de traitement de l’information
Formalisation et communication
Informatique et médecine
Informatique et sciences de la vie
Informatique de gestion
Informatique – Principes
L’enseignement assisté par ordinateur
Fraude informatique
Les ordinateurs
Le droit de l’informatique

a) Source : Microsoft Encarta


Informatique
Les ordinateurs
HOUX S. Initiation à l’informatique Septembre 2002
37
Programmation
Evolution des ordinateurs
Gestionnaire de périphériques
Mémoire
Unité centrale
Base de données
Fonction (touches de)
Imprimantes
Interfaces
Logiciel
Microprocesseur
Modem
Organigramme
Dispositifs de pointage
Programme
Protection contre la copie
Sécurité informatique
Stockage (unités de)
Temps d’accès
Système d’exploitation
Unité centrale
Virus
World Wide Web

Informatique

Le mot «informatique» a été proposé en 1962 par Philippe Dreyfus pour caractériser le traitement
automatique de l’information. Ce terme a été accepté par l’Académie française en avril 1966, avec la
définition suivante: «Science du traitement rationnel, notamment par machines automatiques, de
l’information considérée comme le support des connaissances humaines et des communications dans les
domaines techniques, économiques et sociaux.»
En fait, cette définition peut correspondre à 2 groupes de disciplines sensiblement distinctes: l’ensemble
des techniques mises en œuvre pour l’utilisation des ordinateurs (electronic data processing , en anglais);
une science nouvelle, qui n’est pas fondamentalement liée à l’utilisation des ordinateurs, ces derniers en
constituant cependant un outil majeur (computer science, en anglais).
Ces 2 thèses comptent des partisans distingués. La seconde a été particulièrement affirmée en France par
le professeur Jacques Arsac dans son ouvrage « La Science informatique » (Dunod, Paris, 1970).
Si l’on s’en tient à l’empirisme de la 1ère thèse, on peut remarquer que le traitement automatique de
l’information, tout spécialement par ordinateur, met en jeu un grand nombre de disciplines scientifiques
dans un champ d’application très voisin de l’organisation (scientifique, industrielle, administrative).
On peut donc dire que l’informatique est une discipline carrefour, dont les ordinateurs actuels, les
structures intellectuelles (algorithmes du calcul scientifique) et institutionnelles (organisation comptable,
organisation industrielle) déterminent pratiquement le contenu.
L’existence de l’ordinateur a indirectement attiré l’attention sur les circuits électroniques et renouvelé
l’intérêt pour l’algèbre de Boole, dont l’ordinateur constitue une excellente application.
Pour des raisons voisines, la théorie des automates et la théorie des langages (naturels et artificiels) tirent
de l’existence et du fonctionnement de l’ordinateur une valorisation toute nouvelle.
HOUX S. Initiation à l’informatique Septembre 2002
38
La machine elle-même par la puissance de ses calculs rend possible l’utilisation de certains outils
mathématiques connus mais inexploitables. C’est ainsi que les développements de l’algèbre linéaire ou de
la statistique ont pu élargir considérablement le domaine des mathématiques appliquées.
Par la création de nouveaux algorithmes de calcul plus puissants et souvent plus économiques que les
algorithmes classiques, on en vient à une conception, une méthodologie nouvelles du calcul numérique.
La machine peut aussi orienter le mathématicien dans ses recherches par des démarches heuristiques
donnant du sens ou non à certaines conjectures.
De plus, la machine, grâce au codage, peut non seulement traiter des nombres, mais aussi des lettres, des
signes de ponctuation, donc des textes. Le traitement de l’information linguistique courante fait alors
déborder l’informatique sur les sciences humaines.
Les applications documentaires ou pédagogiques en particulier, sans parler des essais de traduction
automatique des langues, mêlent, dans leur expérimentation, la physiologie, la psychologie, la
psychologie sociale.
Les processus de simulation, la recherche opérationnelle, la théorie des jeux, entre autres, permettent
d’ailleurs à l’ordinateur d’intervenir pratiquement dans tous les domaines de l’activité humaine.
Cependant, cet essor prodigieux de la machine «intellectuelle» ne doit pas cacher la relative pauvreté de
l’informatique comme science.
La cybernétique de Norbert Wiener, la théorie de l’information de Claude E. Shannon ne paraissent pas
avoir épuisé les généralisations de toute science possible de l’information, mais rendent seulement compte
au plus haut niveau de ce que les ordinateurs sont et font.
Il est probable, si l’on songe particulièrement aux complexités des systèmes d’exploitation (temps réel et
temps partagé, réseaux d’ordinateurs), à la diversification des travaux de programmation, à la finesse de
certaines applications (psychologie, enseignement...), que les analyses théoriques donnent lieu à
l’induction de lois, ou plus tard à la déduction de théorèmes, spécifiques de l’informatique, la faisant ainsi
passer du stade de science virtuelle à celui de science réelle.

Source : Universalis

Evolution des systèmes de traitement de l’information

Un usage maintenant bien établi associe étroitement le mot «informatique» au principe du traitement de
l’information à l’aide de machines électroniques perfectionnées.
Sans insister sur l’ambiguïté de l’expression «traitement de l’information» et sur la constatation qu’on
peut très bien faire de l’informatique sans faire appel aux ordinateurs, il est intéressant de noter que
l’introduction du néologisme «ordinateur» (par la compagnie I.B.M.-France, dans les années cinquante)
traduit bien la nécessité de recourir à une terminologie spécifique.
Sans doute la première finalité des «computers» a-t-elle été d’aider l’homme à surmonter tant bien que
mal l’opposition classique qui sépare la compétence de la performance.
Les premières machines ont eu effectivement pour mission de suppléer aux insuffisances humaines en
matière de performance: on pouvait alors résoudre de complexes équations différentielles, calculer les
paramètres de la 1ère bombe atomique, procéder au recensement des citoyens américains, en manipulant
d’énormes masses de données et dans un temps relativement bref. Mais, très vite, ces machines, qui
n’étaient alors que des calculatrices électroniques, ont été détournées de leur but primitif et sollicitées
pour accroître la performance de l’homme dans le domaine plus vaste de l’organisation et du traitement de
l’information en général.
Il fallait une autre désignation: la calculatrice est devenue ordinateur.
On analysera dans ce qui suit l’évolution des grands systèmes de traitement de l’information et de leurs
différents constituants, matériel (hardware), périphériques, logiciel (software), en essayant de mettre en
évidence les 1ères étapes du développement d’une industrie qui n’avait pas encore atteint l’âge de sa
maturité.

HOUX S. Initiation à l’informatique Septembre 2002


39
Évolution du matériel

L’ensemble des dispositifs et circuits qui constituent le cœur des ordinateurs dans leur réalité physique,
communément appelé «matériel» ou «hardware», a subi depuis 1944 une évolution spectaculaire.
Cette évolution est évidemment liée au perfectionnement des technologies offertes par l’industrie
spécialisée (Fairchild, Texas Instruments, Intel...), mais elle en est davantage le résultat que la cause, et,
sauf quelques exceptions remarquables (tores de ferrite, bulles magnétiques), elle apparaît plus comme un
sous-produit des recherches effectuées sur les composants par les professionnels que comme une force
suscitant le développement de techniques nouvelles spécifiques à ses besoins propres.
Il semblerait en effet qu’au cours de son histoire l’industrie des ordinateurs n’ait tiré profit des possibilités
caractérisant les matériels de base présents sur le marché qu’au coup par coup et dans des conditions tout
à fait pragmatiques, voire anarchiques.
Nous examinerons plus loin les conséquences de cette situation qui, au moins jusqu’à l’apparition des
ordinateurs de 4ème génération, a contraint les constructeurs et les utilisateurs à se plier aux exigences du
matériel sans pouvoir en contrôler les spécifications.
Dans la conception des ordinateurs 4 facteurs principaux interviennent: la vitesse élémentaire de
commutation, la complexité, la consommation d’énergie et le coût.
Ces facteurs ne sont évidemment pas indépendants. Ils mettent cependant en évidence les soucis
primordiaux qui sont à la base des activités liées au traitement de l’information: considérations physiques,
appréhension du temps et de l’espace, considérations économiques, coûts de fabrication, de maintenance,
de fonctionnement.
L’évolution des mémoires (contrôle de l’espace de stockage, contrôle des temps d’accès) et des circuits
(contrôle des temps de propagation des signaux) illustre ces préoccupations.
En 1944, la 1ère «calculatrice automatique à séquence contrôlée» (automatic sequence controlled
calculator) voit le jour: c’est la fameuse Mark I d’I.B.M.
Il s’agit d’une machine électromécanique qui fonctionne à l’aide d’une impressionnante «quincaillerie»:
800 kilomètres de câbles électriques, plus de 7000 relais mécaniques; elle pèse 5 tonnes.
Elle sera suivie, en 1946, par la véritable première calculatrice électronique, l’Eniac (université de
Pennsylvanie), qui n’est pas moins impressionnante: 14 tonnes, 18 000 lampes.
Les circuits logiques sont discrets, les composants de base sont des tubes à vide, le câblage des circuits est
réalisé à l’aide de fils et de tableaux de connexion.
La conception mise à part, rien n’est donc vraiment original: les lampes sont des lampes radio classiques,
les tableaux de connexion et les relais proviennent de la mécanographie.
Les transistors eux-mêmes, mis au point en 1948, ne remplaceront les tubes qu’à partir de 1954
(transistors bipolaires au germanium), à peu près au moment où seront proposés les 1ers circuits imprimés.
Mais, là encore, ni les transistors, ni les circuits imprimés n’étaient, à l’origine, destinés aux ordinateurs.
En 1955, toutefois, apparaît un dispositif spécifique, la mémoire à tores de ferrite (IBM 704), qui restera
longtemps l’élément de mémoire privilégié jusqu’à l’avènement des mémoires à semi-conducteurs en
1965, lesquelles ne seront vraiment répandues que vers 1970.
L’année 1958 est cruciale. C’est en effet à cette époque que débute le développement spectaculaire des
technologies de base qui seront à l’origine de l’extraordinaire expansion de l’industrie des ordinateurs.
1958 est l’année du lancement du transistor planar, qui, de par sa conception, sera tout à fait approprié à
une fabrication de masse que le futur développement des circuits intégrés rendra nécessaire.
Ceux-ci apparaissent en 1959, et, 2 ans plus tard, on sait déjà intégrer plusieurs milliers de transistors sur
une seule pastille (chip).
En 1964, les circuits intégrés à transistors bipolaires sont monnaie courante et les temps de propagation
des signaux à travers les circuits élémentaires atteignent quelques nanosecondes.
Mais, une fois de plus, il faut souligner que le concept de circuit intégré, tout comme celui de
miniaturisation, n’est pas le fait de l’industrie des ordinateurs; il répond en réalité à une exigence
formulée par l’industrie spatiale: besoin de composants peu volumineux, fiables, performants et de
consommation réduite.
L’intégration suit alors une loi selon laquelle le nombre de composants par circuit double chaque année:
de 1959 à 1964, intégration à faible échelle, technologie TRL, de 1 à 16 composants par circuit; de 1964 à
1969, intégration à moyenne échelle (MSI), technologie TTL, de 64 à 1 024 composants par circuit.
HOUX S. Initiation à l’informatique Septembre 2002
40
La technologie MOS et ses dérivés date de 1969.
En 1971, l’intégration à grande échelle (LSI) est mise au point en technologie MOSFET (transistors à
effet de champ) ou CCD (mémoires à transfert de charge); c’est le début de l’ère de la miniaturisation.
Les microprocesseurs apparaissent (Intel, Motorola, etc.); le microprocesseur Intel 8748 (technologie n
-MOS) comporte 20 000 transistors sur une plaquette de 5,6 mm Z 6,6 mm (temps d’accès: 25
nanosecondes).
En 1979, on savait construire une mémoire de 65 536 bits sur une pastille de 4,4 mm Z 5,8 mm
(technologie CCD); la procédure d’intégration à très grande échelle (VLSI) permettra d’améliorer la
capacité: une puce peut comporter 30 000 transistors sur 1 millimètre carré de silicium.
En ce qui concerne la technologie de base, les efforts portent d’une part sur les mémoires à bulles
magnétiques (conçues en 1973) et les dispositifs basés sur la supraconductivité avec des temps de
commutation de l’ordre de quelques picosecondes (jonctions Josephson et leurs applications).
Les mémoires à bulles magnétiques (I.B.M., Intel, Texas Instruments...) sont opérationnelles: Intel, par
exemple, met au point en 1979 une mémoire à bulles magnétiques d’un million de bits (densité de
500 000 bits par centimètre carré).
L’évolution de la capacité d’intégration depuis 1980 a dépassé toutes les prévisions, surtout grâce au
développement de la technologie des mémoires à semi-conducteurs.

L’architecture

L’architecture d’un ordinateur caractérise l’organisation interne de la machine.


Elle est déterminée en fonction d’objectifs imposés par des considérations fonctionnelles (performances,
souplesse d’utilisation, types d’applications), économiques (coûts, politique commerciale du constructeur)
et techniques (matériel disponible au moment de la conception), ce qui fait qu’elle est soumise à des
contraintes par nature antagonistes.
À l’origine, les systèmes ne sont que des calculatrices directement issues de la mécanographie et leur
architecture est simple: l’IBM 603 (1948) n’est qu’une tabulatrice munie de multiplicateurs électroniques.
La logique est séquentielle, il n’y a pas de simultanéité dans les entrées/sorties.
L’introduction d’applications de type commercial (vers 1954) pose le problème fondamental des
performances.
Il faut être en mesure de traiter le maximum de données dans le minimum de temps.
Or, les unités d’entrée/sortie sont lentes et leurs temps de base, d’ordre mécanique, ne sont pas à la même
échelle que les temps de traitement, d’ordre électronique.
On résout le problème au mieux en incorporant des dispositifs spéciaux, les canaux, qui, associés à un
système de registres, autorisent une certaine simultanéité des opérations de calcul et de transfert
d’information.
La fin des transferts est signalée par des «interruptions».
Au cours de la période 1954-1964, l’organisation interne des ordinateurs évolue d’une manière typique.
Cette évolution se traduit par une hiérarchisation progressive des mémoires (mémoires lentes, mémoires
rapides), et par une centralisation assez poussée.
En 1959, le recours à la technologie intégrée, qui diminue les coûts, rend possibles la multiplication et la
spécialisation des registres, ce qui permet d’améliorer sensiblement les performances.
Les ordinateurs de ce qu’il est convenu d’appeler la 3ème génération (IBM 360, GE 400, Burroughs 6500,
etc., vers 1964) présentent une architecture de plus en plus hiérarchisée et reflètent plus que jamais les
préoccupations des constructeurs en matière de temps, d’espace et de fiabilité.
Les mémoires se diversifient, on généralise les interruptions hiérarchisées (systèmes de priorités), tandis
que la division du travail au sein de l’unité centrale s’accentue (fonctions spécialisées: arithmétique fixe,
flottante, traitement des caractères ou fonctions déléguées à d’autres unités: calcul d’adresse, compteurs
d’instructions, etc.).
En même temps, le cheminement des informations au sein du système devient de plus en plus complexe et
les opérations automatiques de contrôle et de vérification se multiplient.
À partir de 1971 (4ème génération), les systèmes conversationnels et le télétraitement acquièrent droit de
cité.

HOUX S. Initiation à l’informatique Septembre 2002


41
Mais si les configurations se décentralisent avec l’emploi des microprocesseurs (1975), l’architecture
propre des systèmes demeure toujours hautement hiérarchisée.
On peut dire que c’est l’image d’un pouvoir bureaucratique.

Évolution des périphériques

Les opérations effectuées par un ordinateur n’ont de sens que dans la mesure où il peut y avoir
communication entre la machine et le monde extérieur représenté par l’homme ou par une autre machine.
Indépendamment des problèmes de langage, cette communication pose des problèmes de lisibilité, de
volume et de vitesse.
Les premiers ordinateurs ont hérité de la mécanographie les supports informationnels basés sur
l’utilisation des perforations: cartes perforées, bandes perforées.
Les premières imprimantes dérivaient directement des tabulatrices classiques.
Ces matériels comportaient un certain nombre d’inconvénients qui tenaient à la fois à leur manipulation
incommode, à une lisibilité douteuse et à des performances insuffisantes.
Depuis, l’amélioration des caractéristiques des organes d’entrée/sortie a permis d’obtenir des
performances plus acceptables: des lecteurs de cartes fonctionnent à la cadence de 1 200 cartes par minute
en 1969, les imprimantes atteignent plusieurs milliers de lignes par minute.
Mais l’introduction des terminaux à écran cathodique bouleverse la situation.
On peut désormais communiquer directement avec l’ordinateur et recevoir de celui-ci des informations
directement assimilables, en temps réel (par l’intermédiaire d’un logiciel cependant complexe).
Les grandes masses de documents de sortie sont traitées en mode batch , en différé.
Le recours aux terminaux dits intelligents, avec microprocesseur incorporé, améliore encore la
communication: le traitement des informations d’entrée ou de sortie est décentralisé, le rôle de l’unité
centrale se résume à celui d’un organe gestionnaire de tâches.
En ce qui concerne les mémoires auxiliaires, on assiste, à partir de 1953 (début des applications à
caractère commercial), à un effort important destiné à accroître la capacité mémoire des ordinateurs par
l’utilisation d’unités spécialisées: tambours magnétiques, bandes magnétiques, disques.
Aujourd’hui, les systèmes de télétraitement, le temps partagé, la multiprogrammation et le concept de
mémoire virtuelle exigent des ressources considérables en mémoires auxiliaires qui donnent un rôle
prépondérant aux disques à forte capacité et à faible temps d’accès.
Mentionnons enfin le développement de périphériques particuliers (tables traçantes, lecteurs de caractères
optiques, systèmes d’affichage à diodes électroluminescentes, etc.) qui sont le véritable reflet des
pressions du marché en faveur d’organes autorisant une communication directe avec le milieu extérieur.
Cette évolution donne au logiciel (et, dans certains cas, au firmware) la charge de supporter des
périphériques de plus en plus évolués, libérant ainsi l’utilisateur des tâches intermédiaires de transcription
ou d’interprétation.

Évolution du logiciel

La notion de programme enregistré n’est pas nouvelle: Charles Babbage l’avait déjà évoquée en 1833.
Ce n’est qu’en 1945, cependant, que John von Neumann, reprenant et améliorant les idées de Babbage,
suggère d’incorporer dans la mémoire les instructions de traitement en même temps que les données et
selon la même codification.
Les instructions sont alors exploitées comme des données ordinaires.
En fait, quelques années seront nécessaires pour que les principes de von Neumann soient appliqués.
La raison en est que les ordinateurs, à leurs débuts, ont du mal à s’affranchir, là encore, des habitudes et
des méthodes de la mécanographie.
Si, en 1948, les premiers assembleurs (rudimentaires) et quelques programmes utilitaires sont en
fonctionnement, la programmation demeure essentiellement câblée (tableaux de connexion).
Naturellement, à cette époque, le matériel prédomine, et les communications entre l’homme et
l’ordinateur ne s’effectuent pas sur des bases simples, à cause du système binaire imposé par la machine.
Vers les années 1954-1957, le souci de faciliter la tâche de l’utilisateur conduira à l’élaboration de

HOUX S. Initiation à l’informatique Septembre 2002


42
langages de programmation intermédiaires entre le langage de la machine et le langage du programmeur.
On a recours à la symbolisation des adresses, et les premières macro-instructions apparaissent.
L’essor du logiciel commence à cette époque.
1954 est l’année du lancement de Fortran I, conçu par Backus à l’intention de l’IBM 704.
C’est le premier langage évolué, très proche du langage de l’analyste; il nécessitera le développement
d’un compilateur peu performant.
Successivement, Fortran II (1957), Algol (1958), puis Algol 60 (1960) verront le jour; en 1962, K. E.
Iverson crée APL.
On constate que l’ordinateur est alors investi d’une mission essentiellement scientifique: on traite les
mots, les bits, mais on ne sait pas très bien manipuler les caractères, les chaînes.
Le début de l’ère des ordinateurs de gestion (NCR 304, RCA 501, IBM 1401, etc., 1959-1960) impose
d’imaginer des langages plus adaptés aux problèmes commerciaux et d’un usage plus aisé pour les
analystes-programmeurs.
La Codasyl (Conference on Data System Languages), comité constitué par les utilisateurs de l’industrie,
différentes agences du gouvernement fédéral américain et les constructeurs (principalement R.C.A.), crée
en 1959 le langage Cobol, dont l’objectif est de faciliter le traitement des fichiers, tandis que
l’organisation Share (clients d’I.B.M.) recommande en 1963 le développement de PL/1, langage réputé
universel, c’est-à-dire adapté aussi bien aux applications scientifiques qu’aux applications de type
commercial.
À partir de 1964 (avec les ordinateurs de 3ème génération), l’anarchie règne en matière de logiciel. Les
langages se multiplient, les systèmes de programmation sont incompatibles et les constructeurs mettent en
œuvre de volumineuses bibliothèques de programmes rendues nécessaires par la complexité croissante
des machines.
C’est l’époque de la naissance de la multiprogrammation, qui exige l’usage de la protection mémoire et le
développement de nombreux programmes spécialisés chargés de la gestion interne de la machine:
systèmes d’exploitation, moniteurs, superviseurs, programmes de gestion des entrées/sorties, programmes
utilitaires de toutes sortes.
Les utilisateurs s’y perdent et découvrent que le logiciel coûte cher.
Une situation paradoxale s’instaure: alors que les performances du matériel ne cessent de s’améliorer, les
performances globales des systèmes ne suivent pas au même rythme, d’autant plus que les utilisateurs ne
savent pas optimiser le fonctionnement de leurs installations et doivent s’en remettre plus ou moins
aveuglément aux recommandations des constructeurs.
Cette situation caractérise la période 1964-1971.
Avec les ordinateurs de la 4ème génération (1971), on commence à se préoccuper des performances du
logiciel et les constructeurs tiennent compte, autant que possible, des doléances des utilisateurs, doléances
exprimées par le truchement de nombreuses conférences internationales.
La microprogrammation (déjà connue dans les années soixante) se développe et prend le relais du
logiciel pour les opérations courantes ou répétitives, améliorant ainsi les performances.
L’introduction du concept de mémoire virtuelle et l’extension du télétraitement et des réseaux (1972)
donnent au logiciel une orientation davantage centrée sur l’organisation des procédures et le contrôle des
circuits informatifs au sein des systèmes, tandis que la programmation élémentaire devient de plus en plus
l’affaire de la microprogrammation.
Après avoir longtemps suivi des chemins plus ou moins autonomes, logiciel et matériel se rejoignent
(firmware, 1975).
On observe en même temps une tendance marquée vers la modularité, qui exige une claire définition des
interfaces, le recours à la programmation structurée et l’acceptation d’une parcellisation des tâches
confiées à des systèmes évolutifs (traitement réparti, etc.).

Aspects socio-économiques

L’évolution des systèmes depuis Mark I illustre assez bien les difficultés que les constructeurs et les
utilisateurs ont dû surmonter dans leurs relations mutuelles.

HOUX S. Initiation à l’informatique Septembre 2002


43
Si l’on ne peut nier que l’ordinateur a eu une influence déterminante sur l’organisation et l’évolution des
entreprises, il n’est pas certain que les produits offerts aient toujours correspondu aux besoins réels des
utilisateurs.
Ceux-ci, au cours de l’histoire de l’informatique, ont parfois été surpris par des perfectionnements ou des
performances auxquels ils n’étaient pas préparés.
Caractéristiques d’une économie d’abondance et d’expansion, les systèmes de traitement de l’information
ont en effet exigé des efforts d’investissement qui étaient parfois à la limite des possibilités des
entreprises, et les constructeurs, par leur dynamisme, ont posé aux utilisateurs de redoutables problèmes
d’obsolescence.
D’autre part, la classique opposition logiciel-matériel (rappelant la distinction de Platon entre arts libéraux
et arts mécaniques) a fait naître des catégories professionnelles dont les statuts ont été longtemps mal
définis et qui concernaient des gens d’abord issus de la mécanographie, puis formés «sur le tas», et enfin
munis d’une spécialisation acquise dans des conditions quelquefois précaires.
L’informatique est enseignée à l’université, dans les grandes écoles, dans les I.U.T. et dans les
établissements scolaires du second degré.
L’ordinateur est devenu un produit de consommation courante, accepté par une société pourtant
longtemps réticente.
Les micro-ordinateurs, l’abaissement des coûts, des exigences de plus en plus réduites en matière
d’environnement ont accéléré le processus.
L’ordinateur a trouvé sa place au sein de la société: celle d’un objet au service de l’homme.

Source : Universalis
Formalisation et communication

L’information est partout présente dans notre existence.


Les messages les plus variés ne cessent de nous parvenir de tous les points du globe, sous des formes de
plus en plus diversifiées, au point que certains s’inquiètent de l’ampleur de ce flot où il devient de plus en
plus malaisé de discerner l’essentiel de l’accessoire.
Cet ouragan d’informations en provenance simultanée de tous les fronts place l’homme moderne dans une
situation embarrassante, le laisse aussi perplexe que le mendiant brusquement propriétaire d’un palais et
d’une nombreuse domesticité; comment concilier la lenteur des sens, la faible capacité d’absorption du
cerveau, la brièveté de la vie avec la masse terrifiante des connaissances qui pourraient être utiles?
Il est sans doute légitime d’espérer qu’un progrès de la pédagogie découlera un jour d’une connaissance
plus approfondie du psychisme; toutefois il serait vain de croire que ce progrès puisse suffire pour que des
individus isolés soient à même d’embrasser plus qu’une très faible partie de la connaissance actuellement
partagée entre les nombreux membres de la communauté humaine.
Dès lors, la nécessité d’accroître encore le potentiel de diffusion, de communication, de collecte des faits
et des documents antérieurs apparaît impérieuse.
La mémoire humaine est insuffisante, le savoir consigné dans les livres ne peut servir à quiconque si la
consultation des ouvrages de plus en plus nombreux n’est pas rendue plus aisée par quelque méthode plus
pratique et rapide que la recherche dans une bibliothèque.

HOUX S. Initiation à l’informatique Septembre 2002


44
Les services d’information utilisant des mémoires électroniques se sont considérablement multipliés; déjà,
dans de multiples applications (gestion de stocks, réservations de places d’avion...), les procédés
traditionnels d’écriture ont été abandonnés.
La pression même des faits oblige à apprendre de nouvelles techniques: transformer une image en
message linéaire, un tableau de nombres en graphique, une dépêche en code, un code en langage clair;
transposer le graphique sous forme phonétique; déchiffrer l’alphabet génétique; donner une description
typologique objective d’empreintes digitales, de syndromes pathologiques; construire une maquette, un
prototype à partir de schémas et passer d’un objet à une représentation planaire sans la lente intervention
de dessinateurs ou de mécaniciens.
Pour tous ces besoins, ces transmutations où l’information revêt de nouveaux visages adaptés à des
destinataires usant de langages différents, il est indispensable que des techniques plus souples, plus
rapides prennent la relève des humains pour qu’ils puissent consacrer plus de temps aux tâches
essentielles que les machines ne peuvent accomplir.
L’ordinateur n’est que le prolongement logique de la téléphonie, de la radiophonie, de la vidéophonie; son
emploi s’impose dès qu’il importe de trier cette multitude de sons, de phrases, d’images, ce qui explique
que la théorie de l’information doive ses acquisitions les plus remarquables aux recherches menées par
une entreprise de télécommunications.

Nature de l’information

L’usage a conféré au mot «information» un sens extrêmement étendu.


Dire que l’information est partout présente signifie simplement que nous pouvons accroître nos
connaissances par l’observation et l’analyse de tout objet ou de tout phénomène.
Cette acceptation du terme livre cependant deux des propriétés fondamentales de l’information: elle ne
peut exister sans support matériel, puisqu’elle doit être perçue ; il n’y a pas d’information sans récepteur,
l’homme, animal ou machine, car elle doit être comprise pour mériter son nom.
Ces deux aspects, forme et contenu (ou encore morphologie, structure et sémantique), sont liés par des
relations encore mal connues, qui constituent précisément l’objet d’étude principal des sciences de
l’information.
En premier lieu, le contenu d’un message échappe à l’observation et ne peut être défini que d’une manière
relative, comme un apport de renseignements.
Dès lors que le message est reçu par plusieurs personnes il apparaît que la même forme peut véhiculer
plusieurs contenus qui dépendent des connaissances antérieures des récepteurs.
Par exemple, l’aspect d’une chaîne de montagne suggérera des idées très différentes au géologue, à
l’économiste ou au touriste.
Chacun d’eux en donnera une description singulière, soulignant des particularités qu’il considère comme
primordiales et qui paraissent secondaires aux autres; chacun pourra choisir aussi, pour exprimer
clairement son interprétation, une forme de message jugée appropriée: langues naturelles, tables de
données chiffrées, photographies, cartes, etc.
Le retentissement de chaque message sera, à son tour, variable selon l’expérience et l’intérêt de ceux à qui
il parviendra.
Un caractère commun à tous les messages est qu’ils constituent une représentation appauvrie de l’objet
décrit, mais mettant par contre plus nettement en lumière les similitudes entre cet objet et certains autres.
Sans cet appauvrissement, le passé pourrait être exactement reconstitué grâce aux témoignages, aux
traces, aux empreintes qu’il a laissés; sans l’enrichissement associatif dû à l’aspect comparatif inhérent à
tout symbolisme, la juxtaposition incohérente des faits successifs n’aurait donné naissance à aucune
culture ni à aucune science.
Ce qui est parfaitement attendu ou totalement inattendu n’est pas information: un événement aussi
inéluctable que le coucher du soleil n’apprend rien à personne, une phrase prononcée dans une langue
inconnue apparaît comme une suite aléatoire de sons dépourvus de sens.
Un message ne sera donc perçu comme tel que pour autant qu’il obéit à certaines lois (par exemple,
exploitation d’un vocabulaire et d’une syntaxe donnés) qui ont la double utilité d’en permettre le
«décodage» et l’identification au sein d’un ensemble de «stimuli».

HOUX S. Initiation à l’informatique Septembre 2002


45
Sans loi connue, il n’est nullement possible de discerner l’altération, ni a fortiori d’éliminer les erreurs
dans une communication; le moindre parasite en modifie la signification; sans une certaine «liberté» dans
le cadre de ces lois, aucun langage ne pourrait exprimer plus d’un seul message.
Dans un inventaire aussi bref de la nature et des qualités de l’information, la notion de récepteur est à
peine esquissée.
En fin de course, le seul bénéficiaire d’une information sera toujours un homme ou une communauté
humaine.
Or l’étude de ce qu’on peut appeler la capacité d’absorption humaine en matière d’information montre
que celle-ci n’est pas à la mesure de son appétit de connaissance.
Les sens ne permettent pas de capter ce qui est trop petit ou trop grand, trop rapide ou trop lent; aussi les
instruments doivent-ils pallier les déficiences de la faculté humaine de perception.
Mais alors, la masse accrue de faits rendus perceptibles par voies indirectes se révèle trop considérable
pour que le pouvoir de réflexion en tire tout le bénéfice souhaitable dans le bref laps d’existence qui est
imparti à l’homme.
Là encore les auxiliaires mécaniques sont indispensables pour exécuter les opérations simples de collecte,
de présentation, de diffusion et quelques opérations d’analyse et de synthèse bien définies, afin de pouvoir
reporter les efforts de réflexion et d’inspection de voies nouvelles dans les domaines où les machines
n’apportent pas encore le moindre secours.
La technologie de l’information concerne toutes les formes d’aide méthodologique ou matérielle
permettant à l’homme de concentrer son attention sur les aspects les plus importants des messages.
En ce sens, la technologie de l’information est apparue avec le langage parlé, puis avec l’écriture et le
calcul.
Les machines même ne sont pas récentes puisque les abaques, les bouliers constituaient déjà, il y a
quelques milliers d’années, des outils assurant des fonctions importantes de traitement.
Le recours à l’électronique a certes permis d’amplifier le rôle des machines dans le partage des tâches
d’exécution pure, et de réaliser effectivement certains calculs hors de portée pour nos ancêtres, mais il n’y
a pas de différence qualitative majeure entre les types de travaux réalisés à l’aide de grands ensembles
électroniques, à l’aide de machines plus rudimentaires ou sans aide autre qu’une feuille de papier et un
crayon.
L’illusion que la puissance de jugement soit accrue parce que les robots fonctionnent avec une très grande
célérité est fort répandue, bien qu’il suffise d’aborder quelques problèmes de nature combinatoire, qui se
posent constamment dans la vie pratique, pour constater qu’il est strictement impossible de les résoudre
par la simple énumération de toutes les combinaisons, même si l’on dispose des ordinateurs les plus
puissants et les plus onéreux.
Pourrait-on même asservir tous les atomes de l’Univers qu’ils ne suffiraient pas à représenter certains
nombres que l’esprit conçoit sans peine.
Les plus extraordinaires perfectionnements de matériel ne sauraient donc dispenser de rechercher sans
cesse l’amélioration des méthodes, d’y apporter tous les raffinements possibles.

Circulation de l’information

Les grands problèmes relatifs à l’information sont liés à sa collecte, son traitement, sa diffusion, sa
conservation.
L’état de développement des solutions varie grandement d’un secteur à l’autre.
Une même question se pose à propos de la collecte ou de la diffusion: où trouver l’information utile, à qui
convient-il de faire parvenir telle information connue ?
Les réponses à ce genre de préoccupations sont malheureusement encore largement empiriques ainsi
qu’en témoignent la difficulté d’établir des statistiques, les sommes dépensées en enquêtes, les obstacles à
la jonction harmonieuse de l’offre et de la demande dans le marché de l’information en pleine expansion.
Les soins les plus méticuleux dans le recensement, la propagation la plus ingénieuse n’apportent pas la
certitude que des sources ou des destinataires n’ont pas été oubliés.
Notre goût pour l’efficience, notre amour de la rationalité s’offusquent de cette matière gaspillée, au point
que nous ignorons même comment évaluer approximativement l’ordre de grandeur de la perte.

HOUX S. Initiation à l’informatique Septembre 2002


46
Si nous ne savons pas aborder correctement ce problème de fond, un grand nombre de précieuses
trouvailles allègent néanmoins notre peine à collecter ou à diffuser, et tend à accroître la fiabilité de ces
opérations.
La collecte fait une consommation croissante de capteurs (le domaine de la recherche médicale en offre
l’exemple typique) qui évitent à l’homme de s’astreindre à guetter les événements.
Les capteurs se composent essentiellement d’un appareil spécifiquement sensible à un type de
phénomènes et d’un enregistreur permettant d’en consigner les variations constatées, dans un intervalle de
temps, sur un support quelconque.
On substitue parfois à l’enregistrement une liaison directe avec un ordinateur pour un traitement en
«temps réel», c’est-à-dire une exploitation immédiate des données recueillies.
Il n’est pas rare que les capteurs assument quelques fonctions de traitement, comme la «numérisation»,
c’est-à-dire la transformation d’une grandeur continue en grandeur discrète , pour en permettre une
représentation chiffrée, et la réduction, c’est-à-dire le filtrage des parties du signal ne présentant qu’une
variation attendue (un récepteur radiophonique agit comme un réducteur en éliminant l’onde porteuse
pour ne restituer que les modulations à basse fréquence).
Le filtrage est parfois une opération complexe (par exemple, l’épuration d’un électro-encéphalogramme
qui rend compte de la combinaison d’activités électriques corticales et non corticales), voire impossible:
ainsi, le degré de similitude entre deux images successives prises par une caméra de télévision est si élevé
qu’il serait souhaitable de pouvoir ne transmettre que les différences entre elles.
Cela impliquerait cependant que tout récepteur soit doté d’une mémoire capable de conserver une image
complète; l’idée a néanmoins été partiellement appliquée dans le procédé Sécam de transmission et de
reproduction des couleurs, où l’on néglige les différences d’intensité d’une couleur élémentaire sur deux
lignes contiguës de l’image sans dégradation appréciable de sa qualité [cf. TÉLÉVISION].
L’arsenal technologique de la diffusion d’information est vaste: procédés d’impression, de duplication, de
transmission à distance, il semble inutile d’en faire la revue détaillée, d’autant plus que ces techniques
constituent seulement le maillon terminal des circuits de l’information traitée par voies mécaniques.
Par contre, il convient d’analyser plus précisément les techniques de transformation et de mémorisation de
l’information qui paraissent souvent mystérieuses simplement parce qu’elles échappent à l’observation
directe.

Logique du calcul

On ne saurait effectuer de traitement complexe de l’information sans user d’une mémoire.


Si, par exemple, on désire calculer la somme de deux nombres, il faudra évidemment un mécanisme
capable d’additionner, mais aussi deux registres, d’une nature matérielle quelconque, pour «contenir» ces
nombres, et éventuellement un troisième pour stocker le résultat si l’on veut éviter la destruction des
nombres initiaux pour une utilisation ultérieure.
Un registre au minimum sera nécessaire si l’on suppose que l’un des termes de l’opération puisse être
«introduit» au moment voulu, et que le résultat soit immédiatement «sorti» du calculateur, ou qu’il
remplace en l’effaçant le second terme.
Lorsque la capacité de mémorisation est faible, il ne peut être question d’effectuer plusieurs opérations sur
les mêmes termes, ni d’envisager le traitement d’«êtres mathématiques» composés de plusieurs nombres
(matrices, vecteurs, etc.).
Par ailleurs, il est toujours nécessaire, quels que soient le problème traité et la machine disponible, de
procéder à l’introduction des données, puis à l’extraction des résultats; il convient que ces échanges entre
le milieu extérieur à la machine et son milieu interne soient réduits dans toute la mesure du possible, afin
de minimiser sinon de supprimer les temps d’attente.
Puisque les organes dits d’«entrée-sortie» sont forcément plus lents que les circuits internes du calculateur
auquel ils sont connectés, on dote le calculateur de «mémoires-tampons» qui peuvent recevoir ou fournir
une information aussi bien de l’«extérieur» que par les circuits de calcul, et cela à des cadences différentes
et à des moments différents.
La présence d’un organe de mémoire se révélant nécessaire dans tous les cas, il devient naturel d’exploiter
la faculté de mémorisation pour améliorer le rendement des opérations de calcul et/ou pour en simplifier
les mécanismes.
HOUX S. Initiation à l’informatique Septembre 2002
47
Au niveau de la conception des circuits mêmes, des simplifications permettent de réaliser de précieuses
économies de matériel: ainsi la multiplication peut être réduite à une succession d’additions avec des
décalages appropriés, la soustraction peut être assimilée à l’addition avec «complémentation» préalable du
facteur à soustraire, etc.
Beaucoup de calculateurs ne contiennent en fait réellement qu’un mécanisme d’addition et en dérivent
ingénieusement un ensemble complet d’opérations (les quatre opérations sur les nombres entiers, et,
indépendamment, ces mêmes opérations sur les nombres fractionnaires avec exposant, dits «en virgule
flottante»).
Selon les modèles, le nombre d’instructions figurant au répertoire varie de 10 à 300 avec le fonds
commun suivant: opérations d’entrée/sortie pour l’échange d’informations entre le calculateur et son
environnement; opérations arithmétiques; opérations logiques de l’algèbre de Boole; opérations de
comparaison.
À partir de cet ensemble minimal de fonctions on peut construire des procédures plus complexes à
condition de disposer d’une mémoire de taille suffisante.
Plus cette dernière est vaste, plus il devient facile d’imaginer des méthodes de traitement efficientes, au
point que certains problèmes ne peuvent être abordés si cette capacité de stockage est inférieure à un seuil
donné.
La mémoire d’un calculateur peut être comparée à un rayonnage de cases numérotées d’égales
dimensions.
Chaque article stocké doit avoir des dimensions au plus égales à celles d’une case et peut être retrouvé par
son adresse qui est l’appellation technique de ce numéro.
Lorsque l’adresse correspond à une localisation concrète déterminée, elle est dite absolue; par opposition,
les adresses relatives donnent le numéro d’ordre d’une case (dénommée cellule, catène, mot...) par rapport
à une origine, «adresse de base» qui est généralement la première (la plus basse en valeur numérique) d’un
«bloc».
Ce système de rétention des informations permet d’accéder à chacune d’entre elles à condition que
l’adresse de rangement soit connue; par contre, il ne permet absolument pas de retrouver toutes les
informations ayant une ou plusieurs propriétés formelles déterminées, comme par exemple «l’ensemble
des entiers dont la valeur est comprise entre 103 et 104 _ 1».
Une telle question ne pourra être résolue qu’en explorant exhaustivement les cases de la mémoire et en
comparant successivement leur contenu avec les termes choisis.
Cette démarche analytique n’est concevable, à partir d’une certaine taille de la mémoire, que s’il est
indispensable de se procurer la réponse.
De plus, la détermination d’une propriété formelle ne peut pas s’effectuer sur une partie de l’information.
Ainsi, dans une mémoire dont chaque case peut recevoir quatre lettres de l’alphabet, il sera relativement
aisé de consulter une liste de noms propres pour extraire ceux qui commencent par Dupo , mais plus
difficile de trouver ceux qui commencent par Dup, car il faudra en premier lieu «masquer» la quatrième
lettre.

Organisation du calcul

La décomposition des tâches en étapes aussi infimes constitue elle-même une tâche qui tend à devenir
écrasante si les objectifs visés impliquent l’exécution de plusieurs milliers d’opérations.
La durée du travail préparatoire n’est pas linéairement proportionnelle au nombre d’instructions du
programme, mais croît beaucoup plus vite, de sorte qu’il est prohibitif de consacrer dans la pratique un
temps aussi long à l’élaboration finale de résultats vérifiés.
Le traitement de l’information suppose une hiérarchisation des tâches: de petits groupes d’instructions du
répertoire permettront de définir des fonctions jusqu’alors inexistantes.
Ces fonctions pourront dès lors être considérées comme des instructions normales, et les éléments du
répertoire ainsi enrichi seront à nouveau combinés entre eux pour bâtir des fonctions plus complexes, etc.
Cette structuration organique est évidemment plus facile à maîtriser qu’une grande quantité d’instructions
toutes placées au même niveau hiérarchique.
Les machines abstraites que sont les programmes ont une existence bien réelle, et il serait plus approprié
de les considérer comme des machines fugitives momentanément logées dans la mémoire du calculateur.
HOUX S. Initiation à l’informatique Septembre 2002
48
Cette volatilité constitutionnelle des programmes permet de les surimposer au gré des besoins à une même
machine physique qui assume de la sorte une très grande variété de tâches.
Elle permet en outre, et c’est sans doute là une conquête essentielle, aux programmes de se modifier eux-
mêmes parce qu’il n’y a pas de différence de nature entre les données et les instructions et que toute
transformation concevable des informations mémorisées s’applique aussi bien aux unes qu’aux autres.
On atteint ici le concept de machine malléable, donc potentiellement évolutive et perfectible sans
intervention extérieure, dans la mesure toutefois où l’on pourra définir formellement des fonctions de
perfectibilité, ce qui relève de l’art de la cybernétique.
Par souci de clarté, on a évoqué en premier lieu la technique de constitution pyramidale d’un ensemble de
fonctions, bien qu’il soit toujours nécessaire dans la pratique d’aborder auparavant les problèmes exposés
sous une forme plus ou moins synthétique en procédant à leur analyse, c’est-à-dire en appliquant le
célèbre principe cartésien de la décomposition d’une difficulté en parcelles.
On ne peut guère parler d’une méthodologie de l’analyse, sinon pour souhaiter qu’elle rattrape dans son
développement celle de la programmation.
On peut illustrer les rapports qui existent entre l’analyse et la synthèse par des formules symboliques.
Tout travail de traitement de l’information consiste à appliquer un ensemble d’opération de traitement O à
un ensemble d’antécédents A en vue d’obtenir un ensemble de conséquents C.
La synthèse consiste à imaginer et effectivement constituer O et à l’appliquer à A dans le but de
rechercher C, qui est inconnu par définition.
L’analyse consiste au contraire à rechercher, connaissant une transformation de A en C, l’ensemble
inconnu d’opérations pour y parvenir.
Ce dernier problème n’a pas de solution générale connue.
Sinon on disposerait d’une méthode permettant «de trouver le moyen» d’obtenir n’importe quelles
conclusions à partir de n’importe quelles prémisses.
Les deux types de problèmes peuvent être soumis aux hommes ou aux machines elles-mêmes.
L’art de construire des programmes automatiquement, l’algorithmique, a donné naissance en particulier à
des «générateurs» de programmes ou de sous-programmes, capables de constituer à la demande des
séquences d’opérations et d’assembler des sous-programmes en vue d’un calcul déterminé.
Ainsi, des générateurs de tri d’un emploi très courant peuvent fabriquer des programmes optimisés à partir
de simples indications sur les types de tri désirés et quelques paramètres décrivant le matériel de
traitement.
L’art d’élaborer automatiquement des méthodes de traitement, ou heuristique, pourrait se définir comme
une tentative de rendre les machines «intelligentes».
Aucun gadget électronique ne saurait dispenser d’avoir à rechercher au préalable quels sont les
mécanismes de l’intelligence, ou d’inventer au moins des mécanismes éventuellement différents mais
capables des mêmes performances.
Bien que les progrès de l’heuristique soient lents et n’aient pas donné lieu à des applications pratiques, il
faut néanmoins mentionner quelques réussites dans ce domaine de recherche: on a pu obtenir la
démonstration automatique de théorèmes de la géométrie plane ou soumettre une machine à des tests
d’aptitudes psychotechniques (par exemple, «donner le premier élément manquant des séries 1, 3, 5, 7, ...,
1, 2, 4, 8, ..., 1, 2, 3, 5, 8, ...») avec succès.
Si, comme le proclament les auteurs de ces recherches, l’intelligence ne peut être définie autrement que
par ses effets extérieurs, on peut affirmer qu’un premier pas dans la conquête de la pensée a été franchi.
Cette position pragmatique est fort controversée, et il est impossible de rendre compte, à propos de
technologie de l’information, de ce débat encore ouvert, où les arguments métaphysiques et moraux ne
sont pas exclus.

Langages de programmation

Les besoins de la technologie de l’information ont contribué, dès l’origine, à la création de langages
artificiels spécialement conçus pour faciliter les tâches et leur définition.
Ces langages à leur tour ont permis d’entreprendre des travaux plus ambitieux et des applications si
élaborées que de nouveaux langages plus perfectionnés que les premiers ont vu le jour depuis lors.

HOUX S. Initiation à l’informatique Septembre 2002


49
Ces aides réciproques de la problématique et des langages ont également contribué à leur diversification
puisqu’il existe des centaines de langages artificiels qui offrent de curieuses similitudes avec les langues
naturelles: ils évoluent un peu indépendamment de notre volonté et on y trouve des familles, des branches
ayant des liens de parenté plus ou moins étroits.
Le recensement de tous les aspects de ces langages est sans doute d’ores et déjà impossible, et l’on
n’indiquera ici que quelques caractères fondamentaux communs à la plupart d’entre eux, ainsi que les
grandes lignes de leur développement.
Le premier langage algorithmique vraiment évolué, le Fortran (acronyme de for mula tran slation), fut
créé au début des années cinquante.
Il reste, dans ses différentes versions, très employé pour le calcul scientifique et est même parfois utilisé
dans des applications de gestion.
L’idée maîtresse du Fortran consiste à bannir dans toute la mesure du possible les références à une
machine particulière, en utilisant des notations d’un usage universel.
Par exemple, l’ordre A = B + C, qui signifie «faire la somme algébrique des valeurs des variables B et C
et imposer la valeur trouvée à la variable A», ne demande pas un grand effort d’apprentissage étant donné
son analogie avec le symbolisme mathématique le plus familier.
Toute machine dotée d’un «compilateur» Fortran (c’est-à-dire d’un programme destiné à passer de cette
forme symbolique universelle à une forme interne, directement exécutable par cette machine ou par une
autre du même type et, éventuellement, de type différent) pourra traiter un problème défini dans le
langage.
Toutes les personnes connaissant ce langage pourront échanger entre elles leurs méthodes de résolution
(même, à la limite, si elles ne parlent pas la même langue naturelle).
Tout sous-programme écrit en langage Fortran, par quiconque, pourra être distribué et incorporé comme
sous-ensemble d’autres programmes aussi variés que l’on voudra.
La normalisation d’un tel langage sert donc un triple objectif de communication: il relie d’abord les
hommes entre eux, puis il permet une relation entre les hommes et les machines, enfin il fait
communiquer les machines entre elles.
Il était naturel de chercher à enrichir et à perfectionner un outil aussi précieux à partir d’un noyau initial
de fonctions.
Deux voies s’ouvrent pour cet enrichissement: les macro-instructions et les sous-programmes
indépendants.
Le recours à l’une ou à l’autre de ces solutions dépend en général de considérations sur l’efficacité des
programmes d’exécution (en principe l’emploi de macro-instructions tend à produire des programmes
plus encombrants, mais permettant un traitement plus rapide que leurs équivalents exploitant une logique
de sous-programmes).
Si par exemple une fonction du type ax + b se révèle très récurrente dans un calcul, il est possible de lui
associer un nom (par exemple «PREMIE») en donnant au préalable l’équivalence entre ce label arbitraire
et la structure voulue.
Cette forme d’écriture met plus nettement en lumière la nature de la séquence d’opérations.
Si, primitivement, des opérations ainsi définies ne pouvaient correspondre qu’à une séquence de calcul
exprimable par une suite d’instructions arithmétiques, il est maintenant aisé de créer des séquences de
calculs quelconques (par exemple, «trouver la valeur absolue de la différence maximale entre deux
variables prises dans une table de n nombres») et de les baptiser.
Il est même possible de créer des structures variant en fonction de conditions mémorisées au fur et à
mesure que le programme symbolique est analysé et traduit par l’ordinateur, afin de réduire
l’encombrement du programme résultant et d’en rendre le déroulement plus rapide par suppression de
séquences d’opérations inutiles.
Les progrès dans la synthèse ont été plus rapides que ceux de l’analyse, et s’il est facile de donner un
contenu à un symbole, il paraît moins simple de modifier les lois syntaxiques assez rigides des langages
artificiels.
La plus connue des formalisations permettant d’énoncer les règles syntaxiques d’un langage artificiel est
la notation de Backus employée systématiquement pour la définition du langage Algol et de ses dérivés
nombreux: Jovial , Formac , etc.

HOUX S. Initiation à l’informatique Septembre 2002


50
Cette notation permet de nommer des formes syntaxiques en donnant leur description en termes des
éléments et des formes qu’elles contiennent.
À partir de la syntaxe initiale de Backus, on peut construire des expressions très diverses dans leur
morphologie, et ce système peut être exploité par un compilateur pour reconnaître les entités syntaxiques
contenues dans une expression donnée.
Ce symbolisme a grandement simplifié la logique et la construction de nouveaux compilateurs.
Il ne paraît pas, par contre, avoir été utilisé pour définir progressivement un langage en cours de calcul,
pour le modifier éventuellement.
Il n’existe pas non plus, à notre connaissance, de définitions conditionnelles des formes, alors qu’un
mécanisme les rendant possibles pourrait être précieux, notamment pour les études de traduction
automatique.

Applications

Les mécanismes de traitement de l’information décrits ci-dessus se sont perfectionnés à mesure que les
calculateurs devenaient plus rapides et plus efficients.
Il est aujourd’hui inconcevable qu’un ordinateur soit capable d’exécuter uniquement les fonctions câblées
dans sa structure matérielle, et chaque nouvelle machine doit être conçue avec une bibliothèque de
programmes permettant d’en étendre l’usage à des applications très diverses.
On ne saurait citer tous les domaines où l’emploi d’ordinateurs a pratiquement supplanté les hommes
dans leur travail (le mieux connu étant celui de la comptabilité de toute entreprise dépassant une certaine
taille), ni les secteurs où ils prennent la relève de personnels voués à des tâches ingrates de surveillance:
l’aspect quantitatif et social de compression d’un personnel peu qualifié à été très souvent évoqué avec
beaucoup d’exagération à propos de l’implantation de systèmes informatiques, certains voyant dans cette
évolution une révolution analogue à celle qui provoqua les profonds remous du début du machinisme.
La comparaison n’est guère justifiée car, si les machines mues par une énergie de combustion se sont
révélées très avantageuses pour libérer l’homme de peines et de fatigues musculaires, les ordinateurs
électroniques ne peuvent aucunement se substituer à l’homme pour exercer à sa place la domination du
monde par l’intelligence.
Bien au contraire, les reconversions qu’implique l’avènement de l’informatique nous conduisent à mieux
réfléchir sur nos méthodes de travail et souvent à les modifier au lieu de nous conformer à des habitudes
profondément ancrées: l’exécution d’une tâche est facilitée par un travail préparatoire qui en organise
minutieusement les étapes successives.
Ce principe bien connu de l’action réfléchie, de la décision mûrement pesée n’oblige pourtant pas dans la
vie pratique à codifier, à planifier ou à prévoir les plus infimes détails d’une action.
On peut d’ordinaire se fier à l’intuition ou au sens des responsabilités, à la volonté de parvenir à un but
bien défini pour modifier ses actes en fonction de circonstances rares ou difficiles à prévoir.
Les directives concernant la poursuite d’un objectif précis peuvent habituellement être formulées en
quelques phrases qui dessinent les grandes lignes que l’on s’est fixées sans spécifier les moyens exacts qui
seront nécessaires.
Il en va bien différemment lorsqu’on décide de confier une tâche, même très banale, à un ordinateur qui
est doté de quelques fonctions élémentaires de jugement et d’appréciation, mais qui se trouve à la fois
dépourvu de sensibilité et d’expérience: le moindre oubli, la moindre altération de l’information qu’il
traite ne le détourne nullement d’appliquer les procédures de calcul valables dans les cas normaux à ces
renseignements aberrants, même si des résultats exacts doivent être détruits et remplacés par des suites de
signes dépourvues de sens. Un contrôle de la validité des résultats s’impose donc, puisque la probabilité
qu’une information soit inexacte n’est pour ainsi dire jamais nulle.
Toutefois la conséquence la plus importante de cet état de choses est qu’on ne peut espérer se débarrasser
d’un travail quelconque sans avoir au préalable élucidé tous les cas particuliers qui peuvent faire obstacle
à sa réalisation.
Cet inventaire exhaustif des difficultés rencontrées dans la solution d’un problème conduit souvent à
réviser complètement la manière de procéder habituelle et à définir des démarches à la fois plus simples et
plus générales.

HOUX S. Initiation à l’informatique Septembre 2002


51
Ainsi la comptabilité sur ordinateur d’une grande entreprise n’est-elle pas la simple transposition des
opérations classiques de tenue de livres en partie double, mais bien plus une refonte complète de la
logique comptable à l’aide d’opérations «intégrées» où chaque mouvement de compte est considéré à des
points de vue infiniment variés: montant, provenance, destination, incidences sur les stocks, les
investissements, les commandes, les transports, les disponibilités financières, etc., avec une mise à jour
permanente et simultanée de tous les dossiers: clients, fournisseurs, stocks, bilans, statistiques
chronologiques et géographiques...
À l’inverse de ce que l’on pourrait supposer, la multiplicité des opérations effectuées sur une même
donnée de base ne constitue pas un facteur d’alourdissement du système comptable, mais une
rentabilisation amélioré de la machine de calcul qui, dans un laps de temps pratiquement équivalent, peut
fournir un, plusieurs ou tous les types de renseignements énoncés ci-dessus.
Cette charge est assumée selon des normes qualitativement inégalées, puisque l’estimation de la marche
d’une affaire peut désormais se fonder sur l’analyse quotidienne de la situation, ainsi que sur des
extrapolations à court ou à long terme dérivées par l’ordinateur des mêmes données.
Dans la pratique, la surveillance automatique des stocks minimaux, le lancement automatique de
commandes de réapprovisionnement, le rappel de factures non payées sont les embryons de systèmes
beaucoup plus vastes qui présentent de moins en moins de résultats accessoires et un nombre bien plus
élevé de documents essentiels pour des décisions majeures.
Il était naturel que l’évolution rapprochant les consommateurs d’information les plus importants et les
matériels de traitement influençât à son tour la configuration des ordinateurs: le «cerveau» électronique
qui digère les renseignements peut être caché en quelque cave ou quelque lointaine banlieue, mais il faut
le doter de prolongements permettant de communiquer directement et instantanément avec les utilisateurs,
par le moyen de consoles, de claviers, d’écrans cathodiques.
La centralisation des moyens de calcul puissants permet leur interconnection, la continuité des services
rendus malgré les pannes possibles, une meilleur exploitation des possibilités de chaque machine, une
répartition plus rationnelle des demandes, un entretien plus efficace.
La dispersion des «unités terminales» assure une meilleure accessibilité au matériel, une réduction de
l’attente d’un renseignement, une incitation accrue pour chacun d’avoir recours au services de
l’ordinateur.
Ces raisons expliquent en partie le succès de systèmes fédéraux de traitement de l’information qui
ressemblent par bien des aspects aux systèmes nerveux des êtres vivants: cortex très excentré et
ramifications arborescentes.
Les changements ne concernent pas uniquement ces dispositions matérielles: les langages formels sont
devenus «conversationnels», c’est-à-dire qu’ils permettent de formuler les problèmes en questions et en
réponses et d’orienter les recherches en fonction des résultats partiels déjà donnés.
Parmi les applications les plus spectaculaires, il convient de mentionner en particulier l’usage des
ordinateurs dans l’enseignement et dans la recherche.
Le problème essentiel de l’enseignement peut être brièvement schématisé en disant qu’il y a peu de
maîtres et beaucoup d’élèves tous différents: dans ces conditions, comment est-il possible d’adapter le
rythme d’enseignement aux individus, et comment contrôler leurs progrès, leurs échecs, la nature des
difficultés qu’ils rencontrent ?
Bien que les tâches ici demandées aux ordinateurs soient trop complexes pour que les solutions actuelles
soient optimales, de nombreuses réalisations pratiques ont déjà montré que certaines difficultés inhérentes
aux méthodes traditionnelles d’enseignement, notamment la faiblesse des communications entre maîtres
et élèves, peuvent être vaincues à l’aide des ordinateurs; non seulement chacun pourra revoir et réentendre
aussi souvent qu’il le désire les points du cours enregistré qui lui paraissent les plus ardus, et cela à
l’heure de son choix sans que s’ensuive aucune perturbation du travail de ses condisciples.
Mais ces questions, ces demandes posées par chaque élève en particulier seront elles-mêmes enregistrées,
collectées, triées pour que les auteurs de cours disposent de meilleurs éléments pour le réviser.
De très nombreux systèmes ont ainsi vu le jour pour «interconnecter» les travaux de centaines ou de
milliers de chercheurs scientifiques, chacun disposant à son gré de «tranches» de calcul automatique pour
la mise au point de ses méthodes propres et l’exploitation de ses données personnelles.

HOUX S. Initiation à l’informatique Septembre 2002


52
Dès que l’un des participants est satisfait des résultats qu’il a obtenus, il peut rendre sa méthode
«publique», c’est-à-dire que chaque autre participant sera, au moment le plus propice, averti par le
système de l’existence d’un nouveau programme.
Plusieurs personnes peuvent éventuellement travailler sur le même programme dans sa phase d’essai et se
transmettre des messages par l’intermédiaire d’une immense mémoire partagée, ce qui délivre chacun du
souci, classique au téléphone, de trouver l’interlocuteur au moment de l’appel.
Cet affranchissement des contraintes temporelles a parfois d’heureux effets sur la qualité même des
messages
Il est en effet plus facile d’expliquer une chose lorsque l’on est conscient que l’explication parviendra en
temps utile à des destinataires disposés à l’écouter et à l’examiner que lorsque l’on est contraint d’entrer
en contact avec des interlocuteurs que l’on dérange parfois.
Docile secrétaire, l’ordinateur peut également le cas échéant délivrer des contraintes spatiales et mettre en
contact avec un correspondant sans que l’on ait besoin de savoir où il se trouve.
Là encore, il suffit que la mémoire puisse associer des noms et des adresses et modifier le contenu de ces
tables à la demande des intéressés.
L’interaction de l’homme et de l’ordinateur a trouvé une voie particulièrement heureuse dans le
développement de systèmes conversationnels concernant les secteurs les plus variés.
Ainsi, la création de nouveaux modèles d’automobiles est facilitée par l’usage d’écrans cathodiques
permettant l’introduction, la transformation et la restitution d’informations graphiques.
Il suffit aux ingénieurs de dessiner schématiquement les éléments qu’ils désirent assembler pour obtenir
des plans exacts, visibles selon n’importe quel angle de projection avec un agrandissement quelconque.
Ces réponses graphiques sont assorties de résultats de calcul concernant toutes les valeurs paramétriques
de l’objet créé (dimensions, poids, moments d’inertie, énergie consommée ou produite, prix des éléments,
etc.).
En fonction de ces résultats préliminaires, les ingénieurs peuvent modifier diverses données du montage
initialement prévu et connaître immédiatement l’incidence de ces changements, ce qui rend aisé l’abandon
de solutions qui se sont révélées médiocres et une recherche plus minutieuse dans les voies les plus
fructueuses.
Ici encore l’amélioration purement quantitative des délais apporte un bénéfice qualitatif dans l’exécution
du projet.
Un autre domaine riche en réalisations est celui des simulateurs: avant l’avènement de moyens de calcul
électronique il était difficile, voire impossible, de reproduire ou d’imiter des systèmes complexes aux lois
connues par des moyens simples.
Ainsi, il est exclu que toutes les données expérimentales concernant un barrage hydraulique puissent être
déduites de l’étude d’une maquette reproduisant l’ouvrage projeté en dimensions réduites.
En effet, si l’on adopte par exemple une échelle de 1:20 pour cette reproduction, les surfaces seront
réduites à 1:400 de l’original et les volumes, les masses à 1:8 000 de ce qu’elles devraient être.
Dans ces conditions, les conclusions déduites de l’examen d’une telle maquette, par elle-même d’une
réalisation longue et délicate, sont – quoique utiles – très partielles et insuffisantes.
Par contre il est extrêmement aisé de fournir à un ordinateur les éléments de calcul concernant toutes les
réactions possibles d’un système réel en vrai grandeur afin de mieux en étudier les particularités.
La vitesse de traitement des informations permet en outre d’observer le comportement d’un système
proposé comme modèle pendant une période très longue: le trafic d’un port maritime pendant vingt ans ou
l’évolution d’une population pendant dix générations.
La facilité avec laquelle des mécanismes connus sont simulés a incité certains chercheurs à tenter de
formuler des hypothèses biologiques, physiologiques, sociologiques sous forme de «modèles
mathématiques» simples dans leur principe, mais impliquant une très grande quantité d’opérations de
calcul et dont les variations ne peuvent pour cette raison être étudiées et comparées aux observations du
monde réel sans l’aide d’ordinateurs.
À cette classe de recherches il convient d’associer les techniques de classification automatique, de
taxinomie, qui tentent de dégager les lois structurelles associant les «propriétés» des objets les plus divers:
textes littéraires pour caractériser les composantes stylistiques propres à chaque auteur, observations
médicales pour établir des tableaux cliniques appropriés à la formulation d’un diagnostic, voire même
d’un pronostic, etc.
HOUX S. Initiation à l’informatique Septembre 2002
53
Pour des recherches de ce genre l’ordinateur constitue un indispensable outil pour la pensée créatrice qu’il
prolonge et concrétise en élucidant les plus infimes conséquences des prémisses proposées.
L’emploi des ordinateurs continue à gagner de nouveaux domaines.
On sait maintenant qu’il peut apporter une aide aux problèmes d’urbanisme, d’aménagement du territoire,
et également à des questions politiques (découpages électoraux, organisation du pouvoir exécutif) ou
judiciaires (recherches de jurisprudence, etc.).
Il serait prématuré de tirer des conclusions philosophiques ou sociales du fait qu’aucun acte de la vie des
hommes n’échappera bientôt à une certaine prévision technique, et d’en tirer la prédiction pessimiste que
les maléfices de l’électronique seront plus forts que les bienfaits.
Il convient plutôt de regarder avec lucidité cet avenir où le traitement de l’information jouera un rôle
encore plus étendu (ne serait-ce que pour des raisons économiques) afin d’assurer que l’usage en sera le
meilleur.

Source : Universalis
Informatique et médecine

Depuis les travaux des premiers pionniers américains vers la fin des années cinquante, les centres de
calcul biomédical se multiplient partout dans le monde, et le nombre des biologistes et des médecins qui,
directement ou indirectement, utilisent couramment les méthodes de l’informatique croît de plus en plus
vite.
L’informatique est, avant tout, un vecteur de méthodes très générales.
Le chercheur , en biologie ou en médecine, dispose maintenant, grâce à l’ordinateur et au software qui
l’anime, de techniques statistiques élaborées, de systèmes documentaires automatiques, de méthodes de
simulation puissantes.
Il peut ainsi traiter ses problèmes très spécifiques à l’aide de méthodes scientifiques très générales.
La gestion d’un centre hospitalier moderne, au niveau des services administratifs comme au niveau des
services médicaux, exige le recueil, le tri, le stockage et le traitement intégré des très nombreuses
informations que l’on doit utiliser au service direct ou indirect du malade.
Les mêmes méthodes de gestion sur ordinateur qui ont fait leurs preuves dans la banque, dans l’usine ou
dans l’entreprise méritent donc d’être utilisées à l’hôpital.
Mais l’informatique biologique et médicale ne peut rester localisée au laboratoire ou à l’hôpital.
HOUX S. Initiation à l’informatique Septembre 2002
54
Elle aide le médecin praticien par des banques d’information aisément consultables.
Elle s’est développée aussi vers le domaine plus vaste de la santé publique.
Elle s’est appliquée enfin au domaine de la formation des biologistes et des médecins; non seulement par
les moyens techniques d’enseignement qu’elle permet de plus en plus (enseignement programmé;
simulation de malades), mais surtout par les remises en causes qu’elle exige et par son caractère
interdisciplinaire.

L’informatique dans la recherche biomédicale

L’ordinateur permet d’«importer» en médecine et en biologie des méthodes scientifiques puissantes et de


les mettre en œuvre.

Les méthodes statistiques

Non seulement les machines modernes exécutent rapidement et facilement les calculs les plus délicats,
mais aussi le programme assure l’enchaînement des opérations et décharge ainsi les utilisateurs des
calculs et même de la coordination des opérations.
Le fait est d’autant plus important que les méthodes statistiques se sont considérablement développées
dans le dernier quart du XXe siècle, en liaison avec le perfectionnement technique continuel que
l’informatique a connu.
Les techniques complexes de calcul utilisées, sont particulièrement intéressantes pour le biologiste et le
médecin, qui ne disposent souvent que de petits échantillons avec de nombreuses variables.
Les programmes disponibles dans les bibliothèques de programmes aident les équipes médicales à
exploiter leurs données (tests d’efficacité thérapeutique, contrôles divers).
Plus généralement, les méthodes statistiques sont liées à l’approche mathématique des problèmes: des
systèmes de classification automatique issus des méthodes d’analyse factorielle ont été expérimentés en
nosographie clinique (classification méthodique des maladies); des algorithmes de décision dérivant de la
théorie des questionnaires ont eu des applications pratiques (centres anti-poison, centres de check-up ).

L’informatique documentaire

L’informatique documentaire aide le médecin à maîtriser une énorme masse de références


bibliographiques qui augmente de façon importante chaque année (plusieurs centaines de milliers
d’articles biologiques ou médicaux paraissent chaque année dans plusieurs dizaines de milliers de
périodiques).
L’intervention de l’informatique éclaire d’ailleurs sous un jour nouveau le problème documentaire.
La notion traditionnelle de «classification», par exemple, est abandonnée ou profondément modifiée: son
rôle était d’éviter l’exploration de tous les documents d’un centre de documentation pour répondre à une
demande, grâce à l’exploration d’un sous-ensemble.
Or la rapidité de l’ordinateur permet d’éviter cette subdivision préalable et arbitraire, en la remplaçant par
une indexation des documents à l’aide de mots clefs tirés des documents eux-mêmes.
Des dictionnaires de synonymes et des thesaurus, consultés automatiquement par le système, retrouvent
les mots précis utilisés dans l’indexation des documents à partir des mots souvent vagues de la demande
(ainsi, une demande concernant le traitement du cancer sera automatiquement transformée en sous-
demandes concernant le traitement des épithéliomas, des sarcomes, etc.).
On cherche, en somme, à éviter le «silence» documentaire sans trop augmenter le «bruit» (documents
parasites).
Mais l’informatique documentaire n’est qu’un aspect du développement de l’informatique «non
numérique» qui s’occupe du traitement des textes, et plus particulièrement des textes en langage naturel
(anglais, français, etc.).
On sait interroger ces centres de documentation d’une manière aussi proche que possible du langage
naturel de l’utilisateur.
De plus, les centres de documentation ne se limitent plus à stocker des références bibliographiques, mais
évoluent vers la «banque d’information», c’est-à-dire la «banque de données».
HOUX S. Initiation à l’informatique Septembre 2002
55
Toutefois, l’exploitation statistique a posteriori de données recueillies sans critères d’acquisition très
précis reste très délicate, et bien des erreurs méthodologiques sont à craindre.
Il n’en demeure pas moins vrai que l’exploitation conversationnelle souple de fichiers documentaires
constitue un élément obligé dans la recherche actuelle en informatique médicale.
Ces travaux apportent en particulier des éléments de solution au problème pratique majeur du dossier
médical.

Les méthodes de simulation

De plus en plus utilisées par les biologistes et par les médecins, les méthodes de simulation sont devenues
un des outils fondamentaux de la biologie quantitative.
Simuler, c’est substituer à un phénomène réel complexe un phénomène «construit» plus simple, un
modèle.
Cela fait déjà longtemps que les physiciens ou les ingénieurs simulent, par des montages électriques par
exemple, les vibrations d’une aile d’avion ou le fonctionnement d’un barrage.
Qu’il soit exploité sur calculateur analogique ou sur ordinateur, un modèle traduit un ensemble formalisé
d’hypothèses quantitatives précises, le plus souvent sous la forme d’un système d’équations
différentielles.
Le comportement du modèle est alors comparé avec ce que l’on connaît du système réel.
La similitude quantitative des comportements ne «prouve» pas que le modèle correspond à la réalité
(plusieurs modèles, de principes très différents, peuvent se comporter globalement de façon voisine), mais
un écart net entre les deux comportements met en évidence la fausseté ou l’insuffisance des hypothèses
faites, certitude que l’on ne pourrait acquérir autrement.
C’est ainsi que les chercheurs expérimentent «artificiellement» des modèles de régulation endocrinienne,
nerveuse, biochimique, etc.
Constructeurs et utilisateurs mettent au point des systèmes de programmation qui rendent beaucoup plus
aisées et beaucoup plus puissantes les phases de programmation et d’exploitation numérique de cette
expérimentation simulée, permettant au biologiste et au médecin d’apporter tout son temps et tous ses
soins à l’expérimentation réelle et à la formalisation de ses interprétations.

Informatique et biologie

L’ordinateur est, pour le biologiste, un instrument de travail presque aussi répandu qu’il l’est pour le
gestionnaire d’une entreprise ou pour le spécialiste de physique nucléaire
En effet, son rôle dans la recherche biologique, pure et appliquée, est devenu essentiel à plusieurs
niveaux.
Les biologistes travaillent souvent dans des conditions expérimentales relativement plus difficiles que les
ingénieurs ou les physiciens, car les données mesurées sur l’animal sont soumises à des contraintes
expérimentales particulières.
L’ordinateur ne peut évidemment pas modifier directement ces contraintes; il peut pourtant aider
considérablement le biologiste aussi bien au niveau de l’acquisition des données qu’au niveau de leur
traitement.
Des systèmes extrêmement évolués d’acquisition et de traitement de données biologiques fonctionnent
dans certaines universités et dans des laboratoires.
L’ordinateur n’y est plus seulement un instrument de calculs statistiques complexes.
Il permet surtout de gérer , en temps réel, l’acquisition des données expérimentales, pour les traiter au fur
et à mesure de leur obtention.
Dans un tel système, un ordinateur central puissant contrôle en général d’autres ordinateurs spécialisés
pour l’acquisition et la conversion digitale de données analogiques (travail en réseau).
L’ensemble du système peut fonctionner en temps partagé, ce qui permet de servir plusieurs laboratoires
qui travaillent dans des domaines souvent très différents.
L’existence même de telles installations fait apparaître, à l’évidence, le rôle complexe de l’informatique
dans les disciplines expérimentales en général et la biologie en particulier.

HOUX S. Initiation à l’informatique Septembre 2002


56
Rôle en médecine clinique et en santé publique

L’informatique peut aussi aider directement le médecin hospitalier dans son activité clinique auprès du
malade: il s’agit souvent d’une évaluation ponctuelle ou d’une surveillance continue.
Le dépouillement automatique des tracés électriques (les électrocardiogrammes) ou la surveillance
automatique des grands malades (monitoring ) en sont des exemples.
L’analyse automatique des électrocardiogrammes est un des meilleurs exemples de «programme d’aide au
diagnostic ».
On peut mesurer les caractéristiques morphologiques d’un électrocardiogramme (ECG) et en déduire
automatiquement un diagnostic électrocardiographique.
L’essai clinique contrôlé (ECC) est une méthodologie permettant d’établir une relation entre un processus
et un résultat.
De tels programmes se présentent surtout comme un instrument d’évaluation fidèle qui autorise de vastes
enquêtes épidémiologiques (par exemple: comment prévoir l’infarctus du myocarde ?, comment le
prévenir ?).
Ils représentent, en outre, une aide au diagnostic pour les maladies du cœur et les maladies
cardiovasculaires, lorsqu’ils peuvent être utilisés en clinique.

La surveillance automatique des grands malades

La surveillance automatique consiste à connecter, le malade à l’ordinateur au moyen de «capteurs» variés.


Parmi les données ainsi acquises par le système, en temps réel, on trouve diverses températures internes
ou externes, des pressions (veineuse, artérielle et même intra-cardiaques), la composition de l’air expiré,
les débits ventilatoires.
L’ordinateur stocke ces données supplémentaires telles que des résultats de dosages chimiques effectués
en temps différé, et des informations cliniques.
Il les affiche périodiquement sur les terminaux sous une forme élaborée et condensée, et alerte le
personnel de surveillance en cas de besoin.
Les critères d’alarme jouent si l’une des variables (température, tension artérielle) s’écarte d’une certaine
«fourchette» prédéterminée.
Le service est informé si l’évolution de l’ensemble des variables se fait dans un sens inquiétant, même si
chaque variable reste individuellement encore entre les limites tolérables.
De telles procédures supposent évidemment que le personnel de ces centres de monitoring connaisse les
«modèles d’évolution du choc» mis sous forme de programmes incorporés au fonctionnement du système
pour permettre à celui-ci de réagir de plus en plus efficacement.
Notons à ce propos que si les centres de monitoring exploitent simultanément la plupart des ressources de
l’informatique appliquée à la médecine, il leur faut en contrepartie affronter simultanément les difficultés
que cela représente, notamment l’acquisition en on-line de données analogiques dans des conditions
matérielles différentes (mouvements du malade, par exemple), le risque de pannes variées, le travail en
équipe multidisciplinaire complexe, etc.

Le dossier médical

C’est sur le dossier médical que repose l’exercice de la médecine et de la recherche médicale appliquée.
Il permet de suivre les malades et constitue la source pratique des informations qui conduisent à élaborer
des hypothèses et à tester leur validité.
Or les dossiers médicaux sous leur forme traditionnelle étaient très difficiles à exploiter.
L’informatique permet de retrouver rapidement certains dossiers parmi d’autres, les dossiers restant sous
leur forme usuelle, ou même en traduisant tout ou partie du dossier dans un langage directement
exploitable par la machine.
De nombreuses recherches dans ce domaine ont eu lieu: différentes expériences sont faites dans des
départements médicaux spécialisés et dans des centres hospitaliers.
La prise en compte du dossier du malade par la convention négociée en 1993 entre la C.N.A.M. et les
syndicats médicaux souligne l’importance de cet enjeu.
HOUX S. Initiation à l’informatique Septembre 2002
57

L’aide au médecin praticien

Pratiquement, les médecins praticiens auront accès, par des terminaux conversationnels, à des centres de
traitement publics ou privés qui gèrent une partie de leurs dossiers et leur fournissent une documentation
maintenue à jour sur les médicaments, les règlements administratifs, les éventualités à prendre en
considération, compte tenu de certains résultats d’analyses biologiques, etc.
L’informatique, loin de diminuer le rôle du médecin praticien, lui donne au contraire les moyens de
prendre plus de responsabilités.
Cela équilibre la tendance de ces dernières années où l’on a souvent vu le médecin généraliste privé
s’effacer devant le spécialiste ou l’hôpital, tendance qui n’est pas sans inconvénients pour le malade
(séparation du milieu familial) et pour la société (coût extrêmement élevé de l’hospitalisation).

La santé publique

L’informatique en biologie et en médecine s’est d’abord développée dans les centres médicaux
spécialisés, puis au niveau de la santé publique, à l’échelle nationale et internationale: dans les hôpitaux
universitaires (pour la recherche), dans les hôpitaux (logistique, gestion et administration, planification). Il
s’agit de gérer des informations nombreuses et d’origine très diverse (fichiers de vaccination, de groupes
sanguins et tissulaires) dont l’accessibilité est malaisée pour diverses raisons (secret médical, loi
«informatique et libertés»).
On peut ainsi mieux prévoir et contrôler le développement des épidémies, des pollutions diverses, déceler
les influences médicamenteuses dangereuses pour les malades ou pour leur descendance, fournir des
données utiles aux médecins, aux législateurs, aux urbanistes.

L’informatique, agent d’évolution en éducation médicale

Les progrès accélérés de la médecine et de la biologie posent déjà de graves problèmes au niveau de la
formation des biologistes et des médecins.
L’éducation médicale devient, partout dans le monde, une véritable discipline qui tente d’analyser et de
résoudre ces problèmes.
L’informatique semble à première vue devoir les aggraver encore, puisqu’il s’agit d’une discipline,
nouvelle et difficile, à ajouter à un curriculum déjà surchargé.
Pourtant il semble qu’elle apporte également, au moins potentiellement, des solutions.

Les méthodes d’enseignement médical automatisé

Certaines méthodes d’enseignement automatisé ne sont pas spéciales à la médecine (cf. enseignement
PROGRAMMÉ).
L’enseignement assisté par ordinateur (EAO) et l’expérimentation assistée par ordinateur (EXAO) ont
donné lieu à plusieurs réalisations concrètes.
Leur aspect positif toutefois se situe peut-être plus au niveau de la formation des enseignants qu’à celui de
la rentabilité directe pour l’enseignement courant.
Les méthodes de simulation de malades à des fins pédagogiques offrent des perspectives beaucoup plus
riches en permettant d’entraîner les étudiants à utiliser des connaissances préalables pour mieux les
préparer à la pratique clinique.
Les mêmes systèmes informatiques qui aident les médecins à suivre leurs malades hospitalisés offrent aux
étudiants et aux internes la possibilité de s’exercer sur des «malades artificiels» par l’intermédiaire de
terminaux conversationnels.
Certaines réalisations existent: l’étudiant peut «examiner son malade» en posant des questions en langage
libre, en demandant des examens de laboratoire.
Le système répond aux questions et fournit les résultats des analyses.
Lorsqu’il se sent suffisamment informé, l’étudiant peut proposer un diagnostic qui est discuté par le
système.
HOUX S. Initiation à l’informatique Septembre 2002
58
Les systèmes informatiques documentaires dans les centres hospitaliers et universitaires sont conçus pour
être exploités selon plusieurs modes: un mode purement documentaire qui assure l’acquisition des
informations, leur mise à jour et leur sélection; un mode éducatif original, où une interaction
conversationnelle entre le système et l’utilisateur permet à ce dernier de préciser progressivement sa
question et de demander au système la définition et des exemples d’utilisation de termes techniques; mais
aussi un mode d’aide au diagnostic.
Cet apprentissage a ainsi l’avantage d’être très lié à la pratique clinique et à la recherche.
Il est aussi très économique puisque les systèmes sont déjà «rentabilisés» par les applications purement
documentaires, l’utilisation pédagogique jouant le rôle d’une sorte de sous-produit vis-à-vis des
investissements nécessaires.

Intégration des activités d’un centre hospitalier et universitaire

L’exemple qui suit est une illustration de l’étroite collaboration qui peut exister entre l’hôpital et la
faculté: le système ARTEMIS mis en place au département hypertension artérielle de l’hôpital Saint-
Joseph puis de Broussais, permet l’aide aux soins et le suivi des malades hypertendus.
C’est également un outil de recherche épidémiologique.
Un système expert adjoint à ARTEMIS permet l’aide à la décision diagnostique et thérapeutique.
L’informatique oblige à repenser l’ensemble du fonctionnement des centres hospitaliers, l’informatisation
doit être organisée autour du malade, sa finalité: ce sont les soins.
Durant plusieurs années, le traitement de l’information hospitalière est resté limité à l’analyse de tâches
administratives, comptables ou à l’étude statistique de critères dépassés.
La réforme visant à utiliser systématiquement un minimum d’information médicale pour chaque malade a
conduit à la mise en place du résumé de sortie standardisé (RSS).
Ces informations sont traitées informatiquement par le programme de médicalisation du système
d’information (PMSI) exploité ultérieurement à des fins d’analyse d’activité des services.
L’informatique est ainsi un outil d’aide à la décision médicale, car elle améliore le suivi des patients en
optimisant la gestion de l’évolution clinique et thérapeutique.
En fin de compte, l’informatique n’est pas une discipline nouvelle à côté d’autres spécialités, mais une
nouvelle manière d’aborder les problèmes de presque toutes les spécialités.

Source : Universalis
Informatique et sciences de la vie

Les moyens de l’informatique ont considérablement progressé, non seulement par l’ampleur des données
ou des problèmes qu’ils permettent de traiter, mais aussi par les facilités d’accès et de programmation.
De plus le coût, à performances égales, a diminué, ce qui est assez rare pour être souligné.
Les minicalculatrices que les techniciens, ingénieurs, chercheurs, commerçants, employés de bureau,
étudiants ont dans leur poche sont à la fois plus répandues et plus performantes que la traditionnelle règle
à calcul.
Il est certain qu’en biologie d’innombrables questions qu’on ne se posait même pas, ou qui n’étaient pas
techniquement abordables, relèvent maintenant de démarches courantes, autant dans la pratique que dans
la recherche.
L’informatique est devenue indispensable aux développements modernes de l’astronomie, de la physique
nucléaire, des sciences spatiales.
Mais elle constitue une discipline clé pour les sciences biologiques et leurs grands domaines
d’application, l’agronomie et la médecine.
L’informatique envahit pratiquement tous les domaines d’activité, y compris ceux ayant des relations avec
la biologie.
Du laboratoire d’analyses médicales à la coopérative agricole, de la fabrication de produits diététiques au
contrôle des vaccins, du cubage des bois à la gestion de la faune cynégétique, de la sélection des animaux
HOUX S. Initiation à l’informatique Septembre 2002
59
domestiques à la mise au point d’un insecticide, tous les techniciens impliqués dans ces domaines rendent
plus rapides et plus sûrs leurs calculs, et surtout n’hésitent plus à les faire.
La quantification est à la portée de tous, mais aussi la transmission rapide d’une information et, bien
entendu, sa prise en compte dans les décisions d’organisation.

Données conceptuelles

Les moyens de l’informatique autorisent, pour ne pas dire induisent, de nouvelles approches, de nouveaux
modes de pensée.
En effet, la pauvreté des moyens de calcul ne permettait jusqu’à présent que des schémas simplistes de
travail.
Même récemment, la réalité était au mieux explorée grâce à ce qu’on appelle des plans expérimentaux, et
seules les données obtenues de cette manière étaient susceptibles d’interprétation.
Il s’agissait cependant d’un immense progrès dans la rigueur de l’acquisition des données et la confiance à
accorder aux conclusions.
Mais le fait même que l’expérimentateur devait se conformer de façon étroite aux contraintes de ces plans
limitait leur champ d’application et interdisait même la prise en considération de certaines hypothèses.
Ces modalités de travail ont cependant rendu et rendent toujours des services inestimables, en particulier
en agronomie où l’on est maître au moins de la disposition spatiale des végétaux que l’on plante.
En vue, par exemple, de comparer les mérites de plusieurs variétés, on peut projeter sur le terrain des
dispositifs factoriels de blocs, de carrés latins, etc., dont les résultats seront statistiquement interprétables
et conduiront à des calculs relativement simples.
Mais la réalité est beaucoup plus complexe que cela.
Aucun phénomène biologique n’a qu’une seule cause, aucun n’a qu’un seul effet.
Il faut donc s’habituer à raisonner dans un univers multivarié, où règnent de nombreuses variables et leurs
interactions d’ordres divers.
Il faut aussi pouvoir explorer ce monde difficile et agir éventuellement sur lui.
Au-delà de trois dimensions, notre esprit ne formule plus aucune représentation concrète et ne peut
s’appuyer sur des intuitions géométriques.
Seuls les calculs nous renseignent, en devenant malheureusement vite pénibles, fastidieux et
démesurément longs.
Sans machines à calculer, il n’y aurait dans cette direction aucun espoir de réussite.
Or, précisément, la biologie d’aujourd’hui accepte d’analyser des situations complexes, telles qu’elles
sont dans la réalité (ou presque), et d’étudier simultanément plusieurs variables et plusieurs facteurs de
variations.
Ce qu’on appelle souvent analyse des données relève de cette volonté de ne pas imposer de normes
préalables (en tout cas le moins possible) et de traiter les données telles qu’elles résultent de l’observation
ou de l’expérimentation.
C’est pourquoi à la statistique fishérienne et à sa logique s’ajoute aujourd’hui une stratégie toute
différente d’interprétation où la statistique classique, déjà élargie à la statistique non paramétrique,
intervient de concert avec l’analyse combinatoire, l’analyse numérique, l’algèbre, etc., et où s’épanouit la
méthode des modèles.
On sait que les problèmes de la biologie peuvent être abordés essentiellement à trois niveaux: celui des
populations, celui des organismes, celui des mécanismes cellulaires et moléculaires.
Chronologiquement, l’usage des moyens informatiques s’est placé d’abord de façon privilégiée au niveau
le plus élevé du fait du développement de l’écologie (aussi y puiserons-nous des exemples).
Mais, compte tenu des résultats les plus récents, on constate que l’informatique s’installe jusqu’aux
niveaux les plus fins de la biologie moléculaire et de la biochimie.
C’est l’outil informatique qui a permis dans ces derniers domaines de réaliser de gigantesques progrès
dans l’analyse des génomes et dans le «design» moléculaire, avec les retombées pratiques que cela
implique en médecine et en biotechnologie.
Le lecteur devra se reporter aux articles HOMME - Génome humain et PHARMACOCHIMIE, pour
trouver cette information.

HOUX S. Initiation à l’informatique Septembre 2002


60
L’analyse des situations

L’acceptation de situations complexes en tant qu’objets d’analyse rend nécessaire une étape préalable de
réflexion, de recherches préliminaires, de définition du domaine d’étude, de choix des variables retenues
et des facteurs à contrôler.
Il s’agit d’un effort logique en amont de tout travail systématique, qui exige, outre des connaissances
techniques, de l’expérience et la culture générale la plus étendue possible.
L’équipe chargée de ce travail devrait toujours compter une ou deux personnes qui ne soient pas des
débutants.
Par exemple, l’attaque des problèmes posés par une épidémie dans l’espèce humaine, considérée
maintenant comme celle d’une situation écologique, exige de savoir quel est l’agent pathogène, son cycle,
ses rapports avec l’hôte, quelles en sont les interactions possibles avec les facteurs du milieu (entre autres
climatiques), mais aussi de connaître les caractéristiques biologiques de la population humaine concernée,
son comportement, ses habitudes alimentaires, son arsenal thérapeutique, et enfin les conditions socio-
économiques dans lesquelles s’inscrivent tous ces phénomènes et par lesquelles ils sont peut-être
modifiés.
L’inventaire de telles situations est le plus souvent décevant car la liste des variables à contrôler, des
facteurs en jeu, est désespérément longue, bien que sûrement incomplète.
Il faut alors procéder à des choix, c’est-à-dire des hypothèses simplificatrices.
On se limite délibérément, pour des raisons pratiques de faisabilité et aussi pour des raisons objectives
d’importance relative, à un nombre restreint d’éléments et de relations entre ces éléments.

L’acquisition des données

L’acquisition des données pose toujours des problèmes difficiles, que ce soit au laboratoire ou dans la
nature, parce qu’on peut hésiter sur la manière la plus valable de la faire, mais aussi parce que des
modalités dépendront les facilités de calcul et la qualité de l’interprétation.
Il faut mettre à part les observations qui résultent de circonstances qui nous sont offertes et non d’un plan
ou d’une action expérimentale.
Cette catégorie de données n’est pas si exceptionnelle qu’on pourrait le croire: tornades, séismes,
inondations, etc., mais aussi construction d’une autoroute, d’un barrage, etc. fournissent autant
d’occasions d’obtenir des informations d’autant plus précieuses qu’elles correspondent à des situations
qu’on n’aurait pas pu provoquer.
Par exemple, un printemps froid qui retarde la sortie des insectes et fait mourir de faim les martinets (qui
auraient dû s’en nourrir) permet de mieux comprendre la dynamique de populations de cette espèce, ses
contraintes, ses faiblesses. Par exemple, encore, la désertification d’une île par une éruption volcanique
permet d’étudier les étapes de sa colonisation.
Dans tous les cas, le problème clé est celui de l’échantillonnage.
Il relève toujours d’un modèle et reste par conséquent relatif à un objectif.
Des erreurs faites à ce niveau sont irréparables, quel que soit le coût expérimental consenti.
Par contre, le système d’échantillonnage choisi doit être, sur le terrain, appliqué les yeux fermés.
Donnons deux exemples simples qui permettent de soulever quelques problèmes.
Supposons que l’on veuille étudier un phénomène en fonction du temps et qu’un enregistrement continu
ne puisse être fait.
La question des moments de mesure se pose.
L’idée la plus simple, qui consiste à espacer de façon régulière les mesures (tous les matins à 8 h, par
exemple) et qui a malheureusement été souvent suivie pour des raisons évidentes de commodité, peut
conduire à des erreurs graves: si le phénomène étudié admet une périodicité de 24 heures, celle-ci ne
pourra évidemment être mise en évidence par un recueil de données de même périodicité, et on conclura,
de manière erronée, à la constance du phénomène.
Dans le domaine spatial, l’une des difficultés majeures est celle de l’échelle.
Supposons que l’on désire étudier la répartition d’une espèce végétale (ou de plusieurs) le long d’un
chemin ou le long d’un trajet imaginaire tracé sur une carte.
On ne va pas repérer et dénombrer de façon exhaustive toutes les plantes rencontrées.
HOUX S. Initiation à l’informatique Septembre 2002
61
Mais quel doit être le rythme de l’échantillonnage: tous les décimètres, tous les mètres, tous les kilomètres
?
Il arrive souvent, malgré des renseignements préliminaires, qu’on ne puisse déterminer a priori le bon
choix, c’est-à-dire celui qui permette la mise en évidence de structures (d’agrégations, par exemple).
On adoptera un échantillonnage systématique permettant ensuite des regroupements de données et la
recherche de l’échelle intéressante.
On ne soulignera jamais assez l’importance de l’échantillonnage.
C’est à son niveau qu’on se trompe (beaucoup plus que dans les calculs ultérieurs) ou que l’on passe à
côté des phénomènes importants.
Chacun sait que, dans des domaines extra-scientifiques, lorsqu’on veut faire dire aux statistiques ce que
l’on souhaite qu’elles disent, il suffit d’agir au niveau de l’échantillonnage.
La collecte des données proprement dite fait souvent appel à des dispositifs électroniques et à des
méthodes informatisées, par exemple dans le cas d’un programme complexe de mesures: plusieurs
variables simultanées, rythmes variables en fonction du temps, etc.
En effet, la collecte simple et manuelle n’est pas toujours possible, soit à cause de son caractère répétitif
(expériences longues, jour et nuit), soit à cause des conditions difficiles (bioclimatiques en haute
montagne).
Dans tous les cas, la chasse aux erreurs et la recherche de standardisation des mesures seront des soucis
permanents.
L’enregistrement et le stockage des données ne sont pas des problèmes mineurs.
Le choix d’un support informatique adéquat (bandes perforées ou magnétiques, disques, etc.) peut faire
gagner beaucoup de temps et diminuer le coût du traitement.
On évitera pour les mêmes raisons les transferts de support et les reports manuels.
On ne négligera, dans la mise au point de ces procédures, ni les possibilités de vérification, ni la souplesse
d’utilisation.
Il faut enfin souligner l’extrême importance des banques de données dans bien des chapitres de la
biologie.
Le stockage systématique de certains renseignements concernant les ressources naturelles renouvelables
revêt un grand intérêt scientifique et économique.
La gestion rationnelle de ces richesses naturelles passe par ces inventaires et par leur traitement.
La généralisation des banques ou bases de données où l’on peut corriger et mettre à jour les informations
qui y sont contenues s’est faite grâce au développement de l’informatique documentaire.
Elles ont posé quelques problèmes en matière de droit international et de déontologie scientifique.

Le traitement des données

Il n’y a évidemment pas de recette miracle et il est important de démystifier le pouvoir miraculeux de
l’ordinateur, qui n’aurait qu’à ingérer des données pour sortir quelques secondes plus tard des conclusions
mirifiques.
Ce n’est pas seulement faux du fait qu’un ordinateur ne fonctionne pas sans programme, mais parce que
ce programme ne fait qu’exprimer, dans un langage compréhensible pour la machine, le résultat de
réflexions, de calculs, de travaux préliminaires, sans parler du travail de mise au point et d’optimisation
de ce programme lui-même.
L’utilisation de l’ordinateur dans la recherche biologique n’est ni un travail de routine ni un jeu.
Toute déviation dans l’un ou l’autre sens est sanctionnée par l’inefficacité et le gaspillage.
Par ailleurs, tout traitement brutal des données est voué aux pires ennuis, si ce n’est aux erreurs
grossières.
Une approche intuitive des données, géométrique quand c’est possible, le tracé de quelques graphes,
l’évaluation d’ordres de grandeur, la détermination de quelques relations partielles doivent toujours être
tentés avant la mise en route d’un traitement lourd et systématique.
L’usage de moyens de calculs puissants ne dispense pas de rester maître de ces calculs et d’en contrôler le
déroulement.
Un des types de calcul les plus fréquents concerne évidemment la recherche et l’évolution des relations
entre variables.
HOUX S. Initiation à l’informatique Septembre 2002
62
Les programmes de corrélation et de covariance, de régression linéaire ou logarithmique, sont très utilisés
et font partie intégrante du logiciel.
Ils s’appliquent à des ensembles de variables, considérés deux à deux, si bien que les résultats se
présentent sous forme de matrices.
Mais la considération de données structurées en tableaux (multiplicité des variables et des facteurs)
conduit à rechercher des interprétations globales.
Les diverses méthodes d’analyse multivariée (analyses en composantes principales, analyse factorielle des
correspondances, analyse discriminante) ont pour but de nous éclairer sur la structure de la population
étudiée, sur l’existence de gradients, de similitudes entre groupes...
Il est évidemment exclu, en phytosociologie par exemple, que des tableaux comportant des dizaines de
lignes et de colonnes, ou des transects sur lesquels des centaines de relevés mentionnant eux-mêmes des
dizaines d’espèces végétales ont été effectués, soient l’objet d’un traitement manuel.
En résumé, on peut dire que l’informatique nous aide à découvrir et à exprimer, parfois de façon
graphique, des structures, des relations qui n’avaient dans les situations biologiques proposées aucun
caractère d’évidence.
Ce pas, à la fois méthodologique et technique, rend solubles toute une série de problèmes.
Il permet d’extraire une information interprétable de corps de données qui autrement resteraient
parfaitement obscurs.

La modélisation des systèmes

Avoir un point de vue systématique, c’est admettre une série de relations entre éléments composant une
situation.
Et définir un système, c’est à la fois limiter le champ et en extraire un ensemble cohérent.
Mais un système n’est jamais quelque chose de statique, si bien que, au-delà de sa description, le plus
intéressant est évidemment l’étude de son fonctionnement et de sa dynamique.
Parmi les systèmes biologiques, ceux qui ont été de beaucoup les plus étudiés au cours de ces dernières
années sont les écosystèmes.
Par exemple, le vaste projet de Fort Collins (Colorado), commencé sous les auspices du Programme
biologique international (P.B.I.), avait pour but d’analyser le plus complètement possible le
fonctionnement d’une prairie: soixante-dix chercheurs y ont apporté leur contribution, pendant des années
et avec des moyens considérables.
D’innombrables facteurs ont été pris en compte; les uns physiques (eau et chaleur, sous toutes leurs
formes), d’autres chimiques (avec les éléments nutritifs, en particulier ceux à base d’azote ou de
phosphore), d’autres biologiques avec la production primaire, ses décomposeurs, ses consommateurs, et
enfin tous les aspects énergétiques.
Des centaines de variables ont été isolées, étudiées en fonction du temps, et en fonction de facteurs
apparemment les plus influents.
Des dizaines de relations ont été découvertes et exprimées sous forme analytique.
Enfin, une simulation générale a été tentée.
Malgré ces efforts, bien des problèmes ne sont pas élucidés, comme les interactions entre la prairie et les
animaux domestiques qui la consomment, selon les modalités de gestion de l’élevage et du pâturage.
Ces recherches et bien d’autres qui ont suivi ont une philosophie commune:
– ces systèmes biologiques sont très complexes, mais peuvent maintenant être l’objet d’une approche
scientifique, grâce aux progrès réalisés dans le domaine expérimental et grâce à l’usage des moyens
informatiques. Ils ne sont pas chaotiques, ils ont une cohérence interne, une organisation, elle-même
susceptible de description;
– ces systèmes peuvent être explorés et décrits mathématiquement, et leurs changements peuvent aussi,
sous une forme déterministe ou stochastique, être exprimés mathématiquement, si bien que la
connaissance d’un système à un moment donné est une base sérieuse pour sa connaissance à un autre
moment. On peut même parler de prédiction dans les meilleurs cas.
Les plus grands projets d’étude de systèmes écologiques, comme ceux retenus dans les années quatre-
vingt par le programme international Man and Biosphere (M.A.B.) – qui a succédé au P.B.I. –, étaient à la

HOUX S. Initiation à l’informatique Septembre 2002


63
limite des moyens matériels mobilisables: la forêt tropicale, les deltas, les établissements humains
constituent des situations extraordinairement complexes où l’on a pu utiliser la modélisation des
phénomène écologiques.
Mais rien n’empêche de définir des sous-systèmes (définis sur des bases spatiales, spécifiques, etc.),
abordables dans l’état actuel de nos connaissances, et dont l’assemblage ultérieur pourra constituer une
approche du système total auquel ils appartenaient.
Dans cette perspective, toutes les études de dynamique de populations, si elles sont solidement reliées au
milieu, ont un intérêt qui dépasse largement l’espèce sur laquelle elles portent.
Et de ce point de vue des progrès très significatifs ont été faits, d’une part au niveau des espèces
maintenant mieux connues (quelques oiseaux, poissons, petits mammifères), d’autre part sur les modèles
eux-mêmes.
On a sorti d’abord des modèles simplistes (exponentiel, logistique) puis des modèles beaucoup plus
élaborés (au premier rang desquels ceux de Lotka, de Volterra et de Kostitzin qui rendent compte
d’hypothèses plus nombreuses et plus proches des conditions de la réalité).
«Faire tourner un modèle», c’est être capable de simuler le fonctionnement d’un système de telle manière
que ses produits soient vraisemblables, en accord avec la réalité, dans le cadre de la durée de
fonctionnement admise, c’est-à-dire celle pendant laquelle les hypothèses restent valables.
Il est clair que, si on obtient ce succès, on a de solides présomptions d’explications quant aux mécanismes
du système réel.
On comprend bien dès lors le rôle exploratoire des modèles.

Les propriétés des systèmes

L’étude des systèmes biologiques, tels les écosystèmes, pose des problèmes très intéressants, qui relèvent
d’ailleurs de l’analyse des systèmes en général et qui sont loin d’être résolus.
Nous nous limiterons à quelques remarques.
Il faut rappeler le caractère de complexité des systèmes biologiques.
On peut s’en rendre compte aisément, presque intuitivement, par les difficultés qu’on a à les comprendre.
Mais la mesure de la complexité reste une question mal résolue: comment peut-on affirmer que tel
système est plus complexe que tel autre ?
La notion de quantité d’information, issue de la physique, si elle a rendu de grands services dans certains
chapitres de la biologie, est cependant loin de répondre à nos espoirs.
En fait, le concept de complexité est inséparable d’après nous de celui d’organisation.
Dans ce domaine, les idées et les faits sont sans doute plus clairs.
On est bien persuadé maintenant de l’existence d’une organisation dans tout le monde vivant et à tous les
niveaux auxquels on peut l’approcher.
Il n’y a pas une organisation d’ailleurs, mais des réseaux de relations et de structures qui s’articulent les
uns avec les autres.
Aucun changement dans l’un n’est possible s’il n’est au moins compatible avec les autres.
Tous les résultats récents, que ce soit au niveau moléculaire, subcellulaire et cellulaire ou au niveau des
populations, nous font toujours découvrir des mécanismes supplémentaires, des régulations plus fines, des
relations imprévues.
Tout va dans le sens de l’organisation, quitte à ce que celle-ci ne soit pas celle que nous avions imaginée!
Et le flou momentané dans un domaine n’a jamais été jusqu’à présent que l’image de notre ignorance, et
non pas celle de la non-organisation.
Il est d’autant plus admirable de constater la pérennité des systèmes biologiques, et on peut s’interroger en
même temps sur leur stabilité.
Dans un premier temps, on a considéré comme stables des systèmes dont les caractéristiques numériques
restaient à peu près constantes.
Par exemple, une population qui garderait le même nombre d’individus serait stable.
Cette façon de voir les choses s’est révélée simpliste et assez éloignée de la réalité.
Dans la nature, certaines populations voient leurs effectifs varier de façon considérable, si bien que ce qui
est stable, c’est leur existence et celle de relations entre elles et avec le milieu.
Ce nouveau concept de stabilité, plus structurel, a été nommé résilience par Holling.
HOUX S. Initiation à l’informatique Septembre 2002
64
On a découvert aussi, au moins dans certaines situations, des états d’équilibre et on a appris que les
variations pouvaient être importantes sans entraîner de catastrophes, tant que le retour à ces états
d’équilibre était assuré.
Par exemple, dans de nombreuses régions tempérées, le défrichement n’a pas empêché, après abandon des
cultures, le retour à la forêt-climax, et l’on a été capable d’étudier le détail des processus qui y conduisent
(grâce une fois de plus à la méthode des modèles et à l’informatique).
Mais si l’on dépasse certaines limites (plus rapidement franchies, dans des conditions géographiques et
écologiques qu’on peut préciser), on ne revient pas à l’état d’équilibre initial.
On évolue vers un autre état d’équilibre, et c’est le processus de désertification dans le cas de l’exemple
choisi.
Ainsi, la variabilité du monde vivant n’est pas le chaos.
On la sent liée au milieu physique, au climat, à sa propre histoire; on parle alors de diversité, d’adaptation.
Les variations les plus fines suivent elles-mêmes des lois complexes, et c’est leur exploration qui
constitue le champ habituel de la science.
Mais ces variations ne sont pas isolées, indépendantes; elles sont celles des éléments d’un système et c’est
leur approche multiple et simultanée qui rend maintenant nécessaire l’usage des moyens informatiques
comme outils de la recherche, tant au niveau technique que méthodologique.

Source : Universalis
Informatique de gestion

L’informatique peut être utilisée pour répondre à des besoins divers, tels que le contrôle de processus
industriels, le calcul scientifique et technique, la gestion des organisations.
Parmi ces applications, il en est une qui revêt une importance particulière: l’informatique appliquée à la
gestion ou informatique de gestion.
Il suffit pour s’en convaincre de constater que plus des trois quarts des calculateurs électroniques installés
dans les pays développés sont employés à résoudre des problèmes de gestion.
Ils constituent, à l’heure actuelle, une source de productivité et un catalyseur d’évolution d’une portée
considérable.
Comme dans toute application de l’informatique, on fait ici intervenir un ensemble de matériels ayant
chacun une fonction précise ou hardware et des instructions rassemblées en programmes constituant le
software.
La nature des travaux de gestion réalisés par un système détermine dans une large mesure celle des
matériels qui le constituent et des programmes qui assurent son fonctionnement.
Bien que la spécificité des traitements de l’information de gestion ne soit que relative, ce texte laissera de
côté la technologie des systèmes informatiques ou les connaissances générales relatives au traitement de
l’information par les machines électroniques, pour se limiter aux applications de celles-ci à la gestion et
aux éventuelles conséquences de ces applications.

HOUX S. Initiation à l’informatique Septembre 2002


65
Les applications de l’informatique à la gestion

Les applications de l’informatique qui s’imposent à l’évidence concernent l’automatisation des travaux
administratifs et comptables.
Ce sont là des opérations simples, périodiques, qui ne font pas intervenir de décisions et où l’ordinateur
remplace avantageusement l’homme.
Dans une entreprise industrielle, la comptabilité générale et analytique ainsi que les comptes clients et les
comptes fournisseurs, l’état des stocks, la facturation et la paie du personnel sont pris en charge par
l’ordinateur.
Il en est de même pour de nombreuses opérations comptables et administratives dans une banque, dans
une compagnie d’assurances ou dans une administration telle que la Direction générale des impôts.
Le système informatique peut également assurer des fonctions plus complexes.
Ainsi, dans une entreprise industrielle, les commandes des clients peuvent être traduites en ordre de
fabrication en assurant le meilleur emploi de l’appareil de production et en gérant les stocks de façon
satisfaisante.
Dans ce cas, l’ordinateur prépare les décisions selon des règles préalablement fixées par les programmes.
Cela est possible chaque fois que les informations sont bien définies et lorsque les choix possibles sont
connus ainsi que leurs conséquences.
Au moyen des programmes écrits par l’utilisateur, l’ordinateur, à mesure qu’il reçoit les informations,
calcule les résultats qui permettent de prendre les décisions ou qui définissent celles-ci.
Dans d’autres cas, où les décisions de gestion ne sont pas analysables avec une telle rigueur (comme, par
exemple: à qui confier telle mission ou quel budget affecter à la publicité?), le système informatique sera
un outil d’information et d’analyse, puisque le responsable pourra aisément consulter les divers fichiers et,
éventuellement, testera telle décision en utilisant un modèle.
Les sociétés développées sont caractérisées en particulier par une circulation sans cesse croissante
d’informations de toute nature.
Aussi l’économie globale de ces flux d’informations est recherchée afin d’assurer leur plein emploi.
Cela entraîne le développement de systèmes informatiques collectifs et coopératifs très divers.
Ainsi, un système permettant la réservation de moyens de transports, de chambres d’hôtel et de services
analogues à partir d’un terminal unique constitue un outil dont les avantages sont multiples: meilleur
emploi des ressources, coûts administratifs réduits, commodité pour l’usager...
Dans un autre domaine, la simplification des échanges d’informations entre les personnes physiques et
morales et les administrations (Sécurité sociale, Finances, P.T.T., etc.) sera assurée par la création d’une
centrale automatisée d’information assurant le recueil de celle-ci et sa communication à chaque
demandeur sous la réserve d’un contrôle et d’une réglementation assurant un usage conforme aux droits et
libertés de chacun.
Ces aperçus mettent en évidence que, pratiquement, toute activité, qu’elle soit économique, sociale ou
intellectuelle, peut donner lieu à des applications de l’ordinateur.
Celui-ci se verra confier, outre les tâches purement administratives, les cas où les décisions sont
prévisibles et analysables.
D’autre part, c’est un moyen d’information considérable puisqu’il peut apporter à chacun la
documentation souhaitée au moment opportun et sans attente.
Enfin, comme prolongement de la mémoire et de la logique, il constitue pour l’homme une aide dans ses
activités les plus créatrices, qu’elles soient enseignement, recherche...
Aujourd’hui, on peut affirmer que les méthodes de travail de chacun seront modifiées du fait de
l’existence de ce nouvel outil.
Selon les cas, leurs évolutions seront profondes ou secondaires, rapides ou progressives, mais elles seront
partout présentes.

Maîtriser l’inéluctable

Tant le chantre de l’ordinateur que son détracteur lui attribuent des responsabilités qui ne sont nullement
les siennes.

HOUX S. Initiation à l’informatique Septembre 2002


66
Un phénomène particulier peut apparaître comme la conséquence de plusieurs facteurs techniques
économiques ou sociaux.
Et l’un de ceux-ci peut effectivement être symbolisé par l’ordinateur.
Toutefois, ce dernier n’est que l’outil, souvent utile, quelquefois nécessaire, pour maîtriser un phénomène.
Ainsi, on craint souvent que la liberté des personnes puisse un jour être entravée par l’utilisation abusive
des grands fichiers automatisés où est rassemblée l’«histoire» de chacun (état civil, fortunes, revenus,
dossier médical, casier judiciaire, etc.).
On en rend responsable l’ordinateur et on s’élève contre les projets d’automatisation, livrant ainsi un
combat d’arrière-garde contre un progrès inévitable, alors que le véritable problème est de le maîtriser.
En fait, la croissance et l’importance des flux d’information entre agents (personnes, entreprises,
administration) sont liées au développement de notre société.
Il importe de les gérer de façon satisfaisante et économique.
Or, le seul moyen à notre disposition est l’ordinateur et le refus de l’utiliser est analogue à la
condamnation des chemins de fer ou du téléphone à d’autres époques.
Face à ce fait inéluctable, il importe de bâtir un droit et des institutions pour éviter tout abus qui naîtrait
d’une mauvaise utilisation de ces fichiers: la maîtrise d’une nouvelle technique pose chaque fois à
l’humanité un défi qu’elle ne saurait résoudre par un refus.
L’informatique permet la croissance du rendement dans les emplois non directement liés à la production
(travaux administratifs, par exemple).
C’est là une conséquence essentielle.
Dans les économies modernes, le nombre de ces emplois augmente sans cesse.
Or, sans l’informatique, sa productivité ne peut évoluer que fort lentement, ce qui condamne à terme la
croissance économique.
La généralisation de l’emploi des ordinateurs dans la gestion permet de prévoir une évolution de la
productivité, analogue à celle que l’on constate dans le secteur secondaire.
L’introduction d’une technique aussi révolutionnaire que l’informatique amène également diverses
évolutions dans les attitudes et dans l’organisation.
En premier lieu, elle fait accéder à la mentalité économique des secteurs où les préoccupations de
rentabilité et d’efficacité sont, dans une certaine mesure, absentes.
Les divers résultats comptables dont on peut disposer rapidement et économiquement amènent à prendre
conscience des coûts, à fixer des objectifs précis, à évaluer les choix possibles au niveau de chaque
cellule: l’atelier, l’agence commerciale, l’usine, etc.
En second lieu, l’implantation d’un ordinateur conduit à repenser l’organisation des diverses activités et, à
ce titre, constitue le moyen privilégié de réformer les structures et les méthodes de travail.
Dans bien des cas, il s’avère préférable de ne pas se contenter de transposer les opérations classiques,
mais d’imaginer de nouvelles structures pour tirer le meilleur parti du système informatique.
Ainsi, la constitution du système de réservation dans le domaine des transports et des loisirs – qui permet,
en un point quelconque (agence de voyage, par exemple), de consulter les fichiers où est enregistrée
l’offre (chambres d’hôtel, places d’avion...) –, modifie les rôles réciproques des divers agents
économiques.
Cela amène les hôtels à se regrouper et à confier une partie de la responsabilité commerciale à ceux qui
exploitent un tel système.
Le service en matière de loisirs évolue également et conduit à offrir un ensemble de choix globaux et
cohérents alors qu’auparavant chacun agissait de manière dispersée.
Ce qui est vrai au niveau des structures l’est également au niveau de l’organisation et, bien souvent,
l’informatique modifiera les méthodes de travail et les responsabilités des diverses personnes dans
l’entreprise: un meilleur contrôle par la direction autorisera une délégation de responsabilités plus large et
plus explicite.
L’existence d’une documentation complète, aisément accessible, permettra de réaliser immédiatement des
opérations autrefois émiettées dans le temps et dans les services.
L’informatique enfin donnera naissance à une activité de service orientée vers les besoins de gestion et
d’aide à la décision qui n’existe pour l’instant qu’à l’état embryonnaire.
Par exemple, des entreprises se créent dont l’objet est de proposer à tel ou tel secteur professionnel soit
des programmes prêts à prendre en charge leurs applications de gestion (ces programmes généraux sont
HOUX S. Initiation à l’informatique Septembre 2002
67
appelés packages ), soit des terminaux d’ordinateur leur donnant accès à un système informatique
comprenant programmes et fichiers.
On estime que cette activité représente 2 à 3 p. 100 du produit national, chiffre très important en valeur
absolue.
Un développement de cette ampleur implique une mutation professionnelle et la naissance d’une véritable
industrie de services.
L’informatique de gestion, domaine encore imprécis et évolutif, mais dont la spécificité ne cesse de
s’affirmer, est née de la rencontre d’une technique aux possibilités révolutionnaires et des difficultés
croissantes qu’éprouvent les sociétés développées pour gérer des situations complexes et faciliter la
circulation de l’information.
Dès aujourd’hui, ce domaine préfigure le rôle essentiel que joueront les investissements intellectuels dans
les économies modernes.
Différents de la recherche, ces investissements dont l’ampleur dépasse le coût des machines seront à
l’origine de la richesse des collectivités.
Personnel de haute qualité et imagination seront également essentiels pour affronter de tels risques.

Source : Universalis
Informatique - Principes

Le traitement de l’information, au sens large, forme une part importante de l’activité humaine et elle est
aussi ancienne que l’homme lui-même.
L’analyse de cette activité, qui est l’objet de l’informatique, a conduit à distinguer la manipulation des
connaissances, ou syntaxe, du contenu des connaissances, ou sémantique, et a permis de montrer qu’un
grand nombre de démarches considérées comme «intelligentes», c’est-à-dire propres à l’homme, étaient,
sinon mécaniques, du moins mécanisables.
Il devient dès lors possible d’alléger la tâche de l’homme en confiant cette partie mécanisable de l’activité
intellectuelle à un dispositif automatique de traitement, c’est-à-dire à un ordinateur, de la même manière
que l’on a allégé sa tâche physique par l’utilisation de machines-outils.
L’ordinateur n’est donc à aucun degré un «cerveau électronique» ou une «machine intelligente», mais bien
au contraire un outil sur lequel l’homme se décharge de tâches qui, justement, se sont avérées non
intelligentes.

Sémantique et syntaxe

Pour communiquer entre eux, les hommes utilisent essentiellement le langage (parlé et écrit).
Tout message peut être étudié sous deux aspects: celui de sa signification, c’est-à-dire des idées qu’il
transmet et que l’on appelle son contenu sémantique.
HOUX S. Initiation à l’informatique Septembre 2002
68
Celui de sa structure, c’est-à-dire des règles grammaticales utilisées pour le construire et qui forment
l’aspect syntaxique.
Ces deux aspects sont fondamentalement distincts dans la mesure où un même message peut être rédigé
en français ou en chinois, ce qui fait appel à des syntaxes différentes, tout en conservant le même sens.
L’information, au sens de l’informatique, étant ce qui forme le support des connaissances, il s’ensuit que
l’informatique ne s’intéresse qu’aux aspects syntaxiques, à l’exclusion des aspects sémantiques.
Par conséquent, deux messages ayant même sens et rédigés respectivement en chinois et en français sont
considérés, du point de vue de l’informatique, comme deux messages totalement distincts.
En simplifiant, on peut dire que, pour une langue déterminée, un dictionnaire permet de connaître la
sémantique de la langue, alors que la grammaire décrit la syntaxe (règles de conjugaison, accord des
participes, règles du pluriel des mots, etc.).
De façon plus générale, étant donné un ensemble d’éléments, l’informatique ne s’intéresse qu’aux règles
permettant de combiner ces éléments entre eux, c’est-à-dire aux structures syntaxiques définies sur cet
ensemble et aux règles opératoires permettant de passer d’une structure à une autre, en faisant
systématiquement abstraction de toute sémantique.

Informatique et mathématiques

Les premiers ordinateurs ont été construits pour faire des calculs à grande vitesse et pendant très
longtemps ont été désignés par le terme de «calculatrices».
Ultérieurement, on s’est aperçu que les capacités de traitement de ces machines dépassaient très largement
le domaine du calcul numérique et qu’elles étaient utilisables par exemple pour la gestion des entreprises,
pour la traduction des langues, ou pour l’aide au diagnostic en médecine.
Cela explique que l’on soit passé historiquement de la notion de «calculatrice» à celle de «système
automatique de traitement de l’information».
Ce n’est cependant pas par hasard que les ordinateurs sont nés des tentatives pour automatiser les
opérations de calcul.
Le calcul numérique, du point de vue de l’informatique, est en effet un domaine à contenu sémantique nul
où l’on se contente de manipuler des symboles sans signification selon des règles préétablies,
manipulation qu’une machine est capable d’effectuer.
Il en va de même du calcul algébrique, où l’on manipule des variables à la place des nombres.
Si l’on considère l’ensemble des mathématiques, on constate que les objets que l’on y définit n’ont pas
d’existence en dehors de leur définition et que leurs seules propriétés sont celles qui découlent de ces
définitions.
Dans ces conditions, faire une démonstration, c’est combiner entre elles un certain nombre de propriétés
selon des règles préétablies.
Ces dernières sont l’objet de la logique mathématique, qui vise à formaliser le raisonnement déductif,
c’est-à-dire justement à ramener le raisonnement mathématique à une manipulation de symboles sans
signification.
C’est en ce sens qu’il faut interpréter la célèbre boutade du logicien Bertrand Russell selon laquelle «les
mathématiques sont une science où l’on ne sait pas de quoi l’on parle ni si ce qu’on dit est vrai».
La démarche des logiciens visant à ramener la totalité des mathématiques à des manipulations formelles
de symboles relève typiquement de l’informatique, même si les logiciens n’en ont pas toujours été
conscients, et conduit, de ce point de vue, à considérer les mathématiques comme un domaine où la
totalité de la sémantique est réductible à la syntaxe, ce que Léon Brillouin énonçait sous la forme
suivante: «Le contenu informationnel des mathématiques est nul.»
Un algorithme est une suite finie de règles à appliquer dans un ordre déterminé à un nombre fini de
données pour arriver, en un nombre fini d’étapes, à un certain résultat, et cela indépendamment des
données.
Par exemple, l’algorithme de l’addition permet de faire l’addition de deux nombres quelconques en
partant des chiffres les plus à droite et en opérant de droite à gauche.
Un algorithme étant une description de la suite des opérations à faire, il est clair que la manière de le
rédiger dépendra du dispositif (homme ou machine) chargé de l’exécuter et qu’un algorithme écrit en turc
par exemple n’est pas un algorithme pour celui qui ignore cette langue.
HOUX S. Initiation à l’informatique Septembre 2002
69
De ce point de vue, un programme destiné à un ordinateur est très précisément un algorithme, et un
langage de programmation est un langage permettant d’écrire un algorithme qu’un ordinateur saura
exécuter.
De ce même point de vue, l’ensemble des règles d’un automate à pile de mémoire est un algorithme
permettant de savoir si une phrase écrite sur le ruban d’entrée appartient ou non à un certain langage.
Si l’algorithme ne permet pas d’arriver au résultat en un nombre fini d’étapes, on dit que l’on a un
pseudo-algorithme.
Pour déceler un pseudo-algorithme, il faudrait pouvoir construire un algorithme qui, appliqué à un
quelconque pseudo-algorithme, permettrait de trancher la question.
Malheureusement, et ce résultat est d’une extrême importance, on démontre qu’il est impossible de
construire un tel algorithme; ce problème est indécidable.
En termes de programmation, cela revient à dire qu’il est impossible d’écrire un programme qui, prenant
un autre programme comme donnée, permettra de savoir si ce programme fournira des résultats au bout
d’un temps fini.
Le caractère indécidable de certains problèmes n’autorise aucune spéculation sur les limites de l’esprit
humain ou sur la vanité de toute logique.
Il s’agit là de démonstrations de caractère technique à l’intérieur d’un système de logique et elles n’ont
pas plus de conséquences «philosophiques» que le théorème de Pythagore.

Source : Universalis
L’enseignement assisté par ordinateur

Le terme d’enseignement assisté par ordinateur (E.A.O.) doit être pris en son sens littéral: il s’agit d’un
enseignement où l’ordinateur est utilisé en tant qu’outil.
Il n’y a donc pas de théorie de l’enseignement assisté par ordinateur, mais des applications diverses de
l’ordinateur à l’enseignement.
Ces applications font elles-mêmes appel à des techniques pédagogiques généralement élaborées par
ailleurs.
Parmi toutes les machines dont peut disposer l’enseignant moderne, l’ordinateur est la seule qui permette
un dialogue.
C’est donc la seule qui soit capable d’exercer ces fonctions élémentaires de l’enseignant que sont l’apport
d’informations, le contrôle de l’acquisition de ces informations et la correction des erreurs.
À la différence de toutes les autres aides audiovisuelles, l’ordinateur a donc l’avantage d’interdire à
l’étudiant toute passivité.
Partant de ces constatations, certains n’ont pas hésité à imaginer un système éducatif où la plus grande
partie de l’enseignement reposerait sur l’ordinateur.
Cela permettrait, en théorie, un enseignement idéal car de qualité parfaitement contrôlée, adapté
cependant au rythme et aux capacités de chacun.
Il est cependant peu probable que dans un avenir prévisible une telle extension soit observée, et cela pour
plusieurs raisons.
HOUX S. Initiation à l’informatique Septembre 2002
70
La première est le coût de l’heure d’enseignement.
La deuxième vient du temps considérable nécessaire pour réaliser un cours d’enseignement assisté de
bonne qualité.
La troisième, sans doute la seule qui soit techniquement irréductible, est la nécessité psychologique pour
les élèves du contact avec un enseignant humain.
Ces difficultés ont amené beaucoup d’équipes à apprécier de manière plus critique la place de l’ordinateur
dans l’enseignement et à s’orienter vers son utilisation dans des tâches où il peut apporter aux élèves
quelque chose que l’enseignant est dans l’incapacité technique de réaliser.
Il faut donc considérer que la place de l’enseignement assisté par ordinateur est actuellement encore
l’objet d’une recherche qui est loin d’être terminée.
C’est vers les années soixante que l’utilisation de l’ordinateur en enseignement est devenue possible grâce
à la mise au point de matériels permettant un dialogue en langage normal entre l’homme et la machine.
L’ordinateur a été surtout utilisé comme un support particulièrement adapté de l’enseignement
programmé.
De nombreux échecs ont été enregistrés.
Depuis 1970, environ, l’apparition d’équipes de plus en plus nombreuses, les améliorations de la
technique informatique, la limitation des objectifs, l’élargissement des stratégies pédagogiques ont
provoqué une explosion d’applications beaucoup plus diversifiées et qui utilisent certainement mieux les
possibilités exceptionnelles de l’outil.

Support technique

Deux types de matériels sont nécessaires: l’ordinateur et le terminal.


Le terminal permet le dialogue entre l’utilisateur et l’ordinateur.
La forme la plus simple est un clavier de machine à écrire assurant le fonctionnement d’une imprimante.
Ce type de terminal, parfois bruyant, n’est plus guère utilisé.
La plupart des terminaux employés actuellement sont constitués d’un écran cathodique de visualisation et
d’un clavier de machine à écrire.
À cette structure de base peuvent être couplés des supports audio-visuels très divers, dont le
déclenchement est dirigé par l’ordinateur lui-même.
Il peut s’agir d’un passeur de diapositives à accès très rapide, d’un projecteur de microfiches, d’un écran
de télévision, d’un passeur de bandes sonores ou d’un synthétiseur de son.
Depuis lors sont apparus des terminaux encore plus perfectionnés, où l’écran cathodique permet de
réaliser les graphiques les plus divers, des dessins animés.
Certains écrans sont «actifs», et l’étudiant peut y faire des dessins qui sont analysés par l’ordinateur.
Avec les micro-ordinateurs, on voit apparaître deux nouveautés: l’écran cathodique et le clavier
alphanumérique directement associé à l’ordinateur, l’ensemble pouvant se présenter sous la forme d’une
seule boîte de petit format, transportable.
Pour la projection de documents ou l’utilisation d’autres périphériques d’enseignement contrôlés par le
micro-ordinateur, il est nécessaire que celui-ci dispose d’une ou de plusieurs «sorties» prévues par le
constructeur, ainsi que des moyens de faire fonctionner ces matériels périphériques appelés interfaces.
L’association d’un micro-ordinateur et d’un écran de télévision est un bon exemple d’un matériel
microinformatique adapté à l’enseignement.
L’ordinateur, intelligence du système, peut être gros ou petit (mini-ordinateur) ou très petit (micro-
ordinateur).
Le gros ordinateur a des capacités suffisantes pour assurer le fonctionnement de plusieurs centaines de
terminaux, et ceux-ci peuvent être situés à très grande distance.
L’ordinateur peut être spécialisé pour l’enseignement, ou non spécialisé, assurant simultanément des
tâches d’enseignement, de gestion, etc.
Parmi les inconvénients, il faut citer les risques d’encombrement, qui diminuent la rapidité des échanges,
et le coût élevé des communications à longue distance.
Les mini-ordinateurs spécialisés en enseignement peuvent gérer simultanément une vingtaine de
terminaux, ce qui correspond à peu près à l’effectif idéal d’une classe d’élèves.

HOUX S. Initiation à l’informatique Septembre 2002


71
L’apparition du micro-ordinateur révolutionne en apparence la diffusion de l’informatique dans le public,
et en particulier l’enseignement assisté par ordinateur.
Il faut cependant rester honnêtement critique à cet égard.
Le micro-ordinateur permet en théorie l’achat à un prix relativement peu élevé d’un matériel individuel,
de telle sorte que l’ordinateur familial, éventuellement destiné à l’enseignement, n’est plus un rêve.
Néanmoins, les coûts d’achat restent liés aux capacités de mémoire et à la qualité, ainsi qu’à la quantité de
logiciels.
Il est donc relativement peu onéreux d’envisager l’utilisation d’un micro-ordinateur sans périphériques
pour un E.A.O. reposant sur un logiciel simple.
En revanche, l’utilisation de périphériques, de logiciels permettant des stratégies pédagogiques plus
performantes, occupant plus de place-mémoire et nécessitant l’adjonction de mémoires supplémentaires,
est beaucoup plus onéreuse, l’achat de ces logiciels représentant un surcoût non négligeable.
L’apparition des micro-ordinateurs ne va donc pas faire cesser la compétition qui existe entre l’E.A.O.
simple sur support simple et l’E.A.O. complexe sur support relativement coûteux.
Les logiciels d’enseignement utilisent les différents langages informatiques proposés par les constructeurs
sur le matériel.
Les langages informatiques classiques ne sont généralement pas directement utilisables pour écrire des
cours.
Les informaticiens et les enseignants ont donc cherché à élaborer des logiciels d’enseignement propres,
permettant l’écriture relativement facile de cours de complexité variable.
Parmi ces logiciels d’enseignement, certains visent à une certaine universalité, c’est-à-dire qu’ils ont pour
objectif de permettre l’écriture de cours de tout type, dans toute discipline.
Parmi ces logiciels, citons à l’étranger le langage Tutor du système Plato, en France les langages auteurs
de l’O.P.E. (université Paris-VII), les logiciels «T.P.» de l’université Paris-V.
D’autres logiciels visent au contraire à permettre la réalisation rapide par l’auteur de cours nécessitant une
stratégie pédagogique très spécifique.
Citons l’entraînement au diagnostic de l’université Paris-V.
Un des gros problèmes actuels vient de la persistance d’une relation relativement étroite entre un logiciel
et la marque de l’ordinateur sur lequel il a été écrit.
Il en résulte de grandes difficultés de transfert d’un logiciel et des cours réalisés sur ce logiciel d’un
matériel donné sur un autre, un tel transfert étant toujours coûteux en temps et en argent.
Les enseignants rêvent donc de disposer de logiciels d’enseignement aux applications aussi larges que
possible, disponibles sur un nombre suffisant de machines de marques différentes pour permettre des
transferts aisés.
La mise au point d’un tel logiciel est actuellement tentée en France.
Des logiciels très spécialisés resteront cependant nécessaires pour réaliser certains enseignements
spécifiques faisant en particulier appel à la simulation.
À côté de ces logiciels permettant l’écriture des cours et le dialogue étudiant-machine, il est indispensable
de disposer, pour la mise au point des cours, d’instruments de mesure et de correction.
Les instruments de mesure sont les logiciels spécialisés pour l’enregistrement et le tri des réponses des
étudiants.
Ces logiciels permettent à l’enseignant de valider les cours réalisés, en vue d’en améliorer les qualités
après le passage d’un nombre suffisant d’étudiants.
Les corrections qui en découlent doivent être aisées à réaliser et il faut donc prévoir des logiciels de
correction accessibles directement du terminal.
L’ensemble des logiciels (d’enseignement, appelés aussi didacticiels, de tri des enregistrement et de
correction) sont mis en place sans difficulté sur un gros ou sur un mini-ordinateur.
Dans le cas des micro-ordinateurs, il faut prévoir un enregistrement des données sur cassettes et leur
traitement à distance.
On peut donc imaginer une structure future de l’enseignement assisté par ordinateur qui comporterait des
centres équipés d’un système gérant plusieurs postes, et où seraient mis au point et corrigés les cours.
Ces cours seraient ensuite édités sous forme de cassettes définitives destinées à d’autres utilisateurs ayant
à leur disposition soit un mini-ordinateur gérant plusieurs postes, soit des systèmes de monopostes
compatibles.
HOUX S. Initiation à l’informatique Septembre 2002
72

Techniques pédagogiques

L’ordinateur est le seul outil qui permette d’approcher la situation du précepteur individuel posant des
questions à son élève et corrigeant ses réponses.
À partir de cette donnée fondamentale, des applications très diverses ont été réalisées.
L’enseignement programmé consiste, schématiquement, à apporter des informations, à vérifier par des
questions que ces informations ont été assimilées et à renforcer cette acquisition.
Dans la forme la plus simple, tous les élèves suivent le même cheminement.
Dans les formes les plus élaborées, le cheminement est adapté aux connaissances et au comportement de
l’élève.
L’ordinateur semblait a priori être le meilleur support possible pour l’enseignement programmé.
Il est apparu cependant assez rapidement aux utilisateurs de cette méthode qu’il s’agissait d’une technique
extrêmement lourde à manier, génératrice d’ennui pour les élèves, et que finalement l’ordinateur employé
comme tourneur de pages électronique était sous-employé.
L’enseignement programmé garde toutefois un certain intérêt lorsque les données exposées utilisent de
façon importante les documents audiovisuels dont la diffusion à tous les étudiants n’est pas envisageable.
L’apprentissage de comportement est une application de l’ordinateur dont les possibilités sont très
étendues.
Mis en face d’une situation donnée, l’élève doit indiquer son comportement et ce comportement est
corrigé par l’ordinateur.
La plupart des expériences de ce type font appel à une méthode algorithmique, c’est-à-dire que le
comportement du professeur est enseigné à l’étudiant.
Une méthode créatrice peut être également envisagée, mais elle est d’application plus difficile.
De plus, le résultat pédagogique est encore incertain: la méthode consiste à laisser l’élève trouver lui-
même le meilleur comportement possible en fonction des résultats qu’il obtient.
L’ordinateur peut être employé pour l’entraînement à la résolution de problèmes de mathématiques, de
grammaire, de littérature étrangère, etc., dont le corrigé est ou non fourni à l’étudiant.
Ces problèmes, plus ou moins complexes, peuvent servir à contrôler les connaissances acquises par les
étudiants et leur permettre ou non de passer au cours suivant (contrôle de connaissances normatif).
Ils peuvent aussi être utilisés pour enseigner les étudiants (contrôle des connaissances formatif).
Par la simulation d’expériences ou par des jeux on cherche à développer l’esprit inventif de l’élève qui
n’est pas sanctionné.
L’ordinateur peut ainsi permettre à l’étudiant de réaliser de façon simulée des expériences de physique, de
chimie, de physiologie.
De la même façon, des jeux économiques peuvent être réalisés.
Dans ce type d’utilisation les enseignants introduisent dans l’ordinateur le modèle qu’ils souhaitent faire
étudier.
L’ordinateur peut aussi être utilisé en enseignement dans des applications où la machine joue un rôle
différent de celui que pourrait jouer l’enseignant. Ainsi, l’ordinateur peut être utilisé:
– à la gestion de l’enseignement (en fonction des résultats des contrôles de connaissances, l’étudiant
pourra être orienté vers le niveau et la technique de cours qui sont le mieux adaptés à ses possibilités);
– pour la génération de problèmes (il s’agit d’une application qui en est encore à ses débuts, où
l’ordinateur invente lui-même les problèmes qu’il va présenter à l’étudiant en en calculant
simultanément les réponses).

L’écriture des cours

La réalisation d’un enseignement assisté de bonne qualité prend beaucoup de temps à l’enseignant.
Il n’est pas possible, en effet, de le préparer comme un cours magistral ou un livre.
Si l’enseignement est de type «tutoriel», il faut prévoir toutes les réponses des étudiants, les commentaires
à faire pour ces réponses, ainsi que le cheminement que l’on fera suivre à l’étudiant en fonction de ses
réponses.

HOUX S. Initiation à l’informatique Septembre 2002


73
Si l’enseignement est de type «simulation inventive», il n’y a pas à prévoir de commentaire aux gestes de
l’élève, mais il faut élaborer le modèle qu’on désire lui faire étudier.
Dans tous les cas, même s’il n’est pas nécessaire que l’enseignant acquière des connaissances en
programmation, il se trouvera confronté aux impératifs logiques de l’informatique.
Cela peut aboutir à l’abandon de l’enseignant insuffisamment motivé.
Dans tous les cas, cela l’oblige à restructurer ses connaissances et il est devenu banal de constater que la
première personne à qui profite l’enseignement assisté par ordinateur, c’est l’enseignant.

Résultats

Des expériences d’enseignement assisté se sont développées dans de très nombreux pays, principalement
aux États-Unis, au Canada, ainsi que dans divers pays d’Europe.
L’U.R.S.S. avait réalisé un remarquable travail de réflexion sur la place de l’ordinateur dans
l’enseignement.
Le degré d’avancement des expériences est très variable.
Certains centres ne disposent que de quelques terminaux et de quelques heures de cours, alors que les plus
grandes réalisations américaines sont opérationnelles sur des centaines de terminaux et permettent de
distribuer des milliers d’heures de cours.
Les premières applications ont surtout concerné l’enseignement de l’informatique, mais des
enseignements existent actuellement dans presque toutes les disciplines, y compris les lettres, les arts, la
psychologie, etc.
Les élèves de tous les âges sont concernés, et l’ordinateur peut être utilisé aussi bien dans les
enseignements primaire, secondaire et supérieur que dans la formation permanente des adultes.
En France, d’assez nombreuses expériences ont été réalisées, avec des objectifs et des moyens très
différents.
Nous en citerons trois dont l’ancienneté est sensiblement équivalente.
Dans l’enseignement secondaire, l’expérience dite des «58 lycées» fut prolongée par l’expérience des
«10 000 micro-ordinateurs».
L’objectif n’était pas de permettre l’utilisation systématique de l’ordinateur en tant que moyen
d’enseignement.
Il était surtout de sensibiliser et de familiariser les élèves du secondaire avec l’usage de l’ordinateur, et de
les mettre au contact de l’informatique.
Pour certains, l’informatique doit en effet être considérée comme une méthode de la formation de la
pensée, au même titre que le latin par exemple.
L’enseignement généralisé de l’informatique dans les lycées est même l’objet d’un débat qui n’est pas
clos.
L’expérience O.P.E. de l’université Paris-VII est ouverte sur l’enseignement des étudiants et sur la
formation des enseignants.
Le langage d’écriture des cours cherche à permettre la réalisation aisée de cours dans des disciplines très
diverses (mathématiques, sciences physiques, langues, biologie, etc.).
Plus de vingt terminaux sont reliés à un gros ordinateur spécifiquement dédié à l’enseignement.
Chaque terminal comporte une imprimante et un projecteur de diapositives et, pour certains terminaux, un
passeur de bandes sonores.
L’expérience E.A.O.5. de l’université Paris-V a spécifiquement développé l’enseignement assisté par
ordinateur pour la formation et le recyclage des médecins.
Les quinze terminaux (écrans de visualisation + projecteurs de diapositives) sont reliés à un gros
ordinateur universitaire, situé à distance et qui réalise de nombreuses autres tâches.
Dans l’ensemble, l’expérience universitaire française fait ressortir l’intérêt de logiciels performants
permettant des enseignements complexes pour des étudiants se trouvant plus ou moins en formation
professionnelle.
Il est logique que les objectifs de ces enseignements diffèrent de ceux de l’E.A.O. dans le secondaire.
La tolérance de l’enseignement assisté est dans l’ensemble excellente, tout au moins auprès des jeunes
générations.

HOUX S. Initiation à l’informatique Septembre 2002


74
Il ne s’agit pas simplement d’un effet favorable lié à la nouveauté de la technique, puisque cet intérêt
persiste même dans les expériences les plus anciennes.
L’appréciation de l’efficacité de cet enseignement, comme celle de toute nouvelle méthode pédagogique,
pose de nombreux problèmes.
Le premier est que tous les enseignements assistés par ordinateur ne sont pas de qualité pédagogique
égale.
Dans certains centres, la qualité pédagogique est strictement contrôlée en fonction de critères définis a
priori.
Dans d’autres équipes, l’enseignant est laissé libre de ses choix pédagogiques.
Le second problème est que l’introduction de l’ordinateur impose à l’enseignant une réflexion
pédagogique approfondie qui le conduit obligatoirement à une modification de son comportement à
l’égard de la matière qu’il enseigne.
Il faut donc théoriquement que l’enseignement assisté soit comparé à l’enseignement donné après cette
réflexion pédagogique.
Cela explique qu’il y ait assez peu de résultats publiés sur l’efficacité à court terme de l’enseignement
assisté.
Les résultats connus sont généralement positifs.
Ils sont parfois spectaculaires.
La constatation que l’on fait le plus généralement est que cet enseignement n’atteint sa pleine efficacité
qu’après une ou plusieurs années d’expérimentation.
Ce laps de temps permet en effet aux enseignants d’exploiter les capacités d’autocontrôle de l’ordinateur.
Les insuffisances de l’enseignement sont ainsi progressivement décelées et corrigées.

Perspectives

L’enseignement assisté par ordinateur est donc d’ores et déjà un irremplaçable moyen d’expérimentation
pédagogique.
Dans l’avenir, le caractère positif des expériences récentes permet d’affirmer que l’ordinateur aura une
place dans l’enseignement.
Il est possible toutefois que celle-ci ne soit pas quantitativement supérieure à celle de nombreux autres
médias dont disposent les enseignants.
Les applications les plus importantes ne sont pas celles où l’ordinateur remplace simplement l’enseignant,
mais celles où il démontre des capacités différentes.
Dans le primaire et le secondaire, c’est moins l’E.A.O. au sens strict qui semble intéressant que la
sensibilisation à l’informatique.
Dans le supérieur, comme pour le recyclage des adultes, l’ordinateur est surtout utile pour l’apprentissage
d’un savoir-faire par simulation corrigée (acquisition simulée d’une expérience).
Quelle que soit l’application, il faut insister sur le fait que l’ordinateur doit impérativement être intégré au
reste de l’enseignement, au même titre que le livre, le cours magistral, les projecteurs de diapositives, la
télévision...
Le coût est la principale limitation à l’extension de cet enseignement, mais il est difficile à estimer.
En effet, plusieurs chapitres financiers sont à considérer: l’achat ou la location du matériel et son
entretien, la mise au point de logiciels, l’écriture des cours et les modifications que les enseignants leur
font subir, le fonctionnement.
Ce coût dépend bien entendu du choix du matériel et des structures.
Il paraît important de souligner qu’un matériel peu onéreux, aux performances relativement limitées,
restreint l’E.A.O. à ses aspects les plus simples et n’est pas obligatoirement le plus rentable à terme.
L’expérience a en effet amplement démontré qu’un logiciel trop simple, ne permettant pas des stratégies
pédagogiques complexes et surtout diversifiées, est générateur d’ennui et ce, qu’elle que soit la qualité de
l’enseignant.
On voit donc le dilemme que soulève le développement de l’E.A.O. pour les pouvoirs publics dans le
monde entier: pour en étudier la rentabilité, il faut l’expérimenter sur une grande échelle; pour avoir une
réponse statistiquement valable et non biaisée, il faut des logiciels suffisamment performants.
Cela représente des investissements considérables.
HOUX S. Initiation à l’informatique Septembre 2002
75
La faisabilité de l’enseignement assisté par ordinateur est maintenant démontrée.
Son utilité, lorsqu’il apporte un complément aux formes plus classiques de cet enseignement, ne fait
aucun doute.
Son application comme stimulateur de la créativité suscite des espoirs, qui demandent à être confirmés. Sa
place en recherche pédagogique semble devoir rester importante pour de nombreuses années.
Son avenir dans des domaines précis paraît donc assuré, à condition que la société accepte de payer la
charge supplémentaire qu’il représente.

Source : Universalis
Fraude informatique

En informatique, alors que les accidents sont mieux maîtrisés et les erreurs mieux contrôlées, la fraude et
la malveillance constituent désormais, à l’aube du XXIe siècle, une des menaces les plus graves
auxquelles est confrontée notre société.
La banalisation des “autoroutes de l’information” et l’avènement des réseaux interactifs accentuent le
danger.

Un hold-up permanent

Selon le Club de la sécurité informatique français (Clusif), les entreprises françaises ont perdu 11,2
milliards de francs en 1994 du fait d’accidents, d’erreurs ou de malveillance frappant leurs systèmes
d’information (pertes en augmentation de 4 p. 100 par rapport à 1993).
Les fraudes furent à l’origine de 58 p. 100 des pertes.
La malveillance est donc devenue le risque majeur, et elle pourrait atteindre 70 p. 100 du total des pertes
en l’an 2000, contre 37 p. 100 en 1984.

HOUX S. Initiation à l’informatique Septembre 2002


76
En revanche, le poids des accidents (25 p. 100 du total des pertes en 1994) et des erreurs (17 p. 100) a
diminué.
La généralisation des systèmes informatiques associée à la compétence croissante des pirates aggrave sans
cesse la situation.
Parmi les risques de malveillance eux-mêmes se dessine une évolution vers le détournement
d’informations.
L’information se trouve répartie dans de multiples systèmes et réseaux, et la protection des systèmes
d’information devient plus difficile, donc plus coûteuse.
En octobre 1995, un universitaire du Michigan constate que, sur 150 entreprises américaines qui ont
répondu à une étude sur la criminalité informatique, 148 ont reconnu avoir été victimes d’une fraude, d’un
sabotage ou d’une intrusion.
De surcroît, une soixantaine d’entre elles ont subi ce type de préjudice plus de vingt-cinq fois!
Parmi les délits les plus fréquents figurent les fraudes concernant les cartes de crédit, les accès non
autorisés à des fichiers confidentiels, les copies pirates de logiciels.
La majeure partie des fraudes sont commises depuis l’intérieur de la société.
Toute entreprise détient des informations stratégiques, stockées sur des supports électroniques, qui
intéressent ses concurrents; tout système informatique et de télécommunications comporte au moins une
faille, et quiconque a accès à un système d’information est en situation de la découvrir, ce qui explique la
forte proportion de fraudes internes: selon une enquête réalisée en Grande-Bretagne en octobre 1994
auprès de mille entreprises, de 75 à 80 p. 100 des fraudes étaient d’origine interne, dont 15 p. 100
commises par des cadres.

Évolution du risque

Le risque informatique est de plus en plus difficile à cerner, de sorte qu’une partie des préoccupations et
des solutions passe de l’informatique traditionnelle vers les utilisateurs.
On voit également apparaître des risques plus élevés du fait de l’importance croissante du rôle des
systèmes d’information et de la dématérialisation des données.
Les progiciels et les réseaux sont de plus en plus touchés.
On commence à examiner des chaînes de risques interentreprises, liés par exemple à la conjonction des
échanges de données, des flux tendus et de l’intégration des systèmes.
Les entreprises doivent donc se battre sur plusieurs fronts: il leur faut éviter de perdre de l’argent (par
exemple du fait d’un détournement de fonds assisté par ordinateur), tout comme il leur faut préserver leur
image, leur savoir-faire (dans le cas d’accès à des fichiers de centres de recherche-développement) et leur
patrimoine.
La divulgation d’informations par l’intermédiaire de l’informatique a, en France, coûté au moins 860
millions de francs en 1994.
L’ordinateur apparaît de moins en moins comme l’objet même de la délinquance informatique, et de plus
en plus comme son instrument: on vole moins un ordinateur pour sa technologie que pour les
informations qu’il contient.
Il est donc logique de voir surgir de nouveaux acteurs que l’information intéresse en tant que telle.
Ceux-ci sont à la fois privés (les concurrents) et publics (services de renseignements): pour eux,
l’information technologique et économico-stratégique est devenue une priorité.
Ainsi, la direction de British Airways pirata les ordinateurs de sa rivale Virgin pour se procurer la liste des
passagers.
Cette opération se solda par la démission du P.-D.G. de British Airways, assortie d’excuses publiques et
de substantiels dommages et intérêts.
On n’a pas encore vu à l’œuvre sur une grande échelle des organisations de type mafieux, mais celles-ci
ont prouvé qu’elles savaient s’adapter.
Ainsi, lors de l’opération Margarita déclenchée par les polices française et américaine, au cours de l’été de
1994, contre les cartels colombiens de la drogue, un ingénieur informaticien fut, avec d’autres suspects,
interpellé; on ne connaîtra sans doute jamais son rôle exact, car il s’est suicidé.
Enfin, une action terroriste menée avec des moyens informatiques pourrait avoir des effets dévastateurs.
Lorsque, en septembre 1991, un simple central d’A.T. & T. tomba en panne, 5,5 millions de
HOUX S. Initiation à l’informatique Septembre 2002
77
communications téléphoniques furent perdues, et plus de 500 vols annulés du fait de la paralysie du
contrôle aérien.
En février 1995, le système de télécommunications en fibre optique de l’aéroport de Francfort-sur-le-
Main fut saboté, entraînant l’arrêt du système de réservation de la Lufthansa (et du système de
communications d’un hôpital voisin).

Une sécurité aléatoire

Le niveau de sécurité des entreprises n’est pas toujours à la hauteur.


Certaines affaires ont défrayé la chronique, par exemple le piratage des ordinateurs de British Telecom
révélant des informations confidentielles sur les services secrets et la famille royale, ou l’arrestation du
pirate américain Kevin Mitnick, qui avait pénétré de nombreux systèmes gouvernementaux et privés.
Aux États-Unis encore, Anthony Chris Zoboralski, expert en cracking , spécialité qui vise à entrer par
effraction et à distance sur des ordinateurs, récupérait par ruse des numéros de cartes bancaires ou des
cartes de crédit téléphoniques, ce qui lui permettait d’appeler n’importe où en faisant facturer un compte
d’abonné.
Avec ces cartes, son objectif était d’acquérir gratuitement du matériel informatique et de communiquer,
également gratuitement, avec le monde entier.
Un de ses principaux exploits: avoir obtenu par des moyens détournés un numéro de téléphone utilisé par
le F.B.I. pour des téléconférences.
Ce n’est pas moins de 1,25 million de francs de factures téléphoniques qui seront débités sur le compte de
la police américaine.
Dans le même registre, en France, le P.M.U. a révélé qu’une quarantaine de parieurs ont profité d’une
faille du système de prise de paris par Minitel pour multiplier leurs gains: il suffisait d’appuyer sur la
touche “correction” pour augmenter la mise initiale sans débourser davantage.
Malgré ce contexte défavorable, il ne faut pas croire que la sécurité soit la priorité des informaticiens.
Selon une enquête menée en 1992 pour le compte de l’Institut des hautes études concernant la sécurité
intérieure, 70 p. 100 des informaticiens estimaient que les systèmes de sécurité constituent une incitation à
franchir les barrières mises en place.
Pis, 95 p. 100 affirmaient qu’aucun système informatique n’est infaillible.

Les banques ne sont pas à l’abri

La sécurité d’une banque ne se mesure plus à l’épaisseur de ses coffres et n’est même plus l’affaire des
techniciens informatiques, mais bien celle des responsables des télécommunications.
L’émergence des “architectures” ouvertes et réactives ainsi que la course à la performance ont fragilisé
ces citadelles financières.
C’est pourquoi la sécurité ne doit plus être laissée entre les mains d’un technicien.
L’ère de la sécurité informatique est révolue, au profit de celle de la sécurité de l’information.
Il faut parler maintenant de sécurité des télécommunications, puisque l’information transmise est
susceptible d’être interceptée.
Pour se prémunir, outils et procédures sécuritaires abondent: chiffrement, compartimentation, antivirus,
etc.
Pourtant, on enregistre chaque année une cinquantaine de sinistres de plus de 10 millions de francs
chacun.
La technique ne suffit donc pas.
Le point faible réside souvent dans l’absence de cohérence du dispositif de sécurité.
Il faut savoir quels sont les objets et les applications à protéger et définir un dispositif adéquat pour
contrecarrer les menaces.

La malveillance interne en hausse

Il est naturel que la malveillance se déplace vers des cibles immatérielles.

HOUX S. Initiation à l’informatique Septembre 2002


78
L’impact est d’autant plus grand que les systèmes sont de plus en plus puissants et contiennent des
informations stratégiques.
Contre la malveillance interne, le meilleur remède est la prévention: sélection à l’embauche et dissuasion.
Les attaques logiques restent celles qui ont le plus progressé (+ 7 p. 100) pendant la période 1984-1993:
leur coût à l’échelle française, tous secteurs confondus, serait passé de 350 millions à plus d’un milliard
de francs et, parallèlement, le coût de la fraude non physique de 700 millions à 1,63 milliard de francs
(source: Clusif).
Les nouvelles architectures déployées par les banques, notamment le downsizing et le client-serveur, sont
vecteurs de fragilisation.
La problématique de l’information ouverte, prônée dans le débat sur les autoroutes de l’information,
n’arrange rien.
La prolifération des bases de données et des serveurs multiplie les points d’accès aux systèmes
d’information interne des entreprises.
Le Service d’enquêtes sur les fraudes aux technologies de l’information (S.E.F.T.I.) estime qu’un
détournement financier réalisé en utilisant une fraude informatique rapportait en moyenne à son auteur 1,5
million de francs en 1995.
Le même service estime que seulement 5 p. 100 des affaires sont connues et déclarées chaque année. Dans
huit cas sur dix, l’auteur de la fraude appartient à l’entreprise qui en est victime.

Vulnérabilité des téléservices

Des différents téléservices, la télésauvegarde constitue celui sur lequel pèsent des menaces graves en
termes de disponibilité et d’intégrité, en particulier d’attaque logique.
Le facilities-management superpose les problèmes liés à l’externalisation, à la sécurité informatique et
aux télécommunications.
Les problèmes d’altération de l’information se posent également dans le domaine de la télémédecine et de
la télégestion.
La notion de confidentialité, partie intégrante de l’éthique du corps médical, peut y perdre beaucoup en se
dématérialisant.
Certaines de ces conséquences sont particulièrement graves, par exemple celles qui sont liées à la
médecine génétique prédictive.
Restent d’autres secteurs déjà sinistrés, par exemple le téléachat.

La protection: une affaire de méthode

Le silence reste une règle d’or dès lors qu’il s’agit de sécurité.
Une grande partie des attaques externes sont le fruit d’une indiscrétion volontaire ou involontaire venant
de l’intérieur de l’entreprise.
Parmi les critères définissant la sécurité, les banquiers privilégient avant tout la disponibilité de leur
système d’information.
En effet, quel préjudice financier pour une salle de marchés de voir s’effondrer son réseau et de ne plus
pouvoir effectuer la moindre transaction!
Pour un banquier, l’information doit toujours être disponible.
Il n’est alors pas étonnant que la sauvegarde représentait en 1995 4 des 7 p. 100 du budget sécurité dans le
budget informatique des vingt premières banques françaises.
Les banques ont d’ailleurs investi les premières pour bénéficier d’un double chemin à l’information.
En matière de télécommunications, certaines disposent de services satellites en prévision de la chute de
leur réseau terrestre.
En matière de sécurité, les établissements bancaires font, avec l’armée, figure de pionniers.
Et nombreuses sont les banques qui participent aux groupes de travail de normalisation et qui jouent un
rôle moteur dans la compression de données en vue du cryptage, l’élaboration des algorithmes
d’identification mutuelle...
Une parade consiste à assurer l’étanchéité entre le réseau interne de l’entreprise et le monde extérieur, afin
de prémunir le système d’information contre toute intrusion illicite.
HOUX S. Initiation à l’informatique Septembre 2002
79
Elle fait appel à la technologie des firewalls , ou “murs coupe-feu”.
Une autre parade vise à assurer un contrôle supplémentaire au niveau applicatif, afin d’authentifier les
utilisateurs habilités.
Différentes techniques ont été mises au point afin de pallier la faiblesse de l’authentification par mots de
passe dans les environnements communicants.

Un parcours juridique parfois difficile

La communauté informatique française est confrontée à une loi régissant l’usage de la cryptographie.
Cette activité, qui ne captivait jusqu’ici que les espions et les amateurs d’énigmes, prend une importance
capitale avec Internet et les autoroutes de la communication.
Les États-Unis proposent des outils tels que P.G.P. (Pretty Good Privacy), devenu un standard dans le
monde virtuel.
Moins bien pourvus, les informaticiens français doivent compter avec le législateur, qui interdit ces outils
par la loi du 29 décembre 1990, article 28, “adoptée après déclaration d’urgence”.
Pour la protection de signatures, ou de codes de cartes de crédit, une déclaration du procédé utilisé suffit
(mais celui-ci sera examiné ultérieurement, et éventuellement rejeté).
Les systèmes codant des documents plus longs sont soumis à une demande d’autorisation, dont
l’acceptation ou le refus, non motivé et sans appel, intervient dans un délai de douze à dix-huit mois.
Cet article 28 a cependant pour avantage de permettre une évolution du régime de la cryptologie, régi par
un décret-loi de 1939 relatif aux matériels de guerre.
Mais, face à l’évolution rapide des technologies, les textes législatifs peuvent s’avérer inadaptés.
Ainsi, l’arsenal réglementaire américain sera rapidement amélioré, et certaines failles devraient se trouver
atténuées.
Le Computer Fraud and Abuse Act rend illégal l’accès sans autorisation à un ordinateur contenant des
données financières, par exemple sur des cartes de crédit.
Mais un même niveau de protection n’est pas prévu pour les ordinateurs stockant des informations non
financières.
De même, la loi sur la protection des logiciels (Copyright Act) proscrit leur copie à des fins lucratives
(ainsi, un étudiant du M.I.T. a pu échapper à une condamnation dans la mesure où il n’a pu être prouvé
qu’il avait réalisé un quelconque gain financier).
Du côté français, la police judiciaire affûte ses armes contre la fraude informatique.
Le ministère de l’Intérieur a renforcé ses structures de lutte contre les fraudes informatiques et le piratage
de logiciels avec la création de la Brigade centrale de répression de la criminalité informatique
(B.C.R.C.I.), qui s’ajoute au S.E.F.T.I.
La B.C.R.C.I. dispose d’une compétence nationale pour mener des enquêtes en matière de délinquance
informatique et fournit une assistance technique aux autres services de police.
Elle assure également, sur le plan international, la gestion du bureau central d’Interpol en matière de
délinquance informatique.
Quant au S.E.F.T.I., dont la compétence s’étend uniquement à Paris et à sa proche banlieue, outre une
mission de formation, son rôle est d’effectuer des enquêtes sur les infractions visant les systèmes
informatiques et les systèmes de communication.
Ce renforcement des moyens de lutte a coïncidé avec le durcissement des peines encourues en France.
La loi du 5 février 1994 prévoit en effet jusqu’à 1 million de francs d’amende et deux ans
d’emprisonnement et désigne les entreprises comme coupables éventuelles.
Pour elles, les sanctions encourues vont jusqu’à une amende de 5 millions de francs et des mesures telles
que l’interdiction de participer aux marchés publics, d’émettre des chèques, voire leur dissolution.
Cependant, l’adaptation de l’arsenal juridique répressif associé à des moyens techniques de contrôle de
plus en plus sophistiqués ne peut seule réduire la fraude, dont l’éradication passe par une prise de
conscience générale du danger et l’acceptation de moyens de sécurité aussi contraignants qu’onéreux.

HOUX S. Initiation à l’informatique Septembre 2002


80

Source : Universalis
Les ordinateurs

On peut considérer que les tentatives d’automatisation des calculs remontent à quelques siècles, mais les
véritables premiers ordinateurs n’ont été construits qu’à la fin de la Seconde Guerre mondiale.
Outils universels par excellence, les ordinateurs ont envahi la vie courante et sont employés dans la
plupart des activités humaines: industrie, commerce, recherche, enseignement, médecine, loisirs...
Leur utilisation dans des domaines si variés découle de la souplesse introduite par la programmation.
Les ordinateurs ont connu des mutations successives, les générations , mais l’étude de ces différentes
générations montre une continuité entre les ordinateurs les plus modernes et leurs ancêtres, les
calculateurs.
En fait, l’évolution de l’informatique peut s’expliquer par le désir d’exécuter de plus en plus vite un
travail donné ou d’utiliser les ordinateurs pour des applications de plus en plus complexes.
Cette généralisation de l’usage de l’outil informatique n’a été possible que grâce aux progrès
technologiques réalisés à un rythme soutenu depuis les débuts de l’informatique.

1. Historique

HOUX S. Initiation à l’informatique Septembre 2002


81
L’utilisation des ordinateurs repose sur le principe que tout calcul compliqué peut être décomposé en une
suite d’opérations plus simples, susceptibles d’être exécutées automatiquement.
Les premières machines à calculer, réalisées par Wilhelm Schickard, Pascal et Leibniz, remontent au
début du XVIIe siècle.
Elles effectuaient les opérations arithmétiques de base (additions et soustractions, mais également
conversions de monnaie pour la machine de Pascal, les autres machines réalisant de plus multiplications
et divisions).
Au début du XIXe siècle, Charles Babbage (1792-1871) construisit une machine qui peut être considérée
comme l’ancêtre des ordinateurs.
Malheureusement, la machine de Babbage ne put jamais fonctionner de façon convenable, la technologie
de l’époque étant trop rudimentaire.
Il fallut attendre la fin du XIXe siècle et l’utilisation de l’électromécanique pour voir apparaître les
machines mécanographiques.
Très spécifiques d’un traitement donné (trieuses, tabulatrices, etc.), elles nécessitaient de nombreuses
opérations manuelles, ce qui nuisait à leur rendement.
En effet, tout traitement à effectuer par la machine était spécifié par un câblage, réalisé sur un tableau de
connexions.
Cette programmation pouvait prendre de quelques heures à plusieurs jours, selon la complexité du
problème.
Ultérieurement, les ordinateurs utilisant cette technique de programmation seront appelés machines à
programme affiché .
Peu avant la Seconde Guerre mondiale apparurent les premières calculatrices électromécaniques,
construites selon les idées de Babbage.
Ces machines furent vite supplantées par les premiers calculateurs électroniques, nettement plus
performants.
Le premier calculateur entièrement électronique, dénommé ENIAC (Electronic Numerical Integrator and
Computer), fut construit en 1946 avec des tubes à vide.
Comme les machines mécanographiques dont il découlait, l’ENIAC était une machine à programme
affiché.
Les inconvénients de cette technique de programmation conduisirent à la définition et à la réalisation de
machines à programme enregistré , c’est-à-dire de machines dotées d’une mémoire capable de contenir à
la fois les programmes et les données à traiter.
La structure des machines à programme enregistré a été décrite en 1946 par un mathématicien américain
d’origine allemande, John von Neumann.
Cette architecture de machine est encore valable de nos jours, et la plupart des ordinateurs actuels s’en
inspirent.

L’architecture de von Neumann

John von Neumann a proposé une structure universelle de machine à calculer et en a défini les
constituants de base.
La machine est composée des éléments suivants:
– un organe de calcul, susceptible d’exécuter les opérations arithmétiques et logiques, l’unité
arithmétique et logique ;
– une mémoire, ou mémoire centrale , servant à la fois à contenir les programmes décrivant la façon
d’arriver aux résultats et les données à traiter;
– des organes d’entrée-sortie , ou périphériques , servant d’organes de communication avec
l’environnement et avec l’homme;
– une unité de commande (control unit ) permettant d’assurer un fonctionnement cohérent des éléments
précédents.
L’ensemble formé par l’unité arithmétique et logique, d’une part, et l’organe de commande, d’autre part,
constitue l’unité centrale (ou processeur central ).

HOUX S. Initiation à l’informatique Septembre 2002


82
L’ensemble des composants physiques, appelé matériel (hardware), est commandé par un logiciel
(software).
L’unité centrale ne peut effectuer qu’un ensemble restreint d’opérations élémentaires, spécifiées à l’aide
d’instructions.
L’ensemble des instructions exécutables constitue le jeu d’instructions ; celui-ci caractérise une
architecture donnée.
Une instruction est composée de plusieurs parties, les champs , parmi lesquels figurent principalement le
code opération , définissant l’opération à exécuter, et l’adresse , précisant la localisation de l’opérande en
mémoire.
Les instructions de la machine décrite par von Neumann ne comportaient qu’une seule adresse, mais la
plupart des machines ultérieures en eurent plusieurs: deux adresses (adresse du premier opérande, adresse
du second opérande), voire trois (adresse du premier opérande, adresse du second opérande et adresse de
rangement du résultat).

Les différentes générations d’ordinateurs

Si les ordinateurs ont été conçus au départ pour exécuter des calculs numériques trop longs ou trop
compliqués pour être effectués à la main, on s’est assez vite aperçu que de telles machines pouvaient
également traiter des informations non numériques (par exemple, reconnaître une chaîne de caractères
dans un texte).
Les calculateurs devenaient des machines universelles de traitement de l’information, d’où le mot
ordinateur, qui fut créé en 1956 pour trouver un équivalent français à l’expression anglaise data
processing machine.
Ce terme est aujourd’hui largement employé, et il est préféré à celui de calculateur, au sens trop restreint.
Parallèlement à un spectaculaire accroissement des performances, on a assisté à une amélioration des
techniques d’écriture des programmes, c’est-à-dire de la méthodologie de programmation.
En général, aux progrès technologiques des générations d’ordinateurs correspondent peu ou prou des
progrès réalisés au niveau des logiciels.

La première génération (1950-1959)

Les premières machines construites industriellement au tout début des années 1950 constituent bien
évidemment la première génération d’ordinateurs.
Ceux-ci se caractérisent par une technologie à base de tubes à vide miniaturisés, plus fiables et
consommant moins d’énergie que ceux qui étaient utilisés dans les premiers prototypes.
Une fois résolus les problèmes de fiabilité des constituants de l’unité centrale, on chercha rapidement à
disposer de mémoires centrales fiables, rapides et de capacités suffisantes.
Les mémoires des premiers ordinateurs furent des lignes à retard offrant, à volume égal, une capacité de
stockage très supérieure aux tubes à vide.
Mais, en quelques années, les mémoires à tores de ferrite supplantèrent les autres technologies de
mémoires centrales.
Parallèlement aux travaux visant à l’amélioration des mémoires centrales, des recherches furent
entreprises sur les organes d’entrée-sortie, notamment pour mettre au point des supports d’information
moins coûteux que les mémoires à tores.
Ces mémoires secondaires (on parle également de mémoires externes, de mémoires auxiliaires, de
mémoires de masse) devaient permettre le stockage d’une quantité d’informations toujours plus grande,
pour des traitements de plus en plus complexes.
C’est ainsi qu’apparurent tambours magnétiques, bandes magnétiques, disques...
Ces supports d’information, encore utilisés (sauf les tambours magnétiques), ont été constamment
améliorés depuis leur création.
Pendant cette décennie, les logiciels évoluèrent de façon significative: on améliora les langages de
programmation disponibles, ainsi que les techniques de gestion des différents types de mémoires utilisées
dans un ordinateur.

HOUX S. Initiation à l’informatique Septembre 2002


83
Amélioration des langages de programmation

Les langages de programmation des premières machines étaient rudimentaires, la programmation se


faisant en représentation binaire, instruction par instruction.
Cette programmation, lente et fastidieuse, était source de nombreuses erreurs.
En outre, elle est quasi inutilisable dès que le programme devient complexe.
On développa donc des langages de programmation plus commodes à employer, les langages
d’assemblage et les langages évolués.
Les langages d’assemblage ont permis l’écriture des instructions du langage machine sous forme
symbolique.
La traduction en binaire est assurée par un programme, fourni par le constructeur, appelé assembleur.
Les langages évolués permettent à l’utilisateur de décrire le traitement à effectuer, indépendamment du
jeu d’instructions de la machine.
Les programmes, écrits en langage source (le langage de programmation utilisé), sont traduits soit en une
suite d’instructions du langage machine, soit dans un langage intermédiaire, plus proche du langage
machine que le langage source.
Les programmes traducteurs, appelés compilateurs, sont d’autant plus complexes que les langages sources
sont éloignés du langage objet (le langage dans lequel est traduit le langage source).
Le premier des langages évolués, Fortran, apparut en 1954 et fut conçu pour l’écriture des programmes
scientifiques.
Après quelques modifications rendues nécessaires par l’évolution des ordinateurs, Fortran est encore
employé sur les puissants ordinateurs scientifiques modernes.

Hiérarchie de mémoires

Dans une machine de von Neumann, la mémoire centrale sert à stocker à la fois les programmes et les
données.
Rapidement, il fut impossible de conserver dans une seule mémoire toutes ces informations, d’où la
nécessité d’augmenter les capacités de stockage de la machine avec des mémoires secondaires.
Celles-ci possèdent des capacités de stockage très supérieures aux mémoires centrales, mais leur temps
d’accès (temps au bout duquel une information est disponible) est beaucoup plus important.
La disparité des temps d’accès des différents types de mémoires a imposé une hiérarchisation des
informations, les plus prioritaires (ou le plus souvent utilisées) se trouvant dans les mémoires les plus
rapides.
Cette contrainte a considérablement compliqué la gestion des ressources de la machine, et l’on vit
apparaître les premiers moniteurs, programmes gérant les ressources de la machine et commandant
automatiquement l’exécution des entrées d’informations, le déroulement du traitement et la sortie des
résultats d’un programme.

La deuxième génération (1959-1963)

De nos jours, il est admis que l’apparition de la deuxième génération coïncide avec l’utilisation des
transistors dans les unités centrales.
L’utilisation de cette technologie entraîna une amélioration des vitesses de traitement et des débits des
ordinateurs.
Une conséquence importante en fut l’aggravation des écarts de vitesses entre le traitement proprement dit
et les entrées-sorties.
Depuis cette époque, cet écart n’a cessé de croître, et il demeure un facteur de limitation des performances
des machines.
L’utilisation des transistors provoqua également la miniaturisation des unités centrales et une diminution
importante de l’énergie consommée par les machines.
La deuxième génération peut également être considérée comme l’époque de progrès très importants dans
le domaine des logiciels, puisque la plupart des concepts développés alors restent valables sur les
ordinateurs actuels.
HOUX S. Initiation à l’informatique Septembre 2002
84

Améliorations des matériels de deuxième génération

Dans un ordinateur, l’exécution du programme peut dépendre de conditions d’exception (par exemple,
attente d’une donnée provenant d’un périphérique).
Ces événements surgissent à des instants imprévisibles et doivent être traités dès leur arrivée.
Dans les ordinateurs de première génération, la plupart de ces événements exigeaient une intervention
humaine et donc provoquaient l’arrêt de la machine.
Une des premières améliorations apportées par la deuxième génération fut d’inclure dans le matériel la
possibilité de prise en compte d’événements extérieurs au programme (les interruptions ).
Cette modification permit une gestion automatique des événements (externes et internes à la machine) et
contribua à une augmentation sensible des performances des machines en diminuant les temps d’attente
de l’unité centrale.
Toutefois, des progrès décisifs ne furent réalisés qu’avec l’apparition des canaux , véritables processeurs
spécialisés dans le traitement des entrées-sorties, permettant l’exécution simultanée du programme de
traitement et du programme de gestion des entrées-sorties.
En effet, malgré l’accroissement des performances des périphériques, l’unité centrale restait encore
largement sous-utilisée.
Les canaux permirent de décharger l’unité centrale des tâches de gestion du transfert des données entre
périphériques et mémoire centrale: une fois l’opération d’entrée-sortie initialisée par l’unité centrale, le
transfert des données relatif à cette opération se déroule sous le seul contrôle du canal.
Encore embryonnaires au cours de la deuxième génération, les canaux seront considérablement améliorés
dans la génération suivante.
Ces progrès des matériels de deuxième génération entraînèrent une modification profonde des logiciels
mis en œuvre.

Les concepts logiciels introduits dans la deuxième génération

Pour tirer parti des nouveaux dispositifs matériels, de nouveaux logiciels s’avéraient indispensables.
Tout d’abord, la gestion des périphériques s’alourdissant, il devint impossible pour un programmeur de
concevoir à la fois les logiciels d’application et les logiciels de gestion de la machine.
Une distinction s’établit donc entre les applications (programmes de l’utilisateur) et les programmes
système (logiciel de gestion des ressources de la machine).
Dans une première étape, les logiciels système des machines de deuxième génération étaient composés de
programmes de gestion des entrées-sorties (Input Output Control System, ou IOCS), qui affranchirent les
programmeurs des lourdes contraintes de gestion des périphériques.
Les IOCS permettaient donc une simultanéité apparente entre l’unique programme utilisateur et la gestion
des entrées-sorties.
Malgré cela, à cause des disparités de vitesses mentionnées plus haut, l’unité centrale restait sous-
employée.
De plus, le passage d’un programme à un autre nécessitait une intervention humaine.
Les moniteurs d’enchaînement permirent de supprimer cette opération manuelle en assurant
l’enchaînement automatique des applications.
Avec ce type de système, les programmes (ou travaux) à exécuter étaient placés les uns derrière les autres,
chaque travail et ses jeux de données constituant un lot , qui ne pouvait s’exécuter avant la fin du lot
précédent.
Ce mode de fonctionnement, dénommé traitement par lots (batch processing ), minimisait les
interventions manuelles et, dès la fin de la première génération, la quasi-totalité des ordinateurs
fonctionnaient dans ce mode.
En ce qui concerne les logiciels, l’innovation principale de la deuxième génération fut la
multiprogrammation , qui remédia à la sous-utilisation chronique de l’unité centrale.
Lorsque l’ordinateur fonctionne en multiprogrammation, plusieurs applications sont chargées en mémoire
et «se partagent» le processeur.

HOUX S. Initiation à l’informatique Septembre 2002


85
Dès que se manifeste une attente dans l’exécution du programme en cours (demande d’entrée-sortie, par
exemple), le processeur abandonne l’exécution de ce programme et démarre (ou poursuit) l’exécution
d’un autre programme.
Ce dernier est alors exécuté jusqu’à sa fin ou jusqu’à ce qu’il demande une entrée-sortie.
En autorisant l’exécution pseudo-simultanée de plusieurs programmes, la multiprogrammation entraîna un
accroissement considérable de la complexité des logiciels systèmes, les IOCS ne constituant plus qu’une
partie des systèmes d’exploitation des ordinateurs (operating systems).
En effet, de nombreuses opérations et vérifications, inutiles avec des machines mono-utilisateur,
devenaient indispensables sur des machines multi-utilisateurs: décision d’allouer l’unité centrale à un
travail donné, contrôle de l’exécution des programmes, transferts des programmes à exécuter des
mémoires secondaires en mémoire centrale (swapping), transferts des programmes inactifs de la mémoire
principale vers les mémoires secondaires, mécanismes de protection des programmes contre les erreurs
des autres programmes, etc.
L’étape suivante, le temps partagé (time sharing ), permit aux utilisateurs de retrouver l’accès direct aux
ordinateurs, qu’ils avaient perdu sur les machines à traitement par lots.
Chaque utilisateur du système se voit alloué périodiquement le processeur, pendant un laps de temps
déterminé.
Pour un utilisateur, la fréquence d’allocation du processeur est suffisamment élevée pour lui donner
l’illusion d’être seul à travailler sur la machine.
L’accès à l’ordinateur s’effectue le plus souvent au moyen de terminaux (d’abord des machines à écrire
connectées puis, plus tard, des ensembles clavier-écran).
L’utilisation intensive des terminaux est un trait dominant des systèmes de troisième génération.
Un autre type de système, les systèmes temps réel , apparut également à cette époque.
Ces systèmes très particuliers ont été conçus pour piloter des processus industriels.
Ces systèmes doivent réagir aux événements en un temps borné supérieurement.
Les interruptions correspondent à des événements spécifiques du processus à piloter et provoquent
l’exécution du programme de gestion de l’événement correspondant.

La troisième génération

Les progrès constatés dans la troisième génération ont été rendus possibles par un accroissement de la
puissance de traitement et une augmentation spectaculaire des capacités des mémoires (centrales et
secondaires).
Ces progrès dépendent eux-mêmes de ceux qui sont réalisés dans l’intégration des composants
électroniques.
L’ensemble des composants électroniques implantés sur un même morceau de silicium est appelé circuit
intégré.
La densité d’intégration correspond au rapport entre le nombre de composants et la surface de silicium
occupée, pour une technologie de fabrication donnée.
L’utilisation des techniques de microprogrammation (cf. infra , Principes de fonctionnement d’un
processeur classique) dans le matériel des ordinateurs de troisième génération a facilité l’implantation
d’un même jeu d’instructions sur des machines de puissances différentes, pour constituer des gammes de
machines compatibles entre elles d’un point de vue logiciel.
Les systèmes d’exploitation ont continué à se compliquer et les applications à proliférer.
Désormais, les utilisateurs non informaticiens peuvent accéder à des données et utiliser des services par
l’intermédiaire d’applications spécifiques (par exemple, pour réserver une place d’avion, consulter la
position du compte bancaire d’un client, etc.).
En fait, la troisième génération se caractérise plus par une évolution continue, une amélioration incessante
des matériels et des logiciels, que par une remise en cause des architectures des générations précédentes.
À mesure que l’utilisation des ordinateurs et des services qu’ils peuvent offrir est de plus en plus
intensive, les systèmes d’exploitation et les applications sont devenus de plus en plus complexes et
volumineux.

HOUX S. Initiation à l’informatique Septembre 2002


86
Les systèmes des années 1970 ont permis aux utilisateurs d’accéder aux machines à distance: par
l’intermédiaire de terminaux reliés à ces machines par des liaisons téléphoniques, l’utilisateur éloigné
pouvait soumettre des lots de travaux ou encore utiliser le temps partagé. Les systèmes d’exploitation
présentaient de profondes différences d’un constructeur à l’autre, voire d’une machine à l’autre chez un
même constructeur.

La quatrième génération ?

Vers la fin des années 1970, les coûts des logiciels occupent désormais une part prépondérante dans le
prix de revient des systèmes informatiques, alors que jusqu’ici les matériels représentaient la majeure
partie des investissements.
Les utilisateurs ont de plus en plus le souci de protéger leurs investissements logiciels et redoutent les
changements de machines entraînant une réécriture des programmes.
La compatibilité des machines vis-à-vis des programmes existants devient un impératif majeur des
utilisateurs et s’oppose aux changements radicaux de matériels, tels qu’on les avait connus aux débuts de
l’informatique.
Les constructeurs ont dû se plier à cette exigence.
Les progrès technologiques impressionnants, commencés dans les années 1970 (doublement tous les deux
ans environ de la densité d’intégration), ont rendu possible la mise en œuvre de concepts architecturaux
déjà connus mais qui n’avaient pu être implantés, à cause des difficultés techniques et du coût exorbitant
de telles réalisations.
L’accroissement de la densité d’intégration à partir des circuits MSI (Medium Scale Integration), puis LSI
(Large Scale Integration) et enfin VLSI (Very Large Scale Integration) a conditionné le développement
des architectures de machines scientifiques extrêmement puissantes (cf. infra , Les améliorations possibles
de l’architecture de von Neumann ), l’émergence des premiers microprocesseurs (processeurs dont les
organes furent intégrés dans un ou plusieurs circuits), ainsi que l’apparition de mémoires centrales de
fortes capacités à faibles coûts.
Parallèlement, les périphériques ont également bénéficié de ces progrès et se font de plus en plus rapides
et de plus en plus compacts, tout en devenant moins onéreux.
L’apparition des microprocesseurs et des mémoires à faibles coûts marque l’avènement des ordinateurs
personnels, ou micro-ordinateurs, et des stations de travail, qui ont rendu l’informatique omniprésente
dans tous les secteurs d’activité.
Les micro-ordinateurs ont assez rapidement atteint la puissance des gros ordinateurs du début des années
1970, pour un encombrement très faible et un coût dérisoire, comparé au prix des machines de cette
époque.
Les stations de travail, à usage professionnel, sont des machines puissantes sous un faible volume,
orientées vers les applications graphiques.
L’existence d’une quatrième génération peut donc être considérée comme problématique pour qualifier
les ordinateurs à partir des années 1980, puisqu’il y a continuité dans les architectures de machines.
Les améliorations auxquelles on assiste depuis lors sont essentiellement dues aux progrès continus
réalisés dans l’intégration des composants.
Toutefois, s’il subsiste toujours de profondes différences entre les divers systèmes d’exploitation, les
tendances actuelles de l’informatique concourent à gommer les incompatibilités entre les différents
systèmes.

Améliorations de l’outil informatique

Du fait de l’utilisation croissante de l’outil informatique, il devenait essentiel de rendre son accès plus
aisé, aussi bien pour les concepteurs de nouvelles applications (développeurs ) que pour les utilisateurs de
ces applications.
Par ailleurs, des outils d’assistance technique aux utilisateurs dans un domaine de compétences très précis
(aide au diagnostic médical, recherche de nappes pétrolifères, etc.) ont été développés.
Pour améliorer la productivité des uns et des autres, il est devenu nécessaire de mettre en commun les
ressources logicielles et matérielles des différents systèmes.
HOUX S. Initiation à l’informatique Septembre 2002
87
Ces améliorations correspondent respectivement aux langages de quatrième génération, aux systèmes
experts et à l’interconnexion des machines .

Les langages de quatrième génération

Ces langages de très haut niveau intègrent dans un même produit des facilités qui sont habituellement
réparties dans plusieurs logiciels distincts.
Les langages de quatrième génération ne comportent en général que peu d’instructions mais procèdent,
pour réaliser une fonction déterminée, par appel à des programmes déjà écrits.
Leur principal intérêt est de permettre l’écriture d’applications plus rapidement qu’avec des méthodes
classiques de programmation.
Ces langages peuvent même être utilisés par les spécialistes d’un domaine d’applications (gestion, etc.) ne
disposant pas forcément de connaissances poussées en informatique.

Les systèmes experts

Les systèmes experts s’efforcent, dans un domaine précis, de reproduire le comportement d’un expert
humain. Ces produits sont issus des recherches en intelligence artificielle.
La réalisation d’un système expert est possible si l’on peut décrire le comportement de l’expert humain à
l’aide de «règles», agissant sur une base de données contenant les «faits».
Pour établir un diagnostic, le système expert dirige pas à pas l’utilisateur en lui demandant des précisions
sur le phénomène observé.
Il peut également justifier, à la demande de l’utilisateur, la démarche qu’il a suivie pour aboutir à l’état
actuel du système.

Interconnexion des machines et partage des ressources

Dans le courant des années 1970, les réseaux informatiques étaient constitués autour de puissants
ordinateurs centraux (les mainframes ou sites centraux ), contenant les applications et les données,
auxquels les terminaux étaient raccordés par des liaisons téléphoniques (spécialisées ou réseau commuté).
L’architecture de ces systèmes de communication se caractérisait par la place prépondérante du site
central (contrôlant l’ensemble des ressources matérielles et logicielles), les utilisateurs accédant aux
services et aux données par des terminaux passifs.
Avec le développement des micro-ordinateurs, ces nouveaux utilisateurs désirèrent très vite accéder
également aux services disponibles sur les sites centraux.
Pour cela, des matériels et des logiciels spécifiques (les émulateurs de terminaux ) leur permirent de
fonctionner comme des terminaux.
Toutefois, pendant la session avec le site central, le micro-ordinateur perdait ses capacités propres de
traitement des données.
Les années 1980 coïncident avec le développement considérable du parc de micro-ordinateurs.
Les utilisateurs souhaitent mettre en commun les ressources de leurs machines, tant matérielles
(imprimantes laser, etc.) que logicielles (applications, etc.).
Apparaissent alors les réseaux locaux ou LAN (Local Area Networks), par opposition aux précédents
réseaux, dits réseaux grande distance ou WAN (Wide Area Networks).
Les réseaux locaux diffèrent des précédents aussi bien par les débits offerts (plusieurs millions de bits par
seconde au lieu de quelques dizaines de kilobits par seconde) que par la manière de les utiliser (les micro-
ordinateurs exploitent leurs capacités de traitement et de stockage des données).
Désormais, tout ordinateur appartenant à un réseau peut proposer des services comme serveur et/ou
utiliser les services d’autres systèmes en tant que client.
Le modèle client-serveur a permis l’émergence de nouvelles techniques de travail et une coopération
d’égal à égal entre micro-ordinateurs, stations de travail et sites centraux.
Par ailleurs, l’interconnexion des systèmes informatiques a fait l’objet de normalisations internationales.
Celles-ci ont pour but d’offrir aux utilisateurs l’accès à un système quelconque, indépendamment de son
constructeur et de sa localisation géographique.
HOUX S. Initiation à l’informatique Septembre 2002
88
Les constructeurs s’efforcent de proposer des protocoles de communication qui répondent à ce besoin
d’interconnexion, tout en préservant les spécificités des architectures de communication propriétaires
qu’ils ont élaborées précédemment dans les années 1970.

2. Principes de fonctionnement d’un processeur classique

Le matériel d’un processeur est prévu pour effectuer toutes ses opérations en binaire, c’est-à-dire que
programmes et données sont codés dans la machine sous forme de suites de 0 et de 1 (les bits).
Le matériel est composé d’un ensemble d’organes et d’opérateurs de base dont l’agencement est
spécifique d’une architecture donnée.
Il importe donc de connaître les constituants de base d’un ordinateur avant d’en analyser le
fonctionnement.

Les constituants de base

Bascule

Une bascule permet de mémoriser une quantité d’information d’un bit.


Elle possède une entrée d’information, une commande et une sortie.
L’entrée de commande permet de mémoriser dans la bascule l’état de l’entrée d’information; la sortie
reflète l’état interne de la bascule.

Registre

Un registre est composé de n bascules, permettant de mémoriser un élément d’information de n bits.


Le registre possède donc n entrées et n sorties, mais une seule entrée de commande pour l’ensemble des
bascules.
L’entrée de commande permet de déclencher la mémorisation de l’état des n entrées dans le registre.

Mémoire

Une mémoire est un ensemble de cases identiques, chacune d’elles pouvant mémoriser un élément
d’information.
Chaque case mémoire (ou mot mémoire ) est désignée par son numéro, l’adresse .
Une mémoire est caractérisée par deux grandeurs indépendantes l’une de l’autre: sa capacité ,
correspondant au nombre de mots, sa longueur de mot , dont les valeurs courantes sont 8, 16, 32 et 64
bits.
Sur un mot mémoire désigné par la valeur de l’adresse, deux opérations peuvent être effectuées: une
lecture (consultation du contenu d’une case, sans modification de l’information qu’elle contient) et une
écriture (remplacement du contenu d’une case, l’ancien contenu étant perdu).
Une mémoire possède des entrées d’adresse, des entrées et sorties d’informations (souvent
confondues), ainsi qu’une entrée de commande définissant l’opération à effectuer (lecture ou écriture).
Le temps d’accès d’une mémoire est l’intervalle de temps séparant la désignation d’un mot mémoire
(positionnement de l’adresse) de la disponibilité de son contenu sur les sorties lors d’une opération de
lecture.

Liaisons et bus

Les liaisons relient entre eux les constituants de base précédents et permettent ainsi des déplacements
d’information d’un point à un autre du processeur.
Par exemple, pour transférer dans un registre D de n bits l’élément d’information contenu dans un
registre E de n bits, il faut que chaque entrée du registre D soit reliée directement à la sortie
correspondante du registre E. Le registre E est l’émetteur, le registre D le récepteur.

HOUX S. Initiation à l’informatique Septembre 2002


89
Un bus est un type de liaison permettant de relier plusieurs émetteurs à un même récepteur; il possède un
mécanisme permettant de choisir l’émetteur à l’aide d’entrées de commande.

Unité arithmétique et logique

Une unité arithmétique et logique permet de combiner deux opérandes de n bits pour obtenir un résultat
sur n bits.
Cette unité comporte deux groupes d’entrées de n bits correspondant aux opérandes et n sorties
correspondant au résultat. Des entrées de commandes définissent l’opération à effectuer sur les opérandes
(addition, soustraction, multiplication, division, décalage, et bit à bit, etc.).
Des sorties supplémentaires (drapeaux ou indicateurs) caractérisent le résultat: par exemple, après une
addition, on peut ainsi savoir si le résultat est nul, positif ou négatif, en consultant ces indicateurs.

Structure d’un processeur

Un processeur est un ensemble matériel capable d’exécuter, de façon autonome, une suite d’instructions
représentant un traitement d’informations.
Il est connecté à une mémoire contenant les instructions et les données à traiter.
Le processeur se compose de deux parties, un chemin de données (datapath ), dans lequel s’effectue le
traitement des informations, et un organe de commande pilotant le chemin de données.

Chemin de données

L’association des constituants de base (unité arithmétique et logique, registres interconnectés à l’aide de
bus et de liaisons) est appelée le chemin de données.
Celui-ci est relié à la mémoire par des liaisons d’adresses et de données.
La figure 2 montre un exemple simplifié de chemin de données, dans lequel l’unité arithmétique et
logique ne peut effectuer que les opérations d’addition et de soustraction.
La sortie R de l’unité arithmétique et logique représente l’état de la retenue; la sortie Z indique si le
résultat de l’opération est nul.
Le bus X permet d’amener le contenu du registre A ou celui du registre B vers l’entrée X de l’unité
arithmétique et logique.
Le bus Y permet d’amener le contenu du registre AD ou celui d’un mot mémoire vers l’entrée Y de
l’unité arithmétique et logique.
La sortie T de cette dernière est reliée aux entrées des registres A, B, AD et à l’entrée de la mémoire
MEM par la liaison T.
Le mot mémoire utilisé à un instant donné est défini par le contenu du registre AD, le registre adresse
mémoire.
Les commandes associées aux constituants de base sont représentées par de petites flèches.
Ainsi EA représente la commande permettant de mémoriser dans le registre A le résultat fourni par l’unité
arithmétique et logique; A vers X représente la commande du bus X permettant d’amener le contenu du
registre A vers l’entrée X de l’unité arithmétique et logique; X + Y représente la commande de l’unité
arithmétique et logique permettant d’effectuer l’addition des deux opérandes.
Le chemin de données permet d’effectuer des opérations telles que: «prendre le contenu du registre A, lui
ajouter le contenu d’un mot mémoire, puis ranger le résultat dans le registre B».

Notions de transfert élémentaire et de cycle de base.

Un transfert élémentaire est défini comme le déplacement d’un élément d’information ayant pour origine
un registre ou un mot mémoire et pour destination un registre ou un mot mémoire.
L’élément d’information transféré peut éventuellement être modifié lors de son passage dans l’unité
arithmétique et logique.
L’exécution de chaque instruction est décomposée en une suite de transferts élémentaires.

HOUX S. Initiation à l’informatique Septembre 2002


90
Un cycle de base correspond à l’intervalle de temps nécessaire à l’exécution d’un transfert élémentaire
ayant pour origine un registre et pour destination un registre.
Ainsi, le transfert élémentaire «prendre le contenu du registre A, lui ajouter le contenu du registre AD,
puis ranger le résultat dans le registre B» peut s’effectuer en un cycle de base.
Pour cela, il faut que les commandes du chemin de donnée A vers X, AD vers Y, X + Y et EB soient
activées pendant le cycle.
Dans la plupart des cas, le temps d’accès d’une mémoire est supérieur au cycle de base.
Un transfert élémentaire utilisant le contenu d’un mot mémoire s’étalera donc sur plusieurs cycles de
base.

Organe de commande

L’organe de commande spécifie et coordonne, à l’aide de commandes, la suite des transferts élémentaires
que doit effectuer le chemin de données à chaque cycle de base, pour exécuter l’instruction courante.
L’organe de commande possède une représentation de la suite des commandes nécessaires à l’exécution
de chaque instruction.
Selon sa complexité, une instruction peut être exécutée en un ou plusieurs cycles de base.
La figure 3 décrit les relations entre l’organe de commande et le chemin de données.
Pendant chaque cycle de base, les commandes issues de l’organe de commande définissent un ou
plusieurs transferts élémentaires dans le chemin de données.
Ce dernier fournit en retour des états (par exemple, la valeur des indicateurs de l’unité arithmétique et
logique, le code opération de l’instruction), qui sont exploités par l’organe de commande et lui permettent
de choisir les nouvelles commandes à envoyer au chemin de données pendant le cycle de base suivant.

Microprogrammation

C’est une des techniques de réalisation de l’organe de commande.


Elle consiste à utiliser une mémoire de commande , propre à l’organe de commande, dans laquelle sont
stockées les différentes combinaisons de commandes élémentaires.
Une micro-instruction représente les commandes activées pendant un cycle de base.
Chaque micro-instruction est stockée dans un mot de la mémoire de commande, et son contenu est fixé au
moment de la construction de l’organe de commande.
L’ensemble des micro-instructions (le microprogramme) constitue la suite des commandes nécessaires à
l’exécution du jeu d’instructions du processeur.
La microprogrammation permet de réaliser un jeu d’instructions aussi complexe que l’on veut.
L’organe de commande d’une machine microprogrammée comporte trois parties: une mémoire contenant
les micro-instructions, un séquenceur réalisant l’enchaînement des micro-instructions, une horloge
représentant la référence de temps.
On voit sur la figure 4 qu’une micro-instruction comporte deux parties: les commandes destinées au
chemin de données et une partie enchaînement destinée au séquenceur.
Cette dernière partie indique au séquenceur comment il doit élaborer l’adresse de la micro-instruction
suivante.
Exécution d’une instruction

Le processeur exécute séquentiellement une suite d’instructions.


La position en mémoire de l’instruction à exécuter est donnée par le contenu d’un registre du chemin de
données, le compteur ordinal ou compteur de programme.
Le contenu de ce registre est mis à jour durant l’exécution de chaque instruction.
L’exécution d’une instruction par l’organe de commande comporte les quatre étapes suivantes:
– lire l’instruction dont l’adresse est contenue dans le compteur ordinal et la charger dans le registre
instruction ;
– mettre à jour le compteur ordinal de façon à ce qu’il contienne l’adresse de la prochaine instruction à
exécuter;

HOUX S. Initiation à l’informatique Septembre 2002


91
– décoder l’instruction contenue dans le registre instruction pour connaître sa signification;
– effectuer les opérations élémentaires correspondant à l’instruction décodée.
À la fin de la quatrième étape, il suffit de revenir à la première pour passer à l’exécution de l’instruction
suivante.

3. Les améliorations possibles de l’architecture de von Neumann

Les performances des ordinateurs ont connu une progression spectaculaire puisque les vitesses de calcul
ont approximativement décuplé tous les cinq ans.
Toutefois, les améliorations technologiques successives n’ont que peu modifié l’organisation interne des
processeurs.
Schématiquement, on peut dire que l’architecture de von Neumann est composée d’un processeur et d’une
mémoire.
Le processeur exécute un programme contenu dans la mémoire, le programme utilise des données situées
dans cette même mémoire.
Il est aisé de voir que, dans une telle organisation, les performances de la mémoire conditionnent les
performances du système tout entier, puisque toutes les informations transitent par elle.
Les techniques décrites ci-après ont donc été développées pour améliorer les performances de la mémoire
et pour introduire un parallélisme plus ou moins important dans l’exécution des instructions.
Ces techniques peuvent se combiner entre elles dans un même ordinateur, afin d’en augmenter les
performances, sans pour cela modifier la durée du cycle de base du processeur.

Notion de cache mémoire

Un cache mémoire ou cache est une mémoire possédant un temps d’accès proche du cycle de base du
processeur mais dont la taille est petite par rapport à celle de la mémoire principale.
Un cache contient la copie d’une portion de la mémoire principale; un processeur peut utiliser un cache
pour les instructions (cache instructions ) et un cache pour les données (cache données ), les deux caches
fonctionnant selon les mêmes principes.
Le processeur cherche d’abord dans le cache instructions celle qu’il doit exécuter.
Il obtient et exécute immédiatement cette instruction si elle se trouve dans le cache.
Sinon, le processeur déclenche une lecture en mémoire principale avant de pouvoir l’exécuter.
La lecture en mémoire principale provoque le chargement dans le cache d’une zone mémoire contenant
l’instruction.
Le gain en performances apporté par un cache résulte du principe de localité: on a montré que, pour la
plupart des programmes, 90 p. 100 du temps d’exécution est utilisé pour exécuter seulement 10 p. 100 des
instructions.
Cela signifie que certaines portions d’un programme sont très fréquemment exécutées.
Les performances du processeur sont fortement améliorées lorsque les portions de programme
fréquemment exécutées sont présentes dans le cache.

Notion de pipeline

Le principe du pipeline est connu depuis longtemps en informatique, puisqu’il a été utilisé sur les
premiers ordinateurs scientifiques. Nous avons vu plus haut que l’exécution d’une instruction passe par
plusieurs étapes, exécutées séquentiellement:
– transfert de l’instruction à exécuter depuis la mémoire centrale jusqu’au registre instruction et mise à
jour du compteur ordinal ;
– décodage de l’instruction;
– exécution de l’instruction proprement dite.

HOUX S. Initiation à l’informatique Septembre 2002


92
Si l’on suppose que les étapes sont de durées égales et que chaque étape est réalisée par un opérateur
distinct, l’ensemble des trois opérateurs forme un pipeline à trois étages.
Chaque opérateur correspond à un étage du pipeline, et la figure 5 illustre le principe de fonctionnement
d’un tel pipeline.
Nous voyons qu’à un instant donné plusieurs instructions sont simultanément en cours d’exécution, dans
des étapes différentes, tout comme les voitures sur la chaîne de montage sont dans un état différent à
chaque poste de travail.
Lorsque le pipeline fonctionne en régime permanent, le processeur termine l’exécution d’une instruction à
chaque cycle de base, bien que l’exécution de chaque instruction dure trois cycles.
La conception d’un pipeline est délicate et résulte d’un compromis entre le nombre d’étages qui le
compose et la manière dont l’exécution des instructions est décomposée en sous-opérations
indépendantes.

Les machines RISC

Les machines microprogrammées des années 1970 offraient des jeux d’instructions très sophistiqués.
Au début des années 1980, de nouvelles architectures, les machines RISC (Reduced Instruction Set
Computers), ont été conçues de façon à réduire les temps de conception des machines et pour simplifier
l’écriture des compilateurs.
Par contraste, les machines dotées d’un jeu d’instructions complexe ont été appelées des machines CISC
(Complex Instruction Set Computers).
Les architectures RISC se caractérisent par un jeu d’instructions limité aux opérations interregistres et aux
transferts entre la mémoire et les registres, par l’utilisation de caches mémoires et de pipelines et par un
grand nombre de registres.
Les instructions sont de longueur fixe pour favoriser l’achèvement de l’exécution d’une instruction à
chaque cycle.
Actuellement, les machines RISC et les machines CISC cohabitent, et aucun des deux types
d’architectures n’a réellement supplanté l’autre.

Les machines vectorielles et les techniques de vectorisation

Les machines scientifiques très puissantes, conçues pour travailler efficacement sur les vecteurs,
possèdent des unités fonctionnelles permettant d’effectuer une même opération (par exemple, une
addition), sur un grand nombre de données (les composantes des deux vecteurs à additionner).
Il suffit donc de préciser l’opération à effectuer et sur quelles données opérer pour que l’unité
fonctionnelle exécute seule l’opération sur toutes les composantes des vecteurs à traiter.
Les unités fonctionnelles peuvent être soit spécialisées, c’est-à-dire qu’elles ne peuvent exécuter qu’un
type d’opération donné (par exemple, une addition en virgule flottante), soit générales et dans ce cas elles
sont susceptibles d’exécuter diverses fonctions d’évaluation (aussi bien une addition qu’une
multiplication ou une division).
La présence de ce type d’unités fonctionnelles améliore considérablement la puissance de traitement, mais
les performances de la machine dépendent beaucoup de la façon de la programmer.
Lorsque l’unité fonctionnelle comporte un pipeline, elle sera d’autant plus efficace que ses temps de
chargement et de déchargement seront négligeables devant la durée de l’opération sur les données, c’est-
à-dire lorsque celle-ci porte sur des vecteurs longs.
La vectorisation est une méthode de programmation qui permet d’utiliser le plus efficacement possible
les dispositifs existant dans les machines vectorielles.
Certains ont en effet évalué que les rapports de vitesses dans une machine vectorielle entre un programme
bien écrit et un programme mal écrit pouvaient aller de 1 à 100!
Cela montre l’intérêt des techniques algorithmiques qui conduisent à une écriture des programmes et à des
représentations de données complètement différentes des techniques habituellement employées dans les
machines classiques.
À la limite, il faudrait entièrement réécrire les programmes anciens pour exploiter pleinement les
performances des machines vectorielles.
HOUX S. Initiation à l’informatique Septembre 2002
93
Pour éviter un tel gaspillage de logiciels, des compilateurs vectoriseurs transforment les anciens
programmes en programmes exécutables sur les nouvelles machines; les compilateurs optimiseurs
peuvent également aider le programmeur peu habitué aux techniques de vectorisation.
La vectorisation automatique ainsi obtenue ne peut prétendre rivaliser avec les meilleurs programmes
écrits spécialement en fonction de la machine sur laquelle le programme est exécuté, mais elle représente
une solution de compromis, qui permet l’utilisation des programmes scientifiques très complexes ou très
volumineux, écrits pour des machines scalaires (machines ne disposant pas de ressources matérielles
spéciales pour le traitement des vecteurs).

Les machines superscalaires

Si les machines RISC ont été conçues pour permettre l’exécution d’une instruction par cycle de base, les
processeurs superscalaires visent l’objectif encore plus ambitieux d’exécuter plusieurs instructions par
cycle.
Pour cela, ces processeurs sont dotés de plusieurs opérateurs arithmétiques pipelinés, chacun d’eux
spécialisés dans l’exécution d’un type d’opération (addition de nombres entiers, multiplication de
nombres entiers, addition de nombres en virgule flottante, multiplication de nombres en virgule flottante,
etc.).
Il faut donc acquérir et décoder simultanément plusieurs instructions, afin de lancer leur exécution en
parallèle sur les différentes unités.
Bien entendu, ce type de machine possède des caches pour permettre au processeur de travailler au
maximum de ses possibilités.
L’efficacité d’un processeur superscalaire dépend étroitement du contenu du programme, puisqu’il faut
pouvoir alimenter correctement les opérateurs, afin d’exploiter pleinement leurs structures pipelinées (par
exemple, le programme doit posséder en nombre suffisant des instructions faisant appel aux différents
opérateurs disponibles).
Il faut donc disposer de compilateurs réorganisant la séquence d’instructions de façon à exploiter au
mieux les ressources matérielles.

Les architectures systoliques

Les processeurs systoliques sont des systèmes spécialisés à hautes performances, plus particulièrement
employés dans le traitement d’images ou le traitement du signal.
Leur structure particulière, spécifique d’un problème à traiter, permet de pouvoir utiliser une même
donnée un grand nombre de fois.
De ce fait, elles sont particulièrement bien adaptées aux problèmes exigeant de nombreux calculs sur une
même donnée (transformées de Fourier, produits de convolution).
Comme la plupart des systèmes spécialisés, les architectures systoliques reçoivent leurs données et
envoient leurs résultats à un ordinateur hôte.
Dans une telle architecture, l’information circule dans de multiples processeurs élémentaires: les données
partent de la mémoire pour traverser de nombreux processeurs élémentaires avant de retourner en
mémoire, un peu comme le sang part du cœur et y revient après avoir circulé dans le corps.
La figure 6 présente le schéma d’une machine monoprocesseur classique et le principe de fonctionnement
des architectures systoliques, dans lesquelles l’information passe dans les processeurs élémentaires avant
de retourner en mémoire.
Une architecture systolique peut être considérée comme un ensemble de cellules interconnectées – les
processeurs élémentaires –, chaque cellule pouvant effectuer un petit nombre d’opérations simples.
Les différentes cellules sont généralement interconnectées en tableaux ou en arbres, comme le montre la
figure 7.
Les architectures systoliques se décomposent en un faible nombre de structures simples, connectées par
des interfaces simples et utilisées de façon répétitive.
Elles se prêtent donc bien aux exigences de réalisation des circuits VLSI et permettent d’envisager des
coûts de construction assez bas.

HOUX S. Initiation à l’informatique Septembre 2002


94
De plus, ces architectures étant modulaires, elles sont aisément adaptables à différentes classes de
problèmes ou à différents hôtes.
Elles peuvent, en outre, se reconfigurer aisément.
Parmi les caractéristiques qui rendent ces architectures intéressantes à employer, citons:
– le fait qu’une même donnée peut être utilisée un grand nombre de fois dans une machine systolique;
cette propriété autorise de gros débits de calcul, même si la cadence des entrées-sorties reste assez
modeste;
– une exploitation réelle des possibilités d’exécution en parallèle sur un grand nombre de processeurs;
en effet, la puissance de traitement des architectures systoliques provient du fait qu’on emploie de
nombreuses cellules simples fonctionnant simultanément, au lieu de se servir d’un petit nombre de
processeurs qui déroulent séquentiellement un programme donné;
– une très grande modularité des structures résultantes; l’utilisation systématique de cellules de
traitement simples et identiques rend la structure retenue aisément extensible;
– une possibilité d’obtenir des temps de réponse constants; certaines structures systoliques peuvent
assurer un recouvrement complet entre les entrées-sorties et les temps de traitement; elles garantissent
ainsi un temps de réponse constant du système.
Pour une même application, plusieurs solutions systoliques peuvent être trouvées; le choix de la solution
retenue dépendra finalement du critère de réalisation choisi (faible coût de réalisation, débit de données
maximal, intégration dans un circuit VLSI, etc.).
Les architectures systoliques peuvent être employées chaque fois que des calculs répétitifs doivent être
exécutés sur un grand nombre de données.
Ces structures, encore récentes, représentent une solution originale pour l’exécution de certaines classes
d’algorithmes complexes qui nécessitent des temps de calculs importants dans les ordinateurs classiques,
pourvu que ces algorithmes puissent se décomposer en opérations simples.

4. Classification des architectures de machines

Pour caractériser les différentes machines, la classification la plus connue et la plus employée est celle de
Michael J. Flynn.
Paradoxalement, cette classification n’est pas fondée sur la structure des ordinateurs mais sur la manière
dont ceux-ci relient leurs flots d’instructions (instruction stream ) aux flots des données à traiter (data
stream ).
Bien qu’imparfaite, cette classification permet de répertorier rapidement les différentes architectures.
Quatre classes de machines ont ainsi été mises en évidence:
– les machines SISD (Single Instruction Stream, Single Data Stream);
– les machines SIMD (Single Instruction Stream, Multiple Data Stream);
– les machines MISD (Multiple Instructions Stream, Single Data Stream);
– les machines MIMD (Multiple Instructions Stream, Multiple Data Stream).

Les machines SISD

Cette classe regroupe les machines n’ayant qu’un seul processeur. Une instruction définit une seule
opération qui n’utilise qu’un seul flot de données dont les différents types (arguments, résultats, etc.) sont
reliés logiquement les uns aux autres.
La classe SISD regroupe aussi bien les machines avec pipeline que les machines sans pipeline.
Les machines SIMD
Cette catégorie comprend les machines qui ne possèdent qu’un seul flot d’instructions travaillant sur des
données séparées.
Elle regroupe les machines qui possèdent des instructions vectorielles et les architectures systoliques.
Les différentes architectures SIMD conviennent bien au traitement des matrices.
Elles sont délicates à programmer, à cause de l’interaction étroite entre l’architecture sous-jacente et la
technique de programmation à mettre en œuvre.

HOUX S. Initiation à l’informatique Septembre 2002


95
Les machines MISD

Cette classe est purement théorique, car on peut difficilement envisager d’exécuter simultanément
plusieurs instructions agissant sur la même donnée.
Aucune machine existante ne peut se ranger dans cette catégorie.

Les machines MIMD

Dans la classe MIMD, on retrouve les machines qui possèdent plusieurs flots d’instructions, exécutés par
plusieurs processeurs, chacun d’eux travaillant sur son propre flot de données.
Cette catégorie englobe toutes les machines multi-ordinateurs.
Dans cette classe de machines, il est possible d’exploiter au mieux le parallélisme qui existe dans les
programmes.
En contrepartie, il est difficile de trouver des applications qui se prêtent à une décomposition en tâches
élémentaires, permettant de fournir du travail à tous les processeurs.

5. Les machines parallèles et les machines massivement parallèles

Pour améliorer les performances des ordinateurs, les machines parallèles ont, dès le début de
l’informatique, été conçues essentiellement pour les applications scientifiques.
On appelle machines massivement parallèles les machines qui possèdent un très grand nombre de
processeurs, ce nombre allant d’au moins cent processeurs à quelques dizaines de milliers.
Les architectures parallèles peuvent utiliser les techniques décrites plus haut (cf. infra , Les améliorations
possibles de l’architecture de von Neumann ).
Le fonctionnement de ces machines repose sur le principe que l’on peut décomposer un programme en un
ensemble de tâches indépendantes, qui sont exécutées simultanément sur des processeurs différents.
Selon la manière dont les processeurs coopèrent au cours du traitement, on distingue les systèmes
fortement couplés des systèmes faiblement couplés .
Par ailleurs, deux types d’architectures parallèles existent actuellement: les multi-processeurs et les
multi-ordinateurs , mais, actuellement, les différences entre les deux types de systèmes tendent à
s’estomper.
Les multi-processeurs se partagent une mémoire commune, alors que les multi-ordinateurs sont constitués
par l’interconnexion de multiples ordinateurs (souvent appelés nœuds ), qui possèdent leurs propres
mémoires et, éventuellement, leurs propres unités d’entrées-sorties.
Remarquons que, quel que soit le type de machines parallèles employé, les performances dépendent
fortement du type d’applications à traiter.
En particulier, elles exigent de leurs utilisateurs une très bonne connaissance de l’architecture de la
machine pour l’écriture de programmes efficaces.
De plus, les problèmes à traiter doivent pouvoir être programmés selon des méthodes particulières,
variables d’un système à l’autre, faute de quoi les performances de ces architectures seront tellement
dégradées que l’usage des machines parallèles ne se justifient plus.

Les systèmes fortement couplés

Ces systèmes sont caractérisés par une communication interprocesseurs s’effectuant à travers la mémoire
commune, partagée entre tous les processeurs.
Le débit de la mémoire commune détermine donc les performances du système.
De plus, il limite le nombre de processeurs possibles: plus le nombre de processeurs croît, et plus la
probabilité de conflits d’accès mémoire (par exemple, la demande simultanée d’une opération mémoire
sur le même mot mémoire) augmente également.
La simultanéité d’exécution dans le système décroît alors très vite, entraînant des baisses de performances
très sensibles. La figure 8 donne le schéma de principe d’un système fortement couplé.

HOUX S. Initiation à l’informatique Septembre 2002


96
Les systèmes faiblement couplés

Les systèmes faiblement couplés, eux, ne connaissent pas au même degré les problèmes de conflits
d’accès mémoire car, dans de tels systèmes, chaque processeur dispose de périphériques propres et d’une
grande mémoire locale, dans laquelle il va chercher instructions et données.
Les processeurs communiquent donc plus rarement entre eux, grâce à des messages échangés au moyen
d’un dispositif de transfert de messages, spécifique d’un système donné.
Les systèmes faiblement couplés peuvent donc être utilisés efficacement chaque fois que les interactions
entre tâches sont très faibles.
Si les interactions entre tâches nécessitent de nombreux transferts de messages entre processeurs, les
performances sont fortement dégradées. La figure 9 représente un système faiblement couplé.

Les multi-processeurs

Les architectures multi-processeurs sont des structures SIMD: il s’agit en fait d’un seul ordinateur
comprenant plusieurs processeurs.
Ceux-ci peuvent communiquer et coopérer à différents niveaux pour résoudre un problème donné.
Les différents processeurs sont dotés de capacités de traitement comparables et se partagent l’accès à des
mémoires communes, à des canaux d’entrées-sorties et à des périphériques communs.
Les architectures multi-processeurs peuvent être contrôlées par un seul système d’exploitation, qui
autorise les interactions, à différents niveaux, entre les processeurs et leurs programmes.
Les machines SIMD sont en général raccordées à un ordinateur hôte SISD (le frontal), qui effectue les
opérations séquentielles.
Les opérations SIMD sont diffusées à tous les processeurs, chacun possédant son propre jeu de registres et
sa propre mémoire locale. Ils utilisent un réseau d’interconnexions pour s’échanger des données.
Un réseau d’interconnexions est un dispositif matériel qui permet d’établir une connexion soit entre deux
processeurs quelconques, soit entre un processeur et une mémoire commune quelconques.
Pour qu’un parallélisme massif soit intéressant à utiliser dans une structure SIMD, il faut disposer de
quantités massives de données, qu’on appelle parallélisme de données.
La figure 10 illustre le principe de construction d’un système multi-processeur.

Les multi-ordinateurs

L’idée de base des multi-ordinateurs est simple: il s’agit de construire un système MIMD puissant,
simplement en interconnectant un grand nombre d’ordinateurs existants.
La structure (matériels et logiciels) d’un multi-ordinateur est donc modulable en fonction des besoins du
traitement.
De tels systèmes peuvent être conçus pour être tolérant aux pannes, c’est-à-dire qu’un système à n
ordinateurs peut continuer à fonctionner comme un système à n – 1 ordinateurs, si l’un d’eux est
défaillant.
Les machines MIMD sont construites soit en interconnectant les processeurs par un bus unique, soit en les
reliant par un réseau d’interconnexions.
La figure 11 donne le schéma de principe d’un système multi-ordinateurs.
Le parallélisme d’exécution des différents ordinateurs est limité par la nécessité de coordonner leurs
activités lorsqu’ils opèrent sur des données partagées.
La synchronisation des ordinateurs (mécanisme qui permet d’empêcher qu’un ordinateur ne commence à
travailler sur une donnée partagée avant qu’un autre n’ait terminé son traitement sur cette même donnée)
est d’autant plus délicate à réaliser que le nombre d’ordinateurs est grand.
Les contraintes liées à la synchronisation limitent le degré de parallélisme dans l’exécution de
l’application distribuée sur les structures MIMD.
Le développement de l’informatique s’explique par les progrès technologiques réalisés à un rythme très
soutenu depuis plus de quatre décennies.
Ces progrès ont permis d’offrir des puissances de calcul et des capacités mémoire sans cesse croissantes,
tout en entraînant un abaissement considérable des prix de revient des machines, puisque ce sont
HOUX S. Initiation à l’informatique Septembre 2002
97
désormais les logiciels qui représentent l’investissement le plus lourd dans un système informatique.
L’évolution des ordinateurs jusqu’à présent met en évidence une certaine continuité dans les architectures
de machines.
Cependant, la nécessité de préserver les énormes investissements en logiciels freine la réalisation
d’architectures originales.
Pour ces raisons, les architectures nouvelles ne pourront s’imposer que si elles apportent un progrès
décisif dans la production et la fiabilité des logiciels d’application.

Source : Universalis
Le droit de l’informatique

Nombreuses sont aujourd’hui les interactions du droit et de l’informatique.


Si l’informatique juridique documentaire devient indispensable au juriste qui doit apprendre à interroger
les grandes banques de données, d’un autre côté, comme tout grand phénomène social, l’informatique est
progressivement «encadrée» par le droit.
HOUX S. Initiation à l’informatique Septembre 2002
98
Ce droit n’est encore qu’un droit «carrefour», composé de règles de droit public et de droit privé,
destinées à maîtriser les incidences, voire les éventuels dangers de cette technique, mais également à
adapter le droit à une technique devenue phénomène de masse.
Cette modification du droit affecte la plupart des disciplines juridiques, traversant la frontière
traditionnelle entre droit public et droit privé.
Ainsi, la dématérialisation de l’information, au moment même où s’y attache une valeur économique
croissante, comme la circulation accrue des données soulèvent des difficultés communes.
Divers travaux montrent le souci des juristes français de suivre cette évolution.
Dans ce droit carrefour en gestation, on voit de plus en plus apparaître une adaptation du droit privé et des
incidences sur le droit public.
La recherche d’une maîtrise juridique de l’informatique est réelle, mais, à terme, on ne peut exclure une
«subversion généralisée du droit par l’informatique».

1. L’adaptation du droit privé à l’informatique

Le droit privé organise les rapports entre les particuliers.


En cette matière, le souci majeur est celui d’une adaptation du droit à l’informatique, car il est
indispensable que les règles juridiques soient en harmonie avec les pratiques engendrées par l’utilisation
d’une telle technique.
La nécessité s’en manifeste dans tous les secteurs de la vie économique, et sous différents aspects:
relations contractuelles entre fournisseurs et utilisateurs de produits informatiques, appropriation des
valeurs économiques nouvelles que sont les programmes d’ordinateur et les banques de données, preuve
des transactions...
Sur ce dernier point une réforme a dû être opérée par la loi du 12 juillet 1980 relative à la preuve des actes
juridiques.
Pour le reste, les conflits d’affaires engendrés par l’utilisation de l’informatique font l’objet d’une
jurisprudence de plus en plus abondante, avec déjà quelques «grands arrêts» classiques (par exemple:
Paris, 12 juill. 1972, Flammarion contre I.B.M.; Cass., civ. 1re, 9 nov. 1983 et Lyon, 12 juin 1989,
Microfor contre Le Monde ).

Les relations contractuelles suscitées par l’informatique

Les relations contractuelles entre fournisseurs de prestations informatiques, constructeurs de matériel ou


sociétés de service, et les utilisateurs, le plus souvent des entreprises désirant s’informatiser, présentent
des aspects très variés.
La gamme des prestations est largement ouverte: fourniture de temps machine, sous-traitance de travaux,
contrat d’étude, vente de matériel, conception de programmes, fourniture de système «clef en main»,
maintenance...
À ces différentes situations, les règles classiques du droit des contrats fournissent un cadre assez
satisfaisant: contrat d’entreprise pour les prestations de service, contrat de vente ou de location pour la
fourniture de biens matériels.
Néanmoins, la complexité technique de ce qui est proposé aux clients, jointe à l’utilisation par les
professionnels de contrats pré-rédigés, est souvent à l’origine d’un déséquilibre.
La jurisprudence s’est efforcée d’y remédier en développant la notion propre à la responsabilité
contractuelle de conformité de la chose livrée: s’agissant d’informatique, et c’est sans doute une
originalité de la matière, la prestation doit être adaptée aux besoins qu’elle tend à satisfaire, et les
tribunaux considèrent qu’il incombe au professionnel de veiller à ce que la prestation fournie réponde à
cette exigence.
Des obligations de renseignement, de conseil sur l’opportunité de l’informatisation et sur le choix d’un
système, enfin une obligation de mise en garde contre les risques encourus pèsent sur le fournisseur dès la
formation du contrat.
Celui-ci engagerait donc sa responsabilité en proposant un matériel inadapté parce que trop puissant et
trop onéreux ou d’une capacité insuffisante (Paris, 12 juill. 1972, 15 mai 1975, 4 janv. 1980).

HOUX S. Initiation à l’informatique Septembre 2002


99
Néanmoins, l’intensité de cette obligation variera en fonction de la compétence de l’utilisateur, et sur ce
dernier pèse aussi un devoir de collaboration avec le fournisseur: il s’impose à lui, notamment, de définir
correctement ses besoins, en fonction desquels s’apprécie la conformité du matériel.
Ces solutions sont donc nuancées et témoignent du souci de trouver un équilibre entre les partenaires.
Autre chef de responsabilité contractuelle, la garantie contre les vices cachés à la charge du fournisseur ne
peut être mise en jeu qu’en présence de défaillances suffisamment graves du matériel (Cass. com. 30 janv.
1979; Paris, 5e Ch., 12 juill. 1988).
En matière d’informatique, plus qu’en tout autre domaine, il apparaît qu’un «dialogue» doit s’instaurer
«entre le fournisseur et l’utilisateur» (Cass. com., 8 juin 1979), et qu’une large marge d’appréciation
appartient au juge du fond pour arbitrer les conflits et discerner les responsabilités.
Par ailleurs, à partir des années soixante-dix, les utilisateurs d’informatique s’organisent et tendent à
négocier les contrats.
Dans le même temps, l’attention est portée vers l’assurance des risques engendrés par l’informatique et
ceux qui sont susceptibles d’être couverts deviendront de plus en plus nombreux: dommages subis par les
équipements, pertes de données, de fichiers ou de programmes, préjudices commerciaux consécutifs à des
troubles apportés dans le fonctionnement de l’entreprise...
Certaines formules voisines de l’assurance sont mises au point, comme le contrat de back-up par lequel
une entreprise voit mettre à sa disposition un matériel de remplacement en cas de nécessité.
La protection des programmes et des banques de données
L’informatique favorise le développement de créations intellectuelles qui ont pour objet le rassemblement
et le traitement des données: le droit français et le droit communautaire sont venus à plusieurs reprises
étayer la protection de ces nouveaux biens économiques.
La loi du 13 juillet 1978 exclut du bénéfice des brevets d’invention les programmes d’ordinateur en tant
que tels, sauf pour un procédé industriel comportant, à titre accessoire, un traitement informatique (Paris,
15 juin 1981, affaire Schlumberger).
La loi du 11 mars 1957, relative à la propriété littéraire et artistique, ne comporte pas de semblable
disposition.
Son application à la matière du logiciel apparut donc concevable, car elle est ouverte à toute sorte de
création quel qu’en soit le genre ou la destination.
La jurisprudence devait s’engager dans ce sens en reconnaissant au créateur d’un programme un droit
d’auteur sur ce qui constitue «un bien incorporel original dans sa composition et son expression» (Paris, 2
nov. 1982; T.G.I. Paris, 21 sept. 1983, Apple contre Segimex).
De son côté, la loi du 3 juillet 1985 dévoluait à l’employeur les droits d’auteur attachés aux logiciels créés
par les employés dans l’exercice de leurs fonctions.
Enfin, la directive européenne sur la protection des programmes d’ordinateur du 14 mai 1991 consacrait
en les précisant ces solutions, par référence expresse à la convention de Berne du 9 septembre 1886.
La constitution et l’exploitation de banques de données soulève aussi des questions d’appropriation.
D’un côté, le producteur a droit à une protection pour le travail d’organisation donnée à la documentation
et pour la constitution de cet ensemble d’informations.
Le droit d’auteur s’applique à une telle œuvre, au même titre qu’à une anthologie.
Il conforte les précautions prises dans les contrats conclus avec les clients en prévoyant des restrictions à
l’utilisation de la banque.
D’un autre côté, cependant, doivent être respectées les prérogatives des auteurs auxquels des emprunts
seraient effectués pour constituer une banque de données.
Ceux-ci peuvent s’opposer à ce que leur œuvre soit exploitée sans leur autorisation et notamment
reproduite en texte intégral; néanmoins, ils ne sauraient refuser qu’elle soit présentée sous forme
d’indexation ou de résumé signalétique, et sans dénaturation (Cass., civ. 1re, 9 nov. 1983, Microfor contre
Le Monde ).
Le droit pénal offre encore d’autres possibilités de protection.
Le délit d’abus de confiance, par exemple, est constitué dès lors que sont détournées des marchandises
remises en vertu d’une convention comme un contrat de travail: par exemple un fichier de clientèle (Cass.
crim., 4 janv. 1968).
Le délit de vol d’information a également été consacré par la Chambre criminelle (Cass. crim., 12 janv.
1989, Imprimerie Bourquin).
HOUX S. Initiation à l’informatique Septembre 2002
100

L’évolution du droit de la preuve

Parce qu’elle tend à réduire l’utilisation et la circulation du papier, l’informatique soulève des problèmes
de preuve.
La production d’un écrit est souvent exigée par le droit: pièce d’identité, lettre recommandée, titre
contractuel, effet de commerce, quittance...
Pour les actes juridiques, en particulier, l’article 1341 du Code civil exige qu’un titre soit dressé devant
notaire ou sous signature privée, à moins qu’il ne s’agisse de relations entre commerçants.
La loi du 12 juillet 1980 est venue modifier le montant à partir duquel il s’impose de préconstituer une
preuve écrite, le seuil ayant été porté de 50 à 5 000 francs.
De cette façon, un large champ d’applications est ouvert aux possibilités d’enregistrement et de
transmission des données offertes par l’informatique: celui des opérations courantes conclues avec des
particuliers ainsi que des relations contractuelles entre les commerçants.
Des difficultés subsistent néanmoins, car il faut, à l’intérieur de ce vaste domaine, organiser la liberté de
la preuve afin de prévenir ou de régler les contestations éventuelles.
Celles-ci apparaissent au fur et à mesure qui se développent, notamment, l’informatique bancaire et la
télématique grand public.

2. Les incidences de l’informatique sur le droit public

Les interférences entre droit public et informatique sont multiples.


Pour maîtriser les phénomènes de pouvoir engendrés par l’informatique, c’est à des techniques de droit
public qu’on fait appel; en outre, l’informatisation de l’administration affecte plus particulièrement le
droit administratif.

L’informatique et l’adaptation du droit administratif

Les transformations du droit administratif par l’informatique relèvent encore largement de la conjecture.
Quelques tendances se font jour: des règles spéciales, dans le droit des marchés publics, pour l’achat de
matériels comme pour les prestations de services, qui ne sont pas sans analogie avec le droit privé des
contrats informatiques, une difficulté à régler les problèmes de personnel dans le schéma classique d’un
droit de la fonction publique reposant sur la notion de carrière...
L’ordinateur aide à préparer et à produire des actes administratifs dont le régime risque de se trouver
modifié.
L’informatique peut être précieuse pour préparer des décisions, mais deux écueils sont à éviter: que la
décision soit peu intelligible pour l’administré ou que l’administrateur ne s’en remette aveuglément au
travail fourni par la machine.
Avec la jurisprudence des directives ministérielles, il est déjà possible de faire face à des hypothèses
relatives à l’application uniforme par l’ordinateur de critères arrêtés par voie législative ou réglementaire.
Des dispositions de la loi «Informatique et libertés» visent également à imposer une réflexion humaine
lorsqu’une décision est prise à la suite d’un traitement informatique et à informer les intéressés des
critères retenus.
Ce souci d’information s’inscrit dans un mouvement plus général vers une véritable transparence de
l’administration.
L’ordinateur produit également des actes qui seront affichés sur écran ou qui sortiront d’une imprimante,
mais sans comporter de signature, ce qui n’est pas sans conséquences sur les règles de forme de l’acte.
Paiement des agents publics, avancement à l’ancienneté donnent lieu à des procédures objectives aisément
automatisables; en revanche, lorsque l’administration détient une part de pouvoir discrétionnaire,
l’ordinateur peut sans doute aider à la prise de décisions, mais la possibilité d’un examen particulier du
dossier, compte tenu de ses caractéristiques propres, doit subsister.
En accroissant l’autonomie du décideur et en renforçant le contrôle a posteriori, par rapport au contrôle a
priori, l’informatique oblige à repenser les modes de contrôle administratif, leur automatisation les rend à
la fois moins tatillons et plus efficaces.
HOUX S. Initiation à l’informatique Septembre 2002
101
Le contrôle du juge sera également confronté à de nouvelles situations: le juge de la légalité aura à
examiner ces actes informatisés non signés, ces directives venant encadrer un pouvoir discrétionnaire et
qui pourraient alimenter un programme informatique...
Dans des procès en responsabilité, les préjudices causés par l’informatique seront sans doute l’occasion de
procès en cascade avec de délicats problèmes d’imputabilité; la preuve du préjudice sera parfois difficile à
apporter: faute dans le maniement de l’ordinateur ou en amont ou en aval de la machine?
Reste enfin à savoir si ce droit administratif de l’informatique sera largement jurisprudentiel ou si les
parties ne préféreront pas régler souvent leurs différends à l’amiable.
Dans la mesure où l’informatisation de l’administration imprégnera les relations de celle-ci avec des
cercles toujours plus larges d’administrés, le contentieux est inévitable, et un droit jurisprudentiel pourra
trouver sa place à côté du droit écrit.
À ce jour, l’informatique n’a pas encore bouleversé l’organisation administrative ; cette technique peut
être le support et le vecteur d’une nouvelle donne juridique dans les rapports entre collectivités publiques,
elle offre en effet des moyens pour réaliser «les schémas les plus contrastés, celui du tout État aussi bien
que celui de l’extrême décentralisation» (S. Nora et A. Minc).
Un mouvement de transformation des rapports entre l’État et les collectivités locales est engagé, il reste
encore à voir si et comment l’informatique l’accompagnera...
Ce qui est maintenant certain, c’est que la télématique est déjà en train de changer les relations de cette
administration avec les administrés: des expériences de vidéotex, l’implantation de terminaux dans les
lieux publics facilitent la mise en œuvre des objectifs de transparence administrative et d’assistance aux
administrés; on peut même imaginer par la multiplication de systèmes interactifs des référendums
fréquents de consultation ou de décision. Les réseaux télématiques susciteraient ainsi une rénovation des
relations avec le pouvoir.

Informatique, pouvoirs et libertés

L’informatique est une technique qui, comme le droit public, se situe au cœur des relations de pouvoir.
L’inquiétude face aux pouvoirs renforcés du détenteur de traitements automatisés nominatifs sur les
individus a conduit à l’adoption de la loi du 6 janvier 1978 relative à l’informatique, aux fichiers et aux
libertés.
Pour défendre la vie privée, des règles de gestion des données sont fixées, une procédure de création des
traitements est définie.
Une institution de contrôle d’un type nouveau est mise en place, la Commission nationale de
l’informatique et des libertés (C.N.I.L.), autorité administrative indépendante.
La C.N.I.L., composée de membres essentiellement élus par leurs corps respectifs et, en particulier de
parlementaires, contrôle les applications nominatives de l’informatique et notamment donne son avis sur
les créations de traitements publics; elle est dotée de larges pouvoirs d’investigation.
Elle informe le public de son action, elle se concerte avec les détenteurs de traitements et elle contribue
ainsi à définir une déontologie de l’informatique.
Les «fichés» contrôlent eux-mêmes le respect de la loi par une sorte d’habeas data , le droit d’accès qui
marque, en droit public, une extension considérable de la règle classique de communication du dossier.
Ce droit à l’information administrative touche également les données non personnelles et on notera que,
six mois après le vote de cette loi, la loi du 17 juillet 1978 institue la liberté d’accès aux documents
administratifs et notamment aux traitements non nominatifs, c’est-à-dire aux grandes banques de données
dont se dote l’administration.
Le rapport Tricot observait déjà que le développement inégal de l’informatique au sein de l’État était
susceptible de fausser les équilibres voulus par la Constitution et par la loi.
Sans doute, l’évolution technique va plutôt dans le sens d’une dispersion des moyens informatiques;
cependant, publicistes et politologues ne peuvent pas ignorer la dimension technique d’une redistribution
et d’un rééquilibrage des pouvoirs.
Ces problèmes de pouvoirs se posent également à l’échelon mondial .
Conseil de l’Europe et O.C.D.E. se sont beaucoup souciés des échanges d’informations personnelles entre
pays.

HOUX S. Initiation à l’informatique Septembre 2002


102
Aujourd’hui, l’étude de flux transfrontières de données a pour champ la circulation à l’échelle de la
planète des valeurs que constituent informations et données, en général; il convient d’évaluer toutes les
conséquences des principes de libre-échange et de libre circulation.
Comment gérerons-nous cette nouvelle ressource qu’est l’information?
Quelle distribution du travail sur le plan mondial induira-t-elle?
Saurons-nous opérer l’harmonisation nécessaire et éviter les phénomènes de dépendance technique et
culturelle que suscite l’informatique?
Questions qui interpellent le politique mais également le juriste; à cet égard, l’opposition entre droit
public et droit privé devra être dépassée pour concilier les exigences de commercialité et les impératifs
d’intérêt général dans les activités d’information.

Source : Universalis
Informatique, science du traitement automatique de l’information par des ordinateurs.
L’informatique est d’une importance capitale en science, dans l’industrie et dans l’administration.

Historique
HOUX S. Initiation à l’informatique Septembre 2002
103
Née avec l’apparition des premiers ordinateurs à la fin de la Seconde Guerre mondiale, l’informatique
eut tout d’abord pour mission de pallier les insuffisances humaines en matière de calcul numérique.
Les ordinateurs devaient être alors capables de manipuler d’importantes masses de données dans un
minimum de temps, faisant office de calculatrices électroniques performantes.
Grâce aux progrès fulgurants en électronique et en automatisation, les machines se développèrent
rapidement : depuis environ trente ans, elles offrent chaque année une puissance de calcul de 30 p. 100
supérieure à l’année précédente, pour un coût inversement proportionnel.
Parallèlement à cette avancée technologique apparut dans les années 1950 une approche formelle de
l’informatique en tant que science.
Le mathématicien américain Norbert Wiener établit ainsi les fondements de la cybernétique, pendant
qu’un autre mathématicien américain, Claude Elwood Shannon, élaborait la théorie de l’information.
L’informatique s’orienta rapidement dans une nouvelle direction lorsque l’on comprit que son domaine
d’application pouvait s’étendre bien au-delà du simple calcul numérique.
Dès lors, les ordinateurs furent conçus pour le traitement de l’information en général, tandis que se
développaient les premiers langages de programmation adaptés aux problèmes de gestion, comme le
langage COBOL.
Dans les années 1960, les langages et les logiciels se multiplièrent, ainsi que les programmes assurant la
gestion interne de la machine, toujours plus complexe.
Les constructeurs furent alors confrontés à une situation délicate : malgré le progrès spectaculaire des
techniques matérielles (hardware), les performances globales des systèmes informatiques n’évoluaient
que très peu, en raison de la densité des techniques logicielles (software) installées sur chaque machine.
Dans les années 1970, la microprogrammation se chargea donc de relayer les logiciels dans les
opérations élémentaires de programmation, augmentant ainsi considérablement les performances de
l’ordinateur.
Actuellement, l’industrie informatique axe ses recherches sur la miniaturisation des ordinateurs associée
à des performances toujours plus élevées.
De leur côté, les informaticiens théoriciens travaillent à une reproduction des mécanismes de la pensée
par la machine, domaine de l’intelligence artificielle.

Applications
Ordinateur UNIVAC I
Conçu en 1946 par les Américains John Eckert et John Mauchly, UNIVAC I fut le premier ordinateur électronique
disponible dans le commerce. Il fut également le premier à traiter l'information aussi bien textuelle que numérique.
HOUX S. Initiation à l’informatique Septembre 2002
104

Réseau informatique
Ensemble de connexions entre ordinateurs et périphériques, un réseau informatique permet à ses utilisateurs d'envoyer et
de recevoir des informations de leur poste de travail. Le grand carré rouge, à gauche, représente l'installation informatique
d'une entreprise. Les communications entre chaque poste de travail s'effectuent soit par câbles, soit par lignes
téléphoniques grâce à des modems qui convertissent les signaux analogiques en signaux numériques ou inversement.
L'ensemble de ces communications est contrôlé par des serveurs, ordinateurs chargés de partager les ressources des
postes de travail (par exemple, les imprimantes). La connexion principale au réseau est figurée par la ligne rouge, les
connexions locales par des lignes bleues.

L’informatique est aujourd’hui présente dans la plupart des domaines de la vie professionnelle et privée.
Elle occupe bien évidemment une grande place en science appliquée, se chargeant notamment des
calculs complexes requis en astronautique ou en météorologie.
Mais elle intervient également dans les entreprises, l’enseignement, les banques, les assurances ou
encore les commerces, ainsi qu’à domicile.
Grâce à la conception et à la fabrication assistées par ordinateur, l’informatique est un outil important
dans tous les métiers nécessitant une modélisation préalable (artisans, architectes, etc.).
HOUX S. Initiation à l’informatique Septembre 2002
105
Elle permet en outre de diffuser l’information par le biais de réseaux informatiques, dont Internet
constitue l’exemple le plus marquant.
Enfin, en s’associant aux techniques de télécommunications, elle facilite largement l’administration des
bureaux en proposant ses services de télématique et de bureautique.
En contrepartie, l’informatique a engendré un nouveau type de délit, le délit informatique, consistant à
pénétrer illégalement dans des systèmes informatiques (voir Sécurité informatique).1

Les ordinateurs

Ordinateur, dispositif électronique programmable de traitement de l'information.


Le développement de l'informatique représente un atout majeur pour les progrès de la science.
En particulier, il a permis de perfectionner les techniques utilisées en automatisation ainsi que les
systèmes de communications (voir Télécommunications).

Supercalculateur Cray-1
Le superordinateur Cray-1 fut le premier ordinateur capable d'effectuer 100 millions d'opérations par seconde en virgule
flottante. Ce type de calculateur est utilisé en météorologie et pour des calculs à grande échelle.
Dale E. Boyer/Photo Researchers, Inc.2

1"Informatique", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft Corporation. Tous droits
réservés.

2"Supercalculateur Cray-1", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft Corporation.


Tous droits réservés.

HOUX S. Initiation à l’informatique Septembre 2002


106

Composants d’un micro-ordinateur


L’équipement complet d’un micro-ordinateur multimédia comprend des périphériques d’entrée
(clavier, dispositifs de pointage tel qu’une souris), des périphériques de sortie (moniteur,
imprimante), des unités de stockage (CD-ROM, disquette, etc.) et leurs lecteurs, ainsi qu’une
connexion avec l’extérieur (assurée par exemple par un modem).

Microsoft Illustration3

Aujourd'hui, les ordinateurs sont partout : selon leur puissance de calcul et leur capacité de stockage, on
les utilise aussi bien pour gérer les données des gigantesques fichiers gouvernementaux, que pour mener
à bien des programmes de recherche nécessitant de très grandes puissances de calcul, ou encore, plus
modestement, pour tenir la comptabilité d'un ménage.
Ce sont des outils essentiels dans presque tous les domaines de la recherche et de la technologie
appliquée, de la cosmologie à la météorologie.
Cependant, le délit informatique est devenu l'une des contreparties des bénéfices issus de la technologie
moderne.
En effet, des techniques de plus en plus sophistiquées sont mises au point pour pouvoir pénétrer
illégalement dans des systèmes informatiques dont l'accès est interdit (voir Sécurité informatique).

Types d'ordinateurs
Il existe deux types d'ordinateurs, l'analogique et le numérique, bien que le terme ordinateur soit souvent
employé pour désigner uniquement le type numérique.
Les ordinateurs analogiques utilisent des circuits électroniques et hydrauliques (composants fluidiques)
pour simuler un problème physique.

3"Composants d’un micro-ordinateur", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft


Corporation. Tous droits réservés.

HOUX S. Initiation à l’informatique Septembre 2002


107
Les ordinateurs numériques sont conçus pour résoudre des problèmes au moyen d'algorithmes.
Les équipements mêlant des dispositifs analogiques et numériques sont appelés calculateurs hybrides.
On les utilise généralement pour traiter des problèmes comprenant un grand nombre d'équations
complexes à résoudre.
Des données de format analogique peuvent également être traitées par un ordinateur numérique, par
l'intermédiaire d'un convertisseur analogique-numérique, et vice versa.
Ordinateurs analogiques
Un ordinateur analogique est un dispositif électronique ou hydraulique conçu pour gérer des données
qui s'expriment au moyen de grandeurs physiques (par exemple, des intensités, des tensions ou des
pressions hydrauliques).
Le système de calcul analogique le plus simple est la règle à calcul, qui utilise des échelles spécialement
calibrées pour faciliter les multiplications, les divisions et autres fonctions.
Dans un ordinateur analogique typique, les entrées sont converties en tensions, qui peuvent être alors
additionnées ou multipliées en utilisant des éléments de circuits appropriés.
Les réponses sont générées en continu en vue d'un affichage ou d'une conversion en un autre format.
Ordinateurs numériques
Un ordinateur numérique traite l'information sous forme codée : il convertit les données décimales en
données binaires grâce à une série de commutateurs appelés aussi bascules, qui peuvent prendre
seulement deux positions correspondant au 0 et au 1.
Les opérations arithmétiques élémentaires s'effectuent au moyen de circuits logiques.
La vitesse d'un ordinateur numérique se mesure en mégahertz (MHz), c'est-à-dire en millions de cycles
par seconde.
Un ordinateur dont la vitesse est de 10 MHz est donc capable d'exécuter au moins 10 millions
d'opérations par seconde.
Les micro-ordinateurs de bureau peuvent effectuer 15 à 40 millions d'opérations par seconde, tandis que
les supercalculateurs, utilisés notamment en météorologie et en défense nationale, ont des vitesses
pouvant atteindre plusieurs milliards de mégahertz.
La vitesse et la puissance de calcul des ordinateurs numériques sont encore accrues par le nombre
d'opérations effectuées durant chaque cycle.
Si un ordinateur ne gère qu'une seule bascule à la fois, il ne reconnaît que deux commandes (ON=activé
et OFF=désactivé).
En revanche, s'il contrôle différents jeux de bascules regroupées en registres, l'ordinateur augmente
alors le nombre d'opérations qu'il peut effectuer durant chaque cycle.
Par exemple, un ordinateur qui contrôle simultanément deux commutateurs peut exécuter jusqu'à quatre
commandes pendant chaque cycle.
En effet, un registre de deux bascules peut présenter quatre configurations : OFF-OFF, OFF-ON, ON-
OFF, ou ON-ON.

Historique
Premiers calculateurs
Les tout premiers calculateurs, ancêtres de l'ordinateur numérique, furent imaginés et réalisés au
XVIIe siècle, en particulier par Wilhelm Schickard, Blaise Pascal et Leibniz.
HOUX S. Initiation à l’informatique Septembre 2002
108
L'appareil de Pascal comportait une série de roues à dix crans, chaque cran représentant un chiffre de 0 à
9.
Les additions et les soustractions s'effectuaient en tournant les roues dentées d'un certain nombre de
crans.
Leibniz améliora par la suite cette machine pour lui permettre d'effectuer aussi des multiplications.

Au début du XIXe siècle, Joseph-Marie Jacquard conçut un métier automatique en utilisant de fines
plaques en bois perforées qui contrôlaient le tissage de motifs compliqués.
Puis, dans les années 1880, le statisticien américain Herman Hollerith eut l'idée d'utiliser des cartes
perforées, similaires à celles de Jacquard, pour traiter des données.
En utilisant un système où les cartes perforées passaient sur des contacts électriques, il parvint à
compiler des informations statistiques pour le recensement de la population des États-Unis en 1890.
En 1896, il fonda la Tabulating Machine Corporation, qui devint par la suite la société IBM.

Machines différentielle et analytique


Au XIXe siècle, le mathématicien et inventeur britannique Charles Babbage découvrit les principes de
l'ordinateur numérique moderne.
Il créa différentes machines, en particulier la machine différentielle et la machine analytique.
Bien qu'elle n'ait jamais été terminée, la machine différentielle était destinée à résoudre des problèmes
mathématiques avec une précision de vingt décimales.
Babbage améliora ensuite cette machine pour concevoir en 1833 la machine analytique, dont une partie
seulement fut réalisée.
Véritable précurseur de nos ordinateurs, cette machine aurait été capable de stocker des instructions,
d'exécuter des opérations mathématiques et d'utiliser des cartes perforées comme support de mémoire.
La plupart des historiens considèrent Babbage comme le véritable inventeur de l'ordinateur numérique
moderne, même si la technologie peu avancée de l'époque l'empêcha de réaliser concrètement ses idées.
Premiers ordinateurs
Les premiers ordinateurs analogiques furent fabriqués au début du XXe siècle.
Ils effectuaient leurs calculs grâce à un système d'axes et d'engrenages.
Ce type de machine permettait de fournir des approximations numériques d'équations difficiles à
résoudre autrement.
Pendant les deux guerres mondiales, des systèmes analogiques mécaniques, puis électriques, furent
notamment utilisés comme pointeurs de torpille dans les sous-marins et comme contrôleurs de visée
dans les bombardiers.
Ordinateurs électroniques
Dès 1939, un prototype de machine électronique fut fabriqué aux États-Unis par John Atanasoff et
Clifford Berry à l'Iowa State College.
Ce prototype fut discrètement développé, et éclipsé par la présentation en 1945 de l'ENIAC (Electronic
Numerical Integrator And Computer), ordinateur et intégrateur numérique électronique.
L'ENIAC contenait 18 000 tubes à vide et pouvait effectuer plusieurs centaines de calculs par minute.
Son programme était connecté au processeur et devait être modifié manuellement.

HOUX S. Initiation à l’informatique Septembre 2002


109
Parallèlement, à Londres, fut mis au point pendant la Seconde Guerre mondiale Colossus, un ordinateur
numérique entièrement électronique.
Élaboré par une équipe de scientifiques et de mathématiciens dirigée par Alan Turing, Colossus fut
opérationnel en décembre 1943.
Comportant 1 500 tubes à vide, il fut utilisé pour déchiffrer les messages radio codés des Allemands.
En 1952 apparut le premier ordinateur utilisant un programme mémorisé, conçu par le mathématicien
américain John von Neumann.
Les instructions étaient stockées dans une mémoire, évitant à l'ordinateur d'être soumis à la vitesse
limitée du lecteur de bande-papier pendant l'exécution du programme.
Ce dispositif de stockage supprimait également la réinstallation contraignante de l'ordinateur à chaque
nouveau programme.
À la fin des années 1950 furent conçus des ordinateurs dits de deuxième génération, dans lesquels les
tubes à vide furent remplacés par des transistors.
Ces derniers, plus durables et plus économiques, permirent de développer des éléments logiques plus
petits, plus rapides, plus souples et moins chers à fabriquer que ceux dotés de tubes à vide.
Circuits intégrés
À la fin des années 1960, l'utilisation des circuits intégrés permit de graver un nombre important de
transistors sur un seul substrat de silicium, reliés par des fils d'interconnexion blindés.
Puis, au milieu des années 1970, apparut le processeur miniaturisé ou microprocesseur, grâce à
l'élaboration des circuits intégrés à grande échelle (LSI), puis des circuits intégrés à très grande échelle
(VLSI).
Un microprocesseur est un processeur constitué d'un seul circuit intégré, sur lequel sont gravés plusieurs
milliers de transistors interconnectés.
Les ordinateurs des années 1970 étaient généralement capables de gérer simultanément 8 commutateurs.
Ils pouvaient donc reconnaître 8 chiffres binaires, ou bits de données, pendant chaque cycle.
Un registre de 8 bits est appelé octet, et celui-ci peut donc adopter 256 configurations différentes de ON
(activé) et de OFF (désactivé) (soit de 1 et de 0).
Chaque configuration correspond à une instruction, à une partie d'instruction, ou à un type particulier de
donnée : un nombre, un caractère ou un symbole graphique.
Puis, au fil des ans furent mis au point des microprocesseurs capables de gérer simultanément 16, 32,
puis 64 bits de données, ce qui permit d'augmenter la rapidité et la puissance des ordinateurs.
Aujourd'hui, le développement des ordinateurs s'effectue globalement dans deux directions : une taille
toujours plus réduite et une puissance toujours plus grande.

Matériel
Structure d'un ordinateur
HOUX S. Initiation à l’informatique Septembre 2002
110

La structure d'un ordinateur comprend cinq éléments fondamentaux : une unité centrale de traitement
(microprocesseur), des périphériques d'entrée et de sortie, des unités de stockage (mémoires externes
et internes), et un bus chargé de véhiculer l'information entre les composants de la machine.

Tous les ordinateurs numériques modernes sont de conception similaire.


Néanmoins, on peut les classer en différentes catégories suivant leur prix et leurs performances.
Un ordinateur personnel, ou micro-ordinateur, est une machine relativement peu onéreuse, généralement
conçue pour un bureau ou portable et peut tenir dans un attaché-case.
Une station de travail est un micro-ordinateur disposant d'outils graphiques et de communication
avancés, qui en font l'outil idéal pour accomplir des tâches nécessitant à la fois de bonnes capacités de
stockage et de puissance de calcul.
Enfin, un gros ordinateur est une machine capable de répondre aux besoins de grandes entreprises
commerciales, des différentes institutions gouvernementales ou militaires, et des établissements de
recherche scientifique.
Les gros ordinateurs adaptés tout particulièrement aux calculs scientifiques sont appelés
supercalculateurs.
La structure de base d'un ordinateur, ou architecture, peut être de deux types : ouverte ou fermée.
Un ordinateur présentant une architecture ouverte possède des spécifications accessibles à tous, ce qui
permet aux entreprises partenaires de développer des équipements complémentaires.
En revanche, les spécifications d'un ordinateur ayant une architecture fermée ne sont pas publiées, ce
qui rend très difficile la construction de dispositifs périphériques compatibles par des sociétés tierces.
Un ordinateur numérique est constitué de plusieurs cartes, plaques porteuses de puces reliées entre elles
par des circuits conducteurs.
La carte principale d'un ordinateur, appelée carte mère, contient les composants essentiels du système.
Les autres cartes augmentent la fonctionnalité de l'ordinateur : elles peuvent par exemple porter de la
mémoire additionnelle ou encore les connexions vers les divers systèmes du réseau.
On peut décomposer un ordinateur en cinq éléments fondamentaux : une unité centrale de traitement,
des unités d'entrée, des unités de stockage, des unités de sortie et un ensemble de connexions appelées
bus, qui véhicule l'information entre les composants du système informatique.
HOUX S. Initiation à l’informatique Septembre 2002
111
Unité centrale de traitement
Appelée également CPU (Central Processing Unit), cette unité est composée d'une ou plusieurs puces
(groupe de circuits intégrés contenant un microprocesseur), qui effectuent les calculs arithmétiques et
logiques, et qui régulent et contrôlent les opérations des autres éléments du système.
Les puces de traitement et les microprocesseurs sont généralement composés de quatre unités
fonctionnelles : une unité arithmétique et logique, des registres, une unité de contrôle et un bus interne.
L'unité arithmétique et logique permet d'effectuer les opérations arithmétiques, comparatives et
logiques.
Les registres sont des zones de stockage temporaires qui conservent les données, sauvegardent les
instructions, et gèrent les adresses (valeurs représentant des zones définies de mémoire), ainsi que les
résultats des opérations.
L'unité de contrôle remplit trois tâches principales.
Elle réglemente toutes les opérations du système informatique; elle lit et traduit les configurations des
données; enfin, elle indique l'ordre dans lequel les opérations individuelles sont traitées, et calcule le
temps que chacune d'entre elles requiert à l'unité de traitement.
Enfin, le bus interne est un ensemble de circuits chargé d'assurer l'acheminement des données et des
signaux de contrôle entre le microprocesseur, ses circuits annexes et la mémoire.
Ce bus est généralement divisé en trois régions : le bus de contrôle, qui transporte les signaux de
contrôle garantissant le bon fonctionnement du microprocesseur, le bus d'adresse qui véhicule les
adresses mémoire et le bus de données, autoroute bidirectionnelle qui assure le transport des données.

Microprocesseur F-100
Ce microprocesseur de 0,6 cm2 est assez petit pour passer dans le chas d'une aiguille.

A. Sternberg/Ferranti Elec./Science Source/Photo Researchers, Inc.4

Unités d'entrée

4"Microprocesseur F-100", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft Corporation.


Tous droits réservés.

HOUX S. Initiation à l’informatique Septembre 2002


112

Crayon optique
Également appelé photostyle, un crayon optique permet de sélectionner des éléments de l'écran ou d'activer des
commandes. Pour ce faire, il suffit de le presser à l'endroit désiré contre l'écran de l'ordinateur. Ce dispositif de pointage
est très utilisé en dessin industriel.
Gary Guisinger/Photo Researchers, Inc.5
Ces unités permettent à l'utilisateur d'entrer des données, des commandes et des programmes qui seront
gérés par l'unité de traitement.
Ces données, quelle que soit leur forme, sont traduites en configurations identifiables par l'ordinateur.
L'unité d'entrée la plus courante est le clavier.
Il en existe cependant d'autres, telles que les crayons optiques ou photostyles, qui transfèrent les
informations graphiques depuis des capteurs électroniques vers l'ordinateur ; les manettes de jeu ou
joysticks et les souris, qui traduisent les déplacements physiques en mouvements sur un écran vidéo
d'ordinateur; les scanners, qui permettent de visualiser mots et symboles graphiques sur des supports
plans; les caméras numériques, ainsi que les modules de reconnaissance vocale, qui enregistrent les
mots prononcés et les traduisent.
Des unités de stockage peuvent être également utilisées pour entrer des données dans l'unité de
traitement.
Unités de stockage
Les systèmes informatiques peuvent stocker des données de manière temporaire ou permanente.
La mémoire vive (RAM) sert de stockage temporaire au microprocesseur pour les programmes, le
travail en cours et différentes informations internes de contrôle des tâches.
La mémoire morte (ROM) est au contraire un support permanent et non effaçable pour la conservation
d'informations utiles, notamment les informations de démarrage et les procédures d'entrée/sortie.
Un ordinateur possède également d'autres types de stockage qui conservent l'information de manière
quasi permanente comme les disquettes, les disques durs, ou encore les bandes magnétiques.
Ces unités, qui stockent les données sur un support magnétique sensible, peuvent contenir de plusieurs
centaines de milliers à plus d'un million d'octets de données pour les disquettes, et de plusieurs millions
à des centaines de millions d'octets pour les disques durs.
Il existe également des supports de stockage non magnétiques comme les disques compacts (CD-ROM),
dont la lecture est assurée grâce à un faisceau laser.
Ces derniers disposent d'une capacité de stockage de plusieurs giga-octets (milliards d'octets) de
données.

5"Crayon optique", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft Corporation. Tous
droits réservés.

HOUX S. Initiation à l’informatique Septembre 2002


113
Unités de sortie
Ces unités permettent à l'utilisateur de visualiser les résultats des calculs ou des manipulations de
données effectués par l'ordinateur.
La plus courante des unités de sortie est le terminal à écran vidéo, composé d'un adaptateur vidéo, d'un
clavier et d'un moniteur (écran de visualisation).
Il est généralement équipé d'un tube cathodique, comme un téléviseur, mais les ordinateurs portables
utilisent maintenant des écrans à cristaux liquides (LCD) ou électroluminescents.
Ce terminal, qui n'effectue que peu ou pas de traitement indépendant, est relié à l'ordinateur par un
câble.
Les entrées du clavier sont transmises du terminal vers l'ordinateur, tandis que la sortie vidéo est
transmise de l'ordinateur vers le terminal.
Il existe d'autres unités de sortie courantes comme les imprimantes ou encore les modems, qui
permettent à un ordinateur de transmettre des données sur une ligne téléphonique.
Bus
Le bus est un ensemble de conducteurs parallèles servant au transfert d'informations entre les
composants d'un ordinateur.
Il peut être comparé à une autoroute reliant les différentes parties du système informatique qui se la
partagent pour échanger des données.
En général supervisé par le microprocesseur, un bus est souvent spécialisé dans le type d'information
qu'il transfère.
Ainsi, un groupe de circuits transporte les données, un autre transporte les adresses, un autre encore
véhicule les informations de contrôle qui assurent que chaque partie du système utilise bien la partie
d'autoroute qui lui est réservée.
Les bus se distinguent également par le nombre de bits qu'ils transportent en parallèle.
Un bus 8-bits véhicule 8 bits d'information à la fois tandis qu'un bus 16-bits transporte donc 2 octets.
Le bus est partie intégrante de l'ordinateur, mais comme certains dispositifs additionnels ont besoin
d'accéder directement au système, il est prévu des broches d'extension directement connectées au bus.
Programmation

Un programme, souvent appelé logiciel (software), est une séquence d'instructions qui indique au
matériel informatique (hardware) les opérations qu'il doit effectuer sur les données.
Les programmes peuvent être intégrés au hardware, comme sur les micro-ordinateurs que l'on trouve
dans les calculatrices, les montres, les moteurs automobiles ou les fours à micro-ondes.
Sur un ordinateur classique coexistent deux types de logiciel, selon le type de tâche qu'ils exécutent.
Les logiciels d'application prennent en charge la multitude des tâches pour lesquelles sont utilisés les
ordinateurs : traitement de texte, gestion de bases de données, etc.
Les logiciels système, qui sont souvent invisibles à l'utilisateur, contrôlent le fonctionnement de
l'ordinateur : on les appelle systèmes d'exploitation.

Systèmes d'exploitation

HOUX S. Initiation à l’informatique Septembre 2002


114
Les systèmes d'exploitation gèrent l'allocation et l'utilisation des ressources matérielles de l'ordinateur,
telles que la mémoire, l'unité centrale de traitement, l'espace du disque dur et les périphériques
(imprimante, manette de jeu, modem, etc.).
Ce sont des logiciels stockés de façon permanente dans la mémoire, qui interprètent les commandes de
l'utilisateur suivant le service qu'il désire : afficher, imprimer ou copier des fichiers de données, lister
tous les fichiers d'un répertoire, ou encore exécuter un programme particulier.
Langages
Les instructions sont transmises à l'ordinateur par le biais d'un langage de programmation, c'est-à-dire
une configuration particulière d'informations binaires numériques.
Aujourd'hui, il existe un grand nombre de langages informatiques, certains d'entre eux étant très ciblés
tandis que d'autres sont plus universels et d'utilisation plus souple.
Nous sommes bien loin de la programmation des premiers ordinateurs, tâche difficile et laborieuse, car
les commutateurs ON-OFF des tubes à vides devaient être réglés manuellement.
Ainsi la programmation de certaines tâches simples, comme la sortie d'une liste de noms, demandait
souvent plusieurs jours de travail.
Langage machine
Le langage de l'ordinateur, ou langage machine, qui utilise le système binaire, est difficilement utilisable
par les non-professionnels.
Dans ce langage, le programmeur doit entrer chaque commande et toutes les données sous forme
binaire.
Ainsi, une opération de base telle que la comparaison du contenu d'un registre avec les données d'un
emplacement de puce-mémoire pourrait ressembler à : 11001010 00010111 11110101 00101011.
Langage assembleur
Pour alléger et simplifier la programmation en langage machine, on peut avoir recours au langage
assembleur.
Ce langage assigne un court code mnémonique (généralement composé de trois lettres) à chaque
instruction exprimée en langage machine.
Le programmeur écrit donc ses programmes en langage assembleur (code source); ceux-ci sont ensuite
transcrits par un logiciel en langage machine (code objet), puis exécutés par l'ordinateur.
Ce langage permet de programmer beaucoup plus rapidement qu'en langage machine.
En outre, il évite les éventuelles erreurs logiques et de données, appelées bugs. (En anglais, bugs
signifie cafards, lesquels, en quête de chaleur, pénétraient dans les circuits des ordinateurs, y provoquant
des dysfonctionnements. Depuis, le terme s'applique à tout dysfonctionnement informatique.)
Cependant, un langage assembleur demeure spécifique à chaque type de puce de traitement ou de
microprocesseur, si bien que les programmeurs devaient apprendre un nouveau style de programmation
chaque fois qu'ils travaillaient sur une machine de type différent.
Il était donc nécessaire de concevoir un langage où une seule instruction symbolique pourrait
représenter une séquence de plusieurs instructions en langage machine, et qui puisse fonctionner sur
différents types de machines.
Ces besoins ont entraîné le développement de langages évolués.

Langages évolués

HOUX S. Initiation à l’informatique Septembre 2002


115
Les langages évolués utilisent souvent des mots empruntés à l'anglais pour désigner des commandes, par
exemple, list, print, open, etc.
Celles-ci peuvent remplacer une séquence de dizaines ou de centaines d'instructions en langage
machine.
Les commandes sont entrées à l'aide du clavier, à partir d'un programme en mémoire, ou sur une unité
de stockage.
Elles sont ensuite interceptées par un programme, qui les traduit en langage machine.
Il existe deux types de programmes de traduction : les interpréteurs et les compilateurs.
Un interpréteur est un programme qui décode et exécute chaque instruction l'une après l'autre.
Ainsi, si le programme à traduire comporte plusieurs fois la même instruction, l'interpréteur la décode
puis l'exécute chaque fois qu'elle apparaît.
Les programmes interprétés fonctionnent donc plus lentement que les programmes en langage machine.
En revanche, les compilateurs traduisent le programme en langage machine avant l'exécution, si bien
que ces programmes fonctionnent ensuite comme s'ils étaient directement écrits en langage machine.
Évolution des ordinateurs

Aujourd'hui, les ingénieurs orientent leurs recherches vers une miniaturisation des ordinateurs : ils
essaient de graver le maximum de circuits dans des puces de plus en plus réduites.
Les chercheurs tentent également de fabriquer des ordinateurs encore plus rapides en utilisant au niveau
des circuits la supraconductivité, phénomène électrique observé à très basse température.
Beaucoup d'informaticiens rêvent aussi de concevoir des ordinateurs qui reproduiraient les mécanismes
de la pensée, et étudient dans ce but les ordinateurs à traitement parallèle, qui utilisent plusieurs puces
pour effectuer simultanément des tâches différentes.
En effet, le traitement parallèle permet, à un certain degré, d'approcher et d'évaluer les fonctions de la
pensée humaine.
Une autre tendance actuelle est le développement des réseaux informatiques, capables de transmettre
des données entre différents ordinateurs par le biais de lignes téléphoniques et de satellites.
Enfin, de nombreux travaux portent sur l'ordinateur «optique», qui ne répondrait pas aux impulsions
électriques, mais aux impulsions lumineuses, beaucoup plus rapides.6
Périphérique, en informatique, matériel relié à l’ordinateur par divers types de connexions, internes ou
externes, et contrôlé par son microprocesseur.
Une imprimante, un modem ou un joystick constituent ainsi des périphériques de l’ordinateur.
Chaque périphérique permet une utilisation supplémentaire des capacités de l’ordinateur.
C’est pourquoi un lecteur de disquette, un clavier, un écran ou une souris sont souvent considérés
comme des extensions du système et non comme des périphériques, car ils représentent les sources
principales d’entrée et de sortie de la plupart des ordinateurs.
Gestionnaire de périphérique
Un système informatique communique avec ses périphériques par l’intermédiaire d’un gestionnaire de
périphérique, également appelé pilote.

6"Ordinateur", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft Corporation. Tous


droits réservés.

HOUX S. Initiation à l’informatique Septembre 2002


116
Par exemple, un pilote d’imprimante assure la traduction des données de l’ordinateur en messages
intelligibles pour l’imprimante.
Dans la plupart des cas, le pilote est également chargé de la gestion du matériel de transmission.
Cependant, ces fonctions sont parfois dissociées : un gestionnaire de haut niveau prend en charge les
traductions de code, tandis qu’un autre, de bas niveau, assure la transmission physique.
Périphérique et système d’exploitation
L’utilisation d’un périphérique nécessite d’harmoniser son aspect matériel avec l’aspect logiciel du
système d’exploitation.
En effet, l’utilisation d’une nouvelle version de ce dernier peut entrer en conflit avec le gestionnaire de
périphérique installé, et le rendre ainsi en partie ou totalement inutilisable.
De la même manière, l’installation d’un nouveau gestionnaire de périphérique peut accroître les
performances d’un même matériel en optimisant, par exemple, la vitesse de transmission des données et
leur compatibilité avec le système.
La mauvaise configuration des périphériques est une source d’erreur système parmi les plus
importantes.
Ainsi, l’installation d’une carte vidéo peut rendre inutilisable une carte son qui fonctionnait parfaitement
jusqu’alors, simplement parce que ces deux cartes vont devoir utiliser la même interruption logique
(signal de demande d’attention envoyé au microprocesseur).
Dans ce cas, il suffit alors de définir une autre interruption.
Toutefois, les systèmes d’exploitation actuels ont tendance à déceler ce genre de problème, et essaient
de les corriger automatiquement.7
Mémoire (informatique), organe d’un ordinateur permettant d’enregistrer, de stocker et de restituer des
données.
Par extension, on parle de mémoire de masse pour désigner les unités de stockage externes d’un
ordinateur (disque dur, disquettes, etc.).
La mémoire est généralement constituée de circuits électroniques à base de semi-conducteurs.
Lorsqu’une application requiert une portion de la mémoire de l’ordinateur, elle en fait la demande au
système d’exploitation, qui se charge alors d’allouer au programme un espace mémoire.

7"Périphérique", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft Corporation. Tous droits
réservés.

HOUX S. Initiation à l’informatique Septembre 2002


117
On distingue deux types d’allocations : l’allocation statique, où la portion de mémoire demeure
attribuée au programme jusqu’à son achèvement, et l’allocation dynamique, où la mémoire réservée est
désallouée lors de l’exécution du programme.
La mémoire interne d’un ordinateur est séparée en deux sections : la mémoire morte, qui ne comporte
que des données accessibles en lecture, et la mémoire vive qui comprend des données accessibles en
lecture et écriture.
Mémoire morte (ROM)
La mémoire morte, encore appelée ROM (Read Only Memory), contient des données enregistrées qui ne
peuvent être modifiées par l’utilisateur.
Toutefois, il est possible d’écrire sur certains types de mémoire morte, désignés par les sigles PROM
(Programmable Read Only Memory) et EPROM (Erase Programmable Read Only Memory).
PROM
Une PROM autorise l’écriture de données grâce à un dispositif appelé programmateur PROM.
Lorsqu’une PROM est programmée, elle est dédiée à une fonction donnée et ne peut être reprogrammée.
La production des PROM n’étant rentable qu’à grande échelle, ce type de mémoire est notamment
utilisé lors de la phase de conception d’un logiciel.
EPROM
À la différence d’une PROM, une EPROM peut être effacée puis reprogrammée pour un autre usage.
On procède généralement à cet effacement en retirant le couvercle de protection de la puce puis en
soumettant le matériau semi-conducteur à un rayonnement ultraviolet.
Une EPROM s’avère fort utile pour charger une instruction en code machine dans un prototype de
logiciel lorsque le coût de fabrication de PROM se révèle trop onéreux.
En effet, bien que plus coûteuse qu’une PROM, la EPROM peut apparaître plus économique à l’usage,
si les modifications doivent être nombreuses.
Mémoire vive (RAM)
La mémoire vive, également nommée RAM (Random Access Memory), est une mémoire effaçable qui
peut être reprogrammée par l’utilisateur.
Il en existe essentiellement deux types : la RAM statique et la RAM dynamique.
RAM dynamique
La RAM dynamique est constituée de circuits intégrés contenant des condensateurs qui se déchargent au
cours du temps, si bien qu’une puce RAM doit être continuellement rafraîchie.
Durant ce rafraîchissement, elle ne peut être lue, ce qui provoque un ralentissement.
Malgré cet inconvénient, la RAM dynamique est beaucoup plus utilisée que la RAM statique, car plus
économique en raison de sa grande simplicité interne.
RAM statique
La RAM statique se compose de semi-conducteurs pourvus du circuit logique appelé bascule (flip-flop),
qui retient l’information stockée aussi longtemps qu’il est alimenté.
Une puce RAM statique n’enregistre à peu près qu’un quart des données stockées par une puce RAM
dynamique de complexité équivalente, mais en revanche, elle ne nécessite pas de régénération et s’avère
souvent plus rapide qu’une RAM dynamique.
Son utilisation est plutôt réservée à la mémoire cache, portion de mémoire vive dans laquelle sont
copiés des données ou des éléments de programmes fréquemment utilisés.

HOUX S. Initiation à l’informatique Septembre 2002


118
La RAM statique permet ainsi de conserver temporairement de l’information.

Unité centrale ou CPU, centre de contrôle et de calcul d’un ordinateur, qui interprète et exécute les
instructions.
Cette unité centrale de traitement, communément appelée CPU (Central Processing Unit), constitue par
définition le cerveau de l’ordinateur.
Les grands ordinateurs et les premiers mini-ordinateurs étaient dotés de nombreux circuits intégrés
représentant des unités centrales de traitement.
Puis les unités se sont progressivement concentrées, constituant désormais des puces miniatures,
appelées microprocesseurs.
On est ainsi parvenu à accroître la puissance de calcul de l’unité centrale sans augmenter sa taille ou le
nombre de ses composants, et aboutir à la fabrication de micro-ordinateurs personnels et de stations de
travail.
L’unité centrale de traitement peut charger, décoder et exécuter une instruction, mais peut également
transférer des informations depuis et vers d’autres ressources au travers de l’artère principale de
transfert appelée bus.
Ces différentes opérations sont réalisées en langage machine, langage binaire composé de suites
d’impulsions électrique.
Généralement, l’unité centrale de traitement désigne le microprocesseur, mais il n’est pas rare cependant
de voir appliquer le terme à l’ensemble formé par le microprocesseur et la mémoire (ou plus exactement
la mémoire vive et la mémoire cache), voire à l’ensemble de l’équipement situé dans le boîtier principal.
Base de données, en informatique, ensemble organisé de données.
Généralement, une base de données est contrôlée par un système de gestion permettant d’effectuer la
recherche, le tri ou la fusion de données, ainsi que toute autre requête relative à ces données.
Les bases de données comptent à l’heure actuelle de nombreux domaines de mise en pratique : gestion
de stocks, suivi commercial, gestion électronique de documents, gestion de clientèle, etc.
Parmi les systèmes de gestion de bases de données (SGBD), les plus courants sont ceux associés aux
bases de données relationnelles, où l’information est rangée dans des fichiers, sous forme de tables
composées de lignes et de colonnes.
Les lignes représentent les enregistrements (ensembles d’informations relatives à des rubriques
séparées), tandis que les colonnes correspondent aux champs (attributs spécifiques à un enregistrement).
Lorsque l’on effectue une recherche dans une base de données relationnelle, on peut associer
l’information d’un champ d’une première table à celle d’un champ d’une deuxième table, afin d’en
produire une troisième rassemblant certaines données des deux tables d’origine.
Par exemple, si une table contient les champs N° EMPLOYÉ, NOM, PRÉNOM et DATE-
EMBAUCHE, et qu’une autre table contient les champs SERVICE, N° EMPLOYÉ et SALAIRE, une
base de données relationnelle pourra associer les champs N° EMPLOYÉ des deux tables pour
rechercher certaines informations, telles que les noms de tous les employés ayant un certain revenu ou
les services de tous les employés embauchés après une date donnée.
En d’autres termes, une base de données relationnelle utilise les correspondances existant entre
plusieurs tables pour en définir de nouvelles.
Dans l’exemple précédent, le champ N° EMPLOYÉ joue en fait un rôle fondamental dans l’aspect
relationnel entre les données.

HOUX S. Initiation à l’informatique Septembre 2002


119
Celui-ci est généralement qualifié d’index ou de clé primaire simple.
Si cet index (ou clé) avait été composé de deux ou plusieurs champs, celui-ci serait alors nommé index
primaire composé.
En règle générale, les bases de données conçues pour les micro-ordinateurs sont relationnelles.
De nos jours, il existe de nombreux logiciels de gestion de base de données relationnelle : Access de
Microsoft, Paradox de Novell, Oracle de Oracle Systems, etc.
Nombre d’entre eux utilisent le langage SQL, langage d’interrogation, de mise à jour et de gestion de
bases de données relationnelles.
Lorsque l’on décide de créer une base de données relationnelle, il faut surtout veiller à définir
clairement ses caractéristiques.
Les données du problème doivent être énoncées avec précision et décidées en amont selon les besoins à
traiter, la réalisation et l’installation de la base de données s’avérant alors beaucoup plus souples.
En effet, une erreur de conception pourrait en générer d’autres bien plus graves lors de l’installation de
la base, allant parfois même jusqu’à la perte de certaines données.
C’est pourquoi des méthodes de conception de bases de données ont été mises au point afin d’éviter les
fautes : la méthode MERISE constitue ainsi l’une des méthodes les plus employées en entreprise, mais
d’autres comme HOOD, OOA ou encore REMORA sont également très présentes dans les milieux
industriels.

Fonction, touches de, en informatique, désigne les dix touches ou plus, nommées F1, F2, F3, etc.,
situées à gauche ou en haut du clavier, fréquemment utilisées pour des tâches spéciales prédéfinies par
la plupart des logiciels.
Une touche de fonction est utilisée par une application ou un système d'exploitation et permet soit un
raccourci pour une série de commandes courantes, soit d'accéder à une fonction qui n'est pas disponible
autrement.
Utilisée seule ou en combinaison avec une autre touche telle que Control ou Alt, une touche de fonction
permet par exemple d'activer l'aide en ligne, de quitter le programme, de déplacer le curseur, ou
d'activer un mode spécial (comme l'insertion ou l'impression).

Imprimante, périphérique permettant de transférer du texte ou des images sur du papier ou un


transparent.
Types d’imprimantes
On peut classer les imprimantes selon plusieurs critères.
La distinction la plus répandue s’effectue entre imprimantes avec impact ou sans impact.
Imprimantes avec ou sans impact
Les imprimantes avec impact frappent physiquement le papier, les exemples les plus courants étant les
imprimantes à marguerite ou à tulipe.
Ces deux types d’imprimantes portent un jeu complet de caractères, chacun d’eux étant situé à
l’extrémité d’une barre de frappe différente.
Toutes ces barres sont rattachées à un moyeu central de manière à former une rosace.
Les imprimantes sans impact regroupent tous les autres modèles d’imprimantes, et plus particulièrement
les imprimantes laser, thermiques et à jet d’encre.
HOUX S. Initiation à l’informatique Septembre 2002
120
Autres classifications
Il existe d’autres méthodes de classement des imprimantes.
La technologie d’impression permet de distinguer les imprimantes matricielles (dotées de matrices de
petites aiguilles), à jet d’encre, laser et, beaucoup plus rarement, à marguerite ou à tulipe.
On subdivise en outre les imprimantes matricielles selon le nombre d’aiguilles que comprend la tête
d’impression : 9, 18, 24, etc.
La formation des caractères est un autre critère de classement : les caractères peuvent être pleins, formés
de lignes continues (imprimantes à marguerite) ou bien composés de grilles de points (imprimantes
matricielles, imprimantes à jet d’encre et imprimantes thermiques).
On considère en règle générale que les imprimantes laser, bien qu’appartenant techniquement à la
catégorie des imprimantes matricielles, produisent des caractères pleins, les points étant extrêmement
petits et rapprochés.
La méthode de transmission peut être de type parallèle (transmission octet par octet) ou bien de type
série (transmission bit par bit).
Ces catégories sont définies selon la manière dont les données d’impression sont envoyées à
l’imprimante plutôt que suivant leurs propriétés mécaniques.
Enfin, l’impression peut être effectuée caractère par caractère (imprimantes matricielles, à jet d’encre,
thermiques et à marguerite), ligne par ligne (imprimantes à bande, à chaîne et à tambour, couramment
associées à de grands systèmes informatiques) ou page par page (imprimantes électrophotographiques,
comme les imprimantes laser).
On classe également les imprimantes en fonction de leur capacité d’impression : texte uniquement, ou
texte et graphique.
Les imprimantes texte, qui comprennent la plupart des imprimantes à marguerite et à tambour, ainsi que
certaines imprimantes matricielles et laser, ne peuvent reproduire que les caractères pour lesquels elles
disposent de grilles de comparaison.
Les imprimantes texte et graphique (matricielles à aiguilles, à jet d’encre, laser et autres) peuvent
reproduire tous les types d’images en «dessinant» chacune d’entre elles sous forme d’une grille de
points.
Pilote d’imprimante
Généralement, chaque imprimante est gérée par un logiciel appelé pilote, qui permet à d’autres
programmes d’utiliser cette imprimante sans devoir prendre en compte les spécificités de son matériel et
de son langage interne.
Grâce à ces pilotes, les programmes d’application peuvent ainsi communiquer simplement et toujours
de la même façon avec de nombreuses imprimantes.
Aujourd’hui, les interfaces utilisateurs graphiques proposent leurs propres pilotes d’imprimante, évitant
l’emploi d’un pilote propre aux applications qui tournent sous l’interface.
Interface, en informatique, point de connexion entre deux systèmes leur permettant d’échanger des
informations.
Sur un ordinateur, l’interfaçage intervient à différents niveaux, depuis l’interface visible avec
l’utilisateur, qui permet à ce dernier de communiquer avec les programmes, jusqu’aux interfaces
matérielles, moins apparentes mais indispensables, qui relient entre eux les composants de l’ordinateur.

Interfaces utilisateur

HOUX S. Initiation à l’informatique Septembre 2002


121
L’interface utilisateur représente l’ensemble de la conception graphique, des commandes et autres
éléments qui permettent de piloter l’ordinateur.
Les micro-ordinateurs possèdent trois principaux types d’interface utilisateur, pouvant coexister sur une
même machine.
Interface par ligne de commande
Sur un micro-ordinateur doté d’une telle interface, l’utilisateur tape au clavier les commandes, qui sont
alors transmises au programme qui réagit en conséquence.
Sur les machines gérées par le système d’exploitation MS-DOS, la ligne de commande est symbolisée
par l’invite A:\> ou C:\>.
Interface par menu
Selon l’interface par menu, employée par de nombreuses applications, les commandes sont envoyées au
programme par la frappe d’une lettre, d’un curseur, ou par un clic de souris.
Interface graphique
Sur un micro-ordinateur équipé d’une interface graphique, l’utilisateur sélectionne des commandes ou
lance des programmes en pointant à l’écran sur des icônes ou des menus, généralement à l’aide d’une
souris.
Les icônes sont de petites images représentant un objet manipulable à l’écran, dont l’aspect correspond à
sa fonction.
Par exemple, le symbole d’une corbeille indique la commande permettant de supprimer un fichier
inutile.
Ces icônes évitent ainsi de devoir se souvenir d’une commande clavier complexe.
Les menus sont des listes d’options parmi lesquelles l’utilisateur choisit celle correspondant à l’action
qu’il désire effectuer.
Un choix dans un menu conduit souvent à un second menu, ou à une boîte de dialogue permettant
d’affiner la commande.
Par ailleurs, l’interface graphique permet de diviser l’écran en plusieurs sections appelées fenêtres,
chacune contenant un document différent ou une autre vue du même document, et qui peuvent être
déplacées ou redimensionnées à loisir.
L’interface graphique offre donc à l’utilisateur un environnement agréable qui prend en compte de
nombreuses interactions avec l’ordinateur.
L’utilisateur, ainsi affranchi de la gestion de l’affichage, du clavier et de la souris, peut alors se
concentrer sur l’application elle-même.
Parmi les interfaces utilisateur graphiques, on peut citer celle du Macintosh, ou encore l’environnement
Windows, développé par la firme américaine Microsoft.
Autres types d’interface
À des niveaux logiciels moins visibles, on trouve au sein de l’ordinateur d’autres types d’interface,
comme celles reliant un programme au système d’exploitation ou le système d’exploitation au matériel.
Au niveau matériel, les interfaces rencontrées sont les dispositifs reliant les composants à l’ordinateur,
afin que l’information puisse circuler d’un point à un autre.
Par exemple, il existe des interfaces standardisées gérant la transmission de données (RS-232-C ou
SCSI), assurant l’échange de données entre ordinateurs et imprimantes, disques durs ou autres systèmes.

HOUX S. Initiation à l’informatique Septembre 2002


122
Au niveau conceptuel, les normes de communications et de réseaux, comme le modèle ISO/OSI,
combinent les définitions matérielles et logicielles permettant à des systèmes et à leurs périphériques de
communiquer entre eux.
Bien qu’il ne s’agisse pas à proprement parler d’interfaces physiques, ces normes standard peuvent être
considérées comme des interfaces.
Logiciel, ensemble de programmes informatiques assurant le fonctionnement d’un traitement particulier
de l’information.
Le logiciel est la traduction de l’anglais software.
Nature des tâches
Selon le type de travail exécuté par ses programmes, un logiciel peut être classé en deux grandes
familles : les logiciels système et les logiciels d’application.
Logiciel système
Un logiciel système contrôle le fonctionnement de l’ordinateur, jouant par conséquent le rôle de
première interface entre l’homme et la machine.
Il gère les travaux essentiels, mais souvent invisibles, relatifs à la maintenance des fichiers sur le disque
dur, à la gestion de l’écran, etc.
Un logiciel système constitue donc un système d’exploitation.
Logiciel d’application
Un logiciel d’application prend en charge la multitude des tâches plus ou moins spécifiques pour
lesquelles sont utilisés les ordinateurs.
Il peut effectuer du traitement de texte, de la gestion de base de données, mais également d’autres tâches
de gestion plus spécifiques comme la comptabilité, la paie, la gestion documentaire, etc.
Autres logiciels
Il existe deux catégories supplémentaires de logiciels, qui ne sont ni des systèmes d’exploitation ni des
applications : les logiciels de réseau, qui permettent à des groupes d’ordinateurs de communiquer, et les
logiciels relatifs aux langages de développement, qui fournissent aux programmeurs les outils
nécessaires à l’écriture des programmes.
Diffusion des logiciels
En marge de cette classification par tâches, on peut également ranger les logiciels selon leur méthode de
diffusion.
Il faut alors distinguer les logiciels commerciaux standard, développés et vendus essentiellement par des
détaillants (revendeurs ou grossistes) ou par de grandes chaînes de distribution pour les produits les plus
populaires, et les logiciels du domaine public, à distribution gratuite, qui comprennent le freeware, à
usage libre et sans droits à payer, et le shareware, dont l’usage régulier est assujetti au paiement d’une
somme modique à son créateur.
Le principe du shareware, relativement populaire dans les pays anglo-saxons, tend aujourd’hui à se
généraliser, en profitant des vecteurs de communication très étendus du réseau Internet.
On peut ainsi trouver des applications logicielles en shareware qui rivalisent avec certaines applications
commerciales du même domaine mais à un coût relativement plus intéressant, l’auteur proposant en
effet la plupart du temps des améliorations techniques intéressantes pour la licence achetée.

Microprocesseur, processeur miniature constitué d’un seul circuit intégré, sur lequel sont gravés des
milliers de transistors interconnectés.

HOUX S. Initiation à l’informatique Septembre 2002


123
Un microprocesseur se compose d’une tranche de silicium, communément appelée puce, mesurant
environ 0,5 cm de côté et 0,05 cm d’épaisseur.
Sur cette tranche sont gravés des milliers de transistors, qui permettent d’assurer la gestion et le
traitement de l’information.
Un microprocesseur constitue ainsi l’unité centrale de traitement d’un ordinateur, mais peut être
également utilisé dans de nombreuses autres applications.
Description d’un microprocesseur
Une puce d’ordinateur contient généralement une mémoire morte (ROM) — c’est-à-dire une mémoire
accessible seulement en lecture — et des registres, mémoires de taille réduite qui stockent
provisoirement le résultat d’une opération ou l’adresse d’une information à transférer (voir Mémoire).
Le microprocesseur d’un ordinateur regroupe donc une unité arithmétique et logique, réalisant les
opérations de calcul et de comparaison, et une unité de commande, gérant et contrôlant l’accès à la
mémoire.
Il dispose en outre d’une interface permettant d’être connecté à des mémoires externes ou d’autres
systèmes, si nécessaire.
Puissance d’un microprocesseur
On mesure la puissance d’un microprocesseur à la taille de ses registres, laquelle s’exprime en nombre
de bits.
Ce nombre s’est accru grâce aux progrès de la technologie des circuits intégrés : aujourd’hui, on trouve
sur le marché des microprocesseurs 8 bits, 16 bits, 32 bits et 64 bits.
Types de microprocesseurs
L’Intel 8080 fut notamment l’un des premiers microprocesseurs adaptés à un ordinateur individuel.
Il a fortement influencé l’architecture du Z80, et dans une moindre mesure, celle de la gamme des
microprocesseurs 80x86 (80286, 80386, 80486 et Pentium), que l’on trouve sur la grande majorité des
PC.
Les ordinateurs Macintosh sont équipés pour leur part de microprocesseurs Power PC, développés
conjointement par les firmes américaines Apple, IBM et Motorola.
Architectures RISC et CISC
Le jeu d’instructions d’un microprocesseur correspond à l’ensemble des instructions qu’il reconnaît et
peut exécuter.
Ce jeu comprend en particulier les instructions de bas niveau telles que l’addition, la soustraction, la
multiplication et la division.
Selon son jeu d’instructions, un microprocesseur peut présenter deux types d’architectures.
Les microprocesseurs RISC (Reduced Instruction Set Computing) sont munis d’un jeu d’instructions
réduit, mais pouvant être exécutées très rapidement.
Les microprocesseurs d’architecture CISC (Complex Instruction Set Computing) manipulent des
instructions complexes, mais qui sont effectuées à une vitesse relativement plus lente.
Ce second type d’architecture augmente la puissance de traitement au détriment de la rapidité.8

8"Microprocesseur", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft Corporation. Tous


droits réservés.

HOUX S. Initiation à l’informatique Septembre 2002


124
Modem, sigle de modulateur/démodulateur, appareil permettant à un ordinateur de transmettre des
données sur une ligne téléphonique.
Comme l'ordinateur fonctionne avec des données numériques (avec des signaux électriques séparés représentant
des 0 ou des 1), alors que la ligne est analogique (transporte des signaux à variation continue), le modem sert à
convertir les signaux digitaux en signaux analogiques et vice versa.
Lors de l'émission, le modem incorpore (module) le signal digital de l'ordinateur à une fréquence porteuse
continue sur la ligne.
À la réception, le modem extrait (démodule) l'information de la porteuse pour obtenir le signal digital que
l'ordinateur attend.
Les modems habituels travaillent à des vitesses allant de 300 à 9 600 bauds.
Lorsqu'on transmet sur des lignes louées, on peut aller jusqu'à 19 600 bauds avec sécurité.
Des vitesses plus élevées existent, mais sont limitées par les lignes téléphoniques elles-mêmes.
En plus de leurs capacités de transmission, les modems perfectionnés ont d'autres fonctions comme la
composition des numéros, la réponse automatique ou l'appel renouvelé jusqu'à réponse du correspondant.
Sans logiciels de communication, les modems ne sont d'aucune utilité pratique.9
Organigramme, en informatique, représentation graphique d'un algorithme.
Un organigramme est donc un diagramme qui montre le cheminement des données dans un programme ou dans
un système d'information, ainsi que les opérations pratiquées sur ces données lors des différentes étapes du
traitement.
Ces opérations sont représentées par des cases dont les formes sont normalisées : rectangles pour les calculs,
losanges pour les tests, parallélogrammes pour les entrées et les sorties de données.
Ces cases sont reliées entre elles par des lignes fléchées qui indiquent le cheminement.
L'organigramme est ainsi un outil graphique qui peut servir d'aide pour comprendre le fonctionnement ou le
comportement d'un programme donné.10
Exemple d'organigramme

Organigramme illustrant l'algorithme qui élève un nombre N à un exposant entier P en effectuant autant de multiplications
successives que nécessaire.

9"Modem", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft Corporation. Tous droits
réservés.

10"Organigramme", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft Corporation. Tous


droits réservés.

HOUX S. Initiation à l’informatique Septembre 2002


125
Pointage, dispositifs de, en informatique, dispositifs d’entrée agissant sur la position d’un pointeur à
l’écran.
Le dispositif de pointage le plus commun est la souris, mais il en existe beaucoup d’autres, comme le
stylet, le palet, le crayon optique, l’écran tactile et la manette de jeux.
Utilisés notamment pour concevoir des formes géométriques, ces dispositifs facilitent également
l’emploi de tous les logiciels situés dans des environnements graphiques comme Windows.
Un système de pointage regroupe diverses actions : sélection de diverses zones dans l’écran, validation
des boutons dans une boîte de dialogue, utilisation de commandes, contrôle de l’affichage du contenu
des menus déroulants et déplacement du pointeur ou du curseur.
Affiché généralement sur l’écran sous forme de rectangle ou de trait de soulignement clignotant, le
curseur est un indicateur spécial qui précise la position à laquelle les entrées sont insérées ou des
commandes effectuées.
Types de pointage
Pointage absolu
Un dispositif de pointage est dit absolu lorsque sa position correspond toujours à une position définie
d’un curseur sur l’écran.
Les bords de la surface de déplacement du dispositif sont alors associés aux bords correspondants de
l’écran ou d’une fenêtre de l’écran.
Si, par exemple, on place le stylet d’une tablette graphique sur le coin supérieur droit de la tablette, le
curseur se positionne sur le coin supérieur droit de l’écran ou de la fenêtre associée à la tablette.
Si l’on déplace ensuite ce stylet vers le coin inférieur gauche de la tablette, le curseur rejoint le coin
inférieur gauche de l’écran ou de la fenêtre.
Pointage relatif
Un dispositif de pointage est dit relatif lorsque le mouvement du curseur est lié au mouvement du
dispositif, mais non à sa position.
Par exemple, si un utilisateur soulève une souris pour la déposer à un autre emplacement de son bureau,
la position du curseur demeure inchangée car aucun mouvement n’a été détecté : la souris n’a en effet
pas subi de roulement.
En revanche, si l’utilisateur fait glisser sa souris, le curseur se déplace en fonction du glissement de la
souris sur la surface du bureau.
Exemples
Souris
Rendu populaire avec le Macintosh, pour lequel il est indispensable, la souris représente aujourd’hui le
dispositif de pointage le plus courant sur les ordinateurs personnels, grâce à l’avènement des interfaces
graphiques des systèmes d’exploitation MS-DOS, UNIX et OS/2.
Une souris se compose d’une boîte à fond plat conçue pour être prise d’une seule main, d’un ou de
plusieurs boutons sur la partie supérieure de cette boîte, d’un capteur directionnel (en général une bille)
sur la partie inférieure et d’un câble de liaison avec l’ordinateur.
En déplaçant la souris sur une surface plane, comme le bureau, l’utilisateur dirige un pointeur à l’écran.
La souris constitue un dispositif de pointage relatif, car il n’y a pas de limite physique à son aire
d’évolution, et parce que son placement à un endroit particulier ne se traduit pas par le placement du
pointeur à un endroit spécifique de l’écran : la correspondance s’effectue par mouvement et non par
position.

HOUX S. Initiation à l’informatique Septembre 2002


126
Pour sélectionner des éléments, ou choisir des commandes, il suffit de presser l’un des boutons de la
souris, action que l’on appelle cliquer.
Stylet
Également appelé stylo, le stylet est un dispositif de pointage généralement couplé avec une tablette
graphique.
Cette tablette, aussi connue sous le nom de tablette à numériser, se compose d’une tablette rectangulaire
de plastique mince, pourvue de circuits électroniques internes, et reliée au stylet par un cordon, bien
qu’il en existe sans fil.
Lorsque le stylet se déplace sur la tablette, sa position est transmise à l’ordinateur.
Pour dessiner ou pointer, l’utilisateur touche donc la surface de la tablette avec le bout du stylet.
Les sélections et les commandes s’effectuent en appuyant sur un bouton du stylet ou en appuyant une
extrémité du stylet contre la surface de la tablette.
Employé en ingénierie et en dessin industriel, ce dispositif de pointage est également préféré par les
designers et les créateurs, car ses résultats se rapprochent plus des illustrations faites à la main, tout en
permettant un meilleur contrôle manuel.
Palet
Utilisé avec une tablette graphique, le palet est un dispositif de pointage proche de la souris.
Il est constitué d’une partie en plastique transparent munie d’un réticule, à laquelle sont intégrés des
boutons de sélection et de commande.
Le réticule pointe sur un emplacement de la tablette graphique, qui est associé à un emplacement
spécifique de l’écran.
Le repère du palet étant situé sur une matière transparente, un utilisateur peut aisément reproduire un
dessin en plaçant l’original entre la tablette et le palet, et en suivant les traits du dessin avec le réticule.
Crayon optique
Le crayon optique est un dispositif de pointage où l’utilisateur tient devant l’écran un stylet en forme de
crayon, relié à l’ordinateur.
Il sélectionne les objets ou choisit les commandes en pressant ce stylet sur l’écran, ou en appuyant sur
un micro-interrupteur.
Le stylet contient des capteurs de lumière qui envoient un signal à l’ordinateur dès qu’ils détectent une
émission lumineuse : ce phénomène se produit lorsque, le stylet étant appuyé sur un pixel non noir de
l’écran, ce dernier est rafraîchi par le faisceau d’électrons.
En effet, l’écran de l’ordinateur n’est pas allumé en permanence, mais parcouru ligne après ligne par le
faisceau qui allume les pixels, le tout en environ 1/70 de seconde.
En notant très précisément l’instant où le faisceau est détecté par le crayon optique, l’ordinateur peut
alors calculer la position de ce crayon sur l’écran.
À la différence de l’écran tactile, le crayon optique ne requiert ni écran spécial ni dispositif
supplémentaire, mais a pour inconvénient de contraindre l’utilisateur à tenir longtemps la main près de
l’écran, ce qui devient rapidement fatigant.
Écran tactile
L’écran tactile est un dispositif de pointage ne nécessitant aucune pièce mobile : il s’apparente à un
écran classique d’ordinateur qui reconnaît la position d’un contact à sa surface.
En touchant ce type d’écran, l’utilisateur peut sélectionner une option ou déplacer un curseur.

HOUX S. Initiation à l’informatique Septembre 2002


127
Il existe trois grandes familles d’écrans tactiles. Le type le plus simple est constitué de lignes sensibles
qui déterminent la position du point touché en combinant des contacts horizontaux et verticaux.
Un autre modèle, plus précis, est doté d’une surface électriquement chargée et de capteurs situés autour
de l’écran qui, en détectant les interruptions électriques, repèrent exactement l’endroit du contact.
Enfin, une troisième sorte d’écran tactile intègre des diodes électroluminescentes (DEL) et des capteurs
infrarouges sur le pourtour de l’écran. Ces DEL et ces capteurs créent une grille infrarouge invisible qui
s’interrompt lors du contact du doigt de l’utilisateur sur l’écran.
Ce genre d’écran est souvent employé dans des environnements «pollués» où des agents contaminants
pourraient interférer avec le fonctionnement de certains autres types d’écrans tactiles.
La popularité des écrans tactiles apparaît limitée auprès des utilisateurs de micro-ordinateurs, qui
doivent tenir leurs mains levées pour pointer sur l’écran, ce qui se révèle très fatigant en utilisation
intensive.
En outre, ce dispositif de pointage n’offre qu’une résolution limitée, l’utilisateur ne pouvant atteindre
n’importe quel point de l’écran.
Néanmoins, il est fréquemment implanté dans des applications telles que les guichets automatiques et
les kiosques d’information, car la manipulation du pointage est très intuitive.
Manette de jeux
Familièrement appelé joystick ou manche à balai, la manette de jeux est un dispositif de pointage très
répandu dans les jeux vidéo sur ordinateur, mais également présent dans certaines applications
industrielles.
Elle se compose d’une base rectangulaire en plastique sur laquelle est fixée une poignée verticale.
Des boutons de contrôle sont situés sur la base, ou parfois au sommet de la poignée qui peut être maniée
dans toutes les directions pour diriger le mouvement d’un objet à l’écran.
Les boutons activent des fonctions variées qui se traduisent, en général, par des actions à l’écran.
Dans les jeux, le joystick permet de déplacer l’objet sur l’écran lorsque la poignée est actionnée et de
l’arrêter lorsqu’elle est relâchée.
Dans les applications industrielles, chaque position de la poignée correspond généralement à une
position précise de l’objet sur l’écran.
Autres dispositifs
Sur les ordinateurs portables, des dispositifs dérivés des précédents répondent au double impératif de
faible encombrement et d’ergonomie.
Le trackball est en quelque sorte une souris inversée : l’utilisateur fait tourner une petite bille enchâssée
dans le socle de l’appareil, en avant du clavier.
Le touch pad est une sorte de palette graphique fonctionnant avec des capteurs de pression qui détectent
la position du doigt de l’utilisateur sur un petit rectangle de plastique, dont chaque point correspond à un
point de l’écran.11
Programme, en informatique, suite d’instructions interprétées puis exécutées par un ordinateur.
Un programme peut désigner la version source tapée au clavier ou la version exécutable en langage
machine.

11"Pointage, dispositifs de", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft


Corporation. Tous droits réservés.

HOUX S. Initiation à l’informatique Septembre 2002


128
Programmes source et exécutable
Lorsqu’un programmeur conçoit un programme, il l’écrit généralement dans un langage évolué en le
tapant au clavier de son ordinateur.
Ce programme source, qui doit comprendre toutes les instructions et les fichiers nécessaires à son
interprétation, est ensuite compilé en un ensemble d’instructions écrites en langage machine, suivant un
format qui en autorise le chargement en mémoire et l’exécution.
Cette nouvelle version du programme source, appelée programme exécutable, est alors prête à
fonctionner.
En interdisant l’accès aux instructions codées en langage machine, un programme exécutable conserve
en son sein la confidentialité des algorithmes mis au point par le programmeur.
Ainsi, une application de traitement de texte constitue un programme exécutable : l’utilisateur n’a pas
besoin de modifier le programme pour l’exécuter, et quand bien même il le désirerait, il n’en aurait pas
la possibilité.
Développement d’un programme
La réalisation ou développement d’un programme passe par une phase conceptuelle incontournable
durant laquelle le programmeur, appelé encore développeur, écrit ce programme au moyen
d’instructions appartenant au langage de programmation choisi.
Mais le seul fait de connaître un langage n’implique pas forcément la création d’un bon programme.
Des connaissances supplémentaires peuvent en effet être nécessaires, telles que la maîtrise de la théorie
des algorithmes, la conception de l’interface utilisateur, etc.
Ainsi, un programme est souvent qualifié d’«élégant» lorsqu’il se distingue par la clarté de son
fonctionnement et la finesse de sa conception, alors qu’un programme présentant une structure
embrouillée et maladroite est dit «boîteux».
La programmation adoptée dépend souvent du type d’application que l’on souhaite développer, ce choix
prenant en compte, suivant les cas, des critères de rapidité, de facilité au graphisme ou au calcul, etc.
Il existe de nombreux types de programmation couramment employés, parmi lesquels on peut
mentionner les programmations ascendante, descendante, linéaire, logique, modulaire, structurée et
orientée-objet.
Programmation ascendante
Dans ce type de programmation, les fonctions de plus bas niveau sont développées, programmées et
testées en premier, puis assemblées pour former les fonctions de niveau plus élevé.
Programmation descendante
Suivant cette méthodologie, on commence par définir les fonctionnalités du programme à son niveau le
plus élevé pour subdiviser ensuite chacune d’entre elles en tâches de niveau inférieur.
Programmation linéaire
La programmation linéaire correspond à l’écriture de programmes permettant de déterminer les
solutions optimales de systèmes d’équations ou d’inéquations linéaires.
Programmation logique
En programmation logique, un programme se compose de faits et de relations logiques, aboutissant à
des conclusions par déduction.
Le langage de programmation Prolog permet ainsi de développer un programme selon ce type de
programmation.
Programmation modulaire

HOUX S. Initiation à l’informatique Septembre 2002


129
En programmation modulaire, un programme est décomposé en plusieurs modules qui sont compilés
séparément.
Chaque module exporte des éléments spécifiés (constantes, types de données, variables, fonctions,
procédures), tous les autres demeurant internes au module.
Les modules clarifient et régularisent les interfaces entre les grandes parties du programme, favorisant
par conséquent la fiabilité de l’ensemble.
Programmation structurée
Un programme écrit en programmation structurée présente un déroulement net, une conception claire et
un certain degré de structure hiérarchique.
Ce type de programme offre plusieurs avantages, comme celui d’être facilement compréhensible et
modifiable par d’autres programmeurs.
Programmation orientée-objet
Selon cette méthodologie, un programme est considéré comme un ensemble d’objets distincts,
constitués eux-mêmes d’ensembles de structures de données et de routines intégrées.
Chaque objet appartient à une classe qui définit les structures de données et les routines qu’il contient.
Si, par exemple, on crée une classe nommée «Cartable», l’objet «Mon Cartable» faisant partie de la
classe «Cartable» est appelé instance de «Cartable».
Toute classe peut donc être utilisée comme variable dans ce type de programme, dont les objets ainsi
définis interagissent les uns avec les autres.
Utilisation de macros
De nombreux programmes comprennent des macro-instructions, séquences d’instructions prédéfinies
auxquelles on accède par une combinaison de touches ou par une commande très simple.
Ces macros offrent l’avantage de supprimer les manipulations répétitives et d’accéder plus facilement
aux opérations courantes.
L’application emploie parfois des macros comportant des instructions conditionnelles, permettant à
l’utilisateur d’en contrôler le résultat.12
Protection contre la copie, en informatique, «verrouillage» logiciel, dressé par un développeur sur un
programme pour en empêcher la copie et la distribution sans autorisation.
La protection contre des copies pirates exige souvent un stockage particulier du programme sur
disquettes pour empêcher le système d'exploitation de pratiquer une copie ordinaire.
Très répandue au début des années 1980, la protection contre les copies pirates est progressivement
abandonnée lorsque l'usage des disques durs se généralisa et rendit plus difficile le transfert des schémas
de prestation.
Sécurité informatique, ensemble des mesures prises pour protéger un ordinateur et les données qu'il
contient.
La sécurité informatique dépend du type de système et de l'importance des informations.
Sur les grands systèmes, ou sur ceux où sont traitées des données financières ou confidentielles, elle
nécessite l'intervention d'un personnel possédant une expertise à la fois légale et technique.

12"Programme", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft Corporation. Tous


droits réservés.

HOUX S. Initiation à l’informatique Septembre 2002


130
Sur un micro-ordinateur, la sécurité est plus accessible. La protection peut être obtenue par sauvegarde
des fichiers dans un local séparé.
L'intégrité est assurée à la fois par l'usage de mots de passe, par l'interdiction d'écriture, par un
verrouillage physique du disque dur, par le maintien des informations sensibles sur des disquettes
rangées dans un local séparé, et par l'utilisation de programmes de défense contre les virus.
Lorsqu'un grand nombre de personnes ont accès à l'ordinateur, la sécurité nécessite des restrictions
d'accès par mots de passe sélectifs.
Stockage, unités de, en informatique, supports physiques où sont conservées des données.
Un disque dur, une disquette ou la mémoire d’un ordinateur constituent des unités de stockage.
Stockage temporaire ou permanent
Un micro-ordinateur possède deux types principaux de stockage. Sa mémoire vive (RAM) est utilisée
comme unité de stockage temporaire par le microprocesseur, qui s’en sert pour les programmes, le
travail en cours et différentes informations internes de contrôle des tâches.
Les lecteurs de disques et autres supports externes permettent de conserver l’information de manière
plus permanente.
À ces unités de stockage s’ajoutent d’autres types de support comme la mémoire morte (ROM) de
l’ordinateur qui représente un support permanent et non effaçable.
Temps d’accès
Le temps d’accès d’une unité de stockage correspond au temps que met l’unité pour répondre à une
requête de lecture ou d’écriture.
Ce temps, généralement mesuré en millisecondes (ms), couvre l’intervalle entre le moment où est émise
la requête de lecture ou d’écriture et le moment où est reçue l’information signalant le succès ou l’échec
de la requête.
Durant cet intervalle de temps, l’unité de disque déplace le bras d’accès à l’endroit approprié de la
surface du disque, positionne la tête de lecture/écriture et attend que les secteurs concernés se présentent
sous la tête pour effectuer l’opération.
Le temps d’accès est souvent donné comme indicateur de la vitesse du disque : un temps d’accès
inférieur à 30 ms est considéré comme rapide; un temps supérieur à 60 ms est considéré comme lent.
Types d’unités de stockage
Disque dur
Le disque dur d’un ordinateur se compose d’un ensemble de plateaux circulaires coaxiaux, recouverts
d’une couche de matériau magnétique qui permet l’enregistrement de données.
Un disque dur ordinaire comporte un à huit plateaux tournant à la vitesse de 3 600 t/m, ses têtes de
lecture/écriture se déplaçant à la surface des plateaux sur un coussin d’air d’épaisseur comprise entre 0,2
et 0,5 µ.
Les plateaux et le mécanisme de lecture sont enfermés dans une coque étanche qui les isole de la
poussière ambiante.
Un disque dur offre un accès beaucoup plus rapide qu’une disquette et peut enregistrer de grandes
quantités de données. Les disques durs actuels ont une capacité de stockage de l’ordre d’un gigaoctet.
Disque virtuel
Un disque virtuel est un disque dur simulé dont les données sont en fait stockées dans la mémoire vive
de l’ordinateur, donnant l’illusion de la présence d’un disque dur supplémentaire au système
d’exploitation.
HOUX S. Initiation à l’informatique Septembre 2002
131
Ainsi, ce dernier lit et écrit sur le périphérique simulé, tandis que le programme stocke et récupère les
données de la mémoire.
Comme l’ordinateur n’a pas besoin d’attendre la réponse du disque, la lecture et l’écriture sont
beaucoup plus rapides.
Toutefois, les données qui sont stockées sur ce disque disparaissent lors de la coupure (accidentelle ou
volontaire) de l’alimentation du système.
Sous peine de disparaître, le contenu d’un disque virtuel doit donc être copié sur un disque physique
avant l’arrêt de la machine.
Disquette
Une disquette est un disque souple de polyester enduit d’oxyde ferrique, substance capable de conserver
une aimantation.
Le revêtement magnétique de ce disque devant être protégé de toute altération, une disquette est
généralement enveloppée dans une jaquette de protection en plastique.
Les données sont écrites sur le disque par la tête de lecture/écriture de l’unité de disquette, qui modifie
le sens de l’orientation des particules d’oxyde ferrique.
L’une des orientations représente un 1 tandis que l’orientation opposée indique un 0.
On distingue deux types principaux de disquettes : les disquettes de diamètre de 5 pouces 1/4 qui ont
quasiment disparu aujourd’hui, et les disquettes de diamètre de 3 pouces 1/2 en jaquette rigide, qui sont
les plus courantes.
L’utilisation des disquettes comme support de sauvegarde est toutefois limitée à sa relative lenteur de
traitement et surtout à sa faible capacité de stockage.
Selon sa capacité nominale, une disquette peut contenir de quelques centaines de milliers à plus d’un
million d’octets.
Autres supports
Plusieurs techniques permettent d’enchâsser un disque dur dans un boîtier léger à peine plus
volumineux qu’une disquette utilisable dans une unité spécialisée.
Les modèles courants offrent des capacités de 100 mégaoctets à 1 gigaoctet.
Des capacités de stockage de plus en plus importantes sont obtenues grâce à la technologie du disque
compact (CD-ROM, WORM, DUD), qui permet un temps d’accès très court.
es supports ne peuvent être gravés qu’une seule fois et se prêtent donc surtout à l’enregistrement de
données stables (logiciels, archives).13

13"Stockage, unités de", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft


Corporation. Tous droits réservés.

HOUX S. Initiation à l’informatique Septembre 2002


132
Le système d’exploitation d’un ordinateur constitue le socle sur lequel sont bâties les applications,
comme les traitements de textes ou les tableurs : sans lui, la communication avec l’ordinateur serait
impossible, puisqu’il sert d’interface de commande avec la machine.
Monotâches et multitâches
Il existe deux types de systèmes d’exploitation : les systèmes monotâches, qui ne peuvent exécuter
qu’une tâche à la fois, et les systèmes multitâches, qui permettent d’effectuer plusieurs tâches
simultanément.
On peut distinguer plusieurs sortes de cette seconde catégorie.
Le changement de contexte est un type très simple de système multitâche dans lequel plusieurs
applications sont chargées simultanément, mais où seule l’application de premier plan se voit attribuer
un temps de traitement : pour activer une tâche de fond, l’utilisateur doit donc amener au premier plan
la fenêtre contenant cette application.
En multitâche coopératif, dont le système Macintosh est le parfait exemple, les tâches de fond ont accès
au processeur durant les temps d’attente de la tâche de premier plan (comme lorsque l’application attend
une frappe de touche), et seulement si l’application l’autorise.
En multitâche partagé, le microprocesseur accorde du temps à chaque tâche pendant une fraction de
seconde.
Pour maintenir l’ordre, un niveau de priorité est attribué aux tâches, ou bien celles-ci sont traitées de
manière séquentielle, les unes à la suite des autres.
Comme l’utilisateur a une notion du temps peu comparable à la vitesse du processeur, les opérations
réalisées en multitâche partagé lui semblent simultanées.
Exemples
MS-DOS, OS/2 et UNIX sont les systèmes d’exploitation les plus répandus, certains étant monotâches
et d’autres multitâches.
MS-DOS
Sigle de Microsoft Disk Operating System, MS-DOS est un système d’exploitation monotâche de la
société Microsoft.
Comme d’autres systèmes, MS-DOS supervise les opérations telles que la lecture/écriture sur disque,
l’affichage vidéo, le contrôle du clavier ou des systèmes de pointage, mais gère également de
nombreuses autres tâches relatives à l’exécution des programmes et à la maintenance des fichiers.
MS/DOS est un système d’exploitation mono-utilisateur.
L’interface graphique Windows offre à l’utilisateur la souplesse d’un système multitâche à changement
de contexte.
OS/2
OS/2 est un système d’exploitation multitâche partagé, adapté aux ordinateurs personnels construits à
partir des microprocesseurs Intel 80286, 80386 et 80486.
Ce système peut utiliser la plupart des applications MS-DOS grâce à une session spéciale appelée boîte
de compatibilité, et peut lire toutes les disquettes MS-DOS.
Les sous-systèmes importants d’OS/2 comprennent Presentation Manager, qui procure une interface
utilisateur graphique, et LAN Manager, qui fournit des utilitaires de réseau (programmes de gestion de
réseaux informatiques). OS/2 est un produit développé par la firme IBM.
UNIX
Système d’exploitation multiposte et multitâche, UNIX fut développé originellement en 1969 par Ken
Thompson et Dennis Ritchie, aux Laboratoires AT&T Bell, afin d’être utilisé sur des mini-ordinateurs.
HOUX S. Initiation à l’informatique Septembre 2002
133
Ce système existe aujourd’hui sous diverses formes, parmi lesquelles la version développée pour
l’université Berkeley en Californie, connue sous le nom de version BSD, et les versions
commercialisées par AT&T, la plus récente étant AT&T System V.
UNIX est considéré comme un système d’exploitation puissant qui, du fait de son noyau écrit en
langage de programmation C, est plus portable (moins spécifique à une machine donnée) que d’autres
systèmes d’exploitation.
Il existe également plusieurs formes apparentées, en particulier AIX (version adaptée par IBM pour
fonctionner sur les stations de travail à base de RISC (voir Microprocesseur), A/UX (version graphique
destinée aux Macintosh) et Mach (système d’exploitation réécrit mais fondamentalement compatible
avec UNIX, destiné à l’ordinateur NeXT).14
Tableur, programme d'application couramment utilisé pour l'établissement d'un budget, la planification,
et d'autres tâches comptables.
Dans un tableur, les données et les formules se présentent sous forme de tableaux de type grand-livre
(appelés feuilles de calcul) et permettent l'analyse, le suivi ou l'évaluation prospective de l'impact de
changements réels ou éventuels sur une situation donnée.
Les tableurs utilisent des lignes et des colonnes de cellules, chaque cellule contenant du texte, des
données numériques, ou des formules utilisant des valeurs d'autres cellules pour calculer un résultat
souhaité.
Pour faciliter le calcul, les tableurs disposent de fonctions intégrées qui exécutent des calculs standard.
Selon le programme, une seule feuille de calcul peut contenir de quelques milliers à quelques millions
de cellules.
Certains tableurs peuvent également lier plusieurs feuilles de calcul entre elles, et mettre
automatiquement à jour les données des feuilles ainsi liées.
Les tableurs peuvent également inclure des macros, et certains d'entre eux peuvent être utilisés pour la
création et le tri de bases de données.
Ils disposent, en outre, d'une grande variété de présentations graphiques des données numériques sous
forme de diagrammes et, à l'impression, offrent une vaste gamme d'options de mise en page et de
définition des légendes de ces diagrammes.15
Unité centrale ou CPU, centre de contrôle et de calcul d’un ordinateur, qui interprète et exécute les
instructions.
Cette unité centrale de traitement, communément appelée CPU (Central Processing Unit), constitue par
définition le cerveau de l’ordinateur.
Les grands ordinateurs et les premiers mini-ordinateurs étaient dotés de nombreux circuits intégrés
représentant des unités centrales de traitement.
Puis les unités se sont progressivement concentrées, constituant désormais des puces miniatures,
appelées microprocesseurs.

14"Système d'exploitation", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft


Corporation. Tous droits réservés.

15"Tableur", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft Corporation. Tous droits
réservés.

HOUX S. Initiation à l’informatique Septembre 2002


134
On est ainsi parvenu à accroître la puissance de calcul de l’unité centrale sans augmenter sa taille ou le
nombre de ses composants, et aboutir à la fabrication de micro-ordinateurs personnels et de stations de
travail.
L’unité centrale de traitement peut charger, décoder et exécuter une instruction, mais peut également
transférer des informations depuis et vers d’autres ressources au travers de l’artère principale de
transfert appelée bus.
Ces différentes opérations sont réalisées en langage machine, langage binaire composé de suites
d’impulsions électriques.
Généralement, l’unité centrale de traitement désigne le microprocesseur, mais il n’est pas rare cependant
de voir appliquer le terme à l’ensemble formé par le microprocesseur et la mémoire (ou plus exactement
la mémoire vive et la mémoire cache), voire à l’ensemble de l’équipement situé dans le boîtier
principal.16
Virus (informatique), programme susceptible d’entraîner des perturbations dans le fonctionnement
d’un ordinateur en dénaturant ses programmes exécutables ou ses fichiers système.
Un virus informatique se transmet généralement par l’intermédiaire de disquettes ou encore par
téléchargement.
La plupart des virus informatiques ajoutent quelques lignes de commandes dans le fichier cible
lorsqu’ils sont chargés en mémoire.
Ces commandes ont généralement pour conséquence de ralentir ou d’empêcher l’exécution, voire de
détruire certains fichiers.
La seule manière de s’en prémunir efficacement consiste à tester toute nouvelle information insérée
dans la machine au moyen d’un logiciel antivirus.
Néanmoins, de nouveaux virus apparaissant chaque jour, ce logiciel se doit d’être le plus récent et le
plus actualisé possible, sachant qu’il existe toujours un délai entre l’apparition d’un nouveau virus et
l’élaboration de la parade.
Actuellement, il existe de nombreux types de virus informatiques, toujours plus sournois et moins
visibles.
Un virus capable de se propager à travers des réseaux informatiques est parfois appelé ver, en particulier
lorsqu’il se compose de plusieurs segments dispersés à travers le réseau. Un «cheval de Troie» est un
dangereux virus se présentant sous la forme d’un programme utile, par référence au célèbre cheval de
Troie de la mythologie grecque.
En cours d’exécution, ce type de virus met en œuvre des actions destructrices à l’encontre du système,
alors qu’il paraît accomplir une tâche totalement anodine.
Un virus peut rester dans la mémoire de l’ordinateur, constituant dans ce cas un programme terminate-
and-stay-resident (TSR) : on dit alors qu’il s’agit d’un virus résident mémoire. Il peut en outre être
encrypté, rendant ainsi sa détection et sa résorption plus délicates.
Enfin, il peut être polymorphe, évitant d’être décelé grâce à un changement interne de sa structure.17

16"Unité centrale", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft Corporation. Tous
droits réservés.

17"Virus (informatique)", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft


Corporation. Tous droits réservés.

HOUX S. Initiation à l’informatique Septembre 2002


135
World Wide Web (WWW), interface la plus communément utilisée sur le réseau télématique Internet.
Le World Wide Web, que l’on pourrait traduire en français par «toile d’araignée mondiale», a permis
d’ouvrir le réseau Internet au grand public en facilitant la consultation des sites.
Il offre aux utilisateurs la possibilité de consulter en temps réel une vaste étendue d’informations,
présentées sous forme d’archives de magazines, de pages de livres de bibliothèques publiques et
universitaires, de documentation à usage professionnel, etc.
Origine
Le World Wide Web, appelé plus couramment le Web, fut développé en 1991 par l’informaticien
britannique Timothy Berners-Lee, chercheur du Laboratoire européen de physique des particules
(CERN) à Genève. Au départ, cette interface avait pour but de favoriser le partage d’informations entre
des équipes de chercheurs dispersées dans le monde entier.
Mais rapidement, le Web fit office de plate-forme internationale pour le développement de logiciels
apparentés, tandis que le nombre d’ordinateurs et d’utilisateurs connectés s’accrut considérablement.
Aujourd’hui, le rôle principal du Web est d’être la «fenêtre» d’Internet.
Son développement est géré par le consortium WWW situé au Massachusetts Institute of Technology
(MIT).
Mode d’emploi
Les pages du World Wide Web, ou plus simplement pages Web, sont organisées de telle sorte que les
utilisateurs peuvent facilement se déplacer de page en page à l’aide de l’hypertexte et de l’hypermédia
par un système de «saut» d’une information à l’autre .
Représentées physiquement par des serveurs (ordinateurs sur lesquels tourne le logiciel d’administration
du réseau), les connexions aux différents sites sont établies de manière automatique et transparente par
l’utilisateur.
Ce dernier se promène (on dit qu’il «navigue») généralement sur les sites du Web à l’aide d’une
application appelée navigateur ou browser.
Ce navigateur présente le texte, les images, le son et les autres éléments d’information sur un écran
d’ordinateur, sous la forme d’une page obtenue depuis un serveur Web.
L’utilisateur peut alors naviguer à travers les informations en pointant le curseur de sa souris sur du
texte ou sur d’autres icônes mises en évidence à l’écran, qui le relient à d’autres pages Web du même
serveur ou de tout autre serveur Web accessible sur le réseau Internet.
Ces liens hypertexte du Web existent à travers tout le réseau, constituant une base de connaissances
multimédias distribuée à grande échelle.18

18"World Wide Web (WWW)", Encyclopédie® Microsoft® Encarta 98. © 1993-1997 Microsoft
Corporation. Tous droits réservés.

HOUX S. Initiation à l’informatique Septembre 2002

Vous aimerez peut-être aussi