MENU
Les deux types de logiciels sont les systèmes d’exploitation et les logiciels d’applications.
Le logiciel d’application accepte les entrées de l’utilisateur puis il les manipule pour obtenir un
résultat. Ce résultat est connu sous le nom de sortie. Les applications sont des programmes
conçus pour effectuer une fonction spécifique pour l’utilisateur ou pour un autre programme
d’application. Des exemples d’applications sont les traitement de textes, les bases de
données, les tableurs, les navigateurs, les outils de développement Internet et les outils de
conception graphique. Les applications informatiques seront détaillées plus loin dans ce
module.
Un système d’exploitation (OS) est un programme qui contrôle tous les autres programmes de
l’ordinateur. Il fournit également l’environnement de fonctionnement pour les applications
utilisées pour accéder aux ressources de l’ordinateur. Le système d’exploitation effectue des
taches basiques telles que la reconnaissance des entrées au clavier ou de la souris, l’envoi
des sorties sur l’écran vidéo ou sur l’imprimante, garder trace des fichiers sur les lecteurs et
contrôler les périphériques telles que les imprimantes et les modems. Le Disk Operating
System (DOS), Windows 98, Windows 2000, Windows NT, Linux, Mac OS X, DEC VMS, et
IBM OS/400 sont tous des exemples de systèmes d’exploitation.
Les systèmes d’exploitation ont des plate formes spécifiques, ce qui veut dire qu’ils sont
conçus pour un type spécifique d’ordinateurs. Par exemple, le système d’exploitation Windows
est conçu pour les ordinateurs individuels compatibles IBM (PC). Le Mac OS, en revanche, ne
fonctionnera qu’avec des Macintosh. Le PC et le Macintosh s’appellent des plate formes. Une
plate forme est un système informatique sur lequel différents programmes peuvent
fonctionner.
Le firmware est un programme intégré dans une puce électronique plutôt que stocké dans une
disquette. Tout changement que ce soit de matériel ou de logiciel peut avoir pour
conséquence que le firmware devienne dépassé. Ceci peut mener à une panne matérielle, à
une erreur système, ou à la perte de données. Lorsque cela arrive, à des firmware anciens, la
seule solution consiste à le remplacer. Le firmware actuel est flashable, ce qui signifie que les
contenus peuvent être mis à jour ou flashés. Ce sujet sera traité plus en profondeur dans un
module ultérieur.
Deux types d’ordinateurs sont détaillés dans cette section. Le premier est le mainframe qui a
fourni la puissance de calcul pour les plus grandes entreprises depuis plus de 40 ans. Le
second est l’ordinateur personnel, qui a eu plus d’impact sur les gens et sur les entreprises
que n’importe quel outil dans l’histoire.
Mainframes
Les mainframes sont des machines puissantes qui permettent aux entreprises d’automatiser
des taches manuelles, de raccourcir le temps de mise sur le marché de nouveaux produits, de
faire fonctionner des modèles financiers qui améliorent la rentabilité, etc. Dans le modèle
mainframe il s’agit d’ordinateurs centralisés, souvent placés dans des pièces où la
température est régulée et constante. Les utilisateurs finaux communiquent avec l’ordinateur
via des terminaux non-intelligents. Ces terminaux sont des périphériques a bas coût
composés d’un moniteur, d’un clavier et d’un port de communication pour communiquer avec
le mainframe. Initialement, les terminaux étaient branchés directement aux ports de
communication sur le mainframe et les communications étaient asynchrones.
Un environnement mainframe est composé d’un seul ordinateur ou d’un groupe d’ordinateurs
qui peuvent être maintenus et gérés de manière centralisée. Cette configuration a l’avantage
supplémentaire d’être plus sure pour deux raisons. D’abord l’ordinateur est dans une pièce
sécurisée. Ensuite, la possibilité pour l’utilisateur final d’introduire des virus dans le système
est réduite. La protection et l’éradication virale coûtent aux sociétés des millions de dollars
tous les ans.
A son apogée à la fin des années 70 et au début des années 80, le marché du mainframe et
du mini ordinateur était dominé par IBM et par Digital Equipment Corporation. Le mini-
ordinateur est une gamme plus petite et moins chère de mainframes. Cependant, ces
machines très puissantes arrivèrent sur le marché a un prix extrêmement élevé. Le coût
d’entrée dans le marché du mainframe allait généralement de quelques centaines de dollars à
plusieurs millions de dollars. Le mini ordinateur commença à fournir des capacités similaires à
un prix inférieur, mais un mini ordinateur coûte souvent plus de dix mil dollars.
Autrefois, le terme mainframe faisait référence au boîtier dans laquelle on logeait le CPU.
Aujourd’hui il fait référence à un grand système informatique.
● Sauvegarde centralisée
● Un seul lieu de panne potentiel dans les configurations sans tolérance de pannes
PCs
Un ordinateur personnel (PC) est un appareil indépendant signifiant qu’il est indépendant de
tout autre ordinateur. Avec l’avènement du PC, l’interface graphique (GUI) a largement
conquis les utilisateurs.
GUI, (prononcé Gou-ii), utilise une présentation graphique pour représenter les procédures et
les programmes pouvant être exécutée par l’ordinateur. Un exemple remarquable est le
bureau Windows. Ces programmes utilisent habituellement de petites images, appelées des
icônes, pour représenter les différents programmes. L’avantage lorsqu’on utilise une GUI c’est
que l’utilisateur n’a pas besoin de se rappeler de commandes compliquées pour exécuter un
programme. Les GUI sont tout d’abord apparus chez les ordinateurs Xerox et Apple. Avec les
GUI, des milliers d’applications Windows ont été développées.
● Des périphériques peu coûteux et un coût d’entrée bas quand on les compare aux
mainframes
● Informatique répartie
● Les ordinateurs de bureau coûtent en moyenne 5 fois plus que les terminaux non-
intelligents, selon les estimations de l’industrie
● Les risques physique, d’accès aux données et viraux peuvent être plus importants Des
coûts de maintenance et de gestion élevés, bien qu’ils soient généralement moins élevés
que pour les mainframes.
Le PC est une machine indépendante qui peut être adapté à une utilisation familiale.
Cependant, les entreprises, les organisations gouvernementales et les écoles ont besoin
d’échanger des informations et de partager des équipements et des ressources. Les réseaux
locaux ont été développés pour connecter des ordinateurs individuels entre eux. Les
ordinateurs individuels en réseau sont désignés « stations de travail ».
Un réseau est un groupe d’ordinateurs qui sont connectées pour partager des ressources. Les
ordinateurs utilisés par les étudiants, professeurs et personnel administratif dans une école
sont connectés via les réseaux. Ceci permet d’économiser sur l’achat des périphériques de
chaque ordinateur. Par exemple, l’imprimante du laboratoire informatique est partagée par
tous les étudiants. Un réseau permet aussi aux utilisateurs de partager des fichiers. Si on
Les réseaux ne sont pas seulement limités à un bâtiment ou à un campus scolaire. Les
réseaux peuvent couvrir tout un secteur scolaire ou tous les bureaux d’une société. Une école,
par exemple, est connectée à un bureau principal de zone, comme le sont toutes les autres
écoles dans la zone. Internet est le réseau ultime parce qu’il connecte des millions de plus
petits réseaux.
La plupart des connections sont faites par câble. Cependant, les connections sans fil
deviennent de plus en plus populaires. Les câbles sont capables de transporter la voix, des
données ou les deux. Les maisons peuvent aussi avoir des modems qui se branchent sur les
prises téléphoniques. La ligne téléphonique transporte des signaux vocaux lorsque le
téléphone est branché à la prise jack du téléphone, mais transporte des signaux de données,
qui sont encodées pour qu’elles ressemblent à des signaux de voix, quand le modem est
connecté. Il y a d’autres connections à Internet disponibles, plus rapides. Ces connections
incluent la ligne numérique d’abonné DSL (Digital Subscriber Signal), le câble et les lignes T1,
T3 ou E1. Dans certaines parties du globe le Réseau Numérique à Intégration de Services
(RNIS), en anglais ISDN (Integrated Services Digital Network) est aussi utilisé. La plupart de
ces technologies sont utilisées par les entreprises en raison de leur coût. Certains des services
à haute vitesse ne sont disponibles que dans un périmètre limité. Cependant, les améliorations
dans les périphériques de communication et une demande toujours croissante de liens à haute
vitesse signifiera que beaucoup d’utilisateurs devraient avoir accès à ces connections à
Internet dans les années à venir.
Le DoD finança des sites de recherche à travers les Etats-Unis. En 1968 l’Agence de
Recherches des Projets Avancés (ARPA) passa un contrat avec la société Bolt, Beranek et
Newman (BBN), pour construire un réseau. Ce réseau était basé sur la technologie de
commutation de paquets qui avait été développé pour obtenir de meilleures transmissions de
données informatiques.
Pendant la dernière moitié des années 80, la mise en réseau augmenta considérablement. Par
exemple, la Fondation Nationale pour la Science (NSF) créa des centres avec des super-
calculateurs aux Etats-Unis à Princetown, à l’Université de Californie, l’Université de l’Illinois et
à l’Université de Cornell. L'Internet Engineering Task Force (IETF) a aussi été crée à cette
époque. Vers 1987, il y avait 10 000 ordinateurs sur le réseau et en 1989, le nombre dépassa
les 100 000.
Les années 90 virent l’explosion du commerce sur Internet. Étant donné que de plus en plus
d’étudiants, d’universitaires, d’utilisateurs privés et de sociétés de toute taille se connectèrent,
le monde des affaires a saisi l’opportunité d’atteindre un marché important et en expansion.
Vers 1995, la publicité en ligne devint populaire, la banque en ligne était arrivée et on pouvait
même commander des pizzas sur Internet.
Les cinq dernières années du siècle engendrent des développements majeurs de manière
quasi journalière. L'échantillonnage audio et vidéo, les technologies « push », la
programmation de scripts Java et Activex ont tiré profit des performances de connexion qui
étaient disponibles à des prix de plus en plus bas. Les nom de domaine sont devenus de
grosses affaires, avec, en particulier des noms spécifiquement recherchés qui se sont vendus
pour plus d’un million de dollars américains. Aujourd’hui, coexistent des millions de sites sur le
World Wide Web, des millions de serveurs participant à cette grosse toile.
Pendant que la technologie des ordinateurs et des réseaux a évolué ces dernières décennies,
le coût de cette technologie de plus en plus sophistiquée a chuté de manière drastique. Ces
prix en baisse sont partiellement à l’origine de l’augmentation des solutions de connexion
dans le monde des affaires ainsi que dans la vie privée des gens.
Dans les années 70 et 80, le PC coûtait plusieurs milliers de dollars. Les services en ligne
existaient mais très chers . Seules les grosses entreprises et les plus riches pouvaient se
Aujourd’hui, aux États Unis un utilisateur peut acheter un système informatique pour moins de
1 000 dollars qui est capable de faire beaucoup mieux. Un tel système peut avoir des
performances bien supérieures aux mainframe d’il y a 20 ans, qui coûtaient 500 000 dollars.
L’accès Internet à la vitesse équivalent au T1 est disponible pour les abonnés au DSL ou par
modem à 30 ou 40 dollars par mois et les prix sont constamment en baisse. L’accès de base
à Internet à 56 kilobits par seconde (kbps) peut être souscrit pour beaucoup moins cher, voire
gratuit, à condition d’accepter des messages publicitaires sur l’écran.
Allumer le PC.
Pour allumer un PC, il y a un interrupteur externe ou une paire d’interrupteurs qui doivent être
activés. de façon à allumer l’ordinateur. L’interrupteur arrière, quand il existe, permet la
connexion physique entre la prise secteur et l’alimentation du PC. Cet interrupteur doit être
allumé avant l’interrupteur devant. La plupart des ordinateurs ont le seul interrupteur en façade
qui permet de l’allumer.
Dans la plupart des cas, les écrans ont aussi un interrupteur pour la mise en route.
Généralement, il se situe sur la partie inférieure droite du moniteur. Ils ont la forme de boutons
poussoirs ou d’interrupteurs. Ils sont fabriqués pour résister à des milliers de fois et ils ont une
durée de vie supérieure au PC.
Arrêter l’ordinateur.
Pour éteindre l’ordinateur, cliquer sur le bouton Démarrer dans le coin en bas à droite de la
barre de tâches et sélectionner la touche Éteindre. Appuyer successivement sur Ctrl+Alt+
Delete et cliquez sur Arrêter dans le menu qui s’affiche. Une autre alternative consiste à
actionner Ctrl-Alt-Suppr et cliquer sur Arrêter.
N’éteignez pas l’ordinateur avant qu’un message vous indique que vous pouvez le faire en
toute sécurité. Des données importantes qui sont stockées en mémoire pendant que le
système fonctionne ont besoin d’être enregistrées sur le disque dur avant d’éteindre
l’ordinateur. Les ordinateurs plus récents s’éteindront automatiquement lorsque le processus
de fermeture sera complet.
Redémarrer le PC.
Redémarrer un PC qui a déjà été allumé s’appelle un démarrage à chaud. Ceci peut être
réalisé en appuyant sur la touche reset sur la façade avant du boîtier. Une autre alternative,
appuyez simultanément sur les touches Ctrl+Alt+Delete puis appuyez sur Redémarrer à
partir du menu qui s’affiche. Les concepts d’allumage à chaud et à froid sont décrits plus
précisément dans le Chapitre 2, Comment fonctionnent les ordinateurs.
1.2.2.L’explorateur Windows
1.2.3.Le bureau
L’écran principal de Windows est connu sous le nom de bureau. Le bureau Windows n’a pas
vraiment changé pour la plupart des versions de Windows, y compris 95, 98, SE, Millenium
(ME), NT, 2000 et XP. Cependant, des nuances peuvent apparaître dans des versions plus
anciennes de Windows 95 ou bien un type particulier d’installation, comme celles que l’on peut
trouver sur un réseau ou un ordinateur portable, lorsque certaines options sont désactivées.
Une icône est une image représentant une application ou une fonction. Généralement, une
icône peut être sélectionnée en tant que raccourci vers un fichier ou un programme et se
trouve sur le bureau. Une icône peut aussi ne pas être sélectionnée tel qu’un logo d’entreprise
sur une page Web.
Quelques icônes présentes sur le bureau telles que mon ordinateur, voisinage réseau ou mes
favoris réseaux, corbeille, mes documents, sont des raccourcis vers ces répertoires. Les
répertoires seront développés ultérieurement dans le Chapitre 4. D’autres icônes pouvant se
trouver sur le bureau de l’ordinateur, comme Microsoft Word, Excel ou Adobe Photoshop, sont
des raccourcis vers ces applications.
L’icône Mon ordinateur permet d’accéder à touts les lecteurs installés, composants de
stockage de l’ordinateur.
Mes Documents est un raccourci vers des dossiers personnels ou que l’on a besoin d’accéder
fréquemment. Le voisinage réseau permet à l’utilisateur de voir les ordinateurs voisins dans un
environnement en réseau. Plus loin dans ce chapitre, nous parlerons de La Corbeille, dans la
section concernant les Fonctions de Base de Windows.
La barre des tâches se situe en bas du bureau. Elle contient le bouton Démarrage, les
boutons de lancement rapide et le en-cours système. Le bouton Démarrer, montre le menu
Démarrer. Ce menu permet l’accès à quasiment tous les programmes et fonctions du PC.
Les boutons de lancement sont situés à côté du bouton Démarrer. Ces boutons permettent un
accès immédiat au bureau depuis n’importe quelle application, ainsi qu’à Internet Explorer ou
Outlook Express. Les boutons à lancement rapide sont semblables aux icônes figurant sur le
Bureau étant donné que ce sont des raccourcis vers ces applications. Ces boutons sont
particulièrement utiles quand plusieurs applications ou documents sont déjà ouverts et quand
on a besoin d’ouvrir rapidement une autre application.
Cette section explique comment sélectionner et déplacer des icônes du Bureau. L’étudiant
apprendra également comment reconnaître les icônes du Bureau de base tels que le disque
dur, l’arborescence des répertoires, répertoires ou dossiers et fichiers, la Corbeille. Cette
section explique aussi comment créer une icône de raccourci de Bureau ou un alias.
La navigation et le travail sur le Bureau sont plus aisés avec l’utilisation des icônes. Puisque
les icônes ne sont que des raccourcis qui pointent vers des programmes et des dossiers, ils
peuvent être copiés, déplacés et même effacés sans pour autant affecter le programme ou le
fichier.
Les applications Windows ont typiquement une barre de titre, une barre d’outils, une barre de
menus et une barre de défilement. WordPad, ou le Bloc-notes dans certains ordinateurs
Windows, est un traitement de texte simple situé dans Démarrer>Programme>Accessoires
d’un environnement Windows.
Les fonctions des barres d’outils sont faciles à comprendre et chacune est décrite ci-dessous :
● La Barre de Menu - Contient les menus pour l’utilisation des documents, tels que la
création de nouveaux documents, copier du texte, insérer des images et ainsi de suite.
Pour voir le menu de chaque item, cliquez sur un bouton. Un menu déroulant apparaît.
● La Barre d’Etat - Montre des informations utiles, telles que le numéro de page, si oui
ou non le fichier est en train d’être sauvegardé, comment accéder à l’Aide, etc. La
barre d’Etat se situe au bas de l’écran.
On pourrait vouloir déplacer une fenêtre à un autre endroit sur l’écran, particulièrement s’il y a
plus d’une fenêtre ouverte à l’écran. Cliquez sur la barre de titre, puis faites glisser la fenêtre à
l’endroit désiré. La fenêtre suivra automatiquement le curseur comme s’il déplaçait une feuille
de papier sur un vrai bureau.
La plupart des applications Windows ont des menus et des fonctions qui se ressemblent. Les
différences dépendent du type d’application.
Les fenêtres qui montrent des applications comme le Bloc note, peuvent avoir des tailles allant
du plein écran à de toute petites. Pour redimensionner une fenêtre, placer le curseur dans
n’importe quelle coin ou côté de l’application de Windows. Une double flèche apparaîtra.
Cliquez et glissez pour changer la taille de la fenêtre.
Il y a plusieurs types de flèches, de pointeurs, curseurs et autres items, qui peuvent être
utilisés dans Windows. Pour modifier le pointeurs de souris, allez dans, Mon Ordinateur>
Panneau de Configuration> Souris>Pointeur.
Quand plus d’une fenêtre sont ouvertes, l’utilisateur peut choisir de changer de fenêtre en
appuyant sur Alt+Tab. Une fenêtre apparaît à l’écran vous indiquant quelles applications sont
ouvertes. Tout en restant appuyé sur le bouton Alt, continuez à appuyer sur Tab pour trouver
la fenêtre désirée.
Les documents Windows peuvent également être sélectionnés en cliquant sur le document
voulu sur la barre de tâche, qui apparaît en bas de l’écran.
Cette section développera la manière de trouver des informations système dans Windows
2000. Il montrera également comment voir des informations telles que le type de système
d’exploitation, le type de processeur et le type et la quantité de Mémoire Vive (RAM) installée.
Ces informations sont précieuses pour le technicien en informatique lors du dépannage et
pour mettre à jour le système ou les applications.
Pour accéder aux informations système dans Windows 2000, allez dans le menu Démarrer et
choisissez Programmes>Accessoires>Outils Systèmes>Informations Système.
La fenêtre s’ouvre qui nous donne le nom et la version du système (OS), le fabriquant du
système et le modèle, le type de processeur et son fabriquant, la version du BIOS et la
mémoire. Ces informations peuvent être sauvegardées en tant que fichier texte en
sélectionnant Action à partir de la barre des taches et Sauvegardez en Fichier Texte.
L’emplacement de la sauvegarde peut être spécifié. En double cliquant sur le fichier System
Info.txt, Windows ouvrira le document dans le Bloc-notes. Si le dossier System info.txt est trop
grand, Windows encouragera l’utilisateur à ouvrit le fichier avec Wordpad. Le texte peut être
copié et collé dans un programme de traitement de texte tel que Microsoft Word ou un
programme Tableur tel que Excel pour que les informations soient plus faciles à lire.
Note: Les manipulations sont spécifiques à Windows 2000. Elles sont légèrement
différentes quand on utilise Windows 98 ou ME. Pour arriver au même résultat, cliquez
sur Démarrer>Programmes>Accessoires>Outils système>Informations Système.
Puis, sélectionnez dans la fenêtre qui s’ouvre : Fichier>Exporter et donnez un nom
de fichier et de dossier de manière à le sauvegarder. Les informations système sont
sauvegardées en tant que fichier texte.
Pour ajuster la date et l’heure, double cliquez sur l’horloge de la barre de tâche. Cliquez sur la
flèche pointant vers le bas près du mois et sélectionnez le mois en cours. Changez l’année de
la même manière si besoin est. Pour ajuster la date, cliquez sur le jour désiré du mois. Réglez
l’horloge en entrant la nouvelle heure dans le champ et sélectionnant AM ou PM.
Cliquez sur l’onglet appelé Fuseau Horaire. Cliquez sur la flèche vers le bas et choisissez le
fuseau horaire approprié. L’horloge s’ajustera automatiquement tous les ans, par rapport au
passage à l’horaire d’été.
Dans Windows 98, la fenêtre active, pour ajuster la date et l’heure seront légèrement
différentes par rapport à Windows 2000. Dans Windows 98, la zone Fuseau Horaire, est
située dans l’onglet unique Date et Heure. Pour sélectionner le fuseau horaire dans Windows
98, cliquez sur la flèche du bas dans Fuseau Horaire ce qui ouvrira un menu déroulant et
sélectionnez un fuseau horaire.
La plupart des applications de Windows ont trois petits icônes dans le coin supérieur droit de
l’écran qui sont utilisées pour réduire, agrandir ou sortir de l’application.
En cliquant sur le bouton Réduire (le bouton gauche), l’application est placée sur la barre de
tache. Elle est toujours ouverte et on peut y accéder en cliquant dessus, sur la barre de tache.
Astuce : La façon la plus rapide de réduire toutes les fenêtres est de cliquer sur
l’icône Montrer le Bureau près du bouton Démarrer. Cliquer sur le bouton restaure
toutes les fenêtres.
La résolution de l’écran dépend des besoins de l’utilisateur, de l’application qui est utilisée et
de la version de Windows qui est installée. Les enfants, les adultes plus âgés et ceux avec
des problèmes de vision pourraient préférer une police et des images plus grandes. De plus,
les cartes vidéo plus vieilles ne supportent peut être pas des couleurs plus détaillées ou une
vitesse d’affichage comme exigées par les jeux vidéo, les graphiques informatiques, les
logiciels de dessin ou des outils de montage vidéo plus élaborés.
Pour ajuster l’écran, d’abord réduisez toutes les fenêtres ouvertes. Faites un clic droit sur un
espace vide sur le bureau et choisissez Propriétés pour ouvrir la fenêtre des propriétés
d’écran. Autrement, choisissez Paramètres>Panneau de Configuration> Affichage depuis
le menu Démarrer. La liste suivante détaille les onglets de la fenêtre des Propriétés
d’Affichage :
● L’onglet Écran de Veille, permet de sélectionner un écran de veille et quand doit-il être
activé. De plus, l’écran de veille peut aussi être configuré pour demander un mot de
passe. C’est aussi à cet endroit que sont réglés les économiseurs d’écran.
● L’onglet Apparence, a des réglages qui permettent aux utilisateurs de choisir la taille et
la couleur du texte ainsi que les fonds d’écran pour les applications.
● L’onglet Effets, permet aux utilisateurs de choisir des effets visuels tels que des effets
de fondu, de grands icônes et la possibilité de montrer les contenus tout en faisant
glisser des fenêtres.
Régler les propriétés d’affichage de l’écran est une question de préférence. Les utilisateurs
individuels peuvent régler les caractéristiques des fenêtres pour améliorer l’apparence des
fenêtres qu’ils utilisent.
1.3.5.Paramètres du bureau
Pour ajuster les propriétés du bureau, accédez à la fenêtre des Propriétés d’Affichage
comme c’est expliqué dans la section précédente. La touche Paramètres vous permet de
régler les couleurs et le nombre de pixels qui seront utilisés. Les pixels sont des points
minuscules qui donnent de la lumière sur l’écran et qui déterminent l’intensité d’une image à
l’écran. Des valeurs plus basses, par exemple, ont tendance à donner un aspect aux images
de dessin animé, qui sont granuleuses et comportent peu de détails. Des valeurs plus
importantes provoquent des images de couleurs plus réalistes, s’approchant d’une « vraie
couleur » à 16.7 millions de couleurs avec des détails superbes. Une fois que les pixels et les
couleurs sont réglés, cliquez sur Appliquer. Appuyez sur OK. Choisissez Oui, pour
reconfigurer le bureau. Il se peut que l’écran devienne blanc, ou l’image écran pourrait sauter :
ne vous inquiétez pas. Windows ajuste le bureau pour prendre en compte les nouveaux
réglages.
Note: Lorsqu’on installe pour la première fois une carte vidéo, Windows prendra par
défaut les réglages les plus bas, avec une résolution de 640x480 et il est possible que
vous n’ayez que huit couleurs. Quand le pilote de la carte vidéo est installé avec le
logiciel fourni par le constructeur, plus de couleurs et de résolutions peuvent être
affichées. Ceci sera traité plus en détail sous le titre «Composants d’affichage », dans
le Chapitre 2.
Pour accéder au contrôle du volume, cliquez sur l’icône haut parleur sur la barre de taches.
Les propriétés audio peuvent aussi être consultées à partir de l’icône Sons et Multimédia sur le
Le bouton Démarrer est situé sur la barre des taches, dans le coin inférieur gauche du bureau
Windows. Certaines caractéristiques utiles y sont insérées. En cliquant sur le bouton Démarrer
on accédera facilement à ces options.
Exécuter
La fonction Exécuter est un autre moyen de démarrer un programme, au lieu de cliquer sur
l’icône de raccourci du programme sur le bureau, ou sur la liste des programmes dans le
Répertoire de Programmes. Dans le Chapitre 4, on en parlera plus longuement. Accédez à la
fonction Exécuter en cliquant sur Démarrer et choisissez Exécuter. L’espace de saisie de la
ligne de commande apparaîtra. L’utilisateur peut alors saisir le nom du programme et
n’importe quel paramètre nécessaire tel que dans une fenêtre DOS.
Note: Cette fonction est souvent utilisée par le Technicien IT pour accéder à l’éditeur
de commandes et pour exécuter des routines de diagnostic telles que ping.
Aide
La fonction Aide donne des astuces et des instructions pour utiliser correctement Windows.
L’aide contient aussi une fonction index et recherche. L’aide est facile à utiliser et apprendre à
naviguer avec permet à l’utilisateur de trouver rapidement des informations utiles. Cet
exemple montre comment chercher de l’aide et comment formater une disquette :
● Cliquez Afficher.
La partie droite de l’écran fera apparaître des instructions sur la manière de formater un
disque.
Rechercher
Dans Windows 95, 98 et Windows NT, la fonction Rechercher (Find), est utilisée pour localiser
des fichiers, des dossiers et des connections réseau vers d’autres ordinateurs et
périphériques. Dans Windows 2000, « Find » a été renommé « Search »
Documents
Le menu Documents montre une liste des documents les plus récents qui ont été ouverts ou
créés. Ce menu peut aussi être utilisé en tant que raccourci pour revenir à un fichier qui a été
utilisé récemment. Ces documents sont liés aux applications qui les ont crées. L’application
sera lancée lors de l’ouverture du document.
1.3.8.La Corbeille
La Corbeille stocke des fichiers, des dossiers, des graphiques et des pages Web supprimés
du disque dur. Ces éléments peuvent être restaurés ou replacés à leur lieu d’origine. Les
éléments restent à cet endroit jusqu’à ce qu’ils soient supprimés de manière permanente de
l’ordinateur. Lorsque la Corbeille se remplie, Windows 2000 nettoie suffisamment d’espace
pour reloger les fichiers et les dossiers les plus récents.
Comme nous l’avons dit précédemment dans ce chapitre, les applications logiciel sont des
programmes qui permettent d’effectuer des tâches telles que l’écriture de rapports, le suivi de
clients, le dessin de logo de société, l’affichage de pages Web et l’écrire de courriels.
Un traitement de texte est une application qui crée, modifie, enregistre et imprime des
documents. Tous les traitements de texte permettent d'insérer ou de supprimer du texte,
copier, couper, coller et définir des marges. Ces fonctionnalités appelées, édition de texte,
sont prises en charge par les traitements de texte. La plupart des traitements de texte
supportent des fonctions supplémentaires qui permettent la manipulation et la création de
documents avec des méthodes sophistiquées. Des exemples comprennent la gestion des
fichiers, de macros, de vérificateurs d’orthographe, d’en tête et de pieds de pages, de
possibilités de fusionner, de mise en page assez élaborées, de multiples fenêtres ainsi que
des modes aperçus. Les traitements de texte les plus connus sont Corel WordPerfect,
Microsoft Word et Lotus.
1.4.2.Les tableurs
Dans un tableur, les données numériques sont stockées dans des cellules qui sont arrangées
sous forme de grille. On se réfère à ces cellules, en fonction de leur position dans la grille par
rapport à la colonne et la ligne qu’ils occupent, tel que A3. Les données peuvent être des
nombres, du texte ou du calcul. Si A3 contient la valeur 10 et la cellule adjacente B3 contient
la formule ‘=A3*2,54’, ou la valeur A3 multipliée par 2,54. La cellule B3 affichera 25,4. En
d’autres termes, une valeur en pouces en A3 est convertie en centimètres en B3, puisque 2,54
est le facteur de conversion.
Les tableurs peuvent être utilisés pour calculer une série de valeurs numériques et réaliser
des calculs longs et complexes. Beaucoup de tableurs offrent la possibilité de tracer des
graphiques, des histogrammes et des camemberts. Microsoft Excel, Lotus 1-2-3 sont tous
deux des exemples de tableurs.
Une base de données est un ensemble de données organisé qui peut être facilement accédé,
géré et mis à jour. Microsoft Access, Oracle Database et FileMaker sont tous des exemples
d’applications de base de données. Les bases de données sont à répertorier dans deux
catégories distinctes : les bases de données matricielles et les relationnelles.
Les bases de données relationnelles sont le meilleur moyen de stocker une quantité
importante de données reliées entre elles. Ces bases de données sont capables de gérer des
relations multiples avec un minimum de duplication de données. Par exemple, chaque compte
bancaire aura beaucoup de transactions qui lui seront liées, ceci est appelé une relation de un
à plusieurs. Faire ceci dans une base de données matricielle, serait quelque chose de
volumineux et inefficace. Les bases de données matricielles sont à deux dimensions, alors
que les bases de données relationnelles ont trois dimensions ou plus.
1.4.4.Applications graphiques
Les applications graphiques sont utilisées pour créer ou modifier des images graphiques. Les
deux types d’images graphiques sont les objets ou images vectorielles et les bitmap ou
trames. Pour comprendre la différence, imaginez la création de la lettre T. Le bitmap
représenterait le T comme s’il avait été dessiné sur du papier graphique avec les cases
correspondant au T noircies. Un graphique vectoriel décrirait la lettre T avec des éléments
géométriques tels que deux formes rectangulaires de la même taille, l’une debout, l’autre
positionnée à son sommet et au milieu. Le graphique vectoriel peut être agrandi ou réduit à
n’importe quelle taille. Alors que le bitmap montrerait des cases indépendantes si l’image était
agrandie. Généralement, les bitmaps requièrent beaucoup plus d’espace dans un fichier que
des graphiques vectoriels.
Il existe plusieurs types de programmes graphiques, ils peuvent être classes dans quatre
catégories principales :
● Éditeur d’image – Pour traiter ou créer des images bitmap et trames. Adobe
Photoshop est le logiciel d’édition d’image standard du marché. Grâce à son vaste
ensemble d’outils, il est possible de manipuler et de créer des images bitmaps ou des
trames.
D’autres applications graphiques sont utilisées dans le multimédia, l’audio et les jeux vidéos.
Des formes plus complexes de CAO sont la conception de solides et de paramètres, qui
permettent de créer des objets avec des caractéristiques réalistes. Par exemple, dans la
conception de solides, des objets peuvent être sectionnés, ou découpés au milieu pour révéler
leur structure interne.
1.4.5.Applications de présentation
Un navigateur Internet est une application qui est utilisée pour localiser et afficher des pages
du World Wide Web (WWW). Les deux navigateurs les plus communs sont Netscape
Navigator et Microsoft Internet Explorer. Ce sont des navigateurs graphiques, ce qui signifie
qu’ils peuvent afficher des graphiques aussi bien que du texte. De plus, la plupart des
navigateurs modernes peuvent présenter des informations multimédia, y compris du son et de
la vidéo, bien qu’ils requièrent des plug-ins pour certains formats.
Note: Un plug-in est un programme auxiliaire qui fonctionne avec le logiciel principal
pour améliorer ses capacités. Un exemple de plug-in, pourrait être un filtre qui rajoute
des effets spéciaux dans un programme de traitement d’images tel que Photoshop.
Les plug-ins sont rajoutés aux Navigateurs Internet pour qu’ils puissent supporter de
nouveaux types de contenus tels que l’audio, la vidéo, etc. Bien que le terme soit
largement utilisé pour les logiciels, il pourrait aussi être utilisé pour parler d’un module
plug-in matériel.
Lorsqu’on travaille dans l’industrie de l’informatique, il est crucial de comprendre les termes
qui sont utilisés. Que l’on lise les caractéristiques d’un ordinateur, ou bien lorsqu’on parle avec
un autre technicien en informatique, il y a un dictionnaire de termes assez important qui doit
être connu. Le technicien a besoin de connaître la terminologie ci-dessous :
● bit – Un bit est la plus petite unité de donnée dans un ordinateur. Un bit peut prendre
soit la valeur zéro soit la valeur un. Le bit est le format binaire dans lequel les
données sont traitées par les ordinateurs.
● octet – Un octet (byte) est une unité de mesure qui est utilisée pour décrire la taille
d’un fichier de données, la quantité d’espace sur un disque ou tout autre moyen de
stockage, ou la quantité de données qui est envoyée sur un réseau. Un octet consiste
en huit bits de données.
● Kilobites par secondes (kbps) – Les kbps sont la mesure de la quantité de données
transférées lors d’une connexion réseau. Kbps est le taux de transfert de données,
environ 1000 bites par seconde.
● megabyte (MB) – Un megabyte est 1 048 576 bytes (ou approximativement 1 000 000
de octets).
Les variables qui caractérisent un système analogique peuvent avoir un nombre de valeurs
infinies. Par exemple, les aiguilles sur le cadran d’une horloge analogique montrent un nombre
infini d’heures dans la journée. Les variables qui caractérisent les systèmes digitaux occupent
seulement un nombre fixe de valeurs discrètes. En arithmétique binaire, utilisée sur les
ordinateurs, seulement deux valeurs sont utilisées : 0 et 1. Les ordinateurs et les modems
sont des exemples d’appareils digitaux.
Les ordinateurs sont construits à partir de plusieurs types de circuits électroniques. Ces
circuits dépendent de ce que l’on appelle des « portes » logiques ET, OU, PAS et NI. Ces
portes sont caractérisées par la manière dont elles répondent aux signaux en entrée. Pensez
que « 0 » représente « off » et que 1 représente « on ».
Il n’existe que trois fonctions primaires logiques. Elles sont ET, OU et PAS :
● La porte PAS – Si l’entrée est on, alors la sortie est off et vice versa.
Le décimal, ou Base 10, est utilisé tous les jours pour faire des maths comme compter la
monnaie, mesurer, donner l’heure etc…. Le système de numération décimal utilise 10
chiffres : 0, 1, 2, 3, 4, 5, 6, 7, 8 et 9.
Le binaire, ou Base 2, utilise deux chiffres pour exprimer toutes les quantités numériques. Les
seuls chiffres utilisés en système binaire sont le 0 et le 1. Un exemple de nombre binaire est
10011101010001100101.
Il est important de rappeler le rôle du chiffre 0. Tous les systèmes de numération utilisent le 0.
Cependant, veuillez noter qu’à chaque fois que le chiffre 0 apparaît à gauche d’un nombre, on
peut l’enlever sans changer la valeur du nombre. Par exemple, en Base 10, 02947 est égal à
2947. En Base 2, 0001001101 est égal à 1001101. Parfois les gens rajoutent des 0s à gauche
du nombre pour souligner les places qui autrement ne seraient pas représentées.
Une autre notion importante quand on travaille avec des nombres binaires, c ‘est la puissance
des nombres. 2° et 2³ sont des exemples de nombres représentées par des puissances. Pour
illustrer ces exemples, dites « deux à la puissance 0 » et « deux à la puissance trois ». Leurs
valeurs sont celles qui suivent : 2°=1, 21=2, 2²=2x2=4, 2³=2x2x2=8.
Évidement, il y a une suite logique. La puissance est le nombre de 2 qu’il faut multiplier par lui-
même. Une erreur fréquente est de confondre les puissances avec de simples multiplications :
24 n’est pas égal à 2x4=8, mais est égal à 2x2x2x2=16.
En Base 10, on utilise les puissances de 10. Par exemple, 23605 en Base 10 signifie 2 x 10
000 + 3 x 1 000 + 6 x 100 + 0 x 10 + 5 x 1.
Veuillez noter que 100 = 1, 101 = 10, 102 = 100, 103 = 1 000, et 104 = 10 000.
Un nombre décimal peut s’écrire en termes de puissances de 10 telles que 10°, 101, 10²etc...
Lorsqu’on se concentre sur la vraie valeur d’un nombre décimal, utilisez les formes élargies
des puissances comme 1, 10, 100 etc... Cela aide à s’en rappeler en utilisant les tables.
Binaire
La même méthode est utilisée avec les nombres binaires et les puissances 2. Considérez le
nombre 10010001.
Bien que la table soit efficace pour convertir un nombre binaire en un nombre décimal, il y en a
d’autres, plus rapides.
Il existe plus d’une méthode pour convertir des nombres binaires. Une d’elles est explorée ici.
Néanmoins, l’étudiant est libre d’utiliser tout autre méthode qui lui semble plus facile.
Pour convertir un nombre décimal en binaire, recherchez d’abord la plus grande puissance de
2 qui «rentre» dans le nombre décimal. Utilisez la table suivante pour convertir le nombre 35
en binaire:
Quelle est la plus grande puissance de 2 qui rentre dans 35 ? En commençant par le plus
grand nombre:
● 25, ou 32, est plus petit que 35. Placez un « 1 » dans cette colonne. Maintenant,
calculez combien il reste en soustrayant 35 de 32. Le résultat est 3.
● 24, ou 16, est plus grand que 3. Placez « 0 » dans cette colonne.
● 23, ou 8, est plus grand que 3, donc un « 0 » est placé dans cette colonne aussi.
● 21, ou 2, qui est plus petit que 3. Puisque 2 rentre dans 3, placez un « 1 » dans
cette colonne. Maintenant, soustrayez 2 de 3, ce qui donne un résultat de 1.
● 20, ou 1, qui rentre dans le dernier chiffre. Par conséquent, placez un « 1 » dans la
dernière colonne.
Cette méthode fonctionne avec n’importe quel nombre décimal. Maintenant, prenez le nombre
1 million. Quel est la plus grande puissance de 2 qui rentre dans le nombre décimal 1 000 000
est 219 = 524288 et 220 = 1 048 576, donc 219 est la plus grande puissance de 2 qui rentre
dans 1 million. En continuant avec la méthode décrite ci-dessus, le nombre décimal 1 million
est égal au nombre binaire 11110100001001000000.
Cette technique peut rapidement se révéler maladroite lorsqu’on doit traiter des grands
nombres. Une technique simple est décrite plus loin dans le chapitre, « Convertir en n’importe
quel Base ».
La Base 16 utilise 16 caractères pour exprimer des quantités numériques. Ces caractères sont
0,1,2,3,4,5,6,7,8,9,A,B,C,D,E et F. Le « A » représente le nombre décimal 10, « B »
représente 11, « C » représente 12, « D » représente 13, « E » représente 14 et « F »
représente 15. Quelques exemples de nombres hexadécimaux sont : 2A5F, 99901,
FFFFFFFF et EBACD3. Le nombre hexadécimal B23CF = 730 063 en décimal.
La conversion Binaire vers hexadécimale, est relativement simple. Tout d’abord, veuillez
observer que 1111 en binaire, correspond à F, en hexadécimal. Aussi, 11111111 en binaire
correspond à FF en hexadécimal. Sans passer par une preuve mathématiques, ce qui est utile
lorsqu’on travaille avec ces deux systèmes de nombres, c’est qu’un caractère hexadécimal
requière 4 « bits », ou bien 4 chiffres binaires, pour être représenté en binaire. Notez qu’un bit,
est simplement un chiffre binaire. Utilisé en système de numérotation binaire, cela peut être un
0 ou bien un 1.
Pour convertir un nombre binaire en hexadécimal, groupez les nombres en groupes de quatre
bits, en commençant par la droite. Ensuite, convertissez chaque groupe de quatre bits en
hexadécimal, produisant ainsi un équivalent hexadécimal en son nombre binaire.
Prenez cet autre exemple, où le nombre binaire 111101 est groupé comme ceci : 11 1101, ou
bien lorsqu’on lui rajoute des 0 à gauche pour compléter, 0011 1101. Par conséquent, son
équivalent hexadécimal est 3D.
Convertir des nombres hexadécimaux en binaires est tout simplement la méthode inverse par
rapport à la section précédente. Prenez chaque chiffre hexadécimal et convertissez-le en
binaire, puis alignez la solution. Cependant, faites attention à mettre à chaque représentation
binaire un 0 pour chacun des espaces binaires pour chacun des chiffres hexadécimaux. Par
exemple, prenez le nombre hexadécimal FE27. F correspond à 1111, E à 1110, 2 à 10 ou
0010 et 7 à 0111. Donc, en binaire, la réponse est 1111 1110 0010 0111 ou
1111111000100111.
La plupart des gens savent déjà effectuer beaucoup de conversions de nombres. Par
exemple, quand on convertit des pouces en yards, tout d’abord divisez le nombre de pouces
par 12 pour avoir le nombre de pieds. Le reste est le nombre de pouces qu’il y a. Ensuite,
divisez le nombre de pieds par 3 pour avoir le nombre de yards. Le reste est le nombre de
pieds. Ces mêmes techniques sont utilisées pour convertir des nombres vers d’autres bases.
Si on convertit de décimal (la base normale), en octal, par exemple en Base 8 (connu sous le
nom de base étrangère), divisez par 8 (la base étrangère) successivement et reprenez le reste
en commençant par le plus petit reste.
1234 /8 = 154 R 2
154 / 8 = 19 R 2
19 / 8 = 2 R 3
2/8=0R2
Les restes, en prenant tout d’abord le dernier et en remontant vers le premier, donne en octal
le résultat suivant : 2322.
Pour reconvertir, multipliez un total cumulé par 8 et ajoutez lui chaque chiffre successivement,
en commençant par le nombre le plus grand.
2 x 8 = 16
16 + 3 = 19
19 x 8 = 152
152 + 2 = 154
154 x 8= 1232
1232 + 2 = 1234
Il y a une manière plus simple d’obtenir les mêmes résultats dans la conversion inverse en
utilisant les puissances numériques comme ci-dessous :
Un algorithme est une description systématique ou une méthode pour décrire la façon exacte
d’effectuer une série d’étapes pour faire certaines tâches. Les ordinateurs utilisent les
algorithmes dans pratiquement toutes les fonctions qu’ils exécutent. Globalement, un logiciel
est un ensemble d’algorithmes rassemblés dans un ensemble de code. Apprendre à
programmer les ordinateurs veut dire apprendre à créer et mettre en place des algorithmes.
Beaucoup d’algorithmes sont pré-conditionnés, de manière à être utilisés dans des
programmes, en évitant aux programmeurs de partir de rien à chaque fois qu’un programme
est écrit. L’idée, particulièrement pour la programmation orienté objet, est d’utiliser le code
existant pour construire des programmes ou des codes plus sophistiqués. Dans les sections
suivantes, trois exemples particuliers sont décrits.
L’algorithme Euclidien
L’algorithme Euclidien est utilisé pour effectuer de longues divisions quand on divise deux
nombres.
L’algorithme Dijkstra
L’algorithme Dijkstra est utilisé par les périphériques réseau dans Internet. Cet algorithme
utilisé pour trouver le plus petit chemin entre un périphérique réseau et tous les autres dans
son domaine de routage. Cet algorithme utilise la bande passante pour mesurer le plus court
chemin.
Algorithme de Cryptage
Les algorithmes de cryptage sont utilisés pour éviter que les hackers puissent voir les données
qui transitent sur Internet. Un exemple de ces algorithmes est utilisé par le 3DES (prononcé, «
triple dez »), une norme de cryptage utilisée pour sécuriser les connections entre les
équipements réseau et les hôtes. Plus de détails sur ce 3DES, ne fait pas parti du programme
de ce cours.
Les algorithmes sont des procédures à effectuer pas à pas et qui effectuent une tache
spécifique. Les ordinateurs utilisent des algorithmes pour accélérer et simplifier les
procédures. La plupart des algorithmes utilisés par les ordinateurs sont relativement
complexes et il faut de l’expérience en informatique pour les comprendre.
Dans les chapitres suivants, vous assemblerez un ordinateur pièce par pièce. Ce qui suit est
une liste des comportements à adopter pour créer un environnement de travail sûr et efficace :
● Le niveau idéal d’humidité sur le lieu de travail devrait être situé entre 20% et 30 %
pour réduire au maximum les chances d’ESD. Il est aussi important de contrôler la
température pour que l’espace de travail ne soit pas trop chaud.
● La table de travail devrait être une surface non conductrice. De plus, il serait
souhaitable qu’il ait une surface plane et lavable.
● L’éclairage devrait être adéquat de manière à voir les petits détails. Deux formes
d’éclairage sont privilégiées : une lampe avec abat-jour ajustable et une lampe
fluorescente.
● Une mise à la terre du courant électrique AC, est essentielle. Les prises de courants
devraient être testées avec un testeur électrique pour une bonne mise à la terre.
L’atelier devrait être éloigné de toute surface moquettée, car les moquettes peuvent provoquer
l’accumulation de charges électrostatiques. S’il n’est pas possible d’éloigner des surfaces
moquettées, celles-ci pourraient être couvertes par un tapis en plastique antistatique, tel que
ceux qui sont communément utilisés sous les chaises de bureaux. Utiliser des outils de
protection contre l’ESD, comme un tapis ou un bracelet pour le poignet, qui se vendent
habituellement en kits, peut largement éliminer ce type de dangers.
Évitez de toucher l’écran du moniteur pour quelque raison que ce soit, lorsqu’il est allumé.
Même de brefs contacts sur un écran actif, peut introduire une charge électrostatique dans la
main, qui peut se décharger par l’intermédiaire du clavier.
Ce bracelet est un outil, qui est attaché au poignet du technicien et pincé au châssis en métal
de la machine, sur lequel on doit effectuer une intervention. Ce bracelet empêche des dégâts
provoqués par l’ESD, en canalisant l’électricité statique, de la personne vers la terre.
Après avoir mis cet outil, attendez 15 secondes avant de toucher n’importe quel composant
électronique sensible à mains nues. Ce laps de temps permettra au bracelet de neutraliser
l’électricité statique qui est déjà présente dans le corps de la personne. Le risque d’ESD peut
aussi être réduit en évitant de porter des vêtements en soie, polyester ou bien en laine. Ces
matières ont tendance à accumuler des charges statiques.
Le bracelet est le seul moyen de se protéger contre l’ESD, transporté dans le corps humain.
Les charges d’ESD sur les vêtements peuvent toujours causer des dégâts. Par conséquent,
évitez de provoquer des contacts entre les composants électroniques et les vêtements. Si
toutefois des décharges électriques interviennent encore sur l’espace de travail, en travaillant
près d’un ordinateur, essayez d’utiliser un produit assouplissant, ou bien un spray antistatique
sur les vêtements. Assurez-vous d’en mettre sur les vêtements et pas sur l’ordinateur. Un
bracelet antistatique n'agit pas sur les charges électrostatiques qui se sont accumulées dans
les cheveux, c’est pourquoi faites attention à ce que vos cheveux ne touchent pas les
composants.
Les composants à l’intérieur d’un moniteur peuvent garder en eux une charge pendant un long
moment, même après avoir débranché le moniteur de sa source d’alimentation externe. La
quantité de volts que peut contenir un moniteur, même lorsqu’il est éteint, est suffisante pour
tuer. Porter un bracelet aide à augmenter le risque de contact avec le courant électrique
Entreposage de l’Equipement
Les composants électroniques ou les circuits imprimés, devraient être rangés dans des
sachets antistatiques protecteurs, que l’on pourra reconnaître facilement. Ces sachets sont
habituellement de couleur dorée, brillants et transparents. Les sachets antistatiques
protecteurs sont importants, parce qu’ils empêchent l’entrée d’électricité statique dans les
sachets. Il faut qu’ils soient en bon état, sans trous, ni plis. Même des minuscules ouvertures
dues aux plis réduiront la protection maximale en ce qui concerne les décharges
électrostatiques.
Lorsque le l’emballage d’origine n’est pas disponible, les circuits imprimés et les périphériques
devraient être transportés dans des sachets antistatiques de protection. Cependant, ne mettez
jamais un sachet antistatique de protection dans un PC. D’autre part, ne branchez jamais une
carte mère alors qu’elle se trouve sur un sachet antistatique de protection, car elle est
partiellement conductrice. Une carte mère pourrait créer facilement un court circuit en
démarrant, si plusieurs centaines de broches touchaient le sachet conducteur.
Si les composants d’ordinateurs sont rangés dans des boites en plastique, alors ces boites
devraient être faites en plastique conducteur. Une boite non conductrice aura tendance à
accumuler une charge électrostatique. Prenez l’habitude de toucher les boites pour niveler la
charge de la boite à la charge du corps avant de prendre les composants dans la boite. Quand
des composants sont passés, d’une personne à une autre, touchez d’abord la main de la
personne, avant de lui passer le composant.
La plupart des outils utilisés dans le procédé d’assemblage d’un ordinateur, sont de petits
outils de main. Ils sont disponibles au détail, ou bien faisant partie intégrante du kit outil du PC,
qui peuvent être achetés dans les boutiques d’informatique. Si un technicien travaille sur
portable, alors seul un petit tournevis torx sera nécessaire. Il ne vient pas avec toutes les
trousses à outils de PC.
Les bons outils peuvent faire gagner beaucoup de temps au technicien et l’aider à ne pas
abîmer le matériel. Les boites à outils varient énormément en taille, en qualité et en prix. Voici
les principaux outils qu’ont habituellement les techniciens :
● Un extracteur de puces
● Un tournevis torx
● Un multimètre numérique
● Un petit miroir
● Attaches de câbles
● Tournevis plats
● Un kit de montage
Aide organisationnelle
Ci-dessous, des aides organisationnelles pour votre espace de travail :
● Organisez les pièces pour avoir à portée de mains des outils tels que vis et
connecteurs
● Du ruban adhésif ou masquant pour faire des étiquettes qui identifient les pièces
● Un petit calepin pour noter les assemblages ou les problèmes qui surviennent
● Un endroit pour vérifier des informations et/ou des guides pour localiser les pannes
Selon les besoins du technicien, les informations sur chacun de ces logiciels peuvent être
téléchargés, en se rendant sur le site Internet des fabricants. Il est toujours intéressant de
savoir ce qu’un logiciel peut faire, avant de l’acheter, pour être sûr qu’il effectue ce que vous
attendez de lui.
Bien qu’un nouveau système n’ait pas besoin d’être nettoyé pendant l’assemblage des pièces,
avec le temps, les ordinateurs peuvent accumuler de la poussière et autres résidus. Les
particules de poussière eux-mêmes, peuvent contenir certains résidus chimiques, qui peuvent
se dégrader, ou même créer des courts circuits sur les puces électroniques, les surfaces de
contact et les câbles de contact. De la graisse provenant des doigts de l’homme, peuvent
contaminer ou corroder une connexion électrique sensible. Même la transpiration de la peau
contient des sels chimiques qui peuvent corroder les connexions électriques. C’est une autre
très bonne raison de manipuler tous les circuits imprimés par les extrémités et pas où les
parties métalliques sont localisées.
Les surfaces constituantes d’un ordinateur, ont régulièrement besoin d’être nettoyées. Cela ne
veut pas seulement dire de souffler dessus, ou même d’aspirer la poussière avec un chiffon
antistatique. Des produits de nettoyage communément utilisés incluent des sprays, des
solvants, de l’air comprimé, chiffons et serviettes nettoyantes. La plupart des vendeurs
donnent des indications sur les produits de nettoyage qui devraient être utilisés avec leurs
matériels. Prenez en connaissance et procurez-vous les fournitures recommandées.
Le spray nettoyant est un mélange de solvant et de lubrifiant. Il est utilisé pour aller dans de
petits endroits comme les points de contact. La boîte a généralement un embout en plastique
long et fin, de façon à ce qu’il puisse injecter le produit comme avec une seringue. Le spray
est également utile lorsqu’on enlève des contacts électriques corrodés ou quand on desserre
des cartes contrôleur qui auraient des résidus collés au niveau des connecteurs.
Les solvants sont utilisés avec des chiffons pour enlever les résidus qui collent aux circuits
imprimés ou aux contacts, particulièrement quand on ne peut pas les atteindre facilement
avec les chiffons nettoyants. Un solvant efficace et fréquemment utilisé, est l’alcool d’isopropyl,
que l’on trouve dans toutes les drogueries.
Des kits de nettoyage prés conditionnés, sont utilisés pour nettoyer des surfaces plates,
ouvertes et facilement accessibles. Ces types de nettoyants peuvent être obtenus facilement
dans n’importe quel magasin d’accessoires électroniques.
Faites très attention quand vous utilisez des produits chimiques pour nettoyer. Prenez des
mesures adéquates pour protéger les yeux contre les solutions volatiles. De plus, faites
attention aussi à l’endroit où vous entreposez ces produits chimiques volatiles, car ils peuvent
s’évaporer de leurs récipients d’entreposage.
Il peut être nécessaire de tester les signaux électriques sur une carte mère ou ses
composants, quand on assemble un ordinateur. De plus il est aussi souvent nécessaire de
tester le potentiel électrique de l’environnement. Une prise de courant défaillante, peut
provoquer des difficultés à l’ordinateur qu’y est connecté. Le Multimètre Fluke 110 est utilisé
pour tester des appareils à «haute-tension». En plus du testeur de sortie et du multimètre, les
connecteurs de bouclage devraient faire parti de l’équipement standard que l’on trouve dans
l’espace de travail. Ces prises sont aussi appelées testeurs de loopback ou connecteurs
loopback.
Les connecteurs de loopback, testent les ports de signaux, situés à l’arrière de l’ordinateur.
Les connecteurs de bouclage sont prévus pour que les signaux tournent en boucle, ou bien
pour renvoyer un signal retour. Ces connecteurs sont utilisés conjointement avec un logiciel de
test adapté pour vérifier l’intégrité des ports de l’ordinateur.
L’Accord sur la Sécurité en Laboratoire, détaille les procédures à suivre lorsqu’on travaille
avec les ordinateurs. L’instructeur de la classe fournira un exemplaire à signer.
Puisque beaucoup de salles de classe n’utilisent pas de hauts voltages, la sécurité électrique
ne semble pas importante. Ne devenez pas satisfait sur la sécurité électrique. L’électricité peut
provoquer des blessures et même, la mort. Referez vous aux procédures de sécurité
électriques à tout moment. Dans le Chapitre 3, « Assembler un Ordinateur », vous pourrez en
lire plus sur les problèmes de sécurité en générale.
le système d'exploitation (OS), est le logiciel qui contrôle le fonctionnement et fournit des
routines de bas niveau, pour les programmes d’application. La plupart des systèmes
d'exploitation fournissent des fonctions de lecture et d'écriture des données sur les fichiers. Un
système traduit des requêtes d'actions sur les fichiers en opérations que le contrôleur de
disque peut effectuer. Le système aide l’ordinateur à effectuer quatre opérations de base:
● L’opération d’entrée.
● L’opération de process.
● L’opération de stockage.
La façon la plus courante d’entrer des données dans un ordinateur se fait à partir du clavier et
de la souris. On peut aussi utiliser un écran tactile. Sur les machine de type "touch pad" on
peut actionner des boutons sur l'écran à main nue ou avec un crayon optique. Ces
applications sont spécialement adaptée et particulièrement simples d'emploi. Toute personne
peut donc les utiliser. Les écrans tactiles sont également utilisés pour les PDA et les Tablet
PCs. Du fait de la petite taille des écrans, un crayon optique est nécessaire pour une
manipulation plus précise des objets. Les périphériques d'entrée permettent d'ouvrir une page
Web, d'envoyer un e-mail, ou d'accéder à un fichier d’un serveur réseau.
Le traitement des données produit généralement des résultats en sortie. (Par exemple des
document Word ou des feuilles de calculs).La manière la plus courante de sortir des données,
est de les envoyer sur l'écran de l’ordinateur, ou à l’imprimante. Aujourd’hui, la plupart des
ordinateurs sont connectés à Internet, créant d'autres modes de sortie sous forme d'e-mail ou
de page Web.
Le stockage des données est probablement la plus importante des quatre fonctions de base
d’un ordinateur. Les disques dur et disquettes sont des unités de stockage. La manière la plus
courante de stocker un fichier, est de l'enregistrer sur un disque dur. Un disque dur est un très
grand conteneur pour fichiers. Le système d'exploitation devra trouver un espace libre sur le
disque dur, y enregistrer le fichier et mémoriser son emplacement.
Pour faire fonctionner un système, on doit le charger dans la mémoire vive (RAM). Lors de la
mise en route d'un ordinateur, un petit programme se lance. C'est le Bootstrap Loader ou
programme d'amorçage qui réside dans la puce ou le firmware du "Basic Input Output
System" (BIOS). Les fonctions principales du "Boostrap Loader", sont de tester le hardware de
l’ordinateur, de localiser et de charger le système opérationnel en RAM. Puisque le "Boostrap
Loader" est compris dans le BIOS, on y fait référence sous le nom de BIOS. Pendant
l’exécution des routines du firmware du BIOS, trois types d’opérations sont effectués :
Si le POST découvre des erreurs il affiche des messages à l'écran. S'il ne peut pas, il envoie
les erreurs sous forme de bips. Si le POST ne découvre pas d’erreurs, il envoie un bip et
l’écran commence à afficher les messages du chargement de l’OS.
La signification des bips d'erreur est différente d'un constructeur à l'autre ainsi qu'entre les
différentes versions d'un BIOS. Il est normal d’entendre un seul bip lors du processus de
démarrage, tant que le processus de démarrage ne s’arrête pas. C’est un code pour vous
prévenir que l’ordinateur démarre normalement (teste du haut parleur).
Le POST est une phase importante du processus de démarrage. Consultez le manuel qui est
livré avec la carte mère ou le site Web du manufacturier, pour en savoir plus sur le BIOS et
sur la signification des bips d'erreur.
L’étape suivante pour le programme bootstrap est de localiser l’OS et de le copier dans la
RAM de l’ordinateur. L'ordre de recherche du fichier Boot du système d'exploitation peut être
modifié avec le programme SETUP du bios. Le plus fréquemment, le chargeur recherche
d'abord le fichier Boot de l’OS (ou boot record) sur le lecteur de disquette, puis sur le disque
dur, puis sur le lecteur de CD.
La séquence de boot du PC, définit les actions à effectuer et leur ordonnancement. Lorsque
l’ordinateur est démarré avec le bouton marche/arrêt, on parle de démarrage à froid (cold
boot). Quand on redémarre le PC sans interrompre son alimentation électrique, c'est un
démarrage à chaud (warm boot).
Un démarrage à froid commence à chaque fois que le PC est mis sous tension. Ceci implique
plus d’opérations dans la séquence de bootstrap (BIOS) que lors d'un démarrage à chaud. Le
BIOS, complète la séquence de démarrage à froid avec une série d’étapes de test pour vérifier
l’intégrité du système.
Les étapes exactes dans le processus de démarrage et leur nombre peuvent varier, selon un
certain nombre de facteurs :
● La version de Windows
● Le constructeur du BIOS
● La version BIOS
● configuration hardware du système
● La nature du démarrage (Warm boot ou cold boot)
Le type de boîtier est la première décision que l’on prend, quand on assemble un ordinateur.
Le boîtier est fait d’un châssis métallique et d’un couvercle, habituellement fait de métal ou
bien de plastique dur. Le boîtier est enveloppe les composants internes et les protège de la
poussière et des accidents. Le boîtier est livré avec l’alimentation électrique nécessaire à
l’ordinateur et aux composants installés.
Les boîtiers d’unités centrales, sont soit des tours ou bien à plat.
Le choix d’un boîtier plat ou d’une tour, est une question de préférence. Cependant, il est
important de prendre en compte l’espace de travail avant de choisir un boîtier.
Les composants du hardware sont installés dans les baies du boîtier. Les baies sont des
emplacements réservés aux lecteurs. On peut inter changer facilement des composants,
d’une baie à une autre, si nécessaire. Les baies ont généralement une largeur de 5 .25 ou 3.5
pouces. Certaines sont laissées intentionnellement vides dans les ordinateurs neufs. Ceci
permet à la machine d’être complétée avec un lecteur ZIP, un lecteur de bandes ou un
graveur de CD-ROM.
L'alimentation électrique fournit les courants et tensions continues nécessaires aux différents
circuits électroniques, qui composent le PC. Elle reçoit le courant alternatif du secteur (240V –
50 Hz en France).
Nota : Le courant alternatif (AC), circule dans un sens, puis dans l'autre ; ce processus se
répète indéfiniment. C’est la forme d’électricité provenant d’une centrale électrique.
L’alimentation électrique convertit le courant alternatif en courant continu (DC), aux différentes
tensions requises par le système. Le courant continue ne circule que dans un sens.
Astuce : Les alimentations électriques sont caractérisées par leur puissance, mesurée en
watts. Un ordinateur classique a une alimentation située entre 250 et 300 watts.
Il existe plusieurs types d’alimentations électriques, variant en taille et en forme. Les types les
plus courants sont connus sous le nom d'AT et ATX. Le type AT n’est plus utilisé dans les
nouveaux systèmes et on le rencontre surtout sur des ordinateurs construits avant le milieu
des années 90.
L’ATX est le standard actuel. L’AT et l’ATX, se distinguent par la nature des connecteurs de la
carte mère. La plupart du temps les alimentations électriques de PC sont de type à découpage
(échantillonnage haute fréquence) plutôt que linéaire pour gagner en poids et coût de
fabrication.
Nota : Le courant électrique, ou courant, est le flux de charges qui est crée par le
déplacement des électrons. Dans les circuits électriques, le courant est issu d'un flux
d’électrons libres. Quand on applique une tension (différence de potentiel) et qu’il y a un
passage de courant, les électrons circulent du pôle négatif (qui les repousse) vers le pôle
positif (qui les attire).
La surchauffe est un problème sérieux car elle peut provoquer des dysfonctionnements ou des
pannes. Un radiateur est fait de matériaux conducteurs qui absorbent puis dissipent la chaleur
générée. L'installation d'un radiateur est vue au chapitre 3.
La carte mère est le système nerveux de l'ordinateur. Une carte mère peut être mono ou multi
processeur. Le besoin en puissance de calcul étant croissant, les mono processeurs ne sont
pas toujours aptes à répondre à la demande, surtout en environnement réseaux. Les bi
processeurs sont habituellement installés avec les OS réseaux évolués comme Windows
2000.
La carte mère est aussi appelée carte système ou carte principale. Tout se connecte sur celle-
ci et est contrôlé par elle, ou dépend d’elle pour communiquer avec d’autres périphériques du
système. La carte système est la plus grande des cartes du PC et tout système en a une. Elle
accueille généralement les composants suivants :
● Le CPU (micro processeur)
● Les circuits de contrôle (chipset)
● Les bus
● La RAM
● Les slots d’extension pour rajouter d’autres cartes
● Les ports pour périphériques externes
● Le CMOS : Semi-conducteur en Oxyde de métal complémentaire, (prononcé C moss)
stockant les paramètres du SETUP
● D’autres mémoires mortes (ROM)
● Les puces BIOS
La carte mère se situe au fond du boîtier pour les UC desktop et est montée verticalement
dans les formats de type tour. Tous les composants du système sont directement connectés à
la carte mère. Les périphériques externes, comme le clavier, la souris ou l'écran, ne pourraient
pas communiquer avec le système sans la carte mère.
Les circuits imprimés sont faits à partir de feuilles de fibre de verre. Ils sont garnis de supports
et autres composants électroniques, incluant différentes sortes de puces. Une puce est
composée de minuscules circuits électroniques déposés sur un carré de silicium. C'est un
matériau ayant la même structure chimique que le sable. Les puces sont de tailles diverses,
mais beaucoup ont la taille d’un timbre poste. On emploie souvent le terme semi-conducteur,
ou circuit intégré, pour parler d’une puce. Les câbles et les connecteurs soudés à la main,
utilisés sur les anciennes cartes mères, sont remplacés aujourd’hui par des pistes en
aluminium ou en cuivre, imprimées sur les cartes. Cette amélioration a fait gagner beaucoup
de temps sur l’assemblage d’un PC et a réduit son coût pour le constructeur et le
consommateur.
On définit souvent les cartes mères par leur facteur de forme qui décrit leurs dimensions
physiques. Les deux formats les plus courants aujourd’hui, sont Baby AT et ATX. La grande
majorité des nouvelles cartes, sont livrées en format ATX. Le format ATX est similaire à Baby
AT, sauf pour quelques améliorations :
● Un port I/O (Entrée/ Sortie) et des connecteurs de souris PS/2 sont intégrés à la carte.
Les cartes mères sont aussi décrites selon le type de connecteur de micro processeur
(socket) qu’elles utilisent : Socket 7, Socket 370, Socket 423, Socket 478, Slot 1, etc. Le Slot 1
appartient à la première génération ATX, alors que les Socket 370 (mono processeur)
appartiennent à la seconde génération ATX. Les Sockets et les Slots, seront traités plus loin
dans ce chapitre, dans la section "CPU"
Les composants présents sur une carte mère, peuvent varier selon son ancienneté et son
niveau d’intégration.
Le chipset détermine :
2.3.7 Le CPU
Un ordinateur ne fonctionne pas sans CPU. Le CPU est souvent comparé au cerveau de
l'ordinateur. Sur la carte mère, le CPU occupe un seul circuit intégré, appelé le
microprocesseur. Le CPU contient deux composants de base, l'unité de contrôle et l'unité
arithmétique et logique (UAL).
L'unité de contrôle indique à l’ordinateur comment suivre les instructions d'un programme. Il
pilote les transferts de données vers et depuis la mémoire du processeur. L’unité de contrôle
stocke temporairement les données, les instructions et les informations traitées dans son unité
arithmétique et logique. De plus, il pilote les signaux de contrôle entre le CPU et les
composants externes, tels que les disques durs, la mémoire principale, les ports E/S etc...
L’Unité Arithmétique et Logique (ALU), effectue les calculs logiques et arithmétiques. Les
opérations arithmétiques sont des opérations de bases, telles que les additions, soustractions,
les multiplications et les divisions. Les opérations logiques, telles que ET, OU et OU exclusif
sont utilisées pour faire des comparaisons et prendre des décisions. Les opérations logiques
déterminent aussi la manière dont est exécuté un programme.
Le processeur exécute la plupart des opérations nécessaires à l’ordinateur pour traiter des
instructions, pour envoyer des signaux, pour tester la connexion et pour s’assurer que les
traitements et le hardware fonctionnent correctement. Il fait office de messager entre les
composants, tels que la RAM, le moniteur et les lecteurs.
Beaucoup de sociétés produisent des CPUs : Intel, Adcanced Micro Devices (AMD) et Cyrix.
Intel est à l'origine de la fabrication de la première puce CPU moderne, en silicium en 1971.
Les différents types de socket, utilisent le système ZIF (Zéro Insertion Force). Le ZIF, est
conçue pour faciliter l'insertion du microprocesseur. Le ZIP typique, contient un levier qui ouvre
et se ferme pour verrouiller le microprocesseur sur le socket. Les différentes versions de
sockets offrent plusieurs nombres et disposition de broches. Le Socket 7, par exemple, a 321
broches. Le nombre de broches augmente généralement avec le numéro du socket.
2.3.8 Le BIOS
Les ROM (Read Only Mémory ou mémoire morte), se situent sur la carte mère. Elles
contiennent des instructions accessibles directement par le microprocesseur. Contrairement
aux mémoires RAM, les ROM ne s'effacent pas lorsque l’ordinateur est éteint. Leurs contenus
ne peuvent pas être effacés ou modifiés, avec des moyens normaux. Le transfert de données
à partir d'une ROM, est plus rapide que n’importe quel disque, mais plus lent que la RAM. On
trouvera sur la carte mère les puce ROM BIOS sous la forme de mémoire morte
programmable effaçable électriquement ( EEPROM ) ou de Mémoire Flash (Flash ROM).
Le BIOS est facile à trouver sur la carte mère, car sa taille est plus importante que la plupart
des autres puces. Son nom est souvent indiqué sur une étiquette très visible, contenant le
nom du constructeur, le numéro de série de la puce et la date de fabrication de la puce. Ces
informations sont vitales, quand on doit mettre à jour le firmware pour cette puce. Le rôle
principal que joue le BIOS dans la fonctionnement du PC, est décrit au Chapître3, "Assembler
un Ordinateur".
EPRPM et EEPROM sont des puces ROM pouvant être effacées ou reprogrammées. La
mémoire morte programmable effaçable (EPROM), est un type particulier de mémoire morte
programmable (PROM), qui peut être effacée en envoyant une source de lumière ultraviolette
au travers d'une ouverture sur le dessus de la puce. Comme la ROM contient les ordres qui
permettent à un périphérique de fonctionner correctement, elle doit parfois être reprogrammée
ou remplacée quand on a besoin de mettre à jour vers des nouvelles versions de pilotes de
périphériques. Contrairement aux puces EPROM, les puces EEPROM sont effacées en
utilisant une tension électrique supérieure à sa normale, plutôt que les ultraviolets. Quand le
système BIOS est contenu en EEPROM, on peut le mettre à jour en activant un programme
spécifique.
Les Flash ROMs, sont des EEPROM spéciales, qui ont été développées suite aux progrès de
la technologie EEPROM. C'est Toshiba qui a crée ce terme désignant la capacité d'une puce à
être effacée en un flash ou très rapidement. C'est en Flash ROM que les BIOS actuels sont
stockés. On peut le reprogrammer à l'aide d’un logiciel spécifique. La mise à jour du BIOS par
ce procédé, se dénomme flashage. Le BIOS implémenté sur une mémoire flash, est désigné
comme BIOS plug-and-play et supporte des périphériques plug-and-play. Ces puces gardent
les données en mémoire, quand l’ordinateur est éteint, donc l’information est stockée de
manière permanente. La mémoire flash est mois onéreuse et plus compacte que L'EEPROM.
Il existe plusieurs types de slots d’extension sur une carte mère. Le nombre et le type de slots
d’extension dans l’ordinateur, déterminent les futures capacités d’extension. Les slots
d’extension courants sont les suivants :
L'AGP (Accelerated Graphics Port traduit en Port Graphique Accéléré), a été développé par
Intel.L'AGP est un bus Haute vitesse adapté aux besoins des logiciels graphiques. Le slot est
réservé aux adaptateurs vidéo. C’est le port de graphique standard, dans tous les nouveaux
systèmes. Sur les cartes mères équipées en AGP, un seul slot AGP contient l’adaptateur
graphique et les slots PCI peuvent être utilisés pour d'autres périphériques. Légèrement plus
petit que le slot PCI blanc, le slot AGP est habituellement d’une couleur différente et est situé à
environ un pouce plus loin du bord de la carte mère par rapport au slot PCI. La spécification
AGP 2.0 décrit une interface supportant des vitesses 1x ou 2x à 3,3 V et des vitesse 1x, 2x, 3x
ou 4x avec des signaux à 1,5 V. AGP 3.0 est la dernière version du port graphique accéléré
définissant un nouveau schéma de signalisation pour des vitesses 4x et 8x sous 8 V. L'AGP 3
fournit une bande passante de 2,1 Goctets/s afin de supporter des utilisation intensive du port
graphique (Photo numérique, vidéo…).
Une carte riser (renvoi d'angle), est utilisée quand l'espace d'un ordinateur est trop restreint
(boîtier fin ou slim). Ce système étend physiquement un slot afin d'y brancher un composant
ou une carte. Les cartes, ainsi insérées sur les cartes riser restent parallèles à la carte mère et
utilisent peu de hauteur.
Un emplacement AMR (Audio/Modem Riser), est une carte intégrée sur une carte mère Intel.
Elle contient les circuit MODEM ou audio. Selon la spécification Intel un connecteur de carte à
46-broche fait la liaison entre la carte AMR et la carte mère. L'AMR contient toutes les fonction
analogiques ou codecs, nécessaires aux fonctions audio et de modem.
L'AMR a évolué vers le CNR (Communications and Networking Riser), qui ajoute des
fonctionnalités réseaux. Le CNR est une interface à 30 broches compatibles a 2 formats
rendant possible des combinaisons variées : audio/modem audio/réseau.
Le MDC (Mobile Daughter Card) est l'équivalent de l'AMR pour les ordinateurs portables.
Tous les composants de base de l’ordinateur sont connectés les uns aux autres par des voies
de communications appelées bus. Le bus est un ensemble de conducteurs parallèles qui
transportent les données et les signaux de contrôle, d’un composant à un autre. Souvenez
vous que les conducteurs sur les ordinateurs modernes, sont en fait des empreintes de métal
sur la carte du circuit.
Il existe trois types de bus, qui peuvent être identifiés, selon le type d’informations qu’elles
transportent. On aura le bus d’adresse, le bus de données et le bus de contrôle.
Le bus d’adresse est un chemin unidirectionnel, ce qui signifie que les informations circulent
dans un seul sens. Sa fonction consiste à transporter les adresses générées par le CPU vers
la mémoire vive et les mémoires d'entrée/sortie de l’ordinateur. Le nombre de conducteurs du
bus, détermine la taille du bus d’adresse, donc le nombre d’emplacements de mémoire que le
processeur peut adresser.
Le bus de données, contrairement au bus d’adresse, est bidirectionnel ; ce qui signifie que les
données circulent dans les deux sens. Les données peuvent vont du CPU vers la mémoire,
pendant une opération d’écriture et de la mémoire vers le CPU pendant une opération de
lecture. Cependant, si deux périphériques essayaient d’utiliser le bus en même temps, des
erreurs se produiront. Tout élément connecté au bus de données doit pouvoir maintenir sa
sortie en attente lorsqu'il n’est pas concerné par un échange avec le processeur (état de
flottement). La taille du bus de données, mesurée en bits, représente la taille de mot de
l’ordinateur. Généralement, plus la taille du bus est importante, plus l’ordinateur est rapide. Les
tailles de bus de données courantes font 8 bits ou 16 bits pour les anciens systèmes et 32 bits
pour les plus récents. Les systèmes de bus de données de 64 bits sont actuellement en cours
de développement.
2.4.1 La RAM
La RAM (mémoire vive ou Random access memory) est le lieu dans l’ordinateur où l’OS, les
programmes d’applications et les données en cours d'utilisation sont stockés de façon à ce
que le processeur puisse les atteindre rapidement. Le cache, est un stockage temporaire. Par
exemple, les fichiers automatiquement requis en regardant une page Web sont stockés sur le
disque dur dans un sous répertoire cache, dans le répertoire du navigateur. COASt signifie «
Cache on a stick ». Il fournit la mémoire tampon sur beaucoup de systèmes du type Pentium.
La RAM
C'est la mémoire temporaire ou volatile. Les données en RAM sont perdues lorsque
l’ordinateur est éteint. Les puces de RAM sur la carte mère de l’ordinateur contiennent les
données et les programmes que le processeur utilise. La RAM est donc une mémoire qui
stocke les données fréquemment utilisées afin qu'elles puissent être retrouvées rapidement
par le processeur. Plus un ordinateur a de RAM, plus il a la possibilité d'exécuter des
programmes important et de traiter des gros volumes de données. La quantité et le type de
mémoire du système feront une grande différence dans les performances de l'ordinateur.
Certains programmes ont plus d’exigences que d’autres. Typiquement, un ordinateur utilisant
Windows 95, 98 ou ME, devrait avoir 64 MOctets de RAM. Il est Fréquent de trouver des
systèmes avec 256 ou 512 MOctets de RAM, particulièrement s’ils utilisent des systèmes, tels
que Windows 2000 ou XP. Elle peut être plus importante (Plusieurs GOctets) pour des serveur
de réseau.
Il y a deux Classes de RAM, qui sont communément utilisées. Ce sont la RAM Statiques
(SRAM) et la RAM Dynamique (DRAM).
● La SRAM est relativement plus chère, mais elle est rapide et conserve ses données
tant que le courant est maintenu. La SRAM est utilisée pour la mémoire tampon.
La RAM peut être installée sur la carte mère, soit de manière permanente, ou bien sous forme
de barrettes. On les trouve sous le nom de Single Inline Memory Modules ( SIMMs ) ou Dual
Inline Memory Modules ( DIMMs ). Les SIMMs et les DIMMs, sont des cartes amovibles, qui
peuvent être remplacées par d'autres plus grands ou plus petits. Même si il est bénéfique
d’avoir plus de RAM sur un ordinateur, la plupart des cartes mères sont limitées en quantité et
en type de RAM, qui peuvent être ajoutées ou supportées. Certains systèmes peuvent exiger
que seuls des SIMMs soient installés. D'autres que la mémoire soit installée en des
ensembles de 2 ou de 4 modules à la fois. De plus, certains systèmes n’utilisent que de la
RAM avec parité et d'autre sans parité (parité Bit supplémentaire à chaque octet permettant de
vérifier les erreurs).
Astuce : Parfois, il est nécessaire de modifier le CMOS du BIOS par le SETUP, pour l’utiliser
ou non de la RAM avec ou sans parité, selon le type de carte mère. (voir notice de la carte
mère)
Un module SIMM se connecte sur la carte mère avec un connecteur 72 ou 30 broches. Les
broches se connectent au bus système, créant un chemin électronique par lequel les données
mémoire peuvent circuler de et vers d’autres composants du système. 2 Modules SIMMS 72
broches, peuvent être installées sur un ordinateur qui supporte un flux de données de 64 bits.
Avec un module SIMM, les broches situées à l’opposé de la carte module, sont connectées
entre elles, formant une seule rangée de contacts.
Un module DIMM, se branche sur un groupe de mémoire (Bank) utilisant un connecteur 168
broches. Les broches établissent une connexion avec le bus du système, créant un chemin
électronique par lequel les données peuvent circuler, entre la puce mémoire et d’autres
composants du système. Un module DIMM avec 168 broches, peut supporter 64 bits (sans
parité) et 72 bits (parité) de flux de données. Cette configuration est utilisée par les dernières
générations de systèmes à 64 bits. Important : les broches d'une carte DIMM, ne sont pas
connectées à leur opposée (comme avec les SIMMs) et constituent deux séries de contacts.
Note : Les SIMMs sont disponibles en 30 et 72 broches. Les DIMMs se présentent sous forme
de cartes plus grandes à 168 broches.
Des formes de RAM plus récente ou plus spécialisées apparaissent fréquemment le marché.
Voici quelques exemples qui ont un intérêt particulier :
La plupart des autres types de RAM, comme la RAM EDO (extended data out ou extraction
de données étendue) et la RAM FPM (Fast page more ou mode page rapide), sont trop lents
pour les ordinateurs d’aujourd’hui et ne sont plus utilisés dans les nouveaux ordinateurs.
La mémoire Cache est un format spécialisé de puce mémoire d’ordinateur. Elle est conçue
pour améliorer la performance de la mémoire. Elle stocke les informations utilisées
fréquemment et les transfère au processeur beaucoup plus rapidement que la RAM. La
plupart des ordinateurs ont deux de niveaux de mémoire cache :
Le cache L1 est plus rapide que L2 car il est situé dans le CPU et va aussi vite que le CPU.
C’est le premier endroit dans lequel le CPU cherche des données. S’il ne les trouve pas dans
le cache L1, la recherche continuera dans L2 et enfin dans la mémoire principale (ou la RAM).
Les caches L1 et L2, sont sur des puces SRAM. Cependant, certains systèmes utilisent des
modules COASt. Les modules COASt fournissent de la mémoire cache à beaucoup de
systèmes de type Pentiums. Il est remarquable pour sa fiabilité et sa vitesse, car il utilise du
cache pipeline burst. Le pipeline-burst (flux en rafale) est nettement plus rapide que la SRAM.
Certains systèmes offrent à la fois des supports SRAM et des supports de modules COASt. Le
module COASt ressemble à un module SIMM, plus long et avec un connecteur différent.
2.5 L'affichage
Les ordinateurs sont habituellement connectés à un moniteur. Les moniteurs sont disponibles
en différentes tailles, formes et caractéristiques. Quand on achète un nouvel ordinateur, il se
peut qu’il soit acheté séparément.
Comprendre les caractéristiques d’un bon moniteur, vous aidera à déterminer celui qui est le
mieux adapté pour un système spécifique. Les termes suivants se rapportent aux moniteurs :
● Le Pitch (Dot pitch ou pad des points) : Il mesure la proximité des points en
phosphore sur l’écran. Plus le pitch est fin, meilleure est la qualité de l’image.
Cherchez les plus petits nombres. La plupart des moniteurs aujourd’hui ont un pitch de
0.25mm, d’autres de 0.22mm, ce qui leur donne une résolution plus fine.
● La RAM vidéo (VRAM) fait référence à la mémoire de la carte vidéo. Plus la carte
vidéo possède de la RAM, plus on peut afficher un nombre de couleurs importantes.
La carte vidéo envoie le signal de rafraîchissement, contrôlant ainsi le taux de
rafraîchissement.
● Les tailles d’écran de moniteurs sont exprimées en pouces. Les tailles les plus
courantes d’écrans sont, 14, 15, 17, 19 et 21 pouces, mesurées diagonalement.
Veuillez noter que la taille visible est en fait plus petite que la taille mesurée. Ayez cela
à l’esprit, quand vous cherchez un moniteur pour votre ordinateur.
la plupart des ordinateurs affichent beaucoup de couleurs à l’écran. Les couleurs sont crées
en variant l’intensité de lumière des trois couleurs de base (rouge, vert et bleu). Les couleurs
en 24 et 32 bits, sont des choix classiques pour des artistes en graphisme et les photographes
professionnels. Pour la plupart des autres applications, des couleurs en 16 bits seront
suffisantes.
Ce qui suit est un résumé des profondeurs d ‘écran les plus couramment utilisées :
Un moniteur et une carte vidéo haute qualité, sont requis pour avoir à la fois une résolution
importante et un taux de rafraîchissement important.
La carte vidéo ou l’adaptateur vidéo, est l’interface entre l’ordinateur et le moniteur. La carte
vidéo indique au moniteur quels pixels doivent être allumés, de quelle couleur doivent Ils être
l’intensité de leur couleur. La carte vidéo est soit une carte d’extension (installée sur un slot
d’extension de la carte mère), ou elle peut être intégrée à la carte mère. Les caractéristique de
l'affichage d'un l’ordinateur, dépendent du moniteur et de l’adaptateur vidéo. Un moniteur
monochrome (noir et blanc), par exemple, ne peut pas afficher les couleurs, quelle que soit la
puissance de l’adaptateur vidéo. La mémoire vidéo est un terme générique qui fait référence à
la mémoire consacrée à l'affichage qu'il faut distinguer du terme VRAM.
La VRAM
La VRAM est un type spécial de mémoire, utilisé sur les cartes vidéo. La plupart des cartes
vidéo modernes contiennent de la VRAM, qui est une forme spéciale de DRAM, qui a deux
ports de données séparés. Un port est consacré mettre à jour en permanence l’image qui
apparaît à l’écran, alors que l’autre port est utilisé pour changer les données d’images
stockées sur la carte vidéo. La VRAM stocke et affiche, délestant, la RAM de l’ordinateur de
cette tâche. Une carte vidéo AGP de 64 bits avec 4 MB de RAM devrait suffire à la plupart des
ordinateurs, mais des jeux vidéos nécessitant plus de graphique peuvent mieux fonctionner
avec une carte vidéo ayant 32 MOctets ou plus de RAM vidéo. Certaines cartes vidéo incluent
même un coprocesseur graphique pour effectuer des calculs graphiques. On appelle ces
adaptateurs des accélérateurs graphiques. Une forme plus récente de VRAM est la WRAM.
Les adaptateurs vidéo sont aussi connus sous le nom de cartes vidéo, carte graphique ou
carte d’affichage. Au minimum, une carte vidéo devrait être un adaptateur PCI avec au moins
4 MB de RAM ou plus, selon le type de graphique à utiliser.
Un port E/S est un moyen de communiquer avec l’ordinateur grâce à un connecteur situé
généralement à l'arrière. Tous les périphériques connectés à un ordinateur utilisent les ports
E/S. L'ordinateur dispose de plusieurs types de ports, qui ont différents buts. Cette section
explore les différents types de ports et les types de périphériques qui les utilisent comme
interface vers ordinateur.
Le connecteur Canon DB-9 (9 broches) est utilisé sur la plupart des nouveaux ordinateurs,
pour les ports séries. Les périphériques ancien utilisent un connecteur plus grand de 25
broches (Canon DB25) pour l’interface de port de série (Ce qui est conforme à la norme RS-
232C). Parfois la souris est utilisée dans le port série 1, appelé COM 1, qui est un connecteur
mâle de 9 broches. Typiquement le modem utilise le port série 2, appelé COM 2, qui est aussi
un connecteur mâle de 9 broches. Les deux ports série sont situés à l’arrière de l’ordinateur.
Les ports parallèles étaient à l'origine utilisés par les imprimantes. Aujourd’hui, on peut les
utiliser pour des périphériques d’entrée et de sortie. Ce type de port parallèle est appelé bi
directionnel et est utilisé pour une transmission rapide de données sur de petites distances.
Les ports parallèles plus récents, peuvent être convertis d’uni directionnel en bi directionnel,
dans le SETUP de la machine. Sur les PC plus anciens, l’interface parallèle de l’imprimante
était située à l’arrière de la carte vidéo, sur une carte E/S multiples, ou sur une carte parallèle
dédiée. Aujourd’hui, Il est situé directement à l’arrière de la carte mère, ou connecté sur celle-
ci par un câble plat a un connecteur 25 broches à l'arrière de la machine. Utilisez un câble
parallèle inférieur à 5 mètres afin d'éviter les erreurs de transmission.
Les ports claviers ou souris PS/2, sont utilisés pour connecter le PC à son clavier et à sa
souris. Bien que les deux ports paraissent identiques, les ports du clavier et de la souris ne
sont pas interchangeables. D’habitude, les deux ports sont différenciés par leur couleur ou des
étiquettes, pour éviter les confusions. Le câble qui relie le clavier ou la souris, utilise un
Le Bus Série Universel (USB), est un port externe, qui permet à l’utilisateur de connecter
jusqu’à 127 périphériques externes au PC incluant :
● claviers
● souris
● Imprimantes
● modems
● scanners
● Caméra (Web Cam)
● lecteurs de disques externes (tous formats)
● Clés mémoires
● …
L’USB est une technologie émergente. Il offre un taux de transfert de données de 12 Mbps
Maximum. La versions plus récente, USB 2.0, est bien plus rapide et transfert les données à
un taux de 450 Mbps. Sept périphériques USB peuvent être généralement connectées
directement à l’ordinateur, en utilisant des connecteurs standards USB à 4 broches. En
utilisant des hubs externes, chacun des 7 périphériques peut être connecté aux autres, créant
une chaîne de 127 périphériques. Un Hub est un concentrateur réseau qui sera traité dans un
chapitre suivant. Les périphériques USB peuvent être branchés à chaud (Hot Plug). Ceci
signifie qu’ils peuvent être reliés pendant que l’ordinateur est en marche. Les périphériques
USB sont aussi de type plug-and-play.
Les périphériques USB sont classés en Full-Speed ou Low-Speed, selon leurs performances
de communication. Un câble relié à un périphérique Full-Speed, ne doit pas excéder 5 mètres.
Par contre, la longueur maximum pour les câbles utilisés pour des périphériques USB à faible
vitesse, est de 3 mètres.
L’USB fut introduit vers la fin des années 1990s et n'a pas été supporté par Microsoft Windows
95 et NT 4.0. La prise en compte de l’USB, est l’une des raisons du succès de Windows 98 ou
2000. Ce Port peut remplacer tous les autres, sauf le port VGA. La plupart des périphériques
USB, peuvent aussi être utilisés sur Macintosh, bien qu'on ne dispose pas parfois des drivers
nécessaires.
Le FireWire est un bus de communication haute vitesse développé sur une plate-forme
indépendante. Il interconnecte des appareils numériques, tels que caméscopes numériques,
imprimantes, scanners, appareils photos numériques et disques durs. Le FireWire est aussi
nommé i.LINK ou IEEE 1394. Développé par Apple, le FireWire fut conçu pour permettre aux
périphériques de se brancher à l’ordinateur de manière transparente. Les avantages du
FireWire sont :
Le FireWire peut supporter jusqu’à 63 périphériques, en utilisant des câble de 4.5 mètres
maximum. Comme en USB, ces périphériques peuvent être branchés ou échangés à chaud.
Le FireWire est basé sur un modèle à mémoire partagée, qui permet aux périphériques
d’accéder directement à des zones de la mémoire. Cela évite d'attendre les informations
circulant dans un flux. Le FireWIre est bien plus rapide que la première version de l’USB,
transférant les données à des taux de 400 Mbps.
L’IDE (Integrated Drive Electronics), est un type d'interface largement utilisé pour connecter
les disques durs, CD-ROMs et Streamers à un PC. L’IDE est très répandu car il constitue une
manière économique de connecter des périphériques. Avec des capacités de 40 MB, il y a
quelques années, les disques durs IDE de 80 GB sont maintenant des entrées de gamme,
coûtant moins d’un demi centime d'Euro par mégabyte.
L’interface IDE est officiellement connue sous le nom de la spécification ATA (AT
Attachement). L'ATAPI (ATA Packet Interface), définit les normes IDE pour les CD-ROMs et
les streamers. L'ATA-2 (Fast ATA), a défini le taux de transfert plus rapide, utilisé en IDE
Amélioré (EIDE). L'ATA-3 a ajouté des améliorations de l’interface, incluant la capacité de faire
état de possibles problèmes.
Avec l’IDE, l’électronique du contrôleur est embarquée dans le lecteur, nécessitant un simple
circuit dans le PC pour les connexions. Les lecteurs IDE étaient reliés aux anciens PC, en
utilisant une carte adaptateur hôte IDE. Aujourd’hui, deux connecteurs EIDE sont intégrés à la
carte mère. Chaque connecteur peut être relié à deux périphériques via un câble plat de 40
conducteurs broches. Avec les lecteurs ATA-66, apparaissent des câble utilise 80 fils et 39
broches. Il se branche sur le même connecteur avec une broche en moins.
Les unités IDE utilisent le mode de transfert PIO (Programmed Input/Output ou Entrée/Sortie
Programmée). Ce mode utilise les registres du CPU pour transférer les données. Il existe
aussi le mode DMA (Direct Memory access) qui transfert les données directement entre l'unité
périphérique et la mémoire vive (Le bus étant à ce moment piloté par le contrôleur DMA).
L'EIDE ou pilote de disque ATA-2, est une version plus récente de l’IDE. Elle permet de
prendre en charge 8,4 GOctets par disque alors que L'IDE en était à 528 MOctets. L’IDE peut
supporter seulement deux unités disques alors que L'EIDE en supporte 4 en utilisant 2 câbles
IDE 40 broches (longueur maximum de 45 cm). De plus, l’EIDE supporte des périphériques
non disque, utilisant protocole ATAPI. L’ EIDE est souvent décrite comme une interface ATAPI
(AT Attachment Packet Interface), ou une interface Fast ATA (Fast AT Attachment). L’ATAPI
est le protocole utilisé par des Périphériques IDE Etendus tels que les lecteurs de CD-ROM,
DVD, Graveurs CD et DVD, Streamer, etc.
L'option appelée CSEL "Cable Select" (Sélection par le Câble), permettra à l’adaptateur IDE
de sélectionner quel lecteur de disque sera le Maître et quel lecteur de disque sera l’Esclave.
Si sur le même canal les disques sont tous 2 en Maître ou en Esclave, le système ne
fonctionnera pas.
Lisez la documentation du lecteur attentivement, étant donné que les normes de l’industrie ne
s’applique pas aux réglages des cavaliers, pour les lecteurs des disques IDE ou EIDE.
A partir de l’ATA-4 Le mot Ultra et le taux de transfert sont accolés au nom dans la
désignation.
Par exemple, à 33 MO/sec, des termes tels que Ultra ATA, Ultra DMA, UDMA, ATA-33, DMA-
33, Ultra ATA-33 et Ultra DMA-33, ont tous été utilisés.
Les lecteurs de disques Ultra ATA, sont généralement plus rapides que les lecteurs de
disques ATA et ATA-2.Ces lecteurs de disques sont installés et configurés de la même façon
que les lecteurs de disques ATA-2 (Maître/Esclave/CSEL). Cependant, les versions plus
rapides, ATA-66 et ATA-100, nécessitent l'usage d'un câble plat spécial à 80 fils. Cependant, il
utilise toujours les mêmes 40 broches conductrices que les versions précédentes.
ATTENTION : ne pas utiliser ces nouveaux câbles pour ces disques à haute vitesse peut
provoquer des problèmes et des pertes de données.
Les améliorations de la technologie, ont permis aux disques durs de voir leur taille s'accroître
de plus en plus. Aujourd’hui, les lecteurs de disques typiques ont une capacité de 100 G0 et
plus.
Le contrôleur SCSI (Small Computer Systems Interface), fut développé en 1979, chez Shugart
Associates Standard Interface (SASI). Comme en EIDE, les périphériques SCSI possèdent
tous l'électronique de contrôle embarqué. Cependant, le SCSI est un contrôleur d’interface
bien plus élaboré que les ATA-2/EIDE. Il est idéal pour les ordinateurs de pointe et les
serveurs réseaux.
Les périphériques SCSI sont en général connectés en série, formant une chaîne
communément appelée "daisy chain". Les deux périphériques SCSI aux extrémités de la
chaîne, doivent être munis d'un bouchon de terminaison. Les autres périphériques ne doivent
pas en être équipés.
Le bus SCSI identifie chaque unité par numéro SCSI ID. En général, les bus SCSI peuvent
gérer 7 périphériques et un contrôleur SCSI numérotés de 0 à 7. Certaines versions de SCSI
supportent un total de 15 périphériques et un contrôleur numérotés de 0 à 15. Chaque
périphérique d'une chaîne SCSI doit avoir un ID unique. En SCSI on trouvera : Disques durs,
lecteurs de CD-ROMs, lecteurs disquettes, scanners et lecteurs amovible. On donne à chaque
périphérique de la chaîne, y compris la carte contrôleur, un ID, de 0 à 7. Le #0 est particulier
car il identifie la première unité de démarrage (disque dur). Le #7 est pour la carte contrôleur
SCSI.
Les ID n'ont pas besoin d'être consécutifs, mais deux périphériques ne peuvent pas avoir le
même numéro d'ID.
Les numéros SCSI ID sont généralement configurés par des cavaliers, sur le périphérique
SCSI. Une duplication du SCSI ID sur une chaîne SCSI peut provoquer l’inaccessibilité du
canal. Pour faire booter la machine à partir d'un disque SCSI, on devra lui attribuer un ID à 0
ou 1.
● La terminaison passive est bon marché à mettre en place, mais ne devra être utilisée
que pour des canaux SCSI à basse vitesse, avec des câbles courts.
● La terminaison active est préférable. Elle permet des vitesses bien plus importantes et
des câbles plus longs.
● La FTP (Forced Perfect Termination) est la meilleure méthode. On peut l'utiliser pour
les configurations les plus rapides en SCSI. C’est le système le plus complexe à
mettre en place et par conséquent le plus coûteux. Cependant, le coût supplémentaire
sera amorti par un système bien plus fiable.
La terminaison SCSI, peut être implémentée de plusieurs manières. Les deux extrémités du
bus SCSI doivent être équipée d'un terminateur et l’adaptateur SCSI va être à l’une des
extrémités du bus SCSI. Donc, un point de terminaison se trouvera sur l’adaptateur lui-même.
Ceci est habituellement fait automatiquement et il n’y a pas besoin de modifier la configuration
du contrôleur SCSI pour qu’il termine le bus à son extrémité. A l’autre extrémité du bus SCSI,
le dernier disque dur sur le canal SCSI doit être muni d'un bouchon (en général par
l’intermédiaire d’un cavalier sur le disque dur, ou un terminateur spécial intégré au dernier
connecteur, sur le câble SCSI). Il est très courant pour des périphériques SCSI en mode
différentiel basse tension de ne pas être capable de terminer le bus SCSI eux-mêmes. Un
terminateur spécial doit être utilisé dans le dernier connecteur du câble SCSI.
Il y a 3 types de systèmes de signalisation qui peuvent être utilisés par les périphériques SCSI.
Ces trois systèmes sont SE (Single-ended ou terminaison simple), différentiel (DIFF), plus
connu sous le nom de différentiel à haut voltage (HVD) et différentiel à faible voltage (LVD). Il
n’y a pas de différences entre les connecteurs utilisés parmi les trois systèmes de
signalisation. Un système de symboles a donc été inventé pour faire la distinction entre les
différents systèmes.
Le SCSI-1
Le SCSI-1, appelé SCSI à l’origine, était utilisé par beaucoup d’ordinateurs Apple au début des
années 80. Par rapport aux normes d’aujourd’hui, il était relativement lent. Le bus SCSI
fonctionnant à une vitesse de 5 MHz, en utilisant un bus de données de 8 bits. Ceci permettait
un taux de transfert de 5 MOctets/s. Le câble interne SCSI-1 était un câble plat qui était, qui
était relié au contrôleur du disque, par un connecteur 50 broches. Beaucoup de contrôleurs
SCSI utilisaient un connecteur 25 broches DB-25, pour les périphériques SCSI externes. La
terminaison SCSI-1 consistait habituellement un ensemble de 3 résistances, sur le contrôleur
SCSI (en Extrémité de chaîne). Deux autres possibilités était couramment un jeu de 3
résistances sur le dernier lecteur de disque SCSI du bus, ou un terminateur réel connecté à
l’extrémité du bus SCSI. La longueur maximale de câble est 6 mètres en SCSI.
Le SCSI-2
Le SCSI-2 utilise deux systèmes de signalisation différents, connus sous le nom de l’interface
différentielle et l’interface à terminaison-unique (single-ended). Les deux systèmes de
signalisation sont incompatibles et ne peuvent pas être mélangés sur le même bus SCSI.
Assurez vous que tous les périphériques et le contrôleur SCSI utilisent tous le même. A cause
des limitation de longueurs de bus, le câblage SCSI-2 single-ended, se trouve généralement
en interne dans un châssis de serveur. L’interface différentielle autorise des câbles plus longs
et on le trouve généralement pour connecter le serveur à un périphérique SCSI externe. Le
SCSI-2 utilise le même connecteur 50 broches sur le câble SCSI interne, qui est utilisé par les
périphériques SCSI-1.
Le SCSI-2 a une variante appelée Wide SCSI-2, qui peut transférer 16 bits en une fois, par
opposition 8 bits du SCSI-1 et du SCSI-2 standard. Cette largeur de bus supplémentaire
requière l’utilisation d’un connecteur à 68 broches. Le Wide SCSI-2, permet 16 périphériques
sur la chaîne SCSI-2, alors que le SCSI-2 standard appelé aussi Narrow SCSI-2 (SCSI-2
étroit) et le SCSI-1 ne permettent que 8 périphériques sur la chaîne SCSI.
Une autre variante du SCSI-2 est Le Fast SCSI-2, qui double la vitesse du bus de 5 MHz à 10
MHz. Le Fast SCSI-2 nécessite la technique de terminaison active. A cause de la vitesse
accélérée, la longueur du bus est réduite de 6 mètres à 3 mètres. Il existe aussi un Fast-Wide
SCSI-2 qui combine les deux variantes. Il peut transférer des données à 20 MBps. Le Fast
SCSI-2 et les variantes Fast-Wide SCSI-2, nécessitent une terminaison active. Le SCSI-2
normal et le Wide SCSI-2, peuvent utiliser des terminaisons passives, bien que la terminaison
active soit préférable.
Le SCSI-3
Le SCSI-3 est la dernière norme de la famille SCSI. Il combine toutes les meilleures
caractéristiques des précédentes normes SCSI. Il utilise un signal différentiel LVD et supporte
jusqu’à 15 périphériques sur un seul câble. Le câble peut avoir une longueur de 12 mètres. Le
SCSI-3 supporte trois vitesses de bus différentes, connues sous le nom de :
Ils peuvent être à la fois Narrow (8 bits) et Wide (16 bits) pour les trois vitesses de bus SCSI-3.
L’Ultra SCSI-3 et l’Ultra2 SCSI-3, utilisent tous les deux des connecteurs 50 broches. Les
variantes larges (le Wide Ultra SCSI-3 et le Wide Ultra2 SCSI-3) ainsi que l’Ultra3 (connu sous
le nom de Ultra 160 SCSI-3) utilisent des connecteurs 68 broches. Toutes les versions du
SCSI-3 nécessitent des terminaisons actives.
Les lecteurs de disques des SCSI-1, SCSI-2 et SCSI-3, peuvent être mélangés sur le même
canal SCSI, mais ce n’est pas recommandé. Mélanger les lecteurs de disques des différentes
versions de SCSI, peut sérieusement nuire aux performances du canal SCSI.
Un lecteur de disquettes (FDD), lit et écrit magnétiquement des informations sur une
disquette. La disquette est une forme de support de stockage amovible. Introduites en 1987,
les disquettes de 3.5" (3 pouces et demi) utilisées aujourd’hui ont une enveloppe plastique
externe protégeant le disque souple et fin. Les partie principales d'une disquette sont : Le
boîtier de protection, le disque magnétique souple, un volet coulissant et son ressort.
Le FDD est monté dans l’unité centrale du interne et seulement retiré pour réparations ou
remplacement. La disquette peut être retirée à la fin d'une session de travail. Le principal
inconvénient de la disquette, est sa faible capacité 1.44 Mo, Bien que suffisante pour des
documents textes WORD par exemple ou des fichiers. Cependant, pour d'autres fichiers
(graphique, vidéo, son…), la capacité d’une disquette classique peut se révéler insuffisante. La
plupart des PCs sont encore équipés de lecteurs disquettes aujourd'hui.
Le HDD contient des plateaux rigides aussi appelés disques. Cette rigidité est à l'origine du
terme disque dur. Généralement, le HDD n’est pas extractible, c’est pourquoi IBM a référencé
le disque dur comme disque fixe. En résumé, un lecteur de disque dur est un périphérique de
stockage de grand volume, à haute densité et rigide.
Les plateaux, sont les médias sur lesquels les données sont stockées. Généralement un
disque dur a de deux à dix plateaux. Ils ont un diamètre soit de 2 pouces ½ ou 3 pouces ½ et
sont faits d'aluminium (ou autres métaux), de matériaux composites, de céramique ou de
verre (pour les modèles les plus anciens). Ils sont recouverts d’un film fin magnétiquement
sensible des 2 cotés. Les plateaux ont empilés sur un moyeu qui les maintient espacés entre
eux. Le moyeu est aussi appelé l'axe.
Les plateaux ont une tête de lecture/ écriture de chaque côté utilisée pour accéder au média.
Les têtes de lectures/ écritures sont solidairement assemblées sur un rack. Elles se déplacent
donc en même temps sur les plateaux. Les têtes sont reliées au rack par des bras, eux même
fixés sur le mécanisme de positionnement des têtes. une tête est un appareil en forme de U
ou de V, faite de matériau conducteur électrique à l'intérieur d'une bobine électrique. ce qui
rend la tête sensible aux champs magnétiques des plateaux.
Alors que les têtes de lecture/écriture des lecteurs de disquettes sont en contact avec la
surface, celles du disque dur "flottent" légèrement au dessus de la surface. C’est pourquoi les
plateaux tournent à de très haute vitesses, de 4,500 à 10,000 tours par minute (rpm), créant
une pression d’air entre eux et la tête de lecture/écriture. Le moyeu central (broche) sur lequel
les plateaux sont montés, tourne grâce à un moteur directement monté sur l'axe. Il n’y a ni
courroie ni pignons entre le moteur et l’arbre des plateaux. Cet entraînement direct permet des
gains de fiabilité, de coût de fabrication et réduit le bruit.
Note : ne pas ouvrir un lecteur de disque dur pour essayer de le réparer car le disque dur
nécessite un environnement extrêmement propre. Les disques sont montés dans un boîtier
protecteur étanche et ne doivent jamais être laissés à l’air libre. Les réparations sont
effectuées dans une salle blanche. Même des particules telles que la fumée, la poussière et
les cheveux y ont été retirés de l'air.
Le lecteur de disque dur fonctionne plus ou moins de la même façon que le lecteur de
disquettes. Les plateaux tournent à haute vitesse, pendant que les têtes du lecteur accèdent
du média pour effectuer des opérations de lecture ou d’écriture. Comprendre comment
fonctionnent les têtes lisent et écrivent les structures de données sur le plateau, est crucial
pour savoir comment fonctionne le lecteur.
Le média sur le plateau du lecteur est une couche de matériau sensible. En général, les
lecteurs de disques durs modernes utilisent un film fin en alliage de cobalt, disposé en
plusieurs couches fines de l'ordre du micron. Les particules magnétiques dans ce média, sont
disposées de manière aléatoire, quand le disque est vierge. Lorsque une tête écrit à un
endroit, les particules sur les pistes s’alignent dans une direction spécifique qui dépend du
sens du courant électrique dans tête. Le courant dans la tête peut être inversé, provoquant un
flux dans le sens contraire (à l’opposé de l’orientation magnétique dans le média). Alors que le
plateau tourne, la tête créera un schéma magnétique le long de la piste qui représente les
données binaires enregistrées.
Certaines des interfaces de disques durs plus anciens, utilisaient une interface au niveau
matériel. Ces disques durs plus anciens avaient beaucoup de problèmes de compatibilité,
d’intégrité des données et de vitesse. L’interface FDD d’origine utilisée dans l’IBM PC/XT fut
développé par Seagate Technologies et était référencée MFM (Modulation de Fréquence
Modifiée). La MFM utilisait une méthode d’encodage du disque magnétique avec l’interface
ST-506.
Le RLL (Run Length Limited) est une interface de disque dur qui est similaire à la MFM, mais
possède un plus grand nombre de secteurs. Le RLL est une méthode d’encodage
communément utilisée sur les disques magnétiques, incluant les interfaces RLL, SCSI, IDE et
ESDI. Actuellement, les normes les plus courantes en matière de disques durs sont l’IDE,
EIDE et SCSI.
Cette section traite du lecteur de CD-ROM La technologie à l'origine du CD-ROM date de la fin
des années 70. En 1978, Sony et Phillips introduisent le CD audio. A l’heure actuelle, la taille
du média et la conception de base du CD-ROM n’ont pas changé. Pratiquement, chaque UC
assemblée aujourd’hui comprend un lecteur de CD-ROM. Un lecteur CR-ROM est fait d'un
mécanisme d'entraînement, un faisceau laser qui illumine la surface en relief du disque, un
prisme qui fait dévier le faisceau laser et une photodiode, qui lit la lumière projetée.
Aujourd’hui, il existe beaucoup de choix comprenant le CD-ROM,le CD-R, le CD-RW et le
DVD-ROM.
Un lecteur de CD-ROM est un périphérique qui lit les informations stockées sur un compact
disque. Alors que les disques durs et les disquettes sont des média magnétiques, le CD-ROM
est un média optique. La durée de vie d’un média optique se compte en dizaines d’années.
Ceci qui fait du CD-Rom un outil très pratique.
Les CD-ROMs sont très utiles pour installer des programmes, lancer des applications qui
installent des fichiers sur le disque dur et exécutent le programme en transférant les données
du CD-ROM vers la mémoire pendant que le programme fonctionne.
Un CD-ROM est un support de données en lecture seule. Le terme CD-ROM peut faire
référence à la fois au disque et au lecteur de CD-ROM.
Les principaux composants d’un lecteur de CD-ROM sont la tête optique intégrée, le
mécanisme de positionnement de la tête, le moteur d’axe, le mécanisme de chargement, les
connecteurs et cavaliers, ainsi qu’une carte électronique de pilotage. Le lecteur de CD-ROM
peut se loger à l’intérieur du boîtier, ou bien être connecté à l’ordinateur par un câble (externe).
Quand les données sont en cours de lecture, un faisceau laser est réfléchi sur les creux (pits)
et les parties plates (lands) situées à l’arrière du disque (côté étiquette). Puisque les trous
réfléchissent moins la lumière, ils sont vus par le lecteur de CD-ROM comme des 0. A
l'inverse les parties plates qui réfléchissent plus de lumière sont vues comme des 1. Cet
ensemble, de 0 et 1 constitue le codage binaire compris par les ordinateurs.
Les graveurs de CD sont maintenant répandus. Ils permettent de graver des CD-ROMs, par
un processus connu sous le nom de CD burning.
La vitesse est une caractéristique du lecteur du CD-ROM. Plus le disque tournera rapidement,
plus les données seront transmises rapidement à la mémoire de l’ordinateur. La vitesse du
CD-ROM est indiquée par un nombre suivi d’un "X". Par exemple, un CD-ROM permettant une
vitesse de 12 (fois la vitesse de base d'origine), est dénommé 12X. Plus le nombre est grand,
plus le disque tournera rapidement. Le temps d’accès et le taux de transfert sont deux autres
spécifications importantes à prendre en compte.
Pour les lecteurs CR-ROM externe le taux de transfert est variable : voir la documentation du
constructeur.
Le DVD est un type de disque optique de même diamètre que le CD, 120mm. Le DVD
ressemble au CD, mais il a des capacités de stockage nettement plus importantes. Les DVDs
sont inscriptibles sur les 2 faces et certaines versions ont 2 couches par face. Ils peuvent avoir
25 fois la capacité de stockage du CD.
A l'origine les DVD ont été conçus pour les Digital Vidéodiscs (disques vidéo numériques).
Avec l'évolution technologique Informatique, La partie vidéo du nom a été abandonnée pour
devenir simplement D-V-D. Le DVD Forum a été créé en 1995 afin d'échanger et de
promouvoir idées et informations sur le format du DVD et ses possibilités techniques ses
améliorations et innovations. Au début le DVD Forum utilisa le terme Digital Versatile Disc.
Actuellement, les 2 termes : Digital Versatile Disk et Digital Video Disk sont admis.
Deux type de support ont été développés pour les DVDs : Les "plus" et les "moins". Le DVD
Forum définit les différents types "moins" par DVD et un trait d'union, comme DVD-R et DVD-
RW. Ce support est appelé Moins R ou or Moins RW. L'ALLIANCE DVD+RW, créée en 1997,
a développé le standard "plus". Il inclut le DVD+R et le DVD+RW. Le "plus" et le "moins" ont
été confondus jusqu'à récemment. En 2002 des lecteurs supportant les deux standards sont
arrivés.
Lors de la lecture, Un faisceau Laser est réfléchi sur la surface. La gravure se situe sur la face
arrière du disque. Les creux réfléchissant moins de lumière, ils sont vus comme des 0 par le
lecteur. et les plats (plus réfléchissants) sont vus comme des 1.
Pour les lecteurs DVD externe le taux de transfert est variable : voir la documentation du
constructeur.
Les lecteurs de bandes (streamers) sont les périphériques de sauvegardes les plus utilisées
sur les serveurs réseaux. Les supports a bande sont réputés pour leur durée de vie
importante. Leur performance est en partie due à la partie mécanique incluse dans certains
lecteurs. Il existe plusieurs types de streamers qui utilisent différents formats de cassettes
pour stocker les données. Beaucoup de streamers peuvent aussi compresser les données
avant leur écriture sur bande. La plupart du temps le taux de compression est de 2. Ce qui
double la capacité de stockage du support.
Les modems, sous forme de cartes d’extension, sont des cartes modems. La carte modem
prend en charge toutes les transmissions de données du port série de l’ordinateur, grâce à
une puce spéciale, appelée UART (universal asynchronous receiver transmitter ou émetteur
récepteur asynchrone universel). Quasiment tous les PC vendus aujourd’hui, possèdent une
UART 16550, pour répondre à la demande de connexion rapide à Internet. Le nombre 16550,
représente un changement de génération de ces puces. Il y a trois générations :
● 16550 – Le plus courant pour les ordinateurs Pentium, il a un buffer FIFO (premier
entré, premier sorti), qui élimine efficacement les débordement de mémoire. (le
débordement se produit lorsqu’un port de système fonctionne plus vite que le CPU ne
peut être traité ses données.
La principale différence dans les différentes puces UART, est la vitesse à laquelle elles
peuvent transmettre les données. Les versions les plus avancées d’UART sont les modèles
16450 et 16550. Le 16450 est l’amélioration 16 bit du 8250. Le 16550 est une UART haute
performance avec une mémoire tampon 16 bytes intégrées.
Les modems et leur rôle dans la connexion Internet seront traités en détail au Chapitre 10
«Bases des Réseaux».
Une NIC (Network Interface Card) désignée aussi adaptateur réseau, est utilisée pour
connecter un ordinateur à un ensemble d’autres ordinateurs, afin de partager des données et
des ressources, dans un environnement réseau. Toutes les cartes d’interface réseau sur un
Comme l’indique leur nom, les NIC sont des cartes d’extension (PCI ou ISA), qui peuvent être
installées dans l’un des slots d’extension de l’ordinateur. Le câble réseau se branche à
l’ordinateur par l’intermédiaire de la carte NIC avec un connecteur RJ-45. Ce connecteur
ressemble au RJ-11, qui a été traité précédemment, sauf qu’il contient 8 câbles (au lieu de 4
pour le RJ-11). Pour que deux ordinateurs en réseau puissent communiquer, ils doivent être
connectés à la même vitesse et utiliser la même technologie de couche 3. La couche 3 fait
référence au modèle de réseau TCP/ IP et sera traité plus en détail dans le Chapitre 9, Bases
des Réseaux.
Avec la carte NIC, connecteur RJ-45 est utilisé avec les câbles réseaux UTP (paires torsadées
non Blindées), alors qu’un autre type de connecteur, le BNC (British Naval Connector) équipe
des de câbles coaxiaux. Le câblage réseau (média réseau), et les NICs, seront traités
ultérieurement dans un autre chapitre.
Dans le carde de la configuration d'un ordinateur, les mots "ressources systèmes" font
références aux mécanismes utilisés pour interfacer, communiquer et contrôler les adaptateurs
des périphériques individuels, ainsi que les ports séries, parallèles et la souris. Les ressources
systèmes sont partagées entre les différents composants du système qui ont besoin de
communiquer avec le CPU.
Le CPU est un moteur complet d’ordinateur qui est fabriqué sur une seule puce. Non
seulement il contrôle les fonctions de l’ordinateur, mais prend aussi en charge les requêtes
des unités d'E/S dans le même temps. Cependant, le CPU n’est capable que de prendre en
compte une seule requête à la fois. Les ressources systèmes empêchent deux périphériques
ou plus de communiquer en même temps et permettent aussi au CPU d’identifier le
périphérique qui fait une demande.
Les ordinateurs modernes et les OS doivent leur fiabilité à la manière dont sont organisées les
transactions internes. Plusieurs périphériques, par exemple, peuvent dire en même temps au
CPU qu’ils ont des informations prêtes à être transférées. Les périphériques indiquent cela en
effectuant une requête (demande) d'interruption ou IRQ. En règle générale les IRQs ne
peuvent pas être partagées (sauf pour les systèmes récents utilisant le plug and play et le
partage d'interruptions). Une IRQ aura pour conséquence de détourner L'OS de sa tâche en
cours afin que le CPU traite sa demande. Il est recommandé que les affectations part défauts
des n° d'IRQ aux périphériques soient respectées.
Nota : Sachez à quel périphérique ou à quel port, chaque IRQ est assignée.
IRQs Cascadées
Le concept d’IRQs en cascade, est illustré le fonctionnement des contrôleurs d'interruptions du
PC XT du AT. Le PC XT est équipé d'un contrôleur à 8 lignes d'IRQs, de 0 à 7. L'AT, lui fut
équipé d'un contrôleur supplémentaire (soit 8 lignes de plus numérotées de 8 à 15). Les 2
contrôleurs sont en cascades par l'IRQ 2.
Par conséquent, si l’IRQ 2 est utilisé par un périphérique l’IRQ 9 l'est aussi. Le fait de
fonctionner en cascade signifie simplement que l'IRQ est redirigée.
Les canaux DMA permettent aux périphériques d'éviter le processeur et d'accéder directement
à la mémoire de l’ordinateur. Les périphériques qui utilisent le mode DMA, transfèrent leurs
données plus rapidement. Les canaux DMA sont utilisés généralement par des périphériques
de communication rapides pour le transfert de grandes quantités de données à grande
vitesse. Par exemple : les cartes son, certaines cartes réseaux, certaines cartes SCSI, certains
lecteurs de disques et certains streamer.
Lorsqu’un périphérique signale son intention d’utiliser le canal DMA, le contrôleur DMA prend
le contrôle du bus de données et d’adresse du microprocesseur ou du CPU (les bus de
données et d’adresses sont des lignes de communication qui transportent des informations à
la mémoire de l’ordinateur). Le CPU est en réalité mis dans un état de flottement donc,
temporairement déconnecté des bus. Une fois que le transfert est terminé, le contrôleur DMA
libère les bus de données et d’adresse pour le CPU, qui peut reprendre son activité normale.
Un inconvénient de l’utilisation du DMA, particulièrement avec les modèles plus anciens, est
que le CPU peut être mis en attente, pendant que le périphérique DMA fonctionne, ralentissant
tout le système jusqu’à ce que transfert soit terminé.
Comme avec les IRQs, des affectations de priorité sont affectées aux les périphériques qui
veulent faire un transfert DMA. Plus le numéro d'un périphérique DMA est petit, plus il a une
grande priorité. Il est important de comprendre le fonctionnement du DMA.
En plus des IRQ, on doit affecter un numéro de port I/O aux composants de l'ordinateur. Le
numéro de port I/O est une adresse mémoire de la mémoire d'E/S. C'est une mémoire
spéciale qui n'a rien à voir avec la mémoire vive. Des informations nécessaires à la
configuration de la communication entre le CPU et le périphérique sont échangées à cet
endroit. Par exemple, une imprimante vient de détecter un manque de papier et le signalera
au CPU à cette adresse pour qu'il interrompe l'impression. Il ne faut pas confondre l'adresse
I/O avec l'adresse d'échange de données entre le CPU et le périphérique. Cette adresse de la
mémoire vive stocke temporairement les données qui vont soit, sortir vers le périphérique soit
en arriver vers le CPU.
Les portables incorporent l’UC, Le clavier, la souris et l'écran, en une seule unité légère, qui
contrairement aux tours ou bien desktops, peut être transportée par l’utilisateur. On les appelle
aussi ordinateurs notebooks, ordinateurs portables, palmtops, ou PDA (personal digital
assistant) selon leur taille et leurs usages. L’accent sera mis dans cette partie sur les
ordinateurs portables, mais les questions soulevées sont communes à tous les portables.
Fabriquer des ordinateurs portables n’a pas été sans problèmes. Les premières tentatives de
conception d’ordinateurs portables, ont produit des systèmes lourds avec peu d'autonomie.
Puis, grâce aux avancées technologiques, particulièrement pour les circuits intégrés (IC) et
dans la conception des périphériques, le portable maintenant concurrence les systèmes
desktops et tours, en vitesse, puissance et nombre de fonctionnalités. Un notebook classique
offre beaucoup de fonctions.:
● un écran plus grand que ceux généralement associés aux machines plus anciennes
(PC-AT)
L'utilisation du portable diffère du desktop de plusieurs manières. Clavier plus petit et souris
intégrée sous différentes formes :
● Trackball – Petite boule que l'on fait tourner pour déplacer le curseur à l'écran
● Touchpad – Le curseur est déplacé par glissement d'un doigt sur une tablette
rectangulaire qui permet aussi la fonction de défilement et de clic.
Les portables sont construits dans l'objectif d’être légers et correspondant à une certaine taille
et format. Ceci a engendré des contraintes particulières dans le développement des
composants hardware d'un ordinateur portable. Cette section explore certains de ces
composants.
L'alimentation électrique
Généralement les portables sont équipés d'un adaptateur de courant. En option, on trouve des
adaptateurs et chargeurs sur prise allume cigare de voiture selon les constructeurs. Comme
ils sont conçus pour être autonomes, des batteries ont été incorporées aux portables comme
composants intégrés.
Plus récemment, des batteries en "Nickel Metal-Hybride" (NIMH) et en Lithium-Ion ont été
utilisées pour les portables. Ces batteries sont habituellement construites dans un étui
plastique qui peut être facilement inséré dans un portable. Ces batteries durent généralement
un peu plus de deux heures, selon leur capacité et la consommation du portable. De plus, la
recharge ne prend que trois ou cinq heures.
Un inconvénient pour les portables est qu’il n’y a actuellement pas de normes industrielles en
place pour l’alimentation électrique. Par conséquent, une batterie sur un portable, ne sera
sûrement pas compatible avec un autre portable.
Un logiciel de gestion de l'alimentation est installé sur la plupart des portables pour prolonger
la durée d'utilisation ou conserver de la puissance lorsque la batterie est faible. Lorsque la
batterie du portable est faible il se mettra a fonctionner plus lentement. Le logiciel de gestion
de l'alimentation rend compte de l'utilisation du portable. Il indiquera que l'alimentation
électrique est a son niveau bas afin de laisser le temps de sauvegarder un travail. A la
réception de cet avertissement, il faut brancher le portable ou remplacer la batterie.
Disques Durs
Comme pour la plupart des composants d’un portable, les disques durs ont été développés
spécifiquement pour être plus petits et moins gourmands en courant pour s'adapter aux
contraintes du portable (encombrement et puissance électrique). La taille des disques durs de
portables a subit d'énormes adaptations. On économise de la puissance sur les portables en
coupant l'alimentation du disque si on n'y a pas accédé depuis un certain temps.
● Les cartes de Type I, font 3.3 mm d’épaisseur et sont utilisées comme unités
d’extension de mémoire.
● Les cartes de Types III, font 10.5mm d’épaisseur et sont conçues pour être utilisées
uniquement pour les disques durs.
● Les nouvelles cartes Mini PCI sont utilisées principalement dans les notebooks, Les
Web pad (portables Wireless), L'Internet personnel et d'autres applications mobiles :
● Cartes Mini PCI Type I permettent une souplesse de mise en place grâce à une
connexion par câble sur l'Entrée/Sortie. Utilisée principalement sur des système
complets destinés à remplacer des ordinateurs de bureau.
● Cartes Mini PCI Type II conçues pour des systèmes haut de gamme avec des
connecteurs modulaire sur la carte. Le type II est le plus simple à maintenir et à
garantir.
● Cartes Mini PCI Type III conçues pour les portables fins, qui dominent de plus en
plus le segment des notebooks haut de gamme.
Mémoires
Les modules SODIMM (standard Small Outline Dual Inline Memory Module) sont
majoritairement utilisés dans les portables. Quelques notebooks utilisent des modules de
format propriétaires. Il faut avoir suffisamment de RAM pour le système et les applications.
Vérifier les informations sur l'installation de mémoires dans la notice utilisateur pour de plus
amples informations. Certains portables sont équipés de panneau amovibles qui facilitent
l'ajout de barrettes de mémoire.
Du fait de leur nature compacte et de leur faible puissance électrique, les ordinateurs
notebook et autres portables, n'utilisent pas d'écrans à tubes cathodiques (CRT) mais des
écrans à cristaux liquides (LCD) et des écrans plasma. Ces deux types d’écrans sont adaptés
au transport des ordinateurs portables, pour un certain nombre de raisons :
● Ils sont beaucoup plus légers et plus compacts que les écrans CRT.
Les écrans plats les plus courants des portables récents sont les LCDs. Ils ont l’avantage
d’être relativement minces, plats, légers et de réclamer que peut de puissance électrique. De
plus, ces écrans offrent une meilleure fiabilité et une durée de vie plus longue que les écrans
CRT.
Note: Les écrans des portables sont alimentés par du courant électrique à bas voltage DC, tel
qu’une batterie ou un adaptateur, tandis que les écrans CRT sont généralement branchés
directement à la prise électrique murale.
Une station d’accueil, est une unité qui permet à l’ordinateur portable de fonctionner avec les
périphériques hardware d'un ordinateur de bureau. Lorsqu’un notebook est inséré dans la
station d’accueil, le bus d’extension dans la station d’accueil se connecte au bus d’extension
du portable. Habituellement, une station d’accueil fournit des slots d’extension de PC standard,
si bien que les périphériques de PCs standards, comme les cartes réseaux, son, etc, peuvent
être utilisés avec le notebook. Quand un ordinateur notebook est en station d'accueil, ses
périphériques d’Entrée/Sortie (écran, clavier et souris) sont désactivés et les périphériques de
la station d’accueil prennent le relais. Cela permet au notebook d’utiliser toute une panoplie de
périphériques de desktop qui seraient inutilisables par ailleurs : Alimentation électrique,
moniteur CRT, un clavier taille normale, souris, modem et les connecteurs de ports de PC
standards.
Actuellement, il n’y a pour le moment pas de normes pour les ordinateurs portables. Il y a peut
de chances que deux constructeurs situent les connecteurs aux mêmes endroits, ou
conçoivent des boîtiers identiques.
Un réplicateur de port, a les mêmes objectifs qu'une station d'accueil. Il relie de multiples
périphériques à un notebook. La différence est que le réplicateur de port ne contient pas de
slots pour carte d'extension, hauts parleurs ou périphériques. Les périphériques desktop sont
reliés au réplicateur de port de manière permanente. Le réplicateur de port relie tous les
circuits de l'écran, du clavier, de la souris et de l'imprimante au notebook grâce à un grand
connecteur.
Actuellement, la plupart des composants dans un notebook peuvent être mis à jour :
augmentation de la mémoire, amélioration de la rapidité, volume de stockage plus grand,
connexion Internet plus rapide. Il est important de vérifier si on peut mettre à jour les
composants du fait de leur caractère propriétaire. Voir le site Web du constructeur.
A l'instar de leurs homologues desktop, les notebooks doivent être maintenus régulièrement.
Le système fonctionnera sans accroc en utilisant les outils système régulièrement, une fois par
semaine. les outils système sont étudiés de manière détaillée au module 12 : Maintenance
préventive et évolution.
La surchauffe est un problème qui touché couramment les notebooks, causant des
dysfonctionnements et un ralentissement du système. Un redémarrage intempestif du
système peut être causé par la surchauffe. On peut conserver une température normale en
surélevant simplement le portable de manière à laisser l'air circuler en dessous. On trouve des
accessoires bon marché qui permettent cela. On peut aussi poser le notebook sur une base
de refroidissement (cooler pad) comportant des ventilateurs connectés en USB.
Les périphériques infrarouges communiquent entre eux par le port infrarouge. La technologie
infrarouge ou rayons infrarouges (IR) est utilisée pour la transmission sans fils entre
l'ordinateur et ses périphériques ainsi que pour les télécommandes en télévision et HiFi. Le
mode de communication peut être bidirectionnel. La fréquence des IR est plus élevée que les
micro-ondes mais plus faible que la lumière visible. La transmission IR n'est possible que si
l'émetteur et le récepteur sont en contact visuel direct. Habituellement les unités tels que PDA
ou portable doivent être proche du périphérique (par exemple, une imprimante) pour
communiquer. On peut atteindre des distances de 75 cm.
Les technologies réseaux sans fil permettent aux ordinateurs de s'échanger des informations
en utilisant des signaux radio. Dans un réseau client serveur, les ordinateurs communiquent en
utilisant un point d'accès wireless. C'est un concentrateur situé sur le réseau filaire qui
transmet les données vers les adaptateurs wireless de chaque machine. L'installation d'un
adaptateur wireless sur un notebook lui permet d'être déplacé n'importe où dans le rayon
d'action du point d'accès.
● Un moniteur peut stocker jusqu’à 25 000 volts, donc évitez d’en ouvrir un, à moins
d’avoir été formé pour le faire.
● Assurez vous que le courant soit éteint et que la prise ait été enlevée quand vous
travaillez à l'intérieur de l’ordinateur.
● Ne regardez jamais dans un faisceau laser. On rencontre les lasers dans le matériel
lié aux ordinateurs.
● Recouvrez les angles vifs avec du ruban adhésif, quand vous travaillez dans le boîtier
de l’ordinateur.
Si l’ordinateur est branché, il se peut qu’il y ait un potentiel électrique inégal, entre la personne
et le boîtier de l’ordinateur. Cette différence de potentiel peut se décharger à travers la
personne. Il y a 120 volts à l’intérieur du boîtier (en Amérique du Nord et dans certaines
parties de l’Asie). Cette valeur peut être de 220 volts ou plus (en Europe et dans le reste du
monde). En bougeant la machine quand elle est reliée à une source électrique, il se peut que
Si l’ordinateur est débranché et que l’alimentation électrique présente un court-circuit vers une
alimentation qui n’est pas mise à la masse, cela pourrait créer un châssis alimenté en courant.
Même si l’ordinateur est éteint, ceci créera une situation mortelle.
Pour remédier à ces problèmes, l’ordinateur devrait être relié à une multiprise avec
interrupteur. La multiprise est alors éteinte, ainsi que la machine et l’alimentation électrique à
l’arrière du boîtier. Cela vous protège par rapport aux retours de courant. Quand le technicien
connecte le bracelet antistatique au châssis, le connecteur de la terre dans le cordon
d’alimentation protège le matériel contre les décharges électrostatiques (ESD).
Les techniciens sont obligés de manipuler les composants informatiques, donc c’est mieux de
prendre des précautions pour se protéger soi même, ainsi que le matériel de l’ordinateur, en
suivant quelques mesures de sécurité de base :
● Utilisez des sachets antistatiques pour stocker les composants et pour déplacer les
composants informatiques. Ne mettez pas plus d’un composant dans chaque sachet,
étant donné que les entasser peut provoquer la cassure ou une dissémination de ces
composants.
● Ne retirez pas ou n’installez pas de composants pendant que l’ordinateur est branché.
S’il y a eu une erreur dans le câblage ou dans l’installation du composant, éteignez
l’ordinateur et débranchez le avant de remplacer le câble ou le composant.
● Vérifiez que vous êtes souvent à la terre pour empêcher la création de charges
statiques. Touchez une pièce de métal nu sur le châssis ou à l’alimentation électrique.
● Travaillez sur un sol nu et si possible, étant donné que les moquettes peuvent
accumuler des charges statiques.
● Ne touchez pas les puces ou les cartes d’extension avec un tournevis magnétisé.
● Éteignez toujours l’ordinateur avant de le déplacer. C’est pour protéger le disque dur,
qui tourne toujours lorsque l’ordinateur est allumé.
● Quand vous posez des composants, mettez les sur un tapis ou un sachet antistatique.
Ne placez jamais un circuit imprimé, quel qu’il soit sur une surface conductrice,
particulièrement une feuille en métal. Les batteries en Lithium et Nickel Cadmium (Ni-
Cad) utilisées sur les circuits peuvent court-circuiter.
● N’utilisez pas de crayon ou d’instrument à pointe métallique pour changer les switches
DIP, ni les composants testeurs. Le graphite dans le crayon est conducteur et pourrait
facilement provoquer des dégâts.
● Maintenez la zone de travail propre et en ordre. Quand vous avez fini d’utiliser un outil
ou un composant, remettez le à sa place.
La décharge électrostatique (ESD) est plus connue sous le nom d’électricité statique. Les
charges statiques peuvent s’accumuler dans le corps, rien qu’en marchant dans la pièce. Il se
peut qu’elle ne soit pas apparente, mais c’est généralement suffisant pour endommager les
composants de l’ordinateur, si on les touchait. Une décharge statique de 2.000 volts est
suffisante pour qu’une personne s’en aperçoive. On peut s’en rendre compte quand on
marche dans une pièce et qu’on touche une poignée de porte ou une autre surface en métal.
Une décharge statique de seulement 200 volts, est suffisante pour endommager un
composant informatique.
L’ESD est probablement le plus grand ennemi, lorsqu’un utilisateur déballe des pièces
informatiques récemment achetées et des composants, pendant que l’on se prépare à
assembler l’ordinateur. Vérifiez toujours les précautions contre l’ESD, avant de commencer à
assembler. Les recommandations suivantes vous aideront à vous prémunir contre les dégâts
liés à l’ESD :
● Utilisez des tapis de terre pour le sol dans les zones de travail.
● Utilisez des bracelets antistatiques quand vous travaillez sur des pièces informatiques,
excepté quand vous travaillez sur les moniteurs.
• Touchez de temps en temps des parties métalliques de l’ordinateur non peintes, pour
faire baisser l’énergie statique du corps.
Souvenez vous que même si une décharge ne peut être ressentie, cela ne signifie pas qu’elle
ne peut pas endommager un composant informatique. Les composants peuvent être
totalement détruits ou souffrir de dégâts mineurs. Ces derniers permettent aux composants de
fonctionner dans une certaine mesure, ou causer des erreurs par intermittence. Ce type de
dégâts ESD, est le plus difficile à détecter. Les boîtiers, quand ils sont correctement fermés,
sont conçus pour se prémunir contre l’ESD pour les composants à l’intérieur. Ils canalisent et
font fuir l’ESD des composants sensibles. En gros, n’importe quel composant à l’intérieur de
l’ordinateur, est susceptible de provoquer l’ESD. L’ESD devient une menace, lorsque le boîtier
est ouvert et que les composants à l’intérieur sont exposés. La même menace s’applique aux
composants quand on les retire du sachet antistatique dans lequel ils sont expédiés.
La meilleure façon de se protéger contre l’ESD, est d’utiliser un tapis antistatique, un bracelet
de mise à la terre et des sachets antistatiques. Le bracelet de mise à la terre, est porté au
poignet et peut être connecté au tapis. Le tapis est en contre partie mis à la terre sur une prise
murale. Autrement, le bracelet peut être attaché au cadre en métal du boîtier de l’ordinateur.
Quand on construit de toute pièce un ordinateur, il est important de faire une liste de tous les
composants et pièces achetées. Toutes les cartes d’extension ou les pièces informatiques ne
sont pas clairement étiquetées avec les informations du constructeur. Avec ses informations
on peut rechercher et télécharger les pilotes de périphériques adéquats. Cette liste devrait
inclure des informations spécifiques de garantie pour chaque composant. Assurez vous que
les spécificités d’installation et de maintenance sont respectées, afin que vos garanties restent
valides. Utilisez une petite boîte sécurisée pour mettre tous les manuels et les disques utilisés
pour assembler l’ordinateur. Étiquetez la boîte avec un nom qui identifie l’ordinateur auquel il
est associé et rangez le en lieu sûr. Si plus tard vous avez besoin d’informations, toute la
documentation sera facilement disponible.
Dans cette section nous allons nous concentrer sur les problèmes et les préoccupations qui
affectent l’achat ou le montage des composants d’un ordinateur.
Lorsqu’on achète une tour ou un desktop il est recommandé qu’il se conforme au standard
ATX et ait au moins une alimentation de 250 watts. Assurez vous lors de votre achat, que le
boîtier est livré avec un plateau permettant un accès facile aux composants internes et qu’il
dispose suffisamment d’espaces pour des extensions. Cherchez des baies de lecteurs
supplémentaires, des plaques de montage de carte mères démontables, des racks de
lecteurs. De plus, vérifiez la solidité du boîtier parce que certains peu onéreux peuvent être
assez peu solides.
Une unité centrale est généralement un boîtier en métal ou en plastique, qui contient les
composants de base de l’ordinateur. Il existe trois sortes d’unité centrales : desktop, tour et
portable. Chaque design offre des caractéristiques adaptées à des différents environnements.
Ces caractéristiques sont les méthodes de montage pour les circuits imprimés, les
caractéristiques de la ventilation, la capacité totale des lecteurs, l’empreinte (la place que
prend l’ordinateur sur la surface de travail) et la portabilité. Les modèles desktop et tour,
seront examinés dans les sections suivantes. Les portables sont traités dans le module 2.
Le design du Desktop, est l’un des styles les plus connus. Les desktop sont conçus pour être
posés à l’horizontale sur le plan de travail. Veuillez noter que les premiers ordinateurs IBM, le
premier PC IBM, XT et les designs de l’AT, utilisent ce style de boîtier. Aujourd’hui la plupart
des boîtiers desktop, viennent en deux tailles différentes : Les plats et les normaux.
Les deux aspects les plus importants quand on choisit un boîtier desktop sont :
L’espace de travail disponible est important quand l’ordinateur doit partager cet espace avec le
moniteur et les périphériques. Si c’est votre choix évitez d’acheter le boîtier plat car ils sont en
général petits, ont peu d’espace pour les extensions et sont conçus pour l’entreprise.
Le format est une des caractéristiques à considérer. Le format décrit l’agencement général du
boîtier de l’ordinateur, la position des slots dans le boîtier et le type de carte mère qui
s’adaptera au boîtier. Les boîtiers sont de différents formats. Le format le plus récent et celui
le plus souvent rencontré, est l’ATX. Le format ATX est conçu pour permettre une meilleure
aération et un accès plus facile aux composants.
Les tours sont généralement conçues pour être positionnées verticalement sur le sol, sous le
bureau. Dans le passé, des utilisateurs ont commencé à poser les boîtiers desktop sur la
tranche et à côté de leur chaise pour obtenir plus de place sur la surface de travail. Ceci a
incité les constructeurs d’ordinateurs à développer aujourd’hui des boîtiers qui s’insèrent
naturellement sous le bureau. En général, les tours ont suffisamment de baies, pour contenir
les lecteurs de disquettes, les lecteurs de CD-ROM, les lecteurs de cassettes et DVD, ainsi
que tout ce qui pourrait être installé. Le design interne d’une tour ressemble à celui d’une unité
de desktop. Les boîtiers au format tour ont trois tailles différentes :
● Les mini-tours
● Les moyennes-tours
Les mini et moyenne-tours, sont plus petites et moins chères que les tours de taille normale. Il
y a un inconvénient majeur, en choisissant des tours plus petites c’est qu’il n’y a plus de
l’espace pour des ajouts internes ou des lecteurs supplémentaires.
Note: Des périphériques externes peuvent être ajoutés aux tours mini et moyennes,
s’il n’y a plus suffisamment de place à l’intérieur du boîtier, pour un périphérique
interne. Généralement, ces accessoires externes coûtent légèrement plus et utilisent
des ports externes.
Beaucoup de schémas d’accès ont été conçus afin de faciliter et accélérer l’accès à l’intérieur
du boîtier. Quelques tours, par exemple, utilisent des plateaux amovibles, permettant ainsi le
branchement des cartes mères et cartes E/S, avant leur insertion le boîtier. D’autres boîtiers
utilisent des portes à charnière sur le côté du boîtier, permettant au système et aux cartes E/S
de s’enlever du châssis. Ces deux caractéristiques faciliteront le processus d’assemblage de
l’ordinateur.
Enfin, il est important de signaler que les caractéristiques de ventilation de certaines tours ont
tendance à être faibles. La raison est que les cartes E/S sont montées horizontalement.
Lorsque la chaleur générée par les cartes augmente, elle monte vers les cartes situées au-
dessus, qui sont ainsi soumises à une chaleur supplémentaire. A cause de cela, la plupart des
boîtiers au format tour possèdent un ventilateur secondaire pour aider à augmenter la
circulation d’air et dissiper toute chaleur excessive.
Il est important de comprendre l’alimentation électrique car elle fournit le courant électrique à
chaque composant de l’unité centrale. Autrefois, il fournissait du courant alternatif (AC) à
l’écran du moniteur. On peut toujours trouver des alimentations fournissant du courant
alternatif (AC). Celles-ci sont identifiées par l’existence de deux prises de courant à l’arrière.
Comme nous l’avons mentionné dans le chapitre précédent, l’alimentation électrique de
l’ordinateur a le rôle important de convertir le courant électrique alternatif (AC) du secteur de
Aussi bien dans les modèles desktop comme dans les modèles tour, l’alimentation électrique
est une petite boîte en métal brillante, située à l’arrière du système. L’ensemble des câbles
fournit du courant au système et à ses composants.
Les deux types de base d’alimentation sont les alimentations AT et les alimentations ATX.
L’alimentation ATX est conçue selon les spécifications ATX pour cartes mère ATX.
Il est important de savoir identifier les utilisations pour chaque niveau de voltage et le code
couleur correspondant du câble. Ceci permet de tester les câbles en utilisant un multimètre,
pour déterminer s’il y a des problèmes avec l’alimentation électrique. Il est important de
signaler que l’alimentation électrique produit un voltage seulement quand quelque chose
fonctionne dans la machine. N’essayez jamais de réparer des alimentations électriques
défectueuses. Les condensateurs à l’intérieur d’un boîtier électrique, stockent de l’électricité et
se déchargeront dans le corps si on les touche. Les condensateurs retiennent de l’électricité
même si l’unité est éteinte et déconnectée de toute source électrique. Généralement, les
alimentations électriques sont remplacées plutôt que réparées.
Les niveaux de voltage sont disponibles via les connecteurs des slots de la carte mère .Les
connecteurs d’alimentation de la carte mère, fournissent à la carte mère et aux slots
d’extensions individuels, 1 ampère de courant chacun. L’alimentation électrique livre du
courant à la carte mère par l’intermédiaire des connecteurs d’alimentation de la carte mère. Le
connecteur de la carte mère ATX, est un connecteur à clé de 20 broches (P1). Il a une clé, de
telle manière à ce qu’il ne puisse pas être mal connecté. Veuillez noter que les connecteurs de
Pentium 4, sont différents du modèle normal ATX (c’est à dire le Pentium II) Ces informations
sont contenues généralement dans le manuel de la carte mère du constructeur ou alors
automatiquement détectées par le BIOS.
Le schéma de localisation fournit aussi des informations supplémentaires, qui seront utiles
pendant l’installation et l’assemblage. La mémoire principale est subdivisée dans des slots, et
les slots sont identifiés et numérotés séquentiellement bank DIMM1, DIMM2 et DIMM3. Ceci
indique que quand les Dual Inline Memory Modules (DIMMs) sont installés, ils doivent être
Mieux on connaît une carte mère particulière, plus ce sera facile d’assembler le reste de
l’ordinateur. Si vous travaillez en binôme, étudiez le schéma avec votre partenaire.
La configuration de la carte mère, aussi connue par paramétrage du matériel système, est une
tâche importante. Configurer la carte mère signifie généralement :
● Installer le CPU
● Installer la RAM
● Régler le BIOS
Dans les sections suivantes seront traités, l’installation du CPU, de la RAM et du ventilateur et
radiateur. Le processus de connexion des câbles d’alimentation à la carte mère, est traité
dans une autre section. Enfin, les instructions pour le réglage du système BIOS, seront
traitées à la fin du chapitre
Configurer le BIOS
Le BIOS de la ROM et la puce CMOS, contiennent le logiciel qui fixe et enregistre la
configuration principale pour tous les composants du système, incluant ceux sur la carte mère
et les chipsets. Généralement le BIOS a une interface à laquelle on peut accéder lors du
démarrage, après que les tests de diagnostiques initiaux du POST soient effectués. Le BIOS
configure aussi d’autres composants tels que le type de disque dur, CD-ROM et réglages du
lecteur de disquettes. L’interface du BIOS peut être activée par le clavier, ou bien peut être
graphique et gérée par la souris. Quand les lecteurs sont remplacés, ou que la mémoire est
augmentée, ou des adaptateurs ajoutés, la configuration du BIOS devra être mise à jour, pour
refléter les changements de configuration et sauvegardés sur la puce CMOS. Le BIOS sera
traité plus en détail plus loin dans ce chapitre.
Configurer le Processeur
La carte mère doit être configurée pour la fréquence du processeur installé. Les cavaliers
La configuration du voltage du CPU sera traitée plus tard dans la section sur l’installation du
processeur. En pratique, lorsqu’on travaille sur la plupart des systèmes récents, les
paramètres de configuration de la carte mère seront traités par le plug-and-play du BIOS. Il est
cependant toujours important de savoir comment configurer ces paramètres pour pouvoir
vérifier la configuration du BIOS et s’assurer que tout est paramétré selon les spécifications du
constructeur.
Un cavalier est une paire de broches qui sont des points de contacts électriques installés dans
la carte mère de l’ordinateur ou sur une carte d’adaptateur. Pour configurer un cavalier, mettez
une fiche sur les broches afin d’établir le contact et fermer le circuit. Fermer ou ouvrir les
circuits établit des niveaux logiques pour sélectionner des fonctions d’exploitation de la carte.
Les données ne traversent pas ces circuits. Sur les cartes mères les plus récentes la plupart
des cavaliers sont liés au CPU.
Généralement, les cavaliers de la carte mère sont configurés en utilisant un cavalier qui relie
une paire de broches qui sont connectées ensemble. Enlever ou insérer des cavaliers sur un
ensemble de broches, activera ou annulera une option donnée, spécifié dans le manuel de la
carte mère. Pour tous les réglages, il est recommandé que les instructions trouvées dans le
manuel de la carte mère soient suivies attentivement. Rappelez vous que les spécifications
des cavaliers de tous les circuits, sont fournies par les constructeurs.
Des informations supplémentaires concernant les cavaliers de la carte mère, peuvent être
trouvées en allant sur le site Web du constructeur de la carte mère.
Cavaliers Supplémentaires
Il y a plusieurs réglages de cavaliers additionnels qui doivent être positionnés lors de la
configuration générale de la carte mère. Elles sont résumées ci-dessous :
• Effacement de la CMOS – Ce cavalier, quand il est fourni, est utilisé pour réinitialiser
les paramètres du CMOS et retrouver les valeurs par défaut. Cette procédure doit être
effectuée à chaque fois qu’une mise à jour du BIOS est faite.
Attention: Quand on installe un processeur dans la carte mère, pour la première fois,
ou quand on installe une nouvelle version de processeur, vérifiez la documentation du
processeur pour le réglage correct du voltage. Utiliser un processeur avec un mauvais
voltage, peut avoir pour conséquence, une performance peu fiable, ou des dégâts sur
les composants du système.
N'importe quel cavalier que l’on a besoin de retirer, devrait être conservé avec les
autres pièces détachées. Puisque les fiches des cavaliers peuvent être facilement
perdues, il est possible de désactiver un cavalier sans enlever la broche en
connectant le cavalier à seulement une broche. On appelle cela garer le cavalier ; la
procédure désactive le cavalier tout en empêchant la perte de la fiche.
Il existe deux types d’interface processeur. Ce sont les types socket et le type slot. Pour plus
d’informations concernant les interfaces des processeurs, voir le Chapitre 2. Le socket 7 a été
l’interface standard, bien que les systèmes plus récents utilisent maintenant des sockets
différentes. C’est la seule interface utilisée par au moins une génération de processeur d’Intel
Pentium, Pentium I, ainsi que les puces AMD et Cyrix. Des puces de processeur de modèles
plus anciens, telles que l’Intel P24T, P24D, 80486DX4, 80486DX2/DX/SX-SL et
80486DX2/DX/SX ou l’AMD AM486DX4/DX2/DX ou Cyrix CX486DX2/DX/S et 5X86, sont
connectés à la carte mère au moyen d’un socket prévu à cet effet, le socket 3. Ces
technologies sont relativement âgées, donc il est assez peu probable qu’on les rencontre.
Les interfaces du type slot, utilisent un slot similaire à une carte d’extension. Le slot 1 est
l’interface Single Edge Contact (SEC) (Un Seul Côté de Contact) utilisé uniquement par la
famille des processeurs Pentium II. La SEC est une cartouche contenant le processeur et le
cache L2. L’installation du CPU différera selon le processeur utilisé et le type d’interface.
Ce cours donne des instructions sur la manière d’installer une puce socket 7. Toutes les
interfaces les plus récentes sont dérivées des socket 7, différant principalement par le nombre
de broches qu’ils ont. Les dernières technologies, telles que socket A (pour les puces de
l’AMD Athlon et Duron) et socket 370 (pour les puces Celeron, quelques Pentium II et Pentium
III) sont installées selon la même technique de base que les socket 7.
Etape 1 Tout d’abord, retournez la puce et inspectez les broches, pour vous assurer
qu’aucune n’est endommagée pliée ou cassée. Toutes les broches devraient
être droites.
Etape 3 Après avoir orienté correctement la puce, ouvrez le socket ZIF. Actionnez le
levier légèrement pour déplacer le socket de sa position par défaut, fermée
vers la position ouvert. Faites ceci avec soin pour éviter de casser le levier.
S’il y a une petite résistance en la soulevant, c’est normal. Lorsqu’elle est
parfaitement levée, la partie supérieure de la socket ZIF coulissera un petit
peu.
Etape 4 Avec le socket ouvert, il est temps d’insérer le processeur. Alignez la broche
1 selon l’orientation qui a été déterminée en Etape 2. Insérer la puce du
processeur dans le socket, pour que toutes les broches se glissent dans les
trous prévus à cet effet. Avec n’importe quel socket ZIF, les broches du
processeur devraient s’insérer facilement dans les trous du socket.
Généralement, la puce ne peut rentrer que d’une manière. Evitez de forcer
l’entrée du processeur dans le socket, étant donné que les broches
pourraient être endommagées.
Etape 5 Vérifiez à deux fois, pour vous assurer qu’il n’y ait pas d’espace entre le fond
de la puce processeur et le socket. S’il n’y en a pas, la puce est parfaitement
insérée.
Etape 6 Enfin, pour bloquer la puce installée, simplement poussez le levier vers le
bas pour le positionner en position fermée. Il se peut que vous rencontriez
une légère résistance, mais le levier et le socket ZIF devraient fermer assez
facilement.
La plupart des microprocesseurs produisent beaucoup de chaleur, qui peut provoquer des
problèmes. Une manière de se débarrasser de la chaleur des processeurs, est d’utiliser le
dissipateur thermique et le ventilateur. Une installation correcte est cruciale pour qu'ils jouent
leur rôle efficacement. Bien que le dissipateur thermique puisse être monté avant l’installation
du processeur sur la carte mère, il y a un risque d’endommager les broches sur la puce.
Seulement sur les processeurs Pentium II le ventilateur est installé avant le processeur.
Respectez les étapes suivantes quand vous installez un dissipateur thermique et un ventilateur
sur uns socket 7 et d’autres processeurs de type socket :
Etape 1 Si le ventilateur du processeur n’a pas été déjà livré avec le dissipateur
thermique attaché, utilisez les vis livrées avec le ventilateur pour attacher le
dissipateur thermique.
Etape 2 Appliquez la pâte thermique sur la surface de la puce. Appliquez une couche
fine, juste suffisamment pour couvrir la surface de la puce. En pratique, la
pâte thermique permet un meilleur contact entre le processeur et le
dissipateur thermique permettant ainsi une meilleure dissipation de la
chaleur.
Etape 4 A ce niveau là, vérifiez que le dissipateur thermique maintient un bon contact
avec la surface de la puce du processeur. Habituellement, lorsque le
dissipateur thermique est inséré à l’envers, la surface de la puce et du
dissipateur thermique devient décalée. Si cela arrive, retirez le dissipateur
thermique, tournez le et réessayez de l’attacher.
Les processeurs qui viennent avec le ventilateur et le dissipateur thermique déjà attachés,
sont plus adaptés. On les appelle des processeurs en boîte. Ils coûtent un peu plus chers
mais sont plus sûrs à installer. Les processeurs en boîte sont appelées processeurs de
constructeur d’équipement d’origine (OEM) ils ont de meilleurs conditions de garantie que
ceux qui n’ont pas le ventilateur et le dissipateur attachés.
Il y a deux types de modules de mémoire utilisés sur la plupart des PCs. Ce sont des cartes
DIMMs de 168 broches et des cartes SIMMs de 72 broches. Les SIMMs et les DIMMS
possèdent tous les deux des connecteurs communs et s’insèrent dans des slots sur la carte
mère appelés socket de RAM. Les socket de RAM utilisées pour les cartes DIMM sont
souvent appelées socket DIMM, alors que celles utilisées pour les cartes SIMM sont appelées
socket SIMM. Quand les cartes SIMM et DIMM sont insérées dans le slot, chaque connecteur
de côté fait contact avec la trace dorée correspondante sur la carte mère. Chaque ligne dorée
correspond à un chemin de données individuel. Tout comme les lignes jaunes menant au
processeur, font le bus du processeur, ces lignes dorées font le bus mémoire. « L’autoroute »
de données du bus mémoire est utilisé pour transférer les données entre la RAM et le
processeur. Pour des informations ayant trait aux modules de mémoire qui utilisent d’autres
technologies d’accès, voyez la note à la fin de cette section.
Configurer la Mémoire
Le manuel de la carte mère montrera généralement les combinaisons possibles des types
DIMM qui peuvent être installées dans le système. Les nouvelles cartes mères n’utilisent plus
de SIMMS. On peut trouver, par exemple, que les sockets DIMM sur le schéma de la carte
mère, sont groupées par trois ou par quatre banks d’un slot chacun. Les DIMM1 et DIMM2
sont Bank 0 et Bank 1. Dans certains cas, les cartes mères ont plus de deux slots pour la
RAM. Ces slots seraient DIMM3 et DIMM4 et les Banks de mémoire sont Bank 2 et Bank 3.
Chaque bank peut avoir n’importe quel type de Synchronous Dynamic Random Access
Memory (SDRAM), qui est la forme la plus communément utilisée de RAM.
On recommande que les banks de mémoire soit remplis dans les combinaisons exactes,
montrées dans le manuel de la carte mère. Par exemple, le manuel pourrait vous dire que la
taille de mémoire maximum est de 512 MB et que la taille de chaque DIMM peut être de 8 MB,
16 MB, 32 MB, 64 MB ou 128 MB. N’importe quelle combinaison de ces tailles, peut être
utilisée. Selon les besoins de la mémoire, il se peut qu’il y ait 128 MB de DIMMs installée sur
les banks de la mémoire sur la carte mère. Lorsque les tailles de DIMMs sont mélangées sur
la carte mère, il est important de se rappeler de mettre la DIMM possédant la plus grande
capacité de mémoire, dans le premier bank. Le système lit automatiquement la capacité du
premier DIMM et l’enregistre en tant que le plus grand. Si un DIMM plus petit était installé sur
le premier bank, le système le lirait comme étant le plus grand et pourrait ne pas reconnaître
ou utiliser la capacité de mémoire supplémentaire des DIMMs, placés sur les autres banks.
Avec les autres modules SIMMs, les banks sont légèrement différents. Chaque bank de
mémoire pour un SIMM possède deux socket. Les utilisateurs doivent remplir le premier bank
avant de s’occuper d’un autre. De plus, chaque bank doit être rempli avec des modules de
RAM, qui possèdent le même temps d’accès et la même taille.
Etape 1 Premièrement, décidez quel slot utiliser et ensuite orientez la puce DIMM ou
SIMM sur celui-ci. Les modules SIMMs et DIMMs ont des détrompeurs, si
bien qu’ils ne peuvent être installés que d’une façon.
Etape 2 Insérez le module DIMM tout droit dans le slot. Le module SIMM est inséré à
un angle de 45 degrés environ.
Etape 3 Maintenant, le module de mémoire doit être positionné en sécurité dans son
logement. Avec une SIMM, faites la tourner de sa position vers sa position
verticale. Une certaine résistance est normale. Ne forcez pas. Si vous
rencontrez des difficultés, la puce doit être à l’envers. Faites la tourner et
recommencez. Quand la SIMM est verticale, le clip en métal ou en plastique
devrait rentrer automatiquement dans son logement, sécurisant
verticalement la SIMM dans le slot mémoire.
Etape 4 Répétez les Etapes 1 à 3 pour le reste des modules de la mémoire. Quand
c’est terminé, vérifiez votre travail pour être certain que chaque module soit
bien positionné dans les slots à chaque extrémité.
Note : Lorsque vous utilisez d’autres types de modules de mémoire, telle que les modules de
mémoire en ligne Rambus (RIMMs), sachez que d’autres considérations doivent être prises en
compte. Contrairement aux DIMMs et aux SIMMs, les modules RIMMs utilisent les puces de
mémoire direct Rambus (RDRAM). Certains systèmes requièrent que les modules RIMM
soient ajoutés en paires identiques et d’autres permettent l’installation des RIMMs simples.
Des informations sur les types de mémoire spécifiques, peuvent être trouvées dans leurs
manuels respectifs, celui de la carte mère, ou bien sur le site web du constructeur.
Avant d’installer la carte mère, révisez la section sur les cartes mère dans le Chapitre 2. Il est
important de s ‘assurer que la carte est manipulée par les extrémités. Les étapes suivantes
résument le procédé d’installation de la carte mère:
Etape 1 Positionnez le boîtier de façon à ce qu’il soit facile d’accès. Ensuite, localisez
les trous sur la carte mère et les trous correspondants sur le boîtier. En
tenant la carte juste au dessus du boîtier alignez les trous sur le boîtier avec
ceux sur la carte mère. Les slots des cartes d’extension, donnent une bonne
indication sur la manière dont la carte doit être orientée.
Etape 3 Installez les clips en plastique dans les trous sur la carte mère qui s’alignent
avec un œillet, un trou très long et ayant la forme d’une clé, afin que les
utilisateurs puissent y glisser des choses. Certains boîtiers ne possèdent pas
d’œillets et à la place utilisent des entretoises en métal pour maintenir en
place la carte mère.
Etape 5 Inspectez les vis que vous allez utiliser. Il est pratique courante d’insérer des
rondelles en plastique sur chaque vis, avant de les installer. Ceci empêchera
les vis métalliques d’entrer en contact et d’éventuellement provoquer un
court-circuit avec les circuits à proximité du trou.
Etape 6 Maintenant, fixez la carte au boîtier, tout d’abord à la main, puis terminez
avec un tournevis. Assurez vous que les vis ne soient pas trop serrées. Les
vis doivent être juste assez serrées pour empêcher la carte de bouger dans
le boîtier.
Etape 7 Vérifiez votre travail pour vous assurer que tout est correct. Vérifiez les
points suivants :
Les étapes mentionnées sont très générales. Certains boîtiers ont des caractéristiques
supplémentaires. Une fois familiarisé avec l’assemblage des PCs, certaines de ces étapes
peuvent être combinées ou passées.
Les diodes émettant de la lumière (LEDs), ou les lampes témoins, sont utiles pour indiquer si
les composants à l’intérieur de l’ordinateur fonctionnent. Connecter les LEDs est
habituellement l’étape suivante lors de l’assemblage d’un ordinateur, une fois que la carte
● Turbo – C’est maintenant un item obsolète, aussi bien le LED que l'interrupteur Turbo
et beaucoup de nouveaux ordinateurs ne les comprennent pas obligatoirement. Si un
boîtier en a un, le LED peut être connecté en le branchant simplement aux broches
correspondantes. Cette étape peut être passée. Parfois, le turbo LED pourrait être
connecté à un composant différent, tel que l’adaptateur SCSI, pour servir de témoin
d’activité du lecteur SCSI.
● Le LED d’alimentation - Sur des systèmes plus anciens, le LED d’alimentation peut
être combiné avec le switch verrouillage en un seul branchement de 5 broches.
Vérifiez les étiquettes sur la carte mère pour repérer le connecteur correspondant.
Pour connecter les LEDs, branchez simplement les connecteurs dans la broche
correspondante, sur la carte mère. Assurez vous que les LEDs sont connectés
séparément si le système fournit des connecteurs séparées pour chaque.
● Le LED d’activité du lecteur de disque dur- Ils viennent soit en prises de 2 broches
soit en 4 broches éventuellement, seulement 2 des 4 broches donnent en fait de la
connexion. Consultez le manuel pour les procédures d’installation.
● Le verrouillage et les hauts parleurs sont deux autres câbles qui sont généralement
connectés en même temps que les LEDs. Ils font tous parti d’un groupe de petits
connecteurs et de prises, qui ont besoin de la même attention quand on les attache.
● Le switch de verrouillage - Il est assez commun dans les anciens systèmes. Il était
principalement utilisé pour empêcher les personnes non autorisées à démarrer le
système et changer les réglages du BIOS. Ils sont rares dans les nouveaux systèmes.
Comme nous l’avons dit précédemment, la plupart des AT ou des systèmes plus
anciens, combinent le switch de verrouillage au LED de tension, sous forme d’une
prise de 5 broches. Vérifiez le manuel de la carte mère pour des instructions
supplémentaires à propos du switch de verrouillage.
Des informations supplémentaires sur la connexion des LEDs, ainsi que sur le switch de
verrouillage et les hauts parleurs du PC, peuvent être trouvées dans le manuel de l’utilisateur.
Puisque les LED impliquent de petits connecteurs, parfois un ou deux connecteurs peuvent
être mauvais. Si vous utilisez le mauvais connecteur, le LED ne s’allumera pas quand le PC
sera allumé.
Après avoir correctement installé la carte mère dans le boîtier de l’ordinateur, continuez en y
attachant le(s) connecteur (s) appropriés. Ce processus est facile avec un ATX (cartes sur
l’alimentation électrique) car il n’y a qu’un connecteur avec détrompeur qui ne peut y entrer
que d’une seule façon. Faites plus attention avec les systèmes AT plus anciens, car ils
Ce qui suit, ce sont les étapes pour connecter les câbles d’alimentation électrique à la carte
mère:
Etape 1 Sur un système AT, localisez d’abord les deux gros câbles de l’alimentation
électrique, étiquetés P8 et P9.
Attention : Assurez vous que les câbles noirs soient au milieu, les uns près des autres. Si la
configuration est inversée, il est possible que la carte mère soit
endommagée quand on allumera le système .Il se peut qu’une pression soit
nécessaire pour insérer les connecteurs. Sur un système ATX, il y a un gros
connecteur de 20 broches (P1). Il a un détrompeur pour une installation sans
risque.
Parfois, il est utile de retarder la connexion de l’alimentation jusqu’à ce que tous les
composants devant aller sur la carte mère soient installés. Ceci permet une marge de
manœuvre plus importante pour travailler dans le boîtier.
Etape 1 Tout d’abord, sélectionnez quelle baie sera utilisée pour le lecteur de
disquettes. Retirez la plaque de cette baie. Gardez la plaque pour plus tard.
Les deux baies à choisir, sont des baies de 3.5 et 5.25 pouces. Soyez sûr de
choisir la baie correcte pour le lecteur que l’on est en train d’installer. Pour
monter un lecteur 3.5 pouces dans un lecteur de 5.25 pouces, une fixation
spéciale peut être utilisée et vient généralement avec le nouveau lecteur de
disquettes.
Etape 2 Sans avoir connecté quoi que ce soit encore, insérez le lecteur dans la baie
de votre choix, en vous assurant qu’elle s’y insère correctement.
Conseil : Sachez ce que fait un lecteur de disquettes A ou B et comment installer les lecteurs
pour fonctionner soit en maître ou en esclave.
Attacher le disque dur et le CD-ROM sont en gros similaires. Cette section montre la manière
d’attacher les deux au boîtier.
Avant de commencer, assurez vous que le câble d’interface atteindra le lecteur par rapport à
l’endroit où vous avez prévu de le mettre. Avec les lecteurs IDE/ATA, la longueur du câble est
limitée à 45,7 cm (18’’) et moins dans certains cas. Aussi, assurez vous que le câble
d’alimentation atteindra le lecteur à partir de l’alimentation électrique. Ne montez pas le lecteur
à l’envers ou devant derrière. Vérifiez que l’étiquette du lecteur est vers le haut et que le circuit
imprimé est positionné vers le bas.
Il est bien plus facile de configurer ces lecteurs avant de les installer dans le boîtier de
l’ordinateur. Avant de régler les cavaliers, déterminez les types et le nombre de lecteurs à
installer. On estime ici qu’il y a deux lecteurs IDE, un disque dur et un lecteur CD-ROM. Les
Suspendre le cavalier sur une broche a la même signification que non monté, c’est à dire que
la configuration du circuit a été sélectionnée. On appelle cela aussi « garer » un cavalier.
Dans un système basique qui n’a qu’un disque dur, mettez le cavalier sur « maître ». D’autres
lecteurs ont un autre réglage appelé « simple ». Ce réglage dit essentiellement au lecteur qu’il
est seul sur ce canal IDE et fonctionne comme maître. Il est recommandé d’utiliser ce réglage,
si c’est possible, sur un système ne possédant qu’un disque dur. Le CD-ROM est aussi facile
à configurer. Cependant, les cavaliers peuvent être situés dans différents endroits sur chaque
lecteur et peuvent même être étiquetés différemment. Régler le CD-ROM sur « maître » si
c’est le seul lecteur connecté au second canal IDE.
● Les disques durs, particulièrement ceux à 7200- et 10,000- rpm (il existe même des
lecteurs à 15,000-rpm) peuvent générer beaucoup de chaleur. Par conséquent, gardez
ces lecteurs aussi loin que possible d’autres matériels.
● Si c’est nécessaire d’installer un refroidisseur de lecteur, assurez vous qu’il y ait assez
de place.
● Installez un disque dur loin de la source électrique. Des boîtiers mal conçus peuvent
laisser de la place sous l’alimentation électrique, pour installer le disque dur. Ceci n’est
pas un bon endroit pour un disque dur. Les alimentations électriques agissent comme
des aimants et peuvent endommager les données.
Avec les considérations ci-dessus en tête, voici les étapes générales pour monter un disque
dur:
Etape 3 Sélectionnez les vis de bonnes tailles (de préférence, ceux livrés avec le
lecteur). Vissez le disque dur en vous assurant de ne rien forcer. Serrez les
vis à la main d’abord, puis serrez à l’aide d’un tourne vis.
Connecter le CD-ROM
Installer le CD-ROM n’est pas très différent d’installer le disque dur. Retirez la plaque de la
baie du lecteur d’abord. Ensuite, réglez le cavalier du CD-ROM sur maître, puisqu’il sera
connecté au canal IDE secondaire. Maintenant, faites glisser le lecteur dans la baie par l’avant,
en vous assurant qu’il est de niveau avec le panneau central et vissez le.
Note : Ne serrez pas les vis avant que les câbles aient été connectés au lecteur.
Dans certains boîtiers d’ordinateurs, particulièrement les mini-tours, cela peut se révéler assez
difficile de travailler derrière le CD-ROM à cause de sa longueur et aussi parce qu’il est
obstrué par l’alimentation électrique.
Après vous être familiarisés avec les câbles rubans, le lecteur de disquettes, le disque dur et
le CD-ROM, maintenant ces composants peuvent être connectés au système.
Etape 4 Vérifiez votre travail à ce stade là en vous assurant qu’aucune broche n’est
tordue ou déplacée.
Si le pin 1 a accidentellement été inversé (et pas endommagé), le lecteur ne fonctionnera pas
et la lampe témoin du lecteur restera allumée jusqu’à ce que ceci soit corrigé.
Etape 1 Identifiez les deux câbles rubans IDE à 40 broches qui vont avec le disque
dur et le CD-ROM. Ceux-ci sont plus larges que le câble du lecteur de
disquettes et n’ont pas de torsion à leur extrémité.
Si le câble du disque dur est installé à l’envers, vous pourriez avoir des erreurs étranges, qui
feraient apparaître le lecteur comme s’il était déjà «mort ». Si cela arrive, retirez le câble du
disque dur et réinstallez.
3.6.4 Connecter les câbles d'alimentation aux lecteur de disquettes, disque dur et
CD-ROM
Des petits câbles partent de l’alimentation électrique vers le lecteur de disquettes, de disque
dur, de CD-ROM et de DVD. Les connecteurs de câbles ont une prise femelle à 4 broches, qui
se connectent à un connecteur mâle à 4 broches à l’arrière de chaque lecteur. Les pins de
sorties ou le schéma électrique sont codés par couleurs, de façon à identifier les voltages
corrects des fils.
● Disque dur, CD-ROM et DVD - Identifiez les bons connecteurs d’alimentation pour
ces lecteurs. Ils sont plus grands que ceux du lecteur de disquettes et parfois ils seront
étiquetés P1, P2, P3, etc, sur ces fiches d’alimentation. Elles sont plus dures à insérer,
donc faites les entrer doucement si nécessaire, jusqu’à ce qu'elle soient complètement
insérées.
Comme d’habitude, vérifiez à deux fois tout le travail, en vous assurant que les fiches
d’alimentation sont installées correctement et sécurisées.
Etape 1 Localisez le type de slot d’extension qui va avec la carte vidéo. L’AGP est
utilisée pour les cartes mères les plus récentes ( ATX ) alors que les ISA et
PCI sont utilisées pour des systèmes plus anciens.
Etape 2 Retirez le cache qui correspond au slot de la carte mère que vous utiliserez.
Certains boîtiers ont des caches prédécoupés alors que d’autres utilisent des
caches vissés.
Etape 4 Une fois que la carte est en place, fixez la au boîtier avec une vis. N’oubliez
pas de vérifier tout votre travail.
Ces étapes générales peuvent être utilisées pour installer d'autres cartes d'extension telles
que la carte modem et la carte son.
Attention : Certaines cartes mères ont des systèmes vidéo intégrés. Si c’est le cas, il
doit être désactivé dans le CMOS, de façon à installer une carte vidéo externe. Un
système vidéo intégré qui n’est pas désactivé provoquera un conflit dans le système
qui devra être résolu avant que la nouvelle carte vidéo soit reconnue.
Si la carte vidéo est du type plug and play, le système détectera le nouveau matériel et
installera le pilote correct. Si le pilote correct n’est pas détecté, le pilote qui a été livré avec la
carte vidéo doit être utilisé. Les pilotes actuels peuvent aussi être téléchargés à partir du site
Web du constructeur de la carte vidéo.
Une fois que tous les composants et périphériques ont été installés dans le boîtier, il est temps
de terminer le processus d’assemblage de l’ordinateur. Tout d’abord, vérifiez les connecteurs
de câbles. Assurez vous que tous les indicateurs de pin 1 sur les câbles sont en adéquation
avec tous les indicateurs de pin 1 sur les connecteurs. Ensuite, assurez vous que toutes les
connexions sont bien ajustées. Si une connexion ne paraît pas être correcte, poussez la
doucement pour une bonne assise. Ne forcez aucune connexion car les broches et les circuits
Tous les ajouts tels que la carte son, la carte modem, etc, peuvent être installées plus tard
dans le système, après le démarrage initial. Ceci certifie que l’ordinateur de base fonctionne
correctement avant d’ajouter du nouveau matériel. Accordez vous du temps supplémentaire
pour vérifier à deux fois tout le travail, avant d’allumer pour la première fois. La liste qui suit est
une liste de contrôle de post inventaire, qui devrait être utilisée, avant de fermer le boîtier.
Veuillez s’il vous plaît vous assurer que tout ce qui est inclus dans la liste l’est vraiment et est
fait correctement :
● Toutes les cartes d’extension sont complètement insérées dans les slots appropriés
La toute dernière étape avant d’allumer le PC, est de connecter les périphériques
d’entrée/sortie (E/S) dont l’ordinateur a besoin avant de démarrer. Ces périphériques peuvent
être connectés dans n’importe quel ordre. La liste suivante contient les instructions pour
connecter ces périphériques :
L’ordinateur est normalement allumé grâce au bouton poussoir sur la façade du boîtier.
Maintenant, l’ordinateur peut être démarré.
BIOS signifie Système d’Entrée et de Sortie de Base. Il contient le code programme requis
pour contrôler tous les composants opérationnels de base de l’ordinateur. En d’autres termes,
le BIOS contient le logiciel requis pour tester le matériel au démarrage, charger le système
d’exploitation et supporter le transfert des données entre les composants matériels. Dans
cette section et celles qui suivent, le rôle crucial du BIOS sera présenté.
L’étape finale dans la configuration d’un nouvel ordinateur, est le paramétrage du BIOS.
Entrez les paramètres du BIOS pendant le processus de démarrage, en suivant les
instructions à l'écran.
Évolution du BIOS
Le standard de conception de base du système BIOS fut à l’origine développé par IBM qui
l’utilisait dans ses systèmes informatiques XT et AT, au début des années 1980.
Malheureusement, le BIOS d’IBM n’a fonctionné qu’avec le matériel d’IBM. Par conséquent,
d’autres constructeurs qui fabriquent des « clones » de ces systèmes devaient garantir une
compatibilité entre leurs ordinateurs et le standard d’IBM. Le clonage était nécessaire de façon
à garantir que les logiciels développés pour les ordinateurs IBM, fonctionneraient sur leurs
systèmes aussi. Vers la fin des années 80, quelques compagnies avaient réussi a développer
avec succès des BIOS compatibles pour qu’ils soient utilisés par les autres constructeurs.
Trois compagnies dominent depuis le marché du BIOS :
Fonctions du BIOS
La fonction du BIOS est simple. Il active des programmes de tests de base des lecteurs et
ensuite cherche à configurer ces périphériques. Le système BIOS et les informations requises
pour le configurer sont stockées sur la puce CMOS. La CMOS est une puce de stockage
alimentée par une pile, située sur la carte mère. La puce CMOS est une mémoire réinscriptible
puisque les données de configurations peuvent être changées.
La configuration du BIOS sur un ordinateur est appelée le setup du BIOS. On l’appelle aussi
setup de la CMOS, d’après le nom de la puce qui stocke les paramètres du BIOS. C’est
particulièrement important d’avoir un setup correct la première fois. Puisque le BIOS analyse
le système lors du démarrage et compare ce qu’il trouve avec les paramètres dans la CMOS,
il doit être correctement configuré pour éviter les erreurs. Un fonctionnement correcte du
système implique que le BIOS charge le code programme correct pour ses périphériques et
composants internes. Sans les pilotes des périphériques et les codes corrects, le système soit
ne démarrera pas correctement ou fonctionnera de manière inconsistante avec des erreurs
fréquentes.
Lorsqu’on configure l’ordinateur pour la première fois, il est nécessaire d'exécuter l’utilitaire de
Configuration de la CMOS. Comme on l’a mentionné dans la section précédente, l’ordinateur
consulte la CMOS pour déterminer quels types d’options sont installées dans le système. Le
BIOS permet d’accéder à ces informations de configuration par l’intermédiaire de l’utilitaire de
configuration de la CMOS le "SETUP". Appuyez simplement sur la touche adéquate, cela
dépend des systèmes, pendant la phase de démarrage, pour avoir accès au BIOS. En
général, tôt dans le processus de démarrage, le BIOS affiche un message à l’écran pour dire
à l’utilisateur, qu’on peut accéder à l’utilitaire Setup de la CMOS, en appuyant sur une touche
particulière, ou une combinaison de touches. Notez que les touches et les combinaisons de
touches utilisées pour accéder aux menus du setup, peuvent varier d’un constructeur de BIOS
à un autre et parfois d’une version de BIOS à une autre.
Appuyez sur les bonnes touches ou les combinaisons de touches dans un laps de temps
déterminé, de manière à accéder à l’utilitaire Setup. Si on n’appuie pas dans ce laps de temps,
le BIOS poursuivra le processus de démarrage avec peut être des résultats indésirables. Les
touches indiquées arrêtent la routine de démarrage et affichent l’écran du menu principal du
Setup.
Les valeurs entrées via le setup du BIOS, sont stockées dans les registres de configuration de
la CMOS. Ces registres sont examinés à chaque fois que le système démarrera
ultérieurement, pour dire à l’ordinateur quels types de périphériques sont installés.
Des informations quant aux choix possibles dans l’écran de configuration de la CMOS,
peuvent être trouvées dans la section correspondante, dans le manuel de la carte mère. Par
l’intermédiaire de cet écran, les valeurs de configurations désirées, peuvent être entrées dans
les registres de la CMOS. Le curseur peut être déplacé d’un item à l’autre, en utilisant les
touches de déplacement du clavier. L’écran «standard CMOS setup» contiens les paramètres
opérationnels de base, qui l’ont doit régler pour que le système fonctionne correctement. Ces
composants BIOS sont universels pour tous les PC.
Les champs disponibles pour entrer les données de configurations qui sont communément
trouvées sur cet écran sont, la Date, l’Heure, les Disques Durs, le Lecteur A, le Lecteur B, la
Vidéo et Conditions d'arrêt. Chacun de ces items est décrit dans la liste ci-dessous :
● Hard Disks - Cette section contient les champs qui identifient les périphériques
connectés aux deux contrôleurs IDE intégrés sur la carte mère. Les contrôleurs IDE
peuvent avoir jusqu’à deux disques durs, ou bien un disque dur et un autre
périphérique IDE, tel que le CD-ROM. Normalement, l’un est configuré comme maître
et l’autre comme esclave. Il peut y avoir quatre entrées de configuration, comprenant
le Primaire Maître, Primaire Esclave, Secondaire Maître et Secondaire Esclave. Il est
généralement recommandé de configurer le type de lecteur sur Auto. Ceci permet au
BIOS de détecter automatiquement et de configurer les disques durs, ainsi ces
informations n’ont pas à être entrées manuellement.
● Vidéo - Cette section identifie l’adaptateur vidéo. Les choix sont très restreints et la
valeur par défaut VGA/EGA, est le standard pour tout depuis 1990. Que ce soit le
VGA, SVGA ou quoi que ce soit de plus avancé, tous les adaptateurs vidéo depuis
1990 supportent les instructions basiques VGA, intégrées dans le BIOS.
● Halt On- C’est le dernier champ que l’utilisateur peut définir sur l’écran «standard
CMOS setup». Les choix ici permettent de définir une réponse système spécifique par
rapport aux erreurs. C’est ainsi que les erreurs peuvent être signalées avant qu’elles
ne corrompent les données.
De plus, la zone d’informations dans la partie inférieure droite de l’écran, a des écrans non
modifiables par l’utilisateur, qui renseignent sur la configuration de la mémoire totale du
système.
L’écran «BIOS Features Setup» fournit des caractéristiques avancées qui contrôlent le
comportement du système. C’est dans cet écran de configuration que le réglage du matériel
système peut être affiné pour une performance optimale. L’activation et la désactivation
d’options avancées pour les dépannages peuvent aussi être utilisé. A moins qu’il y ait une
bonne raison de les changer, la plupart des caractéristiques devraient être laissées avec leurs
réglages par défaut.
Une option importante sur l ‘écran «Bios features Setup» permet de spécifier l’unité de
démarrage du système. Par exemple, sur les systèmes plus récents, il est préférable de
démarrer depuis le disque dur ou du CD-ROM, plutôt que du lecteur de disquettes 3.5,
comme le faisaient des systèmes plus anciens.
Cette section traite de la gestion de l’énergie. Comme avec les autres écrans de configuration,
les instructions sur les choix dans cet environnement, peuvent être trouvés dans la section
correspondante dans le manuel de la carte mère. Utilisez les paramètres trouvés dans l’écran
de configuration de la Gestion de l’énergie, pour contrôler les options de gestion de l’énergie
pour les périphériques de l’ordinateur. Ces caractéristiques peuvent être activées de façon à
préciser que certains périphériques se mettent en veille ou en mode pause. Cependant, ayez
à l’esprit que certaines applications logiciel et systèmes d’exploitation pourraient ne pas bien
gérer le fait que quelques composants aient été mis en veille et le logiciel peut ne plus
reconnaître ces périphériques correctement. Si c’est le cas, la fonction d’économie d’énergie
devra être désactivée.
Configuration du PnP/PCI
L’écran de configuration du Plug-and-Play (PnP) et du PCI contient les paramètres utilisés
pour contrôler le bus d’E/S, l’affectation IRQ et DMA pour les périphériques ISA et PCI PnP.
Pour que le PnP fonctionne le contrôleur du périphérique, le BIOS et le système d’exploitation
doivent tous le supporter.
Une caractéristique importante dans cette section est le réglage de «Ressourced controled
by». Quand elle est réglée par défaut sur Configuration Automatique, le BIOS gérera
automatiquement les interruptions et l’accès direct à la mémoire du bus d’E/S pour que les
périphériques PnP évitent les conflits avec n’importe quel périphérique traditionnel non plug &
play ISA. Notez que parfois les IRQ et DMA doivent être attribués manuellement pour
certaines cartes d’extensions non conformes avec le PnP. Dans de tels cas, les ressources
attribuées devront être enlevées de la gestion par le BIOS.
En général, les réglages par défaut devraient être utilisés pour cette section de la configuration
du BIOS quand on travaille sur des systèmes actuels, parce que n’importe quelle configuration
manuelle requière une bonne connaissance des bus de périphériques installés. Si jamais un
conflit intervient, ayez à l’esprit que l’option «Reset Configuration Data» effacera cette portion
du setup du BIOS et remettra les valeurs par défaut, en redémarrant le système. De plus,
consultez le manuel de la carte mère, avant de faire un quelconque changement.
Les caractéristiques trouvées dans cette section de configuration du BIOS, sont utilisées pour
configurer les périphériques intégrés sur la carte mère. Les périphériques intégrés incluent
généralement des périphériques tels que le lecteur de disquettes intégré et les contrôleurs de
disque dur, le contrôleur USB, les ports série, les ports parallèles et la carte son. Régler ces
fonctions sur Auto, quand c’est applicable, permet au BIOS d’exécuter les commandes IDE
Comme d’habitude, l’option «Reset Configuration Data», est un moyen de retour en arrière,
car il permet de restaurer les valeurs par défaut de ces paramètres et de revenir à la dernière
bonne configuration pendant le redémarrage. Les consignes pour configurer chaque option se
situent dans le manuel fournit avec la carte mère.
3.9.7 Les écrans "mot de passe" et l'écran "chargement des valeurs par défaut" du
setup
● Mot de Passe de l’Utilisateur - Cette option permet l’installation d’un mot de passe
qui empêchera le système de démarrer, jusqu’à ce que le mot de passe correct soit
entré. Cette option inclue l’interdiction d’accès au BIOS, enlevant la possibilité à
d’autres personnes de changer la configuration du BIOS sur l’ordinateur. Cette option
est particulièrement utile lorsqu’on démarre l’ordinateur pour la première fois. Il est
recommandé de suivre les indications au sujet des mots de passe à l’écran ainsi que
les informations dans le manuel de l’utilisateur de la carte mère.
● Mot de passe Superviseur - Cette option est en principe utilisée seulement dans les
grandes institutions (corporations, écoles, etc.…), là où les réglages du BIOS sont
standardisés, par le personnel chargé de la maintenance des ordinateurs. Une fois
définis, ces paramètres du BIOS, ils sont bloqués par un mot de passe maître, qui
n’est connu que de l’administrateur du réseau ou l’administrateur désigné. Les
instructions relatives à cette option, peuvent être aussi trouvées dans le manuel de la
carte mère.
● Si aucun mot de passe n’est exigé, mais que l’écran est accidentellement activé,
suivez les actions suivantes pour vous rendre sur l’écran suivant :
● Lorsqu’on vous demande un mot de passe, appuyez sur la touche Entrée sans entrer
un mot de passe.
Des informations supplémentaires concernant cette fonctionnalité peuvent être trouvées dans
le manuel de la carte mère.
Associé à la sortie du BIOS, des options sont fournies pour sauvegarder ou annuler n’importe
quels changements et pour continuer à travailler dans l’utilitaire. Une autre option sur l’écran
de sortie est de Charger le Système par Défaut. Le Système par Défaut permet au BIOS de
retourner aux réglages d’origine effectué par le constructeur.
Il y a deux options de sortie du BIOS, sortie sans sauvegarde et sauvegarde puis sortie du
setup. La sortie sans sauvegarde est utilisée pour sortie du programme de paramétrage du
Bios sans sauvegarder les modifications apportées au système. La sortie avec sauvegarde
sert à sauvegarder les modifications dans la puce CMOS avant de sortir du programme. Il y a
aussi des raccourcis pour réaliser ces opérations, utilisez toujours cette option afin d’éviter la
perte accidentelle de toutes les modifications apportées.
Note : C’est une bonne idée que d’avoir une copie écrite des réglages du BIOS
conservée avec la liste de contrôle de l’inventaire.
Lorsque vous sortez et sauvegardez les réglages, l’ordinateur redémarrera selon la nouvelle
configuration. Le disque de démarrage peut être inséré ce qui permet au système de démarrer
sur une invite de commande. Le disque dur peut être maintenant partitionné en préparation de
l’installation du système d’exploitation.
A chaque fois qu’un ordinateur démarre, une série de tests est automatiquement effectuée,
pour vérifier les composants primaires du système, tels que le CPU, la ROM, la mémoire et
les circuits de la carte mère. La routine qui effectue cette fonction est appelée le POST. Le
POST, est une routine de diagnostique de matériel, qui est intégré dans le BIOS système. La
fonction de base de la routine du POST est de s’assurer que tous les composants matériels
dont le système a besoin pour démarrer sont là et que tout fonctionne correctement avant que
Les codes bip peuvent être utilisés pour diagnostiquer le matériel en panne lors de la routine
du POST. Bien que la routine du POST ne soit que très succincte comparée aux utilitaires
basés disque existants, c’est une première ligne de défense, particulièrement dans la
détection des problèmes sérieux de carte mère. En général, le POST fournit trois types de
messages. Ces messages peuvent être des codes audio, des bips, des messages écran et
des codes numériques hexadécimaux qui sont envoyés vers une adresse de port E/S. Le
POST continue généralement si des problèmes non fatals interviennent, mais les problèmes
fatals sur le POST provoquent l’arrêt du processus de démarrage. Si des problèmes
interviennent tôt, avant qu’un pilote pour le moniteur ne soit chargé, alors le POST ne peut
signaler un problème qu’en émettant des bips. Les bips sortent par l’intermédiaire des hauts
parleurs. Inversement, si le POST et la séquence de démarrage peuvent avancer jusqu’au
point où le système peut utiliser le système vidéo pour afficher des messages, alors les
messages peuvent être affichés à l’écran. Les messages indiquent quels problèmes sont
arrivés ainsi que la cause probable. On en parle généralement en tant que codes erreurs
visuels. Les messages d’erreurs sont habituellement sous la forme de code numériques, par
exemple, 1790- Erreur Disque 0.
Dans bien des cas, le manuel du BIOS ou les tableaux proposés sur le site web du
constructeur devront être consultés pour aider à analyser certains codes plus en détail. Ils
représentent les principaux groupes de messages de diagnostique matériel du POST,
communément utilisés sur les PC. Bien que la plupart des constructeurs de BIOS utilisent
beaucoup de ces codes, aucun ne les utilise tous. Consultez le manuel pour un BIOS système
spécifique.
Les problèmes qui interviennent pendant le POST, sont généralement provoqués par une
configuration ou une installation de matériel incorrecte. Une panne matérielle est en fait rare.
Une des erreurs de POST peut indiquer que l’alimentation du système doit être éteinte.
Débranchez de la prise murale et vérifiez attentivement à nouveau l’assemblage de
l’ordinateur pour vous assurer qu’une étape ou toutes les étapes de la liste qui suit ont été
correctement effectuées :
● L’alimentation électrique est réglée sur le bon voltage d’entrée du pays ou de la région
de l’utilisateur.
● C’est la bonne version du BIOS, il supporte le disque installé et les paramètres sont
entrés correctement.
Un système d’exploitation est un programme logiciel qui contrôle des milliers d’opérations,
fournit une interface entre l’utilisateur et l’ordinateur et gère des milliers d'applications. La
plupart des ordinateurs sont vendus avec un système d’exploitation déjà installé. Les
ordinateurs qui sont conçus pour des utilisateurs individuels sont appelés Personal Computers
(PC). Les systèmes d’exploitation des PC sont conçus pour gérer les opérations des
programmes tels que les navigateurs Internet, les traitements de texte et les logiciels de
messagerie.
Les ordinateurs qui sont capables de prendre en charge des utilisateurs concurrents et des
travaux multiples, sont souvent appelés des serveurs réseaux ou simplement «serveurs ». Les
serveurs ont des systèmes d’exploitation appelés Systèmes d’Exploitation Réseau (NOS
Networking Operating System). Un ordinateur rapide avec un NOS d’installé, peut faire
fonctionner une grande compagnie ou bien un important site Internet, ce qui implique la
conservation en mémoire de beaucoup d’utilisateurs et de programmes.
Voici les trois éléments de base qui font partie des composants majeurs d’un système
d’exploitation. Ces composants sont décrits comme étant modulaires, car chacun d’entre eux a
une fonction distincte et peut être développé séparément :
Peu importe la taille ou la complexité de l’ordinateur ou de son système d’exploitation, tous les
systèmes d’exploitation effectuent les mêmes fonctions de base :
Tous les programmes sont écrits pour un type de système d’exploitation. Les programmes
écrits pour les systèmes d’exploitation UNIX, ne fonctionneront pas avec un système basé sur
Windows et vice versa. Le système d’exploitation soulage le programmeur d’avoir à envisager
l’accès au matériel quand on écrit une application. Si le système d’exploitation ne
communiquait pas des informations entre le matériel et l’application, les programmes
devraient être réécrits à chaque fois qu’ils seraient installés sur un nouvel ordinateur.
Ce qui suit est une liste des systèmes d’exploitation les plus connus.
● Microsoft Windows 95, 98, ME - Windows est l’un des systèmes d’exploitation les
plus connus, à l’heure actuelle. Windows est conçu pour des PCs avec un CPU
compatible Intel. Les PCs basés sur Windows utilisent une GUI en tant qu'interface
entre l’ordinateur et l’utilisateur. Les systèmes Windows sont conçus pour un seul
utilisateur.
● Microsoft Windows NT/ 2000/ XP - Ces systèmes d’exploitation ont été conçus pour
supporter des utilisateurs multiples et pour exécuter plusieurs applications
simultanément. Windows NT, 2000 et XP ont tous incorporé beaucoup de
fonctionnalités réseau.
● UNIX - Unix, qui existe depuis la fin des années 60, est l’un des systèmes
d’exploitation les plus anciens. UNIX a toujours été populaire chez les informaticiens
responsables de la maintenance des réseaux informatiques. Les ordinateurs basés
sur UNIX d'IBM, Hewlett-Packard (HP) et SUN Microsystems ont aidé à développer
Internet dès le début. Il existe beaucoup de versions différentes d'UNIX aujourd’hui.
Une des versions les plus récentes est le très populaire Linux.
Microsoft a développé le DOS, appelé aussi le MS-DOS, en 1981. Le DOS a été conçu pour
les ordinateurs personnels IBM. Windows 98 et Windows 2000 supportent tous les deux les
commandes DOS de façon à assurer la compatibilité avec des applications plus anciennes.
En résumé, le DOS est une série de programmes et de commandes utilisées pour contrôler le
fonctionnement général de l’ordinateur dans un système basé sur un disque. Il y a trois
sections distinctes qui constituent le système d’exploitation DOS :
● Fichiers de gestion des fichiers- Permet au système de gérer les données qu’il
contient dans un système de fichiers et de dossiers.
L’introduction des systèmes d’exploitation ayant une interface graphique (GUI), tels que
Microsoft Windows, a rendu le DOS quasiment obsolète. Le DOS cependant, continue à jouer
un rôle important dans beaucoup de domaines, tels que la programmation, l'exécution des
applications plus anciennes et l'installation de systèmes d’exploitation Windows,
particulièrement sur des ordinateurs plus anciens. Toutes les générations de Windows
supportent les commandes DOS pour une compatibilité avec des applications anciennes. Il est
important de comprendre les bases du DOS, avant de commencer l’installation d’un système
d’exploitation Windows.
● Le DOS peut seulement exécuter des petits programmes et possède une mémoire
limitée.
● Le DOS est un outil essentiel pour les professionnels de l’IT et il est utilisé
principalement pour les dépannages.
PPour accéder au DOS à partir de Windows, faites Démarrer> Exécuter> Commande. Une
nouvelle fenêtre s’ouvre qui permet d’entrer des commandes.
Pour comprendre les commandes de base du DOS, regardez d’abord la structure du disque.
Les programmes et les données sont stockées sur le disque comme les documents dans un
classeur. Les programmes et les données en DOS sont regroupés en répertoires. Les
répertoires sont similaires aux dossiers dans un classeur. Les fichiers et les répertoires sont
organisés de manière à faciliter leur recherche et leur utilisation. Les répertoires peuvent se
situer dans d’autres répertoires, tout comme un dossier situé dans un autre dossier : on les
appelle des sous répertoires. Les répertoires sont connus sous le nom dossiers dans les
systèmes d’exploitation Windows.
Sous DOS, tous les fichiers ont des attributs, qui sont un ensemble de paramètres qui
décrivent le fichier. Les attributs communs pour les fichiers DOS, sont les suivants :
● Fichier Caché - L’utilisateur ne verra pas ce fichier dans une recherche normale de
fichier dans l'environnement DOS.
● Lecture Seule - L’utilisateur peut ouvrir et lire ce type de fichier mais ne peut en
aucun cas écrire ou modifier celui-ci.
Les fichiers cachés sont des fichiers importants qui doivent être masqués et protégés des
utilisateurs non autorisés. Un fichier caché n'apparaît pas dans une liste classique de contenu
de répertoire et ne peut être vu qu'avec une commande spécifique. Il est important de
souligner qu'un fichier caché peut toujours être accédé et modifié Pour voir un fichier caché,
utilisez simplement la commande dir /ah dans l'invite de commandes
C:\>dir /ah
● La barre oblique inversée ( \ ) après chaque item signifie la présence d’un répertoire
ou d’un sous répertoire
● La première barre oblique inversée indique le répertoire racine, qui est présent sur
tous les disques DOS
● Le nom de fichier, trouvé à la fin du chemin, est situé dans le dernier sous répertoire
nommé.
Une commande DOS est une instruction que le DOS exécute à partir d’une ligne de
commande. Une variété de commandes internes, telles que dir et copy, sont insérées dans le
programme COMMAND.COM et sont toujours disponibles tant que le DOS fonctionne.
Beaucoup de commandes externes, telles que Format et xcopy, sont des programmes
individuels qui résident dans le répertoire DOS.
● DEL - Cette commande efface des fichiers nommés. Les commandes DEL et ERASE
sont synonymes. Le commutateur communément utilisé, /P, permet de faire confirmer
par l’utilisateur avant d’effacer chaque fichier. Le format de la commande Del est
donné ci-dessous :
● FORMAT - Cette commande externe est utilisée pour effacer toutes les informations
d’une disquette ou du disque dur. La commande Format sera utilisée dans un
exercice futur, pour préparer le disque dur pour l’installation du SE Windows. La
commande Format typique est présentée ci-dessous :
Note: Le commutateur /S doit être ajouté quand on formate, de manière à effectuer un disque
système. Si le commutateur n’est pas utilisé, le disque peut être reformaté ou bien la
commande SYS DOS peut être utilisée.
● FDISK - Cette commande externe permet à l’utilisateur d’effacer et/ou de créer des
partitions sur le disque dur. La commande FDISK est communément utilisée pour
préparer le disque dur pour l’installation du SE Windows. Le format de la commande
est présenté ci-dessous :
FDISK /[commutateur]
Une commande fréquemment utilisée, /STATUS, affiche des informations de partition quand
elles sont utilisées par la commande FDISK.
● SCANDISK - Cette commande est un programme DOS qui est conçu pour détecter et
réparer les erreurs sur un disque dur ou une disquette. La commande SCANDISK est
entrée à l'invite comme suit :
SCANDISK /[commutateur]
Les commutateurs fréquemment utilisés avec la commande SCANDISK sont présentés ci-
dessous :
MEM /[commutateur]
Les commutateurs communément utilisés avec la commande mem sont les suivants :
• D – Liste les programmes et les drivers internes qui sont chargés dans la
mémoire
● COPY - Cette commande est fréquemment utilisée pour copier un ou plusieurs fichiers
d’un endroit à un autre. La commande copy peut aussi être utilisée pour créer de
nouveaux fichiers. En copiant à partir de la console clavier (copy con :) vers l’écran,
des fichiers peuvent être crées et ensuite sauvegardés sur le disque. Les
commutateurs communément utilisés avec la commande copy sont montrés ci-
dessous :
Les commandes CD, MKDIR et DELTREE, sont légèrement différentes que celles dont on a
parlé précédemment car elles n’utilisent pas de commutateurs. Une rapide description de ces
commandes apparaît ci-dessous :
● RMDIR ( ou RD ) - efface un répertoire vide. Tous les sous répertoires et les fichiers
dans le répertoire doivent être effacés ou déplacés avant que cette commande soit
utilisée.
● DELTREE - Efface un répertoire, incluant tous les fichiers et sous répertoires qui se
situent dedans.
Conseil : Soyez capable d’effectuer des opérations DOS et connaissez les commandes les
plus utilisées.
Il y a des fois où les choses ne vont pas comme prévu et l’ordinateur à du mal à démarrer.
Pour dépanner le problème, une solution de rechange pour démarrer l’ordinateur est
nécessaire. Un disque de démarrage DOS est un bon outil pour effectuer cette tâche. Une de
ses fonctions les plus utiles est de démarrer un ordinateur nouvellement assemblé, pour
installer le système d’exploitation. Un disque de démarrage DOS, est simplement une
disquette avec trois fichiers système :
● COMMAND.COM
● IO.SYS
● MSDOS.SYS
Note: Le disque de démarrage système peut aussi contenir un fichier appelé drvspace.bin. Ce
fichier n’est nécessaire que pour lire le lecteur si ce dernier a été compressé. Sans ce fichier,
l’utilisateur ne pourra pas accéder aux données sur le lecteur compressé.
Etape 4 Si la disquette est déjà formaté, tapez sys A : et appuyez sur Entrée.
Localisez le type de slot d’extension qui va avec la carte vidéo. L’AGP est utilisée pour les
cartes mères les plus récentes ( ATX ) alors que les ISA et PCI
Une disquette de démarrage DOS est utilisée pour démarrer un ordinateur jusqu'à l’apparition
du message d'invite DOS. Le tout premier secteur de la disquette DOS, contient le secteur
d'amorçage. Le boot secteur contient des informations sur la manière dont est organisée le
disque. Parfois, il contient un petit Master Boot Record (MBR), qui peut accéder à un
programme amorce plus grand et plus puissant, qui est situé dans le répertoire racine.
Dans la plupart des cas, le MBR est situé dans le secteur-1, tête-0 et piste-0 du premier
disque dur logique ou dans le disque d'amorce. Le MBR est l'enregistrement principal
d'amorce requis sur n’importe quel disque d'amorce ou disque système. Le MBR peut
démarrer le matériel système pour un système d’exploitation. Avoir un disque d'amorce
facilitera grandement la préparation du disque dur et l’installation d'un système d’exploitation.
Démarrer le système
Insérer une disquette amorceable dans le lecteur de disquettes et allumez l’ordinateur. Le
bIOS exécutera le programme bootstrap, qui est un petit programme BIOS qui lance et
contrôle une bonne partie de la routine de démarrage. Le programme bootstrap charge le
MBR dans la RAM et ensuite le BIOS initialise le processus de chargement du système
d’exploitation. Généralement, si le système effectue un amorçage standard du DOS, il affiche
à l’écran la Date et L’heure, suivi du message A:\ . Cette invite de commande DOS, indique
que le DOS est opérationnel et que le lecteur de disquettes A: est le lecteur actif.
● IO.SYS
● MSDOS.SYS
● CONFIG.SYS
● COMMAND.COM
● AUTOEXEC.BAT
Conseil : Rappelez vous des fichiers impliqués dans le processus de démarrage du DOS et
l’ordre de leur exécution.
Dans Windows 9x, CONFIG.SYS est principalement nécessaire pour l’installation de pilotes en
mode réel pour des périphériques qui ne sont pas supportés par les pilotes 32 bits de
Windows 9x. Le mode réel sera traité plus loin dans ce chapitre.
CONFIG.SYS
Le CONFIG.SYS réside dans le répertoire racine et est utilisé pour charger les pilotes et
changer les réglages au démarrage. Les programmes d’installation modifient souvent
CONFIG.SYS de façon à adapter l’ordinateur pour leur propre utilisation. Le CONFIG.SYS
dans la plupart des Windows 9x sera vide, c'est un fichier texte en attente de modifications
que l’utilisateur pourrait vouloir ajouter au système. Dans le changement de DOS à Windows
9x, la plupart des valeurs situées auparavant dans ce fichier, ont été déplacées vers IO.SYS.
Pour écrase les valeurs dans IO.SYS, entrez les spécifications appropriées dans
CONFIG.SYS. CONFIG.SYS est aussi utilisé pour exécuter des gestionnaires de mémoire.
Conseil : Connaissez les touches de fonctions qui peuvent être utilisées pendant le processus
de démarrage.
Il est important de savoir quelles commandes sont situées normalement dans le fichier
AUTOEXEC.BAT.
SYSEDIT est un éditeur de texte standard utilisé pour éditer des fichiers de configuration
système, tels que CONFIG.SYS et AUTOEXEC.BAT. De plus, cet utilitaire peut être utilisé
pour l’ensemble des fichiers d’initialisation de Windows généralement appelés fichiers INI. Les
fichiers INI sont en gros des fichiers texte que les utilisateurs peuvent éditer avec un utilitaire
d’éditeur de texte standard tel que SYSEDIT. Les fichiers INI ont été crées quand Windows 3x
fut ajouté à la structure de DOS et a depuis été mis sur les autres versions de Windows
( Windows 9x ) dans le répertoire Windows, pour une compatibilité ascendante. Des exemples
On peut aussi accéder à ces fichiers pour éditer dans MS-DOS en tapant EDIT CONFIG.SYS
ou EDIT AUTOEXEC.BAT à l'invite de commande.
Les divisions logiques ont été crées parce que le MS-DOS et les processeurs des premiers
PC d’IBM n'avaient que 1 Mo d’espace mémoire. Ce 1 Mo de mémoire fut plus tard scindé en
deux morceaux. Les 640 premiers Ko étaient utilisés pour l’utilisateur et le système
d’exploitation et les 384 Ko supérieurs, pour le BIOS et les utilitaires. Windows 9x, construit
sur les bases du MS-DOS, supporte les différents types de spécifications de mémoire
physique des premiers IBM PC et de ses nombreux descendants. Ces spécifications de
mémoire physique sont traitées dans cette section, tandis que la mémoire virtuelle sera
étudiée plus tard.
Mémoire Conventionnelle
La mémoire conventionnelle comprend toutes les adresses de mémoire entre 0 et 640 Ko. Elle
est aussi connue sous le nom de mémoire de base. C’est l’endroit où les programmes MS-
DOS sont normalement exécutés. Dans des machines DOS plus anciennes, c’est la seule
mémoire disponible pour exécuter les fichiers du système d’exploitation, les programmes
d’application, les routines résidentes en mémoire et les pilote de périphériques. Les routines
résidentes en mémoire comprennent les programmes terminate-and-stay (TSR) tels que les
pilotes de souris et de lecteurs de CD-ROM.
La mémoire paginée est une zone mémoire identique à la mémoire supérieure. On l’appelle
aussi spécification de la mémoire "expansée" (augmentée) (EMS Expanded Memory
Specification). Cette mémoire qui l'on peut accéder par morceaux de 16 Ko à partir d’un cadre
page de 64 Ko. Ces pages sont stockées, dans les UMBs non utilisés. Le pilote principal qui
permet l’utilisation de l’EMS est l’EMM386.EXE. Ce programme libère de la mémoire
conventionnelle en affectant des portions non utilisées de la zone de mémoire réservée aux
pilotes DOS et aux programmes résidents.
Mémoire Etendue
Avec l’apparition du microprocesseur 80286 et l'exécution en mode protégé, il devint possible
La Mémoire Haute
Une fois que le pilote XMS est chargé et que la mémoire étendue devient disponible pour le
système d’exploitation, les 64 premiers Ko de mémoire sont appelés la zone de mémoire
haute (HMA High Memory Area). Généralement HIMEM.SYS active l’option DOS=HIGH, ce
qui permet de copier le noyau MS-DOS utilisé par Windows 9x dans la HMA. DOS utilise la
HMA, ce qui libère de la mémoire conventionnelle utilisable par les applications.
Il existe plusieurs outils qui peuvent être utilisés pour gérer et optimiser la mémoire du
système. Certains de ces outils ainsi que leur utilisation sont étudiés en détail dans cette
section.
• Pour ajouter des utilitaires MS-DOS résidents dans les blocs de mémoire
supérieur, ajoutez cette ligne dans le CONFIG.SYS :
Device=C:\Windows\Emm386.exe NOEMS
L’option NOEMS (Pas de Mémoire Paginée) dit au S.E. de ne pas convertir la mémoire
étendue en mémoire paginée. Le fichier IO.SYS ajoute la mention suivante à la configuration
de la mémoire pour rendre disponible les UMB pour les programmes résidents MS-DOS :
DOS=UMB
Device=C:\Windows\Emm386.exe RAM
Cette mention, convertit l’espace mémoire XMS dans un pool commun de mémoire
XMS/EMS, qui est disponible à la fois pour les applications DOS et Windows 9x. Notez encore
une fois que la mention DOS=UMB est ajoutée par IO.SYS, pour rendre les UMBs non utilisés
disponibles pour les programmes résidents MS-DOS.
DEVICE=C:\DOS\HIMEM.SYS
DOS=HIGH, UMB
DEVICEHIGH=C:\DOS\MOUSE.SYS
D’autres outils système de gestion de la mémoire tels que MemMaker, inclus dans le DOS 6.0,
existent pour aider à simplifier le chargement des programmes résidents dans la mémoire
supérieure. Utilisez cet utilitaire pour effectuer les modifications nécessaires dans les fichiers
CONFIG.SYS et AUTOEXEC.BAT.
Le RAM disque et la mémoire virtuelle sont deux autres types de mémoires importants.
Note: Puisque le disque est plus lent que la RAM normale, on obtient une réduction globale de
la vitesse lors des opérations avec la mémoire virtuelle. En fait, la mémoire virtuelle est le plus
lent de tous les modèles de mémoire.
Cliquer sur le bouton Mémoire Virtuelle fait apparaître l’écran des options de Mémoire
Virtuelle. Le réglage recommandé et par défaut est « Laissez Windows gérer mes réglages
de mémoire virtuelle. (Recommandé) ».
Attention : Choisir l’option qui permet à Windows de gérer la mémoire virtuelle est conseillé
puisque de mauvais réglages peuvent affecter les performances du système.
Le RAM disque
Mettre de côté une partie de la RAM pour émuler un lecteur peut créer une RAM disque. Par
exemple, sur une machine qui a un disque dur partitionné en lecteur C et D, un lecteur de
RAM de 4 Mo (4096 Ko) E peut être crée avec la commande :
DEVICE=C:\DOS\RAMDRIVE.SYS 4096
La commande est entrée dans le fichier CONFIG.SYS. La RAM disque deviendra la lettre
suivante disponible et peut être de n’importe quelle taille spécifiée jusqu’à la taille de la RAM
installée sur l’ordinateur. Puisque les données stockées sur la RAM disque sont uniquement
en RAM, elles sont effacées à chaque redémarrage. Ce n’est certainement pas un bon endroit
pour stocker des fichiers de données qui doivent être mises à jour.
Il y a plusieurs choses qui peuvent provoquer un conflit de mémoire. Par exemple, deux
gestionnaires de mémoire fonctionnant en même temps, tels que ceux d’une tierce partie et
ceux fournis par MS-DOS. Il y a beaucoup d’outils de diagnostic qui peuvent être utilisés pour
diagnostiquer des problèmes tels que l’utilitaire de Diagnostiques de Microsoft (MSD).
Les conflits mémoire peuvent mener à un cas de figure qui se nomme Défaut Général de
Protection (GPF general Protection Fault), aussi connu sous le nom de « Ecran bleu de la mort
». Il indique qu’une erreur est intervenue et les choix disponibles à l’utilisateur. D’habitude, le
meilleur choix est de redémarrer le système.
• Essayer d’utiliser une adresse mémoire ou de l’espace utilisé par une autre application
D’autres situations de conflits interviennent lorsqu’à tout moment, plus d’une routine de
mémoire résidente tente d’accéder au même espace d'adresse de la mémoire supérieure.
Une GPF se manifeste généralement par un système ou une application qui ne répond pas.
L’utilisation des utilitaires de diagnostic, traités auparavant, est nécessaire pour permettre un
diagnostique de ces conflits. Si les applications en conflit sont trouvées, une façon de résoudre
le problème est d’affecter de nouveau les zones de mémoire différentes, en utilisant différents
gestionnaires de mémoire et les outils d’optimisation décrits plus tôt dans ce chapitre.
Mode Réel
L’adressage de la mémoire en mode réel signifie que le logiciel, tel que le DOS ou ses
applications, peuvent adresser seulement 1024 Ko ( 1 Mo ) de RAM. En d’autres termes, le
mode réel signifie que la puce du microprocesseur adresse les 1024 premiers octets de «
mémoire conventionnelle » en affectant en fait des adresses réelles à des endroits réels en
mémoire. Un système 80286 fonctionnant en mode réel, par exemple, agit essentiellement de
la même façon qu’un système 8088/86 et peut faire fonctionner des logiciels plus anciens sans
modifications.
Mode Protégé
L’opposé du mode réel est l’adressage de la mémoire en mode protégé. Contrairement au
mode réel, le mode protégé permet à un programme d’échouer sans affecter le système tout
entier. La théorie derrière le mode protégé est que ce qui se passe dans une zone de la
mémoire n’a pas d’incidence sur les autres programmes. En d’autres termes, quand on utilise
le mode protégé, un programme est limité à sa propre affectation d’espace de mémoire, mais
il peut accéder à de la mémoire au dessus de 1 Mo. Le 80286 pouvait adresser jusqu’à 16 Mo
de mémoire, mais les logiciels pouvaient utiliser la puce pour accéder à plus de mémoire.
Notez qu’avant que les programmes ne fonctionnent en concurrence soient vraiment sûrs de
leurs actions respectives, le microprocesseur ainsi que d’autres puces du système requièrent
un système d’exploitation qui puisse assurer cette protection. A peu près tous les systèmes
d’exploitation autres que le DOS fonctionnent en mode protégé.
Les termes répertoire et dossier sont tous deux utilisés pour désigner un endroit où stocker les
informations. Avant l’arrivée de Windows, les fichiers étaient stockés dans des répertoires et
des sous répertoires utilisant une structure arborescente. Cette structure arborescente existe
toujours dans l’environnement graphique de Windows mais la terminologie a changé de
répertoires à dossiers. De même, les fichiers sont aujourd'hui devenus des documents. Un
sous-dossier est simplement un dossier contenu dans un autre. Ces noms sont maintenant
interchangeables. Les fichiers, répertoires et dossiers sont étudiés de manière plus
approfondie dans un chapitre ultérieur.
Les noms de fichier Windows 3.1 et DOS sont limités à huit caractères plus trois pour le
suffixe appelé extension. Ce format se réfère à la convention 8.3. Windows 98 et les versions
ultérieures ont porté le nom de fichier à 255 caractères. Les noms de dossier obéissent aux
mêmes règles que les noms de fichier.
Les caractères / \ ; : * ? “ < > ne peuvent pas être utilisés dans les noms de fichier car ils sont
associés à des fonctions spéciales en ligne de commande. Si ces caractères sont utilisés un
message d’erreur demande à l’utilisateur de renommer le fichier. Les caractères autorisés
comprennent tous les autres caractères et chiffres valables sur un clavier d’ordinateur
standard.
Conseil : il faut connaître les caractères autorisés ou non quand on nomme des fichiers
Windows.
Les majuscules et les minuscules sont traitées pareil dans Windows. Un nom de fichier
BOB.TXT est équivalent à bob.txt. Cependant, ce n’est pas vrai sur Internet où l’on trouve
beaucoup de serveurs UNIX. UNIX traite les noms de fichiers de manière plus différenciée.
Ainsi, BOB.TXT n’est pas équivalent à bob.txt.
Lettre de lecteur
Les lettres de lecteur utilisent les 26 lettres de l’alphabet suivies de deux points. Les lettres A
et B sont réservées aux lecteurs de disquette. C désigne le premier disque dur ou la première
partition. S’il y a un seul disque dur, D représente le lecteur du CD-ROM ou DVD-ROM. S’il y a
plusieurs disques durs, le second disque dur héritera de la lettre D et la désignation du CD-
ROM ou DVD-ROM changera en conséquence.
La fenêtre Mon Ordinateur liste tous les disques durs, disquettes, CD-ROMs, DVD-ROMs et
lecteurs réseau qui font parti de l’ordinateur ou auxquels on peut accéder par le réseau.
Il est important de comprendre comment les fichiers sont gérés dans Windows. Cette section
traite de la structure de base du répertoire Windows et de la gestion des fichiers.
Pour comprendre les fichiers, dossiers et sous-dossiers, imaginez un arbre. Le tronc de l’arbre
est le point de départ principal et est comme le répertoire racine de Windows. Les dossiers
sont comparables aux branches de l’arbre connectées au tronc. Les petites branches sont
rattachées aux grosses branches de la même manière que les sous-dossiers sont rattachés
aux dossiers. Les feuilles attachées aux grosses et petites branches sont comme les fichiers
attachés aux dossiers et sous-dossiers. Une application Windows, appelée Explorateur
Windows, représente ce concept d’arbre et de branches dans le gestionnaire de fichiers
Windows.
L’explorateur Windows affiche la structure des fichiers d’un ordinateur comme une structure
hiérarchique de fichiers, dossiers et lecteurs. Pour ouvrir l’explorateur Windows allez dans
Démarrage > Programmes > Explorateur Windows. Ou bien faite un clic droit sur le bouton
Démarrer et choisissez Explorer dans le menu contextuel. Il y a trois parties principales dans
la fenêtre de l’explorateur Windows. La zone du haut est appelée Barre de titre. La partie
gauche de la fenêtre est appelée Dossiers. La partie droite affiche les noms de fichier et peut
afficher des détails comme leur taille et leur type.
Les fichiers peuvent être affichés de différentes manières en sélectionnant Affichage dans la
barre de titre. Le mode Détails est celui qui donne le plus d’informations sur chaque fichier.
Les autres modes simplifient l’affichage en affichant seulement le nom du fichier comme dans
le mode Liste.
Le signe plus (+) à coté d’un dossier indique qu’il contient des sous-dossiers. Cliquez sur le
signe plus pour voir les sous-dossiers. Si vous cliquez sur un dossier spécifique dans la partie
gauche de la fenêtre, vous verrez apparaître le contenu de ce dossier dans la partie droite.
Notez que le signe plus se transforme en moins (-). Cliquer sur le signe moins aura pour
conséquence de réduire le sous-dossier à l’intérieur du dossier.
Note : Le meilleur moyen pour comprendre le concept de l’Explorateur Windows est de l’ouvrir
et de s’entraîner à afficher les dossiers et les fichiers. Cliquez sur le signe plus pour afficher
les contenus et cliquez sur le signe moins pour réduire les dossiers. Essayez également les
différents modes d’affichage et notez les informations que chacun fournit.
La gestion des fichiers organise un ordinateur. De la même manière qu’une pièce peut devenir
désordonnée et ses affaires éparpillées, les fichiers peuvent être sur un ordinateur. Les
dossiers permettent le stockage des fichiers informatiques d'une manière logique et nette.
Quand le dossier est créé les mots Nouveau Dossier sont en surbrillance. Le dossier peut
maintenant être renommé. Commencez à taper le nouveau nom de dossier et les
changements vont apparaître à l’écran. Appuyer sur Entrée ou cliquer sur la partie vierge de
l’écran achèvera la saisie. Rappelez-vous que le nom de dossier peut avoir jusqu’à 255
caractères et ne doit comporter que des caractères autorisés. Le dossier peut être renommé
plus tard en cliquant une fois sur le dossier pour le mettre en surbrillance et en appuyant sur
F2. Le nom apparaît en surbrillance. Tapez le nouveau nom.
Dans ce chapitre nous allons créer un fichier avec WordPad pour montrer la marche à suivre
pour sauvegarder un fichier, puis le déplacer.
Le document peut être sauvegardé sur le bureau au format Texte mis en forme (Rich Text
Format RTF). Sélectionnez Enregistrer Sous dans le menu Fichier et entrez le nom.
Note : Les espaces, les minuscules et les majuscules sont des caractères autorisés pour les
noms de fichier.
Vous pouvez changer le format du fichier de RTF à Word pour Windows en sélectionnant
l’option Enregistrer Sous dans le menu Fichier. Suivre les étapes suivantes:
Etape 2 Dans la boite de dialogue Enregistrer Sous, indiquez Word pour Windows
6.0 dans Type
Pour voir le nom complet du fichier placez le curseur dans la barre d’en-tête entre Nom et
Taille. Notez qu’une flèche à double tête apparaît. Faites un double click entre Nom et Taille.
La zone du nom de fichier va s’ajuster automatiquement afin d’afficher le nom complet de
chaque fichier.
Le fichier peut être coupé et collé dans le dossier. Faîtes un clic droit sur le fichier et
sélectionnez Couper dans le menu. Déplacez le curseur dans le dossier, faîtes un clic droit et
sélectionnez Coller dans le menu.
Des dossiers peuvent être créés dans d'autres dossiers. Des fichiers peuvent être copiés dans
des dossiers. Faîtes un clic droit sur l'élément et un menu apparaît avec les options Copier,
Couper et Créer un raccourci. Copier duplique le fichier et le met dans un nouveau dossier. Il
y aura deux fichiers. Un fichier dans le nouveau dossier et un fichier en dehors. Tous deux
auront le même nom, ce qui est permis tant que les fichiers ne sont pas dans le même dossier
avec les mêmes attributs.
Couper place le fichier dans le presse-papiers. Le fichier dans le presse-papiers peut être
collé dans un nouveau dossier
Créer un raccourci crée un lien entre l'endroit où se trouve couramment le fichier et le bureau
ou un autre dossier. Si vous cliquez sur le raccourci le document original est ouvert à partir de
son emplacement original.
Détails d’un document ou d’un fichier dans Windows signifient la même chose que les
attributs de fichier dans MS-DOS. La partie droite de l’explorateur Windows fournit les détails
des répertoires, dossiers et fichiers. Les détails comprennent la date de création ou de
dernière modification du fichier ou dossier, le type de l’objet (dossier, document MS Word ou
classeur Excel …), et la taille du fichier.
Inclure la date de dernière modification dans le document peut aider à trouver les dernières
versions. Ajouter des nombres ou l’expression ver 1 au nom de fichier peut indiquer les
différentes versions. Le nom de l’auteur ou l’organisation peut aussi être utilisé,
particulièrement si différentes personnes se partagent les documents.
Cette rubrique présente comment reconnaître les types de fichier employés le plus
fréquemment dans un répertoire/dossier. Les exemples comprennent des fichiers texte,
des feuilles de calcul, des bases de données, des présentations, des textes mis en forme
(RTF) et des images. Le principal paramètre utilisé pour reconnaître les types de
fichier est l’extension de fichier mentionnée précédemment dans ce chapitre.
L’extension de fichier indique l’application utilisée pour créer le fichier.
Cette section détaille comment sélectionner un fichier soit individuellement, soit en tant que
partie d’un groupe. Il y est également expliqué comment copier et coller des fichiers à
l’intérieur des répertoires/dossiers pour les dupliquer.
Pour copier un fichier, faites un clic droit dessus et choisissez Copier à partir du menu
contextuel. Allez là où il doit être collé.
Faites un clic droit sur une zone vierge de la partie droite de l’Explorateur Windows, puis
choisissez Coller. Une copie du fichier est désormais disponible.
Pour sélectionner plusieurs fichiers, maintenez enfoncée la touche Ctrl pendant que vous
cliquez sur les noms du fichier. Les fichiers apparaîtront en surbrillance. Pour ôter un fichier de
la sélection, continuez d'appuyer sur la touche Ctrl et cliquez sur le fichier que vous voulez
retirer.
Pour sélectionner tous les fichiers, choisissez Edition>Sélectionner Tout sur la barre d'outils.
Pour ne plus sélectionner tous les fichiers, appuyez sur la touche Echap sur le clavier. Une
fois que les fichiers sont sélectionnés, ils peuvent être déplacés, copiés, effacés, ou tous
ouverts simultanément.
Pour trouver un fichier ou un dossier, allez sur Démarrer > Rechercher (ou Démarrer >
Chercher sur Windows 2000). Puis choisissez Fichiers ou Dossiers et tapez le nom ou une
partie du nom du fichier. Dans une recherche efficace on utilise une partie du nom de fichier
ou dossier qui est unique. Les utilisateurs peuvent également trier par date de modification ou
type de fichier. Double-cliquez sur le fichier pour l'ouvrir.
Note: Pour obtenir un raccourci vers des fichiers ou des dossiers, appuyez sur la touche
Windows, puis f pour Rechercher et f pour Fichiers et Dossiers
En plus du texte qui est recherché, il est important d'indiquer où chercher. Le système peut
chercher dans tout le disque dur, l'ordinateur ou des dossiers spécifiques.
Pour copier un fichier ou un dossier sur une disquette, faites un clic droit sur le fichier et
choisissez Envoyer vers > 3½ Disquette (A). Les utilisateurs peuvent également faire un
glissé posé des fichiers sélectionnés vers l'icône A du lecteur.
La Corbeille peut être utilisée pour effacer temporairement ou définitivement des fichiers de
l'ordinateur. Jusqu'à ce que la corbeille soit vidée, les fichiers restent sur le disque dur. Les
fichiers peuvent être restaurés de la Corbeille vers le dossier original. Sur Windows 98, 10%
du disque dur sont mis de côté pour la corbeille par défaut.
Quand on double-clique sur l'icône de la Corbeille sur le bureau, cela ouvre une fenêtre qui
montre les fichiers qui ont été effacés. Faire un clic droit sur le nom d'un fichier, puis
sélectionnez Effacer à partir du menu contextuel, ôtera définitivement le fichier de la corbeille.
Faites un clic droit sur le nom d'un fichier, puis sélectionnez Restaurer à partir du menu
contextuel, pour le restaurer sur le disque dur.
Faites un clic droit sur le fichier et sélectionnez Propriétés pour voir les propriétés du
document. La fenêtre qui s'ouvre affichera le dossier d’origine du fichier.
Note: Le même procédé fonctionne pour les dossiers. Le dossier lui-même ne peut être
montré, mais en restaurant un fichier qui était précédemment dans le dossier, celui-ci sera
restauré automatiquement. Un dossier vide ne peut pas être restauré.
Quand on fait un clic droit sur la Corbeille, un menu apparaît. Sélectionnez Vider la Corbeille
pour supprimer définitivement tout le contenu de la corbeille.
Les fichiers et les dossiers peuvent être affichés dans la corbeille de la même manière que
dans l’Explorateur Windows. Avant d’effacer définitivement un fichier, vérifiez que c’est le bon
fichier à supprimer, en utilisant l’option détails sous l’aperçu.
Un des outils les plus utilisé du panneau de configuration Windows est les propriétés du
Système. On peut accéder à cet outil dans le panneau de configuration en choisissant
Démarrer > Paramètres > Panneau de Configuration > Système. La fenêtre Système
comprend une série d'onglets dans sa partie supérieure. L'onglet par défaut est l'onglet
Général, qui énumère les informations relatives au système. Ceci comprend la version du
système d’exploitation, les informations concernant la licence utilisateur et les spécificités du
système telles que le type du processeur et la capacité de la mémoire.
Le troisième onglet en partant de la gauche est les Profils Matériels. Les Profils Matériels
permettent à l'utilisateur d'avoir différentes configurations de matériel pour le même système.
La plupart des utilisateurs n'auront pas besoin d'activer les Profils Matériels. Cependant,
l'utilisateur d'un ordinateur portable peut avoir un profil pour le système quand il est branché
sur une station d’accueil et un quand il est autonome.
Enfin, le quatrième onglet est l'onglet des Performances. Il affiche des informations sur les
performances courantes du système et permet d'accéder à la mémoire virtuelle et aux
paramètres du système de fichiers.
5.2.2 L'imprimante
Cette section fournit des informations pour imprimer sur une imprimante déjà installée, pour
changer l'imprimante par défaut et voir la progression d'une impression.
Pour imprimer un document ouvert avec une imprimante déjà installée, cliquez sur le menu
Fichier et sélectionnez Imprimer.
La fenêtre de l'imprimante s'ouvre, ce qui permet aux utilisateurs de choisir les options pour
imprimer tout un document, la page en cours ou un groupe de pages, le nombre de copies, de
modifier la mise en page et de changer les caractéristiques de l'imprimante.
Etape 1 Dans Windows, allez sur Démarrer > Paramètres > Imprimantes.
Etape 6 Soit vous gardez le pilote existant, soit vous le remplacez. Cliquez sur
Suivant.
Etape 7 Sélectionnez le port imprimante. Le port LPT1 est le port par défaut. Cliquez
sur Suivant.
Note: Pour partager cette imprimante avec d'autres sur le réseau, donnez lui un nom de
partage tel que "Etage2Est" ou "Comptabilité".
Etape 7 SélectionL'écran suivant suggère d'imprimer une page test. Cela montrera si
l'imprimante est opérationnelle et si les bons pilotes sont installés.
Choisissez Oui, puis cliquez sur Terminer.
Si l'imprimante a été ajoutée avec succès, une icône apparaîtra dans la fenêtre de
l'imprimante. Elle aura une coche si c’est l’imprimante par défaut.
Si un mauvais document était en cours d'impression, ou si le document était trop long, il peut
être effacé de la file d'attente d'impression. Sélectionnez le document, choisissez Document >
Annuler. La colonne Etat affichera que le document est en train d'être supprimé.
La fonction Affichage et la fonction Sons sont deux outils utiles quand on veut changer
l'apparence de l'affichage et les sons associés à Windows. On peut accéder à la fonction
Affichage, soit en la sélectionnant dans le panneau de configuration ou en faisant un clic droit
sur le Bureau et en choisissant Propriétés. Cela permet à l'utilisateur de définir un écran de
veille, changer la couleur de l'arrière-plan, l’apparence des fenêtres, de même que les
paramètres de résolution d’affichage.
La fonction Sons, permet à l'utilisateur de choisir les sons associés à différents évènements
système, comme le démarrage ou l’arrêt de l'ordinateur. Des thèmes peuvent également être
utilisés pour coordonner l'arrière-plan, l’apparence des fenêtres et les sons, afin de créer un
environnement uniforme.
5.3.1 Le registre
Le Registre est une base de données hiérarchique utilisée pour gérer les informations
nécessaires au système d’exploitation Windows. Les anciennes versions de Windows
stockaient les données de configuration du système et de l'utilisateur dans des fichiers INI, qui
étaient habituellement éparpillées à travers de multiples répertoires et pouvaient être
facilement modifiés par les programmes ou l'utilisateur final. Le Registre prend tous ces
fichiers et les stocke dans un emplacement plus sûr.
Le Registre est composé des fichiers SYSTEM.DAT et USER.DAT. Le fichier SYSTEM.DAT
contient des informations sur le matériel du système. Le fichier USER.DAT contient des
informations spécifiques à l'utilisateur. Windows 98 peut encore utiliser les fichiers
SYSTEM.INI et WIN.INI pour exécuter des applications conçues pour Windows 3.x. Plus
Comme le Registre est une base de données hiérarchique, il peut être affiché en utilisant la
fonction REGEDIT.EXE. L'éditeur Registre, comme le montre la figure 1, affiche le Registre
dans un format qui est similaire à celui de l’Explorateur Windows. SCANREG.EXE peut être
utilisé avec n'importe quel système d’exploitation Windows 9x pour sauvegarder ou réparer le
registre système.
MSCONFIG.EXE est un très bon outil pour les utilisateurs de Windows 98 et Millénium. Il n’est
pas inclus dans Windows 95. MSCONFIG.EXE permet à l’utilisateur de contrôler le démarrage
du système en donnant un accès rapide aux fichiers de configuration et d’initialisation
importants de Windows, y compris les fichiers CONFIG.SYS, AUTOEXEC.BAT, SYSTEM.INI
et WIN.INI. Il permet également à l’utilisateur de choisir quels programmes se chargent
automatiquement quand l’ordinateur démarre.
Quand le système d’exploitation est chargé, il vérifie la liste des programmes du menu de
démarrage dans CONFIG.SYS et initialise automatiquement ces programmes durant le
démarrage.
Cette fonction peut également être utilisée pour régler des problèmes qui surviennent pendant
le processus de démarrage. Le Mode sans Échec est une autre méthode de démarrage qui
peut être utilisée pour dépanner. Le Mode sans Échec permet à l'utilisateur de charger
Windows sans les pilotes de périphériques spécifiques et les ressources qui leurs sont
allouées. Seuls l'interface de base de l'utilisateur et les pilotes génériques sont chargés, ainsi
le système est opérationnel. Pour plus d'informations, consultez la section sur le Mode sans
Échec dans le chapitre 13 "Dépannage logiciel du PC".
HWINFO.EXE est une fonction qui fournit un ensemble détaillé d'informations sur l'ordinateur.
Si les commutateurs appropriés ne sont pas utilisés, cette commande ne donnera pas les
résultats souhaités. Le commutateur /ui est utilisé quand on exécute ce programme pour
obtenir une liste détaillée d'informations sur l'ordinateur.
Quand un nouveau disque dur est installé il est complètement vierge. Il n’y a pas
d’emplacement où les fichiers et dossiers puissent être stockés. Pour créer ces emplacements
le disque dur doit tout d’abord être divisé en sections logiques. Ces sections s’appellent des
partitions. Le processus de partitionnement crée des emplacements dans des secteurs
contigus sur le disque dur. Chaque partition peut avoir un système de fichier pour un système
d’exploitation. Sans système de fichiers, les partitions sont inutilisables.
Le disque dur peut avoir jusqu'à quatre partitions principales distinctes, ou trois principales et
une étendue, ou deux principales et une étendue, ou juste une principale et une étendue,
selon les besoins de l'utilisateur. DOS peut avoir jusqu'à quatre partitions séparées sur un
disque dur. La partition étendue utilise l'espace libre du disque dur et on lui attribue
normalement tout l'espace disponible hors de la / des partition(s) principale(s). DOS peut
seulement adresser un maximum de deux gigaoctets (GO) d'espace disque quand on utilise
FAT16. FAT32 a augmenté la limite jusqu'à deux teraoctets (TO) d'espace disque. La table
d’allocation des fichiers (File Allocation Table FAT) est abordée ultérieurement dans ce
chapitre.
Note: Seule la partition primaire sur n'importe quelle unité de disque dur peut être marquée
comme active. DOS et Windows 95/98 peuvent seulement gérer une partition principale par
unité de disque dur. Inversement, Windows NT et 2000 ont des utilitaires qui permettent de
gérer la troisième partie du disque et des partitions principales multiples par disque dur. Une
partition primaire ne peut pas être sous divisée en unités plus petites.
Lecteurs logiques
Quand un disque dur est divisée en partitions, la partition étendue utilise la totalité de l'espace
vide du disque dur qui n'est pas inclus dans la /les partition(s) principale(s). Il ne peut y avoir
qu'une partition étendue par disque, mais à la différence de la partition principale, elle peut être
sous divisée en sections multiples (jusqu'à 23) appelées lecteurs logiques. Le fait d'avoir
plusieurs lecteurs logiques à l'intérieur de la partition étendue procure quelques avantages :
● Plusieurs systèmes d’exploitation, tels que MS-DOS et Windows 98, peuvent être
installés sur le même ordinateur à condition que les deux unités aient le même
système de fichier ou Table d'Allocation de Fichiers (FAT). La FAT est détaillée
ultérieurement dans ce chapitre.
En créant un second lecteur logique sur le disque dur formaté, une autre structure complète de
recherche de fichier est créée sur le disque dur. Le système d’exploitation affiche cette
nouvelle structure du disque dur comme un nouveau disque. Ainsi, une lettre de lecteur unique
lui est attribuée, comme cela a été mentionné précédemment.
● L'endroit où se trouve chaque lecteur logique sur le disque et leur point de départ.
● L'endroit où se situe le Master Boot Record (MBR). Seuls les disques bootables ont un
MBR.
Il est important que la table des partitions soit au début du disque car c’est là que le système
regarde pour avoir les informations de démarrage.
Après avoir divisé le lecteur en partitions, il doit être préparé à stocker des données. Ce
processus s'appelle le formatage. Le formatage d’un disque dur crée des pistes magnétiques
en cercles concentriques sur la surface du disque. Ces pistes sont ensuite fractionnées en
morceaux de 512 octets appelés secteurs. Les pistes du disque sont numérotées,
commençant par 00, en partant de l'extérieur du disque vers l'intérieur (dans le monde
informatique, la numérotation commence par 0 au lieu de 1). Le nombre de pistes par disque
dépend du type de disque et du lecteur utilisé. L'association de deux secteurs ou plus sur une
seule piste s'appelle un cluster. On appelle parfois un cluster un block. La taille de chaque
cluster dépend de la taille du disque dur et de la version du DOS utilisée.
Un cluster est la plus petite unité que DOS utilisera pour stocker un fichier. Cela signifie que
même si un fichier ne fait qu'un octet de long, un cluster entier sera utilisé pour stocker le
fichier. La capacité du disque est déterminée par le nombre de pistes et de secteurs et donc
par le nombre de clusters qui peuvent être créés sur la surface du disque en le formatant.
Note: Chaque secteur sur un disque DOS fait 512 octets. Cependant les fichiers peuvent avoir
n'importe quelle longueur. Par conséquent, un seul fichier peut occuper plusieurs secteurs sur
le disque. Sur les disquettes, un cluster fait généralement un ou deux secteurs de long. Avec
les disques durs, la longueur d'un cluster peut varier de 1 à 16 secteurs, en fonction du type de
disque.
Finalement, dans une unité de disque dur où plusieurs disques sont empilés et tournent sur un
axe commun, on appelle toutes les pistes ayant le même nombre un cylindre.
Depuis la FAT originale associée à DOS, appelée FAT16 (16-bit), d'autres versions ont fait
leur apparition. La VFAT est la version apparue avec le Windows 95 "original". La FAT32 (32-
bit) une version plus efficace de la FAT est apparue avec Windows 95 OSR2, Windows 98 et
Windows Millenium (collectivement appelés Windows 9x). Seuls DOS et Windows 3x 16-bit
utilisent encore la FAT16. Quand on écrit FAT, sans numéro, on comprend FAT16. Quand un
disque dur est formaté pour l'installation de DOS, la FAT est créée. Quand il est formaté pour
l'installation de Windows 9x, la FAT32 est créée, comme étant le système de fichiers de la
partition du disque où le système d’exploitation Windows 9x doit être installé.
Un programme système tel que CVT1.EXE, ou d'autres utilitaires tels que Partition Magic
peuvent être utilisés pour convertir le FAT16 en FAT32, sans détruire les données dans la
partition du disque. Cependant, il n'est pas possible de convertir une partition FAT32 en une
partition FAT16. FAT, FAT32 et d'autres systèmes de fichier, y compris NTFS sont
approfondis dans le chapitre 7.
● Le formatage classique de haut niveau est réalisé avec la commande format dans
MS-DOS. Cette procédure crée des structures logiques sur le disque qui disent au
système quels fichiers sont sur le disque et où on peut les trouver. Quand on utilise
MS-DOS ou un système de boot Windows 9x (contenant le fichier FORMAT.EXE)
pour formater l'unité de disque dur, le processus crée une FAT vierge et une
arborescence de répertoires sur le disque. Faites le formatage de haut niveau
pendant la préparation du disque dur pour l'installation du système d’exploitation.
A:\>format C:
Quand on tape un espace et /s après la lettre de lecteur dans la commande, cela formate le
disque dur et transfère les fichiers systèmes, le rendant ainsi amorçable. La syntaxe à
l'apparition du prompt de la commande DOS est la suivante :
A:\>format C: /s
Avant de parler de la procédure d'installation en détail, il est utile de comprendre les différentes
versions de Windows 9x et quels rapports elles ont entre elles. Cette section résume de
manière basique l'évolution de Windows depuis le départ, de DOS, système d’exploitation en
ligne de commande, à la création de l’interface graphique (GUI) du système d’exploitation
Windows.
Windows a été révisé à de nombreuses reprises. Windows 9x fait référence à toutes les
nouvelles versions de système d’exploitation de Microsoft de Windows 95 à Windows
Millenium. La version originale a commencé avec une interface utilisateur basique. Avant la
parution de Windows 3.1, Windows a été révisé plusieurs fois pour obtenir son aspect actuel.
Windows 3.1, sortie en avril 1992, était plus stable et comprenait des polices de caractères
vectorielles (True Type). Cette version devint un des systèmes d’exploitation les plus populaire
entre le moment où elle est sortie et le milieu des années 90. Une de ses principales limites
était qu'elle dépendait de DOS pour fonctionner. Elle avait donc tous les fichiers d'initialisation
Windows (fichiers INI), mentionnés précédemment dans ce chapitre, et s’appuyait sur la
structure DOS de base pour démarrer.
A la fin de l'année 1993, Microsoft a sorti Windows pour Workgroup, version 3.11. C'était la
première version qui intégrait les réseaux et les groupes de travail (Workgroup). Cette version
comprenait des fonctions de messagerie, de planification de tâches, le partage de fichier et
d'imprimante et la gestion du calendrier. Elle offrait une compatibilité NetWare et Windows NT
et une stabilité améliorée. Bien que la gestion de réseau fût intégrée, elle était difficile à utiliser
et dépendait toujours de DOS pour fonctionner.
Windows 95 est sorti en août 1995 avec de nombreuses possibilités et beaucoup plus
d’avantages que n'importe quelle autre version précédente. C'est la première version de
Windows qui pouvait être définie comme un véritable système d’exploitation, n'exigeant pas
l’installation préalable de DOS. Cette version a également été considérée comme étant plus
abordable pour l'utilisateur que les autres versions, démocratisant ainsi les ordinateurs auprès
des utilisateurs. Windows 95 a également permit le support des noms longs de fichiers, des
caractéristiques de gestion de réseau avancées et la fonction plug-and-play. Cette version a
quelques limites : des exigences système plus grandes, une phase d'apprentissage due à sa
nouvelle présentation et des insuffisances dans les fonctions de plug-and-play.
L'année suivante, Microsoft a sorti Windows 95 OSR2. Cette nouvelle version résolvait
plusieurs bogues et apportait des améliorations aux caractéristiques intrinsèques du système.
Elle a ensuite inclus le navigateur Web Explorer 3.0 et supportait le nouveau système de
gestion de fichier 32-bit, plus efficace, appelé FAT32 ainsi que l'Universal Serial Bus (USB).
En juin 1998 sortit la version Windows 98. Cette version comprenait Internet Explorer 4 et un
support USB amélioré. Elle supportait de nouvelles technologies, telles que la gestion
d'énergie de l'Advanced Configuration and Power Interface (ACPI). Malgré de nombreuses
améliorations, la limite principale de Windows 98 était un manque de stabilité. Cependant, en
mai 1999, la seconde édition de Windows 98 sortit. Incluant les mises à jour de l'an 2000
(Y2K), un meilleur support USB, la dernière version d'Internet Explorer, et plusieurs autres
mises à jour. Cette version de Windows était la plus fonctionnelle à ce moment-là. Bien que
Windows 98 manque complètement de stabilité, elle est encore considérée par de nombreux
techniciens comme la version la plus stable de Win9x.
En septembre 2000, Microsoft sortit Édition Millenium (ME) de Windows. Cette version
comprend des capacités multimédia renforcées et un support Internet amélioré, et est la
dernière version de Windows à fonctionner avec le noyau de Win9x. Une part importante du
système d’exploitation était résidente en mémoire et était responsable de la gestion des
processus, des tâches, du disque et de la mémoire. Windows ME faisait preuve d'une faible
stabilité en comparaison avec la Seconde Édition (SE) de Windows 98.
La dernière version sortie pour les particuliers est l'édition Windows XP Home. Elle possède
un noyau entièrement 32-bit basé sur le noyau NT et est plus stable que n'importe quelle
version Win9x. Cependant, il y a des problèmes de compatibilité avec les logiciels et matériels
anciens. Elle demande aussi une configuration système plus élevée.
Pour installer Windows 98, la plateforme matériel minimum requise est la suivante :
● L'unité de disque dur du système doit avoir entre 255 et 355 Mo d'espace libre pour
installer avec succès la version complète de Windows 98 sur un lecteur FAT16 ou
entre 175 et 255 Mo d'espace libre sur un lecteur FAT32.
● Pour une mise à jour à partir de Windows 95, il faut environ 195 Mo d'espace libre sur
le disque dur, mais une fourchette entre 120 Mo et 255 Mo est possible en fonction
des options qui sont installées.
Note : La quantité réelle de l'espace du disque utilisé dépend du type d'installation effectué
(Nouveau, Mise à jour, Particulier, Portable, etc.). Indépendamment, une unité de disque dur
d'au moins 2 Go est nécessaire pour installer Windows 98.
Cette section explique la procédure d'installation. La plupart des étapes de l'installation sont
automatisées grâce à un utilitaire qui s'appelle Setup. La compréhension de chaque étape du
processus d'installation ou Setup sera utile lorsqu'on procèdera à l'installation réelle. Les
étapes de la procédure d'installation sont divisées en quatre phases.
● Identifier les lecteurs source et destination pour les fichiers Windows 98 qui seront
installés.
● Extraire les principaux fichiers Setup, également connus sous les noms de
PRECOPY1.CAB et PRECOPY2.CAB, pour les mettre dans le répertoire Wininst0.400
créé précédemment.
● Le répertoire dans lequel il faut déplacer les fichiers d’installation Windows 98.
● La configuration Internet, afin que le système puisse recevoir les informations de mise
à jour régionale. Il est important que le système fonctionne avec une date correcte et
une heure qui corresponde au fuseau horaire local
Quand Setup a rassemblé toutes les informations sur l’installation, il s’arrête et incite
l’utilisateur à créer un disque de démarrage d’urgence. Suivez les instructions qui apparaissent
à l’écran pour créer un disque de démarrage. Le Setup commencera alors le processus
d’installation pour Windows 98.
Attention : Si le démarrage est interrompu pendant que les fichiers Windows 98 sont copiés
dans leurs différents emplacements, le système peut ne pas redémarrer.
Une fois que le Setup a copié les fichiers Windows 98 dans leurs bons emplacements, il
affichera un message pour redémarrer le système. Le système redémarrera automatiquement
si aucune saisie n'est détectée au bout de quinze secondes.
Tous les pilotes installés automatiquement par Windows sont des pilotes stockés dans le
système. S'il y a des problèmes, les pilotes doivent être mis à jour avec les toutes dernières
versions qui contiennent les solutions pour réparer n'importe quel problème des versions
précédentes. La meilleure source de mise à jour de drivers se trouve sur le CD ou la disquette
d'installation livré avec le matériel. Si ce n'est pas le cas, vérifiez le site Web du fabricant pour
les télécharger. On peut habituellement les télécharger gratuitement.
Il y a deux options pour installer Windows 98. La première option est l’installation directe à
partir du CD-ROM en mettant en marche le système à partir du lecteur de CD-ROM. L’autre
option est de copier tous les fichiers sur le disque dur et procéder à une installation interne à
partir du disque dur. Exécuter l’installation de manière interne à partir du disque dur présente
des avantages.
Etape 1 Vérifiez qu’il y ait au moins 200 MO d’espace supplémentaire sur le disque
pour stocker les fichiers d’installation de Windows et les fichiers CAB. Un
fichier CAB est un format de fichier Microsoft utilisé pour compresser des
fichiers. Un programme Windows d’extraction lancé à partir d’une ligne de
commande DOS permet de décompresser ces fichiers.
Etape 4 Copiez tous les fichiers à partir du répertoire SETUP98 du CD-ROM vers le
répertoire correspondant sur le disque dur. Tapez copy D:\SETUP98\*.*
C:\SETUP98 (en admettant que dans votre configuration on affecte la lettre
C: au disque dur et la lettre D: au lecteur de CD/ROM).
Etape 5 Allez dans le répertoire SETUP98 sur le disque dur pour démarrer
l’installation. Tapez CD SETUP98 {Entrée}, puis tapez INSTALLATION
{Entrée}. Cela démarre le processus d’installation de Windows 98.
Le fait de copier les fichiers d’installation vers le disque dur et d’effectuer l’installation du
système d’exploitation fournit certains avantages pour les raisons suivantes :
● Pour ajouter un nouveau matériel ou un logiciel Windows, l’utilisateur peut être obligé
de fournir des fichiers d’installation Windows. Le fait d’avoir les fichiers sur l’unité de
disque dur permet aux utilisateurs d’indiquer seulement le répertoire SETUP98.
L’utilisateur n’a pas besoin de rechercher le CD-ROM d’installation, qui peut ne pas
être à portée de main.
Les utilisateurs de Windows 95 peuvent effectuer une mise à jour vers Windows 98 pour
bénéficier des caractéristiques supplémentaires et d’une plus grande facilité d’utilisation. Le
processus de mise à jour est une procédure facile. Si l’utilisateur souhaite garder ses
paramètres, comme le fond d’écran et les fichiers utilisateur, il faut alors exécuter le
programme d’installation Windows 98 en partant de Windows 95.
Même si la mise à jour se passe bien, il peut y avoir des problèmes avec Windows 98 mis à
jour. Si l’utilisateur n’a pas besoin de garder des informations ou des paramètres sur son
ordinateur, le meilleur moyen est de commencer avec une nouvelle installation. Tout effacer
n’est pas toujours recommandé car c’est radical. Cependant, si l’utilisateur sauvegarde toutes
ses données avant de procéder à l’installation du nouveau système d’exploitation, il pourra
retrouver toutes les données qu’il a sauvegardées et avoir une installation propre.
Connaître les différents conseils et astuces pour localiser une panne dans l'installation
Windows peut faire la différence entre un technicien et un excellent technicien. Cette section
traite de certains problèmes courants qui peuvent se produire dans l'installation du système
d’exploitation Windows et ce qu'il convient de faire. On s'en tiendra aux problèmes liés à
l'installation du système d’exploitation Windows. Le problème de la localisation d'une panne en
général sera abordé de manière plus approfondie dans des chapitres ultérieurs.
● Démarrez le système dans un ordre logique pour voir quels sont les symptômes.
Dans la plupart des cas, dépanner, cela signifie que l'on a observé attentivement, que l'on a
fait preuve de déduction dans son raisonnement et que l'on a eu une approche organisée pour
résoudre les problèmes.
● Est-ce que le ventilateur du CPU fonctionne ? S'il ne l'est pas, vérifiez si le câble est
bien branché dans la carte mère, dans le limiteur de surtension et si celui-ci est en
marche.
● Est-ce que le contraste et la luminosité sont assez hauts pour voir l'affichage ?
● Est-ce que toutes les DIMM de mémoire sont correctement placées dans les prises de
courant ? Si une barrette RAM n'est pas correctement placée, l'écran de contrôle est
alors blanc.
● Est-ce que le CPU est correctement installé et correctement placé ? Si le CPU n'est
pas correctement placé, rien ne s'affichera à l'écran.
● Est-ce qu'il y a un câble d’alimentation branché sur le lecteur disquette, le disque dur,
le lecteur de CD-ROM et la carte mère ?
● Scandisk/Défragmentation –
• Exécutez le Scandisk.
• Il y a deux types de test qui peuvent être effectués, le test Standard et le test
Approfondi. Si vous cochez «Corrigez les erreurs automatiquement», cela
permettra au scandisk d’essayer de réparer les erreurs qu’il trouve.
• Le test Standard vérifie les dossiers et les fichiers sur le lecteur à la recherche
d’erreurs.
● Virus Scan
● FDISK /MBR – Cette commande MS-DOS non documentée peut être très utile. MBR
est l’abréviation de Master Boot Record. A la base, c’est la table des matières du
disque dur. L’altération du MBR quand l’ordinateur ne démarre pas est un problème
que l’on rencontre souvent. La commande FDISK/MBR aidera à reconstruire sur le
lecteur, cet élément crucial du processus d’amorçage du système d’exploitation.
Les erreurs de Setup sont probablement les problèmes les plus importants que l’on ait à
régler. La compréhension des codes d’erreur générés par le système d’exploitation peut
économiser du temps quand on essaie de régler des problèmes d’installation de Windows.
Dans cette section, les erreurs de Setup les plus fréquentes sont résumées, on voit comment
les interpréter et que faire avec elles.
● Pas assez d’espace sur le disque – Effacer tous les fichiers inutiles sur l’unité de
disque dur. Si cela ne marche pas, faites un nettoyer installer, c’est-à-dire reformatez
le disque dur et recommencez du début.
● Messages d’erreur de fichier CAB – L’ordinateur peut être infecté par un virus ou il
peut ne pas avoir assez de mémoire conventionnelle ou il peut avoir un problème de
matériel (particulièrement le CD-ROM). Une installation après nettoyage peut éliminer
les problèmes liés au virus ou à la mémoire conventionnelle. Faites nettoyer ou
remplacer tous les CD-ROMs défectueux. Il existe un autre remède qui consiste à
essayer de copier les fichiers CAB vers l’unité de disque dur et d’exécuter l’installation
à partir de là.
● SU0011 – L’ordinateur est protégé par un mot de passe. Enlevez le mot de passe,
habituellement dans le setup BIOS, et redémarrez l’installation de Windows 98.
Seulement quelques-unes unes des erreurs que l’on peut rencontrer dans l’installation du
système opératoire ont été traitées. Pour des erreurs spécifiques ou pour apprendre plus au
sujet des erreurs de Setup, reportez-vous au fichier SETUP.EXE que l’on trouve avec les
disquettes ou les CD d’installation Windows.
La page de propriétés du gestionnaire de périphériques fournit des onglets pour accéder aux
informations générales, aux paramètres du périphérique, aux informations du pilote de
périphérique et les exigences et les ressources des périphériques et leurs usages. On peut
également afficher les ressources système dans le gestionnaire de périphérique.
Généralement, s’il y a des problèmes matériels (par exemple, si deux périphériques ont le
même IRQ), cliquez sur le périphérique à l’origine du problème dans la liste. Assurez-vous que
le périphérique sélectionné soit le périphérique en cours dans l’ordinateur. Examinez
également l’autre périphérique qui pose problème pour s’assurer que le même périphérique
n’ait pas été installé deux fois.
Les pilotes de périphérique donnent maintenant aux ordinateurs la possibilité d’ajouter une
grande variété de périphériques au système. Un pilote de périphérique est un logiciel
spécialement conçu pour permettre à l’ordinateur de faire fonctionner le matériel ou les
périphériques installés dans le système. Ces périphériques comprennent des lecteurs de CD-
ROM, le disque dur et les cartes d’extension. Ils peuvent également comprendre des
périphériques externes comme une souris ou un clavier. Parfois, les problèmes qui suivent
l’installation du système d’exploitation Windows sont simplement liés à l’absence de pilotes de
périphérique appropriés. Le pilote de périphérique permet non seulement au système de
reconnaître la présence d’un périphérique, mais il lui permet également de faire fonctionner le
périphérique. Bien que la procédure pour installer des périphériques et leurs pilotes dans un
ordinateur soit devenue très facile, le technicien doit toujours être capable d’installer n’importe
quel pilote si c’est nécessaire. Il y a généralement deux manières d’installer un pilote de
périphérique sur l’ordinateur :
Le principal avantage de l’utilisation du disque de pilote de l’OEM est que les pilotes sont
susceptibles d’être plus à jour. Utiliser l’Auto détection en utilisant les pilotes de Windows 98
peut parfois entraîner un dysfonctionnement du périphérique ou une faible performance. Les
pilotes fournis avec Windows 98 peuvent être obsolètes. Quand l’installation du pilote est
achevée, le système doit redémarrer pour activer ou rendre effectifs les nouveaux
changements dans un système Windows 98. Après chaque installation de matériel, il est
important de mettre à jour les pilotes de périphérique pour assurer une performance optimale.
Une disquette de démarrage Windows 98 est essentielle si le système tombe en panne, est
bloqué dès le démarrage ou quand le démarrage de Windows 98 échoue avant la fin.
L’installation de Windows 98 est plus facile avec une disquette de démarrage de Windows 98.
Cette section fournit une vue d’ensemble de la disquette de démarrage de Windows 98, et
comment en faire un.
La disquette de démarrage de Windows 98 peut être utilisé pour démarrer le système en ligne
de commande DOS pour régler le problème. De plus, si un disque dur a un problème ou si le
En plus des principaux fichiers du système d’exploitation copiés sur la disquette de démarrage,
vous trouverez également, les trois utilitaires de disque nécessaires pour préparer ou réparer
le disque dur pendant l’installation du système d’exploitation. Il s’agit de SCANDISK.EXE,
FDISK.EXE et FORMAT.EXE.
Etape 4 A ce moment-là, Scandisk vérifiera s’il y a des erreurs sur l’unité de disque
dur. Permettez à Scandisk de le faire en cliquant sur Oui quand le message
apparaît.
Les systèmes d’exploitations Windows NT/2000 et, plus récemment, le système d’exploitation
Windows XP ont des différences évidentes avec le système d’exploitation Windows 9x.
Beaucoup de ces différences ne sont pas visibles. Cependant, il faut comprendre ces
concepts très importants pour saisir pleinement les environnements différents dans lesquels
ces systèmes d’exploitations sont utilisés. Les facteurs suivants doivent être pris en compte
quand vous choisissez un système d’exploitation:
Tous ces facteurs déterminent le choix entre un système Windows 9x ou Windows NT, 2000
ou XP. La plus grosse différence tient à leur système de fichiers, Windows NT File System
(NTFS) et File Allocation Table (FAT).
Le but principal de n’importe quel système de fichier est de stocker et de retrouver les
données du disque dur de l’ordinateur. La manière dont les données sont organisées,
optimisées et retrouvées vient du système de fichier sur l’unité de disque dur. Les disques durs
stockent les informations sur des plateaux, qui sont en métal magnétisé. Un système de
fichiers organise les données sur ces plateaux.
DOS/Windows est le système d’exploitation le plus utilisé aux Etats-Unis et dans le reste du
monde. Pour la plupart d’entre eux, le système de fichier utilisé par DOS et Windows est
devenu la norme. Pour que le technicien IT réussisse, il est important pour lui de comprendre
le système FAT original et la manière dont il a évolué vers l’actuel NTFS.
NTFS a d’abord été introduit dans Windows NT. Il offre de nombreux avantages à l’utilisateur
final comme plus d’outils d’administration et plus d’options de sécurité qui n’existent pas dans
A – qui signifie que le fichier sera archivé la prochaine fois que le disque sera
sauvegardé
Le système de fichier FAT est simple et fiable. Si l’ordinateur plante (s’il se bloque ou ne
répond pas) au milieu d’une mise à jour, il ne perdra pas de données. Sans utiliser beaucoup
de mémoire, le système de fichier FAT remplit beaucoup de tâches administratives
d’Entrée/Sortie (I/O) vers les partitions. Cette fonction est un véritable avantage pour le
système de fichier FAT. Cependant, il en résulte que le fichier peut être fragmenté, ce qui
réduit les performances. Le système de fichier FAT comprend des outils d’optimisation pour
empêcher cela.
Si des secteurs non attribués sur le disque sont trouvés lorsque la fonction CHKDSK ou la
fonction SCANDISK fonctionne, il sera demandé à l’utilisateur si ces secteurs doivent être
changés en fichiers. Si l’utilisateur n’était pas en train de créer un nouveau fichier quand
l’ordinateur a planté, répondez simplement non et l’espace non-attribué sera recyclé en tant
qu’espace libre. Cependant, si l’utilisateur était en train de créer un nouveau fichier quand le
Les fichiers sont stockés dans des clusters. Dans ce système, le disque dur est divisé en
morceaux de 512 bits appelés secteurs. Les secteurs sont alors groupés en morceaux plus
grands appelés clusters. Chaque cluster ne peut contenir qu’un fichier. . L’ordinateur assigne
ces clusters à un endroit spécifique pour que l’ordinateur puisse les trouver facilement. La taille
des clusters est déterminée par la taille des partitions du disque dur.
Avec le système de fichier FAT32, les données sur le disque dur peuvent être stockées de
manière beaucoup plus efficaces. Avec la version précédente du FAT16, une partition à 2 Go,
avec une taille de cluster de 32 Ko, finissait par gaspiller beaucoup d’espace utile car
seulement un fichier à la fois pouvait être stocké que dans un cluster. Par exemple, avec le
FAT16, s’il y avait un fichier d’un seul Ko, on utilisait un cluster de 32 Ko, les 31 Ko d’espace
inoccupé était gaspillés. Inversement, le système de fichier FAT32 qui alloue un cluster de 4
Ko avec une partition de 2 Go, réduit la quantité d’espace gaspillé. Cette caractéristique,
associée à la reconnaissance des partitions supérieures à 2 Go, fait du système de fichier
FAT32 une avancée évidente du système de fichier DOS.
La capacité du FAT32 à utiliser aussi bien la copie que la version originale de la FAT est un
autre avantage. Les systèmes de fichier FAT16 et FAT32 gardent deux copies de la FAT,
l’originale et la copie de sauvegarde, mais seul le FAT32 peut utiliser la copie de sauvegarde
comme l’originale. Cela signifie que si une table d’allocation de fichier est altérée ou si elle
tombe en panne, et que le système de fichier FAT32 est en cours d’utilisation, la copie de
sauvegarde peut être utilisée jusqu’à ce que la version originale puisse être réparée. Le FAT16
peut seulement utiliser la version originale pour exécuter le système d’exploitation. Cela
signifie que si la FAT devait être endommagée ou tomber en panne d’une quelconque
manière, le système planterait et deviendrait inutilisable.
Ces améliorations du système FAT32 rendent non seulement l’utilisation de l’espace du disque
plus efficace et plus fiable mais elles améliorent aussi la performance générale du système
d’exploitation. Les applications répondent au moins deux fois plus rapidement avec le FAT32
tout en utilisant moins de ressources du système.
La version originale de NTFS qui est sortie avec Windows NT fait maintenant référence au
NTFS4. La dernière version du système de fichier NTFS fait maintenant référence au NTFS5.
Le NTFS5 est inclus dans Windows 2000 et peut contrôler le cryptage du fichier et fournir
ainsi, une sécurité supplémentaire que le NTFS4 ne pouvait pas fournir. Le NTFS5 comprend
également une caractéristique appelée quotas de disque qui donnent à l’administrateur la
possibilité d’attribuer des limites à la quantité d’espace sur le disque dur que les utilisateurs
sont autorisés à occuper sur le serveur ou le poste de travail.
La principale raison pour développer le système de fichier NTFS était que les systèmes de
fichier FAT16 et FAT32 avaient simplement des capacités trop limitées pour fournir les
caractéristiques avancées qui sont nécessaires quand on installe un système d’exploitation au
niveau d’une entreprise. Le système NTFS fournit des caractéristiques supplémentaires
comme la sécurité des fichiers et répertoires avec la Discretionary Access Control Lists
(DACL) et la System Access Control Lists (SACL) qui peuvent toutes les deux exécuter des
opérations sur un fichier et contrôler les évènements qui déclenchent l’inscription d’action dans
un journal de trace (log). De plus, le NTFS permet à l’administrateur d’établir des autorisations
locales sur les fichiers et les dossiers qui précisent quels groupes et utilisateurs y ont accès et
leur niveau d’accès.. Les autorisations de fichier et de dossier NTFS s’appliquent aux
utilisateurs travaillant sur l’ordinateur où le fichier est stocké et aux utilisateurs ayant accès au
fichier par le réseau quand le fichier est dans un dossier partagé. Les permissions NTFS sur
Le NTFS fournit un support supplémentaire pour gérer plus efficacement les grands disques
durs et les volumes qui dépassent les limitations de taille des systèmes FAT16 et FAT32.
En fait, le système de fichier NTFS a été conçu afin qu’il puisse travailler avec disques qu’on
ne verra même pas dans les 20 prochaines années.
L’incapacité du système FAT à reconnaître des noms de fichier non anglais est une de ses
lacune. Cela est du au fait qu’il utilise le table de caractères ASCII 8 bits pour son
arborescence de nom de répertoires et de fichiers. NTFS lui, emploie la table de caractère
Unicode 16 bits pour ses noms de fichiers et répertoire, cela permet aux utilisateurs du monde
entier de gérer leur nom de fichiers avec leur langue maternelle. Une table de caractères 16 bit
peut plus facilement intégrer une langue non anglaise et son alphabet qu’une table de
caractère de 8 bits. C’est une caractéristique importante pour le système d’exploitation d’une
entreprise de niveau mondial.
Les systèmes d’exploitation Windows NT/2000/XP ont été conçus pour répondre aux besoins
du marché professionnel et commercial. Des caractéristiques comme la sécurité et la
possibilité d’accéder à un grand volume de données sont nécessaires aux grandes entreprises
et compagnies commerciales. Le NTFS a été développé avec une fonction qui fait que chaque
fois que le système de fichier est modifié, le NTFS en garde la trace dans un fichier de log
spécial. Si le système plante, le NTFS peut examiner le fichier log et l’utiliser pour restaurer le
disque dans son état antérieur avec un minimum de perte de données. Cette caractéristique
est appelée tolérance de panne. C’est une caractéristique supplémentaire que les compagnies
commerciales et entreprises considèrent comme importante car la perte de données cruciales
suite au plantage d’un ordinateur peut coûter beaucoup de temps et d’argent. Le système FAT
ne fournit pas de tolérance de panne. La FAT peut être corrompue si le système plante
pendant la création ou la mise à jour d’un fichier. Cette situation peut entraîner la perte de
données précieuses suite à leur modification, ainsi qu’une altération générale du lecteur et la
perte d’une grande partie des données du disque dur. Ce risque est clairement inacceptable
pour le marché cible de Windows NT/2000/XP.
Il existe d’autres systèmes de fichier utilisés aujourd’hui par des systèmes d’exploitation reconnus
tels que Novel Netware, Linux, etc. Il n’est pas prévu d’en parler dans ce cours.
Les permissions
Les permissions de fichier et de répertoire sont utilisées pour déterminer quels utilisateurs et
quels groupes peuvent avoir accès à certains fichiers et dossiers et ce qu’ils peuvent faire
avec leurs contenus. L’attribution de permissions est un excellent moyen de garantir la
sécurité et est efficace quand on accède au fichier ou au répertoire par le réseau. Cependant
les permissions affectées aux répertoires sont différentes de celles affectées aux fichiers. Ces
caractéristiques sont valables sur Windows NT, 2000 et XP, uniquement si le système de
fichiers NTFS est employé à la place du système de fichiers FAT.
Cryptage
Le cryptage est une autre sécurité fournie par les systèmes d’exploitation Windows 2000/XP.
Microsoft fournit un système de fichier spécifique pour l’encodage qui s’appelle EFS
(Encrypting File System). Il donne aux administrateurs le moyen de crypter un fichier ou un
dossier ainsi seule la personne qui a crypté le fichier peut l’afficher. L’administrateur peut
déterminer quels autres utilisateurs ont l’autorisation d’afficher le fichier.
Il est recommandé à l’administrateur de crypter des dossiers et non des fichiers. Une fois que
le dossier est crypté, tous les fichiers placés à l’intérieur du dossier seront cryptés. Cela
simplifie la gestion des dossiers cryptés. Pour crypter un dossier, dans la boîte de dialogue
Propriétés du dossier, cliquez sur l’onglet Général. Cliquez sur Avancé, puis sélectionnez la
case à cocher Crypter le contenu pour sécuriser les données.
La compression
Microsoft a inclus un outil de compression qui permet d’économiser de l’espace en
compressant les fichiers et les dossiers. Après avoir été compressé un fichier ou un dossier
prendra moins de place sur le volume Windows 2000/XP. Cela déterminera l’état de
compression du fichier, qui est soit compressé, soit décompressé. Il est important de noter
que si on veut accéder à un fichier compressé, l’utilisateur peut le faire sans avoir à le
décompresser d’abord. Le système d’exploitation le décompresse et le compresse
automatiquement quand le travail est terminé, puis le fichier est fermé.
La compression des fichiers et des dossiers augmentera l’espace sur le disque. Cependant,
pour attribuer de la place sur le disque, NTFS se base sur la taille du fichier décompressé.
Quand un utilisateur essaie de copier un fichier décompressé vers un volume qui peut en fait
avoir assez d’espace pour le fichier compressé mais pas assez pour le fichier décompressé,
un message d’erreur apparaîtra disant qu’il n’y a pas assez d’espace sur le disque pour copier
le fichier. C’est dû au fait que NTFS pour la taille du fichier se base sur son état lorsqu’il est
décompressé.
La même recommandation est faite pour la compression d’un dossier que pour son cryptage.
Compressez le dossier en premier puis ajoutez le fichier. Faites un clic droit sur le dossier ou
fichier dans l’Explorateur Windows pour définir l’état de compression d’un fichier ou d’un
dossier. Cliquez sur Propriétés, puis sur Avancé. Dans la boîte de dialogue Propriétés
Avancées, sélectionnez la case à cocher Compresser le contenu pour économiser de
l’espace sur le disque. Cliquez sur OK, puis sur Appliquer dans la boîte de dialogue des
Propriétés. La compression est moins importante aujourd’hui car les lecteurs s’agrandissent et
deviennent moins chers.
Note: Un dossier ou un fichier peut être soit compressés , soit encodé, mais pas les deux.
1. La séquence de pré-amorçage
2. La séquence d’amorçage
4. L’initialisation du noyau
ID de l’ordinateur
Le type de bus/adaptateur
Le clavier
Les disquettes
NTDETECT.COM rassemble toutes les informations sur la matériel tandis que se charge
NTOSKRNL.EXE, et lui transmet ces informations.
1. Le matériel est créé. Dès que le noyau a terminé le processus d’initialisation, il utilise les
informations collectées pendant la phase de détection du matériel pour créer la clé du
registre HKEY_LOCAL_MACHINE\HARDWARE. Cette clé contient toutes les informations
sur le matériel de la carte mère de l’ordinateur et sur les interruptions utilisées par les
périphériques.
2. Le clone control set est créé. Le noyau fait référence à la sous-clé du registre
«HKEY_LOCAL_MACHINE\SYSTEM\Select» et crée alors un clone (ou copie) de la valeur
du« Current Control Set» dans le registre. L’ordinateur utilise alors cette copie pour garder
à l’identique un exemplaire des données utilisées pour configurer l’ordinateur. Cette valeur
du registre ne reflètera donc pas les changements effectués pendant la procédure de
démarrage.
3. Les pilotes de périphérique sont chargés et initialisés. Pendant cette étape, le noyau
initialise d’abord les pilotes de périphérique de bas niveau qui ont été ajoutés pendant la
phase de chargement du noyau. Maintenant, le noyau doit chercher dans la sous-clé du
registre «HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services» les pilotes de
périphérique ayant une valeur de 0x1. Cette valeur indique à quel moment du processus un
pilote se charge. C’est aussi vrai pour une valeur de pilote dans la phase de chargement du
noyau.
Note: 0x devant un nombre indique que c’est un nombre hexadécimal. Pour plus
d’informations, voir « le système du nombre hexadécimal » dans le chapitre 1.
5. Etape 5 : le login
La dernière étape du processus de démarrage commence par l’écran de login. Un
démarrage n’est pas considéré comme terminé ou réussi avant qu’un utilisateur se
Le Plug-and-Play
L’ajout de nombreux périphériques aux ordinateurs modernes est devenu incroyablement plus
facile avec les progrès de la technologie du Plug-and-Play. L’administrateur doit traiter les
conflits de ressources qui résultent d’un grand nombre de périphériques non-standards sur le
marché. Traiter ces problèmes peut être extrêmement déroutant, difficile et peut prendre
beaucoup de temps. La spécification Plug-and-Play (aussi appelée PnP) a été développée
dans le but de résoudre ce problème. Le but du Plug-and-Play est de créer un ordinateur dont
le matériel et les logiciels fonctionnent ensemble pour configurer automatiquement les
périphériques et assigner les ressources. Un autre but de cette technologie est de permettre
les changements et les ajouts de matériel sans avoir besoin d’ajuster toute l’attribution des
ressources. Comme le nom le suggère, le but est de pouvoir brancher un nouveau
périphérique et l’utiliser immédiatement, sans procédure d’installation compliquée. Le concept
du Plug-and-Play a d’abord été introduit avec le système d’exploitation Windows 95. Avec les
derniers systèmes d’exploitation sortis, la technologie du Plug-and-Play a énormément avancé.
Windows NT 4.0 ne supporte pas le Plug-and-Play. Seuls Windows XP, Windows 2000,
Windows Me, Windows 98, Windows 95 OSR2 et Windows 95 le supportent.
Les pilotes
Les pilotes de périphérique sont des programmes qui disent au système d’exploitation
comment contrôler des périphériques spécifiques. Ils fonctionnent comme une interface entre
le système d’exploitation et le périphérique, ce qui leur permet de se reconnaître et de
communiquer entre eux. Les systèmes d’exploitations Windows 2000/XP possèdent déjà une
grande base de données de pilotes. Cela rend l’installation des périphériques non-standards
plus facile. Cette base de données des pilotes déjà préchargée dans le système d’exploitation
facilite l’usage du Plug-and-Play. Par exemple, si un périphérique ou une carte d’extension est
ajouté à l’ordinateur et si le système d’exploitation a déjà le pilote dans sa base de données, il
l’installera automatiquement sans que l’utilisateur ait besoin d’effectuer une configuration
supplémentaire. Cette base de données est également installée sur Windows 98, mais les
derniers systèmes d’exploitations sortis par Microsoft contiennent les pilotes les plus récents et
les pilotes mis à jour qui sont nécessaires pour les nouveaux systèmes d’exploitations.
Les outils d’administration sont une caractéristique propre au système d’exploitation Windows
NT/2000/XP. Cette fonction est un outil puissant du système Windows NT/2000/XP qui permet
à l’administrateur de contrôler tout ce qui est en relation avec l’ordinateur local. A partir de
cette fonction, on peut contrôler l’autorisation de se connecter à l’ordinateur en créant des
comptes d’utilisateurs locaux. La fonction Gestion du Disque permet à l’utilisateur de contrôler
et manipuler les disques durs de l’ordinateur. Il y a également la fonction Services qui peut
démarrer ou arrêter n’importe quel programme en cours sur l’ordinateur. Cette caractéristique
est utile quand on dépanne le système. Encore une fois, une des principales caractéristiques
de l’environnement Windows NT/2000/XP est la sécurité. La fonction Outils d’administration
Un compte d’utilisateur local doit d’abord être créé sur l’ordinateur avant que l’utilisateur puisse
se connecter. Cela permet à l’administrateur de ne laisser se connecter que les utilisateurs
autorisés. Cette procédure ne marchera que sur les ordinateurs qui ne font pas partie d’un
domaine. Les comptes d’utilisateurs locaux permettent aux utilisateurs de se connecter et
d’avoir accès aux ressources uniquement sur l’ordinateur où le compte de l’utilisateur local a
été créé. Ce compte est créé seulement dans la base de données de sécurité spécifique à
l’ordinateur et les informations sur ce compte ne seront pas reproduites sur un autre
ordinateur du réseau.
Il y a deux types de disque disponibles dans Windows 2000 et XP, les disques de base et les
disques dynamiques. Un système avec un disque devra être soit de base, soit dynamique car
les deux types ne peuvent cohabiter sur le même disque physique. Cependant, si le système a
plus d'un disque, l’un peut être de base et l'autre dynamique.
Volumes répartis
Le système RAID sera traité dans le chapitre 9 «Notions avancées sur le matériel et les
serveurs». Un disque de base peut contenir jusqu'à quatre partitions primaires ou trois
partitions primaires et une partition étendue, pour un maximum de quatre partitions.
Note: Une partition est une portion du disque qui fonctionne comme une unité physiquement
séparée. Cela permet la séparation de différents types d'information, telles que les données de
l'utilisateur sur une partition et les applications sur une autre.
Le système d’exploitation traitera ces partitions sur un seul disque dur comme autant d’unités
séparées. Un disque de base peut contenir des partitions primaires, des partitions étendues et
des unités logiques. Si on ajoute un deuxième disque au système, l'ordinateur le reconnaîtra
d'abord comme un disque de base. Le disque de base est le disque par défaut dans Windows
2000 et XP. Tous les nouveaux disques ajoutés seront considérés comme des disques
basiques jusqu'à ce qu'ils soient convertis en disques dynamiques. Le stockage sur disques
de base est la norme standard de l’industrie. Toutes les versions de Microsoft Windows, MS-
DOS, Windows 2000, Windows NT et Windows XP supporte le stockage sur disque de base.
L’une des raisons d’avoir un outil de gestion des disques est d’être capables d’exploiter des
volumes multidisques. Les volumes multidisques utilisent le stockage de disques dynamiques
parce que les disques durs ne sont pas traités comme un disque entier divisé en partitions,
mais comme un volume multidisque. Ces volumes multidisques sont constitués de plusieurs
disques. Les lecteurs s’étendent sur plusieurs disques pour combiner l’espace inutilisé plus
efficacement. Les volumes multidisques améliorent les performances car ils utilisent plusieurs
têtes de lecture pour lire et écrire les données. La différence principale entre disque de base et
disque dynamique est que le volume dynamique peut être restructuré pendant que le système
d’exploitation fonctionne. Cela rend le système des disques dynamiques plus commode pour
créer des partitions. L’utilisation de volumes multidisques permet d’employer la technologie
RAID 5 qui supporte la tolérance de pannes. Les disques dynamiques peuvent être employés
par toutes les structures multidisque de Windows 2000. Windows 2000 professionnel ne
supporte pas la tolérance de pannes RAID 5 ou les volumes en miroir, seul Windows 2000
Server supporte ce type de volumes.
7. Appuyez sur OK pour redémarrer et terminer la mise à niveau vers un disque dynamique.
8. Dès que le système a redémarré, allez dans la Gestion de l'ordinateur pour vous assurer
que le disque a été mis à jour.
Note: Une fois la mise à niveau effectuée, on ne peut plus retransformer un disque
dynamique en disque de base.
Les trois types de volume que l'on peut créer dans Windows 2000 Professionnel sont les
volumes Simples, Agrégés et Répartis, comme décrits dans la liste ci-dessous:
Volume simple – Ce volume agit comme un disque de base qui contient de l’espace
de disque à partir d’un seul disque complet et qui n’a pas de tolérance de pannes.
Les volumes qui ne peuvent être créés qu’avec Windows 2000 Serveur sont les volumes en
miroir et RAID 5 décrits ci-dessous :
Volume en miroir – Ce volume contient deux copies identiques des même données
sur deux disques durs séparés. Les volumes en miroir apportent une tolérance de
panne si un disque dur tombe en panne. Dans ce cas un nouveau disque est mis en
place et toutes les données sont sauvegardées sur le nouveau disque.
La section Services de la fonction Outils d’Administration est utile pour réparer des pannes sur
l’ordinateur. L’onglet Services énumère tous les services en cours sur un ordinateur et permet
à l’administrateur de démarrer ou arrêter n’importe quel service en cours. Par exemple, si des
fichiers sont copiés d’un ordinateur vers un autre ou une unité de disque dur et un programme
anti-virus est installé sur un système, la fonction services peut alors être utilisée pour arrêter le
programme anti-virus. Cela permet de copier les fichiers plus rapidement car ils ne devront
pas être scannés par le programme anti-virus.
Microsoft Windows 2000 centralise les paramètres concernant le matériel et les logiciels dans
une base de données hiérarchique appelée le Registre. Le Registre pour les systèmes
d’exploitation Windows 2000 et XP remplace les fichiers. INI, .SYS et .COM qui sont utilisés
dans les versions précédentes de Windows. Le Registre fonctionne comme la colonne
vertébrale du système d’exploitation et fournit les informations d’initialisation appropriées pour
démarrer les applications et charger les composants, tels que les pilotes de périphériques et
les protocoles de réseau qui sont expliqués dans la section qui traite de la procédure
d’amorçage.
L’Editeur de Registre peut être utilisé pour accéder au registre de Windows 2000.
Utilité du Registre
L’utilité du Registre est d’avoir une base de données des paramètres de configuration dans
Windows 95/98/NT/2000. Le principal composant du Registre est le matériel installé sur
l’ordinateur.. Cela comprend le CPU, le type de bus, le périphérique de pointage ou la souris et
le clavier. Il comprend également les pilotes de périphériques, les applications installées et les
paramètres de la carte réseau. Le Registre contient une grande quantité de données et est
très important pour la manière dont le système fonctionne. La structure du Registre est conçue
pour fournir une série sécurisée d’enregistrements sur les composants qui contrôlent le
système d’exploitation. Ces composants lisent, mettent à jour et modifient les données
stockées dans le Registre. Les six principaux composants qui permettent d’accéder au
registre et de stocker les données sont les suivants :
Les profils d’utilisateur – Windows NT, 2000 et XP créent des profils d’utilisateurs
qui gardent les paramètres spécifiques à tous les utilisateurs qui se connectent à
l’ordinateur. Ces paramètres sont d’abord chargés dans le Registre puis le profil de
l’utilisateur est mis à jour. Le nom du fichier qui contient les informations sur le profil
de l’utilisateur est NTUSER.DAT.
Se familiariser avec ces ramifications et leurs fonctions sera utile pour le dépannage de
l’ordinateur. On peut y trouver une clé pour chaque procédure en cours sur un système. Les
cinq sous-arbres suivants sont affichés dans la fenêtre de l’Editeur du Registre:
HKEY_USERS – contient les paramètres par défaut du système utilisés pour contrôler
les profils et l’environnement de l’utilisateur individuel, tels que les paramètres du
bureau, l’environnement Windows et la configuration des logiciels d’application.
HKEY_CURRENT_CONFIG – contient des données sur le profil matériel actif qui est
sélectionné pendant la procédure d’amorçage. Ces informations sont utilisées pour
configurer les paramètres tels que les pilotes de périphériques à charger et la
résolution d’affichage à utiliser.
Les menus de démarrage des systèmes d’exploitation Windows NT/2000/XP sont des
caractéristiques de sécurité uniques qu’on ne trouve pas dans l’environnement Windows 9x.
Avec les systèmes d’exploitations Windows NT/2000/XP, il faut passer par plusieurs étapes
pour que le menu de démarrage apparaisse.
Le mode sans échec est une caractéristique avancée pour le dépannage. Si l’ordinateur ne
démarre pas normalement, utilisez cette option de démarrage. Entrez dans le Mode sans
Echec en appuyant sur la touche F8 pendant la phase de sélection du système d’exploitation.
Cela affichera un écran avec des options avancées pour l’amorçage de Windows 2000. Si le
Mode sans Echec est sélectionné, Windows 2000 charge et utilise uniquement les fichiers et
les pilotes de base, comme la souris, le moniteur VGA, le clavier, les mémoires de masse, les
services du système par défaut et aucune connexion au réseau ce qui est similaire au Mode
sans Echec de Windows 9x. Avec Windows 2000, il est facile de reconnaître qu’on travaille en
Mode sans Echec car le fond d’écran sera noir et les mots «Mode sans Echec» apparaîtront
aux quatre coins de l’écran.
Sélectionnez la touche F8 pour afficher les options du Mode sans Echec. Une de ces options
est le Mode sans Echec avec la gestion de réseau, qui est identique au Mode sans Echec
avec en plus les pilotes et les services nécessaires au fonctionnement du réseau quand on
redémarre l’ordinateur. Une autre option du Mode sans Echec est le Mode sans échec en ligne
de Commande, qui est le même que le Mode sans Echec mais avec l’ouverture d’une ligne de
commande quand on redémarre l’ordinateur.
L’administrateur système peut rencontrer des ordinateurs dont les systèmes d’exploitations se
sont altérés, ne peuvent pas fonctionner correctement ou ne peuvent même pas démarrer.
Quelquefois, le problème vient d’un fichier très important ou d’un programme qui a été effacé
ou changé, le système d’exploitation ne le reconnaît plus et par conséquent il ne fonctionne
plus. Dans Windows 2000 une disquette de restauration d’urgence (ERD) peut être créée ou
on peut utiliser la Console de Récupération. Ces options dépannent ces problèmes en
réparant les fichiers endommagés ou en copiant de nouveaux fichiers afin que le disque dur
ne soit pas reformatée et qu’aucune donnée de valeur ne soient perdues.
1. Allez sur Démarrer > Programmes > Accessoires > Outils Système > Sauvegarde pour
exécuter le programme de sauvegarde.
2. Sur l’onglet d’accueil, cliquez sur le bouton ERD. Une fenêtre apparaît.
3. Quand on vous demande de choisir entre l’option Rapide ou Manuelle, appuyez sur F pour
l’option Rapide.
6. Dès que les fichiers ont été réparés, redémarrez le système d’exploitation.
La Console de Récupération
La Console de Récupération Windows 2000 est un interface de ligne de commande qui peut
être utilisé pour effectuer un grand nombre de tâches de dépannage et de récupération, listées
ci-dessous:
Les différences entre Windows 9x et Windows 2000 existent essentiellement parce que ces
systèmes d’exploitations ont des fonctions différentes. Ils sont destinés à être utilisés dans des
environnements différents et il n’est pas surprenant d’apprendre que leur procédures
d’installation diffèrent également. Ces différences sont dues aux fonctions de sécurité
supplémentaires et au système de fichier du système d’exploitation de Windows 2000.
Spécifications matérielles
La différence majeure entre les processus d’installation de Windows 2000 et de Windows 9x
est la spécification matérielle requise pour les deux systèmes d’exploitation. Windows 2000 est
beaucoup plus solide et possède plus de possibilités que Windows 9x. Il lui faut donc un
ordinateur beaucoup plus puissant et un matériel capable de faire fonctionner le système
d’exploitation suffisamment rapidement et sans qu’il plante.
Note: Il est fait référence à l’administrateur système plus souvent qu’au technicien car il est
plus probable que Windows 2000 fonctionne en réseau et, de ce fait, l’administrateur système
est celui qui rencontrera le plus de problèmes.
au moins 16 Mo de RAM
un modem
un minimum de 120 à 355 Mo d’espace libre sur le disque dur pour réussir l’installation
de Windows 98.
Windows 2000 permet de préparer facilement le disque dur pour l’installation du SE.
L’administrateur peut prendre une unité de disque dur qui n’est ni formatée, ni partitionnée, et
commencer l’installation de Windows 2000. Au cours de la procédure d’installation,
l’administrateur devra choisir la partition sur laquelle il convient d’installer le système
d’exploitation et s’il n’y a aucune partition, le programme d’installation peut en créer.
Un message apparaîtra alors pour formater la partition si elle vient d’être créée ou la
reformater si elle existe déjà.
Le principal avantage de Windows 2000, quand on le compare à Windows 9x, est la Couche
d’Abstraction Matérielle ou HAL (Hardware Abstraction Layer). La HAL est une bibliothèque de
pilotes de matériel qui se place entre le système d’exploitation et le système. La HAL permet à
Windows 2000 de fonctionner avec différents types de processeurs de constructeurs
différents. Cette caractéristique libère Windows 2000 de l’interaction avec le matériel comme
dans Windows 9x. Au lieu de cela, c’est la HAL qui contrôle tous les accès directs aux
matériels, ce qui donne au système d’exploitation une compatibilité de matériel plus grande. La
HAL est ce qui fait de Windows 2000 un système d’exploitation en réseau (NOS),
contrairement à Windows 9x.
Avant d’installer Windows 2000, il faut prendre en compte quelques éléments. D’abord, il faut
s’assurer que le matériel puisse exécuter Windows 2000. Microsoft recommande les
spécifications suivantes pour installer le système d’exploitation.
Le disque ou la partition sur laquelle le système est installé doit faire au moins 2 Go.
Comme Windows 2000 est un SE réseau, pour connecter l’ordinateur à un réseau une
carte réseau sera nécessaire.
Microsoft possède un outil qui s’appelle la HCL (Hardware Compatibility List = Liste du Matériel
Compatible) qui peut être utilisé avant l’installation de Windows 2000 pour vérifier que le
matériel fonctionne bien avec Windows 2000. Microsoft ne fournit des pilotes que pour les
périphériques qui sont dans cette liste. L’utilisation d’un matériel qui ne fait pas partie de la
HCL peut poser des problèmes pendant et après l’installation. On peut voir cette HCL en
ouvrant le fichier HCL.TXT dans le dossier \Support du CD-ROM de Windows 2000
Professionnel.
Le programme d’installation
La première étape de la procédure d’installation commence par la préparation du disque dur
pour les autres étapes de l’installation en copiant les fichiers nécessaires à l’exécution de
l’assistant d’installation, qui est la seconde étape. A ce moment-là, on voit un message du
programme d’installation. On peut commencer l’installation de Windows 2000 soit en utilisant
les disquettes d’amorçage du programme d’installation, soit en démarrant à partir du CD-ROM.
Après avoir décidé sur quelle partition le système d’exploitation sera installé, sélectionnez le
type de système de fichier, soit FAT, soit NTFS. Le programme d’installation formatera alors la
partition avec le système de fichier sélectionné. Dès que la partition est formatée, le
programme d’installation commencera à copier les fichiers nécessaires sur le disque dur et
sauvegardera les informations de configuration. Le programme d’installation redémarrera alors
automatiquement l’ordinateur et démarrera l’assistant d’installation de Windows 2000. Par
défaut, les fichiers du système d’exploitation de Windows 2000 sont installés dans le dossier
C:\Winnt.
L’assistant d’installation
L’assistant d’installation commence la seconde partie de la procédure d’installation. Il
rassemble des informations sur l’administrateur, l’entreprise et l’ordinateur. Lors de cette
étape, les caractéristiques de sécurité et les périphériques du système sont configurés.
L’assistant guide alors l’administrateur et lui demande les informations suivantes:
Les paramètres régionaux – Windows 2000 a été conçu pour être un système
d’exploitation mondial. Il faut entrer les informations pour personnaliser les paramètres
de langue, du pays et du clavier. Windows 2000 peut être configuré pour utiliser de
nombreuses langues et paramètres régionaux.
La Clé de Produit – Microsoft livre toutes les copies de Windows 2000 avec une clé
de produit spécifique de 25 caractères qui se trouve généralement à l’arrière de la
boîte du CD.
Windows 2000 Professionnel installe les composants du réseau dans cet ordre :
2. Installation des Composants Réseau – Les composants réseau sont les fichiers qui
permettent à l’ordinateur de se connecter à d’autres ordinateurs du réseau et à Internet. Le
programme d’installation guide ensuite l’administrateur pour qu’il configure et personnalise
les paramètres réseau. Si «Installation typique» est choisie, le système installera alors les
paramètres par défaut. En choisissant les paramètres personnalisés, l’administrateur peut
entrer les informations spécifiques au réseau de l’entreprise. Par exemple, Client pour les
réseaux Microsoft permet à l’ordinateur d’avoir accès aux ressources du réseau. L'option
"Fichiers et imprimantes partagés" permet à d’autres ordinateurs d’avoir accès aux
ressources de fichier et d’impression de l’ordinateur. Le protocole TCP/IP est le protocole
réseau par défaut qui permet à un ordinateur de communiquer sur des LAN et des WAN
(réseaux étendus). A ce niveau, d’autres clients, services et protocoles de réseau peuvent
être installés si le réseau les exige. Parmi les clients, les services et les protocoles de
réseau, on trouve NetBEUI (NetBIOS Enhanced User Interface), Apple Talk et NVVLink
(transport compatible IPX/SPX/NetBIOS).
1. Installation des éléments du menu Démarrer – Les raccourcis qui doivent apparaître
dans le menu Démarrer sont installés.
Les étapes d’installation dans la section précédente concernent l’installation par défaut ou
l’installation classique. Il existe d’autres options d’installation disponibles dans Windows 2000.
L’installation Portable entre les informations qui pourraient être nécessaires sur un ordinateur
portable. L’installation Compacte est une option d’installation également disponible. Cette
option devrait être utilisée quand on installe Windows 2000 sur un ordinateur avec un espace
limité sur le disque dur. La dernière option d’installation est l’installation Personnalisée. Il faut la
choisir si l’installation des périphériques doit être personnalisée. Choisissez ce type
d’installation si des cartes ou périphériques non plug-and-play sont utilisés.
6.5.1 Mise à jour à partir de Windows NT4 Workstation vers Windows 2000
La mise à jour d’un ordinateur à partir de Windows NT 4.0 est en réalité une procédure plus
rapide qu’une nouvelle installation de Windows 2000 et sera semblable à la procédure de mise
à jour d’ordinateurs fonctionnant avec Windows 9x. Microsoft a anticipé les circonstances qui
peuvent obliger les grandes entreprises à mettre à jour leurs ordinateurs. Quelques centaines,
voire quelques milliers d’ordinateurs peuvent être concernés. Pendant la mise à jour, les
ordinateurs qui attendent encore leur mise à jour et fonctionnent encore avec Windows NT 4.0
pourront être connectés et communiquer avec les ordinateurs fonctionnant avec Windows
2000. Pendant la procédure de mise à jour, l’utilitaire d’installation de Windows 2000
remplacera les fichiers existants par des fichiers Windows 2000. Cependant, les applications
et paramètres existants seront sauvegardés. Il faut vérifier la compatibilité du matériel pour
mettre à jour directement en Windows 2000. La liste des compatibilités du matériel
déterminera si l’ordinateur répond à ces exigences.
5. Sélectionnez Mise à jour vers Windows 2000, qui est l’option recommandée.
8. Cliquez sur Suivant. La page de mise à jour vers le système de fichiers NTFS apparaît.
10.Cliquez sur Suivant. La page de copie des fichiers d’installation apparaît, puis celle de
Redémarrage de l’ordinateur. L’ordinateur redémarre.
Après que l’ordinateur a redémarré, la procédure de mise à jour doit continuer sans qu’une
autre intervention de l’utilisateur soit nécessaire.
La procédure de mise à jour de Windows 9x vers Windows 2000 est semblable à la procédure
de mise à jour de Windows NT 4.0 vers Windows 2000. La liste de compatibilité du matériel
peut être utilisée pour s’assurer que les ordinateurs qui doivent être mis à jour pourront
fonctionner avec Windows 2000.
3. Si l’ordinateur est déjà membre d’un domaine, il faut créer un compte d’ordinateur dans ce
domaine. Les clients de Windows 95 et Windows 98 n’ont pas besoin d’un compte
d’ordinateur ; en revanche, les clients de Windows 2000 Professionnel en ont besoin d’un.
4. Les packs de mise à jour doivent être fournis pour toutes les applications qui pourraient les
exiger. Ces packs mettent à jour le logiciel afin qu’il fonctionne avec Windows 2000. Ils sont
disponibles auprès du fabricant du logiciel et on peut les trouver sur Internet. Pendant la
procédure de mise à jour, les utilisateurs peuvent visiter le site web de compatibilité de
Windows pour trouver les dernières mises à jour de produit et des informations sur la
compatibilité.
5. Sélectionnez la mise à jour vers NTFS sauf si l’ordinateur client doit démarrer avec un
multi-boot car FAT16 et FAT32 ne reconnaisse pas NTFS.
Windows 2000 peut être installé pour un double amorçage avec le système d’exploitations de
Windows 98. Cette option permet de choisir au démarrage entre un environnement Windows
2000 ou un environnement Windows 98. Si le système est multi-boot un menu permettra à
l’utilisateur de choisir son système durant le démarrage. Pour un double-boot effectuez
l’installation de Windows 98 avant Windows 2000.
Si le système est installé avec un double-boot, on ne peut utiliser aucune des applications qui
sont installées dans l’autre système d’exploitation. Si la même application doit être utilisée
dans les deux systèmes d’exploitations, il faudra l’installer deux fois, une fois pour chaque
système d’exploitation
Si les systèmes d’exploitations ont des systèmes de fichier incompatibles, on peut créer deux
partitions séparées et on peut installer les systèmes d’exploitations sur chaque partition.
Inversement, des unités logiques peuvent être créées et on peut installer les deux systèmes
d’exploitations sur les unités logiques séparées. Cependant, il faut comprendre que si l’unité
de disque dur est formatée avec NTFS, le système d’exploitation Windows 98 ne pourra pas
lire les fichiers dans la partition de Windows 2000 NTFS. Microsoft recommande que si
l’ordinateur est installé pour démarrer avec Windows 98 et Windows 2000, les deux partitions
soient formatées avec le système de fichier FAT car Windows 2000 peut fonctionner avec le
système de fichier FAT et les fichiers dans l’autre partition peuvent être lus.
Windows XP Home Edition est une version moins coûteuse, et s’adresse typiquement aux
utilisateurs et aux clients qui se servent du PC à la maison et dans de très petites entreprises.
Windows XP Home Edition est fait pour les utilisateurs sans expérience qui ont besoin de se
connecter aux réseaux d’entreprise et qui n’ont pas besoin des options supplémentaires de
sécurité que Windows XP Professional contient. Windows XP Home Edition peut tourner sur la
plupart des PC de bureau ou portables qui satisfont les requis minimum du système. Windows
XP Home Edition inclut beaucoup d’améliorations et de fonctions qui ne sont pas inclues dans
Windows 2000 Professional, ou toute autre version de Windows 9x. Certaines de ces
fonctions incluent une compatibilité améliorée du logiciel et du matériel, une sécurité simplifiée
telle que le partage de dossier plus simple que celui de Windows 2000, le nouvel écran de log-
on, la commutation rapide d'utilisateur, le support étendu du multimédia, et les bibliothèques
de multimédia pour le jeu DirectX 8.1.
Le système d'exploitation professionnel de XP inclut tout ce que la Home Edition fournit, plus
tous les composants de gestion de réseau et de sécurité qui sont exigés pour appartenir à un
domaine Windows NT, 2000, ou XP dans un réseau d’entreprise. XP Professional inclut
également le support du matériel à haute performance, tel qu'une carte mère biprocesseur.
Windows XP Professional contient plusieurs fonctions qui ne sont pas incluses dans Windows
XP Home Edition:
● Déploiement en entreprise - Windows XP Professional est conçu pour l'usage dans les
réseaux d’entreprise, et contient le support des langues multiples. XP professional fournit
également l’appui de Sysprep, qui est employé pour installer le système d'exploitation sur
des machines multiples dans un grand réseau ou un réseau d’entreprise.
Windows XP 64-Bit Edition est également conçu pour satisfaire les besoins d'affaires les plus
exigeants du monde Internet comprenant l'e-commerce, l'exploitation de données, le
traitement transactionnel en ligne, les graphiques finaux à besoins de mémoire intensifs, les
mathématiques complexes, et les applications multimédia à hautes performances. Notez que
les systèmes 32 bits continueront à être le meilleur environnement pour les clients qui
emploient seulement des applications 32 bits et ne fonctionnent pas avec des jeux de données
plus grands que 2 gigaoctets.
Un système établi autour d'un processeur 64-bit Itanium d'Intel doit être employé en même
temps qu'une version 64-bit Windows XP Professional. Cette édition 64-Bit tire profit
également d’une performance accrue en virgule flottante, qui est le nombre brut de calculs qui
peuvent être traités dans une période de temps donnée en utilisant la plate-forme Itanium
d'Intel. Un autre avantage de l'édition 64-bit est la gestion mémoire. L'édition 64-bit supporte
actuellement jusqu'à 16 Gigaoctets de RAM.
Un Terabyte de cache système et un fichier de pages de 512 Terabyte seront également
supportés du fait que le matériel et les possibilités de mémoire vont jusqu'à 16 Terabyte de
mémoire virtuelle.
XP Media Center Edition est une nouvelle édition de Microsoft qui est préinstallée seulement
sur les PC Media Center. Elle est conçue pour répondre aux besoins des utilisateurs qui
veulent un Media Center puissant à leur domicile. Le Media Center permet à des utilisateurs
de regarder la télévision, d'enregistrer des programmes de TV, d'écouter de la musique
numérique, de voir des présentations et des albums d’images, et de regarder des DVD, le tout
depuis un seul endroit.
Le Media Center XP est un système matériel et logiciel packagé construit sur la plate-forme
professionnelle de XP pour répondre aux besoins d'un utilisateur d’ordinateur personnel. Le
matériel qui peut composer l’ordinateur d’un Media Center XP comprend :
● Une carte graphique avancée
● Un tuner TV de pour capturer un signal de câble, d'antenne ou de satellite et pour l’afficher
sur le moniteur
● Un encodeur matériel pour enregistrer le signal TV capturé sur disque dur
● Une sortie audio numérique qui permet à l’audio numérique du PC de s’intégrer dans le
système existant de divertissement du domicile.
Une commande à distance de Media Center qui communique avec l’ordinateur à travers un capteur
infrarouge est aussi incluse.
La famille des systèmes d'exploitation Windows a toujours été facile à utiliser quant à
l’installation. XP n'est pas différent. Juste comme Windows 2000 et Windows 9x, XP fournit
l’installateur qui vous guide vous point par point à travers le processus d'installation. Windows
XP est réellement plus intuitif quand on en vient au processus d'installation. L’assistant de
transfert de réglages et de fichiers permet à l'utilisateur de faire migrer les réglages et les
fichiers à partir d'un ancien ordinateur vers un nouvel ordinateur. L'utilisateur peut sauver des
réglages depuis n'importe quelle version 32 bits de Windows, y compris Windows 95.
Plusieurs options permettent de restaurer les fichiers sauvés et les réglages sur Windows XP
Home Edition ou Professional Edition :
● Un lien direct avec un câble série peut être établi entre deux ordinateurs.
● Les fichiers peuvent être compressés et sauvegardés sur des médias amovibles, tels
qu'une disquette, un disque Zip, ou un CD.
● Un disque amovible ou une unité réseau peuvent être employés pour transférer les
données.
Une autre fonction importante pour Windows XP est l'outil de migration d'état d'utilisateur
(USMT). Il est semblable à l’assistant de transfert de fichiers et de configuration. L'USMT est
employé par les administrateurs qui effectuent de grands déploiements de Windows XP
Professional dans un environnement d’entreprise. USMT fournit la même fonctionnalité que
l’assistant sur une grande échelle afin de faire migrer de nombreux utilisateurs.
Note :Ce module se rapporte à l’administrateur systèmes plus souvent qu'au technicien parce
que Windows XP Professional, comme Windows 2000, est plus conçu pour fonctionner dans
un environnement réseau. Par conséquent, l’administrateur systèmes est la personne qui
s'occupera de la plupart des problèmes qui se produisent.
Avant l'installation de Windows XP, assurez-vous que le matériel du système est capable
d’exécuter la version spécifique de XP. Microsoft a recommandé plusieurs requis avant
d'installer le système d'exploitation Windows XP :
Un CD-ROM ou un DVD-ROM
Un adaptateur vidéo et un moniteur avec une résolution Super VGA de 800 x 600 ou
plus
Puisque Windows évolue vers l'environnement .NET, Windows XP a été amélioré avec des
possibilités de carte à puce. Il inclut le support de connexion par carte à puce à une session de
serveur de terminal hébergée sur un serveur Windows .NET. Les cartes à puce améliorent les
solutions par logiciel seulement pour l'authentification de clients, la connexion interactive, et
l'e-mail sécurisé.
Assurez-vous que l'ordinateur est prêt pour Windows XP en vérifiant les requis
système.
Vérifiez le site Web de Microsoft pour vous assurer que la version de Windows est
habilitée pour une mise à niveau.
Cette section passe en revue les étapes dans une installation de Windows XP et les options
d'installation disponible.
Note : certains matériels système exigeront l'utilisation d'un disque de récupération fournis par
le fabricant et d'une procédure pour installer le système d'exploitation. Référez-vous à la
documentation fournie par le fabricant pour les instructions spécifiques.
Avant d'installer Windowsw XP il faut choisir entre les 3 types d'installations possibles :
4. Fenêtre de bienvenue
Fenêtre de bienvenue
Lors de la dernière partie de l'installation, l'utilisateur pourra créer les comptes d'utilisateurs et
devra activer Windows avant de l'utiliser.
L'étape suivante dans le processus d'installation est la création et le formatage de partition sur
le disque dur. Cette étape n'est pas obligatoire. Continuez l'installation si une partition est déjà
disponible. En cas de création, un partition plus petite accélèrera l'installation. Dans le TP
d'installation de XP une partition de 4 Go est recommandée.
Windows XP Home Edition ou Professionnel peut être installé en mise à jour de Windows 98,
Windows 98 SE, ou Windows Me. Windows NT Workstation 4.0 service pack 6, et Windows
XP Professionnel peut être une mise à jour de Windows 2000 Professionnel. Windows 3.1 et
Windows 95 ne peuvent pas être mis à jour. Ces systèmes doivent être retirés avant tout
chose et une nouvelle installation doit ensuite être faite.
La démarche de mise à jour à partir de NT 4.0 est objectivement plus rapide que réaliser une
nouvelle installation de XP. Comme pour une mise à jour vers Windows 2000, les ordinateurs
sous NT 4.0 ou 2000 sont en mesure de se connecter et de communiquer avec les ordinateurs
Windows XP. L'installation de Windows XP remplacera les fichiers existants par ceux de
Windows XP pendant le processus de mise à jour. Cependant les applications et les fichiers
existants sont conservés. L'administrateur devra vérifier que les ordinateurs sont dans la liste
de compatibilité matérielle avant de faire directement la mise à jour vers XP. La liste de
compatibilité matérielle sert à vérifier si un ordinateur a les caractéristiques nécessaires pour
fonctionner sous XP.
4. Sélectionnez Mise à jours vers Windows XP, qui est l'option recommandée, et cliquez sur
suivant.
9. Cliquez sur Oui, Mettre à jour mon lecteur, et cliquez sur suivant.
3. Si le PC est déjà membre d'un domaine, Créez un compte d'ordinateur dans ce domaine.
Les Clients Windows 98 n'ont pas besoins de comptes d'ordinateurs dans le domaine
contrairement à Windows XP.
4. Fournir des packs de mise à jour pour toute application susceptible d'en avoir besoin pour
fonctionner avec XP. Les packs de mise à jour sont disponibles auprès des éditeurs de
logiciels et on peut les trouver sur Internet. Les Utilisateurs peuvent aussi visiter le site de
compatibilité Windows pour trouver les dernières mises à jour des produits et des
informations sur la compatibilité lors du processus de migration.
5. Une invite de migration vers NTFS va apparaître. Sélectionnez cette option sauf si le PC
doit démarrer en dual boot (avec un système utilisant la FAT comme Windows 98). Les
systèmes de FAT16 ou FAT32 ne reconnaissent pas NTFS.
Si le PC est compatible avec XP, il est maintenant mis à jour et membre du domaine.
Le système doit être redémarré pour terminer le processus d'installation. Après redémarrage,
l'installation se poursuivra comme une installation classique (voir chapitres précédents).
7.4.3 Dual boot entre Windows 9x, Windows NT, Windows 2000 et Windows XP
Windows XP peut être installé en dual boot avec un autre système tel que Windows 98 ou
Windows 2000. Lorsque le système est configuré en dual boot, un menu offre le choix entre
les différents systèmes pour démarrer. Pour avoir un dual boot il faut faire une nouvelle
installation de Windows 98 avant d'installer XP.
Nota : pour un système en dual boot, les applications installées sur l'autre partition ne pourront
pas fonctionner. Si une même application doit être utilisée par les 2 systèmes on doit en
installer un exemplaire par partition.
Nota: Cette option ne sera disponible que si le profil de l'utilisateur se trouve sur un système
de fichier NTFS.
Le NT File System (NTFS) permet de rendre privés les fichiers et les dossiers, de telle sorte
que seul l'utilisateur propriétaire peut y accéder. XP permet de rendre tous les dossiers, ou
seulement certains privés. Par exemple, un utilisateur souhaite donner l'accès à son dossier
mes documents à un collègue mais pas à tous le fichiers. L'utilisateur peut créer un sous
répertoire dans mes documents et le rendre privé. Tout fichier auquel le collègue ne devra
pas avoir accès sera placé dans ce sous répertoire privé. Avec Windows 2000, cette option
devait être appliquée par l'intermédiaire de droits et permissions NTFS sur les fichiers et
dossiers.
La sécurité des ressources et des fichiers est une autre caractéristique de Windows XP.
Windows XP utilise un système appelé Partage de fichier simple. Le système offre une
interface simple qui facilite les configurations courantes. Le Partage de fichier simple diffère
de plusieurs manières du partage classique dans Windows NT et 2000.
En Windows XP les permissions sont définies pour les utilisateurs locaux ou réseaux
seulement au niveau des répertoires (dossiers). Les permissions ne peuvent pas être
appliquées individuellement aux fichiers. Les utilisateurs réseaux seront identifiés comme
utilisant le compte Invité de la machine. Le compte invité permet seulement les droit et
privilèges qui s'appliquent à la machine partagée ou accédée par le réseau. Windows XP
possède une option qui permet de passer en interface classique Windows 2000.
Dans la version XP home, seul le partage simple est disponible. Dans la version
professionnelle l'interface classique l'est aussi. Vous pouvez basculer entre ces 2 modes en
Pour partager un dossier au travers du réseau, l'utilisateur fait in clic droit sur le dossier et
choisi l'option Propriétés pour afficher la boite de dialogue. Si les options partages et sécurité
sont absentes vérifiez si dans la configuration du réseau l'option Permettre le Partage de
fichiers et d'imprimantes est activée.
Si un utilisateur ne peut pas visualiser un dossier partagé à partir d'un autre PC du réseau,
Vérifiez si le Frewall interdit l'accès aux autres ordinateurs. Vérifiez la connexion réseau pour
vous assurer que le Pare Feu de connexion à Internet n'est activé que pour Internet. Cliquez
sur l'onglet Avancé sous les propriétés de la boite de dialogue connexion réseaux et
assurez-vous que le Pare Feu de connexion internet est correctement configurer. Le
paramétrage du Firewall est nécessaire mais ils peuvent causer des problèmes s'ils sont mal
configurés.
Afin de rendre un dossier privé, l'utilisateur doit faire in clic droit sur le dossier et aller dans
propriétés to accéder aux options partage et sécurité. Ces 2 options peuvent ne pas être
disponibles pour les raisons suivantes :
Le lecteur doit être formaté en NTFS. Dans le cas contraire l'option partage ne sera
pas disponible.
L'utilisateur doit créer ou posséder un dossier dans son profil pour le rendre privé. Les
utilisateurs ne peuvent pas rendre privés les profils des autres utilisateurs.
Si le dossier parent ou le profil de l'utilisateur sont privés tous leurs sous répertoires seront
automatiquement privés.
La fonction d'amélioration d'Internet est une nouveauté de Windows XP. Internet Explorer 6 (IE
6) qui est intégrée est la version la plus récente du navigateur. IE6 intègre des outils de lecture
de média en ligne dans le volet occupant la partie gauche du navigateur. XP fourni une
commande de protection de confidentialité. Cette commande permet à l'utilisateur de créer
une stratégie personnalisée qui autorise ou rejette les cookies selon différents niveaux.
Un cookie est un petit fichier texte stocké sur le disque du PC, qui permet à un site web de
connaître les relations d'un utilisateur avec un site donné. Dans IE les cookies peuvent être
gérés dans Outils > Options Internet > Onglet Confidentialité. Sélectionnez alors le niveau
désiré de confidentialité avec la barre de défilement à gauche. Certains sites web peuvent mal
fonctionner si l'option "Bloquer tous les cookies" est sélectionnée. Dans ce cas abaissez le
niveau de blocage des cookies.
XP est également livré avec parefeu construit pour les attaques les plus régulières. Cette
option est très pratique pour les utilisateurs d'Internet à haut débit et pour ceux qui sont
connectés 24H/24
Pour installer le bureau d'accès à distance, les 2 machines doivent soit être sur le même
réseau local ou être connectée par modem ou une connexion Internet rapide (câble ou DSL).
Le PC sous contrôle est l'ordinateur distant. Le PC qui accède à l'autre est l'ordinateur client.
L'ordinateur distant doit fonctionner sous XP Pro et avoir une adresse IP connue. L'ordinateur
client doit fonctionner sous XP, 2000, ME, 98, 95, ou NT. Si la machine client n'est pas sous
Windows XP, il faut d'abord installer le logiciel client à partir du CD de XP professionnel. De
même, pour permettre l'option de bureau d'accès à distance la machine client, devra être
connectée à un réseau local, un modem ou un accès Internet.
Lorsqu'on utilise le bureau d'accès à distance, on peut avoir des problèmes avec le nombre de
couleurs affichées et une mauvaise restitution des sons. Le nombre de couleurs est réglé à
son niveau le plus bas sur chaque machine. La résolution est déterminée par l'ordinateur
client. Si les couleurs ne s'affichent pas correctement, contrôlez la stratégie de groupe de
l'ordinateur distant. Si cette valeur est plus basse que sur la machine cliente, cette stratégie de
groupe est prioritaire. Pour accroître le nombre de couleurs de l'ordinateur distant, ouvrez la
stratégie de groupe de l'ordinateur distant (exécuter gpedit.msc) faites Configuration
d'ordinateur > Modèles d'administration > Composants Windows > Service Terminal
Serveur et double cliquez sur limiter le nombre maximal de couleur. Ensuite sélectionnez
activé et spécifiez le maximum de couleur autorisé pour les connexions distantes.
L'utilisation du protocole UDP pour les transmissions de données audio peut provoquer des
problèmes pour 2 raisons. Si aucun son n'est produit, vérifiez le journal du Firewall. Si le trafic
audio est bloqué construisez une règle pour le faire passer. Comme le son est relativement
peut important, il utilise le protocole UDP non fiable. Lorsque des paquets sont perdus le son
produit sera incomplet ou bien aucun son ne sera produit.
La boite de dialogue, Propriétés du système est une nouvelle fonction de Windows XP. De
nouveaux onglets y ont été ajoutés : Mises à jour automatiques, Utilisation à distance, et
restauration du système. Ces nouvelles fonctions améliorent la fiabilité et les méthodes de
dépannage.
Afin d'accéder à la boite de dialogue Propriétés du système, faites un clic droit sur poste de
travail et sélectionnez propriétés.
2. "Télécharger automatiquement les mises à jour et me prévenir avant de les installer sur
mon ordinateur" Cette option avertira l'utilisateur lorsqu'une mise à joue est téléchargée et
prête à installer. Ce choix est adapté à une connexion haut débit permanente sur Internet.
l'assistance à distance
C'est un outil pratique de dépannage qui permet aux administrateurs de ce connecter sur une
machine cliente de n'importe quel endroit au travers d'une connexion Internet. L'assistance à
distance peut créer une connexion sécurisée et fiable pour s'assurer que l'ordinateur ne sera
jamais endommagé. L'interface cache la complexité du processus pour permettre une
navigation facile.
Pour établir l'assistant à distance, les 2 parties, le novice et l'expert doivent établir une
session. Les 2 postes doivent être en XP et avoir une connexion Internet active ou être sur le
même réseau local. La connexion sera impossible si des Firewalls autre que XP fonctionnent.
Si le Firewall de XP est le seul en activité, XP ouvrira automatiquement le port requis lorsque
l'utilisateur demandera une connexion d'assistance à distance.
2. L'expert doit accepter l'invitation qui ouvre un terminal Windows qui affiche le bureau de la
machine du novice.
3. Le terminal Windows est en "lecture seule" pour l'expert. Si le novice choisit d'activé l'option
Autorisé l'expert à interagir l'expert peut manipuler sur la machine du novice.
Restauration du système
La restauration du système est un service XP qui tourne en tâche de fond et qui permet de
restaurer l'OS tel qu'il était à un moment prédéfini. L'onglet Restauration du système se trouve
dans les propriétés système. Cette fonction conserve un journal sur les changements continus
dans les dossiers, fichiers et configurations liés à l'OS. Ces journaux sont stockés dans %
Les fichiers systèmes sont copies dans des archives caches pour la sécurité à intervalles
réguliers. La restauration système prend aussi des "photos instantanées" de l'état du
systèmes, incluant les comptes d'utilisateurs, la configuration matérielle et logicielle, et les
fichiers de démarrage à intervalles réguliers. XP crée un point de restauration initial à chaque
fois qu'une installation ou mise à jour est faite. De même, des points de restauration sont
créés indépendamment de l'activité de l'utilisateur toutes les 24 heures si le PC reste allumé.
Si le PC est éteint alors que plus de 24 heures se sont écoulées depuis la restauration
précédente; le service créera un point de restauration lorsque le PC sera mis en route. XP
permet aussi à l'utilisateur de créer manuellement des points de restauration à tout moment.
La restauration système de prend pas en compte certains fichiers et dossiers, comme les
fichiers caches, tous les fichiers contenus dans des dossiers personnels comme "Mes
Documents", les favoris, les fichiers des corbeilles, les historiques ou les fichiers temporaires
d'Internet, les fichiers d'images et de graphiques, les fichiers d'e-mail d'Outlook et Outlook
Express, et les fichiers qui utilisent des extensions couramment associées à des fichiers de
données comme .doc, .xls, .mbd, or .pdf.
Un pilote peut ne pas fonctionner pour 2 raisons. La première, un nouveau programme peut
être incompatible avec le pilote installé. La seconde, un nouveau pilote rend le système
instable. Lorsque le système stoppe soudainement, une date de restauration antérieure au
problème peut être sélectionnée, et le système fonctionnera à nouveau normalement.
La restauration système ne peut rien contre les virus, vers, ou chevaux de Troie. Après
détection un utilisateur aura du mal à déterminer depuis combien de temps un virus a occupé
le système et quels fichiers il a infecté. La restauration système peut en fait restaurer le virus
alors que l'objectif était de le supprimer. Assurez-vous d'avoir un anti-virus à jour.
Dans les versions précédentes, la barre des tâches était encombrée si de nombreuses
fenêtres étaient ouvertes. XP regroupe les applications identiques en groupes sur la barre des
tâches par exemple plusieurs fichiers Word ou feuilles de calculs etc. Si on clique sur le
groupe sur la barre des tâches on ouvre un menu qui affiche les fichiers en cours d'utilisation
par l'application.
Windows XP a de nouveaux styles visuels et thèmes de bureau qui peuvent êtres facilement
associés à des tâches spécifiques :
Couleurs plus brillantes – Windows XP peut afficher les jeux de couleurs varies en
24 et 32 Bit du fait de l'évolution technologique des cartes vidéo. XP utilise la fonction
d'amélioration des couleurs pour des jeux de couleurs plus brillants et plus vifs que
dans les versions précédentes.
Icônes plus détaillées – Microsoft has complètement relooker toutes les icônes pour
les rendre plus visibles et distinctes. Les propriétés de ces icônes peuvent êtres
modifiées pour les rendre 2 fois plus grandes comme dans les versions précédentes.
Windows XP intègre une option pour voir les grandes icônes en "vue titre", qui ajoute
quelques lignes d'informations détaillées sur l'icône.
Thèmes intégrés – L'apparence, les polices, les tailles et les sons peuvent êtres
enregistrés dans XP. Le support des Thèmes est complètement intégré dans l'utilitaire
d'affichage du panneau de configuration. On peut modifier la bordure des fenêtres, les
paramètres courant, et le menu. Les thèmes du bureau ont été introduits à l'origine
dans le complément "Pack Plus" de Windows 95.
Explorateur Windows
L'explorateur Windows est amélioré dans Windows XP. Windows XP comprend une nouvelle
approche organisée avec une nouvelle apparence. Lorsque la fenêtre d'un dossier est ouverte,
Le bouton du dossier permet de basculer le volet de gauche entre l'arborescence classique et
le nouveau panneau de tache. Ce panneau consiste en un ensemble de liens qui permettent
un accès rapide à des tâches courantes, des autres emplacements, des raccourcis et des
détails. Cette nouvelle vue "Mosaique" peut être facilement observée dans la fenêtre poste de
travail.
L'explorateur a une approche mieux organisée pour naviguer dans les dossiers et fichiers.
Exemple : Les dossiers, disques durs, stockages amovibles et réseaux sont tous groupés par
catégories.
L'utilisateur peut mieux organiser ses fichiers dans mes documents par l'utilisation de groupes
variés. L'utilisateur peut aussi visualiser ses documents par type ou groupe selon la date de
dernière modification.
Windows XP utilise la technologie Webview afin de mieux gérer les fichiers et leurs espaces
de nom. Exemple: Un fichier ou un dossier sélectionné aura une liste d'options disponibles qui
permettra de le renommer, déplacer, copier, envoyer (par mail), effacer ou de le publier sur le
web. Cette fonctionnalité est identique dans Windows 2000. Si on fait un clic droit sur un fichier
ou un dossier, XP affichera ces informations directement sur le bureau.
XP facilite la gestion de la barre des taches en regroupant les instances multiples de la même
application. Exemple : au lieu d'avoir 9 instances de Word arrangées horizontalement sur la
barre des taches, XP les regroupe sur un bouton de la barre. Dans ce scénario un seul bouton
apparaît qui montre le nombre de fichiers ouverts par l'application. En cliquant sur le bouton on
fait apparaître la liste de tout les noms de fichier verticalement. De plus les fichiers peuvent
être cascadés, en mosaïque ou réduit à ce moment.
XP peut afficher une photo ou toute autre image à coté de noms des comptes utilisateurs sur
la page d'accueil. Alors que l'administrateur peut créer les images pour tous les utilisateurs,
chaque utilisateur peut modifier sa propre image.
Le terme multimédia est généralement utilisé pour définir la combinaison d’un texte, d’un son
et d’une vidéo.
Texte et son
Vidéo et son
On distingue de deux façons le multimédia des films traditionnels. La première est l’échelle de
production. Le multimédia est généralement plus petit et moins coûteux. La seconde est
l’addition de la participation du public ou du multimédia interactif. Les éléments interactifs
peuvent comprendre :
Les présentations multimédia sont plus complexes que les simples présentations texte et
images, et sont généralement plus coûteuses. De nombreux contextes, dont le web, les CD-
ROM, etc. peuvent inclure des présentations multimédia. Les coûts de développement d’une
vidéo de présentation commerciale par exemple peuvent s’élever jusqu’ à 1000 € la minute de
vidéo. Un logiciel multimédia permet de développer des présentations à des coûts bien plus
raisonnables, avec en plus le choix de diffusion sur le web ou sur CD.
Un micro connecté à une prise sur la carte son est utilisé pour l’entée du son.
Les CD-ROM et les DVD sont des périphériques courants du PC pour le multimédia.
Ils peuvent servir à la fois à lire et à écrire les supports.
Une connexion à Internet via une carte interface réseau fournit aussi du multimédia au
PC. Le son et la vidéo en flux continu connaissent un grand succès.
Les appareils photo et les caméras numériques sont souvent connectés via des ports
standard ou des adaptateurs spécifiques.
Une carte d’acquisition vidéo, c’est-à-dire une carte spécialisée qui échantillonne et
convertit images et sons, peut fournir des enregistrements télé et radio et des images.
Les cartes MPEG et les lecteurs de films web (players) sont utilisés pour voir des
films.
Un adaptateur vidéo, également appelé adaptateur d’écran ou carte vidéo, est une carte du
PC. Certains PC ont cet adaptateur vidéo intégré sur la carte mère. Dans certains cas, c’est le
moniteur qui fournit une conversion numérique-analogique, une RAM vidéo, et un contrôleur
vidéo afin que les données puissent être envoyées vers l’écran d’un PC.
Aujourd’hui, presque tous les écrans et les adaptateurs vidéo adhèrent au VGA (Video
Graphics Array). Le standard VGA décrit comment les données passent entre le PC et l’écran.
Il prend en charge les taux de rafraîchissement en hertz, ainsi que le nombre et la largeur des
lignes horizontales, ce qui revient à spécifier la résolution de l’affichage en pixels. Le VGA
supporte quatre résolutions différentes, et les deux taux de rafraîchissement qui s’y rattachent.
En plus du VGA, la plupart des écrans adhèrent à au moins une des normes établies par la
Video Electronics Standards Association (VESA). Le VESA définit comment le logiciel
détermine la capacité d’affichage d’un écran. Il identifie également des résolutions situées au-
delà de celles du VGA. Ces résolutions comprennent les combinaisons :
La plupart des moniteurs d’ordinateur utilisent des signaux analogiques pour afficher les
images, et doivent rafraîchir en permanence ces images. C’est la raison pour laquelle
l’ordinateur a également besoin d’un adaptateur vidéo qui:
Les écrans vidéo des ordinateurs peuvent être définis selon les caractéristiques suivantes :
La couleur
La netteté et la visibilité
La taille de l'écran
La technologie de projection
La couleur
Aujourd'hui, la plupart des PC de bureau ont la couleur. Les vieux portables et les PC de
bureau les plus petits ont parfois un écran monochrome moins cher. L'écran vidéo fonctionne
dans l’un des modes d'affichage qui déterminent le nombre de bits utilisés pour décrire la
couleur et le nombre de couleurs que l'on peut afficher. Un écran qui fonctionne en mode
SVGA peut afficher jusqu'à 16 777 216 couleurs car il peut traiter une description de pixel sur
24 bits. Le nombre de bits utilisés pour décrire un pixel est appelé sa taille d’échantillonnage.
La taille d’échantillonnage de 24 bits correspond à ce qu’on appelle la couleur vraie. Elle
attribue huit bits à chacune des trois couleurs primaires additives qui sont le rouge, le vert et le
bleu. Bien que les êtres humains ne puissent pas vraiment distinguer autant de couleurs, un
système à 24 bits est nécessaire pour les graphistes étant donné qu'il attribue un octet à
chaque couleur. Le mode VGA est le plus petit dénominateur commun des modes d'affichage.
Selon le choix de résolution, il peut fournir jusqu'à 256 couleurs.
La netteté et la visibilité
La limite physique absolue de la netteté optimale d'une image d'écran est la densité par point
(dot pitch). La densité par point est la taille d'un faisceau individuel qui est émis pour allumer
La netteté réelle de n'importe quelle image est mesurée en point par pouce (dpi). Le nombre
de points par pouce est déterminé par une combinaison de la résolution d'écran (c'est-à-dire le
nombre de pixels qui sont projetés sur l'écran verticalement et horizontalement) avec la taille
physique de l'écran. Une même résolution s'étendant sur un écran plus grand réduit la netteté.
D'autre part, un réglage en haute résolution sur une surface plus petite produit une image plus
nette, mais le texte est moins lisible.
La visibilité, appelée aussi angle de visibilité, est la possibilité de voir une image à l'écran sous
différents angles. Les écrans à tube cathodique (CRT) fournissent généralement une bonne
visibilité sous des angles autres que l'angle droit. Les affichages sur écran plat, y compris ceux
qui utilisent les technologie LED et LCD sont souvent plus difficiles à voir sous des angles
différents de l'angle droit.
La taille de l'écran
Sur les ordinateurs de bureau, le rapport de la largeur de l'écran à sa hauteur, appelé format
d’image, est généralement normalisé à 4/3 (habituellement indiqué 4:3). Les tailles d'écran
sont mesurées soit en millimètres, soit en pouces, en diagonale d'un coin de l'écran au coin
opposé. Les tailles courantes des écrans d'ordinateurs de bureau sont 15, 17 ou 19 pouces.
Les tailles des écrans des portables sont un peu inférieures.
La technologie de projection
La plupart des écrans utilisent la technologie du tube cathodique (CRT) similaire à celle que
l'on trouve dans la plupart des téléviseurs. Cette technologie nécessite une certaine distance
entre la source du faisceau et l'écran pour fonctionner. Avec d'autres technologies, les écrans
peuvent être beaucoup plus minces et sont définis comme étant des écrans plats. Les
technologies des écrans plats comprennent les diodes électroluminescentes (LED), l'affichage
à cristaux liquides (LCD) et le plasma. La LED et le plasma fonctionnent en allumant des
emplacements de l'écran selon les tensions appliquées aux différentes intersections de la
grille. Les LCD fonctionnent en filtrant la lumière plutôt qu'en la créant. Les LCD consomment
beaucoup moins d'énergie que les technologies LED et plasma, et sont actuellement la
technologie privilégiée pour les portables et autres ordinateurs mobiles.
Les écrans traitent généralement les données en entrée soit comme des cartes de caractères,
soit comme des cartes binaires (bitmap). En mode caractère, un écran possède un espace de
pixels alloué pour chaque caractère. En mode bitmap, il reçoit une représentation exacte de
l'image qui doit être projetée sous la forme d'une séquence de bits. Cette représentation décrit
les valeurs de couleur pour les coordonnées en X et Y par rapport à un point de référence sur
l'écran. Les écrans qui traitent les bitmap sont également connus comme étant les écrans sur
lesquels tous les points peuvent être adressés.
La plupart des cartes son actuelles ont la possibilité de piloter directement des casques de
faible puissance. Si des enceintes externes sont utilisées, la sortie de la carte son requiert une
amplification additionnelle. Le circuit d'amplification est normalement inclus dans les enceintes
externes. Le système d’enceintes interne peut également produire une sortie audio, qui peut
8.1.5 Formats de fichiers média courants utilisés dans les applications multimédia
A ce jour, deux normes de compression de données sont couramment utilisées avec les
images et la vidéo numérisées. Ce sont les normes de compression JPEG et MPEG.
Cinepak est une autre norme de compression / décompression, supportée par Vidéo pour
Windows. Cette norme utilise un format de fichier audiovisuel entrelacé (AVI) pour produire
des taux de compression de 40 pour 1 et une fréquence de 30 images par seconde, à une
résolution de 320 par 200. Windows supporte naturellement plusieurs techniques de
compression différentes comprenant:
• Cinepak
• deux versions d'Indeo,
• le format RLE
• le format Vidéo 1
Bien que JPEG fournisse un taux de compression suffisant pour permettre aux images
numérisées de tenir sur les lecteurs de disques durs, les images animées nécessitent un taux
de compression beaucoup plus important. On a créé le format MPEG pour atteindre des taux
de compression de 200 pour 1 avec des images et un son de haute qualité.
Comme JPEG, MPEG supprime les informations d'image redondantes des scènes
particulières. Cependant, au lieu de simplement supprimer les informations redondantes d’une
seule trame d’image, le système de compression MPEG supprime les informations
redondantes de trames consécutives. De plus, la méthodologie MPEG ne compresse les
objets clé qu’au sein d'une trame toutes les quinze trames. Entre ces trames clé, seules les
informations qui changent d'une trame à la suivante sont enregistrées.
Les derniers systèmes Pentium comprennent une interface AGP pour les graphiques vidéo.
L'interface AGP est une variation du bus PCI (voir chapitre 2) qui a été modifiée pour traiter la
bande passante plus large associée aux graphiques en 3D.
La spécification AGP a été présentée par Intel pour fournir un canal vidéo de 32 bits cadencé à
66 MHz en mode vidéo de base 1x. La norme supporte également deux modes à haute
vitesse : un mode 2x (533 Mo/s) et un mode 4x (1,07 Go/s).
La norme AGP fournit un canal direct entre le contrôleur graphique AGP et la mémoire
centrale, ce qui retire la circulation des données vidéo du bus PCI. Le débit fourni par ce lien
direct permet aux données vidéo d'être stockées dans la RAM du système au lieu d’une
mémoire vidéo dédiée.
La carte mère possède en général un seul connecteur supporté par un chip set compatible
Pentium / AGP. Les cartes mères conçues pour les portables et les systèmes mono-carte
peuvent incorporer la fonction AGP directement, sans utiliser un connecteur.
8.2.2 Tout en un
Un logiciel de capture est utilisé pour saisir les images d'une vidéo télé et les convertir en
formats numériques gérables par le système. Des progiciels graphiques peuvent servir à
manipuler le contenu vidéo après sa conversion en formats numériques. Un des formats de
fichier les plus connus pour la vidéo est le format AVI de Microsoft.
Les cartes de capture vidéo sont chargées de la conversion des signaux vidéo provenant de
diverses sources en signaux numériques manipulables par l'ordinateur. Comme dans le
processus de conversion audio, la carte vidéo échantillonne le signal vidéo entrant via un
convertisseur analogique – numérique.
Une des fonctions de la carte de capture vidéo est de convertir le signal YUV (luminance et
chrominance) en un signal RGB (rouge vert bleu) compatible VGA. Y représente la luminance
du signal noir et blanc, tandis que U et V sont les signaux de différence de couleur. U est le
rouge moins Y et V est le bleu moins Y. L’avantage de YUV sur RGB est d’économiser de
l’espace disque et de la bande passante. Pour afficher un signal YUV sur un écran
d’ordinateur, il faut le convertir dans un format RGB acceptable par la mémoire de la carte
VGA. Cette opération appelée conversion d'espace de couleur est réalisée par un circuit
codeur qui échantillonne le signal analogique entrant et le convertit.. La résolution d’un signal
télé de qualité studio est fournie par deux trames entrelacées à une fréquence de 60 trames
par seconde. Le codeur convertit le signal en une image 640 par 480 en mode VGA, envoyée
à l'écran en mode non-entrelacé et à une fréquence d'au moins 30 trames par seconde.
Après que la carte vidéo a été installée, et le moniteur connecté et branché, il faut installer les
bons pilotes pour la carte vidéo. Les systèmes d’exploitation Windows 9x doivent en principe:
Le système d’exploitation Windows 2000 est encore plus automatisé, car il:
La seule fois où l’utilisateur est directement impliqué dans les pilotes vidéo du système, c’est
quand le Plug and Play ne fonctionne pas ou quand la carte vidéo n’est pas reconnue par le
système d’exploitation.
Les informations d’affichage stockées et manipulées dans la mémoire vidéo se trouvent dans
le format binaire standard 0/1. Ces motifs binaires contrôlent la résolution et la couleur de
chaque pixel sur l’écran d’affichage vidéo. Cependant, les moniteurs sont des dispositifs
analogiques, et non pas numériques. Pour que le moniteur fonctionne, les informations
numériques dans la mémoire vidéo doivent être transformées en informations analogiques
pour être exportées vers l’écran du moniteur. C’est le rôle de la puce RAMDAC.
La puce RAMDAC lit le contenu de la mémoire vidéo, le convertit sous forme analogique et
l’envoie vers le moniteur vidéo via un câble. La qualité de cette puce a un impact sur la qualité
de l’image, sur le taux de rafraîchissement et sur la résolution maximale. Le taux de
rafraîchissement fait référence au nombre de fois par seconde où se réaffiche l’image sur
l’écran vidéo.
La Mémoire Vidéo
La chip set vidéo s’appuie sur la mémoire vidéo pour rendre une image. L’élément de base de
chaque image vidéo est un point (dot) ou pixel. Un grand nombre de points constituent ce qui
est affiché sur le moniteur. Chaque point a un emplacement qui lui est réservée dans la
mémoire vidéo. Le nombre maximum de points qui peuvent être affichés dépend de la
résolution.
La résolution est couramment exprimée par une paire de nombres. Chaque paire de nombres
représente le nombre maximum de points sur un axe horizontal et le nombre maximum de
points sur un axe vertical. La résolution VGA de base de 640 par 480 signifie qu’il y a 640
points possibles sur l’axe horizontal et 480 points possibles sur l’axe vertical. Un VGA étendu a
une résolution de 800 points par 600. Un super VGA a une résolution de 1024 points par 768.
A partir de ces exemples, il est facile de voir que, plus la résolution est élevée, plus il faudra de
mémoire pour créer l’image. Cependant, plus la résolution est élevée, plus l’image est nette et
claire.
Bien que le CPU donne des instructions à la carte vidéo sur ce qu’il faut afficher, le CPU ne dit
pas à la carte vidéo comment le tracer. Le BIOS vidéo est responsable de la manière dont
l’image doit être affichée. Le BIOS vidéo fournit la série de fonctions vidéo qui peuvent être
utilisées par les programmes pour accéder au matériel vidéo. Le BIOS vidéo permet au logiciel
de s’interfacer avec le chip set vidéo de la même manière que le BIOS système le fait pour le
chip set de la carte mère. Quand la technologie SVGA est devenue une norme industrielle, les
incompatibilités entre les différentes implémentations du BIOS vidéo ont débouché sur le
développement d’une normalisation du BIOS.
L’audio est entièrement intégré à la pratique du multimédia et constitue une fonction standard
sur les PC. Les logiciels d’éducation et de jeu utilisent les effets sonores pour améliorer cette
pratique. Les musiciens utilisent les capacités audio d’un ordinateur pour créer des chansons.
L’ordinateur peut « lire » les informations aux utilisateurs malvoyants. Les applications pour
l’audio sur ordinateur sont sans limite, mais pour qu’un PC ait les capacités audio, il a besoin
d’une carte son.
Une carte son est un dispositif prenant la forme d’une carte d’extension ou d’un chip set qui
permet à l’ordinateur de traiter les informations audio.
La responsabilité fondamentale d’une carte son est l’entrée, le traitement et la sortie des
informations audio, comme la liste suivante le montre :
Entrée – les cartes son peuvent « capturer » les informations audio à partir de
nombreuses sources différentes. Ces sources comprennent les microphones et les
lecteurs CD.
Traitement – la capacité de traitement d’une carte son lui permet de convertir des
informations audio dans différents formats et d’ajouter des effets aux données du son.
Sortie – les périphériques simples de sortie d’une carte son comprennent les casques
et les enceintes. Les périphériques plus complexes peuvent être des systèmes
numériques de son quadriphonique (surround) pour spectacles, une cassette audio
numérique (DAT), des enregistreurs CD, et d’autres systèmes musicaux.
La mémoire – Des cartes son plus avancées utilisent une mémoire pour stocker des
échantillons de sons d’instruments de musique ou des instructions pour les
périphériques MIDI. Cette mémoire se présente généralement sous la forme de ROM,
de Flash ou de NVRAM qui peuvent souvent être mises à jour ou étendues.
Les ports – Les cartes son peuvent avoir de nombreux ports internes et externes pour
connecter les périphériques d’entrée et de sortie. Egalement connus sous les noms de
prises jack ou d’interfaces, ces ports étendent les fonctions d’une carte son.
Les cartes son qui utilisent la synthèse FM font appel à une programmation pour créer des
formes d’onde qui correspondent au mieux à l’instrument joué. Ces sons sont faciles à
produire mais très éloignés de la réalité. Les cartes son à table d’ondes utilisent des
échantillons numérisés du son de véritables instruments pour en faire une reproduction audio.
Ces échantillons sont stockés dans la mémoire de la carte, qui contient généralement toute la
gamme d’instruments d’un orchestre. Le MIDI est une combinaison de matériel et de logiciel
qui permet à la carte son de commander des instruments de musique réels et d’utiliser ces
instruments pour sortir le son. Si un instrument externe n’est pas disponible, la carte son peut
utiliser son synthétiseur MIDI pour jouer la musique encodée.
La qualité d’une carte son est déterminée par son nombre de bits d’échantillonnage (bit depth),
son taux d’échantillonnage et son ensemble de fonctions :
Note : SCSI est un interface hardware qui permet de connecter jusqu’à 15 périphériques sur
une seule carte. Le RAID est utilisé pour augmenter la performance et attribuer une
insensibilité aux défaillances. Il sera détaillé dans un chapitre ultérieur. FireWire, également
connu sous le nom de IEEE 1394 est un bus série à grande vitesse développé par Apple et
Texas Instruments qui permet de se connecter jusqu’à 63 périphériques.
Beaucoup de cartes son haut de gamme offrent également des ports de sortie numériques
pour la connexion aux systèmes de home cinéma.
Le son est créé par l’une ou l’autre de ces trois méthodes : le son USB, les cartes son PCI et
des chip sets de son intégrés à la carte mère. Chacune de ces trois méthodes présente des
avantages et des inconvénients, comme le montrent les parties suivantes.
Le son USB
L’USB est une interface connectable à chaud (hot-swappable) qui peut être utilisée pour relier
de nombreux types de périphériques différents à un PC. Le système d’enceinte USB est un de
ces périphériques qui connaissent un grand succès. Ces systèmes d’enceinte permettent au
port USB d’agir comme une carte son. Le plug and play est un atout majeur du son USB. Il n’y
a besoin d’aucune configuration une fois que le périphérique audio est branché à l’interface.
C’est également une norme pour tous les systèmes d’exploitation Windows depuis 1996. Un
avantage du son USB est que le PC génère toutes les informations nécessaires à la création
de sons et de musique. Les enceintes effectuent alors la conversion numérique-analogique. Il
y a cependant un inconvénient avec le son USB : il consomme de la puissance de traitement
pour créer le son et peut dégrader les performances de l’ordinateur. Dans les nouveaux PC,
l’effet est minimal.
Note : l’interface connectable à chaud permet aux périphériques d’être échangés pendant que
le système fonctionne. Les micros et les casques sont des exemples de composants
connectables à chaud.
Pour fonctionner, les systèmes d’enceintes USB nécessitent seulement les enceintes, un
câble USB et un port USB.
Le son intégré
De nombreux fabricants de cartes mère intègrent les options vidéo et audio dans leurs
produits. Le son intégré a un processeur audio qui se trouve physiquement sur la carte mère
sous la forme d’une puce unique ou d’un chip set. De cette façon le son intégré combine les
avantages du son USB avec ceux du son PCI. Etant intégré, l’installation est aussi simple que
celle d’une carte son USB. Utilisant un processeur audio comme une carte son PCI, le CPU de
l’ordinateur ne traite pas les informations audio. Les cartes mère avec le son intégré
comprennent également les ports audio courants pour les enceintes et un micro.
L’ensemble complet revient moins cher, car il n’est pas nécessaire d’acheter une carte son
séparée. Le principal inconvénient du son intégré est qu’il est difficile et parfois impossible de
rajouter des capacités audio. Dans ce cas, il faut généralement désactiver le système audio
interne et installer une carte son PCI.
Une mise à jour courante pour les PC modernes est l’ajout d’une carte son récente. Avant
d’ajouter une carte son plus puissante, il faut ôter les anciennes cartes son ou désactiver le
chip set du son intégré. Le fait de supprimer ou de désactiver les cartes son périmées libère
des ressources comme les IRQ et les emplacements d’extension.
• le matériel
• le logiciel associé
• les pilotes spécifiques
• les fichiers qui pourraient ralentir le système
Etape2 Sélectionnez le périphérique à supprimer. Dans cette exemple, c’est la carte son
Sound Blaster
La procédure de désactivation d’une carte son périmée ou d’un son intégré est similaire à celle
de désinstallation. Pour désactiver une carte son ou un son intégré, ouvrez le gestionnaire de
périphériques dans Windows et choisissez de voir les propriétés de la carte son. A l’intérieur
de la zone de propriétés, choisissez de désactiver la carte. Ce n’est pas la même chose que la
suppression de la carte étant donné que la carte son ainsi que ses pilotes et ses fichiers ne
sont pas retirés. Cela peut libérer des ressources pendant qu’on vérifie la compatibilité
d’autres cartes son. On peut également facilement activer à nouveau une carte son qui a été
désactivée. Pour désactiver un son intégré, il faut souvent procéder à un changement dans le
BIOS de l’ordinateur. Il existe en général un paramètre qui permet d’activer ou désactiver
l’audio intégré. Le son intégré doit être désactivé dans le BIOS et dans le système
d’exploitation.
La première étape est de s’assurer que le PC est bien éteint et que tous les périphériques
externes sont débranchés. Ensuite, ôtez le capot de l’unité centrale. On peut utiliser une
bombe d’air comprimé pour enlever toute la poussière de l’intérieur de l’unité. Localisez un
connecteur PCI disponible pour y placer la carte son et ôtez le cache du slot correspondant, en
mettant bien de côté la vis qui maintient le cache en place. En portant le bracelet anti-statique,
alignez les contacts du bord inférieur de la carte son avec ceux du connecteur PCI libre, et
enfoncez fermement la carte dans le connecteur en appuyant de façon répartie sur tout le haut
de la carte. Après vous être assuré de la bonne insertion, remettez la vis du cache pour fixer la
carte son à la structure et permettre une bonne mise à la terre.
Après avoir installé la carte son, la prochaine étape est la connexion de divers composants
internes et câbles à la carte son. On branche habituellement le CD-ROM ou le DVD ROM à la
carte son pour produire de l’audio numérique. Tous les lecteurs de CD-ROM ont une sortie
audio analogique pour être connectés à une carte son. Cette connexion à quatre fils utilise le
convertisseur numérique-analogique du CD-ROM pour envoyer de l’audio analogique sur deux
canaux à la carte son, qui les relaye sur les enceintes connectées. Ces connecteurs sont
étiquetés en tant que sortie audio analogique. Ils sont repérés à la fois sur le CD-ROM et sur la
carte son pour assurer leur bonne connexion.
La plupart des lecteurs de DVD-ROM et certains lecteurs de CD-ROM récents offrent une
sortie audio numérique. Les DVD peuvent sortir des flux audio multiplexant plusieurs canaux.
Une carte son multi-canaux peut séparer ces canaux et les diriger vers les bonnes enceintes
pour créer un son quadriphonique ou surround. Les connecteurs audio numériques à deux fils
sont étiquetés et repérés sur le lecteur et sur la carte son pour assurer la bonne connexion.
Après avoir établi une connexion ou plus entre la carte son et un lecteur, il est habituellement
nécessaire de configurer la connexion en utilisant l’application d’installation de la carte son.
Pour terminer la procédure d’installation de la carte son, il faut installer les bons pilotes de la
carte son et toute autre application liée au son. Un pilote de carte son est un logiciel qui
permet au système d’exploitation de l’ordinateur de communiquer avec le hardware de la
carte. Il est important que le pilote installé corresponde exactement à la carte son et au
système d’exploitation installé. Les pilotes défectueux peuvent provoquer:
Des pilotes de périphériques en dernière version peuvent également être téléchargés à partir
du site web du fabricant.
On peut aussi installer le pilote manuellement. Une fois que la carte son est physiquement
installée, le pilote peut être installé, changé ou mis à jour en utilisant le Gestionnaire de
Périphériques. Dans le Gestionnaire de Périphériques, sélectionnez la carte son et visualisez
ses propriétés. Vérifiez la version du pilote pour être sûr que c’est la version la plus à jour qui
est installée.
Les cartes son ne sont pas seulement utilisées pour la sortie audio, mais également pour
enregistrer des sons à partir de diverses sources externes. Les ports pour les sources de son
externes courantes sont les suivants :
MIDI
L’entrée micro: les micros peuvent être connectés à une carte son en utilisant le mini jack
femelle de 3,5 mm sur la face de la carte son. Ceci fournit aux utilisateurs la possibilité de
capturer leurs voix en utilisant une application d’enregistrement sur l’ordinateur. Pour entrer le
son via le port MIC in, la carte son doit utiliser son convertisseur analogique-numérique. Les
formats audio numériques courants comprennent les fichiers WAV, le MP3 et Ogg Vorbis.
Note : Ogg Vorbis est un nouveau format de compression de son qui est libre, ouvert et non
breveté. Il est comparable à d’autres formats utilisés pour stocker et jouer de la musique
numérique, comme le MP3, le VQF, l’AAC et d’autres formats audio numériques.
L’entrée ligne: le port Line in sur une carte son a les mêmes caractéristiques physiques que
le port MIC in (mini jack femelle de 3,5 mm), mais les deux ports sont utilisés pour des types
de source complètement différents. Le port MIC in doit être utilisé avec des sources non
amplifiées. Le port Line in est utilisé pour capturer le son à partir de sources amplifiées ou
alimentées comme les lecteurs de cassettes, les lecteurs de cassettes audio numériques
(DAT), les lecteurs de CD externes et autres périphériques avec des sorties Line out. Comme
avec le port MIC in, le port Line in nécessite l’utilisation du convertisseur analogique-
numérique de la carte son.
L’entrée numérique: avec le succès des sources audio numériques comme le CD, le mini-
disque, le DVD et les lecteurs DAT, les fabricants de cartes son ajoutent des composants pour
capturer des sources audio numériques externes. La plupart des ports Digital in utilisent
l’interface numérique Philips Sony (SPDIF). Le SPDIF est spécifié dans la norme audio du «
livre rouge » pour l’enregistrement audio numérique. Le port Digital in sur une carte son
possède habituellement l’une des configurations suivantes :
Le principal avantage de l’utilisation en option du numérique, c’est qu’il n’est pas nécessaire de
faire une conversion analogique-numérique pour capturer les informations audio, ce qui assure
la reproduction la plus fidèle disponible.
8.4.1 Le lecteur
Le disque compact en lecture seule (CD-ROM) est un support amovible qui connaît un grand
succès. Destinés à l’origine au son numérique, les CD-ROM se sont rapidement étendus au
monde du stockage des données des PC. On peut attribuer le succès des CD-ROM à leur
capacité de stockage, à leur robustesse et à leur prix. Leur format étant très largement
répandu, les lecteurs de CD-ROM sont des périphériques standard sur la plupart des PC.
Un lecteur de CD-ROM est composé d’un moteur, d’un sous-ensemble laser, d’un mécanisme
de positionnement de piste et de circuits de communication.
Le moteur fait tourner le CD à la vitesse qui permet au sous-ensemble laser de lire les
informations. Le sous-ensemble laser, composé d’un laser et d’un lentille, lit le CD en rotation.
Le mécanisme de positionnement de piste comprend un moteur et un système de pilotage qui
oriente la lentille dans la bonne position pour accéder à une zone spécifique du CD. Enfin, les
circuits de communication envoient les informations lues depuis le CD vers l’ordinateur en
utilisant le bus choisi.
Type de boîtier du CD
Les lecteurs de CD-ROM peuvent être montés à l’intérieur ou à l’extérieur de l’ordinateur.
Les lecteurs internes sont courants sur les ordinateurs. Ils tirent leur énergie de l’alimentation
de l’ordinateur et sont généralement connectés au bus de l’ordinateur par un câble plat.
Les lecteurs externes se trouvent dans un boîtier et ont leur propre alimentation. Ils se
connectent soit directement à un port externe sur l’ordinateur, du type USB, FireWire ou
parallèle, soit à un contrôleur généralement de type SCSI installé dans un slot d’extension de
l’ordinateur.
Mesures de vitesse
La vitesse de lecture d’un lecteur de CD-ROM détermine la vitesse à laquelle les informations
peuvent être extraites du CD-ROM et envoyées vers le bus de communication. En général,
plus la vitesse de lecture sur un lecteur de CD-ROM est élevée, plus le lecteur est rapide. On
mesure la vitesse de lecture d’un lecteur de CD-Rom en multiples de 150 Kbits par seconde,
en la notant par un nombre suivi d’un « x ». Un lecteur ayant une vitesse de 1x a une vitesse
de lecture de 150 Kbits (ou une fois 150 Kbits). Un lecteur ayant une vitesse de 10x a une
vitesse de lecture de 1500 Kbits. Les données comme celles d’une vidéo arrivent en flux
continu d’un CD et peuvent nécessiter des vitesses de lecture de 12x ou plus. Mais la vitesse
de lecture d’un lecteur de CD-ROM n’et pas toujours uniforme. Un lecteur ayant une vitesse de
16x peut seulement atteindre cette vitesse près du centre du CD, tandis qu’il n’atteint plus
qu’une vitesse de 8x sur les pistes extérieures.
Pour plus d’informations sur l’installation pas à pas des lecteurs IDE, revoir le chapitre 3.
Les enregistreurs de CD, qu’on appelle souvent graveurs de CD, deviennent un équipement
standard sur les PC. Les enregistreurs de CD permettent aux utilisateurs de graver ou d’écrire
leurs propres CD contenant de la musique, des données, des vidéo ou toute combinaison des
trois. Les utilisateurs peuvent maintenant:
• créer des CD Vidéo que l’on peut voir avec des lecteurs DVD autonomes
Le CD inscriptible (CD-R) – Le CD-R fut le premier conçu de ces deux types. Les CD
produits pour être commercialisés, que ce soit pour le son ou d’autres données, sont
créés par une technique de pressage. Cette technique produit les zones planes et
creuses du CD qui sont lues par le sous-ensemble laser. La technologie du CD-R
utilise une stratégie différente pour écrire les informations sur un CD. Les supports du
CD-R ont en plus une couche de colorant entre la couche en aluminium et la couche
en plastique. Cette couche de colorant est translucide et permet à la lumière de passer
à travers jusqu’à la couche d’aluminium qui réfléchit cette lumière. Quand une unité
écrit des informations sur un support CD-R, un laser est utilisé pour brûler des zones
du colorant de façon à créer des points opaques non réfléchissants. Quand le CD-R
enregistré est lu, le sous-ensemble laser reçoit des réflexions uniquement depuis les
zones translucides du colorant. Cette surface réfléchissante ou non-réfléchissante se
traduit facilement en bits de données. Pour réaliser le travail de lecture et d’écriture
des CD, les unités de CD-R utilisent deux lasers, un laser de lecture et un laser
d’écriture. La vitesse à laquelle un CD-R peut graver un CD utilise la même convention
numérique que pour la vitesse de lecture des CD-ROM. Une unité de CD-R qui peut
écrire à 3000 Kbits/s a une vitesse d’écriture de 20x ( 20 fois 150 Kbits/s). Un lecteur
indiquant 24x/40x a une vitesse d’écriture de 24x et une vitesse de lecture de 40x. Il y
a un inconvénient : le support CD-R ne peut pas être réécrit.
La DAE est un procédé qui permet de copier le son d’un CD sur un autre support tout en
gardant l’état numérique original du son. La plupart des utilisateurs utilisent les techniques de
la DAE, également connues sous le nom de « ripping », pour extraire des chansons d’un CD
audio et les copier sur le disque dur d’un ordinateur, puis sur un CD inscriptible. Conserver le
format numérique du son réduit considérablement les risques de dégradation sonore.
Quand un lecteur CD joue un CD au standard «Red Book» (Red Book est un format audio de
CD abordé plus tard dans ce chapitre), le lecteur exécute une conversion numérique-
analogique en temps réel pour sortir le son sur les enceintes. Avant la DAE, le son devait être
réenregistré et numérisé à nouveau si un utilisateur voulait enregistrer la chanson sur un CD
inscriptible. Cette conversion numérique-analogique-numérique prenait beaucoup de temps et
des sons indésirables apparaissaient en général. En fonction de la qualité du lecteur de CD-
ROM, du matériel et du logiciel utilisé, la DAE peut faire des copies numériques de chansons
quasiment sans défaut en un temps très court.
Copier une chanson à partir d’un CD «Red Book» est une opération très différente de celle qui
consiste à copier un fichier à partir d’un CD-ROM. Les chansons sont stockées sur des pistes
du CD et les unités lisent ces pistes lorsqu’elles tournent sous le sous-ensemble laser.
Comme les informations audio arrivent en flux continu au lecteur, il faut utiliser un logiciel
spécifique de DAE. Ce logiciel lit au vol les informations brutes d’une piste et rassemble les
informations dans un fichier WAV. Ce fichier WAV peut ensuite être joué sur un ordinateur ou
recopié sur un CD inscriptible avec d’autres chansons pour créer un CD audio personnalisé.
Quand la DAE est utilisée pour créer des fichiers WAV sur un ordinateur, ces fichiers WAV
sont non compressés et peuvent avoir une grande taille. D’autres formats audio comme le
MP3 et Ogg Vorbis compressent ces fichiers bruts en fichiers plus petits avec une perte
minimale de qualité du son.
Le DVD est une technologie plus récente qui s’appuie sur les points forts du CD-ROM. Les
DVD ont la même taille physique que les CD-ROM, mais ils peuvent gérer beaucoup plus
d’informations. Les DVD sont utilisés pour les films, le son et les données. En fonction du type
de surface et du nombre de faces (simple ou double face), les DVD peuvent stocker jusqu’à
20 fois plus d’informations qu’un CD. Les DVD sont capables de stocker plus d’informations
car ils fournissent une plus grande zone de stockage de données, utilisent une technique à
densité d’enregistrement plus élevée, et peuvent accéder à plusieurs couches du support.
Les deux principaux marchés du DVD sont ceux des lecteurs de salon et des lecteurs pour
ordinateur. De nombreux consommateurs possèdent un lecteur DVD parmi les composants de
leur installation de home cinéma. Cela s’explique par le fait que les films enregistrés sur des
supports DVD sont des reproductions numériques avec des couleurs vives, un son surround
comme au cinéma, et qu’ils contiennent souvent des suppléments liés au film. Etant donné
que le film est enregistré sous un format numérique, la qualité du film est aussi proche que
possible de la qualité originale du film et ne se détériore pas comme celle des cassettes VHS.
Les lecteurs DVD de salon offrent également différentes options audio à plusieurs canaux
telles que le Dolby surround, le Dolby numérique 5.1 et le DTS.
En ce qui concerne la conception, les lecteurs DVD sont très semblables aux lecteurs CD-
ROM. Les lecteurs DVD sont composés d’un moteur d’entraînement du disque, d’un sous-
ensemble laser pour lire le DVD, d’un mécanisme de poursuite pour déplacer le laser dans la
zone souhaitée, et de circuits de communication pour transférer les données vers leur
destination. Les décodeurs font partie des composants optionnels. Tous les lecteurs DVD de
salon et certains lecteurs DVD sur ordinateur ont un décodeur MPEG-2 pour décompresser les
données vidéo dans un format affichable sur l’écran d’un téléviseur ou sur un moniteur.
Certains lecteurs DVD contiennent également des décodeurs audio pour le Dolby Numérique
5.1 ou pour les flux audio DTS. Ces décodeurs décompressent les données audio et
répartissent les informations vers les canaux appropriés. Les lecteurs DVD qui ne possèdent
pas ces décodeurs peuvent utiliser un matériel additionnel ou un logiciel pour effectuer le
décodage.
Le laser utilisé dans un lecteur DVD est différent des lasers utilisés dans les lecteurs CD-
ROM. Le laser d’un lecteur DVD doit être capable de se focaliser sur différentes couches du
support. Si un DVD à une seule couche n’a qu’une surface réfléchissante, un disque à deux
couches contient une couche semi-transparente au dessus de la couche totalement
réfléchissante. Le laser doit être capable de faire la distinction entre les deux en se focalisant
sur la couche qui contient les données souhaitées.
Quand vous installez un lecteur DVD, suivez les étapes pour l’installation d’un lecteur CD-
ROM, y compris les procédures de sécurité expliquées dans le chapitre 3:
Les lecteurs DVD ont généralement des connecteurs pour les câbles de sortie audio
analogique et numérique. Enfin, installez le pilote du périphérique et vérifiez en redémarrant
l’ordinateur.
Le DVD-RW – Le DVD-RW (réinscriptible) est une technologie conçue pour traiter les
problèmes de compatibilité et de réenregistrement. Plus orienté vers une utilisation
générale que vers l’authentification d’un auteur, le DVD-RW utilise un système sans
cartouche et permet aux utilisateurs de réécrire les informations sur le support jusqu’à
environ 1000 fois. Le support est compatible avec la plupart des lecteurs DVD-ROM et
des lecteurs autonomes actuellement sur le marché. Le lecteur utilise une technologie
d’enregistrement séquentiel conçue à l’origine pour des flux continus. Le DVD-RW est
capable d’écrire 4,7 GB d’informations sur chaque face d’un disque.
Philips et Sony ont développé la norme du format des CD audio au début des années 1980.
Quand les fabricants ont réalisé le potentiel des CD pour stocker des données sur les
ordinateurs, ils ont développé de nouveaux formats pour assurer la compatibilité après
l’enregistrement des CD. Les deux grands types de normalisation des formats de CD sont les
normes logiques et les normes physiques.
Même si les supports DVD et CD ont la même taille physique, les DVD offrent une capacité de
stockage beaucoup plus grande par l’utilisation d’une technique de stockage de données à
plus haute densité et par l’utilisation des couches. L’organisation en couches d’un DVD est le
processus par lequel le laser de lecture est capable de se focaliser sur différentes couches à
l’intérieur du disque. Un disque à deux couches correspond à deux fois la surface d’un disque
classique et un disque à deux couches et à deux faces correspond à presque quatre fois la
surface sur laquelle on stocke les données. Actuellement, on trouve trois types de DVD et
quatre formats physiques.
Les formats physiques de DVD définissent la structure du disque et les zones où les données
sont enregistrées.
• Le DVD 5 est un DVD à une face possédant une couche, avec une capacité de
stockage de 4,7 Go
• Le DVD 9 est un DVD à une face possédant deux couches, avec une capacité totale de
8,5 Go.
• Le DVD 10 est un DVD à deux faces possédant une seule couche, avec une capacité
totale de 9,4 Go
• le DVD 18 est un disque à deux faces possédant deux couches, avec une capacité
totale de 17 Go
C’est un circuit à transfert de charge (CCD) qui est le capteur d’image utilisé par la plupart des
appareils. Les CCD permettent de saisir et de stocker les données d’image dans les
télescopes, les scanners, les appareils photos numériques et les caméras vidéo numériques.
Un bon CCD peut fournir une image même avec une lumière très faible, et sa résolution ne se
dégrade pas en éclairage réduit comme c’est le cas pour un appareil à pellicule. Une
technologie CMOS est utilisée par les moins coûteux de ces appareils numériques. Bien que
ces capteurs CMOS s’améliorent, la technologie CCD reste le standard des appareils
numériques haut de gamme.
256x256 pixels – Cette résolution est utilisée pour les appareils bas de gamme, avec
au total 65 000 pixels.
1216x912 pixels – Cette résolution permet en plus l’impression d’images, avec 1 109
000 pixels.
1600x1200 pixels – Cette haute résolution donne de bons résultats pour des
impressions à des formats allant jusqu’à 20x25. On atteint les 2 millions de pixels.
Actuellement, on trouve des appareils atteignant 10,2 millions de pixels, qui donnent des
résultats équivalents ou même supérieurs à ceux des appareils à pellicule.
Les appareils avec un stockage fixe doivent être connectés à l’ordinateur pour transférer les
images. Cette connexion peut se faire par un port série, parallèle, SCSI ou USB. Mais de
nombreux appareils disposent d’un système de stockage amovible, qui permet de transférer
directement les images à l’ordinateur ou même à une imprimante sans avoir à connecter
l’appareil.
Built-in memory – mémoire flash incorporée, utilisée par de nombreux appareils peu
coûteux.
CompactFlash – une variété de mémoire flash légèrement plus grande que les cartes
SmartMedia
Floppy disk – certains appareils peuvent stocker les images directement sur des
disquettes peu coûteuses
Un lecteur est nécessaire pour transférer les fichiers depuis une mémoire flash vers un
ordinateur. Ces lecteurs ressemblent à des lecteurs de disquettes, sont peux coûteux et
permettent de se passer des câbles de connexion.
Ce sont leurs capacités qui différencient ces supports de stockage: une disquette a une
capacité figée, tandis celle des mémoires flash augmente sans cesse.
Un appareil numérique produit principalement des images en format TIFF ou JPEG. JPEG est
un format compressé, et TIFF un format non compressé. C’est le format JPEG qui est le plus
utilisé pour le stockage des images, car il permet de sélectionner différentes qualités d’image,
telles que moyenne ou élevée.
Les caméscopes
Les caméscopes apparus il y a environ 20 ans utilisent un capteur CCD tout comme les
appareils photo numériques. La lentille focalise la lumière sur un capteur CCD d’un demi
pouce ou d’un cm de côté contenant de 300 000 à 500 000 diodes photo-sensibles. Ces
caméscopes sont analogiques ou numériques.
Les caméscopes analogiques enregistrent les signaux audio et vidéo sur une bande, sous la
forme de pistes analogiques. A chaque copie de cette bande, on dégrade la qualité de l’image
et du son. Les formats analogiques manquent aussi des fonctions évoluées qu’on trouve dans
les caméscopes numériques.
VHS-C – C’est un format VHS compact. Les K7 sont plus petites mais peuvent êtes
lues sur un magnétoscope avec un boîtier adaptateur.
Super VHS – une bande super VHS enregistre une image sur 380 à 400 lignes
horizontales, donc avec une résolution bien supérieure au 240 lignes du standard
VHS. Le caméscope inclut un magnétoscope et peut être relié directement à un
téléviseur ou à magnétoscope pour copier des bandes au standard VHS.
Super VHS-C – une version plus compacte du super VHS, avec une taille de K7 plus
petite.
8mm – de petites K7 environ de la taille d’une K7 audio avec la même résolution que
le standard VHS. Ce format permet des caméscopes bien plus compacts pouvant tenir
dans une poche. On relie le caméscope au téléviseur pour lire les enregistrements.
Hi-8 – analogue aux caméscopes 8 mm, mais avec une résolution plus élevée
d’environ 400 lignes horizontales et des K7 moins coûteuses.
MiniDV
Ces caméscopes peuvent être très petits et légers. Ils enregistrent des K7 compactes, assez
chères et atteignant de 60 à 90 minutes. La résolution des enregistrements est de 500 lignes,
et on peut les transférer sur un ordinateur. Ces caméscopes peuvent aussi faire des photos.
Sony a récemment introduit un standard MicroMV sur la base de MiniDV , mais avec des K7
beaucoup plus petites.
Digital8
Digital8 appartient exclusivement à Sony. Ce standard utilise des K7 HI-8mm, moins
coûteuses et qui peuvent contenir jusqu’à 60 minutes d’enregistrement.. Les enregistrements
Digital 8 peuvent être copiés sans aucune perte de qualité, et peuvent être téléchargés sur un
ordinateur pour être édités ou utilisés sur Internet.
DVD
Les caméscopes DVD ne sont pas aussi courants que les MiniDV, mais ils vont se répandre
de plus en plus. Ces caméscopes gravent directement les informations sur de petits disques.
L’avantage est que chaque séquence d’enregistrement se trouve sur une plage particulière,
semblable aux plages des CD audio. Ces plages permettent d’accéder directement à
n’importe quelle partie de la vidéo. Les DVD peuvent contenir de 30 minutes à 2 heures de
vidéo.
Les caméscopes DVD les plus récents supportent les formats DVD-R et DVD-RAM. Les
disques de caméscopes DVD-R sont lisibles par la plupart des lecteurs DVD. Le disque ne
peut être enregistré qu’une fois. Le DVD-RAM rend possible le réenregistrement, mais ne peut
pas être lu par un lecteur DVD ordinaire. Le caméscope doit alors être connecté au téléviseur
pour la lecture, ou le film peut être copié dans un autre format..
Memory card
Tout comme pour les appareils photo on trouve des caméscopes numériques qui enregistrent
directement sur des cartes mémoires telles que des cartes flash, des «memory sticks» et des
cartes SD.
Les vidéo clips peuvent être lus au format AVI de Windows ou via une carte de capture vidéo.
Ceci doit être vraiment pris en compte quand on crée une présentation qui comprend un
composant vidéo. Est-ce que l’ordinateur de l’utilisateur aura une carte compatible de
numérisation vidéo installée ou faut-il prévoir que le vidéo clip soit lu par les extensions
multimédia de Windows ?
Les sources pour la capture vidéo comprennent normalement des magnétoscopes et des
caméscopes. Certaines cartes de capture possèdent un démodulateur RF et un tuner TV afin
que la vidéo puisse être capturée à partir du signal d’un téléviseur ou de l’entrée d’un câble
TV.
Quand la vidéo numérisée est relue dans un but d’affichage, le fichier est soumis de nouveau
à la puce de compression qui restaure les informations redondantes dans les trames. La sortie
de la puce de compression entre sur le convertisseur numérique-analogique du circuit de
traitement de la vidéo. Les signaux analogiques sont reconvertis dans le format VGA
approprié et entrent sur le connecteur de sortie vidéo au dos de la carte.
Comme pour toute carte d’extension, enlevez d’abord le capot de l’unité. A l’intérieur de l’unité,
ôtez le cache d’un emplacement (slot) d’extension en vérifiant que le type du connecteur est
bien compatible avec celui de la carte de capture. Beaucoup de cartes de capture étant des
cartes pleine longueur, assurez-vous aussi que le slot d’extension puisse recevoir
physiquement la carte..
Connectez la carte de capture à la carte VGA selon les instructions de la notice d’installation.
On trouve habituellement des informations plus à jour sur Internet. Recherchez le site Web du
fabricant de la carte. Certaines cartes VGA utilisent un connecteur situé dans le haut de la
carte.
Installez toutes les antennes qui doivent être connectées à la carte pour l’application voulue. Il
peut s’agir d’une antenne TV, d’un câble coaxial venant du téléviseur ou d’une antenne radio
FM. Connectez les câbles d’entrée vidéo aux sources audio et vidéo utilisées, et le câble audio
à la source audio. Dans ce cas, il y a une entrée audio stéréo (gauche/droite) et deux sources
possibles d’entrée vidéo.
Les connexions audio et vidéo sont généralement réalisées avec des câbles et des
connecteurs RCA standards. Connectez le câble VGA du moniteur au connecteur de sortie
VGA de la carte de capture. Le signal vidéo transite par la carte de capture et boucle sur la
carte VGA. Cela signifie que l’image peut apparaître en même temps sur le moniteur et sur
Si tous les paramètres de configuration du matériel et du logiciel étant corrects les problèmes
de capture continuent, l’utilisateur doit chercher à dépanner le matériel associé à la capture
vidéo. Dans la plupart des cas, il s’agira d’une source de signal TV de magnétoscope ou de
caméscope, du câblage, de la carte de capture ou de la carte vidéo.
La plupart des logiciels de carte de capture fournissent une fenêtre d’aperçu qui permet à
l’utilisateur de voir la vidéo provenant de la source vidéo. Si la source est visible dans cette
fenêtre, alors la source vidéo et le câblage de l’entrée vidéo peuvent être éliminés comme
source de problèmes. Cependant, le fait de simplement voir la vidéo dans la fenêtre ne signifie
pas que la carte capturera la vidéo.
Si la vidéo est présente dans la fenêtre et si la source vidéo ainsi que le câblage sont hors de
cause, il faut alors vérifier très attentivement les configurations du matériel et du logiciel.
Vérifiez la configuration du logiciel de capture pour le paramétrage de la mémoire tampon
(buffer) vidéo. Les adresses habituelles de la mémoire tampon vidéo sont : D000h, D800h,
E000h ou E800h. Changez le paramètrage en utilisant chacune des valeurs possibles. Ajoutez
la commande DEVICE= au fichier CONFIG.SYS qui correspond au nouveau paramètrage de
la mémoire tampon vidéo (par exemple, DEVICE=path\EMM386.EXE X=D000h-D700h). Enfin,
réinstallez et reconfigurez le logiciel de capture si les problèmes persistent.
Si le signal provenant de la source vidéo n’est pas présent dans la fenêtre d’aperçu, assurez-
vous que la source vidéo soit bien allumée. Vérifiez le câble d’entrée vidéo en vous assurant
qu’il est branché correctement à la prise de sortie vidéo de la source vidéo et dans l’entrée de
source vidéo appropriée sur la carte de capture. Vérifiez attentivement le paramétrage de
l’adresse I/O de la carte de capture, ainsi que son réglage dans le logiciel de capture. Vérifiez
dans le logiciel de capture que la bonne source vidéo soit sélectionnée. Pendant que vous êtes
dans les paramètres du logiciel, vérifiez le type de vidéo sélectionné et assurez-vous qu’il
corresponde à la norme vidéo utilisée dans votre pays
Un serveur de réseau est un système informatique qui est partagé à travers le réseau pour de
multiples utilisateurs.Les serveurs se présentent dans toutes les tailles des PCs basés sur
l'architecture x86 aux gros système d'IBM. Un serveur peut avoir un clavier, un moniteur, et
une souris relié directement. En outre, un clavier, un moniteur, et une souris peuvent être
reliés à n'importe quel nombre de serveurs par un commutateur d'écran de souris et de clavier
(KVM). Des serveurs peuvent également être contactés à travers une connexion réseau.
Note: Un commutateur KVM est un dispositif utilisé pour relier un clavier, une souris, et un
moniteur à deux ordinateurs ou plus. Des commutateurs KVM sont utilisés pour gagner de la
place sur un bureau quand deux ordinateurs ou plus sont utilisés régulièrement. Ils sont
également largement répandus pour commander les serveurs qui sont consultés de façon non
continu. Les commutateurs emploient souvent des câbles spéciaux qui combinent le clavier, le
moniteur, et les câbles de souris sur un seul port du coté du commutateur.
9.1.2 Le RAID
La technologie RAID est conçue pour fournir de la tolérance de panne afin d'empêcher la perte
de données en cas de panne d'une unité de disque sur un serveur de réseau. Une unité de
disque est un dispositif mécanique, qui peut tomber en panne. La technologie RAID accomplit
cette tolérance de panne ou redondance en stockant l'information sur plus d'une unité de
disques.
Le niveau 1 de la technologie RAID utilise la duplication des données pour fournir la tolérance
de panne.Les niveaux 3, 4, et 5 de la technologie RAID utilise une information de parité qui est
calculée à partir des configurations binaires des données étant écrites dans la rangée RAID
pour fournir la tolérance de panne. Quand une unité de disques tombe en panne dans le RAID
3, 4, ou 5, l'information de parité peut être employée avec les données sur les unités de
disques restantes dans la matrice pour calculer les données qui étaient sur l'unité de disques
défectueuse. Ceci permet au sous-ensemble disque et au serveur de réseau une continuité de
RAID est un terme qui est entouré par une quantité énorme de désinformations. Il y a
désaccord au sujet de combien de niveaux de RAID sont définis, sur la signification de la lettre
A de RAID qui représente une matrice (Array) ou des matrices (Arrays), et sur la lettre I de
RAID qui représente le terme peu coûteux (Inexpensive) ou le terme indépendant
(independent). Ces dernières années, beaucoup de gens ont substitué le terme indépendant
(independent) au terme peu coûteux (inexpensive).
La technologie RAID 6, 7, 10, 50, 53,et d'autres peut être trouvée dans la documentation
fournie par de nombreux fabricants. Dans ce module on s'intressera aux types de RAID le plus
souvent utilisés dans un environnement de réseau.
Le RAID a été défini en 1987 dans l'article appelé, "A Case for Redundant Arrays of
Inexpensive Disks (RAID)", qui a été écrit par David A. Patterson, Garth A. Gibson, et Randy
H. Katz à l'université de la Californie, Berkeley. L'article original a défini cinq niveaux de RAID
et a offert la solution RAID comme alternative au SLED (Single Large Expensive Disk : disque
unique de grande capacité à prix élevé).
RAID 0
Le RAID 0 n'a pas été défini dans l'article de Berkeley en 1987. En fait, ce n'est pas du RAID
parce qu'il ne fournit aucune redondance. Le RAID 0 est juste une matrice (ou groupe) d'unités
de disque utilisée comme un simple disque. Les données sont écrites en lots ou bandes sur
chaque disque qui constitue la matrice. Ceci améliore les performances d'entrée et sortie du
système disque parce que plusieurs lots des données peuvent être écrits ou lus
simultanément. Si une unité de disque de la matrice RAID 0 tombe en panne, toutes les
données de la matrice RAID 0 sont perdues. Le niveau 0 de RAID est également souvent
appelé un agrégat de disque par bande sans parité (disk striping without parity).
• Le duplexage de disque
Dans la mise en miroir, les deux unités de disque sont connectés au même controlleur de
disque. Le seul problème avec la mise en miroir de disque est que si le contröleur de disque
tombe en panne, il n'y a plus d'accès aux données misent en miroir. Pour éliminer ce seul cas
de panne, il est préférable d'utiliser le duplexage de disque plutôt que la mise en miroir.
Note: Un code hamming est une méthode de correction d’erreurs qui associe trois bits de
contrôle à la suite de chaque groupe de quatre bits de données. Quand ces bitd de contrôle
sont reçus, on les utilise pour détecter et corriger automatiquement les erreurs portant sur un
seul bit.
RAID 3
Le RAID 3 utilise la parité au niveau des bits avec un seul disque de parité pour permettre la
tolérance de panne des données stockée dans la matrice du RAID 3 en cas de panne d’une
seule unité de disque dans le tableau. Le RAID 3 nécessite la synchronisation de toutes les
unités de disque dans la matrice. Les bits des données et les informations de parité calculées
à partir des données sont écrits vers toutes les unités de disque de la matrice simultanément.
Le RAID 3 nécessite un minimum de trois unités de disque pour créer la matrice.
RAID 5
Le RAID 5 utilise une parité au niveau des blocs, mais distribue les informations de parité à
travers toutes les unités de disques de la matrice de disques. Ceci élimine la panne du lecteur
de parité courante dans les systèmes RAID 4. La perte de capacité de stockage dans les
systèmes RAID 5 est équivalente à la capacité de stockage d’une unité de disque. S’il y a trois
lecteurs de disques de 10 Go dans une matrice RAID 5, la capacité de stockage de la matrice
sera de 20 Go (une perte de 1/3 ou 33%). Dans un autre exemple, s’il y a sept unités de
disque de 10 Go dans une matrice RAID 5, la capacité totale de stockage de la matrice sera
de 60 Go (une perte de 1/6 ou 16,67%).
RAID 0/1
RAID 0/1 est également connu en tant que RAID 0+1, et il est parfois appelé RAID 10. Cette
combinaison de niveau de RAID combine les avantages des deux technologies. Il a les
performances du RAID 0 et la redondance du RAID 1. Le RAID 0/1 nécessite au moins quatre
unités de disque pour être mis en oeuvre. En RAID 0/1, il y a un agrégat de deux bandes RAID
0 , qui sont utilisées pour fournir des performances élevées en entrée/sortie, qui sont mise en
miroir. Ce qui fourni une tolérance de panne.
Les contrôleurs RAID sont des contrôleurs spéciaux qui utilisent soit les technologies ATA, soit
les technologies SCSI. Les contrôleurs RAID ATA sont limités quant au nombre de disques
auquels ils peuvent être attachés. Cela est dû aux limites du canal ATA, qui gére un maximum
de deux canaux avec chacun un maximum de deux unités de disque (pour un total de quatre
unités de disque). Les contrôleurs RAID SCSI ont de nombreux canaux. Les modèles à deux
canaux sont répandus. Des contrôleurs RAID avec trois, quatre et cinq canaux sont
disponibles. Les contrôleurs RAID sont généralement chers étant donné leur haut niveau de
sophistication.
Les contrôleurs RAID ont souvent un cache mémoire intégré dont la capacité varie entre 4 Mo
et 256 Mo. Ce cache mémoire intégré a souvent un système de batterie auxiliaire pour
empêcher la perte de données en cas d'une soudaine coupure de courant du serveur réseau.
C’est important car les données écrites à partir de la mémoire du système vers le contrôleur
RAID sont d’abord écrites dans le cache intégré et il peut se passer plusieurs secondes avant
que les données ne soient effectivement écrites sur le disque. Sans cette batterie qui alimente
le contrôleur de RAID, les données du disque pourraient ne pas être actualisées avec les
données courantes. Cela pourrait facilement entraîner la perte de l’intégrité des données.
Le cache mémoire sur le contrôleur de RAID peut généralement être configuré en tant que
cache de lecture, cache d’écriture, ou une combinaison des deux. Le cache de lecture
• Le nombre de canaux
• La taille du cache intégré, celui en lecture, celui en écriture, celui qui ombine lecture et
écriture, et l'option d'alimentation secourue
Note: Quand on utilise la version Windows 2000 du RAID, l’unité de disque doit être convertie
en disque dynamique avant que les options du RAID ne soient disponibles pour leur mise en
oeuvre.
Les systèmes RAID logiciel gèrent généralement le RAID 0, 1 et 5. Le RAID logiciel est
généralement mis en oeuvre au niveau des partitions du disque plutôt qu'au niveau du disque
physique contrairement au RAID matériel. L’inconvénient du RAID logiciel est qu' il a besoin du
processeur du serveur de réseau pour effectuer le travail généralement effectué par le
contrôleur RAID dans le RAID matériel. Le RAID 5 logiciel à besoin du processeur pour
calculer toutes les informations de parité quand on écrit les données sur la matrice de disques
RAID 5. Le RAID 1 logiciel engendre une charge minimale sur le processeur du serveur de
réseau.
Dans le cas du RAID 5 logiciel, les fichiers contenus dans la matrice RAID ne sont disponibles
que lorsque le système d'exploitation du serveur de réseau est chargé. Cela signifie que le
système d'exploitation ne peut pas être stocké et ne peut donc pas démarrer à partir d’un
système RAID 5 logiciel. Ce qui n’est pas le cas avec un système RAID 5 matériel.
Le RAID logiciel n'a aucun avantage sur le RAID matériel. Dans le RAID logiciel, la mise en
oeuvre du RAID peut être basé sur des partitions de disques plutôt que sur des unités de
disque entières. Par exemple, trois partitions de 10 Go sur trois unités de disque différentes
peuvent être utilisées pour créer une matrice RAID 5 logiciel. Il pourrait y avoir de l’espace
dans différentes partitions sur chacun des unités de disque qui pourraient être utilisés à
d’autres fins. Dans presque tous les cas, le RAID matériel est meilleur que le RAID logiciel.
Cependant, le fait d’avoir le RAID logiciel est bien meilleur que de ne pas avoir de tolérance de
panne disque du tout.
Les serveurs équipés d'un contrôleur de RAID doivent être configurés avant que le système
d'exploitation réseau ne soit installé. La configuration du système RAID consiste à sélectionner
les unités de disque physiques et les regrouper en une des configurations RAID disponible
(généralement RAID 1 ou RAID 5). Le vendeur de matériel réseau ou le vendeur de matériel
de RAID fourni généralement un logiciel facilitant la configuration du système RAID. Les unités
de disque du système RAID peuvent être internes au châssis du serveur de réseau ou externe
dans un boîtier séparé.
Comme cela est mentionné dans la section précédente, le RAID est utilisé pour fournir de la
tolérance de panne en cas de défaillance d'une unité de disque du serveur réseau. Le terme
RAID matériel signifie que les unités de disque du serveur réseau utilisent un contrôleur de
disques particulier, le contrôleur RAID. Certains systèmes d'exploitation réseau peuvent mettre
en oeuvre le RAID logiciel aux dépens d'une charge supplémentaire du processeur du serveur
réseau. La plupart des contrôleurs RAID sont conçus pour utiliser des unités de disque SCSI.
Cependant, au moins un fabricant de contrôleurs de disques produit un contrôleur RAID qui
utilise des unités de disque EIDE/ATA-2. Le contrôleur de disques RAID a son propre
processeur pour mettre en oeuvre la configuration du RAID, déchargeant ainsi le processeur
du serveur réseau de cette tâche.
La configuration du contrôleur RAID dans le serveur de réseau est réalisée par une application
fournie par le fabricant du serveur réseau ou du contrôleur RAID. Bien que les fabricants
soient différents, toutes ces applications fonctionnent fondamentalement de la même manière.
Ils permettent à l’utilisateur de voir les unités de disque attachées au contrôleur RAID.
L’utilisateur sélectionne d'abord les unités de disques qu’il veut utiliser. Ensuite, l’utilisateur doit
spécifier la version du RAID qu’il veut mettre en oeuvre en utilisant les unités de disques
sélectionnées. L'application« prépare » alors les unités de disque pour fournir la solution RAID.
Par exemple, l’utilisateur peut choisir deux unités de disque physiques et demander au logiciel
de configuration du RAID d’utiliser ces deux unités de disques pour mettre en oeuvre une
solution RAID 1 (mise en miroir). Le contrôleur RAID fera apparaître au système d'exploitation
du serveur réseau une seule unité de disque logique. En réalité, le contrôleur RAID lit et écrit
sur deux unités de disque physiques.
Dans un autre exemple, un utilisateur peut sélectionner cinq unités de disque physiques et
demander au logiciel de configuration du RAID d’utiliser ces cinq unités de disque physiques
pour mettre en oeuvre le RAID 5 (agrégat de disques par bande avec parité). Le contrôleur
RAID fera apparaître au système d'exploitation du serveur réseau une seule unité de disque
logique. En réalité, le contrôleur RAID lit et écrit des données en blocs sur les cinq unités de
disque de la matrice de disques RAID 5.
Dans un autre exemple encore, un utilisateur peut sélectionner les cinq mêmes unités de
disque physiques et demander au logiciel de configuration du RAID d’utiliser ces cinq unités de
disques physiques pour mettre en oeuvre le RAID 5 (agrégat de disques par bande avec
parité). De plus, l'unité logique obtenue pourrait être fractionnée en deux partitions par le
logiciel de configuration du RAID. Le système d'exploitation réseau verrait ainsi deux lecteurs
logiques (soit un sur chaque partition). En réalité, le contrôleur du RAID lit et écrit les données
en blocs sur les cinq unités de disque de la matrice de disques en RAID 5.
Le RAID 0 est connu en tant qu'agrégat de disque par bande sans parité. Le RAID 0 ne fournit
pas de tolérance de panne, mais il est utilisé pour améliorer les performances d’entrée/sortie.
Le RAID 0 ne devrait pas être utilisé dans un environnement de serveur en production.
Cependant, le RAID 0 est souvent utilisé dans un poste de travail haut de gamme pour
améliorer la performance d’entrée/sortie en lisant et en écrivant les fichiers en blocs sur
plusieurs disques simultanément par opposition à la lecture et à l’écriture d’un fichier de
manière séquentielle sur une unique unité de disques. Pour mettre en oeuvre le RAID 0, au
moins deux unités de disque sont nécessaires. Par exemple, deux unités de disques de 18 Go
configurées pour fournir le RAID 0 ont une capacité de stockage de 36 Go.
Le RAID 5 utilise un schma beaucoup plus compliqué pour fournir la tolérance de panne en
cas de panne d’un seul disque. Voir la section précédente 9.1.2 pour une description
approfondie du RAID 5.
La mise en oeuvre du RAID 5 nécessite un minimum de trois unités de disque . Les unités de
disque utilisé dans une solution RAID 5 sont souvent désignés matrice RAID 5. La panne
d’une seule unité de disque ne provoque pas la panne du serveur réseau. Les informations
manquantes qui étaient sur le disque en panne peuvent être recréées rapidement en utilisant
les informations des disques restants. L'unité de disque en panne doitêtre remplacée dès que
possible. Le RAID 5 ne peut pas pallierà la panne d’un second disque après la panne d’une
première unité de disque. A cause de cela, certains systèmes de RAID permettent la
configuration d’une unité de disque «de subsitution à chaud» dans le système RAID. Un
lecteur de disques de ce type est alimenté et fonctionne, mais ne contient aucune donnée. Il
attend simplement qu’une unité de la matrice de disque tombe en panne pour qu’il soit utilisé.
Quand une unité de disque de la matrice RAID tombe en panne, le système RAID démarre la
reconstruction des données qui se trouvaient sur le lecteur en panne sur le lecteur de disques
de substitution à chaud. Cette méthode « de substitution à chaud» réduit le temps nécesaire à
la reconstruction de la matrice RAID. Il réduit également la durée de vulnérabilité du RAID face
à la panne éventuelle d’une seconde unité qui pourrait détruire toutes les données stockées de
la matrice RAID.
Le RAID 5 est plus efficace que les autres niveaux de RAID surdimensionnement est de 1/n *
100, où n correspond au nombre d'unité de disque dans la matrice RAID 5. En d’autres
termes, si une matrice RAID 5 est composée de six unités de disque de 18 Go, le
surdimensionnement est de 1/6 * 100, ou 16,7%. Une autre manière de considérer la chose :
l’utilisateur perd la capacité de l’une des unité de disque de la matrice RAID 5. Cet espace est
utilisé pour stocker les informations de parité. Les informations de parité sont en réalité
réparties à travers toutes les unités de la matrice RAID 5.
Le RAID 0/1, quelques fois appelé RAID 0+1 ou RAID 10, concerne la mise en miroir ou le
duplexage de deux matrices RAID 0. Ce qui donne la tolérance de panne du RAID 1 et la
vitesse d'entrée/sortie du RAID 0. La mise en oeuvre du RAID 0/1 nécessite un minimum de
quatre unités de disque.
Les sous-systèmes disque externes sont nécessaires quand les baies d'unités de disques
internes au châssis du serveur réseau ne peuvent pas contenir la quantité d'espace disque
nécessaire. Ces sous-systèmes disque externe peuvent être soit à la norme SCSI, soit àla
norme Fiber Channel. Généralement, les systèmes basés sur le Fibre Channel peuvent
supporter beaucoup plus d'unités de disque que le système externe basé sur le SCSI. Les
systèmes de CD-ROM externes sont généralement utilisés pour mettre en oeuvre des
bibliothèques de CD-ROM qui peuvent contenir un grand nombre de lecteurs de CD-ROM et
les rendre disponibles aux ordinateurs client à travers le réseau. Les serveurs réseau qui
fournissent des bibliothèques de CD-ROM sont souvent appelées serveurs de CD-ROM.
Même si les micro-ordinateurs de type serveur ont souvent de nombreuses baies vides
conçues pour contenir des unités de disques, il est souvent nécessaire d’avoir des unités de
disque externes au châssis du serveur. Les sous-systèmes disque externes peuvent consister
en une unique unité de disques dans son propre châssis avec sa propre alimentation
électrique. D'autre part, le châssis d’un sous-système disque externe peut contenir 100 unités
de disques voir au delà.
Le sous-système disque externe simple avec seulement quelques unités de disques peut
simplement être relié au port externe sur un contrôleur SCSI ou RAID. Les unités de disque
externes fonctionnent alors de la même manière que les unités de disque internes, sauf qu'ils
se trouvent à l'extérieur du châssis du serveur réseau.
Certains grands sous-systèmes disque externe peuvent disposer d'un mécanisme RAID
intégré. Ceu-ci sont souvent configurés séparément du contrôleur de disque du serveur réseau
auquel ils sont reliés.
Souvent, un utilisateur peut configurer de grands sous-systèmes disque externes pour qu’ils
soient partagés entre plus d’un serveur de réseau. C’est une façon de mettre en oeuvre une
solution serveur à haute disponibilité.
Pour connecter le sous-système disque externe au serveur du réseau, utiliser un câble SCSI
externe standard ou même un câble Fibre Channel.
Généralement, les systèmes disque externes Fibre Channel peuvent gérer un très grand
nombre d'unités de disques. Dans tous les cas, assurez-vous que le sous-système disque
externe est alimenté avant de démarrer le serveur réseau.
Les lecteurs de CD-ROM externes sont souvent appelés bibliothèque de CD-ROM. Imaginez
le châssis d’une tour avec 7, 14, 21 lecteurs de CD-ROM, ou plus. Le fait d’avoir ces lecteurs
de CD-ROM reliés au serveur d’un réseau signifie qu’il est possible de partager tous ces
lecteurs de CD-ROM et les CD-ROM qu’ils contiennent avec tous les utilisateurs sur le réseau.
Attacher autant de lecteurs de CD-ROM à un seul serveur réseau est un processus trés
simple. Cela est réalisé grace à un dispositif assez peu utilisé appelé Numéro d'Unité Logique
(Logical Unit Number). Bien que les LUN soient définis dans les normes SCSI, ils sont
rarement utilisés (sauf sur de grands groupes de lecteurs de CD-ROM). Un LUN permet à un
utilisateur d’attribuer des « subdivisions d'identificateur (ID) SCSI » à un SCSI ID unique. Cela
signifie que l’utilisateur pourrait avoir 7 lecteurs de CD-ROM, tous avec le SCSI ID égale à 5,
chacun ayant un LUN différent (1 à 7) tous sur le même canal SCSI. Cela signifie que sur un
canal SCSI simple avec des SCSI ID de 1 à 7, chaque SCSI ID pourrait avoir 7 LUN, pour un
total de 49 lecteurs de CD-ROM sur un canal SCSI simple. Pour configurer le système de CD-
ROM externe, suivez les instructions d’installation et de configuration du fabricant. Assurez-
vous que le système de CD-ROM externe fonctionne avant de mettre en marche le serveur
réseau.
Le remplacement ou non d’un processeur dans un serveur réseau par un processeur plus
rapide dépend de plusieurs facteurs. Le plus important est le suivant : Est-ce que la carte mère
du serveur réseau supportera un processeur avec une fréquence d'horloge plus élevée ? Les
autres facteurs incluent le type de support du processeur existant utilise et la question est de
savoir si il existe un processeur plus rapide qui utilise le même support (facteur de forme). Les
utilisateurs peuvent obtenir ces informations importantes de mise à jour auprès du fabricant de
la carte mère du serveur réseau. Consulter le site web du fabricant de la carte mère pour voir
si le processeur peut être mis à jour avec un processeur plus rapide. L’utilisateur doit
déterminer s’il existe un processeur plus rapide avec un support compatible avec celui du
processeur existant. La mise à jour vers un processeur plus rapide peut également nécessiter
la mise à jour du BIOS de la carte mère. Voici les étapes nécessaires pour effectuer la mise à
jour d’un unique processeur :
Etape 3 Ouvrez le châssis du serveur réseau (en suivant les meilleures pratiques de
l’ESD)
Etape 7 Vérifiez que le nouveau processeur est reconnu par les composants matériels
du serveur réseau et le système d'exploitation réseau.
Pour ajouter un autre processeur à un serveur apte au mode multi-processeur, Il faut que le
nouveau processeur réponde aux critères suivants :
• Etre du même modèle que le processeur existant ce qui inclu Pentium, Pentium Pro,
Pentium II, Pentium II Xeon, Pentium III, Pentium III Xeon, Pentium 4, etc.
Afin de savoir exactement quel est le processeur présent dans le serveru réseau et que la
mise à niveau soit possible. Intel fournit des informations sur tous ses processeurs sur son site
Internet. Intel propose également un utilitaire qui détecte et identifie le processeur Intel qui se
trouve actuellement dans le seveur réseau.
L'utilitaire d’identification du processeur Intel est disponible dans deux versions. Une
fonctionne sous le système d'exploitation Microsoft Windows et une fonctionne à partir d’une
disquette d’amorçage DOS.
La version Microsoft Windows de l'utilitaire d’identification d’Intel peut être téléchargée à partir
de l’adresse http://support.intel.com/ support/ processors/ tools/ frequencyid/ freqid.htm.
Une étiquette sur le processeur peut également identifier le processeur actuel.. Cette étiquette
contient un nombre à 5 chiffres S-spec qui commence par la lettre « S ». L’utilisateur peut
utiliser ce nombre et le site Internet d’Intel pour identifier le processeur Intel qui se trouve dans
le serveur réseau.
Utilisez le nombre de l'étiquette processeur et le site Internet d’Intel suivants pour identifier le
processeur qui se trouve actuellement dans le serveur du réseau :
Les instructions d’installation devraient être jointe au processeur qui doit être ajouté au serveur
réseau. Les instructions d’installation des processeurs Intel sont également disponibles sur le
site Internet d’Intel.
On peut obtenir les manuels d’installation des processeurs Intel sur le site Internet suivant :
http://support.intel.com/ support/ processors/ manuals/.
Etape 2 Ouvrez le châssis du serveur réseau (en suivant les meilleures pratiques de
l’ESD)
Etape 7 Vérifiez que le nouveau processeur soit reconnu par les composant matériels
du serveur réseau et le système d'exploitation réseau.
Pour avoir des informations sur les processeurs reconnus par la version actuelle de Microsoft
Windows NT Server 4, ouvrez une fenêtre d'invite de commande et tapez la commande
suivante :
SET
Cette commande affiche une liste de toutes les variables d’environnement actuelles. Cherchez
la variable Number_of_processors (Nombre de processeurs ) pour voir combien de
processeurs Microsoft Windows NT Server 4 reconnaît. Le nombre de processeurs peut être
déterminé d’autres manières, mais c’est une des plus faciles.
Pour avoir des informations sur les processeurs reconnus par la version actuelle de Microsoft
Windows 2000 Server, ouvrez une fenêtre d'invite de commande et tapez la commande
suivante :
set
Novell Netware 5
Si l’installation originale de Novell Netware 5 se trouvait un serveur réseau avec un unique
processeur, il faut faire plusieurs changements sur le serveur Novell Netware 5 pour qu’il
reconnaisse et utilise des processeurs multiples. Pour mettre à jour Novell Netware 5 afin qu’il
reconnaisse le processeur supplémentaire, suivez ces étapes :
Etape 1 Chargez NWCONFIG | Multi CPU Options | Select a Platform Support Module
Pour avoir des informations sur les processeurs reconnus par la version actuelle de Novell
Netware 5, utilisez la commande suivante sur la console Netware :
display processors
cat /proc/cpuinfo
La procédure est la même pour toutes les versions d'unités de disques ATA.
Les mises à jour d'unités de disques ATA sont généralement de deux catégories. L'ajout
d'unités de disques et le remplacement d'unités de disques existantes par des unités de
disques plus grandes ou plus rapides.
L'ajout de lecteurs de disques ATA à un sous-système de disque ATA existant est relativement
simple. Les contrôleurs de disques ATA ont généralement deux canaux auxquels les
périphériques ATA tels les unités de disques, les lecteurs CD-ROM, etc. peuvent être reliés.
Chaque canal est constitué d'une nappe qui peut faire jusqu'à 18 pouces (46cm) de long,
auquel un maximum de deux unités de disques peuvent être reliées. Une extrêmité du canal
est reliée au contrôleur de disques ATA, qui peut en fait être intégré à la carte système. Le
canal, constitué d'une nappe à 40 conducteurs est généralement relié à deux connecteurs de
40 broches. Ces connecteurs de 40 broches sont utilisés pour relier les unités de disques ATA
au canal ATA.
Les canaux ATA sont généralement appelés "primaires" et "secondaires" afin que le système
puisse les distinguer. Quand il n'y a qu'une seule unité de disque reliée au contrôleur de
disque ATA, une seconde unité de disque peut être reliée de l'une ou l'autre des manières
suivantes :
• La deuxiéme unité de disque peut être reliée à la même nappe que l'unité de disque
existante en utilisant le second connecteur à 40 broches sur la nappe. Dans ce cas,
une unité de disque doit être configurée pour jouer le rôle du disque ATA maître et
l'autre doit être configurée pour jouer le rôle du disque ATA esclave. Comme
alternative, l'utilisateur peut configurer chaque disque comme étant sélectionné par le
câble (CSEL).
• La deuxiéme unité de disques peut être reliée au canal ATA secondaire en utilisant
une seconde nappe pour le contrôleur ATA. Configurer cet unique disque soit en tant
que disque unique, soit en tant que disque ATA maître en fonction des instructions du
fabricant pour la configuration d'une unité de disque seule sur un canal ATA.
En mettant la deuxième unité de disque ATA sur le canal secondaire, en ayant ainsi une unité
de disque sur chaque canal ATA, la performance du sous-système du disque peut être
améliorée.
La mise à jour du système d'entrée/sortie de base (BIOS) peut être nécessaire lors de la mise
à jour de petites unités de disques ATA en très grandes unités de disques ATA. Voir la section
9.5.2 Mise à jour de l'adaptateur BIOS ou microprogramme pour les détails sur la manière de
mettre à jour le système BIOS. Des systèmes BIOS plus anciens peuvent ne pas avoir la
capacité de gérer tout l'espace sur les très grandes unités de disques ATA. La définition de
"très grand" a changé au fur et à mesure des années. Les différentes définitions de "très
grands" ont été 504 Mo, 1 Go, 2 Go, 4 Go et 8,4 Go. Beaucoup d'entre elles se sont révélées
être des barrières pour l'ATA qui devait être franchies par des BIOS plus récents, meilleurs ou
améliorés.
2. Le remplacement de disques SCSI existant par des lecteurs de disques qui ont une
vitesse de rotation plus élevée.
L'unité de disques SCSI utilisée pour la mise à jour devrait correspondre au disque SCSI
existant selon les critères suivants :
Les périphériques SCSI externes sont généralement connectés au canal SCSI en cascade.
L'ajout d'un périphérique SCSI externe supplémentaire implique la sélection d'un SCSI ID qui
n'est pas déjà utilisé sur le canal SCSI, et l'ajout du périphérique SCSI dans la chaîne.
L'extension excessive du câble SCSI est le plus gros problème rencontré lors de l'ajout d'un
périphérique SCSI externe supplémentaire. Le second problème le plus courant est le
branchement approprié des terminaison aux deux extrêmités du bus SCSI.
Par exemple s'il y a une matrice RAID 5 existante constituée de trois unités de disque et s'il y a
deux nouvelles unités de disque qui doivent être installées et configurées en tant que matrice
RAID 1, la matrice RAID 5 originale ne sera pas affectée. Il n'y aura aucune perte de données
dans la matrice originale. Après avoir installé les deux nouvelles unités de disque, utilisez
l'utilitaire de configuration de la matrice pour initialiser les deux nouvelles unités de disques et
les configurer en tant que matrice RAID 1. Le contrôleur RAID aura alors deux matrices RAID
séparées configurées. Il y a la matrice RAID 5 originale, constitué de trois unités de disque et
la nouvelle matrice RAID 1, constituée de deux unités de disques.
Par exemple s'il y a une matrice RAID 5 existante constituée de trois lecteurs de disques et s'il
y a deux nouvelles unités de disque qui doivent être installées et configurées dans une matrice
RAID 5 en utilisant les cinq unités de disque, l'installateur doit initialiser les cinq unités.
L'installateur peut alors combiner les cinq unités de disque dans une unique matrice RAID 5 en
utilisant la totalité des cinq unités. Cependant, les données qui étaient dans la matrice RAID 5
originale avec les trois unités de disque seront détruites pendant la procédure et devront être
rechargées à partir de la bande de sauvegarde. Le contrôleur aura une matrice RAID 5 unique
constituée des cinq unités de disques.
Il a été dit qu’il n’y a jamais trop de mémoire dans un serveur. Bien que ce soit vrai dans de
nombreux cas, il y a quelques exceptions. Premièrement, l’utilisateur ne peut mettre dans le
serveur du réseau que la quantité de mémoire que sa conception lui permet de contenir. Il y a
toujours une quantité de mémoire maximum que les processeurs et/ou les séries de puces de
contrôle de la carte mère du serveur réseau peuvent supporter. L’autre exception est le fait
d’avoir plus de mémoire que le système d'exploitation du serveur réseau peut utiliser.
Souvenez-vous bien de ces deux exceptions quand vous envisagez de mettre à jour la
mémoire sur le serveur d’un réseau.
• Quel type de modules de mémoire (SIMM, DIMM, RIMM, avec tampon (buffered ou
registered), sans tampon (unbeffered), etc.) est actuellement installé ?
• De quel type de mémoire est le module de mémoire (EDO, DRAM, SDRAM, RDRAM)
utilisé dans le serveur réseau ?
• Quelle méthode de détection d’erreurs est utilisée sur le module de mémoire (parité,
sans parité, ECC, non ECC) ?
Vérifiez que le système d'exploitation du serveur réseau supporte la quantité de mémoire qui
doit être installée. Vérifiez le site Internet de l'éditeur du système d'exploitation du serveur
réseau pour connaître la quantité maximum de mémoire supportée.
Il faut savoir que l’utilisateur peut être amené à enlever les modules de mémoire existants et
les remplacer par des modules de mémoire plus grands pour atteindre la quantité totale de
mémoire nécessaire. Si le serveur réseau n’a que quatre emplacements mémoire et si deux
d’entre eux sont occupés par des modules de mémoire de 64 Mo. Pour atteindre un total de
512 Mo (ce qui, dans cet exemple, demande quatre modules de 128 Mo), il faudrait enlever les
deux modules de mémoire de 64 Mo.
Il existe une autre considération très importante : la gaine en métal sur les fils du module de
mémoire. Deux métaux courants sont utilisés sur les fils du module de mémoire et les
connecteurs dans les connecteurs de mémoire. Ce sont l’étain et l’or. Les deux métaux vont
tout aussi bien. Cependant, ne mélangez jamais les deux métaux (par exemple l’or sur le
module de mémoire et l’étain dans le connecteur ou vice versa). Cette disparité des métaux
provoque de la corrosion sur les points de contact et entraîne une mauvaise connexion de
temps en temps (over time). Cette mauvaise connexion provoque l'apparition d'erreurs
mémoire.
L’installation RIMM ne diffère que légèrement de l’installation DIMM. Tous les connecteurs
mémoire conçus pour utiliser les RIMM doivent être remplis. Si un module réel de mémoire
RIMM n’est pas installé dans un connecteur, un module de continuité doit être installé. Un
module de continuité ne contient pas de mémoire. L’ajout d’un module de mémoire RIMM
implique la suppression d’un module de continuité et son remplacement par un module de
mémoire RIMM. Si les modules de continuité dans les emplacements mémoire ne sont pas
occupées par des RIMM, le serveur réseau peut ne pas se mettre en marche.
Pendant que vous effectuez une mise à jour de mémoire, suivez bien la checklist de mise à
jour.
• Le remplacement de la carte par une carte plus récente, plus rapide ou plus puissante.
Souvent, les cartes du serveur d’un réseau ont de la mémoire embarquée qui peut être mise à
jour. Suivez les instructions du fabricant de la carte pour effectuer la mise à jour de la
mémoire. Les cartes suivantes utilisent de la mémoire embarquée :
La mise à jour du BIOS ou du microprogramme d'une carte d'extension est très semblable à la
mise à jour du BIOS du système. Les étapes sont spécifiques au vendeur.
Les cartes d'extension sont généralement remplacés après qu’elles soient tombées en panne.
La procédure de remplacement comporte généralement plusieurs étapes simples:
Cette procédure nécessite la mise hors tension du serveur réseau. Ceci entraîne un temps
d’arrêt et une perte de productivité. Cependant, une technologie récente connue sous le nom
de PCI hot plug (ou PCI hot swap), permet à l’utilisateur de remplacer, mettre à jour ou ajouter
une carte d'extension sans éteindre le serveur réseau. Le PCI hot plug a trois capacités :
• Permutation à chaud (Hot replacement) – Oter une carte PCI en panne et insérer
une carte identique dans le même emplacement pendant que le serveur du réseau est
opérationnel.
• Mise à niveau à chaud (Hot upgrade) – Remplacer une carte d'extension existante
par une carte mise à jour pendant que le serveur réseau fonctionne.
Pour que le PCI hot plug fonctionne, les composant matériels du serveur réseau, les pilotes de
la carte d'extension et le système d'exploitation du serveur réseau doivent accepter le PCI hot
plug. Les composants matériel du serveur du réseau permettent de supprimer l'alimentation de
l'emplacement individuelles PCI et permettent aux cartes d'extension d'être enlevées et
insérées sans utiliser de tournevis. Sur un bus PCI qui supporte le hot plug, un levier de
déblocage du connecteur remplace l'utilisation d'une vis pour assurer le maintien de la carte
dans son connecteur PCI.
Les étapes suivantes détaillent la manière d'utiliser un PCI hot plug pour ajouter une carte
d'extension:
Etape 6 Appuyez sur le bouton du PCI hot plug. Cela rétabli l'alimentation du
connecteur PCI.
Un périphérique est un dispositif qui ne fait pas partie du système de base de l'ordinateur
(processeur, mémoire et bus de données). Les périphériques peuvent être soit internes au
châssis du serveur, soit externes.
Parmi les périphériques internes, on trouve des composants tels que les unités de disque, les
lecteurs de CD-ROM, les lecteurs de disquettes et les cartes réseau. La mise à jour des unités
de disques (EIDE et SCSI) est expliquée dans la section 9.4.4 dans ce chapitre. Le
remplacement, la mise à jour ou la suppression de périphériques internes comme un lecteur
Si ce ne sont pas des cartes d'extension plug-and-play, il se peut que l'utilisateur soit obligé de
configurer les cartes avec une requète d'interruption (IRQ), un canal d'accès direct à la
mémoire (DMA) et une adresse d'entrée/sortie (I/O). L'IRQ, le DMA et l'adresse I/O ne doivent
pas rentrer en conflit avec une carte d'extension déjà installée dans le serveur réseau. Comme
avec toutes les mises à jour, suivez bien la liste de contrôle de mise à jour.
Les périphériques externes sont des périphériques externes au châssis du serveur (tels que
les imprimantes, les modems, les moniteurs, les claviers et les souris). Les périphériques
externes comme les imprimantes et les moniteurs peuvent être échangeables à chaud. Pour
que d'autres périphériques externes puissent être mis à jour, il peut être nécessaire d'éteindre
le serveur. Suivez les instructions d'installation du fabricant pour les périphériques externes.
Comme avec toutes les mises à jour, suivez bien la liste de contrôle de mise à jour.
Les agents de supervision du système sont des logiciels spécifiques au serveur réseau lui-
même(et fournis par l'éditeur du système d'exploitation de réseau). Ces agents sont
généralement installés par les options de l'installateur lors de l'utilisation de l'assistant
d'installation du système d'exploitation fourni par le vendeur. Comme le vendeur du serveur
édite de nouvelles versions des agents de supervision du système, ceux-ci doivent être mis à
jour. Parce qu'ils sont spécifiques au vendeur, l'utilisateur doit suivre les instructions
d'installation du vendeur pour les mettre à jour. Dans certains cas, ils peuvent annoncer la
panne imminente des composants du serveur (tels que le processeur, la mémoire ou les
unités de disque dur).
Les agents de supervision du système contrôlent différents aspects du serveur, tels que la
configuration, le stockage de masse, la carte réseau, l'utilisation du système, les conditions
thermiques et l'état du système d'exploitation. Les agents utilisent généralement les protocoles
standard comme le HTTP (hypertext transfer protocol), le SNMP (simple network management
protocol) et le DMI (desktop management interface) pour rapporter les informations sur une
console de gestion. La console de gestion peut être un navigateur web standard, par exemple
Netscape ou Internet Explorer, une console de gestion fournie par le vendeur, par exemple
Insight Manager de Compaq, ou une console tierce de gestion de réseau comme OpenView
de Hewlett-Packard.
Comme avec toutes les mises à jour, suivez bien la liste de contrôle de mise à jour.
A cause de la nature plutôt unique des serveurs comparés aux micro-ordinateurs de bureau
standard, une grande variété d'outils de service est parfois nécessaire pour les configurer, les
Les vendeurs de serveurs sortent souvent de nouvelles versions de ces outils pour réparer des
bugs, ajouter de nouvelles caractéristiques ou ajouter un support pour un nouveau
composants matériels à leur utilitaires.
Certains outils de service font partie du système d'exploitation réseau. Les mises à jour de ces
outils sont disponibles auprès de l'éditeur du système d'exploitation du serveur.
Ces outils mis à jour sont généralement disponibles sur soit des CD-ROM fournis par le
fabricant du réseau ou à partir du site Internet du fabricant. Après avoir récupéré les outils mis
à jour, suivez les instructions d'installation du vendeur pour les installer sur le serveur. Comme
avec toutes les mises à jour, suivez bien la liste de contrôle de mise à jour.
La mise à jour des outils de service est généralement une opération de mise à jour de
logicielle. Il faut tout de même suivre la liste de contrôle de mise à jour.
La mise à jour des fonctions sur la partition de diagnostic, qui est seulement disponible au
moment de l’amorçage du serveur réseau, oblige généralement l’utilisateur à éteindre le
serveur. Cela signifie que l’utilisateur doit planifier un temps d’arrêt pour mettre à jour les
fonctions du logiciel sur la partition de diagnostic.
La plupart des outils de service sont répartis dans les catégories suivantes :
Pour être un bon administrateur, il est très important de documenter les problèmes et les
procédures pour les réparer. La raison pour laquelle une bonne documentation est nécessaire
est la suivante : Si un problème survient plus d’une fois, l’utilisateur peut chercher comment le
réparer et éviter ainsi d’appliquer deux fois une même méthode qui ne marche pas. Puis cela
économisera le temps de réparation et l’utilisateur pourra remettre le serveur en fonction
beaucoup plus rapidement.
Un réseau est un système reliant des objets ou des gens. L’exemple le plus commun d’un
réseau est le système téléphonique qui est largement connu comme le réseau public de
téléphone commuté (RPTC). Le RPTC permet à des gens, virtuellement aux quatre coins du
monde, de communiquer avec quiconque ayant accès à un téléphone.
Il est important de comprendre que les réseaux comportent plusieurs couches. Un réseau
consiste en de nombreuses couches superposées, telles que les systèmes de câblage, de
schémas d’adresses et des applications. Les couches travaillent ensemble pour transmettre et
recevoir les données. L’Interconnection de Système Ouvert (OSI pour Open System
Interconnection), est le modèle de référence, qui a été créé pour définir ces mutiples couches.
Le modèle de référence OSI et les différents moyens au travers desquels les ordinateurs
peuvent être connectés dans le but de partager des ressources, seront abordés plus tard dans
ce chapitre.
Les services de fichiers réseaux permettent une collaboration dans le développement des
documents et des projets. Chaque membre d’une équipe de projet peut contribuer à un
document ou à un projet, grâce à un service de fichiers réseaux partagés. De plus, les
services de fichiers réseaux peuvent permettre la distribution à temps des fichiers clé, à un
groupe d’utilisateurs, qui sont intéressés par ces informations. Enfin, les gens qui sont séparés
géographiquement, peuvent partager des jeux et des loisirs.
Tous les systèmes d'exploitation réseau offrent des services de fichiers et d'impression. Le
partage des informations, la collaboration à des projets, et l’accès aux appareils d’entrée et de
sortie sont des services communs aux réseaux informatiques. En plus de partager des
informations et des appareils spéciaux, les utilisateurs du réseau peuvent partager des
applications, telles que des programmes de traitement de texte, qui sont installés sur le
serveur. Les utilisateurs peuvent utiliser les applications partagées, à partir d’un serveur, sans
utiliser de l’espace sur leur disque dur local, pour les fichiers du programme.
Note : Bien que certaines applications soient accessibles et éxécutables à travers le réseau,
sans installer le programme sur la machine locale, ceci ne fonctionne pas pour toutes les
applications. De nombreuses applications Windows doivent écrire les informations de
configuration dans le Registre (une base de données hiérarchiques dans laquelle les
informations de configuration sont sauvegardées sur les PC individuels). Dans ce cas, le
programme d’installation doit être éxécuté, sur chaque machine, mais les fichiers programmes
peuvent être installés sur l'unité réseau. Cette action économise de l’espace sur le disque du
poste de travail.
Dès leur apparition, les réseaux informatiques ont permis aux utilisateurs de communiquer par
courrier électroniques (e-mail). Les services de courrier électronique fonctionnent comme le
service postal, avec un ordinateur assurant la fonction de bureau de poste. Le compte de
messagerie de l'utilisateur fonctionne comme une boîte au lettre, où le courrier est conservé
pour l’utilisateur, jusqu’à ce qu’il soit récupéré à travers le réseau, grâce à un logiciel client de
messagerie fonctionnant sur le système de l’utilisateur. Le courrier électronique est envoyé à
partir d’un ordinateur, à un serveur de messagerie, qui agit comme un bureau de poste. Le
serveur garde le message jusqu’à ce que le client destinataire le récupère.
Une adresse de messagerie électronique est constituée de deux parties. La première partie
est le nom du destinataire et la seconde le nom du domaine. Le symbole @ sépare ces deux
parties. Un exemple d’adresse de messagerie est « user@cisco.com ». Le destinataire prévu
est « user » et le nom du domaine est « cisco.com ». Le nom du domaine est utilisé pour
délivrer le courrier électronique au serveur approprié. Les applications de messagerie telles
que Microsoft Outlook, Eudora, Netscape Composer et Pegasus, peuvent être différentes,
mais elles peuvent toutes reconnaître le format standard de courrier électronique.
Le courrier électronqiue reste la seule fonction la plus utilisée des réseaux informatiques, dans
de nombreuses parties du monde.
Les systèmes de messagerie ont évolué avec les technologies réseaux. La croissance rapide
d’Internet a permis à de plus en plus de gens de se connecter en ligne. Ceci permet une
communication immédiate entre les utilisateurs du réseau. La nature asynchrone du système
de courrier électronique n’exige pas que le destinataire soit connecté, lorsque le message lui
est envoyé. Les destinataires peuvent récupérer leur courrier électronique plus tard.
Un autre avantage important des réseaux inclu leur capacité à trouver des ressources et des
appareils quelque soit l’endroit où ils sont situés. Pour permettre aux utilisateurs et aux
systèmes sur le réseau de trouver les services qu’ils demandent, les réseaux informatiques
Les services de noms et d'annuaires rendent le réseau plus facile à utiliser. Il est plus facile de
travailler avec des services et d'autres entités lorsqu'elles ont des noms. Les services
d'annuaires et de noms sur le réseau, peuvent traduire ces noms en adresses, utilisées pour
communiquer avec le service désiré. Après l’installation initiale du service de noms et
d'annuaire, cette traduction a lieu de façon transparente. En plus de leur facilité d’utilisation, ils
rendent aussi le réseau plus flexible. Les concepteurs et les administrateurs du réseau
peuvent situer ou déplacer des fichiers, imprimantes ou autres services, avec la garantie que
les utilisateurs peuvent encore les localiser par leur nom.
10.1.5 Internet
Internet est un ensemble de réseaux publics à l'échelle mondiale, reliant des milliers de
réseaux plus petits, pour former un large réseau de communications. De nombreux réseaux
privés, dont certains ont des milliers d’utilisateurs à leur actif, se connectent à Internet en
utilisant les services des fournisseurs d'accès à Internet. (FAI soit ISP en anglais)
Conseil de test : Un FAI est un service qui permet aux utilisateurs de se connecter à Internet.
Par exemple, les utilisateurs s’inscrivent à un FAI et composent son numéro. C’est à travers le
FAI que les utilisateurs se connectent à Internet.
Ces liaisons permettent l’accès longue distance aux services du réseau, pour partager des
informations et des équipements.
Internet fonctionne comme une autoroute, pour faciliter les échanges entre les utilisateurs
séparés géographiquement, les organisations et les succursales des entreprises. L’expression
« les autoroutes de l’information » décrit l’avantage d’Internet pour les communications
commerciales et privées. Internet anéanti les barrières du temps et de l’espace.
Lorsque les affaires et les individus deviennent plus dépendants des réseaux informatiques,
pour leurs activités quotidiennes, il est important que ces réseaux fonctionnent pour livrer les
services que les utilisateurs attendent. Même après que les ingénieurs aient fini la conception
et l’installation d’un nouveau réseau, ce dernier demande de l’attention et de la gestion, pour
donner un niveau correct de service, à ses utilisateurs. Les réseaux informatiques sont
dynamiques, ils changent et s’accroissent, en réponse aux nouvelles technologies, et aux
exigences de l’utilisateur.
La tâche assurée par l’administration réseau est de maintenir et d’adapter le réseau aux
changements de situation. Cette tâche appartient aux administrateurs réseaux et au personnel
support. Les responsabilités de l’administrateur réseaux comprennent :
Un canal de données, sur laquelle un signal est envoyé, peut fonctionner selon un des trois
modes: simplex, semi duplex et duplex intégral (souvent appelé duplex). La distinction se fait
dans la façon dont le signal peut voyager.
Transmission simplex
La transmission simplex est une transmission par une seule bande de transmission. La
transmission simplex, comme son nom l’indique, est simple. Elle est aussi appelée
unidirectionnelle, parce que le signal voyage dans une seule direction. Un exemple de
transmission simplex est le signal envoyé à partir d’un central télédiffusion à un poste de
télévision.
Des applications actuelles de circuits simplex sont rares. Cependant elles peuvent comprendre
des imprimantes distantes, des lecteurs de cartes, et quelques systèmes d’alarme et de
sécurité (alarmes d’incendie et de fumées). Ce type de transmission n’est pas fréquemment
utilisé, parce que ce n’est pas un mode pratique de transmission. Le seul avantage de la
transmission simplex est qu’elle est bon marché.
Transmission Half-Duplex
La transmission half-duplex est une amélioration de la simplex parce que le trafic peut voyager
dans deux directions. Malheureusement, la route n’est pas assez large pour accepter les
signaux bidirectionnels de façon simultanée. Ceci signifie que seulement un côté peut
transmettre à un moment. Les radios à deux voies, telles que les radios mobiles de
communication pour les urgences et la police, travaillent avec des transmissions en half-
duplex. Lorsqu’on presse le bouton sur le microphone pour une transmission, on n’entend rien
de ce qui peut être dit à l’autre bout. Si les gens essaient de parler des deux côtés en même
temps, la transmission ne s’effectuera pas.
NOTE : les modems sont des appareils semi duplex. Ils peuvent envoyer et recevoir, mais pas
en même temps. Cependant, il est possible de créer une connexion modem duplex intégral,
avec deux lignes de téléphones et deux modems.
La technologie réseau duplex intégral augmente les performances, parce que les données
peuvent être envoyées et reçues en même temps. La ligne abonné numérique (DSL), le
modem câble à deux voies, et d’autres technologies de diffusion, fonctionnent en mode duplex
intégral. Avec la technologie DSL, par exemple, les utilisateurs peuvent charger des données
sur leur ordinateur, en même temps qu’ils envoient un message vocal sur la ligne.
10.2.1 Généralités
En utilisant les technologies de réseau local (LAN) et de réseau étendu (WAN), de nombreux
ordinateurs sont interconnectés pour fournir des services à leurs utilisateurs. En apportant ces
services, les ordinateurs en réseau ont des fonctions et des rôles différents les uns par rapport
aux autres. Certains types d’applications demandent aux ordinateurs de fonctionner comme
partenaires égaux. Certains types d’applications distribuent le travail, de façon à ce qu’un
ordinateur soit au service d’autres ordinateurs, dans une relation inégale. Dans l’un ou l’autre
cas, deux ordinateurs communiquent l'un avec l'autre, en utilisant des protocoles de requête
ou de réponse. Un ordinateur formule une demande de service, et un second ordinateur reçoit
et répond à cette demande. Le demandeur a un rôle de client, et le répondeur a un rôle de
serveur.
Dans un réseau poste à poste, les ordinateurs en réseaux agissent comme des partenaires
égaux, ou des pairs, de l’un à l’autre. Comme des pairs, chaque ordinateur peut assurer la
fonction client, ou la fonction serveur, de façon alternative. A un moment, le poste de travail A,
par exemple, peut demander un fichier au poste de travail B, qui répond en fournissant le
fichier au poste de travail A. Le poste de travail A fonctionne comme un client, pendant que le
poste de travail B fonctionne comme un serveur. Plus tard, les postes de travail A et B peuvent
inverser leurs rôles. Le poste de travail B peut être le client, en faisant une demande au poste
de travail A, et le poste de travail A, en tant que serveur, répond à la demande du poste de
travail B. Les postes de travail A et B se trouvent dans une relation de réciprocité, ou d'égal à
égal.
Dans un réseau poste à poste, les utilisateurs individuels contrôlent leurs propres ressources.
Ils peuvent décider de partager certains fichiers avec d’autres utilisateurs, et peuvent
demander des mots de passe, avant qu’ils permettent aux autres d’accéder à leurs
ressources. Puisque les utilisateurs individuels prennent ces décisions, il n’y a pas de point
central de contrôle ou d’administration dans le réseau. De plus, les utilisateurs individuels
doivent sauvegarder leurs propres systèmes, pour être capable de faire une restauration de
données en cas de pannes. Lorsqu’un ordinateur agit comme un serveur, l’utilisateur d’une
telle machine peut être confronté à une réduction des performances, quand la machine traite
les demandes faites par les autres systèmes.
Les réseaux par pairs sont faciles à installer et à faire fonctionner. Aucun équipement
supplémentaire n’est nécessaire, autre qu'un système d'exploitation adapté dans chaque
ordinateur. Puisque les utilisateurs contrôlent leurs propres ressources, aucun administrateur
dédié n’est nécessaire. Un réseau poste à poste fonctionne bien avec un petit nombre
d’ordinateurs de l'ordre de dix ou moins.
Dans une disposition réseau client/serveur, les services réseaux sont situés sur un ordinateur
dédié, dont la seule fonction est de répondre aux demandes des clients. Le serveur dispose
des fichiers, des imprimantes, des applications, de la sécurité et des autres services dans un
ordinateur central, qui est continuellement disponible pour répondre aux demandes du client.
La plupart des systèmes d'exploitation réseaux utilise une relation de type client/serveur. Les
postes de travail fonctionnent comme des clients, et un ou plusieurs ordinateurs, avec une
mémoire, une puissance de calcul supplémentaire, et des logiciels spécialisés fonctionnent
comme des serveurs.
Les serveurs sont conçus pour traiter les demandes de nombreux clients simultanément.
Avant qu’un client ait accès aux ressources du serveur, le client doit fournir son identité et
avoir l’autorisation d’utiliser la ressource. D’habitude, ceci est fait en attribuant à chaque
utilisateur, un nom de connexion et un mot de passe. Un serveur d’authentification spécialisé
agit comme un point d’entrée, surveille l’accès au réseau, et vérifie ces codes de connexion.
En centralisant les codes de connexion des utilisateurs, la sécurité et le contrôle d’accès, les
réseaux possédant des serveurs centraux simplifient le travail de l’administration réseau.
La concentration de ressources réseaux telles que les fichiers, les imprimantes et les
applications sur serveur, rend plus facile la sauvegarde et la maintenance des données qu'ils
générent. Plutôt que d’avoir toutes ces ressources éparpillées sur toutes les machines
individuelles, elles peuvent être situées sur des serveurs dédiés spécialisés, pour un meilleur
accès. La plupart des systèmes clients/serveurs comprennent aussi des fonctionnalités pour
améliorer le réseau, en ajoutant de nouveaux services, qui augmentent la facilité d'utilisation
du réseau.
Un réseau local (LAN) peut connecter de nombreux ordinateurs, dans une zone géographique
relativement petite, telle qu’une maison, un bureau ou un campus. Il permet aux utilisateurs
d’accéder à un média à débit élevé comme Internet, et permet aux utilisateurs de partager des
équipements tels que des imprimantes.
Un réseau local connecte les ordinateurs les uns aux autres, en utilisant un canal de
communication séparé. Une connexion directe d’un ordinateur à un autre, est appelée un lien
point à point (ou poste à poste). Si le réseau était conçu en utilisant des liens point à point, le
A la fin des années 1960 et au début des années 1970, les ingénieurs réseaux ont conçu une
nouvelle forme de réseau. Celle-ci permettait à de nombreux ordinateurs dans une petite zone
géographique, de partager un canal unique de communications, en l’utilisant chacun à leur
tour. Ces réseaux locaux connectent maintenant plus d’ordinateurs, que n’importe quel autre
type de réseau. En permettant aux ordinateurs de partager un canal de communications, les
réseaux locaux réduisent considérablement le coût du réseau. Pour des raisons économiques
et techniques, les liens point à point sur de plus longues distances sont alors utilisés pour
connecter des ordinateurs et des réseaux, dans des villes séparées et même à travers des
continents.
La forme et la configuration générales d'un réseau local est appelé sa topologie. Topologie
signifie la structure du réseau. Ceci comprend la topologie physique qui est la configuration du
câble et du média, et la topologie logique qui est la façon dont le média est accessible par les
hôtes.
Lorsque tous les ordinateurs se connectent à un point central, le réseau assure une topologie
en étoile. Une topologie alternative connecte les ordinateurs dans une boucle fermée. Ici, le
câble est contrôlé d’un ordinateur à l'autre, et ensuite du second à son voisin, jusqu’à ce que le
dernier soit connecté au premier. Cette forme est une topologie en anneau. Une troisième
topologie appelée bus, connecte chaque ordinateur à un unique et long câble. Chaque
topologie a ses avantages et ses inconvénients. Aujourd’hui, la plupart des réseaux locaux
sont conçus en utilisant une topologie en étoile, bien que les configurations en anneau et bus
soient encore utilisées dans certaines installations.
Quelque soit la configuration ou la topologie du réseau, tous les réseaux locaux demandent
aux ordinateurs en réseaux, de partager le canal de communications, qui les relie. Le canal de
communications qu’ils partagent tous, est appelé le medium, et c’est généralement un câble
qui transporte les signaux électriques à travers le cuivre. Cependant il peut s’agir d’un câble de
Sur un réseau local, les règles pour coordonner l’utilisation du medium sont appelées Contrôle
d'Accès Media (MAC pour Media Access Control). Puisqu’il y a de nombreux ordinateurs sur le
réseau, mais seulement un seul d’entre eux peut utiliser le medium à ce moment-là, il doit y
avoir certaines règles pour décider comment ils se succèderont, dans le partage du réseau. La
couche liaison de données fournit un transport fiable à travers un lien physique, en utilisant
l’adresse MAC. S’il y a des conflits lorsque plus d’un ordinateur se disputent le média, les
règles garantissent qu’il existe une méthode d’accord pour résoudre le conflit. Dans les
sections suivantes de ce chapitre, les principaux types de réseaux locaux seront revues, y
compris les règles de partage du medium.
Pour des raisons techniques et économiques, les réseaux locaux ne sont pas appropriées aux
communications longues distances. Sur un réseau local, les utilisateurs doivent coordonner
leur utilisation du réseau, et cette coordination prend du temps. Sur de longues distances avec
des retards importants dans les communications, les ordinateurs prendraient plus de temps à
coordonner l’utilisation du medium partagé, et moins de temps à envoyer les messages de
données. De plus, les coûts pour obtenir un medium haute vitesse sur de longues distances,
sont beaucoup plus importants que dans le cas des réseaux locaux. Pour ces raisons, les
technologies des réseaux étendus (WAN pour Wide Area Network) sont différentes de celles
des réseaux locaux.
Un WAN, comme son nom l’indique, est conçu pour travailler sur une plus grande étendue
qu'un réseau local.
Un WAN utilise des lignes point à point, des lignes point à multipoint, ou des lignes de
communications en série. Les lignes point à point relient seulement deux emplacements, un
de chaque côté de la ligne. Les lignes point à multipoint relient un emplacement d’un côté de la
ligne, à de nombreux emplacements de l’autre côté. Les lignes en série sont appelées ainsi
parce que les bits de communication sont transmis les uns après les autres, en série, comme
les voitures voyageant sur une seule voie d’autoroute.
Ce qui suit sont quelques unes des technologies WAN les plus communes :
• Modems
• Réseaux Numériques à Intégration de Services ou RNIS (ISDN en anglais)
• Ligne Abonné Numérique (DSL)
• Relais de trame (Frame Relay)
• Mode de Transfert Asynchrone (ATM)
• Les ligne de transport T (US), E (Europe) T1, E1, T3, E3
• Réseau Optique Synchrone (SONET)
Les individus et les entreprises ne construisent pas leurs propres connexions WAN. Les règles
du gouvernement permettent seulement aux entreprises concessionnaires, d’installer des
lignes dans le domaine publique. Ainsi, les connexions étendues emploient des équipements
de communication mis en place par des entreprises concessionnaires, appelés fournisseurs
de transport, tels que les entreprises de téléphone.
Dans les deux cas temporaires et permanents, les ordinateurs qui relient des circuits sur une
zone étendue, doivent utiliser des équipements spéciaux appelés modems, ou unité de service
de canal / ou unité de service de données (CSU – DSU) à chaque extrémité de la connexion.
NOTE : l’unité de service de canal / unité de service de données (CSU / DSU) est l'association
de deux équipements de communication qui relient une ligne intérieure à un circuit numérique
externe (T1, DDS, etc). C’est la même chose qu’un modem, mais elle relie un circuit
numérique plutôt qu’un circuit analogique.
Les modems sont nécessaires parce que les signaux électriques qui transportent les données
digitales informatiques, doivent être transformés ou modulés, avant qu’ils ne soient transmis
sur les lignes téléphoniques. A l’autre bout de la connexion, un modem (modulateur,
démodulateur) transforme les signaux informatiques en signaux téléphoniques. A la réception,
la transformation est faite à partir du téléphone jusqu’aux signaux informatiques. Le modem
n’est qu’un moyen de relier des ordinateurs ou des équipements similaires, de façon à ce qu’ils
puissent communiquer sur de longues distances. D’autres technologies plus rapides
comprennent le RNIS (ISDN), le relais de trame (Frame Relay) et l’ATM.
En général, les réseaux étendus relient moins d’ordinateurs que les réseaux locaux, et
normalement agissent à des vitesses plus basses que les réseaux locaux. Les réseaux
étendus cependant, fournissent le moyen de connecter de simples ordinateurs et de nombreux
réseaux locaux sur de longues distances. Ainsi, ils permettent aux réseaux de s’étendre à des
pays entiers, et même au monde entier.
Si le même numéro est appelé demain, du même endroit que l’appel lancé aujourd’hui, le trajet
ne serait probablement pas le même. Le circuit est créé par une série d’interrupteurs, qui
utilisent des chemins réseaux couramment disponibles, pour mettre en place des appels d'un
bout à l'autre. Ceci explique pourquoi l'appelant peut avoir un communication net un jour et
une communication brouillée un autre. Ceci démontre qu’une connexion à commutatoin de
circuit est une liaison de bout en bout ou point à point.
La commutation de paquet est comparable aux gens voyageant avec leur véhicule personnel.
Le groupe est divisé en composants individuels, tout comme les communications de données
qui sont divisées en paquets. Certains voyageurs peuvent prendre des autoroutes inter état, et
d’autres peuvent prendre les itinéraires bis. Certains peuvent conduire tout droit, et d’autres
peuvent prendre des détours. Dans tous les cas, ils arrivent à la même destination. Le groupe
est récupéré en entier, tout comme les paquets qui sont ré-assemblés, au point d'arrivée de la
communication.
Une carte réseau est un équipement qui s'insère dans la carte mère, et fournit les ports pour
les connexions par cable du réseau. C’est l’interface informatique avec le réseau local. La
carte réseau communique avec le réseau à travers des connexions série, et communique
avec l’ordinateur à travers des connexions parallèles.
Il y a plusieurs considérations importantes, que l’on doit garder à l’esprit, lorsqu’on sélectionne
une carte réseau à utiliser sur le réseau:
• Le type de réseau - les carte réseau sont conçues pour les réseaux locaux Ethernet,
Token Ring, Interface de Données Distribuées sur Fibre (FDDI), etc. Une carte réseau
Ethernet ne fonctionnera pas avec Token Ring et vice versa.
• Le type bus de système - le type de carte réseau demandé sur le réseau peut
déterminer l’exigence du bus système dans l’appareil. Un connecteur PCI est plus
rapide que l’ISA. On recommande que le PCI soit utilisé avec les cartes FDDI,
puisqu’un bus ISA ne prendra pas en charge la vitesse demandée.
Une carte réseau est installée dans l’ordinateur dans un connecteur d’extension. Les cartes
réseaux requièrent un numéro de requète d'interruption (IRQ), une adresse d'entrée/sortie
(I/O), et de l’espace mémoire pour les pilotes du système d'exploitation, dans le but de réaliser
leurs fonctions. De nouvelles cartes réseaux sont plug-and play, rendant l’installation plus
facile. Une fois installée et l’ordinateur allumé, le système détectera automatiquement le
nouveau matériel, installera le pliote et déterminera l’IRQ, l’adresse E/S, et l’espace mémoire.
Dans une réseau TCP/IP (Transmission Control Protocol/Internet Protocol), les PC utilisent les
adresses IP pour s’identifier. Ces adresses permettent aux ordinateurs, qui sont connectés au
réseau de se situer. Une adresse IP est un numéro binaire à 32 bits. Ce numéro binaire est
divisé en 4 groupes de 8 bits, connus sous le nom d’octets, où chacun est représenté par un
nombre décimal, dans une gamme allant de 0 à 255. Les octets sont séparés par des points
décimaux. La combinaison 90. 100. 5. 54 est un exemple d’adresse IP. Cette adresse est
décrite comme une représentation décimale discontinue. Chaque équipement sur le réseau
qui a une adresse, est connu sous le nom d'hôte ou de nœud.
Les adresses IP pour les hôtes sur un réseau local sont attribuées de deux façons :
La liste des paramètre d'adresses suivantes est nécessaire pour se connecter à un réseau
• Une adresse IP
• Un masque de sous-réseau
S’il y a plus d'un faible nombre d’ordinateurs, configurer manuellement les adresses TCP / IP
pour chaque hôte du réseau peut être un processus consommateur de temps. Ceci demande
également à l’administrateur, qui attribue l’adresse, qu'il comprenne l'adressage IP, et sache
comment choisir une adresse valide, pour le réseau concerné. L’adresse IP qui est entrée, est
unique pour chaque hôte, et réside dans le pilote logiciel de la carte réseau. Elle est différente
de l’adresse MAC, qui réside dans les composants matériel de la carte réseau. La façon
d’adresser TCP/IP ne fait pas partie des objectifs de ce cours. L’adresse de routeur par défaut
sera abordée plus tard dans ce chapitre.
Le moyen le plus répandu et le plus efficace pour les ordinateurs sur un grand réseau, pour
obtenir une adresse IP, est de passer par un serveur DHCP. Le DHCP est une service logiciel
qui est géré par un ordinateur et conçu pour attribuer des adresses IP aux PC. L’ordinateur
gérant ce service logiciel est connu sous le nom de serveur DHCP. Les serveurs DHCP gèrent
les adresses IP, et les informations de configuration TCP/IP des ordinateurs, qui sont
configurés en tant que clients DHCP. Le processus dynamique élimine la nécessité d’attribuer
des adresses IP manuellement. Cependant, tout équipement demandant une adresse IP
statique ou permanente, doit resté avec une adresse IP attribuée manuellement.
Lorsque le serveur DHCP reçoit une demande d’un hôte, il choisit les informations de l’adresse
IP, à partir d’un ensemble d’adresses prédéfinies, qui sont stockées dans sa base de données.
Une fois qu’il a choisi les informations IP, il offre ces valeurs à l’équipement demandeur sur le
réseau. Si l’équipement accepte l’offre, le serveur DHCP louera les informations IP à
l’équipement pour une durée déterminée.
Les informations d'adressage IP qu’un serveur DHCP peut donner aux hôtes, qui démarrent
sur le réseau, comprennent entre autre les informations suivantes :
• Une adresse IP
Un ordinateur situé sur un segment de réseau, qui essaie de parler avec un autre ordinateur à
travers un routeur, envoie les données au routeur par défaut. Ce routeur par défaut
correspond à l'adresse de l'interface réseau du routeur connecté du coté du segment ou du
câble de l'hôte émetteur. Pour que chaque ordinateur reconnaisse son routeur par défaut,
l’adresse IP de l'interface du routeur correspondante doit être entrée dans la boîte de dialogue
des propriétés TCP/IP de l'hôte. Ces informations sont stockées dans la configuration logicielle
de la carte réseau.
Si un réseau local est d'une taille important ou s’il est connecté à Internet, un défi est souvent
présent, mémoriser les adresses IP des hôtes. La plupart des hôtes sont identifiés sur
Internet, par des noms d'ordinateurs facile à retenir, connus sous l'appélation noms de
domaine. Le Système de Nom de Domaine (DNS), est utilisé pour traduire des noms
d'ordinateur, tels que cisco.com en une adresse IP unique correspondante. Le logiciel DNS
fonctionnant sur un ordinateur, qui agit en tant que serveur réseau, pour réaliser les
traductions d’adresses. Le logiciel DNS peut être hébergé sur le réseau lui-même, ou par un
fournisseur de services Internet (ISP). Les traductions d’adresses sont employées à chaque
fois qu’un accès à Internet est réalisé. Le processus de traduction des noms en adresses est
connu sous le terme de résolution de nom.
Le serveur DNS garde des enregistrements qui cartographient les noms d'ordinateur des
hôtes, et leurs adresses IP correspondantes. Ces types d’enregistrement sont tous combinés
dans une table DNS. Quand un nom d’hôte a besoin d’être traduit en adresse IP, le client
contacte le serveur DNS. Une hiérarchie des serveurs DNS existe sur Internet. Différents
serveurs gèrent les informations DNS pour leurs propre périmètres d'autorité, appelées zones.
Si le serveur DNS consulté par un ordinateur n’a pas de la correspondance IP pour le nom
d’hôte recherché, il transmettra la requète à un autre serveur DNS, jusqu’à ce que l’information
soit obtenu.
Le DNS n’est pas une exigence absolue pour communiquer sur Internet, mais sans lui, toutes
les communications doivent utiliser des adresses IP, au lieu de noms d’hôtes. Il est plus facile
pour la plupart des gens de se rappeler « cisco.com » que 198.133.219.25.
Pour que les ordinateurs sur le réseau local aient accès et utilisent les services du DNS,
l’adresse IP du serveur DNS doit être entrée dans la boîte de dialogue des Propriétés TCP/IP,
tout comme l’adresse IP et le masque de sous-réseau.
La topologie réseau définit la façon selon laquelle les ordinateurs, les imprimantes et autres
équipements sont connectés. Une topologie réseau décrit la mise en place du câble et des
équipements, tout comme les itinéraires employés par les transmissions de données. La
topologie a beaucoup d’influence sur la façon dont le réseau fonctionne.
Les sections suivantes aborderont les différents types de topologie, comprenant le bus, l’étoile,
l’étoile étendue, l’anneau, le maillage et l’hybride. Les topologies physiques et logiques d’un
réseau seront également abordées.
Topologie en bus
Faisant communément référence à un bus linéaire, tous les équipements d’une topologie bus
sont reliés par un unique câble. Ce câble va d’un ordinateur à l’autre, comme un couloir de bus
traversant une ville. Le câble du segment principal doit se terminer par un terminateur, qui
absorbe le signal quand il atteint le bout du câble ou de la ligne. S’il n’y a pas de terminateur, le
signal électrique représentant les données, est réfléchit vers l'autre bout du câble, causant des
erreurs dans le réseau. Seulement un paquet de données peut être transmis à un moment
donné. Si plusieurs paquets sont transmis, ils entrent en collision et doivent être renvoyés. Une
topologie bus avec de nombreux hôtes peut être très lente, à cause de ces collisions. Cette
topologie est rarement utilisée, et serait uniquement adaptable pour un bureau personnel, ou
une petite entreprise avec très peu d’hôtes.
Topologie en étoile
La topologie en étoile est l’architecture la plus communément utilisée, dans les réseaux locaux
Ethernet. Lorsqu’elle est installée, la topologie en étoile ressemble aux rayons d’une roue de
bicyclette. Elle est constituée d’un point de connexion central, qui est un appareil tel que : un
concentrateur, un commutateur, un routeur, où tous les segments de câblage se rencontrent.
Chaque hôte du réseau est connecté à l’équipement central, avec son propre câble.
Une topologie en étoile revient plus cher à mettre en place, que la topologie bus. Parce que
plus de câbles sont utilisés, et un équipement central est nécessaire tel qu’un concentrateur,
un commutateur ou un routeur. Cependant, les avantages d’une topologie en étoile
compensent le coût supplémentaire. Puisque chaque hôte est connecté à un appareil central,
avec son propre câble, s’il existe un problème avec ce câble, seulement cet hôte là sera
affecté. Le reste du réseau est opérationnel. L’avantage est extrêmement important. C’est la
raison pour laquelle pratiquement chaque nouveau réseau est conçu selon cette topologie.
Topologie en anneau
La topologie en anneau est une autre topologie importante dans la connectivité des réseaux
locaux. Il est important de connaître les avantages et les inconvénients, quand on choisit une
topologie en anneau. Comme son nom l’indique, les hôtes sont liés sous la forme d’un anneau
1. Un anneau simple- tous les équipements du réseau partagent un unique câble, et les
données voyagent dans une seule direction. Chaque équipement attend son tour, pour
envoyer les données sur le réseau. Un exemple est la Topologie Token Ring.
La mise en place la plus commune de la topologie en anneau sont les réseaux Token Ring. Le
standard 802.5 de l’institut des ingénieurs en électrique et en électronique (IEEE) utilise la
méthode d’accès Token Ring. Le FDDI est une technologie identique à Token Ring, mais qui
utilise de la lumière à la place de l’électricité, pour transmettre les données. Il utilise l’anneau
double.
Topologie maillée
La topologie maillée relie tous les équipements (nœuds) les uns aux autres pour la
redondance et la tolérance de panne. Elle est utilisée dans les réseaux étendus (WAN) pour
relier les réseaux locaux (LAN) et pour les réseaux dont la mission est critique, comme ceux
utilisés par les gouvernements. La mise en place de la topologie maillée est chère et difficile.
Topologie hybride
La topologie hybride combine plus d’un type de topologie. Lorsqu’un bus joint deux
concentrateurs de topologies différentes, cette configuration est appelée bus étoilé. Les
entreprises et les écoles qui ont différents bâtiments, comme des campus, utilisent parfois
cette topologie. Un bus est employé pour transférer les données entre les topologies en étoile.
• Topologie logique - fait référence aux itinéraires pris par les signaux d’un point à un
autre du réseau. C’est la façon dont les données ont accès au média et transmettent
les paquets à travers celui-ci.
Un réseau peut aussi avoir des topologies physiques et logiques assez différentes. Par
exemple, une topologie physique de la forme d’une étoile, peut en fait avoir une topologie
logique en anneau. Rappelez-vous que dans un anneau, les données voyagent d’un ordinateur
à l’autre. C’est parce qu’à l’intérieur du concentrateur, les connexions câblées sont telles que
le signal voyage de façon circulaire d’un port à l’autre, créant un anneau logique. La façon dont
les données voyagent dans le réseau ne peut pas toujours être prédite, en observant
seulement sa mise en oeuvre physique.
Comme pour Ethernet et Token Ring, Token Ring utilise une topologie anneau logique, qu’il
s’agisse d’un anneau physique ou d’une étoile physique. Ethernet utilise une topologie bus
logique dans le cas d’un bus physique ou d’une étoile physique.
Toutes ces topologies abordées ci-dessus peuvent être à la fois physique et logique, à
l'exception de la topologie logique étoile qui n’existe pas.
Les médias réseaux peuvent être définis simplement comme les moyens par lesquels les
signaux (données) sont envoyés d’un ordinateur à un autre. Cela peut être réalisé au moyen
de câbles, soit sans fil. Il y a une grande variété de média réseau sur le marché. Cette section
abordera brièvement quelques uns des types de média disponibles. Certains types utilisent du
cuivre (câbles coaxiale ou à paire torsadée) pour transmettre des données. D'autres utilisent
du verre (fibre optique) pour transmettre. Et d'autres utilisent des ondes, dans les technologies
sans-fil, pour transmettre des données.
Câble coaxial
Un câble coaxial est un câble en cuivre, entouré d’une solide protection. Il est utilisé pour relier
des ordinateurs dans un réseau. Il y a plusieurs types de câble coaxial, comprenant le coaxial
épais (thichnet), le coaxial fin (thinnet), le RG-59 (câble standard pour télévision câblée) et le
RG–6 (utilisé dans la distribution vidéo). Le coaxial épais a un diamètre important, rigide et
donc difficile à installer. De plus, le taux de transmission maximum est de seulement 50 Mbps,
beaucoup moins que la paire torsadée ou une fibre optique, et à sa longueur maximum est de
500 m. Une version plus fine, connue sous le nom de coaxial fin ou cheapernet (réseau moins
cher), est utilisé occasionnellement dans les réseaux Ethernet. Le coaxial fin a le même taux
de transmission que le coaxial épais.
• Le câblage STP combine les techniques d’annulation et la torsion des câbles avec un
blindage. Chaque paire de câbles est enveloppée dans une feuille de métal pour
protèger les câbles du bruit. Les quatre paires de câbles sont ensuite enveloppées
dans une tresse ou feuille métallique. Le STP réduit le bruit électrique et la diaphonie à
l'intérieur du câble. Il réduit également le bruit électrique, le couplage
élecromagnétique (EMI) et les interférences radio-fréquence (RFI).
• Le câble UTP est utilisé dans différents réseaux. Il a deux ou quatre paires de câbles.
Ce type de câble repose seulement sur l’effet d’annulation produit par les paires de
câbles torsadées, pour limiter la dégradation des signaux, causée par le EMI et le RFI.
L’UTP est le câblage le plus couramment utilisé dans les réseaux Ethernet.
Hiérachie de catégorie
L’UTP existe dans plusieurs catégories qui sont basées sur un nombre de câbles et un
nombre de torsades dans ces câbles. La catégorie 3 est le câblage utilisé pour les connexions
téléphoniques. Elle a quatre paires de câbles et un taux de transfert de données maximum de
16 Mbps. Les catégories 5 et 5e sont les câbles les plus couramment utilisés avec Ethernet.
Elles ont quatre paires de câbles, avec un taux de transfert de données maximum de 100
Mbps. La catégorie 5e a plus de torsades par pied que le câblage de la catégorie 5. De plus,
ces torsades supplémentaires empêchent les interférences des sources extérieures et des
autres fils à l’intérieur du câble.
La dernière est la catégorie 6. Elle est identique à la catégorie 5 et 5e, sauf qu’un diviseur
plastique sépare les paires de câbles pour empêcher la diaphonie. Les paires ont également
plus de torsades que le câble de la catégorie 5e.
EIA/TIA-232
L'EIA/TIA-232 est un standard pour la transmission en série entre les ordinateurs et d'autres
équipements comme les modems, les souris, etc. Il supporte une connexion point-à-point sur
un simple câble en cuivre, donc seulement deux appareils peuvent être reliés. Virtuellement,
chaque ordinateur a un port série EIA/TIA-232. Les modems, les moniteurs, les souris et
imprimantes en série sont conçus pour être reliés au port EIA/TIA-232. Ce port est également
utilisé pour relier les modems au téléphone. Il existe deux types de connecteurs, un
Un autre limitation du taux de transfert est due au potentiel de diaphonie entre les lignes de
signaux du câble très élevé.
Le EIA/TIA-232 est encore le standard le plus utilisé dans les communications en série. Le
RS-422 et le RS-423 sont supposés le remplacer prochainement. Les deux supportent des
taux de transfert de données plus élevées, et ont une plus grande immunité face aux
interférences électrique.
Sans fil
Parfois le coût de mise en place des câbles est trop élevé ou les ordinateurs ont besoin d’être
mobiles sans être attachés aux câbles. Alors le sans fil est une méthode alternative pour se
Les équipements réseaux sont utilisés pour relier des ordinateurs et des équipements
périphériques, de façon à ce qu’ils puissent communiquer. Ceci inclut les concentrateurs, les
ponts et les commutateurs, comme détaillé dans les sections suivantes :
L’arrivée des données sur les câbles vers un port du concentrateur est propagée de façon
électrique, sur tous les autres ports qui sont connectés au même réseau local Ethernet. Cela
se produit sauf pour le port sur lequel les données ont été reçues. Les concentrateurs sont
appelés ainsi parce qu’ils servent de point central de connexion pour un réseau local Ethernet.
Les concentrateurs sont les plus utilisés dans les réseaux Ethernet 10BASE-T ou 100 BASE-
T, bien qu’il y ait d’autres architectures réseaux les utilisant.
Un commutateur est parfois décrit comme un pont multi-port. Un pont classique peut n’avoir
que deux ports, liant deux systèmes sur le même réseau. Les commutateurs ont plusieurs
ports, dépendant du nombre de réseaux qui doivent être liés. Un commutateur est un
équipement plus sophistiqué qu’un pont, bien que la fonction de base d'un commutateur soit
toute simple. On doit choisir un port pour réémettre les données vers sa destination. Les
commutateurs d’Ethernet deviennent des solutions de connexions populaires, parce que
comme les ponts, ils augmentent les performances du réseau en vitesse et en bande
passante.
Les composants du serveur sont ces composants qui sont utilisés exclusivement avec un
serveur réseau. Les utilisateurs finaux dépendent du serveur pour leur fournir les services
demandés. Pour que le serveur continue à fonctionner à sa performance optimale, un plus
haut niveau de maintenance préventive doit être assuré.
Contrôleur vidéo
Un contrôleur vidéo n’a pas besoin de supporter de hautes résolutions vidéo sur le serveur
réseau. Un contrôleur vidéo qui peut supporter une résolution de 1024 par 768 et 65000
couleurs devrait être suffisant pour la plupart des serveurs réseaux.
Moniteur vidéo
Un moniteur vidéo pour un serveur réseau devrait supporter une résolution vidéo de 800 par
600 ou plus. Un moniteur vidéo de grande taille (21 pouces) peut être utile sur un serveur
réseau. Un écran à cristaux liquides (LCD) peut aussi être utilisé comme moniteur d'un
serveur réseau. Si le moniteur vidéo va être installé dans une armoire serveur, le moniteur
devra être physiquement assez petit pour être compatible avec l'armoire. La taille maximum
pour un moniteur vidéo qui va dans une armoire serveur est d’environ 15 pouces.
Modem
Il peut être nécessaire d'installer un ou plusieurs modems sur le serveur réseau, en fonction
du rôle qu’ils joueront dans le réseau. Par exemple, un serveur d’accès distant nécessitera un
ou plusieurs modems pour supporter l’accès au réseau par liaison téléphonique. Pour mettre
en place un serveur fax, un ou plusieurs modems fax (qui diffèrent des modems de données),
doivent être installés dans le serveur réseau..
Ventilateur de refroidissement
Garder l’intérieur du châssis du serveur relativement frais, est d’une importance majeure. Si
les composants à l’intérieur du châssis du serveur deviennent trop chauds, ils auraient
tendance à tomber en panne. Les composants matériels du serveur ont des ventilateurs de
refroidissement pour permettre la circulation de l’air autour des composants. Si vous n’avez
qu’un seul ventilateur de refroidissement et qu’il tombe en panne, l’intérieur du châssis du
serveur surchauffera, et le serveur tombera en panne. De nombreux fabricants de matériel
offre la capacité d’ajouter un ventilateur de refroidissement redondant, qui est substitué à
chaud en cas de panne du ventilateur de refroidissement normal.
Des ventilateurs de refroidissement devraient également être placés dans les armoires de
serveur réseau, pour apporter une ventilation correcte et garder les appareils réseaux dans le
casier, aussi frais que possible. La plupart des serveurs réseaux qui sont conçus pour être
L'Alimentation électrique
Les composants du serveur peuvent avoir plusieurs alimentations échangeables pour la
redondance. Avoir deux ou même trois alimentations permet aux alimentations d’équilibrer la
charge électrique. Si une alimentation tombe en panne, l’autre alimentation peut et traitera la
totalité de la charge électrique. L’alimentation en panne peut être remplacée avec une nouvelle
alimentation, sans arrêter le serveur.
Le casier de serveur
Les serveurs réseaux peuvent être achetés dans un châssis, qui peut être installé dans un
casier standard d’équipement de 19 pouces. Cela permet d'économiser de la place dans le
local serveur.
Lorsqu’il arrive qu'un écran vidéo soit utilisé dans un casier, il y a plusieurs options. Un écran
vidéo cathodique standard de 15 pouces peut être installé sur une étagère dans l'armoire. Un
moniteur supérieur à 15 pouces est habituellement trop large pour rentrer dans une armoire.
Il y a également les combinaisons écran LCD / clavier, qui sont disponibles pour les armoires.
L’écran LCD se replie et glisse dans le casier quand il n’est pas en fonction. La combinaison
écran LCD / clavier mesure deux unités de casier en hauteur.
Gestion du câblage
Avec plusieurs serveurs réseaux et d’autres équipements dans l'armoire, la gestion des
différents câbles devient critique. Aussi, les équipements qui sont généralement installés dans
une armoire, peuvent être retirés de leur casier pour un entretien, tout comme un tiroir peut
être retiré d’un meuble. Un serveur réseau peut être sortie de son casier sans déconnecter
tous les câbles des composants en fonctionnement (réseau, alimentation, vidéo, souris,
clavier, etc.). Cela est réalisé par des bras pivotants de gestion des câbles attachés au serveur
réseau à une extrémité, et au casier à l’autre extrémité.
10.5.1 Ethernet
10BASE-T
Actuellement, le 10BASE-T est une des implémentations les plus populaires d’Ethernet. Il
utilise une topologie étoile. Le 10 correspond à la vitesse de transmission classique 10 Mbps,
le BASE correspond au mode bande de base, et le T correspond au câblage en paire
torsadée. Le terme câble Ethernet est utilisé pour décrire le câblage en paire torsadée non
blindé (UTP), qui est généralement utilisée dans cette architecture. La paire torsadée blindée
(STP) peut être également utilisée. 10BASE-T et la version plus récente 100BASE-X, rendent
les réseaux faciles à installer et à étendre. Les avantages du 10BASE-T sont les suivants:
• les réseaux basés sur les spécifications 10BASE-T sont relativement bon marché.
Bien qu’un concentrateur soit requis pour connecter plus de deux ordinateurs, de petits
concentrateurs sont disponibles à un coût modéré. Les cartes réseaux 10BASE-T sont
bon marché et disponibles partout.
• Le câblage à paire torsadée, en particulier l’UTP le plus employé, est fin, flexible et
facile d’utilisation, plus que le coaxial. Il utilise les branchements et les fiches
modulaires RJ-45, il est donc facile de connecter le câble à la carte réseau, ou au
concentrateur.
• La longueur maximum d'un segment est seulement de 100 mètres soit environ 328
pieds.
• Le câble UTP utilisé dans ce type de réseau est plus vulnérable aux IEM et à
l'atténuation que les autres types de câbles.
Les demandes de bande passante élevée de nombreuses applications modernes, telles que
les conférences vidéo en direct, et la transmission audio, ont créé un besoin de vitesse. De
nombreux réseaux demandent plus de transmissions que ce qu’il est possible de faire avec
Ethernet 10 Mbps. C’est là où le 100BASE-X également appelé Ethernet Rapide, devient
important.
100BASE-X
Le 100BASE-X est l’évolution suivant le 10BASE-T. Il est disponible dans différentes variétés.
Il peut être mis en place sur l’UTP de catégorie 3 ; 4 ; 5 à 4 paires (100BASE-T). Il peut
également être mis en place sur l’UTP ou le STP de catégorie 5 à 2 paires (100BASE-X), ou
comme Ethernet sur un câble à fibre optique à 2 brins (100BASE-FX).Les avantages du
100BASE-X sont les suivants:
• Parce qu’il utilise du câble à paire torsadée, le 100BASE-X partage également les
mêmes avantages appréciés du 10BASE-T. Ceci comprend un faible coût, de la
flexibilité, et de la facilité de mise en place et d’extension.
• Le 100BASE-X partages les inconvénients inhérents au câble à paire torsadé tel que
la sensibilité au IEM et l'atténuation.
• Les cartes réseaux 100 Mbps et les concentrateurs sont généralement sensiblement
plus chers que ceux conçus pour les réseaux 10 Mbps, mais les prix ont baissés et le
100BASE-X a gagné en popularité.
• La fibre optique reste une option de câblage chère, pas tellement à cause du prix du
câble lui-même, mais plus à cause de la formation et de l'expertise nécessaire à son
installation.
1000BASE-T
Le 1000BASE-T est plus connu sous le nom d’Ethernet Gigabit. L’architecture 1000BASE-T
supporte des taux de transfert de données de 1 Gbps, qui est incroyablement rapide. Ethernet
Gigabit est pour la plupart, une architecture LAN, bien que sa mise en place sur du câble en
fibre optique le rende adaptable pour les réseaux de taille métropolitaine (MAN). Le plus grand
avantage du 1000BASE-T est ses performances. A 1Gbps, il est dix fois plus rapide que le
Fast Ethernet et 100 fois plus rapide que le l'Ethernet standard. Cela permet la mise en place
d'applications à utilisation massive de bande passante, telle que la vidéo temps réel au travers
d'un intranet. Le principal inconvénient du 1000BASE-T est commun à tous les réseaux UTP,
comme détaillé dans les paragraphes sur le 10BASE-t et le 100BASE-T.
Les normes Token Ring sont définies dans l'IEEE 802.5. C’est le premier exemple d’une
architecture dont la topologie physique et logique sont différentes. La topologie de Token Ring
se réfère à un anneau câblé en étoile, parce que l’apparence externe de la conception du
réseau est une étoile. Les ordinateurs se connectent à un concentrateur central, appelé unité
d’accès multi station (MSAU). A l’intérieur de l’appareil, cependant, le câblage forme un circuit
de données circulaire, créant un anneau logique.
Token Ring est ainsi nommé à cause de sa topologie logique, et de sa méthode de contrôle
d’accès aux médias, du passage du jeton. Le taux de transfert pour Token Ring peut être soit
de 4 Mbps, soit de 16 Mbps.
Token Ring est une architecture de transmission en bande de base, qui utilise des signaux
numériques. Ainsi, il ressemble à Ethernet, mais le processus de communication est différent
dans beaucoup d’aspects. Token Ring est une topologie active. Quand le signal voyage autour
du cercle vers chaque carte réseau, il est régénéré avant d’être envoyé vers la destination
suivante.
Le moniteur de l’anneau
Dans un réseau Token Ring, le premier ordinateur qui démarre devient « le moniteur », il doit
se rappeler combien de fois la trame fait le tour de l’anneau. Il a la responsabilité d’assurer
qu’un seul jeton circule sur le réseau, à un moment donné.
L’ordinateur moniteur envoie périodiquement un signal appelé jeton qui circule autour de
l’anneau. Chaque ordinateur sur le réseau cherche le jeton.
Si un ordinateur ne reçoit pas le jeton de son voisin actif de transmission le plus proche
(NAUN), quand il est attendu, il met un message sur le réseau qui notifie à l’ordinateur
moniteur, que le jeton n’a pas été reçue, en accord avec sa propre adresse et celle du NAUN,
qui n’a pas réussi à l’envoyer quand on l’espérait. Dans la plupart des cas, ceci provoquera
une reconfiguration automatique, qui restaure les communications.
L’Interface de Données Distribuées par Fibre (FDDI) est un type de réseau en anneau à jeton.
Sa mise en place et sa topologie diffère de l’architecture LAN Token Ring d’IBM, que le IEEE
802.5 définit. Le FDDI est souvent utilisé pour les réseaux métropolitains (MAN) ou les grands
réseaux locaux, tels que ceux reliant plusieurs immeubles, dans un ensemble de bureaux ou
un campus. Les MAN franchissent normalement une zone métropolitaine.
Comme son nom l’indique, le FDDI utilise un câble de fibre optique. Il combine une
performance de haute vitesse et les avantages d’une topologie d’anneau à jeton. Le FDDI
fonctionne à 100 Mbps, et sa topologie est un anneau double. L’anneau extérieur est appelé
l’anneau primaire, et l’anneau intérieur est appelé anneau secondaire.
Normalement, le trafic circule uniquement sur l’anneau primaire. En cas de panne, les
données naviguent automatiquement sur l’anneau secondaire, dans la direction opposée.
Quand ceci se passe, on dit du réseau qu’il est dans un état rebouclé. Ceci apporte une
tolérance de panne pour la liaison.
Un anneau double du FDDI supporte un maximum de 500 nœuds par anneau. La distance
totale du câble de l’anneau, est de 100 kilomètres ou 62 miles. Un répéteur (appareil qui
recrée les signaux) est nécessaire tous les deux kilomètres, c’est pourquoi le FDDI n’est pas
considéré comme une liaison WAN.
Les spécifications décrites ci-dessus font référence à un FDDI, qui est mis en place sur un
câble de fibre optique. Il est également possible d’utiliser la technologie FDDI avec un câblage
en cuivre. Ceci est appelé une Interface de Données Distribuées par Cuivre (CDDI). Les
distances maximums pour le CDDI sont beaucoup plus petites que celles du FDDI.
Avantages du FDDI
Le FDDI combine les avantages de la transmission par passage du jeton sur la topologie
anneau, avec la haute vitesse de la transmission par fibre optique. La topologie de l’anneau
double apporte de la redondance et de la tolérance de panne. Le câble de fibre optique n’est
pas sensible aux EMI et au bruit, et il est beaucoup plus sûr que le câble en cuivre. Il peut
envoyer des données sur de plus grandes distances entre les répéteurs, qu’Ethernet et le
Token Ring traditionnel.
Il existe 7 couches dans le modèle de référence OSI. Chaque couche fournit des services
spécifiques, aux couches du dessus, et en dessous d'elle, dans le but que le réseau
fonctionne de façon efficace. En haut du modèle, il y a l’interface d’application (couche), qui
permet une utilisation facilitée d'applications, comme le traitement de texte et les navigateurs
sur le web. En bas, il y a la partie physique du réseau. La partie physique comprend le câblage
(abordé ci-dessus dans ce chapitre), les concentrateurs, et les autres composants matériels
du réseau.
A l’inverse, à l’extrémité réceptrice, les entêtes sont retirés du message, au fur et à mesure
qu'il remonte les couches correspondantes et arrive à sa destination. Le processus
d'encapsulation des données lors de l’envoi et de désencapsulation des données lors de la
réception, est la fonction du modèle OSI.
La communication à travers les couches du modèle de référence est rendue possible, par les
programmes des logiciels réseaux spéciaux, appelés protocoles. Les protocoles sont abordés
dans les sections qui suivent. On attendait de l’OSI qu’il soit un modèle pour le développement
des protocoles réseaux. Cependant, la plupart des protocoles utilisés sur des LAN ne
correspondent pas nécessairement, de façon exacte, à ces couches. Certains protocoles
tombent pile aux frontières entre ces couches, tandis que d’autres les franchissent ou offrent
des services qui dépassent ou couvrent plusieurs couches. Ceci explique la signification de «
référence », qui est utilisée conjointement avec le modèle de référence OSI.
Les sections suivantes aborderont des exemples de protocoles réseaux, mentionnés dans
cette section.
Un protocole est une séquence contrôlée de messages, qui sont échangés entre deux ou
plusieurs systèmes, pour accomplir une tâche donnée. Les spécifications du protocole
définissent cette séquence ainsi que le format ou l'agencement des messages, qui sont
échangés. Les protocoles utilisent des structures de contrôle dans chaque système, pour
coordonner l’échange des informations entre les systèmes. Ils agissent comme un ensemble
d’outils imbriqués. Les ordinateurs peuvent suivre, de façon précise, les points de connexion
du protocole, au fur et à mesure qu’ils traversent les séquences des échanges. Le temps est
crucial dans le fonctionnement des réseaux. Les protocoles nécessitent que les messages
arrivent avant un certain intervalle de temps, donc les systèmes gèrent un ou plusieurs
chronomètres, pendant le fonctionnement du protocole. Ils prennent également des mesures
alternatives, si le réseau ne respecte pas les règles temporelles. Pour faire leur travail, de
nombreux protocoles dépendent du fonctionnement d’autres protocoles du groupe, ou de la
suite de protocoles. Les fonctions des protocoles sont les suivantes :
La suite de protocole TCP/IP est devenue la norme standard pour l’interconnexion de réseau.
TCP/IP a été défini à l’origine par les chercheurs du Département de la Défense (DoD) aux
Etats-Unis. TCP / IP représente un ensemble de normes publiques, qui définissent comment
les paquets d'informations sont échangés entre les ordinateurs, sur un ou plusieurs réseaux.
Protocoles d’application
La couche d’application est la quatrième couche dans le modèle TCP/IP. Elle apporte le point
de départ pour toute session de communication.
• Telnet – Telnet permet un accès en mode terminal aux systèmes locaux ou éloignés.
L’application Telnet est utilisée lors de l'accès aux équipements éloignés pour la
configuration, le contrôle et le dépannage.
• File Transfer Protocol (FTP) – le FTP est une application qui apporte des services
pour le transfert et la manipulation de fichiers. Le FTP utilise la couche session, pour
permettre de multiples connexions simultanées à des systèmes de fichiers éloignés.
Protocoles de transport
La couche de transport est la troisième couche du modèle TCP / IP. Elle apporte une gestion
de bout en bout de la session de communications.
• User Datagram Protocol (UDP) – UDP offre un service sans connexion aux
applications. UDP utilise une entête plus petite que celle de TCP, et peut accepter un
niveau de perte de données. Les applications de gestion de réseau, le système de
fichier réseau et le transport de fichier simple, utilisent UDP. Comme TCP, UDP
identifie les applications par un numéro de port.
• Internet Protocol (IP) – IP fournit une adresse source et une adresse de destination.
En combinaison avec les protocoles de routage, IP fournit un itinéraire d'un réseau à
un autre pour atteindre une destination.
• Internet Control Message Protocol (ICMP) – ICMP est utilisé pour tester le réseau et
le dépannage. Il permet un diagnostic et des messages d’erreur. Les messages
d’écho d’ICMP sont utilisés par l’application PING, pour tester si un équipement
éloigné est susceptible d’être atteint.
• Routing Information Protocol (RIP) – RIP agit entre les équipements routeur, pour
découvrir les itinéraires entre les réseaux. Dans un intranet, les routeurs dépendent
d’un protocole de routage pour construire et maintenir les informations sur la façon de
diriger les paquets vers leur destination. RIP choisit des itinéraires basés sur la
distance ou le nombre de saut.
• Address Resolution Protocol (ARP) – ARP est utilisé pour découvrir l’adresse locale
(adresse MAC), d’une station sur le réseau, quand son adresse IP est connue. Les
stations d'extrémités comme les routeurs utilisent ARP, pour découvrir les adresses
locales.
Des exemples classiques de quelques éléments des protocoles inclus dans la suite de
protocole Novell IPX/SPX, sont les suivants :
Les détails du rôle et des fonctions joués par ces éléments de protocoles en réseaux et
l'interconnexion de réseaux, ne fait pas partie de l’objectif de ce cours.
L’Interface Etendue de l’Utilisateur NetBIOS (NetBEUI) est un protocole utilisé au départ sur
de petits réseaux Windows NT. Il a été utilisé au début, comme le protocole de réseau par
défaut, avec Windows 3.11, (Windows pour Groupes de Travail) et LAN Manager. NetBEUI a
un entête très petit, mais ne peut pas être routé ou utilisé par les routeurs pour dialoguer sur
un réseau de grande taille. NetBEUI est un protocole simple qui manque de nombreuses
fonctionnalités, qui permettent aux suites de protocoles, tels que TCP/IP d’être utilisées sur
des réseaux de presque toutes les tailles.
NetBEUI ne peut pas être utilisé dans la construction de grands réseaux ou connecter
plusieurs réseaux ensemble. Il est cependant adapté pour de petits réseaux poste à poste,
incluant quelques ordinateurs directement connectés entre eux. Il peut être utilisé en
combinaison avec un autre protocole routable, tel que le TCP/IP. Ceci donne à l’administrateur
réseau les avantages d’une haute performance de NetBEUI, au sein d’un réseau local et de
communiquer au-delà du LAN avec TCP/IP.
Appletalk est une suite de protocole pour les ordinateurs réseaux Macintosh.Elle comprend un
ensemble de protocoles, qui couvrent les sept couches du modèle de référence OSI. Les
• AppleTalk Data Stream Protocol (ADSP) : le protocole de gestion des flux de données
Les détails d’utilisation de ces éléments du protocole ne font pas partie du sujet de ce cours.
Comme Novell, la société Apple Computer a également développé sa suite de protocole
propriétaire pour mettre en réseau les ordinateurs Macintosh. Comme Novell encore, il y a un
nombre significatif de clients qui utilisent AppleTalk pour relier leurs systèmes. Mais tout
comme d’autres entreprises qui sont passées à l’utilisation de TCP/IP, Apple intègre
maintenant entièrement les normes de protocole de réseau public.
• Netstat et tpcon
• Nbtstat
Les différents constructeurs ont pu donner des noms différents aux utilitaires qui assurent les
mêmes fonctions. La façon dont ces utilitaires sont utilisées dans le dépannage logiciel sont
traités plus loin dans un chapitre.
Ping est un utilitaire simple mais extrêmement utile de la ligne de commande qui est inclus
dans la plupart des implémentations de TCP/IP. Ping peut être utilisé soit avec le nom d'hôte
soit avec l'adresse IP pour tester la connectivité IP. Ping réalise l'envoie d'une requête d'écho
ICMP à l'ordinateur destination. L'ordinateur récepteur répond alors par un message ICMP
d'écho.
Il est aussi possible d'utiliser ping pour trouver l'adresse IP d'un hôte dont on connaît le nom.
Si la commande ping apple.com est tapée, l'adresse IP de celui qui a répondu est affichée.
Le Protocole de Résolution d’Adresse (ARP) est le moyen par lequel les ordinateurs réseaux
font correspondre les adresses IP avec les adresses matérielles (MAC), qui sont reconnues
dans un réseau local. L’ARP construit et maintient un tableau appelé le cache ARP, qui
contient ces tableaux (adresse IP vers l’adresse MAC). Le cache ARP est le moyen par lequel
une corrélation est maintenue entre chaque adresse MAC, et l'adresse IP correspondante.
L’ARP fournit les règles de protocole pour réaliser cette corrélation, et permet la conversion
d’adresse dans les deux sens.
Il y a plusieurs options qui peuvent être employées avec la commande ARP, et qui sont les
suivants :
Il existe d’autres options incluses dans des implémentations de l'ARP spécifiques à certains
éditeurs.
Note: ARP fait correspondre des adresses IP avec des adresses MAC. RARP est le contraire
de ARP. Il fait correspondre des adresses MAC avec des adresses IP.
NSLOOKUP.EXE
Un autre utilitaire NSLOOKUP, renvoie l’adresse IP pour un nom d’hôte donné. Il fera
également l’inverse, et trouvera le nom d’hôte pour une adresse IP spécifiée. Par exemple,
entrer « cisco.com » donnerait 198.133.219.25, qui est l’adresse IP de Cisco.
Il est souvent utile de voir les statistiques réseaux. La commande netstat est utilisée sous
Windows et UNIX / Linux pour afficher les connexions TCP/IP et les informations des
protocoles. Novell utilise le module NLM (Novell Loadable Module) tpcon pour accomplir cela.
La commande netstat donne une liste des connexions qui sont actives actuellement. Les
statistiques de netstat peuvent être utiles pour le dépannage de problèmes de connexion
TCP/IP. Ces rapports d’erreur sont surtout nécessaires pour le diagnostic matériel et les
problèmes de routage.
10.7.5 Nbtstat
La pile TCP/IP de Microsoft intégrée aux systèmes d'exploitation Windows fournit l’utilitaire
nbtstat, qui est utilisé pour afficher les informations NetBIOS.
Les utilitaires de configuration peuvent fournir une grande quantité d’informations comprenant
l’adresse IP, adresses MAC, la masque de sous-réseau, et la passerelle par défaut. Les
utilitaires peuvent afficher les adresses des serveurs DNS et WINS, les informations DHCP, et
les services disponibles. Il y a une variété d'option disponibles dépendant de l'éditeur et de
l’utilitaire concerné.
Il est souvent utile de tracer l’itinéraire qu’un paquet emprunte pour voyager d’un ordinateur
source à un hôte de destination. Les piles TCP/IP comprennent une utilitaire de détermination
d’itinéraire, qui permet aux utilisateurs d’identifier les routeurs à travers lesquels le message
passe. Les options suivantes dépendent du système d’exploitation :
• tracert – Windows
Ces trois utilitaires, tracert, iptrace, et traceroute, peuvent être utilisés pour suivre un
paquet. Le facteur déterminant est le système d’exploitation ou l’environnement logiciel.
Les lignes séries qui sont établies sur un câblage série se connectent sur les ports de
communication standard EIA/TIA-232 (RS-232 ou COM) de l’ordinateur. La transmission série
envoie des données un bit à la fois. On peut d'abord l'illustrer par une voiture sur une autoroute
à une seule voie. Les signaux numériques et analogiques dépendent des changements d’état,
les modulations, pour représenter les données binaires réelles. Pour bien interpréter les
signaux, l’appareil réseau récepteur doit savoir précisément quand mesurer le signal. Ainsi, la
mesure du temps devient très importante dans le réseau. En fait, le plus gros problème avec
l’envoi des données sur les lignes séries, reste la transmission de bit de données
synchronisés. Deux techniques sont utilisées pour apporter une synchronisation correcte aux
transferts série :
• Transmission série synchrone - les bits de données sont envoyés avec un signal
d'horloge de synchronisation. Dans cette méthode de transmission, un mécanisme de
synchronisation intégré à la transmission coordonne les horloges des appareils
• Transmission série asynchrone - les bits de données sont envoyés sans un signal
d'horloge de synchronisation. Cette méthode de transmission utilise un bit de départ,
au début de chaque message. Les espaces entre les données indiquent le départ et
l’arrêt des bits. Quand l’appareil récepteur reçoit le bit de départ, il peut synchroniser
son horloge interne avec l’horloge émettrice.
Les ports série des PC et la plupart des modems analogiques utilisent la méthode de
communication asynchrone, pendant que les modems numériques (également appelés
adaptateurs terminaux) et les adaptateurs LAN utilisent la méthode synchrone. La norme
industrielle pour l’interface de ligne série est l’Association de l’Industrie Electronique (EIA) RS-
232C.
Les fabricants de PC et de modems ont développé des équipements à un seul composant qui
fourni toutes les fonctions, qui sont nécessaires pour réaliser les transferts série. Ces
équipements sont appelés Transmetteurs / Emetteurs Asynchrones Universels (UART). Les
équipements synchrones sont connus sous l'appélation Transmetteurs / Récepteurs
Synchrones Universels (USART), et peuvent traiter aussi bien les transmissions synchrones et
asynchrones.
Le modem est un appareil électronique qui est utilisé pour les communications informatiques à
travers les lignes de téléphone. Il permet le transfert des données d’un ordinateur à un autre.
Les UART convertissent les données organisées en octets en flux série de bits. Les blocs de
données sont traités par le logiciel. Les modems internes combinent un UART et un modem
sur la même carte. Les modems convertissent les données numériques en signaux
analogiques, et les signaux analogiques en données numériques. Le terme modem dérive en
fait de la fonction de l’appareil. Le processus de conversion des signaux analogiques en
signaux numériques, et vice versa est appelé modulation / démodulation (d’où le terme
modem). La transmission basée sur le modem est très satisfaisante, malgré le fait que les
lignes téléphoniques peuvent être assez brouillées, étant donné les craquements, les parasites
et autres problèmes.
● Carte d'extension - c’est le type le plus répandu. Ils se branchent dans les slots
d’extension de la carte mère (ISA ou PCI) et sont appelés modems internes.
● PCMCIA - ces modems sont une variation de modem qui sont conçus pour une
installation facile dans les ordinateurs portables. Aussi connu sous l'appellation PC
cards, ils ressemblent à des cartes de crédit, sont petits et très maniables.
● Les modems externes - ils peuvent être utilisés avec n’importe quel ordinateur. Leur
connexion dépend du modem utilisé. Les modems externes utilisés pour des
connexions par liaison téléphonique commutée se branchent sur un port série (COM1
ou COM2). Les modems externes utilisés pour les connexions DSL ou câble sont
généralement connectés en USB ou par l'intermédiaire de la carte réseau à l'arrière du
PC.
Les modems externes sont un peu plus chers que les modèles internes. Les brancher sur un
des ports série les connectera à l’ordinateur. Le boîtier de l’ordinateur n'a pas besoin d'être
ouvert. Les nouveaux modems USB sont branchés sur un port ou un concentrateur USB. Un
modem externe utilise l'IRQ et l'adresse E/S, assignées au port série. Un voyant d'état sur le
modem indique si le modem est en ligne ou pas. Les logiciels doivent être installés pour que le
modem puisse fonctionner correctement.
Dans la plupart des types de modem actuels, une ligne téléphonique est branchée sur une
prise de téléphone standard RJ-11. D’autres types de modem et d’équipements, tels que le
modem câble et DSL, seront abordés dans une prochaine section.
Quand les ordinateurs utilisent le système de téléphone public pour communiquer, on appelle
cela le DUN (DUN pour Dial-Up Networking). Les ordinateurs sont capables de se connecter à
un réseau téléphonique en utilisant des modems. Les modems communiquent entre eux en
utilisant des signaux de tonalité audio, ce qui signifie qu’ils sont capables simuler les
caractéristiques de numérotation d’un téléphone. Le DUN va établir la connexion, quand un
ordinateur fonctionnant sous Windows 95 ou une version plus récente, et un modem utilisé
pour le relier à un réseau WAN ou LAN. Le DUN crée en fait une connexion avec le protocole
point à point (PPP) entre les deux ordinateurs au travers d'une ligne téléphonique. Dans ce
processus, PPP fait en sorte que le modem fonctionne comme une carte interface réseau.
PPP est un protocole WAN qui transporte le protocole de réseau en cours d'utilisation (TCP/IP,
IPX/SPX, ou NetBEUI) sur une ligne téléphonique pour permettre une activité réseau, entre les
PC connectés.
Le modem doit agir dans deux des états suivants pour permettre le DUN :
• Etat en ligne - dans cet état, le modem transfère les données entre la machine hôte et
un ordinateur distant via le système téléphonique.
Trois activités apparaissent pendant les états de commande locale et en ligne. Ceci inclu la
numérotation, l’échange de données et la réponse. Le modem bascule normalement entre les
deux états. Cela se produit, par exemple, quand le système lui demande de se mettre en ligne
et de composer le numéro d'une autre unité, ou si le modem reçoit un appel.
Les commandes AT
Tous les modems nécessitent un logiciel pour contrôler la session de communication.
L’ensemble des commandes que la plupart des logiciels de modem utilisent, sont connus
comme un ensemble de commandes compatibles Hayes. Elles ont été nommés d'après la
société Hayes Microcomputer Products Company, qui les a définis en premier. L’ensemble de
commandes Hayes est basé sur un groupe d’instructions, qui commencent toujours par un
ensemble de caractères spécifiques (AT), suivi par des caractères de commande. Puisque
ces caractères sont toujours une part importante d’une commande Hayes, l’ensemble des
commandes sont généralement désignés comme le jeu de commandes AT.
Dit simplement, les commandes AT sont des commandes de contrôle pour modem. Le jeu de
commandes AT est utilisé pour composer un numéro, décrocher, redémarrer et d’autres
instructions pour le modem. La plupart des manuels utilisateurs fourni avec les modems,
contient une liste complète de l’ensemble des commandes AT. Il s’agit juste d’un résumé de la
plupart des commandes AT utilisées. Notez que le code standard compatible Hayes pour
composer est le ATDxxxxxxx. D’habitude, il n’y a aucun espace dans une chaîne AT. Si un
espace est inséré, la plupart des modems l’ignoreront. Le « x » correspond au numéro
composé. Il y aura 10 chiffres pour un appel local, et 14 chiffres pour un appel longue distance,
00+ l’indicatif + le numéro de téléphone. Un W indique que le modem attendra, par exemple
lorsqu’on compose un 9 pour une ligne extérieure , qu'une tonalité soit établie avant de
continuer. Parfois, un T est ajouté pour signifier un numérotation à fréquence vocale quand on
compose un numéro, ou un P est ajouté pour signifier une numérotation à impulsion quand on
compose un numéro.
Les services d'un Fournisseur d'accès Internet (FAI) sont nécessaires pour naviguer sur
Internet.
La connexion à Internet se fait par paliers. Ceci signifie que le FAI peut se relier à un FAI
régional plus grand. Qui à son tour, peut se connecter à un nombre de centres informatiques
nationaux. Ainsi, en étant simplement assis devant un ordinateur, et en naviguant sur Internet,
on peut bénéficier de centaines ou même de milliers d’ordinateurs reliés en réseau. Ceci
permet un accès à toutes sortes de documents, de télécharger de la musique, et des vidéos
partout dans le monde.
En se connectant à un FAI, l’ordinateur devient un client éloigné, sur le réseau local du FAI. Il
est étonnant de voir à quel point Internet a transformé le monde entier en un « village mondial
». Au commencement de la zone Internet, un ordinateur local ou un réseau local devait avoir
une connexion directe à la dorsale d’Internet. Ce n'était pas assez bon marché pour les
particuliers ou les petites entreprises. Maintenant, de nouvelles technologies ont mis en place
des moyens plus faciles et meilleurs marché, pour construire des réseaux. Les FAI jouent
maintenant un rôle important, en fournissant un accès Internet à la plupart des foyers et des
entreprises. Les FAI utilisent des équipements plus chers et plus complexes, pour établir un
point de présence (POP), ou un point d’accès, sur Internet. Soit ils louent les lignes haut débit
correspondantes à un opérateur téléphonique, soit dans le cas de grands FAI, ils installent
leurs propres lignes. Notez qu’un petit FAI local ne se relie peut-être pas à la dorsale Internet.
A la place, le petit FAI peut traverser un FAI régional plus grand, qui y est directement
connecté. Tous les FAI ne se sont pas créés de la même façon.
• Sprint
• AT&T
• BBN Planet
Les FAI connectent les réseaux commerciaux. Habituellement, les fournisseurs de la dorsale
centrale et les FAI passent des accords, appelés accords d'échange mutuel (peering
agreement). Ceux-ci leur permettent de transporter le trafic réseau les uns des autres. Aux
Etats-Unis, la majorité du câblage physique est encore la propriété des opérateurs de
téléphonie (RBOCs pour Regional Bell Operating Companies). Ensuite, ils le louent aux
fournisseurs. Les réseaux des fournisseurs se connectent par des lignes T1, T3, OC-3
(Amérique du Nord) ou les lignes E1 (Europe et les autres endroits du monde).
Aux Etats-Unis, un FAI qui ne peut pas se relier directement à la dorsale centrale nationale,
paye une taxe pour se connecter au fournisseur régional. Les fournisseurs régionaux
établissent la liaison avec la dorsale centrale nationale à travers un Point d’Accès Réseau
(NAP pour Network Access Point). Un NAP, qui fournit une transmission de données, est le
point auquel les fournisseurs d’accès sont interconnectés. Cependant, tout le trafic Internet ne
passe pas à travers des NAP. Certains FAI, qui peuvent être dans la même zone
géographique, établissent leurs propres interconnexions et des accords d'échange mutuel. Un
Echange de Zone Métropolitaine (MAE pour Metropolitan Area Exchange) est le point où les
FAI se connectent les uns aux autres, et le trafic est échangé entre eux. La MAE EST (situé
dans la zone de Washington D.C) et MAE OUEST (situé dans la Silicon Valley en Californie)
sont les MAE de premier niveau aux Etats-Unis.
Les fournisseurs régionaux contribuent à permettre aux petits FAI de se connecter à la dorsale
Nationale d'Internet.
La ligne abonnée numérique (DSL pour Digital Subscriber Line) est une technologie active en
permanence. Cela signifie qu’il n’est pas nécessaire de composer un numéro à chaque fois
pour se connecter à Internet. C’est une technologie relativement nouvelle, qui est offerte par
les opérateurs de téléphonie, comme un service supplémentaire sur un câble en cuivre
existant ou des lignes téléphoniques.
• DSL asymétrique (ADSL) est la plus commune. Elle a des vitesses qui varient de 384
Kbps à plus de 6 Mbps de flux descendant. La vitesse du flux ascendant est
généralement plus basse.
• DSL à haut débit de données (HDSL) fournit une transmission de 768 Kbps dans les
deux directions.
• DSL symétrique (SDSL) fournit la même vitesse, jusqu’à 3 Mbps, pour les échanges
montant et descendant.
• DSL à très haut débit de données (VDSL) est capable de transmission entre 13 Mbps
et 52 Mbps.
• DSL sur Réseau Numérique à Intégration de Service (RNIS) ou ISDL est en fait la DSL
sur des lignes RNIS. Il fait parti des normes mis en place par le CCITT/ITU pour les
transmissions numériques sur de câble téléphonique en cuivre aussi bien que sur
d'autres média avec une vitesse maximum de 144 Kbps. Il est disponible dans des
zones qui ne sont pas éligibles pour la mise en place d’autres types de DSL.Une carte
RNIS aux deux extrémités est nécessaire, un du coté utilisateur à la place du modem
et un chez le fournisseur de service. Le RNIS est généralement disponible dans les
zones urbaines aux Etats Unis et en Europe à partir des opérateurs téléphoniques
locaux.
Les taux de transfert sont souvent répartis en flux ascendant et descendant. Le flux ascendant
est le processus de transfert de données de l'utilisateur au serveur. Le flux descendant est le
processus de transfert de données du serveur à l’utilisateur final. Par exemple, quand un
utilisateur soumet son code de connexion et son mot de passe pour avoir accès à un courrier
électronique, il génère un flux montant ou transfère ce flux ascendant de données, au serveur
de messagerie. Quand le contenu des boîtes aux lettres électroniques est affiché sur le
navigateur web, ces données génèrent un flux descendant, ou transfèrent le flux descendant
vers l’ordinateur.
L’ADSL est la technologie DSL la plus couramment utilisée. Son flux descendant élevé, de 1,5
Mbps, semble plaider en sa faveur, parce que la plupart des utilisateurs Internet passe la
majorité de leur temps à faire des tâches, qui demandent beaucoup de trafic descendant,
comme vérifier les courriers électroniques et surfer sur le web. Le flux montant plus lent ne
fonctionne pas si bien, lorsqu’on héberge un serveur web ou un serveur FTP, les deux
comprennent des activités Internet avec une utilisation intensive du flux montant.
L’ADSL utilise une technologie appelée division de fréquence multiplexée (FDM), pour répartir
la bande passante en créant de multiples canaux. D’autres mises en place DSL utilisent une
autre technique connue sous l'appellation « annulation écho », qui est plus efficace, mais aussi
plus cher. Aussi, cette capacité à créer de multiples canaux est la raison pour laquelle un
utilisateur DSL peut surfer sur Internet, pendant qu’au même moment il peut utiliser un
téléphone pour appeler un ami. Les avantages et les inconvénients des modems câbles seront
abordés lors d’une prochaine section.
Un modem câble fonctionne comme une interface LAN en connectant un ordinateur à Internet.
Le modem câble relie un ordinateur au réseau d'un câblo-opérateur, à travers le même câble
Le service de modem câble est aussi une technologie à accès permanent, similaire au DSL.
Un modem câble standard a deux connexions. Un port est connecté à la prise de la TV, et
l’autre est connecté au PC abonné. Le modem câble communiquera ensuite à travers le
réseau câblé, vers un appareil appelé Système Final de Modem Câblé (CMTS pour Cable
Modem Termination System). La vitesse du modem câble dépend des niveaux de trafic et de
la façon dont le plan d'ensemble du réseau est installé. Bien que le serveur contacté soit
distant, l’accès par modem câble ressemble plus à une connexion directe LAN qu’à un accès
distant. Une connexion par numérotation peut être nécessaire pour le flux de donnée montant,
en utilisant la ligne de téléphone locale. C’est parce que l’infrastructure du câblo-opérateur est
encore à sens unique. Dans un tel cas, une fiche téléphonique doit être installée.
Les modems câble sont capables de recevoir et de traiter un contenu multimédia à 30 Mbps.
Ce qui est des centaines de fois plus rapide qu’une connexion téléphonique normale sur
Internet. En réalité, les abonnés peuvent s’attendre à télécharger des informations à des
vitesses allant de 0,5 à 1,5 Mbps, parce que la bande passante est partagée par un certains
nombre d’autres utilisateurs dans le quartier. Le modem reçoit des signaux modifiés de façon
numériques. Un démodulateur est intégré au modem, et si c’est un modem à deux voies, un
modulateur continu est utilisé pour transmettre le flux de données montant.
Les modems câble sont disponibles sous forme d'unités internes et externes. La plupart des
modems câble internes sont sous la forme de cartes PCI. Un modem câble externe est une
petite boîte avec une connexion câble coaxiale CATV. Habituellement, un répartiteur est utilisé
pour séparer le signal entre la TV et le modem câble. La boîte est connectée à une carte
Ethernet située dans l’ordinateur à travers une liaison Ethernet UTP. Des appareils USB
externes peuvent également être disponibles pour connecter le modem au port USB de
l’ordinateur, sans nécessiter une carte Ethernet.
Il n’y a pas actuellement de standard pour les modems câble dans l’industrie d’accès au câble.
En conséquence, il y a des produits propriétaires en concurrence. Le service disponible sur le
câble, la vitesse, la fiabilité, l’installation et les configurations peuvent varier de façon
significative, d’une câblo-opérateur à une autre. Actuellement les marques de modems câble
les plus répandues sont Cisco Systems, 3Com, Com21, Bay Networks, Motorola, RCA,
Toshiba, et Terayon. Allez sur les liens web pour obtenir plus d’informations.
Quand on compare les modems câble et les technologies Internet DSL, les deux ont leurs fans
et leurs opposants. Les services DSL peuvent être ajoutés de façon croissante dans une zone.
Ceci signifie que le fournisseur de service peut démarrer avec une poignée de clients et
augmenter la bande passante pour coïncider avec le nombre croissant d’abonnés. Le DSL
possède une compatibilité descendante avec le service voix analogique et fait un bon usage
de la boucle locale existante. Ceci signifie que très peu d’efforts ont besoin d’être faits, pour
utiliser le service sur le câblage en même temps qu’un service téléphonique normal.
Cependant, le DSL souffre de limitations de distance. La plupart des offres de services DSL
demande au client d’être à moins de 5500m (18 000 pieds) du central du fournisseur (CO pour
Central Office). De plus, les boucles plus longues et plus anciennes présentent des
problèmes, et la meilleure façon de transporter la voix est encore en discussion. De plus, la
10.8.8 Le RNIS
RNIS est une alternative à l'utilisation de ligne analogique pour établir une connexion. Il a de
nombreux avantages sur les lignes téléphoniques. Un de ces avantages est la vitesse. Le
RNIS utilise une paire de lignes numériques à 64 Kbps pour se connecter, ce qui fournit une
bande passante totale de 128 Kbps. Ce qui est bien meilleur qu'une ligne téléphonique qui se
connecte avec un maximum de 56 Kbps, et souvent n'atteint pas cette valeur à certains
endroits. Bien que le RNIS soit meilleur que les lignes téléphoniques, les services DSL et ceux
des modems câble sont de bien meilleures alternatives.
Au lieu d'utiliser un modem pour se connecter à un ordinateur distant, le RNIS utilise une
interface de terminaison. Une interface de terminaison est un dispositif externe fonctionne de
façon assez similaire à un modem. Cependant, vous pouvez utiliser un dispositif interne qui se
connecte dans un connecteur PCI de l"ordinateur. Ce dispositif RNIS sont appelé des
modems RNIS. Gardez en mémoire que vous aurez besoin du driver approprié pour faire
fonctionner un modem RNIS correctement avec Linux. Une autre chose importante à se
rappeler à propos des modems RNIS et que contrairement aux modems classiques qui
composent un numéro de téléphone, les modems RNIS ne peuvent pas utilise le nom de
fichier /dev/ttyS0 (sous Linux). A la place les modems RNIS doivent utiliser le nom de fichier /
dev/ttyl0 et les numéros de fichier périphériques suivants .
Les utilisateurs des zones rurales ou ceux n'ayant pas accès au haut débit peuvent souhaiter
prendre en considération le Satellite. L'Internet par Satellite ne nécessite pas de ligne
téléphonique ni de câble. Les deux voies de communication, montante et descendante, sont
réalisées en utilisant une antenne parabolique. La vitesse de téléchargement peut atteindre
500 kbps alors que la voie montante est d'un dixième de celle-ci. Une liaison Intenet satellite
dans les deux sens consiste en :
Le satellite nécessite une vue dégagée vers le sud (hémisphère nord) puisque les satellites se
trouve au-dessus de l'équateur. Comme pour la TV, les fortes précipitations et les vents
violents affectent le signal Internet
Les connexions satellite Internet bidirectionnelles utilise les technologies de multidiffusion IP.
Jusqu'à 5000 canaux de communication peuvent être desservis simultanément par un
Les imprimantes sont une part importante des systèmes PC modernes. Le besoin de copies
d'écran de l'ordinateur et de documents en ligne n'est pas moins important aujourd'hui, que le
moment où la révolution du sans papier a commencé il y a plusieurs années. Le technicien
informatique d'aujourd'hui doit être capable de comprendre le fonctionnement de différents
types d'imprimantes pour les installer, les maintenir et résoudre leurs problèmes.
Les types d'imprimantes les plus utilisés sont les imprimantes de type laser
électrophotographiques, et les imprimantes à jet d'encre. Les anciennes imprimantes
matricielles sont encore utilisées dans de nombreux bureaux et foyers, mais il devient difficile
de trouver des pièces de rechange, quand ces unités tombent en panne.
Certaines industries utilisent des imprimantes thermiques. C'est un type d'imprimante sans
impact qui utilise la chaleur pour transférer l'image sur le papier. La tête d'impression contient
de petites résistance chauffantes en forme de pointe qui fait fondre une encre à base de cire
sur le papier brut ou brûle des points d'un papier fabriqué selon un procédé particulier.
Les deux types d'imprimantes à transfert thermique sont les imprimantes thermique directe et
les imprimantes à transfert thermique. Les imprimantes thermiques directe n'utilise pas de
ruban. L'imprimante imprime en brûlant des points d'un papier fabriqué selon un procédé
particulier au moment ou la tête d'impression passe au-dessus. Ce procédé d'impression
thermique direct est utilisé par les anciens fax.
Les imprimantes à transfert thermique utilise un ruban qui contient une encre à base de cire.
La chaleur qui est appliquée au ruban par la tête d'impression transfère la cire sur le papier.
Un ruban à transfert thermique comprend généralement trois parties :
• Le matériau de base
Un autre type d'imprimante à sublimation est utilisé de nos jours. Au lieu d'utiliser de l'encre les
imprimantes à sublimation utilise des rouleaux de film transparents imbibés de teinture solide.
Ces teintures solides correspondent aux quatre couleurs de base utilisé pour l'impression :
• Le Cyan
• Le Jaune
• Le Noir
Les imprimantes sont connectées aux ordinateurs personnels par des connexions USB,
FireWire, série parallèle réseau ou sans fil. Les connexions de type sans fil comprennent la
technologie infrarouge et onde radio.
Les pilotes d'imprimante sont des logiciels qui doivent être installés sur le PC de façon à ce
que l'ordinateur puisse communiquer avec l'imprimante et coordonner le processus
d'impression. Les pilotes d'imprimante varient selon le type d'imprimante, le fabricant, le
modèle et le système d'exploitation du PC.
Dans la section suivante, on vous expliquera comment fonctionnent les imprimantes les plus
courantes, en commençant par l'imprimante matricielle.
Dans l'imprimante matricielle, cet impact survient quand la tête d'impression lance des
épingles (ou fils d'impression), sur un ruban imbibé d'encre, qui rentre en contact avec le
papier et laisse une marque. La tête d'impression ou l'assemblage qui contient les aiguilles
bouge de gauche à droite en travers du papier, une ligne à la fois. Créant des lettres à partir
des points circulaires d'encre, qui sont les traces des impacts sur papier. De nombreuses
imprimantes matricielles impriment également de manière bidirectionnelle, à la fois de gauche
à droite et de droite à gauche, augmentant la vitesse. Des bobines de fils forment des électro-
aimants qui sont appelés solénoïdes. Ils sont alimentés en énergie, ce qui provoque la frappe
des aiguilles, "la mise à feu", et touche le ruban.
Avertissement : la tête d'impression sur une imprimante matricielle peut devenir très chaude.
Faire en sorte de la rafraîchir complètement avant de tenter de la toucher.
Le nombre d'aiguilles, comme dans les imprimantes à 9, 24, ou 48 aiguilles, indique la qualité
d'impression. C'est le nombre actuel d'aiguilles qui est situé sur la tête d'impression. La plus
haute qualité d'impression qui est produite par l'imprimante matricielle fait référence à la
proximité de la qualité des lettres (NLQ pour Near Letter Quality). La vitesse de l'imprimante
est mesurée en caractères par seconde (cps).
Autrefois, l'imprimante la moins chère, aujourd'hui les imprimantes matricielles sont rares et un
peu chères à l'achat. Ces imprimantes sont utilisées par un petit marché qui demande une
papier à alimentation continue.
Les imprimantes couleurs à jet d'encre sont le type d'imprimante le plus répandu dans les
foyers aujourd'hui. C'est à cause de leur coût moindre et la qualité correcte d'impression. Les
imprimantes à jet d'encre impriment habituellement une colonne de points dans une ligne à la
fois. Elles sont généralement plus rapides que les imprimantes matricielles.
Les imprimantes à jet d'encre utilise des cartouches d'encre liquide, qui projettent et diffuse
des particules d'encre sur la page, à travers de minuscules trous appelés buses. Les
particules d'encre sont projetées en exerçant une pression engendrée par un courant
électrique ou une charge électrique. La pression à l'intérieur du réservoir d'encre est inférieure
à la pression extérieure. Quand une tension est appliquée, alors la pression augmente. La
pression interne engendre de petites gouttes d'encre qui sont projetées à travers les buses.
Les imprimantes à jet d'encre ont deux sortes de têtes d'impression. Une marque connue
d'imprimante à jet d'encre a un type de tête appelé tête d'impression à choc thermique. Elle a
un élément chauffant qui entoure chaque buse, et quand ces dernières sont chauffés par un
Une autre marque connue d'imprimante à jet d'encre fonctionne à partir de charges électro
statiques. Quand les plateaux déflecteurs sont chargés de manière électrique, la taille et la
forme de la buse change, la faisant agir comme une pompe. L'action de pompage projette
l'encre à travers la buse, sur le papier. Ces têtes d'impression sont appelées têtes
d'impression piezo électriques.
Les imprimantes sont conçues pour utiliser du papier simple, mais peuvent aussi utilisées avec
du papier spécifique pour jet d'encre, quand on demande une impression de haute qualité ou
des photographies.
Quand l'opération d'impression à jet d'encre est terminée, et que le papier sort de l'imprimante,
souvent l'encre est encore mouillée. La toucher tout de suite peut tâcher l'encre et salir
l'impression. La plupart des encres sèchent en 10 ou 15 secondes.
La qualité d'impression pour une imprimante à jet d'encre est mesurée en points par pouces
(ppp ou dpi pour dots per inch), et la vitesse d'impression est mesurée en pages par minutes
(ppm).
Aujourd'hui, l'imprimante laser est l'imprimante la plus utilisée de part sa haute résolution, ses
fonctions supérieures, et sa vitesse. Cependant, son fonctionnement interne est plus
complexe que les autres types d'imprimantes.
Comme dans les photocopieurs, l'électricité statique est le principe utilisé dans le
fonctionnement d'une imprimante laser. C'est la même électricité statique qui provoque la
foudre et qui fait que les particules chargées de façon opposée s'attirent les unes les autres.
Cette attraction est utilisée pour maintenir de façon temporaire, de petites particules d'encre
sèche appelées «toner», sur une image chargée de manière statique sur un tambour électro
photographique. Un rayon laser est utilisé pour dessiner cette image.
Note : Il faut connaître les composants d'une imprimante laser et les étapes nécessaires à
l'impression d'une page.
La partie centrale de l'imprimante laser est son tambour électro photographique. Le tambour
est un cylindre métallique, qui est recouvert d'un matériau isolant sensible à la lumière. Quand
un rayon laser arrive contre le tambour, il devient conducteur au point où la lumière l'a frappé.
Quand le tambour tourne, le rayon laser dessine une image électro statique sur le tambour,
appelée l'image. L'image latente, qui est l'image non développée, passe prés du réservoir
d'encre sèche ou toner, qui est attirée vers elle. Le tambour tourne et amène cette image en
contact avec le papier, qui attire le toner du tambour. Le papier passe à travers un «four» qui
est fait de rouleaux chauds où le toner est fondu dans le papier.
1. Nettoyage : Quand une image a été déposée sur le papier et que le tambour a été
séparé du papier, tout le toner restant doit être retiré du tambour. Une méthode utilise
une lame pour racler tout le toner restant du tambour. D'autres imprimantes utilisent
une tension alternative sur un fil qui enlève la charge de la surface du tambour, et
permet au toner excédant de tomber du tambour. Le toner excédant est stocké dans
un container de toner utilisé, qui peut être vidé et/ou jeté.
Avertissement: La source de tension qui est utilisée pour effacer le tambour. Elle est
appelée fil ou grille de premier corona, ou rouleau de conditionnement, est
dangereuse. Cette tension peut atteindre -6000 volts. Seuls les techniciens certifiés
devraient travailler sur l'unité pour s'assurer qu'elle est correctement déchargée.
5. Transfert : Dans cette étape, le toner collé à l'image latente est transféré sur le papier.
Le transfert ou le corona secondaire, place une charge positive sur le papier
(rappelez-vous que le tambour était chargé négativement) de façon à ce qu'il attire
l'image du toner négatif, du tambour vers le papier. L'image est maintenant sur le
papier et est maintenue en place par la charge positive.
6. Fusion : Les particules du toner sur le papier sont seulement là parce que la charge
est présente. Elles sont gardées en place de façon permanente, par le «processus de
fusion». Dans ce processus, le papier d'impression est tracté entre un rouleau chauffé
et un rouleau de pression. Durant le déplacement du papier, le rouleau de fusion du
haut est chauffé à environ 350 degrés, ce qui faire fondre la poudre de toner et la
mélange aux fibres du papier. Cette opération est appelée fixation chez certains
fabricants. Après que l'opération de fusion se soit terminée, le papier se déplace vers
le plateau de sortie, sous forme de page imprimée.
Avertissement: Quand on travaille autour du four, rappelez-vous qu'il est assez chaud pour
brûler la peau. Toujours faire en sorte de le refroidir avant de le retirer ou de le réparer.