Vous êtes sur la page 1sur 20

www.tri.on.

ma

! " #

# $ %&

' ())*

http://adnaneadnane.ifrance.com/

super.adnane@hotmail.fr
I. L’architecture client serveur……………………………………………………... 3
1. Présentation de l'architecture d'un système client serveur………………………. 3
2. Avantages de l'architecture client/serveur………………………………………. 3
3. Inconvénients du modèle client/serveur…………………………………………. 3
4. Fonctionnement d'un système client/serveur……………………………………. 3
5. Présentation de l'architecture à 2 niveaux……………………………………….. 4
6. Présentation de l'architecture à 3 niveaux……………………………………….. 4
7. Comparaison des deux types d'architecture……………………………………... 4
8. L'architecture multi-niveaux…………………………………………………….. 4
II. La technologie des serveurs réseaux……………………………………………. 5
1. Introduction aux serveurs réseaux………………………………………………. 5
2. Spécificités externes…………………………………………………………….. 6
3. Spécificités internes…………………………………………………………….. 6
4. Configuration de base d'un serveur……………………………………………... 6
5. Mémoire serveur………………………………………………………………… 7
6. Ports internes……………………………………………………………………. 7
7. Processeur serveur………………………………………………………………. 8
8. Le disque dur du serveur………………………………………………………… 11
9. Sauvegarde serveur réseau………………………………………………………. 15
10. Le système d’exploitation du serveur………………………………………….. 16
11. Types de serveurs………………………………………………………………. 17

2
I. L’architecture client serveur
1. Présentation de l'architecture d'un système client serveur
De nombreuses applications fonctionnent selon un environnement client/serveur, cela signifie
que des machines clientes (des machines faisant partie du réseau) contactent un serveur, une
machine généralement très puissante en terme de capacités d'entrée-sortie, qui leur fournit des
services. Ces services sont des programmes fournissant des données telles que l'heure, des
fichiers, une connexion, ...
Les services sont exploités par des programmes, appelés programmes clients, s'exécutant sur
les machines clientes. On parle ainsi de client FTP, client de messagerie, ..., lorsque l'on
désigne un programme, tournant sur une machine cliente, capable de traiter des informations
qu'il récupère auprès du serveur (dans le cas du client FTP il s'agit de fichiers, tandis que pour
le client messagerie il s'agit de courrier électronique).
Dans un environnement purement Client/serveur, les ordinateurs du réseau (les clients) ne
peuvent voir que le serveur, c'est un des principaux atouts de ce modèle.

2. Avantages de l'architecture client/serveur


Le modèle client/serveur est particulièrement recommandé pour des réseaux nécessitant un
grand niveau de fiabilité, ses principaux atouts sont:
• des ressources centralisées: étant donné que le serveur est au centre du réseau, il peut
gérer des ressources communes à tous les utilisateurs, comme par exemple une base de
données centralisée, afin d'éviter les problèmes de redondance et de contradiction
• une meilleure sécurité: car le nombre de points d'entrée permettant l'accès aux
données est moins important
• une administration au niveau serveur: les clients ayant peu d'importance dans ce
modèle, ils ont moins besoin d'être administrés
• un réseau évolutif: grâce à cette architecture il est possible de supprimer ou rajouter
des clients sans perturber le fonctionnement du réseau et sans modifications majeure

3. Inconvénients du modèle client/serveur


L'architecture client/serveur a tout de même quelques lacunes parmi lesquelles:
• un coût élevé dû à la technicité du serveur
• un maillon faible: le serveur est le seul maillon faible du réseau client/serveur, étant
donné que tout le réseau est architecturé autour de lui! Heureusement, le serveur a une
grande tolérance aux pannes (notamment grâce au système RAID)

4. Fonctionnement d'un système client/serveur


Un système client/serveur fonctionne selon le schéma suivant:

• Le client émet une requête vers le serveur grâce à son adresse et le port, qui désigne un
service particulier du serveur
• Le serveur reçoit la demande et répond à l'aide de l'adresse de la machine client et son
port

3
5. Présentation de l'architecture à 2 niveaux
L'architecture à deux niveaux (aussi appelée architecture 2-tier, tier signifiant étage en
anglais) caractérise les systèmes clients/serveurs dans lesquels le client demande une
ressource et le serveur la lui fournit directement. Cela signifie que le serveur ne fait pas appel
à une autre application afin de fournir le service.

6. Présentation de l'architecture à 3 niveaux


Dans l'architecture à 3 niveaux (appelées architecture 3-tier), il existe un niveau intermédiaire,
c'est-à-dire que l'on a généralement une architecture partagée entre:
1. Le client: le demandeur de ressources
2. Le serveur d'application (appelé aussi middleware):le serveur chargé de fournir la
ressource mais faisant appel à un autre serveur
3. Le serveur secondaire (généralement un serveur de base de données), fournissant un service
au premier serveur

7. Comparaison des deux types d'architecture


L'architecture à deux niveaux est donc une architecture client/serveur dans laquelle le serveur
est polyvalent, c'est-à-dire qu'il est capable de fournir directement l'ensemble des ressources
demandées par le client. Dans l'architecture à trois niveaux par contre, les applications au
niveau serveur sont délocalisées, c'est-à-dire que chaque serveur est spécialisé dans une tâche
(serveur web/serveur de base de données par exemple). Ainsi, l'architecture à trois niveaux
permet:
• une plus grande flexibilité/souplesse
• une plus grande sécurité (la sécurité peut être définie pour chaque service)
• de meilleures performances (les tâches sont partagées)

8. L'architecture multi-niveaux
Dans l'architecture à 3 niveaux, chaque serveur (niveaux 1 et 2) effectue une tâche (un
service) spécialisée. Ainsi, un serveur peut utiliser les services d'un ou plusieurs autres
serveurs afin de fournir son propre service. Par conséquence, l'architecture à trois niveaux est
potentiellement une architecture à N niveaux...

4
II. La technologie des serveurs réseaux
1. Introduction aux serveurs réseaux
L'utilisation d'un réseau informatique dit lourd de type Windows NT / 2000 / 2003, Linux ou
Novell Netware oblige l'utilisation d'un ou plusieurs ordinateur(s) central (aux). Ces
ordinateurs peuvent être de tous types, y compris mainframe. Un serveur peut-être un PC
normal dans le cas d'un petit réseau et un serveur peut être utilisé comme station de travail de
haut de gamme. Néanmoins, la majorité des serveurs sont des ordinateurs spécifiques. Les
caractéristiques de ces ordinateurs doivent répondre à divers critères liés à la sécurité des
données et des applications installées sur le serveur.
Avec l'évolution de l'informatique dans les entreprises, l'ordinateur central et l'installation
périphérique deviennent primordiale, le moindre arrêt de l'installation provoque
immédiatement l'arrêt de l'usine avec les conséquences que l'on peut imaginer. Que cet arrêt
soit de type problème logiciel, lié à un défaut de fonctionnement d'un serveur ou même à un
switch récalcitrant est sans réelle importance. Le résultat est le même pour l'entreprise: perte
de production, perte de données, ... Une installation réseau ne doit pas s'arrêter. S'il a fait son
travail de préparation des causes possibles de panne (et des solutions immédiates), un bon
technicien de maintenance doit "se promener" dans l'usine. Le moindre arrêt, surtout s'il dure,
se paye cash.
Avec la partie suivante, nous ferons un tour du côté des disques durs, de leurs types et de leurs
regroupements (RAID). Néanmoins, les serveurs de grosses puissances ne se limitent pas à
des disques durs ou des protections externes. L'architecture interne est également différente.
Si un serveur ne doit jamais s'arrêter, il faut également que sa puissance soit suffisante pour
l'application. Pour rappel, un serveur ne doit pas fonctionner à plus de 10 % de charge en
moyenne, sous peine de ralentir l'application et les utilisateurs. Ceci n'entraîne pas forcément
des serveurs musclés. Selon l'application, le nombre de PC connecté, la fonction du serveur
(fichier, imprimante, programme), la configuration sera choisie en conséquence. Voyons les
différentes solutions qui ont été adoptées pour (tenter) obtenir résultat.

5
2. Spécificités externes
Les protections externes pour éviter l'arrêt d'un serveur par une main indélicate sont
implantées sur les modèles de haute gamme.
• Blocage par clefs des boutons d'allumage, reset, accès au lecteur de disquette, ... bien
que ceci n'est pas le plus important.
• Câbles de raccordement, doivent être fixés sur le boîtier ou dans un chemin de câble,
pour éviter que les câbles ne s'arrachent par traction, ... ils doivent être étiquetés.
• ...
L’aspect externe ne pose pas en général un problème. En effet, les salles informatiques
conçues pour les serveurs réseaux sont généralement installées avec un faux plancher, ce qui
permet de passer les câbles en dessous et munies d'un système anti-feux avec des bonbonnes
de gaz au fréon, un gaz inerte. Ces salles sont généralement sous température de 18°
contrôlées.
Chaque serveur est connecté à un UPS, alimentation ininterruptible (onduleur). L'onduleur est
de plus capable de contrôler le serveur (de l'éteindre) en cas de panne de courant ou de baisse
de tension via un programme spécialisé. C'est également souvent le cas des hubs, les switchs
et les périphériques externes annexes.

3. Spécificités internes
• disques durs rapides pour donner les informations le plus tôt possible après une
requête d'un client connecté, si possible multi-sessions, ce qui implique des liaisons
SCSI.
• sécurité des données en cas de "crash disk" (panne complète d'un disque dur):
dédoublement des disques par systèmes RAID
• sécurité des données en cas de panne d'alimentation ou de baisse de tension: UPS
• sécurité des données en cas de panne complète d'un ordinateur (sauvegarde
quotidienne)
• installation de disques, cartes électroniques "à chaud". Ceci signifie que le
périphérique peut être remplacé alors que le PC continue de fonctionner.
L'aspect interne est plus complexe. Les disques durs sont généralement de type SCSI. Ce type
de liaison n'est guère plus performant en station que les disques durs E-IDE, sauf aux temps
d'accès. Par contre, les liaisons SCSI sont plus performantes en multi-read. En cas de crash
disque, on utilise des systèmes redondants des disques (RAID). On écrit les données sur
chaque disques (de manière équivalente), mais on ne lit que sur un disque. En cas de crash, on
continue sur le deuxième disque. En cas de crash complète d'un serveur, on peut coupler en
permanence 2 serveurs de la même manière que les disques ci-dessus. Tous ces systèmes sont
dits RAID. Pour les alimentations, on peut utiliser 2 alimentations couplées (on parle de
dédoublées ou redondante). En cas de panne d'une, on continue sur l'autre. Chacune doit donc
être ne mesure d'alimenter l'ensemble de manière autonome. Pour les cartes électroniques, le
PCI 64 permet d'enlever ou d'insérer une carte sans couper la machine, à condition que le
serveur soit installé avec un système d'exploitation compatible (par exemple Win2000). Le
dédoublement de chaque partie d'une installation informatique pour garantir que si l'une
tombe en panne, la deuxième partie prenne immédiatement la place s'appelle la redondance
des équipements.

4. Configuration de base d'un serveur


Avant de rentrer dans des solutions purement techniques, voyons un peu l'utilisation d'un
serveur. Par définition, un serveur n'est pas une station de travail. Résultat, la carte graphique,
le lecteur CD-ROM et le lecteur de disquette ne sont pas des composants primordiaux.
L'écran ne doit pas non plus être un modèle multimédia de haute gamme. L'écran du serveur

6
est généralement un 15" (voire un 14 noir et blanc) qui tourne "à vide". On ne s'intéresse à
l'affichage que dans les cas critiques. Le lecteur CD-ROM n'est généralement pas non plus de
type SCSI mais bien E-IDE, vu sa faible utilisation. Selon le système d'exploitation, on peut
(ou on doit) le configurer via une station.
La mémoire doit quand à elle être suffisante, les disques de capacités doubles, voire triples par
rapport à la capacité maximum que vous utiliserez sur cette machine. On parle ici de la
capacité effective, utilisable, sans rentrer dans la technologie RAID.

5. Mémoire serveur
Première comparaisons avec les mémoires traditionnelles, les mémoires utilisées par les
serveurs sont toutes de types utilisés dans les PC traditionnels. Les serveurs actuels utilisent
des mémoires ECC (Error Checking and Correcting ou Error Correction Code). Cette
technologie utilise plusieurs bits de contrôle (parité) pour la vérification des données en
mémoire. Ces mémoires sont auto-correctives. Cette mémoire peut détecter 4 erreurs et en
corriger une sans arrêter le système. Un nouveau type de mémoires avec correction d'erreur
AECC (Advanced Error Correcting Code) peut détecter 4 erreurs et en corriger 4 sans arrêter
le système. Forcément, ces mécanismes ralentissent un peu le système.

6. Ports internes
En bureautique, les ports courants sont PCI 32 bits et AGP. Ces ports ont deux problèmes. Le
premier, ils ne sont pas déconnectables à chaud (Hot plug). Le remplacement d'une carte
nécessite l'arrêt du serveur. Dans les petits serveurs, ceci ne pose pas de problèmes en
pratiques. En effet, comme chaque fonction est exécutée par une seule carte, le serveur
n'assure de toute façon plus sa fonction en cas de panne de carte. Par contre, dans les serveurs
de haute gamme, toutes les cartes sont redondantes. Une carte réseau est dédoublée. En cas de
panne d'une carte, la fonction se poursuit sur la deuxième carte équivalente. Ceci permet de
"réparer le serveur" sans l'arrêter.
Le deuxième problème de ces ports est lié à la vitesse. Pour rappel, un port PCI bureautique
(32 bits) est capable de transmettre 133 MB/s maximum sur l'ensemble des ports PCI.
Tous les serveurs dignes de ce nom se doivent utiliser des bus internes plus rapides.
Développé conjointement par les principaux acteurs de l'hardware informatique, les serveurs
utilisent des liaisons PCI-X sur 32 ou 64 bits (le taux de transfert est donc doublé).
Développé pour les serveurs conjointement par IBM, Compac, HP et Intel, le bus PCI-X est
une évolution du bus PCI standard. Si un bus PCI tourne à 33 Mhz avec une largeur de bus de
donnée de 32 bits (soit une bande passante maximum de 133 MB/s), le bus PCI-X tourne à
une fréquence d'horloge de 66 à 533 Mhz suivant les versions en 32 ou 64 bits. Les taux de
transferts associés à ces vitesses sont nécessaires pour les cartes réseaux Gigabits, mais
surtout pour les connections SCSI Ultra 160 et Ultra 320 (respectivement débit maximum de
160 MB/s et 320 MB/s)
La version PCI-X 1.0 est sortie en 1999, elle est alimentée à une tension de 3,3 V: il est
développé en 6 versions.
Fréquence du bus PCI-X 1.0 Tension Largeur du bus de données Bande passante
3,3 V 32 bits 264 MB/s
66 Mhz
3,3 V 64 bits 528 MB/s
32 bits 400 MB/s
100 Mhz 3,3 V
64 bits 800 MB/s
32 bits 532 MB/s
133 Mhz 3,3 V
64 bits 1064 Mb/s

7
La version PCX-2.0, sortie en 2002, peut également être alimentée en 1,5 V suivant les
versions. Les cartes sont hot Plug ( déconnectables à chaud).
Largeur du bus de
Fréquence du bus Tension Bande passante
données
3,3 V 32 bits 264 MB/s
66 Mhz
3,3 V 64 bits 528 MB/s
32 bits 400 MB/s
100 Mhz 3,3 V
64 bits 800 MB/s
32 bits 532 MB/s
133 Mhz 3,3 V
64 bits 1064 MB/s
32 bits 1064 MB/s
266 Mhz 3,3 V / 1,5 V
64 bits 2128 MB/s
32 bits 2128 MB/s
533 Mhz 3,3 V / 1,5 V
64 bits 4256 MB/s
De par la conception du connecteur, les cartes PCI-X 32 bits peuvent être insérées dans 1 bus
64 bits. Les bus PCI-X sont directement connectés sur le Southbridge du chipset, ce qui
nécessite des cartes mères (chipset) spécifiques.
Les ports PCI-X vont jusqu'à 533 MHz. Ceci nous donne un taux de transfert de 533 * 8 (64
bits) = 4256 MB/s pour l'ensemble du bus PCI-X. Généralement, un serveur accepte
également 1 ou 2 port PCI 32 bits (carte écran par exemple ou Ethernet 100 de réserve). Les
ports 64 bits acceptent uniquement les cartes 32 bits fonctionnant en 3,3 V. Pour reconnaître
les ports 64 bits qui acceptent les cartes PC 32 bits, il suffit de vérifier s'il y a 2 encoches
(uniquement cartes 3,3 V) ou 1 encoche (accepte les cartes 3.3 et 5V) dans la partie 32 bit du
bus PCI 64 bits.
Avec les ports PCI-X, nous retrouvons les caractéristiques attendues: rapidité et Hot plug (si
le pilote de la carte le permet). Une dernière précision, ces cartes et l'implantation de ces bus
sont chères. Chaque serveur n'inclue pas d'office un PCI-X à 533 Mhz. Il existe des cartes à
33, 66, 100 et 133 Mhz. En plus, de nombreux serveur n'incluent pas un, mais 2 ou trois ports
PCI-X séparés. Ceci permet également de supprimer les goulots.
Avec ces caractéristiques, un PC bureautique ne peut pas servir de serveur réseau.

7. Processeur serveur
Même si un microprocesseur PC standard peut être utilisé dans un serveur réseau INTEL et
AMD ont développé des microprocesseurs spécifiques pour les serveurs réseaux. Cette partie
reprend ces processeurs "spécifiques serveurs".

Pentium Pro
Le Pentium Pro est le premier processeur INTEL de 6ème génération, c'est un précurseur du
Pentium II. Il est optimalisé pour Windows NT sorti en même temps.
Utilisant un socket 8, sa principale caractéristique est de pourvoir travailler simultanément à 4
microprocesseurs. A part le cache L2 intégré au boîtier de 512KB, ses caractéristiques
externes sont similaires aux Pentium : vitesses globales variant de 150 à 200 Mhz sur une
largeur de bus de données de 64 bits.

8
Le XEON
Présentation
Le successeur du Pentium Pro, le XEON, sorti en mars 99, est disponible en 2 versions, avec
cache 512KB pour les stations de travail et 1 MB pour les serveurs réseaux.
L'architecture interne des XEON n'est pas très différente des Pentium de haut de Gamme.
Pour suivre l'évolution des Pentium IV, INTEL a sorti les XEON MP. Fin 2002, ils étaient
cadencés à 1,4 - 1,5 et 1,6 GHz. Ils utilisent également un cache L3 intégré variant de 0.5 à 1
MB.
La vitesse en avril 2003 est de 3,06 GHz avec un socket 604. Les précédents utilisaient un
socket 603.
Particularité
Le XEON actuel utilise l'Hyper-Threading. Cette fonction permet d'exécuter simultanément
plusieurs threads avec un seul processeur physique.
Un thread (tâche) consiste en un morceau de programme dont la particularité est de s'exécuter
séparément du reste du programme, à la différence d'une fonction, uniquement exécutable
d'un seul bloc.
L'intérêt du thread réside dans la séparation des tâches, un environnement multi-tâche est ainsi
capable de répartir les threads courants sur les ressources présentes. Ce système prend tout
son sens sur une machine à plusieurs processeurs : l'OS peut ainsi affecter un ou plusieurs
tâche à chaque microprocesseur, parallélisant ainsi leur exécution.
Lorsqu'il n'y a qu'un seul processeur, celui-ci traite alternativement tous les threads en cours,
passant continuellement de l'un à l'autre, et donnant ainsi l'illusion d'une exécution
simultanée. Afin de permettre cette alternance continuelle entre les threads, chacun d'eux
possède un contexte, ou état, qui contient entre autres l'état des registres du processeur.
Chaque fois qu'un thread devient actif, son état est restauré, permettant au processeur de
reprendre l'exécution du thread là où il l'avait laissée. Enfin, lorsqu'un autre thread va prendre
la main, ce contexte est sauvegardé.
L'Hyper-Threading consiste à permettre l'exécution simultanée de deux threads sur un seul
processeur. Pour cela, le Pentium IV peut gérer deux contextes simultanés. Le système
d'exploitation y voit alors deux microprocesseurs, et se comporte comme s'il en était ainsi.
L'idée d'exécuter simultanément deux threads pour 1 seul microprocesseur est simple : mixer
ainsi deux flux d'instructions arrivant au processeur, ceci optimalise l'utilisation simultanée de
toutes les ressources du processeur comme les unités d'exécution et de calcul.
Selon INTEL, un code classique n'utilise en moyenne que 35% des ressources du Pentium IV,
et l'utilisation de l'Hyper-Threading permettrait un gain allant jusqu'à 30%.

L'Itanium et Itanium II
Presque inconnu du grand public, ses caractéristiques en font une "bête de
vitesse" par rapport aux processeurs bureautiques courants. Mi 2002, les
fréquences possibles n'étaient que de 733 et 800 Mhz.

Couplé avec le chipset spécifique (le 460 GX), les Itanium peuvent être configurés avec un
banc allant jusqu'à 512 processeurs. L'Itanium utilise, comme les XEON, trois caches:
L1 de 32 K (16 K + 16 K), L2 de 96 K et L3 de 2 ou 4 MB.
L'itanium II sort fin 2002. Lui aussi multiprocesseur, ses caractéristiques ne sont pas très
différentes de l'Itanium I (cache L1 de 32 KB, cache L2 de 256 KB. Le cache L3 est réduit à
1.5 ou 3 MB. Les vitesses varient de 900 Mhz à 1,66 GHz.
Les dernières versions de l'Itanium 2 (06/2006) utilisent jusque 9 MB de cache L3.

9
Opteron, Athlon 64, Athlon 64 FX
Connus anciennement sous le nom de code "HAMMER", AMD développe 2 versions de son
processeur 64 bits: l'Opteron et l'Athlon 64 bits. L'Opteron est la version serveur – station
informatique de haute gamme, au même titre que l'Itanium et son successeur l'Itanium II.
L'Opteron est sorti début 2003, l'Athlon 64 bits pour stations en septembre 2003, quasiment
en même temps que l'Athlon 64 FX.
L'Opteron est dédié serveur PC et est décliné sous 3 versions: 100, 200 et 800 (respectivement
de 0, 1 et 3 bus processeurs pouvant être utilisés pour des machines utilisant 1,2 et 8 opteron).
Chaque version est déclinée en différentes vitesses.
Seul l’Opteron permet le multi-processeur, mais seulement dans les versions Opteron 2XX (2
processeurs) et Opteron 8XX (en théorie illimités) permettent le multi-processeur. Avec ses 2
canaux processeurs la série 8XX permet un nombre illimité de processeurs sur la même carte.
En pratique, la limitation est de 4. Certains fabricants de cartes mères pour serveurs
permettent via la commutation des bus d'atteindre 8 processeurs simultanés.

Implantation des Opteron série 8XX en multi-processeurs

Le multiprocessing
Le multiprocessing englobe plusieurs techniques qui consistent à utiliser plusieurs processeurs
en parallèle pour effectuer des taches qui demandent une grande puissance de calcul, ou pour
parer à d’éventuelles défaillances du processeur, ce qui est assez rare.

SMPNSP
On utilise 2 processeurs qui se partagent la mémoire, le bus, les disques etc.. Il faut pour cela
que le système d’exploitation puisse gérer plusieurs processeurs (WINDOWS NT™ ou
Novell avec SMP) et que bien sur les programmes soient développés afin d’utiliser
pleinement cette technique. Malgré cela, il y a un risque de saturation du bus ou de la
mémoire.
Il existe alors une variante de cette technique. Chaque processeur a sa propre mémoire. De ce
fait, les processeurs ne vont pas polluer la mémoire des autres. Le système est donc plus
stable. Cette technique est utilisée dans les serveurs de très haut de gamme car c’est une
solution onéreuse.

Clusters
On relie des machines qui peuvent être de milieux de gamme par des connexions à très haut
débit. On gère ces machines de manière à ce que l’utilisateur final ne les aperçoive que
comme une seule et unique machine. C’est une solution moins onéreuse mais dont la
tolérance aux pannes est moins bonne.

10
8. Le disque dur du serveur
Les données (et son support principal, le disque dur) sont primordiales dans toutes
applications informatiques. Dans le cas de serveurs, deux directions sont utilisées pour
augmenter la vitesse et garantir la fiabilité en cas de panne d'un disque dur: l'utilisation de
solutions SCSI pour le stockage et l'implantation du RAID. Les deux sont généralement
implantés en même temps.

Technologies SCSI
Les connexions SCSI (Small Computer System Interface) ont par rapport aux périphériques
IDE plusieurs avantages.
1. Le nombre de périphériques connectés sur la même nappe est supérieur: jusque 15.
2. Une connexion SCSI est multi-session. En clair, le disque peut exécuter plusieurs
applications en même temps (ou presque) et l'écriture (ou la lecture) d'un fichier ne
doit pas attendre la fin de l'opération précédente. Ceci est le cas par exemple lorsque
l'on écrit un gros fichier sur le disque dur, la lecture suivante ne doit pas attendre pour
démarrer. Le SCSI est donc capable de gérer plusieurs requêtes de lecture /écriture en
parallèle (jusque 255), au contraire de l'IDE qui ne peut traiter qu'une opération
(complètement) à la fois. Ceci ne fonctionne de plus qu'avec un système d'exploitation
compatible (Win NT, Win 2000 ou XP Pro, Novell), à l'exclusion de Win 95 et
consort.
3. Les périphériques SCSI peuvent être internes ou externes. Le transfert de données
entre deux périphériques se fait directement par DMA entre les deux périphériques.
4. Un disque dur SCSI inclut automatiquement un contrôle d'erreur des données
enregistrées.
Tout ceci explique que les vitesses soient plus élevées qu'en IDE (même à taux de transfert
équivalent), avec des prix qui varient en même temps.

RAID (Redundant Array of Independant Disk)


La technologie RAID (acronyme de Redundant Array of Inexpensive Disks, parfois
Redundant Array of Independent Disks, traduisez Ensemble redondant de disques
indépendants) permet de constituer une unité de stockage à partir de plusieurs disques durs.
L'unité ainsi créée (appelée grappe) a donc une grande tolérance aux pannes (haute
disponibilité), ou bien une plus grande capacité/vitesse d'écriture. La répartition des données
sur plusieurs disques durs permet donc d'en augmenter la sécurité et de fiabiliser les services
associés.
Les disques assemblés selon la technologie RAID peuvent être utilisés de différentes façons,
appelées Niveaux RAID. L'Université de Californie en a défini 5, auxquels ont été ajoutés les
niveaux 0 et 6. Chacun d'entre-eux décrit la manière de laquelle les données sont réparties sur
les disques:
• Niveau 0: appelé striping
• Niveau 1: appelé mirroring,shadowing ou duplexing
• Niveau 2: appelé striping with parity (obsolète)
• Niveau 3: appelé disk array with bit-interleaved data
• Niveau 4: appelé disk array with block-interleaved data
• Niveau 5: appelé disk array with block-interleaved distributed parity
• Niveau 6: appelé disk array with block-interleaved distributed parity
Chacun de ces niveaux constitue un mode d'utilisation de la grappe, en fonction:
• des performances
• du coût
• des accès disques

11
Niveau 0
Le niveau RAID-0, appelé striping (traduisez entrelacement ou aggrégat par bande) consiste à
stocker les données en les répartissant sur l'ensemble des disques de la grappe. De cette façon,
il n'y a pas de redondance, on ne peut donc pas parler de tolérance aux pannes. En effet en cas
de défaillance de l'un des disques, l'intégralité des données réparties sur les disques sera
perdue.
Toutefois, étant donné que chaque disque de la grappe a son propre contrôleur, cela constitue
une solution offrant une vitesse de transfert élevée.
Le RAID 0 consiste ainsi en la juxtaposition logique (agrégation) de plusieurs disques durs
physiques. En mode RAID-0 les données sont écrites par "bandes" (en anglais stripes) :

Disque 1 Disque 2 Disque 3


Bande 1 Bande 2 Bande 3
Bande 4 Bande 5 Bande 6
Bande 7 Bande 8 Bande 9

Si un des éléments de la grappe est plus grand que les autres, le système de remplissage par
bande se trouvera bloqué lorsque le plus petit des disques sera rempli. La taille finale est ainsi
égale au double de la capacité du plus petit des deux disques :
• deux disques de 20 Go donneront un disque logique de 40 Go.
• un disque de 10 Go utilisé conjointement avec un disque de 27 Go permettra d'obtenir
un disque logique de 20 Go (17 Go du second disque seront alors inutilisés).
Remarque : Il est recommandé d'utiliser des disques de même taille pour faire du RAID-0 car
dans le cas contraire le disque de plus grande capacité ne sera pas pleinement exploité.

Niveau 1
Le niveau 1 a pour but de dupliquer l'information à stocker sur plusieurs disques, on parle
donc de mirroring, ou shadowing pour désigner ce procédé.

Disque1 Disque2 Disque3


Bande 1 Bande 1 Bande 1
Bande 2 Bande 2 Bande 2
Bande 3 Bande 3 Bande 3

On obtient ainsi une plus grande sécurité des données, car si l'un des disques tombe en panne,
les données sont sauvegardées sur l'autre. D'autre part, la lecture peut être beaucoup plus
rapide lorsque les deux disques sont en fonctionnement. Enfin, étant donné que chaque disque
possède son propre contrôleur, le serveur peut continuer à fonctionner même lorsque l'un des
disques tombe en panne, au même titre qu'un camion pourra continuer à rouler si un de ses
pneus crève, car il en a plusieurs sur chaque essieu...
En contrepartie la technologie RAID1 est très onéreuse étant donné que seule la moitié de la
capacité de stockage n'est effectivement utilisée.

Niveau 2
Le niveau RAID-2 est désormais obsolète, car il propose un contrôle d'erreur par code de
Hamming (codes ECC - Error Correction Code), or ce dernier est désormais directement
intégré dans les contrôleurs de disques durs.

12
Cette technologie consiste à stocker les données selon le même principe qu'avec le RAID-0
mais en écrivant sur une unité distincte les bits de contrôle ECC (généralement 3 disques ECC
sont utilisés pour 4 disques de données).
La technologie RAID 2 offre de piètres performances mais un niveau de sécurité élevé.

Niveau 3
Le niveau 3 propose de stocker les données sous forme d'octets sur chaque disque et de dédier
un des disques au stockage d'un bit de parité.

Disque 1 Disque 2 Disque 3 Disque 4


Octet 1 Octet 2 Octet 3 Parité 1+2+3
Octet 4 Octet 5 Octet 6 Parité 4+5+6
Octet 7 Octet 8 Octet 9 Parité 7+8+9

De cette manière, si l'un des disques venait à défaillir, il serait possible de reconstituer
l'information à partir des autres disques. Après "reconstitution" le contenu du disque défaillant
est de nouveau intègre. Par contre, si deux disques venaient à tomber en panne simultanément,
il serait alors impossible de remédier à la perte de données.

Niveau 4
Le niveau 4 est très proche du niveau 3. La différence se trouve au niveau de la parité, qui est
faite sur un secteur (appelé bloc) et non au niveau du bit, et qui est stockée sur un disque
dédié.

Disque 1 Disque 2 Disque 3 Disque 4


Bloc 1 Bloc 2 Bloc 3 Parité 1+2+3
Bloc 4 Bloc 5 Bloc 6 Parité 4+5+6
Bloc 7 Bloc 8 Bloc 9 Parité 7+8+9

Ainsi, pour lire un nombre de blocs réduits, le système n'a pas à accéder à de multiples
lecteurs physiques, mais uniquement à ceux sur lesquels les données sont effectivement
stockées. En contrepartie le disque hébergeant les données de contrôle doit avoir un temps
d'accès égal à la somme des temps d'accès des autres disques pour ne pas limiter les
performances de l'ensemble.

Niveau 5
Le niveau 5 est similaire au niveau 4, c'est-à-dire que la parité est calculée au niveau d'un
secteur, mais répartie sur l'ensemble des disques de la grappe.

Disque 1 Disque 2 Disque 3 Disque 4


Bloc 1 Bloc 2 Bloc 3 Parité 1+2+3
Bloc 4 Parité 4+5+6 Bloc 5 Bloc 6
Parité 7+8+9 Bloc 7 Bloc 8 Bloc 9

De cette façon, RAID 5 améliore grandement l'accès aux données (aussi bien en lecture qu'en
écriture) car l'accès aux bits de parités est réparti sur les différents disques de la grappe.

13
Le mode RAID-5 permet d'obtenir des performances très proches de celles obtenues en
RAID-0, tout en assurant une tolérance aux pannes élevées, c'est la raison pour laquelle c'est
un des modes RAID les plus intéressant en terme de performance et de fiabilité.
Remarque : L'espace disque utile sur une grappe de n disques étant égal à n-1 disques, il est
intéressant d'avoir un grand nombre de disques pour "rentabiliser" le RAID-5.

Niveau 6
Le niveau 6 a été ajouté aux niveaux définis par Berkeley. Il définit l'utilisation de 2 fonctions
de parité, et donc leur stockage sur deux disques dédiés. Ce niveau permet ainsi d'assurer la
redondance en cas d'avarie simultanée de deux disques. Cela signifie qu'il faut au moins 4
disques pour mettre en oeuvre un système RAID-6.

Comparaison
Les solutions RAID généralement retenues sont le RAID de niveau 1 et le RAID de niveau 5.
Le choix d'une solution RAID est lié à trois critères :
• la sécurité : RAID 1 et 5 offrent tous les deux un niveau de sécurité élevé, toutefois la
méthode de reconstruction des disques varie entre les deux solutions. En cas de panne
du système, RAID 5 reconstruit le disque manquant à partir des informations stockées
sur les autres disques, tandis que RAID 1 opère une copie disque à disque.
• Les performances : RAID 1 offre de meilleures performances que RAID 5 en lecture,
mais souffre lors d'importantes opérations d'écriture
• Le coût : le coût est directement lié à la capacité de stockage devant être mise en
oeuvre pour avoir une certaine capacité effective. La solution RAID 5 offre un volume
utile représentant 80 à 90% du volume alloué (le reste servant évidemment au contrôle
d'erreur). La solution RAID 1 n'offre par contre qu'un volume disponible représentant
50 % du volume total (étant donné que les informations sont dupliquées).

Mise en place d'une solution RAID


Il existe plusieurs façons différentes de mettre en place une solution RAID sur un serveur :
• de façon logicielle : il s'agit généralement d'un driver au niveau du système
d'exploitation capable de créer un seul volume logique avec plusieurs disques (SCSI
ou IDE).
La gamme des systèmes d'exploitation "professionnels" de Microsoft peuvent gérer le
RAID de manière logicielle: Windows NT, 2000 en version serveur gèrent le RAID 0,
1, 5 , Netware gère en mode natif (logiciel) le RAID 1 , Linux gère les RAID 0, 1, 4 et
5. Les séries "amateurs" (DOS, WIN95/98/Me et XP Home) ne gèrent pas le RAID en
mode natif.
• de façon matérielle
o avec des matériels DASD (Direct Access Stockage Device) : il s'agit d'unités
de stockage externes pourvues d'une alimentation propre. De plus ces matériels
sont dotés de connecteurs permettant l'échange de disques à chaud (on dit
généralement que ce type de disque est hot swappable). Ce matériel gère lui-
même ses disques, si bien qu'il est reconnu comme un disque SCSI standard
o avec des contrôleurs de disques RAID : il s'agit de cartes s'enfichant dans des
slots PCI ou ISA et permettant de contrôler plusieurs disques durs.

14
Exemple :

Carte RAID SCSI Adaptec AAA-132 (2 canaux W). Remarquez en haut les quatre
connecteurs (2 wide sur 16 bits et deux narrow sur 8 bits) et sur la droite le connecteur wide
16 bits externe.

9. Sauvegarde serveur réseau


Introduction
la mise en place d'une architecture redondante ne permet que de s'assurer de la disponibilité
des données d'un système mais ne permet pas de protéger les données contre les erreurs de
manipulation des utilisateurs ou contre des catastrophes naturelles telles qu'un incendie, une
inondation ou encore un tremblement de terre.
Il est donc nécessaire de prévoir des mécanismes de sauvegarde (en anglais backup),
idéalement sur des sites distants, afin de garantir la pérennité des données.
Par ailleurs, un mécanisme de sauvegarde permet d'assurer une fonction d'archivage, c'est-à-
dire de conserver les données dans un état correspondant à une date donnée.
Types de sauvegarde
Le mécanisme de sauvegarde mis en oeuvre doit impérativement être pensé de manière à
assurer la pérennité et la récupération de l'ensemble des données critiques de l'organisation,
quel que soit le sinistre subi, sans perturber le fonctionnement du système d'information.
Ainsi, le choix du mécanisme de sauvegarde doit faire l'objet d'une stratégie de sauvegarde,
définissant les données à sauvegarder, la fréquence et le mode de sauvegarde, et d'un plan de
reprise sur sinistre indiquant la démarche nécessaire pour rétablir le fonctionnement normal
en cas d'incident.
On distingue principalement les catégories de sauvegardes suivantes :
• Sauvegarde complète
• Sauvegarde différentielle
• Sauvegarde incrémentale
Sauvegarde complète
L'objectif de la sauvegarde complète (parfois sauvegarde totale ou en anglais full backup) est
de réaliser une copie conforme des données à sauvegarder sur un support séparé. Néanmoins,
pour de gros volumes de données, la sauvegarde complète peut poser des problèmes de
lenteur (si les données sont modifiées en cours de sauvegarde), de disponibilité car elle crée
des accès disques longs et intenses ou encore de coût étant donné la capacité nécessaire. En
revanche elle permet d'obtenir une image fidèle des données à un temps t.
Sauvegarde incrémentale
La sauvegarde incrémentale (en anglais incremental backup) consiste à copier tous les
éléments modifiés depuis la sauvegarde précédente. Ce type de sauvegarde est plus
performant qu'une sauvegarde totale car elle permet de se focaliser uniquement sur les fichiers
modifiés avec un espace de stockage plus faible, mais nécessite en contrepartie de posséder
les sauvegardes précédentes pour reconstituer la sauvegarde complète.

15
Sauvegarde différentielle
La sauvegarde différentielle (en anglais differential backup) se focalise uniquement sur les
fichiers modifiées depuis la dernière sauvegarde complète, ce qui la rend plus lente et plus
coîteuse en espace de stockage qu'une sauvegarde incrémentale mais également plus fiable car
seule la sauvegarde complète est nécessaire pour reconstituer les données sauvegardées.

En terme de support, les serveurs ont depuis toujours requis des supports à grande capacité de
stockage. La bande magnétique a longtemps été le principal vecteur, du fait de sa grande
capacité, de son coût faible (par rapport aux autres supports), de sa capacité de réutilisation et
de sa relative stabilité au temps et à l'usure. Puis sont venus les cartouches numériques
(bandes magnétiques intégrées dans un boîtier plastique type DAT, DLT, SDLT, LTO), les
disques durs et plus récemment les médias optiques, réinscriptibles ou non, tels que les CD-R,
DVD-R ou formats similaires.

10. Le système d’exploitation du serveur


Les systèmes d’exploitation se classent en deux catégories :
• Soit ils sont conçus pour fonctionner sur une machine isolée (comme par exemple, une
station cliente), et alors ils sont construit pour offrir les meilleures performances pour
l’application qui tourne en premier plan (l’application en cours).
• Soit ils sont conçus pour fonctionner en réseau (comme par exemple un serveur), et
alors ils sont construit pour satisfaire toutes les demandes de service qui leur sont
adressée en même temps par des clients différents. Leur capacité doit être répartie
équitablement selon le nombre d’utilisateurs connectés.
On s’intéresse dans cette partie à la deuxième catégorie : les systèmes d’exploitation réseau
(NOS pour Network Operating system en anglais)

Le rôle du système d’exploitation réseau


Le système d’exploitation réseau est le chef de gare du réseau. Le rôle du système
d’exploitation réseau est multiple :
• L’accès des utilisateurs au réseau:
o Créer et gérer les comptes des utilisateurs qui ont accès au réseau
o Définir les permissions des utilisateurs et des groupes (lire, enregistrer,
supprimer, exécuter, …) ….
• Le partage des ressources:
o Définir le degré de partage des ressources
o Des documents :
Au niveau des répertoires
Au niveau des fichiers
o Des périphériques:
Partager les imprimantes,…
Coordonner les accès simultanés à la même ressource
• La surveillance du réseau:
o Les performances
o La sécurité

16
Quelques systèmes d’exploitation réseaux
Le tableau ci-dessous compare les caractéristiques générales et techniques des systèmes
d'exploitation réseaux les plus connus.

Première version Dernière version stable Prix


Créateur
publique (date) (version/date) (en $ Américain)
Fourni avec le
AIX IBM 1986 5.3 (août 2004)
matériel
Le projet 6.2 (15 janvier 2007)
FreeBSD Décembre 1993 Gratuit
FreeBSD et 5.5 (25 mai 2006)
11.23 "11i v2"
HP-UX HP 1983 400$
(Décembre 2005)
Quatrième édition
Inferno Bell Labs 1997 Gratuit
(20/07/2005)
Kernel 2.6.22.4 (21 août
Auteurs 2007), 2.4.35.1 (15 août
GNU/Linux septembre 1991 Gratuit
multiples 2007) et 2.2.26 (5 février
2004)
10.4.10 « Tiger » Fourni avec le
Apple
Mac OS X Mars 2001 (20/06/2007), 10.5.0 matériel. Mises à
Computer
« Leopard » (26/10/2007) jour payantes
Le projet
NetBSD Mai 1993 3.1 (9 novembre 2006) Gratuit
NetBSD
6.5 SP4
NetWare Novell 1985 184$
(Septembre 2005)
Le projet
OpenBSD Octobre 1995 4.1 (1er mai 2007) Gratuit
OpenBSD
DEC (HP à Gratuit
OpenVMS l'heure Février 1978 8.2-1 (septembre 2005) pour usage
actuel) non-commercial
IBM /
OS/2 Décembre 1987 4.52 (décembre 2001) 300$
Microsoft
Plan 9 Bell Labs 1993 Quatrième édition Gratuit
Sun
Solaris Microsyste Juillet 1992 10 (1er février 2005) Gratuit
ms
Windows
Microsoft Avril 2003 5.2 SP1 (30 mars 2005) 999$/5 clients
Server 2003

11. Types de serveurs


Il existe plusieurs types de serveurs :
• Serveur Web
• Serveur de fichiers
• Serveur d’impression
• Serveur d’applications
• Serveur de base de données
• Serveur de messagerie
• Etc….

17
Serveur Web
Un service Web est un logiciel, dont le rôle est d'écouter des requêtes d'un type particulier
(requête HTTP) provenant de clients que l'on appelle navigateurs. Les navigateurs sont bien
connus des utilisateurs, et les plus répandus sont Netscape, Internet Explorer…
Un serveur Web désigne une machine qui fait tourner un logiciel de service web.
Le protocole HTTP (Hyper Text Transfer Protocole) est assez simple : il permet au navigateur
de demander a tout service web de lui retourner un fichier stocké sur le serveur. La plupart du
temps, ces fichiers sont au format HTML (Hyper Text Format Language). Ce format consiste
en du texte simple agrémenté de balises de mises en page qui permettent au navigateur de
présenter le texte sous une forme plus agréable à lire.
Le service web doit être exécuté sur une machine qui possède une identification unique sous
la forme d'un numéro IP (Internet Protocol), afin qu'un navigateur puisse localiser le service
web sans ambiguïté. Bien que seul le numéro IP soit nécessaire, la machine possède
généralement un nom enregistré dans un DNS (Domain Name System), qui permet de
retrouver l'adresse IP à partir du nom. Pour l'utilisateur humain, il est en effet plus simple de
se souvenir d'un nom comme www.menara.ma que de 212.217.121.30.
Quand un service web tourne sur une machine (supposons 212.217.121.30), le protocole
HTTP permet à un navigateur d'accéder à la page d'accueil du service web en indiquant
comme adresse indifféremment : http://212.217.121.30ou http://www.menara.ma
On appelle cette adresse l'URL (Unique Ressource Location).
Voici ce qu'une requête peut donner schématiquement :

Les principaux serveurs web sur le marché sont entre autres :


• Apache
• Microsoft IIS (Internet Information Server)
• ...

Serveur de fichiers
Un serveur de fichiers permet de partager des données à travers un réseau. Le terme désigne
souvent l'ordinateur (serveur) hébergeant le service applicatif. Il possède généralement une
grande quantité d'espace disque où sont déposés des fichiers. Les utilisateurs peuvent ensuite
les récupérer au moyen d'un protocole de partage de fichier.
On utilise généralement l'un des trois protocoles suivant:
• FTP (File Transfer Protocol)
• CIFS (Common Internet File System)
• NFS (Network File System)
Le choix du protocole dépend principalement de la méthode d'accès des utilisateurs. CIFS est
utilisé par les systèmes d'exploitation Microsoft Windows, NFS est répandu dans le milieu
UNIX. Toutefois des implémentations de ces protocoles sont disponibles pour tout type de
système. Ces deux protocoles permettent d'établir des liaisons permanentes entre le client et le
serveur. FTP est utilisé pour des connexions ponctuelles lorsque le client n'a pas besoin d'être
connecté en permanence au serveur de fichier.

18
Serveur d’impression
Un serveur d'impression est un serveur qui permet de partager une imprimante entre
plusieurs utilisateurs situé sur un même réseau informatique.
Le serveur dispose donc :
• d'une entrée réseau (par exemple, un port RJ45 pour un réseau Ethernet) gérant les
protocole réseaux (par exemple, TCP/IP).
• d'une ou plusieurs sorties permettant de se connecter chacune à une imprimante. La
plupart des serveurs d'impression disposent de connexions de sortie USB ; certains
disposent également de sorties parallèle.
Le serveur d'impression peut être constitué d'un ordinateur qui partage une imprimante qui lui
est directement connectée, ou peut être un petit appareil spécialisé. L'avantage de cette
dernière solution est son faible prix. Bien entendu, un serveur d'impression doit toujours rester
sous tension et il est préférable qu'il ait une adresse IP fixe.
Il peut être situé sur un poste client, à partir du moment où l'imprimante est connectée sur un
ordinateur et que celle-ci est partagée, ce poste devient un serveur d'impression.
Le système d'impression qui est le plus utilisé aujourd'hui sous Linux et Unix est CUPS
(Common Unix Printing System).

Serveur d’applications
Un serveur d'applications est un serveur sur lequel sont installées les applications utilisées
par les usagers. Ces applications sont chargées sur le serveur d'applications et accédées à
distance, souvent par réseau.
Dans l'entreprise actuelle, l'outil informatique a pris une place prépondérante. Des
applications qui interviennent dans toutes les étapes du processus métier, de la production à la
comptabilité. Ces applications, qui étaient souvent disposées sur différents postes (clients
lourds), sont aujourd'hui de plus en plus centralisées sur des serveurs d'applications, sollicités
par des postes clients plus légers (clients légers, riches, ou semi-lourds). Ces serveurs sont de
larges systèmes contenant les différentes applications de l'entreprise.
Un serveur d'applications peut être un serveur qui centralise toutes les applications utilisées
par les postes clients. Les applications sont chargées sur le serveur tandis que leurs IHM
(Interfaces Hommes-Machines) distribuées sur les postes clients. Dans une infrastructure N-
tiers régulière, on peut déployer plusieurs serveurs d'applications, que ce soit pour répartir la
charge lorsque le nombre élevé de postes clients est une exigence critique, ou que ce soit
simplement pour les redonder lorsque leur disponibilité est une exigence critique (les
dispositifs de redondance peuvent être plus ou moins sophistiqués suivant qu'ils garantissent
des temps de reprise en secours plus ou moins brefs).
Le serveur d'applications agit comme tout serveur, il prend la requête du poste client, exécute
les traitements à effectuer et retourne le résultat au poste client. Ce faisant, il assure la
persistance des données au cours et entre plusieurs transactions d'un même poste client, ainsi
que la persistance des données partagées et les arbitrages d'accès entre plusieurs postes clients
concurrents.

19
Serveur de base de données
Le choix du matériel informatique sur lequel on installe un SGBD (Système de Gestion de
Base de Données) est fonction, comme ce dernier, du volume des données stockées dans la
base et du nombre maximum d'utilisateurs simultanés.
Lorsque le nombre d'enregistrements par table n'excède pas le million, et que le nombre
d'utilisateurs varie de une à quelques personnes, un micro-ordinateur actuel de bonnes
performances, un logiciel système pour poste de travail, et un SGBD "bureautique" suffisent.
Exemple : le logiciel Access 2002 de Microsoft, installé sur un PC récent, doté de 1 Go de
mémoire vive et fonctionnant sous Windows XP.
Si ces chiffres sont dépassés, ou si le temps de traitement des données devient prohibitif, il
faut viser plus haut. Le micro-ordinateur doit être remplacé par un serveur de base de
données, dont les accès aux disques durs sont nettement plus rapides. Le logiciel système
client doit être remplacé par un logiciel système serveur (donc multi-utilisateurs), et le SGBD
bureautique par un SGBD prévu pour les grosses bases de données multi-clients. Ceci dit, la
structure d'une grosse base n'est pas différente de celle d'une petite, et il n'est pas nécessaire
de disposer d'un "mainframe" (une grosse machine) gérant des milliers de milliards d'octets
pour apprendre à se servir des bases de données. Ce n'est pas parce qu'il gère un plus grand
volume de données qu'un SGBD possède plus de fonctionnalités.
Un serveur de base de données doit posséder à la fois les qualités de serveur de fichier (bon
accès aux disques) et celles d'un serveur d'applications (unité centrale bien dimensionnée,
mémoire vive suffisante).

Serveur de messagerie
Un serveur de messagerie est une machine dédiée à l'envoie et à la réception de courriers
électroniques. Pour la réception, on utilise un serveur permettant de stocker tous les courriers
reçus jusqu'à ce que l'utilisateur relève son courrier à partir de sa boîte électronique.
Ce type de serveur utilise soit le protocole POP3 (Post Office Protocol), c'est la raison pour
laquelle on parle de "serveur POP", soit le protocole IMAP (Internet Mail Access Protocol),
plus récent.
Pour l'envoi, on fait appel à un serveur capable de transmettre directement ou de relayer les
courriers selon le protocole standardisé,le protocole SMTP (Simple Mail Transfert Protocol),
c'est la raison pour laquelle on parle de serveur SMTP.
Le travail d'un serveur de messagerie est normalement effectué par votre fournisseur d'accès
Internet, mais vous pouvez installer votre propre serveur pour, par exemple, mieux contrôler
les entrées et sorties des courriels au sein de votre réseau.

$ %&
+ (, ())*

20

Vous aimerez peut-être aussi