Vous êtes sur la page 1sur 7

Chapitre 1 : Technologie Serveurs

1.1 Introduction.

A côté de la connaissance des protocoles et des services en réseaux, un aspect important


conditionne la mise en œuvre pratique d'un système d'information : c'est la connaissance
technologique des solutions proposées, celles-ci évoluant de manière très rapide, il est toujours
difficile de les présenter sous une forme synthétique et de départager ce qui ne sera que des
solutions fugitives d'avec des évolutions technologiques durables. La tendance actuelle (qui ne
correspond qu'à un retour à des choix technologiques du début de l'informatique) est vers un retour
à la centralisation des moyens informatiques (matériels et logiciels). Cette évolution est
principalement conditionnée par l'augmentation de la complexité des systèmes d'information qui
nécessite une gestion de plus en plus précise, et donc qui revient aux mains de services
informatiques centraux et échappe de plus en plus à l'utilisateur, voire même à l'entreprise
(développement de l'infogérance).

Deux aspects principaux peuvent être considérés :


- les aspects matériels
- les aspects logiciels

Nous verrons successivement ces 2 aspects dans ce chapitre, tout en gardant à l'esprit que l'un et
l'autre sont liés.

En ce qui concerne l'aspect matériel, les évolutions vont aller dans plusieurs sens :
- améliorer les performances
- réduire le coût
- améliorer la fiabilité.

Nous verrons, les évolutions en ce qui concerne le packaging des systèmes et la répartition des
ressources de stockage.

Pour l'aspect logiciel, nous pourrons considérer :


- l'amélioration de la fiabilité
- un meilleur usage du matériel
- une optimisation de la mise en œuvre et de la maintenance

1
1.2 Packaging des serveurs.
L'augmentation continuelle du nombre de services intégrés dans un système d'information, et donc
du nombre de serveurs a conduit à rechercher des solutions pour réduire la taille globale de
l'infrastructure des serveurs. Partant de boîtiers desktop (adaptés à la pose de l'écran au dessus) ou
« tour », les serveurs actuels ont migré vers des formats plus faciles à intégrer (rack...).

1.2.1 Serveurs en rack

Les serveurs en rack, souvent de format 19 pouces (en épaisseur multiple de 1,75 pouces : 1U),
permettent de mettre plusieurs serveurs dans une seule armoire et de les regrouper avec d'autres
catégories d'équipements tels les commutateurs. Ces serveurs, hérités des anciens ordinateurs au
format industriel (en rack eux aussi), même s'ils n'en n'ont pas les protections contre les agressions
extérieures, sont plus compacts et mieux protégés dans des armoires. Un certains nombre de
fonctions annexes peuvent être gérées de manière collective (ventilation supplémentaire, onduleurs,
clavier/écran via un commutateur...). Quoi qu'il en soit, chaque serveur possède toutes les
fonctionnalités habituelles d'un ordinateur (connectiques pour les périphériques, disque dur
interne...).

(Merci DELL Computer)

1.2.2 Serveurs Lame (Blade server)

Une évolution naturelle de cette intégration dans une armoire a été de partager un certain nombre
de fonctions soit peu utilisées dans un serveur (clavier/écran/souris), soit utilisées intensivement
mais de manière intermittente (carte réseau, disque dur...), soit facilement partageables
(alimentation, ventilation…).
Ceci a conduit à la réalisation de serveurs dont certains composants habituels dans un ordinateur ne
sont plus intégrés mais mutualisés entre plusieurs serveurs : on les nomme serveurs "Lame". Ce ne
sont plus alors des serveurs en boîtiers "rackable" mais tout simplement des cartes électroniques qui
vont se connecter à une baie adaptée (spécifique à un constructeur). Sur ces cartes électroniques, les
éléments dominants sont les processeurs et la mémoire centrale, une interface spécifique permettant
d’accéder via le fond de panier aux périphériques partagés.

Les principaux avantages des serveurs lame sont :


• le gain de place (30% plus petit qu’un serveur en rack),

2
• un coût normalement inférieur, à condition de rassembler un nombre suffisant de serveurs
( 4 minimum) pour que le coût de l’armoire contenant l’alimentation, les périphériques, la
ventilation soit compensé par l’économie sur les cartes serveurs (qui sont alors simplifiées),
• une moindre consommation (par réduction du nombre de périphériques qui consomment de
l’énergie), cet aspect étant en partie annulé par le fait que la densité de serveurs augmentant,
il est nécessaire de prévoir une ventilation plus efficace

(1) Interconnection (switch Ethernet, Fiber channel…)


(2) Blade Server (HP Proliant)
(3) Power Supply (Merci HP)

Les principaux constructeurs sont HP, IBM, DELL mais les autres constructeurs se sont aussi lancés
sur ce créneau de marché en plein développement.

1.3 Packaging des éléments de stockage de masse


La mutualisation de certains éléments périphériques, s’il ne pose pas de problème pour les
périphériques lents (clavier, souris…) conduit à envisager des solutions différentes pour ce qui
concerne le stockage de masse (disque dur) où de nombreux accès quasi-simultanés peuvent avoir
lieu.

3
L’architecture habituel de stockage sur un ordinateur est de type DAS (Direct Attached Storage),
c’est à dire que le disque dur (ou les disques) est directement relié au bus périphérique avec des
normes d’échanges de type ATA/IDE, SATA ou SCSI, ce dernier type se retrouvant plus
particulièrement sur les serveurs en raison de sa meilleure fiabilité. Quoi qu’il en soit, ce type
d’architecture est assez mal adapté à la mutualisation de cette ressource car les bus associés ne
permettent pas un multiplexage aisé. Des évolutions ont donc été nécessaires.

1.3.1 Serveur NAS (Network Attached Storage).


Un serveur NAS est une machine uniquement dédiée au stockage de données, les communications
entre cette machine et les machines clientes se font sur un support réseau standard (si possible avec
un bon débit, exemple : Gbit/s Ethernet). La liaison entre le serveur NAS et les serveurs qui
l’utilisent, se fait à l’aide de protocoles standard (NFS, SMB/CIFS..), l’accès concurrent s’en
trouve alors grandement facilité.

Les avantages principaux de ce type de solutions et la réduction du coût de stockage, une sûreté de
fonctionnement plus importante, une facilité de gestion des espaces de stockage.
Un système NAS peut-être considéré comme un ordinateur orienté stockage, il fonctionne en
général sous un système d’exploitation dérivé de systèmes d’exploitation standard (Windows,
UNIX). Dans ces machines, la partie stockage est particulièrement soignée, en général basée sur des
disques Raid et des interfaces disques très performantes, la simplification du reste du système
permet toutefois d’obtenir des bons rapports qualité/prix.

1.3.2 Stockage SAN (Storage Area Network)


Un ensemble de stockage SAN va lui aussi fournir des ressources de stockage à un ensemble de
serveurs mais les échanges se feront à un niveau plus bas proche de celui des interfaces disques
pour les systèmes DAS. Des protocoles supportés par les couches basses réseaux vont permettre des
accès efficaces au système de stockage. On retrouve des protocoles comme Fiber Channel, iSCSI
(le protocole SCSI sur TCP/IP), ou Fiber channel sur Ethernet. Comme l’accès se fait à plus bas
niveau, les données stockées doivent avoir un format propre, ce qui ne permet pas de mixer l’accès
pour des systèmes différents (Windows, UNIX…), le réseau de stockage est alors découpé en unités
logique pour chaque type d’accès. L’intérêt du regroupement étant alors de pouvoir gérer, la
redondance et les sauvegardes de manière unique.
Cette solution se retrouve en particulier dans les systèmes basés sur des serveurs Lame où les
serveurs communiquent via le fond de panier avec des unités de stockage.

4
1.4 Regroupement de plusieurs serveurs sur une même
machine physique (virtualisation)
Dans le début de ce chapitre nous avons vu comment la technologie pouvait permettre de
rationaliser la taille et certaines fonctions des serveurs, une autre possibilité est de faire cohabiter
plusieurs serveurs sur la même machine physique.

Ceci ne pose aucun problème sur les machines actuelles qui ont toutes des systèmes d’exploitation
multi-tâches. En effet, rien n’empêche de lancer simultanément un serveur DHCP, un serveur DNS
et même un serveur de fichiers sur la même machine, une des conditions de bon fonctionnement
étant que les ressources demandées à la machine ne soient pas disproportionnées. Il n’y a aucun
problème en marche normale pour répondre à des demandes DHCP (au maximum quelques unes
par secondes) ainsi qu’à requêtes DNS et en même temps de fournir un espace de stockage pour un
certain nombre de clients. Toutefois ce mode de fonctionnement pose des problèmes de fiabilité. En
effet, supposons une machine cliente, un peu déréglée, qui va demander 500 renouvellements
d’adresses DHCP par seconde et voici l’ensemble des services qui s’écroule…
La gestion multi-tâche peut en partie compenser ce problème, mais l’expérience montre qu’un
programme ou service en difficulté sur une machine va gravement perturber le fonctionnement de
toute la machine.

L’idée alors est de cloisonner de manière plus stricte les différents services proposer par la machine
serveur. La solution mise en œuvre actuellement est de virtualiser chaque service dans une machine
virtuelle spécifique mais hébergée physiquement par une seule machine.
Un logiciel ou un système d’exploitation complet va alors servir de socle au fonctionnement global,
chaque service étant alors fourni par une pseudo-machine dont les ressources sont fortement
contraintes par une spécification initiale.

Plusieurs catégories de mises en œuvre peuvent être envisagées (merci Wikipedia pour les images) :

Une simple isolation de l’espace de travail :

Chaque service utilise les ressources du système d’exploitation mais avec un environnement de
travail isolé (chroot sous UNIX). Cela permet entre autre de donner certains droits sans remettre en
cause la stabilité de fonctionnement du système global. Certains antivirus imposent aux applications
externes de fonctionner avec ce schéma là (SandBox).

Une émulation de machine physique :

5
Dans le cas d'une émulation complète, tout le système est simulé par un programme de la machine
hôte, les performances sont fortement dégradées. Dans une mise en œuvre plus évoluée, certaines
ressources sont en accès direct (mais contrôlé !) : mémoire réservée pour chaque OS, temps unité
centrale partagé. L'accès aux ressources de stockage (disque,...) est réalisé via un pseudo fichier
réservé dans le système d’exploitation hôte. Les accès aux périphériques d’entrée-sortie se font via
des canaux qui viennent s’insérer entre l’OS invité et l’OS hôte (c'est un point complexe de cette
solution, car la gestion de la capture doit bien répondre au besoin utilisateur).

On retrouve dans cette catégorie des produits VMWare, Microsoft (Virtual PC) et Oracle
(VirtualBox).
Dans une telle architecture, chaque serveur virtuel se retrouve isolé, seul l’OS hôte accède à toutes
les ressources, de ce fait, il est déconseillé de l’utiliser lui aussi pour héberger des services, il est
donc sous utilisé.

1.4.1 Les Hyperviseurs

Afin de ne pas consacrer trop de ressources pour l’OS hôte on peut le réduire uniquement à son rôle
on parle alors d’Hyperviseur.

L’OS hôte ne va alors fournir que le support d’interface avec le matériel pour les OS invités, ainsi
que les outils permettant de gérer la supervision de l’hypervision ! C’est forcément plus efficace.

On retrouve des solutions comme Xen, VMWare, HyperV l'hyperviseur Windows Server.
Ces solutions sont souvent dépendantes des nouvelles capacités des processeurs à gérer la
virtualisation à bas niveau (flag VT-X sur processeurs Intel ou AMD-V sur processeurs AMD), ce
qui permet une commutation de contexte plus rapide.

6
Souvent la virtualisation est mise en œuvre sur des serveurs qui vont apporter des services
applicatifs complets à des clients léger (comme des solutions Citrix). Cette évolution vers la
centralisation du traitement sur des postes spécifiques est importante actuellement et représente un
retour aux architectures informatiques d’avant les postes personnels (PC).

1.4.2Les containers

Une autre évolution consiste à la généralisation du fonctionnement virtualisé. Pour des raisons de
sécurité et d'indépendance des services, chaque service est hébergé sur une machine virtuelle. Pour
ne pas utiliser trop de ressources, les machines virtuelles sont réduites au maximum, et insérées
dans des conteneurs (containers). Cela permet aussi de basculer rapidement d'un environnement de
développement à un environnement de production (approche devops), car chaque service étant
indépendant, une mise à jour n'a d'effets que sur un élément réduit de l'ensemble. Plusieurs
solutions existent : Linux Container (pour Linux), Hyper-V Containers (pour Windows) ou Docker
(solution libre sous Linux et Windows). Les machines virtuelles ne contiennent que le strict
nécessaire pour la mise en place du service et sont isolées les unes des autres et communiquent par
des services réseaux.

Vous aimerez peut-être aussi