Académique Documents
Professionnel Documents
Culture Documents
Introduction à la virtualisation
En 2007, c’est la fin des machines monoprocesseurs avec la course à l’évolution des MégaHertz.
Du fait de la consommation électrique élevée et les caractéristiques techniques des machines largement
supérieures aux demandes informatiques, la généralisation de la virtualisation a débuté.
Historique
Le début de la virtualisation remonte aux années 1960 sur des Mainframes IBM. On appelait, à l’époque,
les machines virtuelles, des PSEUDO-MACHINES. Le Mainframe utilisait un programme de contrôle pour
allouer des ressources et isoler les différentes instances des pseudo-machines entre-elles.
A la fin des années 90, il y a eu une transposition du concept IBM vers les architectures à processeurs
X86.
La première entreprise a se lancer, a été VMWARE dès la fin des années 90 en sortant WMWARE
Workstation. L’hyperviseur ESX, lui, est sorti en 2001. Les autres acteurs de la virtualisation ont emboîté le
pas. XENSOURCE, virtualisation OpenSource, est sortie en 2003 mais a été racheté par CITRIX en 2008
pour donner une version propriétaire XEN CITRIX et une version sortie OpenSource XEN XCP. La solution
Hyper-V de Microsoft n’est sortie qu’en 2008,
Concept
La virtualisation comprend l’ensemble des technologies et techniques permettant de séparer les
caractéristiques techniques d’un matériel supportant des logiciels orientés utilisateurs du système physique
pouvant l’héberger.
- virtualisation de serveurs :
consiste en l’isolation par une couche logicielle du contenu Système d’Exploitation et applications
de serveurs sur une machine physique : celle-ci pouvant offrir ses ressources systèmes (mémoire,
processeurs, réseau, ….) à plusieurs machines serveurs encapsulées dans un environnement
logiciel indépendantes les unes des autres.
- virtualisation d’applications :
- virtualisation de stockage :
ce système permet de masquer les spécificités techniques des moyens de stockage permettant au
Système d’Information de voir l’ensemble comme un point unique de stockage.
- virtualisation de réseaux :
la virtualisation de réseaux est une couche d’abstraction supprimant l’adhérence entre les réseaux
logiques et les réseaux physiques où les commutateurs physiques ne servent plus qu’au transport
des flux IP avec comme objectif de fournir un partage efficace, contrôlé et sécurisé des ressources
réseaux.
Du fait des niveaux de privilèges d’utilisation des CPUs, interdisant de faire fonctionner plusieurs Systèmes
d’Exploitation sur une même machine physique, il a fallu trouver des moyens pour autoriser le
fonctionnement de plusieurs machines de Systèmes d’Exploitation différents. Du point de vue processeurs,
le logiciel appartient à 4 niveaux d’abstraction (anneaux ou rings : 0, 1, 2, 3). Chaque anneau définit un
niveau de privilège décroissant : les instructions les plus critiques demandant le niveau de privilège le plus
fort (0). Les applications utilisateur demandent un niveau 3, les routines systèmes matériel demandent un
niveau 0.
Virtualisation de serveurs
Virtualisation simple
Cette technique de virtualisation consiste à installer une surcouche sur un Système d‘Exploitation hôte afin
d’émuler le Système d’Exploitation invité.
Les machines virtuelles sont bien isolées entre-elles mais cette technique est très consommatrice de
ressources, principalement dans les Entrées/Sorties et en mémoire.
Hyperviseur
L’hyperviseur s’appuie, généralement, sur la paravirtualisation, technique qui implique que le Système
d’Exploitation hôte soit modifié et adapté pour faire fonctionner les Systèmes d’Exploitation invités. La
paravirtualisation permet aux machines virtuelles de communiquer ensemble et avec la machine hôte, par
l’intermédiaire d’un bus logiciel.
Les machines paravirtualisées exploitent directement les drivers physiques pour la gestion des
Entrées/Sorties.
Le rôle de l’hyperviseur consiste à fournir aux machines virtuelles, un matériel virtuel (processeur,
mémoire, …) et à en contrôler le fonctionnement.
- limite maximal d’hôtes et de machines virtuelles possibles : les solutions de machines virtuelles sont
limités en terme d’exploitation des ressources matérielles et de configuration maximale de VMs ;
- limite max de CPU logique par VM ;
- limite max de mémoire physique exploitable ;
- nombre max de VMs par hôte ;
- nombre max de VCPU par VM ;
- limite sur la quantité de VRAM par VM ;
- limite de la taille maxi de disques virtuels.
- …
Console de gestion :
Elément essentiel pour exploiter les fonctionnalités proposées par la solution de virtualisation. Cette
console peut être accessible par un navigateur web ou par un logiciel d’administration spécifique.
On accepte aussi un délai de mise en route car les machines virtuelles sur le site PRA sont arrêtées en
fonctionnement normal.
- migration à chaud
- migration à froid
Migration à chaud
La migration à chaud permet d'effectuer une migration de machine virtuelle sans arrêter la machine source.
L'action peut se faire soit en mode console à partir d'outils du système de virtualisation ou d'outils tierces,
soit en mode commande..
- transfert du contenu du serveur physique vers la machine virtuelle, machine physique en production ;
Migration à froid
La migration à froid se fait machine source arrêtée.
Entre machine virtuelle (V2V), cela consiste juste à faire un export de la machine virtuelle d'un serveur
virtuel vers un autre.
En V2P, il suffit de créer une image (.iso, ...) à partir de la machine virtuelle et de l'installer sur le serveur
physique.
En P2V, c'est la même chose. Il faut faire une image du serveur physique avec un outil (clonezilla, Acronis
Backup, ...) et ensuite de la réinstaller sur la machine virtuelle préparée pour accueillir l'image du serveur
physique.
Virtualisation d’applications
La virtualisation d'application a principalement comme objectif de réduire la complexité liée à la gestion et
au déploiement des applications au sein du Système d'Information (déploiement, mise à jour, suppression,
gestion des utilisations de licences, ...).
La virtualisation d'application peut être aussi une solution dans la gestion des conflits d'applications
(version java, ...) mais aussi pour traiter les dépendances nécessaires entre les applications.
L'exécution du fonctionnement des applications se fait dans un contexte d'exécution indépendant et isolé
du Système d'Exploitation client.
Les solutions de virtualisation d'application peuvent fournir des applications virtualisées par une
implantation d'une solution de virtualisation soit directement sur le poste de travail, soit à partir d'une
solution à base de serveur.
- architecture centralisée ;
- ...
- Citrix XENAPP
Les directions informatiques ont besoin de réduire les coûts de fonctionnement (exploitation et
administration des systèmes) ainsi que diminuer les déplacements (ECO-TIC, réduction des coûts, gains
de temps, ...). Ils souhaitent aussi gagner en flexibilité dans le déploiement des postes de travail. De la
même manière, afin de réduire le temps consacré au poste de travail, il faut diminuer le temps consacré au
poste de travail, par exemple, en diminuant les temps liés aux désinfections virales ou en bloquant la
diffusion en cas d'attaque virale.
La solution est la virtualisation de postes informatiques. La virtualisation de postes de travail permet de
décoreller les éléments logiciels (système d'exploitation, applications, ...) des éléments physiques
(processeur, mémoire, stockage, ...) : la partie logicielle peut être hébergée sur un serveur centralisé. La
partie physique ne sert plus qu'à prendre en charge les entrées (clavier, souris) et l'affichage (écran).
L'ensemble de l'environnement de travail de tous les utilisateurs est donc stocké de manière centralisé,
facilitant, de fait, le déploiement et les évolutions sur ceux-ci. Le poste client peut être un client léger, un
PC classique, un PC portable, une tablette, ...
L'utilisateur n'a plus besoin que d'un accès réseau pour profiter de son environnement de travail.
Sécurisation de fonctionnement
Du fait de la non-persistance de l'environnement de travail sur le poste physique, l'administrateur a la
pleine gestion de tous les postes de travail pouvant, ainsi, facilement :
- limiter les vols de matériels devenus inintéressants car il n'y a rien sur le poste et peu de technologie ;
- ...
- l'accès à l'environnement de travail sur un seul poste uniquement ou à partir de n'importe quelle
machine physique quelque soit la position géographique;
- l'accès à un poste de telle heure à telle heure ou complètement interdire complètement l'accès (départ
de l'entreprise, ...).
Solution basique
Dans cette solution, une machine virtuelle correspond à une machine qui pourra être utilisée. Les
avantages principaux de cette solution sont la centralisation des machines, l'évolution, ...
Une déclinaison de cette solution est la mise en cluster des hyperviseurs sur des sites différents permettant
d'améliorer la disponibilité et la fiabilité.
Une évolution proposée par certaines solutions de virtualisation de postes de travail concerne la possibilité
d'exécuter une partie des fonctionnalités sur le poste client en utilisant ces ressources , s'il en dispose, afin
d'améliorer le traitement. Ceci est principalement intéressant dans le cas de postes de travail virtuels
demandant de la ressources pour le graphisme (postes informatiques de dessinateurs, jeux vidéos, postes
multimédia, ...).
- VMWARE VIEW,
- CITRIX DESKTOP,
- NEOCORTECH.
Virtualisation de stockage
La virtualisation de stockage permet aux systèmes informatiques (applications, systèmes, ...) de voir une
source de stockage uniforme masquant les différents types de ressources utilisées.
Tous les systèmes de stockage physiques sont présentés comme un lieu unique de stockage permettant
d'ajouter des nouveaux moyens de stockage de façon complètement transparente pour les applications et
systèmes les utilisant.
- virtualisation symétrique
Ce type de virtualisation met en jeu 3 acteurs : client, stockage et le serveur de virtualisation de stockage.
Toutes les données du client sont stockées sur les systèmes physiques en passant par le serveur de
virtualisation de stockage.
- virtualisation asymétrique
Dans ce type de virtualisation de stockage, le client dispose d'un agent qui demande au serveur de
virtualisation de stockage où se trouve le stockage et l'agent se charge de communiquer directement avec
le système de stockage concerné.
- ...
- DATACORE : acteur majeur du domaine qui dispose de toute une gamme logicielle sur le domaine.
- EMC : propose des produits matériels et logiciels ainsi que les services associés.
DATACORE est une solution simple et abordable très bien adaptée aux petites infrastructures
informatiques.
- ....
DATACORE est une application WINDOWS qui est intégrée à la MMC du serveur support et permet
plusieurs possibilités :
- ...
DATACORE est aussi une très bonne solution à mettre en œuvre dans le cadre d'un PRA pour s'affranchir
de toutes les problématiques spécifiques de stockage de tel ou tel système.
Virtualisation de réseaux
De la même façon que la virtualisation de serveurs, la virtualisation de réseau place une couche
d'abstraction entre les réseaux logiques et les équipements physiques du réseau.
Dans la virtualisation de réseaux, les commutateurs servent en majorité à transporter le trafic IP. Dans la
virtualisation de réseau, un hyperviseur gère :
- la configuration réseau;
- la sécurité ;
- la haute disponibilité ;
- ...
La virtualisation de réseaux fonctionne avec n'importe quel type de commutateurs : le seul pré-requis est la
capacité du commutateur à transporter un trafic IP. Il y a une indépendance totale vis à vis des matériels.
Un hyperviseur réseau virtualise toutes les couches, du niveau 2 au niveau 7 du modèle OSI.
- simplifier les réseaux physiques qui ne sont plus utiliser que pour le transport des flux IP ;
- simplifier les modification de paramètres réseaux du fait de l'indépendance avec les modèles et types
d'équipements actifs ;
- ...
La virtualisation de réseaux est le réseau virtuel (ne pas confondre avec VPN : réseau chiffré point à point)
qui se décompose en 2 grandes catégories :
- les cartes réseaux virtuelles (VNIC). Ce sont des périphériques réseaux virtuels avec les mêmes
caractéristiques que les interfaces réseaux physiques.
- les commutateurs virtuels, qui permettent d'associer plusieurs cartes virtuelles à une carte physiques et
permettre les routages externes.
Chaque réseau d'ordinateurs virtuel possède un domaine de routage identifié par un identifiant (RDID).
Un sous-réseau virtuel fonctionne comme un réseau physique classique avec son propre domaine de
diffusion (fonctionne de la même manière que les VLANs). Un sous-réseau virtuel appartient à un et un
seul réseau d'ordinateurs virtuel (RDID) et il lui est assigné un identifiant de sous-réseau virtuel (VSID) : le
VSID est unique dans le centre de données (DATACENTER).
Les équipements informatiques d'un sous-réseau virtuel communique comme s'ils étaient sur un même
réseau physique.
Les sous-réseaux virtuels (VSID) d'un même réseau virtuel (RDID) peuvent communiquer par des
techniques de routage.
En revanche, les équipements informatiques de 2 réseaux virtuels (RDID différents) ne peuvent pas
communiquer ensemble : les cartes réseaux virtuelles associées à un RDID ne peuvent pas envoyer de
paquets aux autres cartes réseaux associées à un autre RDID.
Notions clés
Métriques
4 indicateurs de niveau différent sont à prendre en compte pour la virtualisation
- CPU : pas d'importance, la puissance processeur utilisée par un serveur est d'environ 3 à 4 %.
- I/O disques : les disques sont peu importants sur les serveurs d'origine mais sont capitaux à la cible
de virtualisation du fait du stockage centralisé
- RESEAU : par expérience, il ne faut pas négliger le nombre de ports réseaux sur les serveurs de
virtualisation.
La RAM et les I/O disques sont les indicateurs les plus importants (point pivot). Dans tous les cas, il faut
que ces 4 métriques soient cohérents.
Taux de densification
C'est le nombre de machines virtuelles par hyperviseur, ce paramètre est très important. Le taux de
densification moyen à l'heure actuel est d'environ 20..30.
Plus le taux de densification est élevé, moins le coût de la solution de virtualisation est important par
rapport à un système classique.
2 approches :
1 - plus je remplis (style surbooking en aviation) moins le coût est élevé mais plus j'augmente les risques
de problèmes;
2 - je m'intéresse à avoir une haute qualité de service, je mets un minimum d'instance par hyperviseur et
je garde de la place pour déplacer des instances vers un autre hyperviseur.
Indicateurs sur stockage centralisé
Point très important dans un projet de virtualisation, il faut un réseau dédié au stockage séparé du flux de
données. Il faut prendre en compte :
Ces 2 paramètres déterminent les capacités de la baie de stockage : nombre d'Entrées/Sorties dont on
a besoin.
- capacité : c'est le taux d'utilisation réel des disques plus les mécanismes de SNAPSHOT.
Mesures et simulation
Nombre d'hyperviseurs
Il faut définir le nombre d'hyperviseurs nécessaire pour accepter les serveurs existants et prendre en
compte l'évolution du Système d'information. C'est lié avec le taux de densification et l'approche du taux de
densification souhaité.
Le débit moyen en Fibre Channel est d'environ 8 Gbits/s et celui en ISCSI est inférieur à 10 Gbits/s. Ces
débits sont quasiment identiques tant que la taille des blocs sont inférieurs à 16 Ko, ce qui est la généralité
dans la majorité des cas (plutôt des blocs de 4 à 10 Ko). Vu le coût, il est préférable de s'appuyer sur du
ISCSI dans la majorité des entreprises.
ECO-TIC
C'est un point important qui est à prendre en compte dans le fait de mettre de la virtualisation dans une
architecture informatique. On considère qu'un serveur virtualisé au regard d'un serveur physique, c'est
l'énergie de 2 voitures économisés annuellement.
Pour exemple, la puissance consommée d'un processeur quad-core est d'environ 650W, la puissance
consommée d'une baie SAN de stockage est de 3 à 4 KW
Sécurité au niveau de la virtualisation
La virtualisation apporte quelques avantages dans la sécurité des systèmes d'informations. Les principaux
avantages à ce niveau sont :
- si un virus est installé sur une machine virtuelle, la solution est simple de revenir à une situation saine.
- la relative isolation entre une machine virtuelle et son serveur hôte permet de limiter les actions des virus.
De plus, si un disque d'une machine virtuelle est corrompu, le disque physique lui reste intact.
- la portabilité de machines virtuelles permet de les utiliser à moindre coût dans des solutions de Plan de
Reprise d'Activités.
En revanche, la virtualisation apporte aussi son lot de risques de sécurité avec des risques pouvant
toucher, le système d'exploitation, la couche de virtualisation ou les deux.
- risques de compromission
un attaquant prenant la main sur un système hôte peut entraîner éventuellement la compromission de
l'ensemble des systèmes invités.
- risques d'indisponibilité
l'ensemble des machines étant sur une seule machine, l'interruption de celle-ci impacte un ensemble
de service.
la gestion des erreurs est plus compliquée à gérer dans un système virtualisé. Il en est de même pour
bien déterminé d'où provient un incident : quel est l'organisme où le système est à l'origine.
- prévoir une architecture assurant facilement la disponibilité : traiter correctement la consolidation des
machine sur l'hôte, ce qui augmente la criticité ;
La sécurité du serveur physique hébergeant les outils de virtualisation (hyperviseur, ...) est critique. Il faut
donc bien protéger ces éléments. Une bonne pratique est de séparer le réseau d'administration des
serveurs physiques et le réseau des machines virtuelles.
- CPU
- Mémoire
la mémoire attribuée est généralement réservée à la création de la machine virtuelle. On peut définir un
minimum et un maximum de RAM (ressource la mieux gérée).
- Stockage
- Réseau
actuellement, c'est la ressource la moins bien gérée. Il n'y a aucune limitation de bande passante
possible.
La virtualisation et le Cloud Computing sont 2 concepts différents mais ils sont complémentaires. La
délivrance de services de cloud computing utilise la virtualisation. La virtualisation est nécessaire dans le
cloud computing principalement pour l'automatisation de la mise à disposition des ressources et le suivi
des consommations. Le cloud s'appuie aussi sur la containairisation.
Le principal avantage du cloud computing est de fournir la capacité pour les clients de gérer les instances
virtuelles de manière simple, rapide et dynamique : les services devant être disponibles et utilisables
immédiatement sans faire appel à un administrateur système.
Services en nuage
Ce sont des services proposés par un cloud. Le type de services sont :
IAAS (Infrastructure_As_A_Service)
L'IAAS permet de mettre à disposition du client, une infrastructure informatique qui conviendra à tout
moment aux besoins en ressources de l'entreprise cliente.
- Virtual Data Center (VDC) : mise à disposition de serveurs virtualisées interconnectés pouvant fournir
des capacités d'hébergement.
PAAS (Plateform_As_A_Service)
Le PAAS permet aux utilisateurs de créer des applications en utilisant les outils fournis par le fournisseur
cloud. Le client ne prend que les fonctionnalités pré-configurées convenant à ses exigences.
L'infrastructure et les applications sont gérées par le fournisseur cloud. Le client n'est facturée qu'aux
service PAAS utilisés.
SAAS (Service_As_A_Service)
Les utilisateurs peuvent avoir accès aux applications à partir de n'importe quel appareil disposant d'une
connexion Internet : on parle de logiciel à la demande.
Dans ce système, les utilisateurs souscrivent à un abonnement pour le logiciel souhaité plutôt que de
l'acheter.
- tout est compris : la puissance nécessaire au fonctionnement est à la charge du fournisseur cloud.
- paiement à l'utilisation.
- accessible de partout.
- ...
Un client peut réserver unilatéralement des capacités informatiques (temps serveurs, stockage réseau, ...)
en fonction de ses besoins et de manière automatique (sans intervention humaine).
Les capacités sont disponibles au travers du réseau et l'accès se fait via des mécanismes standards pour
une utilisation sur tout type de plate-forme (smartphone, tablette, PC lourd, ...).
Elasticité rapide
Modèles de cloud
- cloud privé : infrastructure réservé à l'entreprise
- cloud communautaire : partage par plusieurs entreprises ayant des préoccupations communes
- cloud hybride : infrastructure pour 2 clouds qui partagent uniquement les infrastructures physiques
Containerisation et virtualisation
Présentation de Docker.
Docker est un logiciel libre qui automatise le déploiement d'applications dans des conteneurs logiciels.
Docker est un outil qui peut empaqueter une application et ses dépendances dans un conteneur isolé et
qui pourra être exécuté sur n'importe quel serveur Linux. Cela permet d'étendre la flexibilité et la portabilité
d’exécution d'une application, que ce soit sur la machine locale, un cloud privé ou public.
Docker étend le format de conteneur Linux standard, LXC, avec une API de haut niveau fournissant une
solution de virtualisation qui exécute les processus de façon isolée.
Contrairement aux machines virtuelles traditionnelles, un conteneur Docker n'inclut pas de système
d'exploitation, il s'appuie sur les fonctionnalités du système d’exploitation fournies par l'infrastructure.
Une machine virtuelle « imite » un serveur ou une station de travail. Dans un système virtualisé type, chaque
VM « invitée » contient un système d'exploitation complet, avec ses pilotes, fichiers binaires ou bibliothèques,
ainsi que l'application elle-même. Chaque VM s'exécute alors sur un hyperviseur, qui s'exécute à son tour
sur un système d'exploitation hôte, qui lui-même fait fonctionner le matériel du serveur physique. On
s'aperçoit que chaque itération du système d'exploitation hôte et des fichiers binaires associés risque
d'entraîner des doublons de binaires ou de bibliothèques entre les VM ; cela gaspille la mémoire du serveur
et limite forcément le nombre de VM prises en charge par chaque serveur.
Le concept de conteneur permet aux instances virtuelles de partager un système d'exploitation hôte unique,
avec ses fichiers binaires, bibliothèques ou pilotes. Cela réduit le gaspillage de ressources.
Comparatif virtualisation / Docker
Le rôle de l'hyperviseur est assuré par un moteur, tel que Docker, qui s'installe par-dessus le système
d'exploitation hôte.
Comme le conteneur de chaque application est libéré de la charge d'un OS, il est nettement plus petit, plus
facile à migrer ou à télécharger, plus rapide à sauvegarder ou à restaurer.
La différence en termes d'occupation peut être considérable, car un serveur donné accueillera de 10 à 100
fois plus d'instances de conteneur que d'instances d'applications sur VM.
Exemple de taille de conteneur (un système debian, une base de données, un serveur web).
La conteneurisation assure la sécurité des applications en isolant les conteneurs les uns des autres et
empêche la prolifération de logiciels malveillants entre les instances. Même si l’isolation est plus importante
entre VM qu’entre conteneurs.
Depuis plusieurs années déjà, des systèmes d'exploitation tels qu’OpenVZ, FreeBSD, Solaris Containers et
Linux-VServer prennent cette fonctionnalité avec LXC. Mais c'est la récente introduction de plateformes
ouvertes, telles que Docker, qui a remis en avant la conteneurisation et son potentiel en matière
d'applications distribuées évolutives.
Avantages
Accélération des déploiements car les containers Docker sont légers.
Les basculer d'un environnement de développement ou de test à un environnement de production
peut donc se faire facilement.
Démarrage rapide par rapport à une VM.
Inconvénients.
Les containers créés sur Linux, ne pourront être utilisables sur Windows.
Infrastructure Docker.
Image Docker Une image est un modèle en lecture seule, elles sont utilisées pour créer des
conteneurs.
Registre Docker Un registre est un lieu de stockage d’images, il en existe des publics et des
privés.
Conteneur Docker Ils sont crées à partir d’images, c’est le composant actif.
Docker Engine C’est le moteur de docker, il effectue les actions sur les conteneurs.
Docker ne remplacent pas les conteneurs Linux. LXC est utilisé comme base et Docker ajoute des
capacités supérieures.
Docker autorise la portabilité entre machines (qui exécutent aussi Docker). LXC seul permet la mobilité,
mais est liée à la configuration du système. Donc la déplacer sur une autre machine peut introduire des
différences susceptibles d'empêcher le conteneur LXC de l'application de s'exécuter.
Cette fonctionnalité est remplacée par Libcontainer depuis la version 0.9 de Docker.
Les cgroups.
Fonctionnalité du noyau Linux pour limiter, compter et isoler les ressources (CPU, RAM, etc.) utilisées par
un groupe de processus.
Les namespaces.
Fonctionnalité du noyau Linux qui permet l'isolation, afin de s'assurer qu'un container ne puisse pas en
affecter un autre.
Dockerfiles.
Fichier source qui contient les instructions, éléments à installer, c'est un fichier de configuration.
Hyperconvergence
définition de l'hyperconvergence :
L'hyperconvergence est une infrastructure informatique définie par logiciel qui dissocie les opérations
d'infrastructure du matériel système et les converge au niveau de l'hyperviseur dans un bloc de
construction unique.
Une solution d'hyperconvergence permet de gérer une infrastructure complexe en assurant fiabilité,
disponibilité,performance et capacité.
tous les composants sont dans le même boitier, ce qui permet de réaliser un maximum d'opérations
dans un minimum d'espace ;
il est obtenu de meilleures performances du fait de la distribution des machines virtuelles dans un
système de fichiers dont la gestion et l'optimisation sont gérées par cluster ;
les éléments serveurs, réseaux, et de stockage sont intégrés dans un même boitier permettant une
gestion simplifiée et une très grande modularité.