Vous êtes sur la page 1sur 25

 

MINISTERE DE L’INTERIEUR 

EXAMEN PROFESSIONNEL 
DE TECHNICIEN DE CLASSE SUPERIEURE DES SYSTEMES
D’INFORMATION ET DE COMMUNICATION 
 

SESSION 2014 

L’épreuve écrite unique d'admission consiste, à partir d'un dossier à caractère technique,
en une étude de cas faisant appel à des connaissances relatives à l'environnement et à
la technique des systèmes d'information et de communication et permettant de vérifier
les capacités d'analyse et de synthèse du candidat ainsi que son aptitude à dégager des
solutions appropriées.
L'épreuve porte sur l'un des deux thèmes suivants soumis au choix du candidat le jour
de l'épreuve écrite :
- les réseaux de télécommunications et équipements associés ;
- la gestion des systèmes d'information.

LA GESTION DES SYSTĖMES D’INFORMATION

Durée : 3 h 00 

Le dossier documentaire comporte 23 pages 


IMPORTANT
 

IL EST RAPPELE AUX CANDIDATS QU’AUCUN SIGNE DISTINCTIF NE DOIT


APPARAITRE NI SUR LA COPIE NI SUR LES INTERCALAIRES. 

LA CALCULATRICE N’EST PAS AUTORISEE 

 
SUJET

Dans le cadre de la réorganisation de votre direction, vous êtes affecté(e) en qualité de chef
d'équipe dans une section H24 et 7/7 composée de 2 équipes de 10 techniciens chacune.
Vos périmètres sont la supervision et l’exploitation de niveau 1.
Le parc est constitué d’un mur d’images, de son contrôleur sous Windows 2008 et de 12 postes
bureautiques.
Le parc des postes bureautiques est composé de :
3 postes en windows XP pour le métier de la supervision ;
3 postes en windows XP pour la connexion aux diverses applications métiers ;
3 postes en linux ubuntu pour l'émulation de terminaux X 11 ;
3 postes en windows XP dédiés à la communication Icasso, Rescom NG.
EVOLUTION PRÉVUE
Dans le cadre d’une démarche d'urbanisation, une solution visant à réduire le TCO du poste de
travail est à l’étude. Le schéma directeur du service de gouvernance a retenu la virtualisation.
TRAVAIL DEMANDÉ
Pour la mise en œuvre de la virtualisation des postes de travail proposée par le schéma directeur,
votre chef de bureau vous demande de rédiger un rapport enrichi d’un schéma d’architecture.
Ce rapport exposera les raisons de votre choix technique et fonctionnel.
Vous développerez les avantages et les inconvénients de la solution que vous proposez en vous
appuyant sur votre expérience.
Votre rapport devra tenir compte de la spécificité des postes de travail. Il portera une attention
particulière à l'impact pour les utilisateurs et l'administrateur.
Liste des documents joints :
Document 1 Terminal X (extraits), http://fr.wikipedia.org/wiki/Terminal_X Page 1
Document 2 La virtualisation du poste de travail au cœur des enjeux des DSI Pages 2 à 4
(extraits), Dominique Filippone (18/01/11) pour le journal du net,
http://www.journaldunet.com/solutions/systemes-reseaux/virtualisation-
poste-de-travail/
Document 3 Le poste de travail est bien en pleine transformation, par Bertrand Page 5
Lemaire, CIO-Online.com édition du 13/09/2013.
Document 4 Domial simplifie l’administration de ses clients légers avec Res Software, Page 6
par Valéry Marchive, LeMagIT, 18 mars 2013,
http://www.lemagit.fr/etude/Domial-simplifie-ladministration-de-ses-
clients-legers-avec-Res-Software
Document 5 La virtualisation des postes de travail : réponses aux enjeux Pages 7 et 8
informatiques, Philippe Labaste pour le journal du Net du 16 juillet 2013
http://www.journaldunet.com/solutions/expert/54875/la-virtualisation-des-
postes-de-travail---reponse-aux-enjeux-informatiques.shtml
Document 6 Sept bonnes pratiques pour réussir un projet de virtualisation de serveurs Page 9
(extraits), par Thierry Lévy-Abégnoli, Jeudi 19 Mars 2009,ZDNET,
http://www.zdnet.fr/actualites/sept-bonnes-pratiques-pour-reussir-un-
projet-de-virtualisation-de-serveurs-39388535.htm
Document 7 Microsoft Cloud et serveurs d’entreprise, virtualisation Page 10
http://www.microsoft.com/france/serveur-cloud/virtualisation/produits-
virtualiser.aspx
Document 8 VirtualBox (extraits), http://www.framasoft.net/article4996.html Page 11 et 12
Document 9 La virtualisation basée sur le noyau (extraits) Page 13
http://fr.wikipedia.org/wiki/Kernel-based_Virtual_Machine
Document 10 Note technique du 26 septembre 2013 de l’agence nationale de la Pages 14 à 21
sécurité des systèmes d’information : Problématiques de sécurité
associées à la virtualisation des systèmes d’information (extraits)
Document 11 Cadre stratégique commun du SI de l’Etat, Direction interministérielle des Pages 22 et 23
systèmes d’information et de communication, février 2013 (extraits)
 

Document 1

Terminal X (extraits)

http://fr.wikipedia.org/wiki/Terminal_X  

En informatique, un terminal X est un dispositif d'affichage et/ou d'entrée pour les applications X
clientes connectées à travers un réseau informatique. Un terminal X exécute un serveur X et se
connecte à un X display manager (service d'affichage X) tournant sur un ordinateur central, via
XDMCP. 

Le terminal X fut populaire dans les années 1990, permettant un coût total de possession bien plus
faible qu'une station de travail Unix complète. En général ces équipements ne disposent pas de
disque dur et n'ont qu'une configuration minimale. Ils chargent l'image à exécuter et les paramètres
à partir du réseau au moment du démarrage. 

Les terminaux X ont été supplantés en popularité par d'autres clients légers ultérieurs qui disposent
d'une mémoire flash avec un programme qui permet d'exécuter d'autres protocoles que X, comme
Remote Desktop Protocol (RDP) ou Citrix Metaframe. 

 
 

 

Document 2
La virtualisation du poste de travail au coeur des enjeux des DSI (extraits) 
Dominique Filippone (18/01/11) pour le journal du net 
 
Pour réduire les coûts et rationaliser l'administration de leur parc PC, les DSI se lancent dans
la virtualisation […] 
 
La virtualisation du poste de travail fait partie de la grande famille de la virtualisation avec celle
dédiée aux serveurs et au stockage. Le grand principe de la virtualisation du poste de travail
consiste à afficher sur un, des dizaines, centaines voire des milliers de postes physiques, une image
virtuelle du poste utilisateur qui est en fait réellement exécutée sur un serveur distant. Derrière ce
grand principe, on trouve cependant plusieurs formes de virtualisation du poste de travail.
 
La plus ancienne est celle de la virtualisation d'applications centralisée (également dénommée
Server-Based-Computing), consistant à virtualiser les applications mais pas l'ensemble du système
d'exploitation. Alors que l'utilisateur visualise (et utilise) sur son poste une image des applications
réellement exécutées sur un serveur distant, le système d'exploitation, lui, tourne toujours sur le
poste client. Une variante existe qui est celle de la virtualisation d'applications par isolation.

[…] 

"Egalement appelée isolation par bulle applicative, ce type de virtualisation qui consiste à installer
sur le poste de travail à distance et en streaming une application est la moins répandue mais permet
de répondre aux problèmes d'incompatibilité entre une application et un système d'exploitation", fait
savoir Christophe Corne, président de Systancia. 

La virtualisation du poste de travail peut également s'apparenter à du streaming de système


d'exploitation. Dans cette configuration, le système cible démarre à partir d'un disque installé sur le
réseau et charge de façon sélective les contenus et applications souhaitées par l'utilisateur depuis
des volumes logiques installés sur un serveur ou un espace de stockage distant. 

Enfin, la dernière forme que revêt la virtualisation du poste de travail est également la plus
complète et celle dont les perspectives de déploiement sont les plus importantes. Il s'agit de
l'architecture VDI pour Virtual Desktop Initiative, également dénommée Hosted Virtual Desktop
(HVD). Cette dernière peut s'apparenter à la virtualisation "totale" du poste de travail, c'est-à-dire
tant aux applications qu'au système d'exploitation, permettant de s'affranchir de la nature même du
poste client sur lequel sera affiché l'image.[…] 

L'architecture VDI : avec ce type de virtualisation, la DSI n'a plus à se préoccuper de la


maintenance et de l'administration de son parc de postes de travail permettant de dégager des
économies de ce point de vue là. 

De même, l'utilisateur n'est plus dépendant de son poste de travail physique et peut se connecter à
"son" PC depuis différents terminaux physiques, ce qui s'avère très pratique pour la population
nomade ayant à se déplacer sur plusieurs sites, sans se soucier des problèmes de connexion réseau,
branchements et pannes matérielles/logicielles locales. 

[…] 

 
LES FORCES EN PRÉSENCE : VMWARE, CITRIX, MICROSOFT ET CISCO 
 
[…] 
VMware propose avec ThinApp une solution pour accélérer le déploiement et simplifier la
migration d'applications. Aucun pilote de périphérique n'est installé sur le poste client et aucune
modification de registre n'est effectuée car l'application et son système d'exploitation virtuel sont
distribués sous forme d'un seul fichier exécutable. Les applications volumineuses sont chargées
depuis un disque réseau partagé, sans avoir à installer de logiciel client ou serveur.
 
ThinApp 4.5 facilite la migration d'applications existantes vers Windows 7. 
ThinApp 4.5 facilite la migration d'applications existantes vers la nouvelle version du système
d'exploitation de Microsoft (Windows 7) qu'il prend désormais en charge. Issu du rachat de
Thinstall, ThinApp permet de créer des packages applicatifs exécutables, par analyse différentielle
en prenant en compte tous les paramètres du système cible (dll, registres...). 
 
De son côté, VMware View permet de consolider les postes de travail virtuels sur les serveurs et de 
gérer indépendamment les systèmes d'exploitation, applications et données. 
"VMware View 4.5 renforce également la sécurité et le contrôle grâce à l'hébergement central des
postes de travail virtuels pour éliminer tout risque de fuite et bénéficier de la protection centralisée
de VMware vShield Endpoint contre les virus", a d'ailleurs précisé VMware à l'occasion de son
VMworld 2010. 
 
CITRIX XENAPP ET XENDESKTOP 
 
Citrix est entré tambours battants dans le marché de la virtualisation du poste de travail en faisant
l'acquisition de Xen en 2008. Le rachat de la société Ardence en 2007 lui a également permis de
compléter son offre par une brique de provisioning, visant à réduire la charge de gestion des
environnements d'exploitation pris en charge. 
 
XenDesktop doit permettre de créer selon Citrix des environnements virtualisés en moins de 10
minutes. 
La nouvelle version de l'environnement serveur de Citrix pour la virtualisation des postes de travail, 
XenApp, se caractérise par une intégration améliorée avec la plate-forme Microsoft (App-V, mais
aussi Active Directory et Windows Server 2008 R2). XenApp 6 étend son support de la technologie
HDX – qui permet aux utilisateurs des applications de bénéficier d'une qualité d'image en haute
définition. 
XenApp 
XenApp 6 intègre en outre une console visant à faciliter l'administration des applications. Avec
cette nouvelle version, XenApp, historiquement disponible pour PC, étend son support aux Mac,
ainsi qu'aux smartphones (iPhone, Google Android et Windows Mobile). 
Citrix a également lancé la nouvelle version de son émulateur permettant d'accéder à des
applications serveur virtualisées avec XenApp. Parmi les améliorations notables de XenDesktop, on
retiendra une interface utilisateur entièrement refondue ainsi que la présence d'un nouvel outil
d'administration baptisé XenDesktop Studio. 
Principale qualité de l'outil : la possibilité de concevoir des environnements de virtualisation en
moins de 10 minutes, pour peu cependant que l'administrateur dispose d'une image Windows
opérationnelle.
 

 
XenDesktop 5 dispose d'un nouveau client ICA, baptisé Citrix Receiver, qui permet d'accéder
facilement aux environnements de bureaux et applications virtualisés. La tarification de la solution
sera située dans une fourchette allant de 95 à 350 dollars selon l'édition. 
 
MICROSOFT ENTERPRISE VIRTUALIZATION DESKTOP 

En 2008, la firme de Redmond a renforcé ses positions dans le domaine de la virtualisation en


procédant aux rachats successifs de Calista en janvier, puis de Kidaro quelques dizaines de jours
plus tard. Microsoft s'est appuyé sur ces nouvelles briques pour positionner son offre Enterprise
Desktop Virtualization face à la concurrence, en particulier VMWare. 

Partenaire de longue date avec Citrix avec lequel il a annoncé récemment un accord autour de son
mode d'exécution graphique déportée RemoteFX et de la possibilité de modifier à chaud la mémoire
d'un ensemble de machines virtuelles pour son hyperviseur Hyper-V. Cette offre conjointe, baptisée
VDI Kick Start, s'articule autour de la technologie de graphisme 3D RemoteFX de Microsoft et de
la technologie haute définition HDX de Citrix. 

Par ailleurs, la prochaine version de l'OS de Microsoft, Windows 8 pourrait faire un pas
supplémentaire vers la virtualisation d'applications pour éviter les installations locales. La firme de
Redmond miserait ainsi sur un environnement de DaaS (Desktop as a Service), à travers lequel les
applications et les données seraient gérées de manière centralisée, et distribuées aux terminaux par
le biais d'instances virtuelles. 

CISCO VIRTUALIZATION EXPERIENCE INFRASTRUCTURE 

Nouvel entrant dans le marché de la virtualisation du poste de travail, l'équipementer Cisco a


annoncé le lancement fin novembre dernier de VXI pour Virtualization Experience Infrastructure.
Cisco s'appuie notamment pour cette offre sur les technologies Citrix de virtualisation de postes,
dont FlexCast et HDX, pour offrir une solution d'hébergement, de sécurisation et d'optimisation de
la mise à disposition des applications et postes de travail virtuels. 

La solution supporte bien entendu le client XenDesktop de Citrix mais également les clients View
de VMware et celui de Wyse. A noter que Cisco compte pénétrer ce marché en s'appuyant sur les
synergies liées à son partenariat signé avec VMware (Virtual Computing Environnement) pour
fournir des packages infrastructures clés en mains aux entreprises comprenant équipement serveurs,
stockage, réseaux et logiciels. 

[…] 


 

Document 3

Le Poste de Travail est bien en pleine transformation 


par Bertrand Lemaire ,CIO-Online.com, édition du 13/09/2013.  
 

Le cabinet Markess International vient de publier une nouvelle étude sur l'évolution du poste
de travail. D'ici 2015, 80 % des décideurs pensent que le poste de travail de leurs
collaborateurs aura évolué. 

Les quatre cinquièmes des décideurs interrogés par le cabinet d'études Markess International
estiment que le poste de travail des collaborateurs de leurs organisations aura profondément évolué
d'ici 2015. La dimension ubiquitaire d'un poste de travail virtualisé et accessible de partout sur tous
les types de terminaux est la grande tendance qui ressort de la dernière étude de Markess
International sur le sujet. 

La moitié des décideurs ayant répondu à l'enquête du cabinet estime que l'évolution des postes de
travail et du système d'information devra permettre d'accéder aux environnements de travail à
distance en toute sécurité et sur n'importe quel terminal. Pour un tiers, un tel accès ubiquitaire
passera par la virtualisation et un développement des fonctionnalités collaboratives. Un peu moins
d'un quart juge qu'il faudrait accéder en mode web aux applications de l'entreprise et autant qu'il
faudrait simplifier les paramètres sécuritaires. 

Le multi-équipement deviendra la règle 

D'ici 2015, de plus en plus de collaborateurs devraient être multi-équipés en terminaux divers. De
ce fait, la part du PC fixe va plonger de 47% à 36% du parc global tandis que les portables devraient
maintenir leur part du gâteau. A l'inverse, smartphone et tablettes devraient connaître une nette
progression. 80% des décideurs estiment d'ailleurs que des smartphones ou des tablettes seront
déployées chez leurs collaborateurs en 2013. 

Près de 60% des décideurs sont d'ailleurs persuadés que certains de leurs collaborateurs utilisent à
des fins professionnelles leurs propres terminaux, 10% de plus le supposant sans en être certains. 

Le taux d'usage du BYOD, il est vrai, devrait passer de 14% en 2013 à 23% en 2015. 

Derrière cette évolution, toute la problématique de la sécurité et de la gestion de parc sera cruciale
pour plus de la moitié des décideurs ayant répondu à Markess. La gestion de parc devrait être
facilitée par l'émergence des portails libre-service (FAQ, appstores privés, gestion d'incidents en
ligne...). 

Stockage et sauvegarde des données ainsi que l'adaptation des applicatifs aux nouveaux terminaux
préoccupent quant à eux plus du tiers des décideurs. 


Document 4

Domial simplifie l’administration de ses clients légers avec Res Software  

Valéry Marchive, LeMagIT – 18 mars 2013

Cela méritait effectivement un peu d’optimisation. Mathieu Pilarz, DSI de Domial, groupe alsacien
spécialisé dans le logement et aménagement urbain, explique administrer un important parc de
terminaux légers... avec rien moins que 150 règles GPO (Group Policies - Politiques de groupe)
différentes «en raison de 150 applicatifs différents liés à nos nombreux métiers». Une situation que
ne manquait pas d’alourdir considérablement l’administration de l’environnement et même les
ouvertures de session des utilisateurs : «dès qu’un client se connectait, Windows balayait toutes les
règles avant de lui permettre d’accéder à son environnement de travail». Avec près de 300
utilisateurs répartis sur 13 sites distants, c’est simple : Mathieu Pilarz estime que «nous étions
arrivés un peu aux limites ». Plus rapide et plus simple : le projet de migration de l’infrastructure
TSE sur Windows Server 2008 R2 a été l’occasion d’avancer : «nous avons cherché des solutions
pour faire évoluer la situation et simplifier l’administration». Workspace Manager de Res Software
a ainsi été retenu : «il fonctionne à l’inverse et n’applique les stratégies qu’à la demande, au
lancement des applications, à chaud». L’ouverture de session s’avère dès lors bien plus rapide :
«seules des GPO minimalistes sont chargées» à ce moment-là. 
Mais les bénéfices ne s’arrêtent pas là et touchent aussi, sinon plus, à l’administration du parc. De
fait, ses équipes ont pu «affiner les GPO, jusqu’au niveau de l’utilisateur individuel si nécessaire».
Alors que des règles doivent être modifiées pour certaines applications, «nous n’avons plus besoin
de parcourir toutes les GPO existantes ; il nous suffit de cibler l’application concernée». Une
meilleure utilisation des ressources : si le passage à Windows Server 2008 R2 avait déjà permis
de gagner en stabilité, Workspace Manager a également contribué à l’amélioration de la
disponibilité de l’environnement avec «ses mécanismes d’optimisation de la mémoire et du
processeur». Mathieu Pilarz explique ainsi avoir limité la mémoire vive disponible par utilisateur :
«si l’on atteint la limite, soit on ferme la session soit... on optimise avec Workspace Manager, en
libérant la mémoire utilisée par les applications ouvertes en tâche de fond. Il se passe la même
chose avec la charge du processeur. Je pense que cela participe aussi de la stabilité de l’ensemble».
En outre, ses équipes peuvent désormais «rafraîchir à chaud l’environnement TSE lorsque l’on fait
des mises à jour parce que les règles sont appliquées au lancement de l’application et pas à
l’ouverture de session. C’est utile notamment lorsque l’on ajoute une imprimante». De nouvelles
perspectives : le projet a été conduit avec un partenaire local, sur la base d’une maquette déployée
en parallèle de la ferme TSE existante : «nous avons installé et testé progressivement toutes les
applications puis ciblé une dizaine d’utilisateurs clés pour un pilote». Le projet a coûté environ 50
000 euros. Les gains «sont difficiles à chiffrer» mais avec une réduction de 60 % des délais
d’ouverture de session, on imagine déjà des bénéfices de productivité. Et surtout, «la ferme est
disponible à 99 %. Avant, il y avait au moins un serveur qui plantait toutes les deux ou trois
semaines». En tout, ses équipes administrent 12 serveurs TSE sur une base ESX, avec 24 Go de
mémoire par machine virtuelle et deux machines virtuelles par serveur physique, pour environ 22
utilisateurs par serveur. Mais la capacité de modifier l’environnement utilisateur à la volée ouvre de
nouvelles perspectives : «nous préparons un portail de selfcare automatisé pour certaines opérations
à faible valeur ajoutée mais chronophages, comme l’ajout d’une imprimante ou un changement
d’état civil». Tout un catalogue de services est ainsi en gestation et devrait être lancé en fin d’année. 
 


Document 5
 

La virtualisation des postes de travail : réponse aux enjeux informatiques


Chronique de Philippe Labaste pour le journal du Net du 16/07/13 
Directeur des ventes Europe du Sud et Afrique du Nord Division Cloud Client Computing, Dell France
 
 
Vous avez certainement virtualisé vos serveurs et systèmes de stockage mais avez-vous également
virtualisé vos postes de travail ? Voici quelques bonnes raisons de le faire. 
 
De nombreuses équipes informatiques ont adopté la virtualisation des serveurs et des systèmes de
stockage ces dernières années, mais rares sont ceux qui sont massivement allés plus loin tandis que
d’autres n’ont pu envisager la virtualisation, faute de moyens financiers ou d’expertise ou par
crainte des risques sécuritaires et d’une dégradation des performances. Les avantages durables de la
virtualisation des postes de travail devraient les faire changer d’avis : moindres besoins et coûts de
maintenance informatique rationalisés, gains de productivité et de flexibilité pour des utilisateurs
qui vivent pleinement l’expérience du PC. 
La virtualisation de postes de travail est différente de la virtualisation de serveurs et de systèmes de
stockage. La virtualisation des serveurs implique de répartir la capacité de traitement d’un serveur
physique entre différents usages. De même, la virtualisation des systèmes de stockage consiste à
regrouper la capacité de stockage physique de plusieurs services de stockage. 
Le principe de la virtualisation des postes de travail, en revanche, n’est pas de faire cohabiter
plusieurs utilisateurs sur un seul poste de travail, mais de transférer les ressources du disque dur
d’un PC vers un serveur pour les redistribuer à plusieurs PC, tablettes, smartphones et clients légers,
sans contraintes géographiques ou presque, de manière à désolidariser l’utilisateur d’un terminal en
particulier. Cette technique transpose ainsi aux postes de travail les avantages de sécurité renforcée
et de simplicité de maintenance de la virtualisation de serveurs. Les applications et données sont
stockées non plus sur un poste de travail local mais sur un serveur central sécurisé. Il devient alors
possible d’accéder partout à son environnement bureautique, depuis n’importe quel terminal. D’un
point de vue matériel, il existe toute une gamme de produits répondant aux besoins spécifiques des
utilisateurs tels que la virtualisation de stations graphiques pour la conception assistée par
ordinateur. Trois types de postes clients se prêtent particulièrement à la virtualisation de postes de
travail.
Parmi ceux-ci, le client léger traditionnel, à savoir un terminal sans disque et sans mémoire, qui se
résume à une petite unité de traitement à laquelle se raccordent un clavier, une souris et un écran. Le
client léger exige une connexion fiable et constante au serveur car il affiche à l’écran un
environnement informatique résidant sur le serveur. Vient ensuite le Cloud PC, similaire du point de
vue matériel à un PC, mais sans disque dur : le système d’exploitation et les applications résidant
sur le serveur sont exécutées en local, garantissant ainsi les mêmes performances qu’un PC
classique et mobilisant moins d’espace dans le datacenter. C’est la solution idéale pour résoudre les
problèmes de performance, de gestion d’image système et de sécurité des filiales locales ou
distantes. Enfin, le client zéro, un type de client optimisé pour un environnement dédié qui n’inclut
qu’un système ultra réduit en local. Il ne fonctionne qu’avec les environnements Citrix, Microsoft et
VMware. Conçus pour un environnement dédié, ils offrent une expérience optimale avec cet
environnement et une sécurité inégalée. Les avantages de la virtualisation de postes de travail sont
nombreux et permettent de résoudre des problèmes concrets et actuels : 
 


Migration de Windows
Windows XP est resté sur le marché plus d’une décennie, période très longue pour un système
d’exploitation. Microsoft a décidé de mettre fin au support de Windows XP. Les organisations
doivent donc se résoudre à migrer vers Windows 7 ou Windows 8. Cette opération nécessite
d’intervenir sur chaque ordinateur de l’entreprise pour remplacer XP par Windows 7 ou 8, avec les
trop longues indisponibilités que cela suppose pour chaque employé, ou alors d’investir pour
remplacer les postes de travail. 
L’alternative serait d’héberger les postes de travail dans le Cloud interne de l’entreprise. Quelques
minutes suffiront alors pour y charger l’environnement Windows 7/8 virtuel, au lieu de plusieurs
semaines voire des mois pour une migration traditionnelle, selon la taille de l’entreprise. 
Performances optimales
Ne vous fiez pas à la petite taille de ces clients. Derrière leur format compact se cachent des
technologies dernier cri ; installables partout, ils mobilisent très peu d’espace tout en vous offrant
toutes les performances dont vous avez besoin. Ces clients légers consomment par ailleurs moins de
20 Watts (moins de 8 W pour la plupart), contre 100 W minimum pour un ordinateur fixe ou
portable classique. 
Portabilité extrême
Certains terminaux ne sont pas plus grands qu’une télécommande de voiture ou qu’une grande clé
USB et peuvent transformer n’importe quel moniteur ou écran en un client léger ultra fonctionnel.
 
Sécurité renforcée
Ordinateurs portables et clés USB se perdent et se volent facilement. D’où l’importance de sécuriser
les données, quel que soit le secteur d’activité. Cela est d’autant plus simple que toutes les données
sont réunies dans un même datacenter au lieu d’être disséminées sur de multiples terminaux et
espaces de travail. 
Adoption des pratiques « Bring Your Own Device » (BYOD)
Les entreprises souhaitent tirer profit de la flexibilité et de la satisfaction utilisateur du BYOD. L’un
des problèmes avec le BYOD est que les données sont consultées et stockées sur des terminaux
personnels. Dans un environnement de postes de travail virtuels, les applications et données de
l’entreprise sont lues sur les ordinateurs portables, les tablettes ou les smartphones des utilisateurs,
mais sans jamais y être enregistrées, ni chargées. Lorsque toutes les ressources sont stockées sur un
serveur, chaque terminal personnel permet de les utiliser via une connexion haute fiabilité sans qu’il
faille les charger en local. 
Transition vers le Cloud
Outre les applications et contenus, vous pouvez aussi migrer les technologies d’administration de
terminaux et des postes de travail virtuels dans le Cloud. Ainsi, c’est tout l’environnement de travail
qui est distribué en mode cloud « as-a-service ».  
La virtualisation de postes de travail mérite donc réflexion. Cependant, armé des bons outils et des
bonnes informations, vous pourrez déployer un système dont tous les acteurs de l’entreprise
pourront bénéficier. 
Soulagés de nombreuses tâches d’administration répétitives et de bien des préoccupations liées à la
sécurité et la maintenance, les techniciens IT pourront se concentrer sur des projets plus stratégiques
pour l’entreprise. Les utilisateurs gagneront en productivité et en satisfaction, libres de se connecter
au réseau de l’entreprise partout, depuis le terminal de leur choix. 
Il va sans dire que l’efficacité IT accrue combinée à la plus grande productivité du personnel ne
peut qu’être bénéfique pour le chiffre d’affaires. La virtualisation des postes de travail est pour les
organisations une stratégie gagnant-gagnant. 

Document 6
Sept bonnes pratiques pour réussir un projet de virtualisation de serveurs (extraits) 
par Thierry Lévy-Abégnoli, Jeudi 19 Mars 2009, ZDNET 

Avis d'expert : Un projet de virtualisation poursuit des objectifs économiques et stratégiques, et


impacte fortement les infrastructures, l’organisation et le personnel IT. Voici sept bonnes pratiques
permettant de mieux gérer ces changements. 
 
1 – Définir les objectifs 
Le principal objectif d’un projet de virtualisation réside dans la consolidation de serveurs,
synonyme de réduction des coûts du matériel. D’autres économies sont induites par l’impact sur la
salle informatique : encombrement au sol réduit, serveurs plus sobres, climatisation moins
puissante. La mise en place d’un plan de reprise d’activité est de plus en plus souvent placée au
même niveau de priorité que la consolidation. La virtualisation permet en effet, à moindre coût, de
reprendre sur un site distant une production interrompue par un incident ou un sinistre. 
Troisième objectif : l’accélération du déploiement de nouveaux serveurs de développement, de test
ou de production. Enfin, la virtualisation permet de continuer à exploiter des serveurs tournant sous
des versions anciennes d’applications et de systèmes d’exploitation. 

2 – Réaliser une cartographie et déterminer les machines cibles 


La cartographie matérielle et logicielle du SI facilite l’identification des serveurs physiques qu’il
s’agira de virtualiser. Cette phase peut s’appuyer sur des outils qui mesurent le taux de charge des
serveurs. Ceux dont les ressources sont sous-utilisées auront vocation à être virtualisés. En
revanche, messagerie, bases de données ou infrastructures de clients légers consommant plus de 80
% des ressources resteront sur des serveurs physiques. 
«Il faut également tenir compte de la responsabilité des différents éditeurs. Il reste ainsi difficile
d’obtenir un engagement de service global pour un gros ERP déployé dans un environnement
virtuel», constate Jean-Philippe Cuenot, directeur conseil chez SCC. 

Il est parfois suffisant de répartir les machines virtuelles sur les serveurs physiques, uniquement en
fonction de leur consommation mémoire et CPU. Mais on oblitère alors la dimension temporelle.
On évitera ainsi de placer sur les mêmes serveurs, des machines virtuelles dont les pics de charge
sont simultanés. 

3 – Calculer le ROI mais ne pas se polariser dessus 


Au crédit du ROI figure la réduction du nombre de serveurs et des coûts d’infrastructure et
d’administration. L’impact sur le coût des licences est moins important, car il faut par exemple une
licence Windows par machine virtuelle. Mais tout dépend des versions choisies. Ainsi, Windows
Server 2008 Data Center inclut un nombre illimité de licences. 
Certains avantages de la virtualisation sont en outre qualitatifs ou difficiles à évaluer. Quoi qu’il en
soit, selon Cédric Bravo, architecte infrastructure chez Neos-SDI : « Il ne faut pas se polariser sur le
ROI car l’investissement matériel et logiciel contrebalance peu ou prou les économies. Au final, la
virtualisation se justifie davantage en termes d’agilité. Un déploiement plus rapide peut ainsi se
traduire par un avantage compétitif ». 

4 – Inscrire la virtualisation dans un projet d’infrastructure plus vaste 


L’adoption de la virtualisation doit s’inscrire dans un projet d’infrastructure qui inclut typiquement
le déploiement d’un SAN et de châssis de serveurs lames. «Le nombre de ports utilisés diminue
fortement, ce qui peut amener à revoir également l’architecture réseau», complète Jean-Philippe
Suenot. 
 

Document 7

Microsoft Cloud et serveurs d’entreprise, virtualisation (extraits)


https://www.microsoft.com/france/serveur-cloud/virtualisation/produits-virtualiser.aspx  

Les produits Microsoft pour virtualiser


Microsoft vous propose une offre très complète pour vous permettre de virtualiser efficacement et
selon votre profil. 
Voici ci-dessous les produits les plus adaptés afin de virtualiser et d’administrer vos infrastructures
physiques et virtuelles : 

Hyper-V : l’hyperviseur Microsoft


Hyper-V virtualise les ressources système d’un ordinateur physique. Cela crée un environnement
virtualisé pour des systèmes d’exploitation et des applications. Utilisé seul, Hyper-V sert
généralement à la virtualisation d’un serveur. Utilisé conjointement à VDI, l’infrastructure de poste
de travail virtuel, Hyper-V permet la virtualisation des postes clients. 
Hyper-V est compatible avec la plupart des systèmes d’exploitation, et se révèle ainsi une solution
très flexible. 

Windows Server 2012, le système d’exploitation par excellence


Windows Server 2012 est le système d’exploitation idéal pour virtualiser, parce qu’il intègre
nativement et gratuitement l’hyperviseur Microsoft Hyper-V. 
Avec Windows Server 2012, vous disposez d’une console d’administration unifiée pour les bureaux
virtuels (VDI), les bureaux de sessions et les Remote Apps. 
Hyper-V Replica permet de répliquer des machines virtuelles, entre sites, de manière planifiée et
asynchrone au travers de liens réseaux standards. 
Par ailleurs, grâce à la nouvelle fonctionnalité Live Migration sans stockage partagé, il est
désormais possible de migrer à chaud des machines virtuelles entre différents hôtes Hyper-V sur
différents Clusters ou serveurs sans stockage partagé, en utilisant une simple connexion Ethernet, et
sans interruption de service. 

System Center 2012, pour administrer vos infrastructures


System Center 2012 est une solution d’administration complète qui vous aide à gérer vos
environnements informatiques qu’ils soient des datacenters traditionnels, des Clouds privés et
publics, des ordinateurs clients ou des périphériques. 
System Center 2012 fournit une panoplie unique d’outils pour gérer les applications et services dans
votre Cloud privé ou public, rendant possible une infrastructure productive, des applications
prévisibles, et un Cloud Computing à vos conditions vous permettant ainsi de délivrer une
informatique tel un service à vos métiers. 
 

10 
Document 8
VirtualBox (extraits)

http://www.framasoft.net/article4996.html sujet Virtualbox 

Le logiciel qui remplace des machines 


VirtualBox permet d’émuler n’importe quel système d’exploitation grand public. Par exemple,
VirtualBox permet de démarrer un Windows dans une fenêtre d’un ordinateur sous GNU/Linux (ou
inversement). Le principal inconvénient étant qu’il faut avoir une machine puissante tant du point
de vue de la mémoire RAM (>1Go), que du processeur (>2GHz) et bien sûr suffisamment de place
sur son disque dur pour installer plusieurs systèmes dessus. 

VirtualBox permet de faire fonctionner à peu près n’importe quel système d’exploitation grand
public, depuis n’importe quel système d’exploitation grand public : Windows toutes versions,
MacOS X, GNU/Linux Debian/Ubuntu ... 

Il est donc utile aux utilisateurs de Windows qui veulent tester un Linux sans redémarrer leur
machine, et aux utilisateurs de Linux qui ne peuvent se débarrasser d’un logiciel tournant sous
Windows (par exemple le vieux logiciel d’accès aux données d’un ordinateur de plongée, qui n’était
disponible que pour Windows 95 avant que le constructeur ne ... coule...). Et il peut encore être utile
à un utilisateur de Linux voulant démarrer un live-cd d’une autre version de Linux sans redémarrer
toute sa machine (pratique pour déclarer ses impôts depuis un live-cd de KLA avec la bonne version
de la machine virtuelle Java qui n’est plus disponible dans les dépôts depuis des années). 
Comment s’y prendre 
Avec VirtualBox, des interfaces graphiques vous guident dans la configuration des machines
virtuelles, du choix du système installable au nombre de carte réseau à simuler, en passant par la
taille du disque dur, les fonctionnalités du micro-processeur, la quantité de mémoire RAM
vampirisée à la machine physique et la présence de lecteurs (disquette, CD-ROM). 

La machine se trouve alors décrite dans un fichier XML facilement transportable, accompagné d’un
deuxième fichier faisant office de disque dur virtuel. Ces disques peuvent être utilisés par plusieurs
machines virtuelles, et ils grossissent en fonction de leur utilisation dans la limite des capacité de
votre disque dur réel. 

Pour démarrer une machine virtuelle, il suffit de double-cliquer sur son icône dans la liste des
machines virtuelles configurées dans votre VirtualBox. Une fois démarrée, elle se comporte comme
un ordinateur à part entière, et si vous positionnez sa fenêtre en plein écran l’illusion sera parfaite.
Vous pouvez également en lancer plusieurs en même temps si vous disposez d’une machine
suffisamment puissante et vous pourrez alors faire fonctionner un serveur web dans une VM sous
Linux, et aller consulter ce dernier avec des navigateursnatifs de différents systèmes
d’exploitation : Firefox, Dillo, Camino, chacun depuis sa VM... 
Par un jeu de NAT, une machine virtuelle accède généralement sans problème à Internet si
l’ordinateur hôte y est connecté. De plus il est possible de mettre en place un partage de dossier
entre l’ordinateur hôte et la machine émulée. Les deux dossiers fusionnent alors. Si vous aviez
partagé votre dossier « bureau », vos fichiers de la machine hôte apparaissent sur le bureau de la
machine émulée (et inversement). 
Pour lancer un live-cd dans une machine virtuelle, nul besoin de le graver, il suffit de préciser que
l’image iso du live-cd est à considérer comme chargée dans le lecteur CD-ROM virtuel. 
Enfin, VirtualBox se complète pour chaque système d’exploitation hôte (Windows, Mac, Linux,
Solaris...) par des « suppléments invités ». Il s’agit de greffons qui ajoutent au logiciel une meilleure
intégration avec son système hôte (suivi du pointeur de la souris, redimensionnement de la
fenêtre...).
11 
Et les autres ? 
 
Les principaux concurrents de VirtualBox sont VMware et VirtualPC pour les non-libres
et Qemu voire Xen et KVM pour les libres, mais ces deux derniers sont dépourvus d’interfaces
graphiques. 
 
Tout comme Qemu, VirtualBox n’est disponible librement qu’en version limitée. En effet, sans
module noyau propriétaires Qemu est lent [1] et VirtualBox « OpenSource Edition » est dépourvue
de gestion des périphériques USB (clé USB, Webcam, SCSI...). 
 
De plus, nous profitons que VirtualBox soit à nouveau libre après son rachat par Sun, pour publier
cette notice avant qu’Oracle n’en décide peut-être autrement pour ses futures versions... 
 
Conclusion 
 
En conclusion, pour l’instant VirtualBox est bien libre et compte parmi les plus performants et les
plus conviviaux de sa catégorie. Il a souffert d’une instabilité chronique pendant des années, mais
ce n’est plus le cas (sous Linux tout du moins) depuis les versions 2.6. Il est développé et supporté
par un ténor du monde logiciel et même s’il est du coup difficile d’y contribuer, il remplit sans coup
férir ses fonctions. C’est un logiciel puissant qui permet de tester et débloquer bien des situations,
mais qui nécessite une machine tout aussi puissante pour fonctionner, et qui manipule un concept
évolué et encore relativement novateur. 
 

12 
Document 9
La virtualisation basée sur le noyau (extraits) 
 
KVM  
Kernel-based Virtual Machine (Machine virtuelle basée sur le noyau) 
 
KVM (Kernel-based Virtual Machine) est un hyperviseur libre de type I pour Linux. KVM est
intégré dans le noyau Linux depuis la version 2.6.20. 
 
Il fonctionne originellement sur les processeurs à architectures x86 disposant des instructions de
Virtualisation Intel VT ou AMD-V. Depuis, KVM a été porté pour les architectures Power PC, IA-
64 ainsi que ARM depuis le noyau Linux 3.9. 
 
Histoire 
Le développement de KVM a commencé au sein de la société Qumranet par Avi Kivity. Red Hat a
racheté Qumranet le 4 septembre 2008. Depuis KVM est co-maintenu par le développeur Marcelo
Tosatti. 
Fonctionnement 
KVM est une instance de QEMU. Les développeurs des deux projets essayent de ne pas trop
diverger et le code source des deux projets est fréquemment resynchronisé. La principale
modification apportée est la prise en charge du module kvm. Lorsqu'on parle de KVM, on parle
généralement de l'ensemble : la version modifiée de QEMU et le module kvm. 
 
QEMU est capable, grâce à son module KQEMU ("K" pour 'Kernel', noyau en anglais), d'exécuter
du code machine directement sur le processeur hôte afin d'accélérer l'émulation. Mais cette
technologie, bien qu'apportant un gain de performance important, n'est pas parfaite, car des
mécanismes pour intercepter et émuler les évènements privilégiés doivent être mis en place ; or le
code noyau du système invité, fonctionnant normalement entièrement en mode privilégié et étant
émulé de manière classique, est donc fortement pénalisé alors qu'il s'agit de l'élément crucial du
système. 
Les processeurs de la famille x86 disposent de 4 niveaux de privilège d'exécution, appelés anneaux
de protection. En plus de ces anneaux, les processeurs récents intègrent un nouveau mécanisme
d'isolation qui permet à un système invité d'être exécuté directement sur le processeur quels que
soient les anneaux de protection qu'il requiert pour fonctionner, tout en assurant la protection contre
la lecture et l'écriture dans la mémoire n'appartenant pas à la machine virtuelle. Cela est
principalement possible grâce à une MMU dédiée à chaque machine virtuelle sur le processeur et à
une redirection des interruptions matérielles vers l'hyperviseur de machines virtuelles (KVM en
l'occurrence) afin d'émuler le matériel dont a besoin le système invité. 
Les technologies mises en place par les deux principaux fondeurs que sont AMD et Intel étant
différentes, le module kvm se décline en deux sous-modules : kvm-intel et kvm-amd ; le module
kvm n'étant là en fait que pour fournir à l'émulateur une abstraction supplémentaire. 
Dans les versions récentes de kvm (au minimum la version 60) il est possible d'utiliser un
mécanisme similaire à la paravirtualisation en utilisant virtio. Les pilotes virtio sont inclus dans le
noyau Linux de version 2.6.25 au minimum. Il existe aussi des pilotes virtio pour Windows. Ce
mécanisme permet une vitesse d'exécution accrue car il n'est plus nécessaire d'émuler des
périphériques matériels. Cependant, ce système sort du cadre de la virtualisation au sens strict car il
faut que les pilotes soient informés qu'il s’exécute dans un environnement virtualisé. 
 
13 
Document 10
Note technique No DAT-NT-011/ANSSI/SDE/NP du 26 septembre 2013 de l’agence nationale
de la sécurité des systèmes d’information : Problématiques de sécurité associées à la
virtualisation des systèmes d’information (extraits)
 
1 Préambule 
Les technologies dites de «virtualisation» ont connu un essor important ces dernières années, lié
notamment au développement de nouveaux usages comme l’informatique en nuage (cloud
computing). 
Virtualiser un ensemble de serveurs est devenu aujourd’hui relativement aisé, et de nombreuses
entreprises ont choisi de «virtualiser» leurs serveurs pour faire des économies de place, d’énergie et
de budget. Mais les risques associés à l’utilisation de ces nouvelles technologies sont-ils
systématiquement pris en compte ? Les conséquences de la virtualisation sont-elles correctement
comprises et acceptées ? 
L’objet de ce document est de présenter ces risques et les principaux points à considérer pour s’en
prémunir. Il reste volontairement à un niveau technique intermédiaire afin d’être accessible au plus
grand nombre, y compris à des lecteurs ne disposant pas de connaissances poussées en architecture
des ordinateurs ou des réseaux. Il n’aborde pas le cas des systèmes traitant des informations
classifiées de défense. 
Le lecteur pressé pourra se rapporter au chapitre 6 qui présente une liste de points de contrôle
permettant d’apprécier le niveau de sécurité d’un système d’information virtualisé. 
2 Introduction 
Virtualiser, c’est en essence, et en simplifiant à l’extrême, rendre indépendant du matériel le socle
logiciel d’une machine. Virtualiser permet de faire s’exécuter sur une même machine plusieurs
systèmes jusqu’alors installés sur des machines physiques distinctes, ou de migrer en quelques
instants et de manière transparente un système d’une machine à une autre. Virtualiser nécessite de
mettre en œuvre une solution de virtualisation qui assure la gestion des différents systèmes
virtualisés et leur exécution. 
De fait, de plus en plus de responsables informatiques se tournent vers les solutions de
virtualisation, en raison des atouts supposés de ces technologies, par exemple : 
– un meilleur taux d’utilisation des ressources informatiques, qui peut apporter en outre, dans
certains cas, une économie d’énergie 1 ; 
– une meilleure disponibilité des systèmes, dans la mesure où les systèmes deviennent facilement
«clonables» ou «réplicables» en cas de panne matérielle. Certaines solutions permettent de déplacer
automatiquement des systèmes d’une machine à une autre en cas d’incident ou de perte de
performances. La facilité de clonage des systèmes est également particulièrement appréciée pour
créer des environnements de test représentatifs de la réalité ; 
– une meilleure répartition de charge, puisque la solution de virtualisation sait généralement répartir
la charge entre les différentes machines ; 
– de potentiels gains financiers ou d’encombrement. 
Cependant, comme nous le verrons tout au long de ce document, la virtualisation introduit aussi de
nouveaux risques, aussi bien techniques qu’organisationnels, qui viennent s’ajouter aux risques des
systèmes d’information classiques. 
Ces risques intrinsèques viennent contrebalancer les avantages mis en avant par les éditeurs de
solutions, et force est de constater que les mesures de sécurité indispensables pour les couvrir
viennent souvent obérer une partie des économies potentielles envisagées initialement. 
La migration d’un système d’information vers des solutions de virtualisation, potentiellement
irréversible, ne doit donc pas être envisagée uniquement dans une perspective de gain financier. 
Toute organisation qui souhaite héberger certains services et données au sein d’un système utilisant
ces technologies doit donc faire ce choix avec discernement et en toute connaissance des risques
engendrés sur le plan de la sécurité. 
14 
[…] 
4 Les risques liés à la virtualisation 
Les risques liés à la virtualisation des systèmes viennent s’ajouter aux risques « classiques » d’un
système d’information. Ce sont des risques nouveaux, additionnels. En effet, tous les risques
existant déjà pour une solution « sans virtualisation » perdurent a priori : les risques liés aux
vulnérabilités des systèmes d’exploitation, les risques d’attaques basées sur le matériel ou les
risques liés à une administration à distance non sécurisée. 
Dans le cas d’un choix d’architecture regroupant plusieurs systèmes sur une même machine, on doit 
ainsi considérer : 
– les risques pouvant toucher un système ; 
– ceux portant sur la couche d’abstraction ; 
– les risques induits par la combinaison des deux. 
De plus, le fait de regrouper plusieurs services sur un même matériel augmente les risques portant 
sur chacun. 
Il est donc important de connaître l’ensemble des risques pour en maîtriser l’impact en termes de
confidentialité, d’intégrité et de disponibilité des données et des applications. 
 
Risque 1 : Risque accru de compromission des systèmes 
 
On entend ici par «compromission» la prise de contrôle par un acteur malveillant d’une brique
utilisée dans le système virtualisé. Il peut s’agir d’une compromission d’un système invité depuis un 
autre système invité, ou du système hôte depuis un système invité. 
On remarque qu’une compromission du système hôte peut éventuellement entraîner une
compromission de l’ensemble des systèmes s’exécutant sur la machine. On note également que plus
la compromission touche le système en profondeur, plus elle aura de conséquences sur les capacités
de remise en service ultérieure du système. 
Si une instance est compromise, comment décider si les autres instances qui s’exécutaient sur la 
machine hôte doivent être considérées comme compromises ? En cas de mise en oeuvre de
techniques de migration, comment déterminer précisément le domaine de propagation des instances
compromises ? 
Le principal évènement redouté suite à une compromission est la fuite d’informations sensibles ou,
dans certains cas, des perturbations engendrées par une modification du système pouvant aller
jusqu’à l’indisponibilité d’un service. 
Les solutions permettant d’empêcher une compromission sont souvent délicates à mettre en oeuvre.
Il s’agira de diminuer au maximum la surface d’attaque. Il conviendra notamment que chaque
brique (matériel, système d’exploitation hôte, systèmes d’exploitation invités etc.) soit à jour de
tous les correctifs de sécurité. En particulier, l’emploi d’une solution de virtualisation imposant aux
systèmes invités de fonctionner dans des configurations obsolescentes n’est pas acceptable. 
Plus généralement, l’application stricte du principe de défense en profondeur est indispensable. 
Pour cela, on veillera à utiliser uniquement des systèmes, hôtes et invités, pouvant être nativement
sécurisés. 
Les systèmes invités doivent en effet être durcis pour rendre difficile l’exploitation d’une faille
potentielle présente dans la couche d’abstraction ou dans la couche matérielle. 
 
 
 
 
 
15 
 

Enfin, il est généralement aisé de « remonter » un système invité défaillant sur une autre machine
physique à partir d’une image saine. Néanmoins, seule la mise en oeuvre du principe de défense en
profondeur permet de localiser précisément l’origine de la compromission (système invité, système
hôte, matériel, données, etc.). 
 
Risque 2 : Accroissement du risque d’indisponibilité 
 
Comme évoqué précédemment, une compromission peut engendrer une indisponibilité d’un service. 
Cependant, ce risque peut apparaître, même en l’absence de compromission. Ainsi, si d’une part un
atout de la virtualisation est l’utilisation plus intensive des ressources informatiques, d’autre part, la 
panne d’une ressource commune peut engendrer l’indisponibilité simultanée de plusieurs systèmes.
De même, une attaque en disponibilité sur un des systèmes (ou plus généralement sur une ressource
commune) impactera potentiellement tous les services hébergés sur la même machine. 
Là encore, les préconisations faites au point précédent s’appliquent. De plus, si des besoins en
disponibilité différent sensiblement d’une application à une autre, il peut être préférable de placer
sur des machines dédiées celles dont les besoins en disponibilité sont les plus élevés. 
 
Risque 3 : Fuite d’information par manque de cloisonnement 
 
Bien que les solutions de virtualisation mettent généralement en oeuvre des mécanismes de
cloisonnement 
des instances se partageant une même ressource, ces instances ne sont en pratique jamais totalement 
isolées. Dans certains cas, des flux existent entre les différentes instances (systèmes d’exploitation, 
applications, systèmes de stockage de données, . . .), et ces flux peuvent engendrer des
vulnérabilités. 
La maîtrise des différents échanges internes à une même machine physique est par ailleurs
particulièrement 
difficile. En effet, il sera généralement délicat de garantir que les ressources bas niveau 
partagées ne permettent pas des fuites d’information. 
 
Pour illustrer ces propos, prenons l’exemple de l’accès au réseau d’une machine informatique. Dans 
une architecture sans virtualisation, les machines (au nombre de trois sur la figure 3) communiquent
sur des réseaux physiques au moyen, par exemple, d’une carte réseau spécifique. Les flux de
données sont ainsi traités, au niveau des machines, par chaque carte réseau et peuvent être identifiés
précisément. 
 

Figure 3 – Architecture sans virtualisation 

16 
[…]

Dans une architecture avec virtualisation, les machines virtuelles peuvent par exemple
communiquer sur des réseaux physiques par le biais d’une carte unique appartenant à la machine
physique qui les héberge. Les flux de données de chaque machine virtuelle sont donc traités par
cette unique carte réseau. Dès lors, il n’est pas possible de garantir un cloisonnement des flux au
niveau de la ressource partagée. En cas d’erreur ou de compromission de la carte réseau, un accès
aux données des différents flux d’information est possible. 

Figure 4 – Architecture avec virtualisation 

[…]

Dans ce contexte, pour mieux répondre au besoin de cloisonnement, le choix peut être fait d’avoir
autant de cartes réseau que de machines virtuelles hébergées sur une machine physique (cf.
figure 5). Il conviendrait idéalement de vérifier - mais une telle vérification est en pratique irréaliste
- que les composants impliqués dans la chaîne de traitement du flux de données entre une machine
virtuelle et la carte réseau attribuée gèrent correctement le cloisonnement des données suivant leur
appartenance à une machine virtuelle. Par exemple, pour gérer le cloisonnement des flux
d’entrées/sorties passant par la mémoire, un composant IOMMU peut être utilisé (représenté par le
quadrillage dans la figure 5) ; mais si un contrôleur d’entrées/sorties non compatible avec le
composant IOMMU est utilisé, il fera passer dans une zone mémoire commune tous les flux issus
des différentes machines virtuelles, ce qui présente un risque de fuite d’informations, volontaire ou
non. 

Figure 5 – Architecture avec virtualisation comprenant une carte réseau physique par système invité 

17 
Enfin, s’il s’avère que les objectifs de sécurité fixés en matière de cloisonnement ne peuvent être
remplis par l’une ou l’autre des techniques évoquées précédemment, certains environnements
(réseau parexemple) ne devront pas s’exécuter dans l’environnement virtualisé. Le choix d’un
retour partiel à une solution classique (c’est à dire sans virtualisation) pourra alors être plus adapté à
un bon cloisonnement des flux. 

Figure 6 – Architecture mixte, avec et sans virtualisation 

Les risques principaux induits par un défaut d’isolation sont la fuite d’information et l’atteinte à
l’intégrité des données. Un moyen de réduire ces risques pourra être aussi, suivant les contextes, de
garantir une bonne étanchéité des données par le biais de mécanismes de confidentialité et de
contrôle d’intégrité des données de bout en bout (par exemple dans le cas du réseau, par l’utilisation
d’IPsec). 
[…] 
Compte tenu de ces différents risques, il convient de tenir compte des 9 recommandations qui
suivent.[…] 
 
R1 La politique de sécurité du système faisant l’objet d’une démarche de virtualisation doit
être mise à jour pour qu’y soient inclus certains items spécifiques à la technologie de
virtualisation employée. 
 
Définition précise des processus d’administration des systèmes hôtes et invités.
Il s’agit de décrire de manière précise les règles relatives à l’administration des systèmes. Une règle
peut être de ne pas autoriser l’administration distante de certaines machines compte tenu du degré
de sensibilité des informations qu’elles hébergent, y compris ponctuellement. Il est par ailleurs
recommandé de renforcer certains mécanismes de sécurité dans le cas d’administration distante
(mise en oeuvre de mécanismes d’authentification forte, de confidentialité et de contrôle d’intégrité,
d’audit). 
Description détaillée des configurations de système(s) attendues.
Il s’agit de décrire de manière précise les configurations de système(s) attendues en identifiant
clairement les mécanismes qui peuvent contribuer directement ou indirectement à couvrir les
risques induits par la virtualisation. Tout paramètre système visant à améliorer les principes
d’étanchéité et de non propagation des compromissions est ainsi à considérer. 
Procédures de mise à niveau et de suivi des systèmes invités.
La mise à niveau des systèmes invités consiste à mettre à jour une machine virtuelle (versions du
système et de ses applications, maintien des licences nécessaires, application régulière des correctifs
de sécurité, etc.) quel que soit l’état dans lequel elle se trouve (en exécution ou sous sa forme
d’image stockée quelque part dans le système d’information).
 
18 
Le suivi des systèmes invités quant à lui consiste à déterminer à tout instant et de manière précise 
la localisation d’une machine virtuelle. 
Des procédures claires doivent être référencées dans la politique de sécurité du système ayant fait
l’objet d’une virtualisation. Ces dernières prennent en compte les applications s’exécutant sur les
machines virtuelles et les contraintes associées (ex : report d’une mise à jour). 
Établissement des règles de localisation et de migration des systèmes.
[…] 
Il sera nécessaire de définir une politique de localisation des systèmes invités et de migration. Cette
politique devra notamment : 
 
– décrire explicitement les types des machines physiques hôtes ; 
– décrire explicitement les types des systèmes gérés ; 
– définir les règles de localisation d’une machine virtuelle sur une machine hôte. Une de ces règles
pourra être de refuser qu’une même ressource héberge des systèmes ayant des niveaux de sensibilité 
ou de confiance différents. 
 
R2 Un processus de veille des vulnérabilités propres aux technologies de virtualisation
utilisées au sein de l’organisme doit être mis en place. 
Les alertes diffusées par les éditeurs de solutions de virtualisation doivent être particulièrement
surveillées, de même que celles des éditeurs de systèmes d’exploitation et de matériels utilisés dans 
les architectures de virtualisation (serveurs, cartes réseau, équipements de stockage, etc. . .) et celles 
des CERT. Ceci est indispensable au maintien en condition de sécurité du système mettant en œuvre
ces technologies dès lors que sont appliqués les correctifs couvrant l’apparition de vulnérabilités. En 
l’absence de correctif, une analyse doit être effectuée afin d’apprécier le risque et prendre les
mesures organisationnelles adaptées pour le limiter. 
On pourra ainsi établir une liste précise des technologies matérielles ou logicielles utilisées par
l’entreprise et des vulnérabilités connues sur ces technologies. Lorsque le niveau de vulnérabilité
d’une technologique atteindra un niveau jugé non acceptable, on devra envisager son retrait du
service.
On devra préférer les solutions de virtualisation qualifiées par l’ANSSI, et à défaut certifiées, en
s’assurant néanmoins que le niveau de l’évaluation et la cible de sécurité associées prennent bien en
compte les problématiques évoquées précédemment (cloisonnement sûr des flux de données, etc.). 
 
R3 Réduire la surface d’attaque de la solution de virtualisation. 
Certaines solutions de virtualisation comportent des éléments d’authentification par défaut (mots de
passe par défaut, certificats par défaut ou générés à la première initialisation de la machine). Il est
impératif de changer les éléments d’authentification par défaut avant la mise en service
opérationnelle de la solution. Par ailleurs, toutes les fonctions non strictement nécessaires au bon
fonctionnement de la solution dans l’environnement opérationnel (exemple : migration à chaud de
machines virtuelles entre deux serveurs hôtes) doivent systématiquement être désactivées. 
 
R4 Concevoir une architecture respectant le principe de cloisonnement. 
Les exigences de cloisonnement (isolation des flux) doivent être prises en compte dans la
conception de l’architecture du système. 
Cela conduit de fait à définir très précisément l’architecture matérielle nécessaire pour répondre au
besoin fonctionnel en tenant compte des objectifs de sécurité fixés, et à décrire des règles précises à 
appliquer lors des évolutions du système. 
L’exemple suivant concerne le cas du réseau, pour lequel certains problèmes potentiels ont déjà été 
sommairement présentés précédemment. 
Suivant les cas et les contextes, l’architecture matérielle pourra ainsi prévoir au choix : 
– une carte réseau physique distincte pour chaque machine virtuelle hébergée sur une machine
physique. Ceci est à moduler si des moyens complémentaires garantissant un bon cloisonnement 
des flux (chiffrement IPsec) sont prévus par ailleurs ;

19 
– une carte réseau physique distincte pour chaque groupe de machines virtuelles hébergé sur une
machine physique, les machines virtuelles étant regroupées par exemple par niveau de sensibilité
des informations manipulées. L’emploi là aussi de moyens complémentaires pour cloisonner
correctement les flux peut moduler cette règle ; 
– qu’une partie du système soit gérée en dehors de la solution de virtualisation. Cette situation
pourra se produire si une application particulière a des besoins de sécurité supérieurs à d’autres. 
 
R5 Utiliser des matériels gérant le cloisonnement. 
 
Tout matériel, quel que soit son type (contrôleur disque, carte réseau, processeur, etc.) doit, autant
que faire se peut, gérer le cloisonnement rendu nécessaire par la virtualisation (isolation des flux).
Si le niveau d’exigences établi par la politique de sécurité ne peut être atteint, la pertinence de
l’emploi des technologies de virtualisation devra être réévaluée. 
Le choix d’un matériel ne supportant pas les mécanismes de cloisonnement devra être justifié et les 
risques induits assumés. 
Par exemple, si la solution de virtualisation retenue est à même de gérer une IOMMU, on pourra
rendre obligatoire l’utilisation de composants 14 compatibles avec cette IOMMU. 
 
R6 Mettre à jour le plan de reprise ou de continuité d’activité. 
 
Lors de la compromission d’un système, il est difficile d’affirmer que les autres systèmes
s’exécutant sur la même machine ne sont pas affectés. Les plans de reprise et de continuité
d’activité doivent donc tenir compte des spécificités liées à la virtualisation et être mis à jour en
conséquence. 
 
R7 Dédier une équipe d’administration à la solution de virtualisation distincte de celle des
systèmes invités. 
 
Dans une logique de séparation des rôles, il est nécessaire de prévoir une équipe d’administration 
de la solution de virtualisation qui soit indépendante de l’équipe d’administration des systèmes
invités. 
L’équipe d’administration de la solution de virtualisation doit avoir notamment en charge : 
 
– l’administration des machines hôtes ; 
– l’administration des équipements de stockage physiques (NAS/SAN) ; 
– l’administration des équipements réseau physiques (et virtuels le cas échéant) ; 
– l’administration de la solution de virtualisation (dans son ensemble) ; 
– la gestion de la sécurité associée à la virtualisation et plus particulièrement le maintien d’un
cloisonnement des instances hébergées du fait du partage de ressources ; 
– éventuellement l’audit et la supervision des machines hôtes. 
 
Cette équipe doit disposer du droit d’en connaître sur toutes les données, y compris celles ayant la
sensibilité la plus élevée manipulées par les systèmes considérés sauf si elles soient chiffrées de
telle sorte que l’équipe d’administration ne puisse techniquement y accéder. 
 
R8 Prévoir une équipe d’administration des machines virtuelles (systèmes invités)
indépendante de l’équipe d’administration de la solution de virtualisation. 
 
L’équipe d’administration des machines virtuelles (systèmes invités) a notamment en charge : 
 
– l’administration des systèmes d’exploitation invités ainsi que leurs applications ; 
– la sécurité propre à ces systèmes et leurs applications ; 
– éventuellement l’audit et la supervision de ces systèmes et leurs applications. 
 
 
20 
Cette équipe doit disposer du droit d’en connaître sur toutes les données traitées par les systèmes
invités dont elle a la responsabilité y compris celles qui ont la sensibilité la plus élevée. 
 
R9 Former les équipes d’administration, d’audit et de supervision aux techniques de
virtualisation. 
 
Il s’agit de former spécifiquement les administrateurs, les auditeurs et les superviseurs aux
techniques de virtualisation afin qu’ils les maîtrisent et les sécurisent. Ces personnes doivent donc
acquérir une bonne connaissance des technologies employées et être familiers des tâches
d’administration système et réseau usuelles. 
Il n’est pas nécessaire de former tous les administrateurs mais confier l’administration et la
supervision des couches de virtualisation aux plus intéressés et expérimentés est un bon choix. 
[…] 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
21 
Document 11
Cadre stratégique commun du SI de l’Etat, Direction interministérielle des systèmes
d’information et de communication, février 2013 (extraits)
[…] 

3.2.1 Les services transverses fondamentaux du SI sont rendus de façon efficiente


 
a) Un principe : la mutualisation des infrastructures et des services transverses 
Sauf cas spécifiques (par exemple la protection de secrets de défense), la plupart des besoins
d’infrastructures (et des services liés) sont comparables d’un ministère à l’autre, avec des nuances
pouvant être traitées par la mise en place de niveaux d’engagements de service différenciés. Les
technologies récentes sur les réseaux, les environnements de production, les dispositifs de stockage de
données et les postes de travail permettent de gérer facilement un cloisonnement adapté des flux et du
stockage des données, et de créer un environnement applicatif dédié à une entité administrative sur une
base applicative commune.  
 
Il n’y a aucun obstacle technologique particulier à une démarche de partage ou de mise en commun
progressive des infrastructures et des services d’infrastructures. En outre, la participation à un dispositif
mutualisé n’est pas synonyme de déresponsabilisation : au contraire, la relation entre le fournisseur de
service et son bénéficiaire est clarifié par la mise en place de contrats (ou conventions) de services
engageants pour les deux parties. 
 
Ce partage et cette mise en commun des infrastructures et services liés peuvent se traduire, selon l’enjeu
et la faisabilité, par une combinaison adaptée des démarches suivantes (parallèles ou successives) : 
 une démarche interne à l’échelle de chacun des ministères (première étape utile avant des
opérations ultérieures interministérielles, notamment pour les ministères ayant un grand nombre
de directions métiers ou d’utilisateurs finals). Cette démarche s’accompagne quasi-
systématiquement d’actions de rationalisation et de standardisation ; 
 des démarches bilatérales « d’offres croisées », conduisant deux ministères à s’entendre afin de
mettre en commun un service donné. Les modalités sont définies conjointement par les deux
ministères concernés en fonction de leurs besoins ; 
 des démarches multilatérales qui permettent à un ou plusieurs ministères d’offrir des services à
d’autres ministères potentiellement intéressés. Ces services doivent satisfaire un cahier des
charges précis afin de garantir non seulement la qualité de service, mais également un réel
bénéfice à mutualiser un service donné à plus grande échelle. 
 enfin, des démarches de « mutualisation interministérielle exclusive » qui consistent à
sélectionner pour un service donné un ou plusieurs ministères qui deviendront les fournisseurs
exclusifs du service ou à créer une structure nouvelle en charge de sa fourniture. Les détails du
service, tels que les modalités, les obligations, les options ou encore le niveau de disponibilité,
sont définis et pilotés à un niveau interministériel. 
 
Pour les infrastructures (communication, production informatique) et les services communs (messagerie,
collaboratifs, bureautique, …), la recherche de l’optimisation tendra progressivement vers un partage
des ressources à l’échelle multiministérielle ou interministérielle. 
 
Deux domaines prioritaires justifient d’ores-et-déjà cette approche, du fait des enjeux qu’ils portent en
matière de transformation, tant du point de vue de la valeur ajoutée attendue, que des impacts
organisationnels et humains à prendre en compte : le réseau interministériel de l’État et la
transformation des centres informatiques, détaillés dans les paragraphes suivants. 
 
 
 
 
22
 
b) Le réseau interministériel de l’État  
La mise en place du réseau interministériel de l’Etat (RIE), regroupant l’ensemble des réseaux des
ministères (décision du Conseil des Ministres du 25 mai 2011) a pour objectifs de : 
 faciliter les communications interministérielles, l’ensemble des utilisateurs du SI étant
positionnés sur le même réseau avec un unique plan d’adressage ; 
 augmenter globalement le niveau de sécurité, iminuer les coûts liés au fonctionnement des
réseaux actuels, notamment les coûts liés aux abonnements télécoms existants ; 
 disposer d’un réseau à l’état de l’art anticipant les évolutions à venir des besoins (protocoles,
débits, services temps réel, …). 
Les services adhérents au réseau relèveront, pour certains, du même niveau de démarche de
mutualisation (passerelles de sécurité vers internet, gestion des noms de domaine, …). Ainsi, l’État
disposera d’un socle commun solide et à périmètre large sur lequel il pourra développer l’essentiel des
services à valeur ajoutée aux métiers. 
 
Objectif [8] : Les réseaux ministériels migrent vers le RIE, qui constitue le socle d’infrastructure
de l’État. 
 
c) Les centres informatiques 
Le programme de « transformation des centres informatiques » (TCI) favorise le partage et la
mutualisation des services liés aux infrastructures de production informatique.  
Il s’agit pour l’État, en utilisant à bon escient le levier de la mise en commun des expertises et des
solutions, et en introduisant l’usage de l’informatique en nuage (« cloud computing ») au sein des
centres informatiques de l’État : 
 d’accélérer l’industrialisation des activités menées par les entités de production informatique,
pour augmenter la qualité de service rendue ; 
 d’optimiser globalement la capacité des infrastructures disponibles par rapport aux besoins, à la
fois en termes de volumes et de niveaux de service ; 
 d’apporter de nouveaux services applicatifs universels en faisant bénéficier plus rapidement des
innovations et des ruptures technologiques. 

Cette démarche intègre aussi bien la dimension technique que les dimensions de gouvernance, services
rendus, organisation, processus, budget, compétences. L’objectif visé est que les services d’hébergement
et d’exploitation délivrent dans la durée aux utilisateurs métiers le niveau de service souhaité au bon
niveau de coût. L’état de l’art et la comparaison avec les meilleures pratiques montrent que cette
efficience ne s’obtient qu’à l’issue d’une démarche globale d’optimisation, qui démarre avec la
consolidation, la virtualisation, le déploiement de processus standardisés, l’alignement avec un
catalogue de service, la gestion de niveaux de service, l’automatisation de la mise à disposition de
capacités et d’environnements. Une démarche de type « ITIL » apparaît incontournable. 
La mise en oeuvre du « cloud computing » dans les centres informatiques de l’État sera l’aboutissement
de cette démarche, mais pourra être expérimentée afin de commencer à s’approprier la technologie et à
profiter de son potentiel. 
 
Objectifs [9] : 
 [9A] Les systèmes d’information de l’Etat s’appuient sur des productions informatiques
consolidées, virtualisées et industrialisées. 
 SPM[9B] Des offres de services interministérielles de mise à disposition d’infrastructures
physiques, d’environnements techniques ou de services d’applicatifs sont disponibles et
déployées. 
 [9C] Le cadre de mutualisation interministériel est opérationnel et s’appuie sur des
contrats de service, des modèles de financement et des cadres techniques. 
 [9D] L’utilisation du « cloud computing » est encadrée, accompagnée, et rendue effective
dans les cas d’usage pertinents, d’une part sur la mise à disposition d’infrastructures et de
plateformes (IaaS, PaaS), d’autre part sur des services applicatifs transverses (SaaS). 
[…] 
23 

Vous aimerez peut-être aussi