Vous êtes sur la page 1sur 154

La sécurité informatique 

dans la petite entreprise

Jean­François CARPENTIER  

Résumé
Ce livre sur la sécurité informatique dans la petite entreprise (PME) s’adresse aux administrateurs systèmes et réseaux et plus généralement à
toute personne appelée à participer à la gestion de l’outil informatique dans ce contexte (chef d’entreprise, formateur...).
L’auteur identifie les menaces qui rendent l’entreprise vulnérable : menaces externes (Internet) ou internes, logiciels malveillants et attaques
affectant le système d’information. Il présente les contraintes en terme de compétitivité et vis-à-vis de la loi qui imposent aux responsables de
protéger les données stockées ou en transfert.
Et bien sûr, il détaille les solutions efficaces à mettre en œuvre en rapport avec la criticité des informations, le contexte de l’entreprise et sa taille.
En effet, différentes technologies existent tant sur la partie système que réseau et demandent à être gérées à l’aide de pratiques simples et d’un
minimum de bon sens pour garantir l’intégrité, la confidentialité, la disponibilité des données et des applications.
Sensibiliser le lecteur à tous ces aspects de la sécurité l’aidera à mieux maîtriser les outils dont il dispose notamment pour la gestion des
comptes d’accès aux serveurs et aux postes de travail. Les recommandations décrites dans ce livre couvrent les domaines du réseau, du
système, de la sauvegarde et aussi les solutions de reprise de l’activité métier.
La survie de l’entreprise est à la mesure des précautions mises en œuvre.
L'auteur
Jean-François Carpentier est ingénieur en système d’information depuis près de 30 ans. Titulaire d’un diplôme d’ingénieur DPE, il exerce
son activité au sein de grands comptes de l’industrie et des services. Il œuvre aussi dans les domaines techniques et fonctionnels des
systèmes dans des environnements complexes. Il utilise aussi ses qualités pédagogiques dans la formation pour un public d’adultes.

Ce livre numérique a été conçu et est diffusé dans le respect des droits d’auteur. Toutes les marques citées ont été déposées par leur éditeur respectif. La loi du 11 Mars
1957 n’autorisant aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les “copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées
à une utilisation collective”, et, d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, “toute représentation ou reproduction intégrale,
ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayant cause, est illicite” (alinéa 1er de l’article 40). Cette représentation ou reproduction, par
quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du Code Pénal. Copyright Editions ENI

© ENI Editions - All rigths reserved - Jonifar lina - 1-


1
Avant­propos 
Ce livre sur la sécurité informatique dans les petites entreprises s’adresse à tout administrateur systèmes et réseaux, 
à toute personne ayant à gérer l’outil informatique, chefs d’entreprise de type TPE ou PME/PMI qui souhaitent protéger 
leur  système  d’information  des  principales  menaces.  Il  peut  aussi  aider  des  formateurs  à  sensibiliser  les  futurs 
professionnels aux bonnes pratiques à acquérir. 
En  effet,  l’outil  informatique  fait  partie  intégrante  du  métier  de  l’entreprise,  car  incontournable.  Il  est  cependant 
vulnérable aux menaces externes (Internet) ou internes, aux logiciels malveillants et attaques affectant son système 
d’information. 

D’autre part des raisons de compétitivité et légales imposent aux responsables de protéger les données stockées ou 
en transfert. La protection des systèmes requiert de mettre en œ uvre des solutions efficaces en rapport avec la criticité 
des informations utilisées, du contexte de l’entreprise et de sa taille. 

Différentes  technologies  existent  tant  sur  la  partie  système  que  réseau  et  demandent  à  être  gérées  efficacement  à 
l’aide de pratiques simples et de bon sens de façon à garantir l’intégrité, la confidentialité, la disponibilité des données 
et des applications. 
La gestion des comptes d’accès aux serveurs et postes de travail, associée à une sensibilisation à la sécurité pourra 
aider les administrateurs système à mieux maîtriser leur outil. 
Les recommandations décrites dans cet ouvrage couvrent les domaines du réseau, des systèmes, de la sauvegarde et 
les solutions de reprise de l’activité métier. La survie de l’entreprise est à la mesure des précautions mises en œ uvre. 

L’approche  de  ce  livre  est  de  présenter  des  informations  glanées  à  partir  d’expériences  professionnelles  dans 
différents environnements dans le cadre de l’administration de systèmes et de réseaux. 

La  lecture  de  cet  ouvrage  réclame  une  connaissance  de  base  dans  la  connaissance  des  réseaux  et  des  systèmes 
d’exploitation, principalement de Windows. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


2
Préface 
Cet  ouvrage  a  pour  vocation  de  présenter  l’état  de  l’art  et  les  bonnes  pratiques  de  la  mise  en  place  de  la  sécurité 
informatique  dans  une  société  du  type  PME  (Petites  et  Moyennes  Entreprises)  disposant  de  moyens  limités.  Il  est 
destiné à être en cohérence avec la norme ISO 27001 sous une forme pratique à l’usage des personnels responsables 
du système d’information. 
Les  informations  présentées  dans  l’optique  d’une  meilleure  gestion  des  serveurs  et  des  postes  de  travail  ne  se 
substituent pas aux documents techniques des constructeurs et éditeurs de logiciels ou de système d’exploitation, il 
s’agit d’un complément plus fonctionnel. 

En conséquence, le lecteur de cet ouvrage est invité à consulter les documents techniques mis à sa disposition lors de 
la réception des matériels et logiciels. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


3
Introduction 
L’univers  des  systèmes  d’information  composé  de  réseaux  et  de  systèmes  informatiques  prend  un  rôle  et  une  place 
chaque jour plus important dans les entreprises. 

Cependant,  l’actualité  présentée  par  les  médias  nous  démontre  que  le  système  d’information  est  vulnérable  et  qu’il 
peut  subir  des  piratages,  des  attaques  (virus,  hackers…),  des  pertes  de  données,  des  sinistres.  Il  est  donc 
indispensable pour les entreprises de savoir définir et de garantir la sécurité de ses ressources informatiques. 

La sécurité des systèmes définie dans cet ouvrage doit constituer le moyen de protéger dans un sens large le système 
d’information ou de minimiser les risques encourus par l’entreprise dans l’usage de l’outil informatique. 

Les nécessités de sécuriser son système d’information 
Certains facteurs peuvent apparaître de l’ordre de l’évidence comme la nécessité de protéger une partie opérationnelle 
de l’entreprise. Toutefois, l’ensemble des menaces n’est pourtant pas toujours bien identifié. 
Par  contre,  d’autres  sont  souvent  méconnues  comme  les  obligations  et  responsabilités  légales  des  dirigeants 
d’entreprise dans l’exploitation et la maîtrise de leur système d’information. 

Ces  exigences  impliquent  la  mise  en  place  d’une  protection  des  systèmes  sous  la  forme  d’une  politique  de  sécurité 
avec : 

● l’élaboration de règles et procédures, 

● la définition des actions à entreprendre et des personnes responsables, 

● la détermination du périmètre concerné. 

Ce périmètre comprend à la fois les données aussi bien sous forme électronique que papier (fichiers, messages…), les 
transactions dans les réseaux, les applications logicielles et bases de données. Il ne faut pas oublier l’aspect continuité 
des services du traitement de l’information et les plans de reprise d’activité après sinistre. 
Les principes de base et objectifs principaux, la mise en œuvre 

La sécurité des données couvre quatre objectifs principaux, et est représentée sous forme d’acronymes (C.I.D.P) : 

● La  disponibilité  est  l’assurance  que  les  personnes  autorisées  ont  accès  à  l’information  quand  elles  le 
demandent ou dans les temps requis pour son traitement. 

● L’intégrité est la certitude de la présence non modifiée ou non altérée d’une information et de la complétude 
des  processus  de  traitement.  Pour  les  messages  échangés,  il  concerne  la  protection  contre  l’altération 
accidentelle ou volontaire d’un message transmis. 

● La  confidentialité  est  l’assurance  que  l’information  n’est  accessible  qu’aux  personnes  autorisées,  qu’elle  ne 
sera pas divulguée en dehors d’un environnement spécifié. Elle traite de la protection contre la consultation de 
données stockées ou échangées. Cela est réalisable par un mécanisme de chiffrement pour le transfert ou le 
stockage des données. 

● La  preuve  consiste  à  garantir  que  l’émetteur  d’une  information  soit  bien  identifié  et  qu’il  a  les  droits  et  les 
accès logiques, que le récepteur identifié est bien autorisé à accéder à l’information. 

D’autres principes de sécurité peuvent être établis, il s’agit de : 

● La non­répudiation, considérée comme le cinquième principe, a été introduite dans la norme ISO 7498­2 comme 
un  service  de  sécurité  pouvant  être  rendu  par  un  mécanisme  comme  la  signature  numérique,  l’intégrité  des 
données  ou  la  notarisation.  L’élément  de  la  preuve  de  non­répudiation doit permettre l’identification  de  celui 
qu’il  représente,  il  doit  être  positionné  dans  le  temps  (horodatage),  il  doit  présenter  l’état  du  contexte  dans 
lequel il a été élaboré (certificats). 

● L’authentification est le moyen qui permet d’établir la validité de la requête émise pour accéder à un système. 
L’authenticité est la combinaison d’une authentification et de l’intégrité. 

● Les mécanismes de chiffrement procèdent du principe que l’émetteur et le récepteur conviennent d’un mot de 
passe  connu  d’eux  seuls.  L’émetteur  utilise  ce  mot  de  passe  comme  clé  de  chiffrement  pour  le  message  à 
transmettre, seul le récepteur qui connaît ce mot de passe peut l’utiliser comme clé pour déchiffrer le message 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


4
et y accéder. 

Les  objectifs  de  base  peuvent  être  traités  sous  la  forme  de  solutions  de  sécurité  sous  la  forme  de  matériels,  de 
logiciels, de procédures, de support opérationnel pour : 

● l’intégrité des données et la confidentialité : gestion des accès physiques et logiques, sécurité des réseaux, 

● la  disponibilité  :  redondance  des  systèmes  et  du  stockage  des  données,  sauvegarde  et  archivage  des 
données. 

Les propositions d’amélioration de la sécurité, associées aux bonnes pratiques à mettre en place dans l’environnement 
d’une entreprise sont traitées dans cet ouvrage. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


5
Les domaines et normes associés 
La  mise  en  œ uvre  de  solutions  de  protection  et  de  sécurité  requiert  de  prendre  des  références  par  rapport  à  des 
normes ou des préconisations. 

1. Les bonnes pratiques ITIL (Information Technology Infrastructure Library) 

ITIL  se  compose  d’un  ensemble  de  livres  qui  liste,  condense  et  présente  les  meilleures  pratiques  à  utiliser  dans  le 
cadre de l’ensemble des services informatiques dédiés à une entreprise. Elle se décline en plusieurs versions depuis 
ses origines. La plus récente est la version N°3. 

La méthodologie décrite en version 2 est composée des processus suivants : 

Service  Support ­  Support  des  Services,  il  s’agit  de  la  gestion  opérationnelle  des  services.  Il  comprend  les  thèmes 
suivants : 

● Centre de Services (Service Desk) 

● Gestion des Incidents (Incident Management) 

● Gestion des Problèmes (Problem Management) 

● Gestion des Configurations (Configuration Management) 

● Gestion des Changements (Change Management) 

● Gestion des Mises en Production (Release Management) 

Service  Delivery  ­  Fourniture  des  Services,  cet  ensemble  de  processus  concerne  les  aspects  contractuels  et 
l’amélioration des services à long terme : 

● Gestion des Niveaux de Service (Service Level Management) 

● Gestion des Capacités (Capacity Management) 

● Gestion Financière des Services de l’Information (Financial Management for IT Services) 

● Gestion de la Disponibilité (Availability Management) 

● Gestion de la Continuité des Services de l’Information (IT Service Continuity Management) 

La version 3 s’inscrit dans un domaine plus large et comprend les processus suivants : 

Stratégie des Services (Service Strategy) 

● Définition Stratégique (Strategy Generation) 

● Gestion financière des services (Financial Management) 

● Gestion de la demande (Demand Management) 

● Gestion du portefeuille des services (Service Portfolio Management) 

Conception de Service (Service Design) 

● Gestion du catalogue des services (Service Catalogue Management) 

● Gestion des niveaux de service (Service Level Management) 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


6
● Gestion des fournisseurs (Supplier Management) 

● Gestion de capacité (Capacity Management) 

● Gestion de la disponibilité (Availability Management) 

● Gestion de la continuité de service (IT Service Continuity Management) 

● Gestion de la sécurité (Information Security Management) 

Transition des Services (Service Transition) 

● Transition Planning and Support 

● Gestion des Changements (Change Management) 

● Gestion des Actifs et des Configurations (Service Asset and Configuration Management) 

● Gestion des Mises en Production et Déploiements (Release and Deployment Management) 

● Gestion des tests et validation (Validation and Testing Management) 

● Évaluation 

● Gestion de Connaissance (Knowledge Management) 

Exploitation des Services (Service Operation) 

● Gestion des événements (Event Management) 

● Gestion des incidents (Incident Management) 

● Gestion des problèmes (Problem Management) 

● Exécution des requêtes (Request Fulfilment) 

● Gestion des accès (Access Management) 

Amélioration continue de Service (Continual Service Improvement) 
Il s’appuie sur les processus suivants : 

● Évaluation de la qualité de service 

● Évaluation des processus mis en place 

● Développement des initiatives d’amélioration des services et des processus 

● Surveillance des initiatives d’amélioration, mesures de correction 

Dans l’optique de cet ouvrage, les processus suivants en lien avec la sécurité informatique peuvent être utilisés dans 
le cadre de la gestion de systèmes dans une PME : 

● La gestion des configurations. 

● La gestion de la disponibilité. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


7
● La gestion des applications ­ Elle traite du cycle de développement de ces applications. 

● La  gestion  de  la  sécurité  ­  Elle  comporte  les  aspects  de  sécurité,  de  manière  transversale,  avec  les  autres 
processus. 

La gestion des configurations

La  CMDB  (Configuration  Management  DataBase)  est  une  base  de  données,  pierre  angulaire  de  la  gestion  des 
configurations. Elle présente une vue complète des composants de l’infrastructure informatique et des services rendus 
dans l’environnement d’une entreprise. 

Elle doit comporter, a minima, les informations sur : 

● le matériel et les logiciels des composants des serveurs, des unités de stockage et de sauvegarde, du réseau, 

● les systèmes d’exploitation avec leurs versions et les outils associés, 

● les  applications  du  marché  avec  leurs  versions  (SGBD :  Système  de  Gestion  de  Base  de  Données,  ERP : 
Enterprise Resource Planning, Applicatifs client­serveur), 

● les outils de sauvegarde, de protection antivirale, de gestion des unités de stockage, d’administration  et  de 


supervision des systèmes, 

● les applications métiers développées en interne, 

● les licences pour les logiciels du marché et leurs dates de validité, 

● les informations sur les utilisateurs (accès logique et physique…), 

● les références sur les fournisseurs (matériels et logiciels) : contacts et contrats de maintenance, 

● les descriptifs d’installation et de configuration des serveurs et des applications, la documentation associée, 

● les documents relatifs aux incidents, problèmes survenus, les changements d’infrastructure effectués. 

La gestion de la disponibilité

Elle  précise  comment  optimiser  l’utilisation  du  système  d’information,  de  l’organisation  de  support  pour  délivrer  un 
niveau suffisant de services permettant aux activités métiers de l’entreprise de satisfaire ses objectifs. 

Pratiquement,  elle  comprend  la  mise  en  place  d’infrastructures  matérielles  et  organisationnelles  pour  prévenir  des 
risques d’interruption grâce à des solutions techniques ou logicielles. 

Celles­ci  peuvent  comprendre  des  dispositifs  techniques  permettant  un  environnement  de  Haute  Disponibilité 
(systèmes  à  tolérance  de  pannes,  clusters  ou  virtualisation  de  serveurs,  dispositifs  à  équilibrage  de  charges, 
redondance d’alimentation électrique ou d’équipements de réseau, onduleurs, ensembles redondants de disques) ou 
des procédures organisationnelles tels les plans de continuité d’activité. 

La gestion de la sécurité

Elle  fait  partie  intégrante  des  bonnes  pratiques  essentielles  à  mettre  en  place  dans  le  système  d’information  de 
l’entreprise.  En  effet,  celles­ci  peuvent  avoir  besoin  d’être  conformes  à  des  réglementations  particulières.  Les 
impératifs  professionnels  se  présentent  sous  forme  de  normes  de  type  FDA  (Food  and  Drug  Administration)  pour 
l’industrie pharmaceutique, Sarbanes­Oxley pour les établissements financiers. 
Cette gestion fournit à l’entreprise les concepts et la terminologie spécifique de façon à ce que les personnels puissent 
comprendre  les  objectifs  de  sécurité  et  les  risques  potentiels,  suivre  les  procédures  liées  aux  impératifs  requis.  Les 
processus  de  contrôle,  d’audit  de  validation  mis  en  place  sont  obligatoirement  en  correspondance  avec  les  bonnes 
pratiques de ITIL. 

Le processus de gestion de la sécurité comprend au moins plusieurs de ces composants : 

● contrôles (politique, organisation, rédaction de rapports), 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


8
● contrats et accords de services, 

● implémentation (politiques de sécurité, contrôles d’accès, classification des risques), 

● évaluation (audits internes et externes, analyse des incidents de sécurité), 

● changements (gestion des demandes de changement). 

2. La méthode PDCA appelée aussi Roue de Deming 

La méthode PDCA (Plan, Do, Check, Act) issue de l’ISO 9000 est également appelée roue de l’amélioration de la qualité 
ou « roue de Deming », du nom de W. Edwards DEMING, statisticien et philosophe américain, inventeur des principes 
de la qualité et de Walter Andrew Shewhart Statisticien américain, inventeur de la roue de Deming. 
Le principe propose de maîtriser et d’améliorer un processus par l’utilisation d’un cycle continu en quatre étapes visant 
à  réduire  le  besoin  de  corrections.  Cette  méthode  démontre  aussi  que  les  bonnes  pratiques  doivent  être  mises  en 
œ uvre, documentées, appliquées et améliorées dans le temps. 
Elle comporte les étapes suivantes : 

● PLAN  (planifier)  ­  Cette  phase  définit  l’objectif  principal  qui  consiste  à  identifier  et  à  préciser  les  besoins  du 
maître d’ouvrage. Elle effectue l’inventaire des moyens nécessaires à sa réalisation, son coût et son planning. 

● DO (réaliser, déployer) ­ C’est la partie opérationnelle de la méthode. Elle comporte : 

● l’allocation de ressources en personnes, temps et budget, 

● la rédaction de la documentation, 

● la formation du personnel concerné, 

● la gestion du risque, 

● l’exécution des tâches. 

● CHECK  (mesurer  et  contrôler)  ­  C’est  ici  que  les  opérations  réalisées  précédemment  sont  vérifiées  pour 
qu’elles  correspondent  aux  besoins  exprimés,  dans  les  délais  et  les  coûts  précisés  à  la  première  étape.  Elle 
comprend : 

● Une évaluation à partir de ce qui a déjà été implémenté dans d’autres environnements. 

● Un contrôle global des résultats produits. 

● Un audit de l’environnement  du  système  de  gestion  de  la  sécurité  du  système  d’information,  soit  un 
audit  annuel,  sur  la  base  de  documents  et  de  traces  d’évènements  produits  par  les  outils  de 
supervision. 

● ACT  (améliorer,  agir)  ­  Cette  étape  recherche  les  améliorations  à  apporter  au  projet  global  de  changement. 
Des mesures sont évaluées à partir des bilans ou des constatations relevées lors de la phase de vérification. 
Des actions possibles sont élaborées selon les cas : 

● Passage à la phase de planification : si de nouveaux risques ou modifications ont été identifiés. 

● Passage à la phase d’exécution : si la phase de vérification en montre le besoin. 

● Après la constatation de non conformité, des actions correctives ou préventives sont déployées. 

- 4- © ENI Editions - All rigths reserved - Jonifar lina


9
PDCA 

Cette méthode, utilisée dans la nouvelle version de ITIL (V3) et dans la mise en place d’un système de gestion de la 
sécurité  informatique,  permet  de  réaliser  des  changements  progressifs  et  continus  à  partir  d’un  point  ou  objectif  de 
départ. Celui­ci peut être l’élément du système d’information qui a été défini, après un état des lieux, comme le plus 
critique ou le plus urgent à traiter ou encore le plus facile à mettre en œ uvre. 
Elle est, à l’opposé des changements brutaux ou pris dans l’urgence, toujours délicate à mettre en œ uvre et parfois 
source de dysfonctionnements. 

3. La norme ISO 20000 

Cette norme, décomposée en ISO 2000­1, ISO 2000­2, s’appuie sur les bonnes pratiques ITIL (Information Technology 
Infrastructure  Library)  et  comprend  un  ensemble  de  bonnes  pratiques  en  matière  de  gestion  des  services 
informatiques. Elle prend comme principe la roue de Deming ou PDCA (Plan­Do­Check­Act) et s’inscrit dans un processus 
de formalisation de normes de qualité (ISO 9000) ou de sécurité des systèmes d’information (ISO 27001). Il s’agit d’un 
système  de  gestion  complémentaire  avec  une  architecture  identique  composé  d’un  guide  de  bonnes  pratiques  (ISO 
20000­2). Ce système complète la norme ISO 20000­1. 

4. La norme ISO 27001 et le système de gestion de la sécurité informatique 

La série des normes ISO 27000 est composée des éléments suivants : 

ISO 27000 

Vocabulaire et définitions. 

ISO 27001 

La norme principale des besoins en système de gestion de la sécurité de l’information, plus connue sous la forme BS 
7799­2. Elle correspond au principe de certification des organisations. 

ISO 27002 (connue sous la forme ISO 17799) 

Il  s’agit  de  la  description  des  bonnes  pratiques  décrivant  les  principaux  objectifs  de  contrôle  de  l’ensemble  de  la 
sécurité de l’information. 

ISO 27003 

© ENI Editions - All rigths reserved - Jonifar lina - 5-


10
Comprend le guide d’implémentation détaillé relatif à l’adoption de la série complète de la norme ISO 27000. 

ISO 27004 

Contient la norme qui définit les principes d’évaluation de ce qui a été implémenté dans le cadre de la gestion de la 
sécurité de l’information pour mesurer l’efficacité du système de gestion de la sécurité mis en place. 

ISO 27005 

Contient la norme de gestion du risque dans le cadre de la sécurité de l’information. Il remplace la norme BS 7799­3. 

L’objectif de cette norme consiste à établir un système de gestion de la sécurité de l’information, c’est­à­dire définir et 
identifier tous les actifs, mettre en place toutes les mesures adéquates pour protéger les données de l’entreprise. Elle 
donne une idée sur les bonnes pratiques à utiliser par une approche basée sur des procédures et des processus. 

Elle  constitue  un  bon  moyen  d’organiser  et  de  structurer  la  politique  de  sécurité  informatique  dans  l’entreprise. Elle 
formalise : 

● l’amélioration continue, 

● les audits internes, 

● l’appréciation des risques, 

● le traitement des incidents, 

● les indicateurs. 

- 6- © ENI Editions - All rigths reserved - Jonifar lina


11
Les risques informatiques 
Avant de traiter ce qu’est un risque informatique, il convient de présenter quelques définitions. 

1. Définitions 

L’actif

C’est la partie d’un bien qui compose le patrimoine et présentant de la valeur pour l’entreprise. Il peut représenter : 
les équipements, les matériels, les logiciels, les brevets, les processus et activités métier… 

Les vulnérabilités

La vulnérabilité est une faille dans les actifs, les contrôles de sécurité technique ou les procédures d’exploitation ou 
d’administration utilisées dans l’entreprise. Elle consiste, en général, en une faiblesse dans la protection du système, 
sous  la  forme  d’une  menace  qui  peut  être  exploitée  pour  intervenir  sur  l’ensemble  du  système  ou  d’un  intrus  qui 
s’attaque aux actifs. 

Les menaces

Une menace est quelqu’un ou quelque chose qui peut exploiter une vulnérabilité pour obtenir, modifier ou empêcher 
l’accès à un actif ou encore le compromettre. Elle existe en corrélation avec des vulnérabilités. Il peut y avoir aussi 
plusieurs  menaces  pour  chaque  vulnérabilité.  La  connaissance  des  différents  types  de  menaces  peut  aider  dans  la 
détermination de leur dangerosité et des contrôles adaptés permettant de réduire leur impact potentiel. 

La menace est une source effective d’incidents pouvant entraîner des effets indésirables et graves sur un actif ou un 
ensemble d’actifs, l’entreprise par elle­même. 
Les menaces peuvent être classées par : 

● origine ou source, 

● type, 

● motivation, action. 

Elles peuvent être : 

● délibérées (vol, fraude, virus, hacking, incendie, attentat, sabotage, interception, divulgation ou altération de 
données…), 

● naturelles ou environnementales (tremblement de terre, éruption volcanique, inondation, coupure de courant, 
incendie...), 

● accidentelles (erreurs d’utilisation, omissions…), 

● dues à des pannes techniques : mauvais fonctionnement d’un équipement, d’un logiciel. 

Le risque

Le risque est la possibilité qu’une chose critique apparaisse. Son évaluation permet d’établir des actions pour réduire 
et maintenir la menace à un niveau raisonnable et acceptable. 

Les risques peuvent être qualifiés selon leurs origines (externes ou internes). 

● Les risques externes : 

● Les  attaques  non  ciblées.  Toute  entreprise  est  concernée  par  l’agression  de  virus  ou  d’attaques 
globales sur le réseau (déni de service). 

● Les  attaques  ciblées.  Les  risques  physiques  (vol  ou  destruction  de  matériel)  ou  logiques  (accès 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


12
d’intrus). 

● Les risques internes : 

● Ils sont plus difficiles à appréhender car ils concernent des ressources internes à l’entreprise. 

Il existe des facteurs aggravants de risque liés au métier de l’entreprise : 

● Les postes nomades : ordinateurs portables, assistants numériques de poche, téléphones évolués portables 
(Smart phones). 

● Des infrastructures, services et applications mal protégés. 

● Un plan de sauvegarde ou de secours informatique inexistant ou non opérationnel. 

L’impact d’un risque

Il  peut  être  exprimé  par  les  conséquences  ou  les  préjudices  affectant  un  actif :  atteinte  à  l’intégrité,  perte  de 
disponibilité, atteinte à l’image de marque, perte de chiffre d’affaires. 
Les impacts peuvent être évalués selon les critères suivants : 

● financier (frais de remise en état ou de restauration, pertes d’exploitation…), 

● juridique et légal, 

● réputation et image de l’entreprise (par rapport à l’extérieur et au personnel), 

● expertise et savoir­faire reconnus de l’entreprise. 

2. Les vulnérabilités 

Pour le domaine de la sécurité informatique, Il existe trois familles de vulnérabilités : 

Vulnérabilités liées aux domaines physiques

● manque de redondance et de ressource au niveau équipement, 

● accès aux salles informatiques non sécurisé, 

● absence ou mauvaise stratégie de sauvegarde des données. 

Vulnérabilités liées aux domaines organisationnels

● Manque de : 

ressources humaines et de personnels qualifiés, 

communications. 

● Absence de : 

contrôles périodiques, 

documents de procédures adaptés à l’entreprise, 

moyens adaptés aux risques encourus. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


13
● Trop grande complexité fonctionnelle. 

Vulnérabilités liées aux domaines technologiques

● failles nombreuses dans les services et applicatifs Web et les bases de données, 

● pas de mises à jour des systèmes d’exploitation et des correctifs, 

● pas de contrôle suffisant sur les logiciels malveillants, 

● récurrence des failles et absence de supervision des évènements, 

● réseaux complexes, non protégés, 

● mauvaise utilisation de la messagerie. 

3. Les menaces 

Les systèmes d’information sont vulnérables par rapport à plusieurs menaces susceptibles de leur infliger différents 
types de dommages et des pertes significatives. 

L’importance des dégâts peut s’échelonner de la simple altération de données à la destruction complète de centres 
de données informatiques. 

La  valeur  réelle  des  pertes  relatives  au  manque  de  sécurité  n’est  pas  toujours  possible  à  estimer  car  beaucoup 
d’entre elles ne sont jamais découvertes, d’autres  peuvent  être  délibérément  ignorées  pour  éviter  de  montrer  une 
mauvaise image de l’entreprise. 

Les  effets  des  différentes  menaces  varient  considérablement  suivant  les  conséquences  affectant  l’entreprise, 
certaines affectent la confidentialité ou l’intégrité des données, d’autres agissent sur la disponibilité des systèmes. 
Les menaces les plus communes sont représentées ci­dessous : 

Erreurs et omissions

Ce sont des menaces importantes pour l’intégrité des données et des systèmes. Ces erreurs ont souvent une origine 
humaine.  En  effet,  même  les  programmes  les  plus  sophistiqués  ne  peuvent  pas  tout  détecter.  N’importe  quelle 
personne  intervenant  sur  le  système  d’information  (utilisateur,  administrateur  système,  développeur...)  contribue 
directement ou indirectement à ces dangers mettant en péril la sécurité des systèmes. Souvent l’erreur concerne une 
menace (erreur d’entrée de données, erreur de programmation…) ou encore crée elle­même la vulnérabilité. 

Fraude et vol

Les  fraudes  ou  vols  peuvent  être  commis  par  l’intérieur  ou  l’extérieur  de  l’entreprise.  Par  expérience,  il  s’avère,  la 
plupart du temps, que la menace vient de l’intérieur (des utilisateurs ayant des accès privilégiés aux systèmes). En 
effet, par défaut, ce sont les utilisateurs familiers de l’entreprise qui sont dans la meilleure position pour commettre 
des forfaits. 

Sabotage causé par des employés

Ce  sont  les  personnels  les  plus  familiarisés  avec  les  systèmes  et  les  applications.  Ils  peuvent  donc  perpétrer  des 
dommages, sabotages… Ce qui implique la nécessité de gérer et de contrôler de façon rigoureuse les comptes des 
utilisateurs, surtout de ceux qui ont des accès privilégiés aux systèmes. 

Les Hackers

Le terme hacker ou encore cracker fait référence à la personne qui s’introduit dans les systèmes d’information sans 
autorisation  pour,  dans  le  pire  des  cas,  provoquer  des  dégradations  dans  les  données  ou  les  applications.  Ses 
actions  peuvent  s’effectuer  à  partir  de  l’intérieur  (dans  le  cas  où  il  a  pu  obtenir  un  accès  sur  le  réseau)  ou  de 
l’extérieur  de  l’entreprise.  Toutefois,  il  n’est  pas  toujours  facile  de  détecter  sa  présence  sur  les  systèmes  ni  de 
connaître ce qu’il a provoqué comme dégâts. 

L’espionnage industriel ou commercial

C’est  le  fait  de  récupérer  des  données  confidentielles  de  l’entreprise  dans  le  cas  de  concurrence  économique  ou 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


14
industrielle. Cette menace n’implique pas, en général, d’altération des données internes. Par contre, elle peut avoir 
un  impact  important  sur  les  actifs  sensibles  de  l’entreprise  (données  clients,  brevets  industriels…).  La  menace  vise 
spécifiquement les ordinateurs ou appareils portables particulièrement sensibles au vol car ils peuvent contenir des 
informations confidentielles. Des précautions d’utilisation et de protection devront être prises. 

Les programmes malveillants

Ils  font  référence  aux  virus,  chevaux  de  Troie,  bombes  logiques  et  autres  logiciels  indésirables.  Souvent,  leur  point 
d’entrée se situe au niveau des ordinateurs personnels mal protégés lors de leur connexion sur Internet. Leurs effets 
peuvent s’étendre à tout le réseau de l’entreprise en contaminant d’autres matériels. 

Il est possible de se protéger de la plupart des risques liés à ces menaces. Aussi, dans les premières phases de mise 
en place de la sécurité du système d’information, un état des lieux, sous forme de diagnostic, va être nécessaire pour 
préparer une meilleure protection en détectant les vulnérabilités. 

4. La gestion du risque informatique 

Un risque est généralement caractérisé par : 

● sa source ou son origine : employé malveillant, intrus, programmes illégaux... 

● une menace : divulgation d’information confidentielle, coupure d’électricité... 

● la probabilité d’occurrence ou potentialité : durée et lieu, probabilité d’occurrence, 

● la  vulnérabilité  ayant  permis  ce  risque :  erreur  de  conception,  erreur  humaine,  manque  de  suivi  des 
évènements suspects... 

● l’impact, conséquence ou préjudice : indisponibilité du service, perte de marché ou d’image pour l’entreprise... 

● les mesures de sécurité ou protections ou contre­mesures pour s’en protéger, 

● les contrôles d’accès, la politique de sécurité, la sensibilisation du personnel... 

La démarche idéale consiste à en : 

● choisir la méthode d’évaluation adaptée au contexte de l’entreprise, 

● définir les critères d’identification des risques. 

Pour  avoir  une  idée  plus  précise  sur  la  méthode  à  utiliser,  il  est  utile  de  se  référer  aux  méthodologies  les  plus 
connues d’analyse et d’évaluation de risques : 

● MEHARI (MEthodologie Harmonisée d’Analyse de RIsques) 

● EBIOS (Expression des Besoins et Identification des Objectifs de Sécurité) 

● OCTAVE (Operationally Critical Threat, Asset, and Vulnerability Évaluation) 

Pour  MEHARI,  une  version  française  existe  en  téléchargement  gratuit  sur  le  site  du  CLUSIF  (Club  de  la  Sécurité  de 
l’Information Français) https://www.clusif.asso.fr/fr/production/mehari/ 

a. Méthode d’analyse des risques 

Elle est définie par les actions suivantes : 

● Identification  des  actifs  (une  première  bonne  pratique  est  de  connaître  la  liste  des  matériels  et  logiciels) 
utilisés par les services informatiques. 

- 4- © ENI Editions - All rigths reserved - Jonifar lina


15
● Identification  des  menaces  et  leurs  impacts  possibles  sur  la  confidentialité,  la  disponibilité  et  l’intégrité de 
ces actifs. 

● Pour chacune des menaces possibles, identification des vulnérabilités. 

● Détermination  de  la  probabilité  d’occurrence  des  menaces  et  des  niveaux  de  vulnérabilité  qui  pourraient 
impacter les services. 

b. L’évaluation du risque 

Des  informations  méthodologiques  sur  le  principe  d’évaluation  peuvent  être  trouvées  dans  la  norme  ISO  13335, 
chapitre La sécurité dans l’entreprise ­ Les systèmes et Le plan de secours informatique. 

Le processus d’évaluation consiste à effectuer l’analyse  et  l’interprétation du risque et comprend trois activités de 


base : 

● Détermination de la méthodologie et le périmètre d’évaluation. 

● Collecte et analyse des données. 

● Interprétation des résultats d’analyse de risques. 

À  partir  de  ces  éléments,  les  personnels  responsables  de  l’infrastructure  informés  du  contexte  établissent  les 
protections à mettre en place. 

Établissement de la valeur des actifs 

Cette  démarche  comprend  l’inventaire  des  actifs  concernés  susceptibles  d’être  affectés  par  les  menaces  (les 
matériels, les logiciels et support associés, les licences…). 

● Les  matériels :  serveurs,  stations  de  travail,  ordinateurs  personnels,  imprimantes,  unités  de  stockage, 
lignes de communication, routeurs, pare­feu, passerelles de réseau… 

● Les logiciels : systèmes d’exploitation, programmes applicatifs et de diagnostic, les logiciels de pare­feu, les 
outils logiciels… 

● Les  données :  stockées  en  ligne  ou  archivées,  les  sauvegardes,  les  bases  de  données,  les  journaux 
d’erreurs et les rapports de supervision, en transit sur les supports de communication, toutes celles qui sont 
en cours de traitement à tout instant dans l’entreprise. 

● Les programmes et procédures. 

● Les supports d’installation de logiciels, les supports magnétiques… 

Basé sur cette liste, cet inventaire va enregistrer un minimum d’éléments pour chaque actif. Cela peut être : 

● le propriétaire de l’information, 

● son emplacement physique ou logique, 

● un numéro d’identification. 

L’estimation du coût d’un actif consiste en sa valeur intrinsèque, les impacts à court terme et les conséquences à 
long terme de sa vulnérabilité. 
Identification des menaces 

Une  menace  est  une  entité  ou  un  évènement  qui  perturbe  le  système  d’information.  Elle  inclut  les  erreurs 
volontaires  ou  involontaires,  les  fraudes,  les  actions  possibles  des  employés  mécontents,  les  incendies  et  autres 
causes naturelles, les hackers, les programmes néfastes ou virus. 
Une  fois  l’inventaire des actifs requérant une protection effectué, il est nécessaire d’identifier les menaces en lien 
avec chacun d’eux et les risques de perte (d’information, financière…). Ce qui permettra l’élaboration de protections 
adaptées. 

© ENI Editions - All rigths reserved - Jonifar lina - 5-


16
Identification et évaluation des impacts 
Après  avoir  identifié  les  actifs  et  les  menaces,  l’impact  de  l’attaque  est  évalué  et  des  mesures  appropriées  de 
protection de sécurité doivent être mises en place, sous les formes suivantes : 

● identification des vulnérabilités du système, des protections mises en place, 

● analyse des probabilités d’occurrence de menaces qui pourraient exploiter ces vulnérabilités, 

● évaluation des conséquences possibles pour chaque menace, 

● sélection des outils ou mécanismes de sécurité adéquats. 

Cette évaluation estime le degré de perte pour les actifs. Plus les conséquences d’une menace sont graves, plus le 
risque pour le système d’information ou l’entreprise est important. 

Les  impacts  peuvent  être  estimés  selon  le  contexte  et  les  pertes  possibles.  Les  conséquences  peuvent  être 
directes (financières) ou indirectes (perte de confiance). 

Analyse des vulnérabilités 
Une vulnérabilité est une faiblesse de procédures de sécurité, de contrôles techniques ou physiques. Il peut s’agir 
de même une absence de protection qui peuvent être exploités par une menace. 

Les interrelations entre vulnérabilités, menaces et actifs sont déterminantes pour l’analyse de risques. 
Analyse des protections 

Une protection consiste en toute action, procédure, outil qui limite la vulnérabilité d’un système par rapport à une 
menace. 

Évaluation de probabilité de survenance 

Cette probabilité, appelée aussi probabilité d’occurrence, est une estimation de la possibilité de l’apparition d’une 
menace  ou  d’un  évènement  grave  pouvant  mettre  en  péril  un  système  d’information.  Dans  l’estimation,  outre  les 
possibilités d’incendies ou d’inondation, l’historique du système et l’expérience des personnels peuvent donner une 
indication valable. 

En général, plus la probabilité d’une menace est grande, plus son risque est important. 

Les résultats des analyses de risque et mise en place des protections 

L’interprétation  des  résultats  des  analyses  de  risques  peut  amener  à  sécuriser  en  priorité  certains  éléments  du 
système  d’information  jugés  critiques.  Naturellement,  la  suppression  des  vulnérabilités  de  l’ensemble  du  système 
d’information est toujours l’objectif essentiel. 

- 6- © ENI Editions - All rigths reserved - Jonifar lina


17
La politique de sécurité 
La politique de sécurité a pour objectif de définir la protection des systèmes d’information de l’entreprise. 
Elle comprend un ensemble de bases définissant une stratégie, des directives, des procédures, des codes de conduite, 
des  règles  organisationnelles  et  techniques.  Elle  implique  une  mise  en  œ uvre  d’une  sécurité  adaptée  aux  usages, 
économiquement viable et conforme à la législation. 
Cette politique est formalisée dans l’entreprise sous forme d’un document. Il doit comporter un recueil de pratiques qui 
régissent  la  manière  de  gérer,  de  protéger  et  de  transmettre  les  informations  critiques  ou  sensibles  appartenant  à 
l’organisation. La documentation sur la norme ISO 27001 et sa suite est l’ouvrage de référence d’aide à la réalisation 
de ce référentiel. 
Parmi les domaines abordés, il est possible de trouver les thèmes sur : 

● l’organisation et les structures de l’entreprise impliquées dans la gestion de la sécurité, 

● les éléments fondateurs d’une culture de sécurité, 

● le maintien de la cohérence dans les solutions techniques mises en œ uvre, 

● les moyens mis en œ uvre et les méthodes de pilotage. 

L’objectif central de la sécurité informatique est de garder ou de sauvegarder la pérennité de l’entreprise. C’est pour 
cela  que  la  politique  de  sécurité  mise  en  œ uvre  doit  s’inspirer  des  besoins  réels  qui  ont  été  définis  à  partir  des 
évaluations des actifs, des menaces et des vulnérabilités. Elle impose une complémentarité entre les procédures, les 
outils mis en œ uvre et les personnes impliquées. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


18
Stratégie et politique de sécurité 

1. Les principes 

Le rôle principal de sécurité informatique consiste en trois démarches principales : 

● Définir le périmètre de la vulnérabilité lié à l’usage des technologies de l’information et de la communication. 

● Offrir un niveau de protection adapté aux risques encourus par l’entreprise. 

● Mettre en œ uvre et valider l’organisation, les mesures, les outils et les procédures de sécurité. 

La première étape consiste à connaître le périmètre lié à la sécurité, c’est­à­dire la zone qui correspond aux services 
(authentification,  contrôles  d’accès  physiques  et  logiques,  disponibilité,  intégrité  et  confidentialité)  utilisés  sur  le 
réseau  d’entreprise  (postes  clients,  réseaux  LAN  et  WAN),  sur  les  serveurs,  avec  les  points  d’accès  externes 
(serveurs distants, accès VPN…). 

À chaque sous­ensemble du périmètre correspond un niveau de sécurité différent selon les menaces possibles ou en 
fonction de la valeur des informations à protéger. 

Les principes de base de cette sécurité imposent de : 

● Définir et d’implémenter une stratégie de sécurité adaptée au contexte ou au métier de l’entreprise. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


19
● Appliquer  les  dernières  mises  à  jour  et  corrections  pour  les  systèmes  d’exploitation, les logiciels applicatifs, 
principalement pour ceux qui sont établis en protection (anti­virus…). 

● Utiliser  les  recommandations  des  éditeurs  en  ce  qui  concerne  la  gestion  des  mots  de  passe  des  comptes 
privilégiés. 

Pour  bâtir  une  politique  de  sécurité  adaptée  au  métier  de  l’entreprise,  il  est  nécessaire  de  préparer  les  étapes 
suivantes : 

● Identifier les actifs à protéger : 

● Matériels. 

● Les données sensibles de l’entreprise. 

● Les services et applications : applications métier internes et externes pouvant communiquer avec le 
monde extérieur (fournisseurs, clients, site de commerce électronique) ou en interne. 

● Découvrir  les  réseaux  de  communication.  Cela  consiste  à  découvrir  les  interactions  entre  les  différents 
matériels et logiciels, d’identifier les applications communiquant avec l’extérieur. 

2. L’élaboration du document 

Après avoir évalué les besoins globaux en sécurité, le document présentant la politique peut être conçu selon le bon 
sens pratique. Une façon simple est d’utiliser une approche hiérarchique pour définir le périmètre global, ensuite le 
décomposer en différents composants. 

La  politique  de  sécurité  doit  être  rigoureuse,  mais  doit  rester  flexible.  Elle  peut  tenter  de  répondre  aux  premières 
questions suivantes : 

● Quel est le niveau de sensibilité ou d’importance des données de l’entreprise ? 

● Quels sont les objectifs principaux et le périmètre ? 

● Quels systèmes d’information sont à protéger ? 

● Quelles sont les mesures minimales à définir pour leur protection ? 

● Quelles  sont  les  personnes  responsables  de  la  sécurité  des  données  (accès  logiques,  privilèges 
d’administration…) et les ressources matérielles et logicielles mises à disposition ? 

● Quels sont les droits et devoirs des utilisateurs ou des administrateurs ? 

L’objectif  de  ce  document  est  de  considérer  spécifiquement  les  vulnérabilités  d’ordre  technique  et  les  solutions 
simples et efficaces à mettre en place. L’aspect humain interviendra obligatoirement car les rôles de l’administrateur 
et des personnels d’exploitation y sont traités. 

3. Les outils 

Tout projet de mise en place de la politique de sécurité dans l’entreprise requiert une documentation adaptée sous 
forme de guides de bonnes pratiques, de procédures. 
Les documents des normes peuvent être acquis, les guides et procédures doivent être rédigées par les personnes en 
charge de la sécurité des systèmes. 
Les  procédures  consistent  à  décrire  les  étapes  détaillées  qui  doivent  être  suivies  par  les  utilisateurs,  les 
responsables systèmes et toutes les personnes qui doivent accomplir une tâche particulière. 
Chaque document doit être rédigé et adapté selon le personnel concerné et sa fonction dans l’entreprise. 
L’objectif  final  des  documents  est  d’assister  les  utilisateurs,  les  responsables  systèmes  et  toutes  les  personnes 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


20
impliquées dans la gestion des systèmes d’information dans l’optique de la politique de sécurité définie. 

- 4- © ENI Editions - All rigths reserved - Jonifar lina


21
Les principaux axes de la stratégie de sécurisation 

1. Le diagnostic et l’évaluation des besoins 

Cette étape préalable consiste à déterminer : 

● Les ressources et les applications à protéger et le pourquoi. 

● Le  niveau  de  protection  requis  ou  celui  que  l’entreprise  est  prête  à  mettre  en  œ uvre  pour  chaque  groupe 
d’éléments. 

● Le type de risque et de menace dont pourrait faire l’objet chaque sous­ensemble. 

● Le mode de protection le plus efficace selon le contexte de l’entreprise et de son métier. 

La multiplicité des points de vulnérabilité dans l’aspect sécurité du système d’information décrit une chaîne de points 
critiques dont la résistance sera égale à celle du maillon le plus faible. 

Pour cela, concevoir une politique de sécurisation efficace et cohérente demande de considérer les points principaux 
suivants : 

● Les points d’entrée de l’entreprise au niveau système d’information : 

● L’accès physique (bâtiment, locaux…) 

● Les accès logiques (serveurs, postes de travail…) 

● Les connexions au réseau : accès Internet, accès distant 

● Les personnels 

● Les  failles  de  sécurité :  systèmes  d’exploitation  non  mis  à  jour,  applications  obsolètes,  virus  et  autres 
programmes indésirables. 

2. Les plans opérationnels de sécurité 

Ils  se  composent  de  plans  de  continuité  d’activité,  de  plans  de  reprise  d’activité,  plans  de  continuité  métier 
nécessaires pour la survie de l’entreprise pouvant être confrontée à un désastre potentiel. 

Les objectifs principaux consistent en : 

● Une analyse précise des risques susceptibles de survenir 

● Une spécification des solutions et des mesures de sécurité à mettre en place 

● Une planification de l’ensemble des opérations nécessaires (s’inspirer du PDCA) 

Ils peuvent être réalisés à partir des principes suivants : 

● Classification des informations et des ressources du système d’information 

● Diagnostic de l’état des lieux en terme de sécurité 

● Identification et évaluation des risques encourus 

● Détermination des besoins d’amélioration 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


22
● Établissement de plans d’action et de solutions à mettre en œ uvre 

3. L’accès aux systèmes et aux données 

La protection de l’accès au système et aux données est l’étape, la plus facile à appréhender dans la stratégie globale 
de sécurisation. Celle­ci est multidimensionnelle et traite des éléments physiques et logiques. 

a. La protection physique 

Elle consiste à anticiper les effets de menaces fortuites ou délibérées. Il est logique d’envisager une protection liée 
aux  sinistres  physiques  divers  pouvant  être  provoqués  par  un  incendie,  un  dégât  des  eaux  ou  encore  un 
tremblement de terre qui vont provoquer, par exemple : 

● des coupures d’électricité, 

● les coupures des liaisons de télécommunications, 

● la destruction de matériels, de supports de logiciels, de documents, 

Elle  signifie  que  les  équipements  sur  lesquels  sont  hébergées  les  applications  du  système  d’information  de 
l’entreprise sont physiquement protégés par : 

● des onduleurs pour la protection électrique, 

● des systèmes de détection pour la protection anti­incendie, anti­inondation. 

L’accès  physique  aux  équipements  devra  également  faire  l’objet  d’une  politique  de  contrôle  des  accès  clairement 
définie selon les besoins et les niveaux de confidentialité autorisés à chaque utilisateur de l’entreprise afin d’éviter 
toute altération de l’information, de vol de matériel ou de support de données. 
Ce qui signifie que la sauvegarde des données doit faire l’objet d’une attention et d’une stratégie particulière. 

b. La protection logique 

Elle  a  pour  objectif  d’éviter  toute  intrusion  sur  le  système  d’information  de  l’entreprise :  celle­ci  passe 
essentiellement  par  la  mise  en  place  de  dispositifs  de  protection  de  type  pare­feu,  de  logiciels  pour  contrer  les 
logiciels malveillants, de contrôles d’identification et d’authentification. 
Un dispositif supplémentaire consisterait à mettre en place une solution de chiffrement des données circulant sur le 
réseau de l’entreprise. 

c. Identification et traçabilité 

L’identification et la traçabilité des connexions et des incidents doivent être mises en place au travers de la création 
d’un  journal  répertoriant  les  évènements  suspects.  Les  données  enregistrées  pourront  aider  au  traçage  des 
anomalies dans l’objectif d’intervenir après la découverte d’intrusions dans l’exploitation du système (tentatives non 
permises de connexion). 

4. La garantie de la disponibilité du système d’information 

Celle­ci passe par la disponibilité d’accès au réseau de l’entreprise, à ses applications et aux données. 

Ce qui implique que chacun des actifs du système d’information  doit  être  individuellement  protégé  pour  respecter  la 


disponibilité des systèmes, du réseau d’entreprise, des applications et des données. 

De plus, un plan de sauvegarde des données doit être conçu et mis en œ uvre de manière rigoureuse. 
La disponibilité des données : stockage, sauvegarde et récupération, archivage 

Plusieurs technologies de stockage de données permettent aujourd’hui de s’adapter aux besoins de réseau réparti en 
architecture client­serveur, reliant des serveurs hétérogènes. Le stockage en réseau ou architecture SAN (Storage Area 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


23
Network)  est  fondé  sur  un  réseau  entièrement  dédié :  les  périphériques  peuvent  être  physiquement  éloignés,  mais 
reliés aux serveurs et administrés à partir d’un point centralisé. 

La disponibilité des systèmes : redondance et haute disponibilité 
Les serveurs en cluster et la virtualisation des serveurs sont les solutions présentes sur le marché des constructeurs 
de matériel informatique et éditeurs de logiciels. 

La disponibilité des réseaux : redondance des équipements de réseau 
Cette  disponibilité  est  globalement  assurée  par  la  mise  en  œ uvre  d’équipements  redondants  (cœ urs  de  réseau, 
commutateurs, liaisons physiques doublées…). 

5. La sensibilisation des utilisateurs à la sécurité 

La  clé  de  voûte  d’une  politique  de  sécurisation  efficace  reste  néanmoins  la  dimension  humaine  de  l’entreprise.  La 
méconnaissance ou non application des procédures, les erreurs ou la malveillance peuvent être à elles seules cause 
de dysfonctionnement ou de vulnérabilités. 
L’implication de chaque utilisateur dans la démarche de sensibilisation est primordiale d’où une formation adaptée à la 
fonction de chaque utilisateur (ex : l’utilisateur détenteur d’informations stratégiques). 
De même, les utilisateurs nomades se servant d’ordinateurs portables sont qualifiés de sensibles.  La  responsabilité 
de chacun d’eux doit être clairement décrite. 
La  démarche  de  sensibilisation  peut  être  concrétisée  par  des  voies  plus  ou  moins  formelles 
(réunion/présentations//support écrit) et surtout doit être répétitive. 
Une charte informatique de bon usage de l’outil informatique doit être prévue et disponible pour chaque utilisateur qui 
doit  connaître  les  politiques  de  sécurité  liées  à  l’informatique,  les  recommandations  et  surtout  les  sanctions  qui 
peuvent être appliquées. 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


24
La sécurité et l’aspect légal 

Risques et responsabilités de l’entreprise

La responsabilité de l’entreprise peut être engagée du fait d’un préjudice causé à un tiers par l’action d’une personne 
(intrus ou salarié) suite à une mauvaise utilisation des systèmes et des accès Internet. 

Les contraintes légales

Les entreprises sont assujetties à des contraintes administratives et légales. 
Un dirigeant ne peut ignorer les risques qu’il peut faire courir à son entreprise s’il ne met pas en œ uvre les mesures 
nécessaires pour protéger son système d’information. 
Comme il sera tenu pour responsable des pertes ou des altérations de données, il a donc pour fonction, dans le cadre 
de la sécurité informatique et de la loi sur l’économie numérique d’informer son personnel des menaces réelles et de 
prendre les précautions nécessaires ; en premier lieu, les administrateurs systèmes. Il délégue alors sa responsabilité 
au niveau de ces administrateurs qui pourraient, à leur tour, être concernés. 

Voici les articles de loi montrant les responsabilités du chef d’entreprise (civiles et pénales) : 

● L’article 1384 alinéa 5 du code civil : sur la responsabilité civile de l’employeur en ce qui concerne l’activité de 
ses personnels. 

● L’article L. 121­2 du code pénal : sur la responsabilité civile de l’employeur du fait de ses personnels dès lors 
qu’ils commettent des infractions impliquant l’entreprise. 

● L’article  34  de  la  loi  du  6  janvier  1978 :  sur  sa  responsabilité  de  protéger  l ‘intégrité  et  la  confidentialité  des 
données à caractère personnel. 

● La  loi  de  sécurité  financière  du  1e r  août  2003  (LSF)  en  matière  de  sécurité  des  systèmes  d’information  des 
entreprises. 

Présentation des chapitres suivants

Après  avoir  posé  les  bases  qui  permettent  de  mieux  comprendre  les  principes  de  la  sécurité  informatique  dans  une 
entreprise, les chapitres suivants vont développer les solutions à mettre en place pour être conforme avec l’intégrité, la 
confidentialité, la disponibilité des données en insistant sur les bonnes pratiques à mettre en place. 

Les sujets traités seront plus en adéquation avec le système d’exploitation Windows, soit au moment de la rédaction 
du document, sur les versions connues jusqu’à Windows 2003. De même, les logiciels et outils dont il sera question, 
vont fonctionner prioritairement avec ce système d’exploitation. 

Toutefois, actuellement la plupart des environnements de systèmes d’information et des environnements informatiques 
sont multiplates­formes. Il existera forcément des liens avec des systèmes du type Open Source. Les outils utilisables 
ne seront pas forcément issus de l’environnement Windows. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


25
Pré­requis 
Pour ce chapitre, le lecteur est supposé connaître le principe de gestion des réseaux et de la modèle OSI (Open System 
Interconnect), les protocoles réseaux les plus couramment utilisés. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


26
Généralités sur la sécurité dans les réseaux 
Les zones de risques et de confiance 

Ces zones sont définies grâce à des mécanismes réseau basés sur le matériel (pare­feu) et des politiques et contrôles 
permettent de construire les briques de base de protection contre les menaces. 

Une  évaluation  permet  de  déterminer  quels  mécanismes  (authentification,  cryptage,  autorisation)  est  nécessaire  pour 
permettre à d’autres entités à l’intérieur de la zone concernée de s’interconnecter de façon sécurisée. 

Le modèle OSI présentant les protocoles utilisés dans les réseaux 
Ce modèle en 7 couches sert de base à la compréhension de l’architecture des réseaux. 

OSI Communications 

1. Introduction à la technologie des pare­feu 

Rôle principal

Il consiste à protéger le réseau de l’entreprise des intrusions extérieures. Ces dispositifs filtrent les trames (contenant 
des données) des différentes couches du modèle OSI (Open System Interconnect) afin de contrôler leur flux et de les 
bloquer en cas d’attaques, celles­ci pouvant prendre plusieurs formes. 
Le filtrage réalisé par le pare­feu constitue le premier rempart de la protection du système d’information. 

Ils peuvent être composés de périphériques comportant des filtres intégrés dont la fonction principale est de limiter et 
de  contrôler  le  flux  de  trafic  entre  les  parties  de  réseaux.  Ils  permettent  l’accès  de  l’entreprise  aux  ressources 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


27
externes en contrôlant la sécurité des transferts. 
Un  pare­feu  est  installé  le  plus  souvent  en  périphérie  du  réseau  local  de  l’entreprise  ce  qui  lui  permet  de  contrôler 
l’accès  aux  ressources  externes  depuis  l’intérieur  mais  également  entre  des  entités  éloignés  de  l’entreprise  mais 
reliées par un réseau de type extranet. 

Leur utilisation permet de contrôler la connectivité des communications, une entreprise peut empêcher des accès non 
autorisés aux ressources et systèmes pour ses environnements les plus sensibles. 
Il existe différents types de pare­feu selon leur typologie ou leur fonction. Ils peuvent opérer sur chacun des niveaux 3 
(IP), niveau 4 (TCP, UDP) ou niveau 7 (FTP, HTTP…) du modèle OSI. Dans le cas de sa fonction de routeur, il analyse 
chaque paquet de données (adresses IP, numéros de port TCP ou UDP). 

Les pare­feu de base opèrent sur un faible nombre de couches de la modèle OSI tandis que les plus sophistiqués en 
couvrent un plus grand nombre et sont ainsi plus efficaces. 

Indépendamment ou en complément d’une architecture utilisant ces dispositifs, il existe des services additionnels tels : 
la  traduction  d’adresse  réseau  (Network  Address  Translation  ou  NAT),  le  protocole  DHCP  (Dynamic  Host  Configuration 
Protocol) et les réseaux privés virtuels (Virtual Private Networks ou VPN). 

Les pare­feu peuvent aussi agir en tant que passerelles de réseaux privés virtuels. 
Ces dispositifs permettent le filtrage de l’accès au réseau interne, afin d’empêcher l’accès non autorisé à l’ensemble 
des serveurs du réseau de l’entreprise. 
Il s’agit de contrôler les flux entrant sur le réseau. Plusieurs types de filtrage sont proposés : 

● Le filtrage applicatif pour le contrôle des applications en fonction du port utilisé. 

● Le filtrage utilisateur : pour le contrôle d’accès en fonction des utilisateurs identifiés. 

● Le filtrage adaptatif : permettant l’émission d’un journal des transmissions de paquets IP. 

Les  modes  de  filtrage  les  plus  courants  consistent  à  interdire  par  défaut  toute  connexion  entrante  à  l’exception  de 
celle  destinée  au  serveur  Web,  ou  toute  connexion  provenant  d’une  adresse  IP  à  partir  de  laquelle  des  actions  de 
scanning sur le réseau de l’entreprise auront été mises en évidence. 

Les pare­feu sont importants dans le sens où ils peuvent fournir un point de blocage unique dans lequel la sécurité ou 
la  journalisation  de  transferts  peuvent  être  imposées.  Ces  dispositifs  fournissent  des  informations  pertinentes  aux 
administrateurs sur le type de trafic qui traverse cet équipement. 
La  plupart  des  pare­feu  récents  sont  capables  de  fonctionner  avec  des  outils  de  façon  à  superviser  les  détections 
d’intrusion,  à  scanner  le  contenu  de  la  messagerie  ou  des  pages  HTML.  Seuls,  ils  ne  peuvent  réaliser  la  protection 
complète  de  la  connexion  à  Internet.  Par  contre,  ils  sont  considérés  comme  la  première  ligne  de  défense  et  la 
principale dans le cadre de la protection du réseau d’une entreprise. Néanmoins, les serveurs du réseau interne, les 
postes de travail et les autres systèmes doivent être impérativement mis à jour avec les derniers correctifs de sécurité 
et utiliser un logiciel d’anti­virus. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


28
Pare­feu de passerelle d’application de proxy 

La translation d’adresses (Network Address Translation ou NAT)

Son  principe  consiste  à  modifier  l’adresse  IP  source  ou  destination,  dans  l’en­tête  d’un  datagramme  IP  lorsque  le 
paquet transite dans le pare­feu en fonction de l’adresse source ou destination et du port source ou destination. 

Lors  de  cette  opération,  le  pare­feu  garde  en  mémoire  l’information  lui  permettant  d’appliquer  la  transformation 
inverse sur le paquet de retour. La traduction d’adresse permet de masquer le plan d’adressage interne à l’entreprise 
par  une  ou  plusieurs  adresses  routables  sur  le  réseau  externe  ou  sur  Internet.  Cette  technologie  permet  donc  de 
cacher le schéma d’adressage réseau présent dans une entreprise derrière un environnement de pare­feu. 
Cette traduction est réalisée selon 3 modes : 

Traduction   Mappage   Utilisation  

NAT Statique   Permanent ­ 1 pour 1   Correspondance permanente d’une adresse publique vers une 


adresse IP privée interne routable associée 

NAT  Temporaire ­ 1 pour 1   Ensemble d’adresses publiques assignées dynamiquement à des 


Dynamique   clients internes pendant le temps d’une connexion  

PAT   Temporaire ­ N pour 1   Une adresse publique est partagée entre plusieurs clients 


internes  

2. Les fonctionnalités de pare­feu 

Les fonctionnalités de base

Analyse du trafic au niveau paquet, circuit et/ou application : 

● vérification du trafic dans son contexte, 

● limitation des risques d’accès non autorisés, 

● analyse et modification du contenu à partir de filtres applicatifs. 

Détection d’intrusion 
Protection des serveurs accessibles depuis le réseau externe (Internet…) 

Les fonctionnalités de pare­feu multicouches

Ce type de pare­feu permet d’accroître la sécurité des flux par divers procédés de filtrages : 

Au niveau paquet 

● filtres statiques et dynamiques, 

● détection d’intrusion, 

● filtrage à partir de l’analyse des données, 

● possibilité de suppression des paquets, 

● protocole PPTP autorisé. 

Au niveau circuit (protocole) 

● filtrage basé sur les sessions, 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


29
● contrôle et analyse de la connexion du client vers le serveur, 

● association de connexion. 

Au niveau application 

● inspection des données, 

● analyse du contenu (action de blocage/modification/redirection), 

● filtrage pour les protocoles HTTP (HyperText Transfer Protocol), SMTP (Simple Mail Transfer Protocol)… 

3. Les différents types de pare­feu 

Les pare­feu personnels ou les appliances de pare­feu personnel 

Le  module  ou  appliance  de  pare­feu  personnel  est  conçu  pour  protéger  de  petits  réseaux  informatiques.  Ils 
permettent, en outre, de sécuriser les postes de travail utilisés à distance via Internet et un FAI (Fournisseur d’accès à 
Internet). Les pare­feu personnels, sauf cas particuliers, ne peuvent protéger qu’un seul système ou poste de travail, 
uniquement la machine sur lequel il est installé. 
Ces appliances fonctionnent avec un matériel spécialisé et peuvent incorporer d’autres types de composants réseau, 
comme : 

● un concentrateur ou hub, 

● un commutateur ou switch, 

● un serveur DHCP (Dynamic Host Configuration Protocol), 

● un agent SNMP (Simple Network Management Protocol). 

Le pare­feu intégré dans un serveur ou au système d’exploitation 
Des  logiciels  de  pare­feu  sont  disponibles  dans  certains  systèmes  d’exploitation,  comme  Linux  ou  comme  éléments 
additionnels. Ils peuvent être utilisés pour sécuriser le serveur sur lequel il est implanté. Son principal inconvénient est 
qu’il doit être administré séparément. 
Les  plates­formes  de  pare­feu  doivent  être  implémentées  sur  des  machines  contenant  un  système  d’exploitation 
prévu uniquement pour des applications de sécurité. Le serveur utilisé ne doit héberger aucune autre application ou 
fonctionnalité non utiles au système d’exploitation, il doit donc être dédié à la fonction de pare­feu uniquement. 

Les précautions et bonnes pratiques de configuration du serveur dédié 
La  configuration  du  pare­feu  doit  être  réalisée  selon  le  système  d’exploitation.  D’autres  précautions  doivent  être 
prises : 

● Tous  les  protocoles  de  réseau  non  utilisés  doivent  être  retirés.  En  effet,  ils  peuvent  être  utilisés  pour 
contourner ou endommager l’environnement de pare­feu. 

● Tous  les  services  réseaux  et  applicatifs  doivent  être  supprimés  ou  désactivés.  En  effet,  les  applications 
inutilisées  deviennent  souvent  des  cibles  potentielles  d’attaque.  En  réalité,  beaucoup  d’administrateurs 
oublient d’implémenter des contrôles d’accès pour restreindre l’accès au pare­feu. Des applications ou services 
réseau non utilisés, sont exécutés avec leurs configurations par défaut, moins sécurisés. 

● Tous les comptes utilisateurs ou systèmes non utilisés doivent être supprimés ou désactivés. 

● Tous les correctifs (patches et hotfixes) doivent être installés avant l’installation des composants du pare­feu 
et  avoir  été  testés  auparavant  sur  une  machine  de  test  pour  être  sûr  de  leur  efficacité.  Naturellement,  les 
mises à jour de correctifs du système doivent être impérativement effectuées périodiquement pour garantir le 
bon état de sécurité. 

● Toutes les connexions physiques connectées aux interfaces réseau et non utilisées doivent être désactivées 

- 4- © ENI Editions - All rigths reserved - Jonifar lina


30
ou débranchées. 

● La  machine  hébergeant  le  pare­feu  doit  être  sauvegardée  comme  tout  autre  serveur  important,  en  dehors 
toutefois de l’architecture de sauvegarde classique, c’est­à­dire en dehors du réseau interne à l’entreprise. Le 
principe  consiste  à  utiliser  l’unité  de  sauvegarde  locale.  Les  supports  (cartouches  ou  bandes)  sont 
naturellement stockés dans un lieu sécurisé. 

4. Choix d’un dispositif de pare­feu pour l’entreprise 

La réflexion préalable au choix d’une solution de protection du réseau interne à l’aide de pare­feu s’effectue à partir 
de la définition de la politique de sécurité de l’entreprise. 

La sélection peut prendre en compte les éléments suivants : 

● nature, nombre des applications utilisées par l’entreprise, 

● types de filtre, niveau de filtrage, 

● facilités d’enregistrement des évènements et actions pour audits futurs, 

● outils et commodités d’administration, 

● simplicité de configuration et de mise en œ uvre, 

● capacité à supporter un tunnel chiffré, réalisation d’un VPN (Virtual Private Network), 

● disponibilité d’outils de supervision, d’alarmes, d’audits actifs, 

● possibilité d’équilibrage de charges et de gestion de la bande passante de réseau, 

● présence ou non dans l’entreprise de compétences en administration de système d’exploitation du pare­feu. 

Recommandations 

● Un pare­feu doit être protégé et sécurisé contre les accès non autorisés. 

● Tous les trafics entrant et sortant doivent passer obligatoirement par le pare­feu. 

● Le trafic est défini par la politique de sécurité, les règles cohérentes. 

● Il  n’a  pas  la  fonction  d’un  anti­virus,  il  vient  en  complément  dans  le  mode  de  protection  du  système 
d’information. 

5. La politique de configuration de pare­feu 

Elle  précise  comment  le  pare­feu  doit  prendre  en  compte  le  trafic  lié  aux  applications  (web,  e­mail,  Telnet).  Elle  doit 
décrire  comment  le  pare­feu  doit  être  configuré,  géré  et  mis  à  jour.  Elle  doit  être  bien  documentée,  spécifique  et 
sérieuse car vitale pour la protection des connexions externes à l’entreprise. 

Avant la mise en place d’une politique de pare­feu, des analyses de risques doivent être réalisées sur les applications 
qui utilisent un accès au réseau externe. Les résultats de cette analyse vont fournir une liste des applications et la 
façon  dont  elles  seront  sécurisées.  Il  est  nécessaire  de  connaître  précédemment  les  vulnérabilités  associées  à 
chacune d’elles pour évaluer et définir la politique de protection via les pare­feu. Les étapes nécessaires sont décrites 
ci­dessous : 

● identification des applications réseau et des vulnérabilités associées à chaque application, 

● création d’une matrice de trafic des applications montrant les méthodes de protection utilisée, 

© ENI Editions - All rigths reserved - Jonifar lina - 5-


31
● création d’un ensemble de règles basé sur une matrice des applications utilisant le réseau. 

Une politique de pare­feu fait partie de l’ensemble de la mise en place de la sécurité de l’information, dans le sens où il 
s’agit de la description de la façon dont la sécurité sera implémentée au niveau des pare­feu et dispositifs associés. 
Les pare­feu peuvent être complexes à gérer et les incidents impliquant la sécurité peuvent arriver quotidiennement. 
Sans une bonne politique d’implémentation et d’administration, les pare­feu peuvent devenir eux­mêmes un point de 
faiblesse ou de vulnérabilité dans la sécurité mise en place. 

Le test de la politique de sécurité définie dans un pare­feu

Il est nécessaire d’auditer et de vérifier au moins une fois ou plus par trimestre les règles de pare­feu. 

Pour cela, il existe deux méthodes. La première et la plus simple consiste à imprimer la configuration de chaque pare­
feu opérationnel et à la comparer avec la version définie à l’origine, en tenant compte des ajustements éventuels. Les 
modifications  réalisées  au  fur  et  à  mesure  doivent  être  tracées,  dans  la  documentation  liée  au  pare­feu,  afin  de 
connaître les raisons des changements. 
La seconde, plus rigoureuse, implique de tester la configuration en place. Dans ce cas, l’administrateur utilise les outils 
(du domaine public disponibles sur Internet) pour évaluer la configuration de chaque pare­feu en réalisant des tests 
de connexion non autorisés ou d’intrusion. L’objectif principal est de s’assurer que les pare­feu et autres dispositifs de 
sécurité liés au réseau sont configurés exactement selon la politique de sécurité définie au départ et conformes aux 
précautions requises. 

Revue périodique de sécurité des pare­feu

De bonnes pratiques conseillent que les politiques de sécurité du système d’information soient revues et mises à jour 
périodiquement, au moins deux fois par an, lors de nouvelles implémentation ou des changements d’infrastructure ou 
encore lors d’incidents sérieux ayant impliqué le système d’information. Les administrateurs de réseau ou de sécurité 
gérant les pare­feu doivent être informés des changements affectant les applications qui utilisent ces dispositifs (par 
exemple : les logiciels de sauvegarde). 

6. Stratégie d’implémentation de pare­feu 

Lors  de  la  mise  en  place  de  pare­feu  et  de  la  politique  associée,  les  entreprises  doivent  définir  les  méthodes 
d’implémentation, en tenant compte des points suivants : 
Les pare­feu basés sur une appliance ne souffrent pas trop de vulnérabilités de sécurité quand ils sont associés aux 
systèmes  d’exploitation.  Ces  pare­feu  ont  tendance  à  être  plus  rapides  et  efficaces  que  ceux  qui  sont  intégrés  aux 
systèmes d’exploitation courants. 
Le  plus  gros  inconvénient  perçu  lors  de  la  mise  en  œ uvre  de  pare­feu  associés  au  système  d’exploitation  serait  la 
présence potentielle de vulnérabilités qui pourrait affaiblir la protection générée par le pare­feu. 
Étant donné le rôle critique joué par ces dispositifs, la manière de les gérer et de les superviser est très importante. 

a. Les règles dans un pare­feu 

Les  pare­feu  utilisent  un  ensemble  de  règles  pour  implémenter  les  contrôles  de  sécurité.  Celles­ci  comportent  au 
minimum les éléments suivants : 

● L’adresse source du paquet (l’adresse de niveau 3 du modèle OSI de la machine ou du périphérique réseau 
d’origine), ex : 192.168.1.1. 

● L’adresse de destination du paquet (l’adresse de niveau 3 de la machine ou du périphérique réseau cible), 
ex : 192.168.1.2. 

● Le  type  de  trafic,  protocole  de  réseau  spécifique  utilisé  pour  la  communication  entre  les  systèmes  ou 
périphériques source et destination, ex : Ethernet au Niveau 2 et IP au niveau 3. 

● Des paramètres au niveau 4, ex : TCP:80 port de destination d’un serveur Web ou des informations sur les 
interfaces de routeur par lesquelles transitent les paquets. 

● Une action qui va agir sur les paquets : Deny (Empêche), Permit (Autorise), Drop (Elimine). 

La  gestion  des  règles  de  pare­feu  peut  être  consolidée  après  avoir  réalisé  la  matrice  des  applications  utilisant  le 
réseau.  Les  règles  doivent  être  simples  et  aussi  spécifiques  que  possible  en  correspondance  avec  le  trafic  réseau 

- 6- © ENI Editions - All rigths reserved - Jonifar lina


32
qu’elles contrôlent. 
À  chaque  reconfiguration  ou  modification,  il  est  nécessaire  de  récupérer  le  paramétrage  complet,  sous  forme 
électronique ou papier. 
Pour des raisons de sécurité, la meilleure méthode consiste à bloquer d’abord tous les flux entrants pour ensuite les 
autoriser  un  à  un  de  façon  sélective  selon  les  types  de  trafic  prévus.  L’autre  qui  consiste  à  autoriser  toutes  les 
connexions et le trafic par défaut pour ensuite bloquer selon les types de protocole n’est pas recommandée et est 
même à proscrire. 

Les règles strictes

L’ensemble de règles d’un pare­feu doit obligatoirement bloquer les types suivants : 

● Trafic entrant dont l’origine est un système source non authentifié avec comme adresse de destination celle 
du pare­feu lui­même. Ce type de paquet représente une attaque ou un test en direction du pare­feu. Il y a 
une exception à cette règle. Il concerne le cas où le pare­feu accepterait le transfert d’un mail entrant sur le 
port 25. Dans cette éventualité, il doit permettre les connexions entrantes vers lui­même, seulement sur ce 
port. 

● Trafic entrant avec une adresse source indiquant que le paquet a pour origine le réseau protégé derrière le 
pare­feu.  Ce  type  de  paquet  représente  vraisemblablement  un  type  de  tentative  d’usurpation  (spoofing 
attempt). 

● Trafic entrant contenant des paquets ICMP (Internet Control Message Protocol), correspondant à la commande 
ping. À partir du moment où ICMP peut être utilisé pour accéder des réseaux derrière certains types de pare­
feu, ce protocole ne doit pas transiter à partir d’Internet ou de n’importe quel réseau externe non approuvé. 

● Trafic  entrant  et  sortant  à  partir  d’une  adresse  source  qui  appartient  à  une  plage  d’adresses  réservées  à 
des réseaux privés (RFC 1918). La RFC 1918 réserve les plages d’adresses suivantes pour réseaux privés : 

● 10.0.0.0 à 10.255.255.255 (Classe A, ou ./8. en notation CIDR) 

● 172.16.0.0 à 172.31.255.255 (Classe B, ou ./12. en notation CIDR) 

● 192.168.0.0 à 192.168.255.255 (Classe C, ou./16 en notation CIDR) 

● Trafic entrant pour qui l’origine de l’adresse fait partie de ces plages d’adresses privées. Ce trafic indique le 
début d’une  attaque  de  type  Déni  de  Service.  Toutefois,  ce  type  particulier  de  trafic  réseau  doit  aussi  être 
bloqué avec des ensembles de règles sauf si le pare­feu possède une fonctionnalité de protection. 

● Trafic  entrant  venant  d’une  source  non  identifiée  contenant  du  trafic  SNMP  (Simple  Network  Management 
Protocol). La présence de ces paquets peut indiquer qu’un intrus est en train de tester (scanner) le réseau. Il 
y a en général peu de raisons qu’une entreprise permette ce type de trafic. Il doit être alors bloqué. 

● Trafic  entrant  contenant  une  information  sur  IP Source  Routing.  Il  s’agit d’un  mécanisme  qui  permet  à  un 
système  de  spécifier  les  routes  prises  par  ce  paquet  sur  le  réseau.  Au  point  de  vue  sécurité,  le  source 
routing peut permettre à un pirate d’accéder à un réseau privé en utilisant une machine connectée à la fois à 
Internet et au réseau interne comme passerelle. 

● Le  trafic  réseau  entrant  ou  sortant  contenant  une  adresse  source  ou  destination  équivalent  à  127.0.0.1 
(localhost). Ce type de trafic correspond habituellement à une attaque sur le pare­feu lui­même. 

● Le  trafic  réseau  entrant  ou  sortant  contenant  une  adresse  source  ou  destination  équivalent  à  0.0.0.0. 
Certains systèmes d’exploitation interprètent cette adresse comme une adresse locale (localhost) ou comme 
une adresse de diffusion. Ces paquets peuvent être utilisés en cas d’attaque sur le réseau. 

● Le  trafic  réseau  entrant  ou  sortant  contenant  des  adresses  de  diffusion.  Ce  cas  peut  être  une  source 
d’attaque dont l’objectif est d’inonder le réseau ou le sous­réseau avec des trames. 

Certains logiciels de sauvegarde permettent l’accès de clients situés derrière un pare­feu. Il est nécessaire 
de se référer à la documentation. 

© ENI Editions - All rigths reserved - Jonifar lina - 7-


33
Exemple de règles de filtrage de paquets

Adresse  Port  Adresse  Port de  Action  Description 


Source  Source  Destination  destination 

1  Any  Any  172.16.0.0  >1023  Allow   Règle qui permet le retour 


de connexions TCP vers le 
sous­réseau interne 

2  192.168.1.1  Any  Any  Any  Deny   Empêche le pare­feu lui­


même d’être accédé par une 
source interne ou externe 

3  Any  Any  172.16.0.1  Any  Deny  Empêche les utilisateurs 


externes au réseau 
d’accéder directement le 
système de pare­feu 

4  172.16.0.0  Any  Any  Any  Allow  Les utilisateurs internes 


peuvent accéder aux 
serveurs externes 

5  Any  Any  172.16.0.2  SMTP  Allow  Permet aux utilisateurs 


externes d’envoyer des 
messages vers l’intérieur 

6  Any  Any  172.16.0.3  HTTP  Allow  Permet aux utilisateurs 


externes d’accéder au 
serveur Web 

7  Any  Any  Any  Any  Deny  Tout ce qui n’est pas permis 


est explicitement bloqué 
(protection de base) 

Le tableau ci­dessus montre un exemple de règles de filtrage pour un réseau d’adresse 172.16.0.0. 
Le pare­feu reçoit chaque paquet et examine ses adresses et ports source et destination, détermine quel protocole 
est utilisé. À partir de ce point, le pare­feu compare ce qu’il a reçu par rapport aux règles définies les unes après les 
autres selon la liste. À chaque fois qu’une règle qui autorise ou interdit le paquet est trouvée, une de ces actions est 
réalisée : 

● Acceptation (Accept  ou Allow) :  le  pare­feu  transfère  le  paquet  de  l’entrée vers la sortie, une journalisation 


d’évènements peut avoir lieu ou non. 

● Refus  (Deny) :  le  pare­feu  élimine  le  paquet  sans  le  transférer.  Une  fois  le  paquet  supprimé,  un  message 
d’erreur  est  retourné  vers  le  système  source.  Une  journalisation  de  l’erreur  peut  avoir  lieu  ou  non, 
dépendant de la configuration mise en place. 

● Rejet (Discard) : le pare­feu élimine le paquet sans le transférer, aucun message d’erreur n’est retourné vers 
le système source. Cette action est utilisée pour implémenter le principe du trou noir au niveau du pare­feu 
et consiste à ne pas révéler sa présence au système source. De même, une journalisation de l’action peut 
avoir lieu ou non dépendant de la configuration mise en place. 

- 8- © ENI Editions - All rigths reserved - Jonifar lina


34
Exemple de règles de pare­feu lié à une application de sauvegarde 

Groupe de règles liées à la sauvegarde : Sauvegardes 
Règle 6 : 

● Nécessaire à l’installation des agents disques sur la DMZ­Extranet 

● Ports ouverts : 

445 (microsoft­ds) 

8,15,17,13 (icmp­requests) 

Règle 7 : 

● Communication du serveur de sauvegarde vers les agents disques de la DMZ­Extranet 

● Ports ouverts :  5555 (z_DataProtector_Server_To_DiskAgent) 

Règle 8 : 

● Communication des agents disques  de la DMZ­Extranet avec le serveur de sauvegarde 

● Ports ouverts :  5555 (z_DataProtector_Server_To_DiskAgent) 

Règle 9 : 

● Communication entre les agents disques de la DMZ­Extranet avec les agents média de la zone Interne 

● Ports ouverts :  18000 à 18009 (z_DataProtetor_DiskAgent_To_MediaAgent) 

Règle 10 : 

● Nécessaire à l’installation des agents disques sur la DMZ­Internet 

● Ports ouverts : 

445 (microsoft­ds) 

8,15,17,13 (icmp­requests) 

© ENI Editions - All rigths reserved - Jonifar lina - 9-


35
Règle 11 : 

● Communication du serveur de sauvegarde vers les agents disques de la DMZ­Internet 

● Ports ouverts : 5555 (z_DataProtector_Server_To_DiskAgent) 

Règle 12 : 

● Communication des agents disques de la DMZ­Internet avec le serveur de sauvegarde 

● Ports ouverts : 5555 (z_DataProtector_Server_To_DiskAgent) 

Règle 13 : 

● Communication entre les agents disques de la DMZ­Internet avec les agents média de la zone Interne 

● Ports ouverts :   18000 à 18009 (z_DataProtetor_DiskAgent_To_MediaAgent) 

b. Guide de bonnes pratiques de mise en place d’environnements de pare­feu 

Il y a 4 principes à suivre : 

● Faire simple, plus la solution mise en place est simple, mieux le pare­feu sera sécurisé et sera administrable 
facilement. 

● Utiliser des matériels les mieux adaptés à l’environnement et à leur fonction principale. Dans la plupart des 
cas,  les  pare­feu  hybrides  ou  les  appliances  sont  les  meilleurs  choix  parce  qu’ils  sont  destinés  à  cette 
fonction. 

● Créer une défense en profondeur, sur plusieurs couches au lieu d’une seule. Si nécessaire, utiliser plusieurs 
pare­feu, des routeurs qui peuvent effectuer des contrôles d’accès ou de filtrage, plusieurs serveurs équipés 
de pare­feu, selon les besoins de protection. 

● Bien penser aux menaces internes éventuelles. Un intrus qui a pu avoir accès d’une façon ou d’une autre sur 
le réseau interne en protection derrière le pare­feu a toutes les facilités pour s’introduire sur tout le réseau. 
Les systèmes critiques doivent être placés et protégés derrière des environnements de pare­feu ou de DMZ 
internes. 

La fonctionnalité d’enregistrement des évènements dans un journal

La  plupart  des  systèmes  de  pare­feu  présentent  une  fonctionnalité  d’enregistrement  des  évènements  dans  un 
journal.  Un  programme  de  récupération  de  ces  informations  est,  en  général,  disponible  avec  tous  les  types  de 
systèmes d’exploitation. Ce qui permet de les visualiser et par la suite de les analyser. 

La sauvegarde des données des pare­feu

La gestion et la maintenance des sauvegardes est un point essentiel dans la politique d’administration des pare­feu. 
Par principe, chaque sauvegarde réalisée doit être complète. Il n’est pas nécessaire et même non recommandé de 
réaliser des sauvegardes incrémentales. 

Il est aussi recommandé d’effectuer cette sauvegarde juste après l’installation et la configuration, lors de mise à jour 
logicielle  du  pare­feu. La stratégie de sauvegarde doit tenir compte de la façon dont ses accès logiques et réseau 
sont implémentés. 

Par  contre,  il  n’est  pas  possible  d’utiliser  les  fonctionnalités  de  sauvegarde  du  système  d’information  global  de 
l’entreprise à cause des contrôles d’accès particuliers. En effet, permettre l’accès au serveur central de sauvegarde 
qui est, selon les bonnes pratiques, implémenté derrière le pare­feu et protégé par lui, présenterait un risque pour 
l’infrastructure de sauvegarde et le réseau associé. 

En  réalité,  le  pare­feu  doit  être  installé  avec  un  dispositif  de  sauvegarde  intégré.  Si  ce  n’est  pas  le  cas,  il  est 
indispensable de le mettre en place. De plus, le support magnétique de sauvegarde, une cartouche en général, ne 
doit  rester  présente  dans  la  machine  que  pendant  l’opération  de  sauvegarde.  Il  doit  être  extrait  juste  après 
l’opération. 
Pour permettre un rétablissement complet et rapide du pare­feu, il est recommandé de posséder, en lieu sûr, une 

- 10 - © ENI Editions - All rigths reserved - Jonifar lina


36
image bootable du système du pare­feu sur un DVD­Rom. Cela est facilement réalisable sur Windows car il existe des 
logiciels adéquats. Cette solution est aussi utile pour remettre en état ou pour installer des pare­feu de même type. 

La sécurité physique de l’environnement de pare­feu

Implémenter un environnement de sécurité pour le réseau complet est indispensable, le protéger de toute tentative 
frauduleuse d’accès est encore mieux. Si le pare­feu est situé dans un endroit accessible, sans protection physique, il 
est  à  la  merci  d’intrus.  Il  est  susceptible  d’être  piraté.  Il  doit  donc  être  protégé  dans  un  environnement  sécurisé 
seulement accessible aux administrateurs dédiés aux systèmes ou au réseau d’entreprise. 

De plus, le pare­feu doit être protégé des coupures de courant électrique et alimenté par un onduleur. Il peut aussi 
posséder des connexions redondantes ou être associé à un équipement de secours. 

Finalement,  il  doit  faire  partie  du  dispositif  de  plan  de  secours  informatique,  si  celui­ci  est  mis  en  place  et 
opérationnel. 

Accès logique à la plate­forme de pare­feu

La méthode la plus courante pour intervenir dans un pare­feu est de profiter des possibilités d’accès à distance pour 
la  gestion  avec  l’accès  à  la  console  du  système  d’exploitation  ou  par  une  interface  graphique,  en  général  à  partir 
d’une page Web ou HTML. 

Pour  cette  raison,  l’accès  à  l’interface  doit  être  rigoureusement  contrôlé.  La  méthode  la  plus  classique  utilise  le 
chiffrage ou l’authentification forte ou encore une restriction d’accès par une adresse IP. D’autres solutions utilisent 
le  chiffrage  SSL  (Secure  Sockets  Layer),  souvent  la  norme  pour  les  interfaces  graphiques  qui  s’appuient  sur  le 
protocole  HTTP  (HyperText Transport Protocol). La plupart des interfaces de gestion de pare­feu  comprend  plusieurs 
formes d’authentification (une identification et un mot de passe). Lesquels vont servir à obtenir l’accès à l’interface. 
Dans  d’autres  cas,  certains  pare­feu  peuvent  utiliser  une  authentification  par  jetons  ou  une  autre  forme 
d’authentification rigoureuse. 

La sécurité de la messagerie et l’utilisation particulière du pare­feu

Dans le cadre d’une entreprise utilisant le protocole SMTP, l’accès à la messagerie interne est souvent critique. 
Le protocole SMTP (Simple  Mail  Transport  Protocol) est la norme en terme d’échange de messages électroniques sur 
Internet. La meilleure architecture qui pourrait être mise en place dans les petites entreprises consiste à utiliser le 
pare­feu comme relais de messagerie. 
Les  serveurs  SMTP  externes  peuvent  établir  des  sessions  avec  le  pare­feu  comme  le  ferait  avec  n’importe  quel 
serveur SMTP. Le pare­feu initie une session SMTP avec un serveur de messagerie interne. 

Exemple complet d’environnement de pare­feu 

Le routeur filtrant

C’est  aussi  une  solution  simple,  mais  pas  sûre.  Elle  consiste  à  connecter  et  à  configurer  le  routeur  qui  assure  la 
connexion avec le réseau externe. Il contient les autorisations d’accès basées exclusivement sur les adresses IP et 
les numéros de port de réseau. 

© ENI Editions - All rigths reserved - Jonifar lina - 11 -


37
Avantages de ces deux dispositifs : 

● facilité de configuration, 

● bon marché. 

Inconvénients : 

● Pour le routeur, lorsqu’il est contourné ou paralysé, le réseau entier est ouvert. 

● Les traces sont peu exploitables. 

c. Les pare­feu spécifiques 

Les  pare­feu  de  passerelle  d’application  de  proxy  (Application­Proxy  Gateway  firewalls)  sont  plus  élaborés  car  ils 
combinent  un  contrôle  d’accès  des  couches  basses  du  modèle  OSI  avec  la  fonctionnalité  de  la  couche  supérieure 
(couche 7 : couche Application). La partie logicielle du pare­feu réalise le routage au niveau de la couche 3 entre les 
interfaces internes et externes du pare­feu. Dans l’éventualité d’un défaut de fonctionnement du logiciel interne au 
pare­feu, les paquets réseau ne peuvent être transmis. Tous les paquets réseau qui traversent le pare­feu doivent 
être sous le contrôle du logiciel (application­proxy). 

d. La haute disponibilité dans l’implémentation des pare­feu 

Cette  architecture  implique  l’utilisation  d’un  pare­feu  supplémentaire  et  de  Hubs  (concentrateurs)  à  partir  d’une 
configuration de base composée de 2 routeurs et du pare­feu. 
Dans ce cas, l’état des tables doit être synchronisé entre les 2 pare­feu.  Le  second  surveille  le  premier  et  devient 
actif en cas de défaillance. Ceci se passe de façon pratiquement transparente à partir du moment où les adresses 
MAC du pare­feu primaire sont dupliquées sur le pare­feu secondaire. 

La redondance de pare­feu 
Plusieurs options existent pour permettre la redondance d’environnements  de  pare­feu. Cette fonctionnalité utilise 
des techniques de commutateurs réseaux de façon à ce qu’un autre pare­feu prenne le relais en cas de défaillance 
du  pare­feu  principal  ou  primaire.  Des  commutateurs  réseau  peuvent  fournir  aussi,  en  plus  de  la  redondance,  la 
possibilité d’équilibrage de charges de la bande passante du réseau. 
Dans le cadre d’une redondance avec des pare­feu, une liaison de type heartbeat doit exister entre eux. Elle assure 
la surveillance réciproque de l’état de fonctionnement de chacun d’eux et permet un basculement automatique des 
fonctions. 
Le principe de la vérification de présence ou heartbeat consiste en l’existence d’un lien entre des interfaces réseau 
spécialisée entre les deux matériels pour informer le système de secours de la défaillance du système principal. 
Il existe pour cela différentes implémentations. 

Exemple de configuration redondée de pare­feu 

- 12 - © ENI Editions - All rigths reserved - Jonifar lina


38
7. Les réseaux DMZ (DeMilitarized Zones) 

L’environnement le plus courant d’implémentation de pare­feu se présente sous la forme de DMZ (DeMilitarized Zone). 

Un tel réseau comporte au moins deux pare­feu. 
La  figure  ci­après  montre  l’exemple  d’un  environnement  composé  d’une  DMZ  interne  et  externe  avec  plusieurs 
serveurs et des périphériques de détection d’intrusion. Dans cet exemple, le serveur VPN est combiné avec le pare­feu 
principal.  Les  autres  serveurs  accessibles  de  l’extérieur  sont  positionnés  aussi  sur  la  DMZ  externe.  Tous  les  autres 
serveurs internes sont situés dans la DMZ interne, protégés à la fois des menaces internes et externes. 

Exemple d’environnement de DMZ 

Les  réseaux  DMZ  sont  utilisés  comme  relais  de  protection  pour  les  serveurs  et  ressources  qui  nécessitent  d’être 
accessibles  de  l’intérieur  ou  de  l’extérieur  mais  qui  ne  doivent  pas  être  positionnés  dans  des  réseaux  protégés 
internes. 

La DMZ est un environnement de sous­réseau positionné entre un réseau interne de confiance et un réseau externe 
non sécurisé. 
Les serveurs installés dans la partie externe de la DMZ permettent de fournir des services au réseau externe, tout en 
protégeant le réseau interne contre des intrusions possibles, il peut s’agir de : 

● Serveurs Web, serveurs de fichiers (FTP : File Transfer Protocol), serveurs de messagerie (SMTP) et serveurs de 
noms (DNS : Domain Name System). 

● Serveurs relais permettant d’assurer une communication indirecte entre le réseau local et le réseau Internet 
(proxies, relais SMTP, anti virus…). 

Positionnement des serveurs dans les environnements avec DMZ 

La façon de positionner les serveurs du système d’information par rapport à un environnement de pare­feu dépend de 
plusieurs facteurs, incluant le nombre de DMZ, les accès externes et internes requis pour les serveurs situés dans la 
DMZ, le montant ou l’état du trafic et la criticité des serveurs de données. 
Différentes préconisations peuvent être utilisées pour définir l’implémentation : 

● Protéger les serveurs externes avec un filtre de Routeur/Paquet de Frontière, 

● Ne pas configurer des serveurs accessibles par un réseau externe sur le réseau protégé, 

● Positionner les serveurs internes derrière des pare­feu selon leur criticité et leurs accès, 

© ENI Editions - All rigths reserved - Jonifar lina - 13 -


39
● Isoler les serveurs de telle façon qu’une attaque externe ne puisse pas se propager sur le réseau interne. 

Les  suggestions  suivantes  sont  préconisées  pour  implémenter  des  serveurs  ou  systèmes  spécifiques  de  façon  à 
définir les protections adaptées : 

● Serveurs accessibles de l’extérieur (serveurs Web, DNS, de données…) 

Ils peuvent être placés sur la partie externe de la DMZ entre un routeur de frontière et le pare­feu principal. 
Ce  routeur  peut  fournir  des  contrôles  d’accès  et  de  filtrage  pour  les  serveurs.  Le  pare­feu  principal  peut 
restreindre  les  connexions  entre  ces  serveurs  et  les  systèmes  internes  dans  le  cas  où  des  intrusions  sont 
apparues. 

● Serveurs de VPN 

Il  est  préférable  de  placer  ces  serveurs  sur  la  partie  externe  de  la  DMZ  pour  que  le  trafic  puisse  passer  à 
travers  le  pare­feu.  Cela  signifie  que  le  serveur  VPN  est  positionné  sur  la  plate­forme  du  pare­feu  de  telle 
façon à ce que le trafic sortant puisse être crypté après avoir été filtré (ex : par un proxy HTTP) et que le trafic 
entrant puisse être décrypté et filtré aussi par le pare­feu. 

● Serveurs internes ou accessibles par l’intérieur 

Ces serveurs (Web, de données…) peuvent être placés sur la partie interne de la DMZ soit entre deux pare­
feu  dédiés  (principal  et  interne)  avec  le  pare­feu  interne  séparant  la  DMZ  du  réseau  à  protéger.  Le  fait  de 
placer ces systèmes sur la partie interne de la DMZ procure une défense en profondeur contre des menaces 
externes et une protection contre les menaces internes. 

● Serveurs de messagerie 

Certains  pare­feu  peuvent  être  utilisés  pour  accepter  les  messages  électroniques  c’est­à­dire  par  une 
connexion  SMTP.  Une  configuration  classique  comprend  l’utilisation  d’un pare­feu  principal  pour   accepter  les 
connexions SMTP, les faire passer ensuite vers un serveur dédié proxy/email localisé dans la partie interne de 
la DMZ. Cette solution élimine le besoin, pour le pare­feu, de traiter le contenu actif et les dossiers attachés de 
chaque mail. 

- 14 - © ENI Editions - All rigths reserved - Jonifar lina


40
Réseaux privés virtuels d’entreprise ou Virtual Private Networks (VPN) 
La connexion à distance sur un réseau interne d’une PME impose d’utiliser un réseau privé virtuel d’entreprise ou VPN. 
Cette  fonctionnalité  chiffre  le  trafic  réseau  sensible  et  requiert  une  authentification  forte,  fournissant  un  accès  à 
distance sécurisé. 

En effet, le principe de sécurité est la caractéristique principale des VPN : 
Intégrité :  les  données  reçues  par  le  site  principal  sont  identiques  à  celles  envoyées  par  le  site  externe  ou  le  poste 
nomade, 
Confidentialité : la propriété privée des données est complètement assurée, 

Authentification : le récepteur des données sur le site de l’entreprise doit être sûr que les données ont bien été émises 
par le bon utilisateur. 
Mise en œuvre de liaisons sécurisées 

L’échange de données confidentielles entre les personnels nomades et l’entreprise ou entre différentes entités implique 
la  mise  en  œ uvre  de  liaisons  sécurisées,  virtuelles  (VPN)  en  liaison  avec  un  pare­feu  ou  physiques  (lignes  louées 
spécialisées). 
Trois types de solutions de VPN existent associées avec un pare­feu : 

● intégrée comme service du pare­feu, 

● systèmes autonomes placés devant le pare­feu, 

● systèmes autonomes placés derrière le pare­feu (solutions logicielles). 

Lignes louées 
L’échange  de  données  entre  sites  distants  de  la  même  entreprise  peut  aussi  être  effectué  en  utilisant  une  liaison 
spécialisée ou dédiée utilisant les services d’un opérateur de télécommunication. Cette solution permet de s’affranchir 
de toutes les menaces liées à l’utilisation du réseau Internet, mais elle représente un coût plus important. 
Le serveur VPN 

C’est la machine qui fait office de point de contrôle dans l’entreprise. Elle doit être située sur le réseau, elle peut servir 
aussi de pare­feu ou de routeur de frontière. Autonome, ce dispositif doit être placé dans la DMZ dédiée. 
La technologie VPN utilisée dans l’environnement de DMZ permet d’être protégé par les règles de pare­feu et autoriser 
uniquement le trafic du VPN. 
L’algorithme  de  chiffrement  employé  dans  le  VPN  doit  être  un  algorithme  fort  et  reconnu.  Le  système 
d’authentification doit  être  un  système  à  2  facteurs :  nom  d’utilisateur  et  mot  de  passe.  Une  autre  solution  serait  de 
combiner les cartes à puce avec un numéro d’identification personnel (PIN : Personal Identification Number). 

Son positionnement 
En général, le meilleur endroit pour l’implémenter est en protection derrière le pare­feu. Ce qui va impliquer que le trafic 
VPN passe sous forme chiffré en sortie à travers le pare­feu. Celui­ci est alors incapable d’inspecter le trafic en entrée et 
en sortie, d’effectuer des contrôles d’accès, de journalisation ou de vérification de virus. 

Le trafic VPN est chiffré pour garantir la confidentialité des transferts de données pendant la durée de la connexion. Le 
principe du VPN consiste à établir un chemin virtuel unique avec l’identification de l’émetteur et du récepteur. Ce chemin 
est aussi appelé tunnel. 
De plus, le trafic est chiffré pour garantir la confidentialité des transferts de données pendant la durée de la connexion. 
Le principe du VPN est aussi conçu pour traiter des protocoles différents. 
Le  VPN  établit  une  connexion  sécurisée  vers  un  réseau  à  distance  en  utilisant  la  technique  de  tunnelling  à  travers 
Internet.  Cette  technique  consiste  en  l’encapsulation,  la  transmission,  la  désencapsulation  d’un  paquet  de  données 
sous forme de message à l’intérieur d’un paquet IP (Internet Protocol). Le transfert de ces données est réalisé à travers 
Internet. 

De  plus,  l’authentification  de  la  connexion  VPN  est  accomplie  au  niveau  de  l’utilisateur  externe  et  des  données 
transmises (intégrité). 

Il  existe  trois  protocoles  pour  le  tunneling  à  travers  Internet :  Internet  Protocol  Security  (IPSec),  Layer  2  Tunneling 
Protocol (L2TP) et Point to Point Tunneling Protocol (PPTP. 

Les réseaux virtuels d’entreprise sont utilisés pour fournir des liens réseaux sécurisés à travers des réseaux qui n’ont 
pas de relation d’approbation, par exemple via Internet ou pour créer des réseaux sécurisés entre entreprises. 
Il existe deux catégories de VPN : 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


41
Les VPN utilisateur­site 

Il  est  utilisé  pour  permettre  à  des  utilisateurs  de  postes  de  travail  nomades  d’accéder  au  réseau  privé.  L’utilisateur 
initialise une connexion VPN vers le site de l’entreprise via Internet pour établir la connexion à l’aide d’un logiciel client 
pour  le  VPN  qui  permet  d’établir  directement  et  après  authentification,  la  communication  de  manière  cryptée  vers  le 
réseau interne de l’entreprise. 
Le serveur VPN peut être le pare­feu ou un serveur dédié de l’entreprise. 

Avantages : les utilisateurs en déplacement ou à domicile peuvent avoir accès à leurs fichiers, aux systèmes internes, à 
leur messagerie. 

Inconvénients : limitation du nombre d’accès simultanés 

Les VPN site­site 
La connexion VPN s’établit à travers un pare­feu ou à un routeur de frontière avec un autre pare­feu. 

Les deux sites s’authentifient par un certificat de clé publique ou par mot de passe servant à générer des clés. 
Il existe deux cas : 

Connexion d’Intranets via un VPN 
Un  Intranet  est  un  réseau  qui  emploie  les  mêmes  types  de  service,  d’application,  de  protocoles  présents  dans  une 
implémentation  d’Internet,  sans  connexion  externe.  Dans  cet  environnement,  plusieurs  intranets  plus  petits  peuvent 
être configurés et être séparés par des pare­feu. À partir du moment où les intranets utilisent les mêmes technologies 
que  Internet,  des  dispositifs  identiques  de  sécurité  et  de  protection  des  réseaux  peuvent  être  appliqués.  En 
conséquence, les intranets sont typiquement implémentés suivant les environnements de pare­feu. 

Les connexions VPN permettent à l’entreprise de communiquer avec ses clients et ses partenaires. 
Précautions d’utilisation de la fonctionnalité du VPN et les bonnes pratiques 
Le périmètre de sécurité de l’entreprise est étendu avec des environnements (sites ou entreprises) distants qui devront 
avoir  au  moins  le  même  niveau  ou  les  mêmes  règles  de  sécurité  que  le  site  principal.  Le  serveur  VPN  devra  être 
paramétré  pour  traiter  le  chiffrement  du  trafic.  Il  pourra  exister  aussi  des  problèmes  d’adressage  et  des  conflits 
d’adresses possibles, si les deux sites utilisent des parties du même espace d’adressage. 
Avant  d’implémenter  un  réseau  virtuel  d’entreprise  de  type  VPN,  les  administrateurs  du  système  doivent  évaluer  la 
compatibilité avec le réseau existant. Les directives de sécurité générales proposent les conseils suivants à destination 
des entreprises utilisant cette fonctionnalité : 

● Le  principe  d’authentification doit utiliser soit un système de mot de passe comme un dispositif à jeton ou un 


couple de clé publique/privée avec un système identification/mot de passe complexe. 

● La déconnexion automatique du réseau d’entreprise doit se produire après une période d’inactivité (à définir). 
Cette protection impose à l’utilisateur de se reconnecter à l’échéance de cette période. 

● Limiter le temps de connexion au VPN, pour éviter d’être surveiller. 

● Ne pas permettre une double connexion à partir du même poste nomade. 

● Avoir un inventaire de tous les postes externes au site susceptibles de se connecter au site central via le VPN. 
Tous ces équipements doivent être configurés pour être conformes à la politique de la sécurité de l’entreprise, 
contrôlés fréquemment. Ils doivent être protégés impérativement contre des logiciels malveillants (anti­virus…) 
avec les signatures les plus récentes. 

● Les personnels ayant les possibilités et les privilèges de connexion VPN doivent vérifier que leur compte n’est 
pas utilisé par des utilisateurs non autorisés. 

● L’installation  et  la  maintenance  de  pare­feu  personnels  (matériel  ou  logiciel)  du  côté  utilisateur  doivent  être 
requises. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


42
Exemple d’environnement de VPN 

Exemple de connexions d’Intranets via un VPN 

Possibilités supplémentaires de protection 

Pour  une  entreprise,  la  solution  la  plus  sécurisée  consiste  à  mettre  en  œ uvre  un  service  de  chiffrement  intégré.  Les 
protocoles  IPsec  (Internet  Protocol  Security)  et  SSL/TLS  (Secure  Sockets  Layer)/(Transport  Secured  Layer)  sont  alors 
utilisés  pour  assurer  la  confidentialité  et  l’authentification  mutuelle  des  transactions.  Toutefois,  le  chiffrement  des 
données  peut  s’avérer  difficilement  conciliable  avec  certains  trafics  multimédia  temps  réel  du  type  Voix  sur  IP  ou 
visioconférence. 

Le protocole IPSec, défini par la RFC 2401, est un protocole qui vise à sécuriser l’échange de données au niveau de la 
couche réseau. 

Le  protocole  le  plus  utilisé  est  l’ensemble  de  protocoles  connus  sous  le  nom  d’IPSec.  D’autres  protocoles  associés 
comprennent PPTP (Point­to­Point Tunneling Protocol) utilisé par Microsoft et L2TP (Layer 2 Tunneling Protocol). 

Le protocole SSL est incorporé depuis peu dans la fonctionnalité des VPN. 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


43
Le protocole SSL est situé entre les couches Application et Transport du modèle TCP/IP (à quatre couches). Ce protocole 
permet donc le chiffrement des données transmises entre ces deux couches. 
En effet, dans le modèle TCP/IP, la couche Application regroupe les trois couches supérieures du modèle OSI. 

Ce  protocole  possède  deux  grandes  fonctionnalités  :  l’authentification  du  serveur  et  du  client  à  l’établissement  de  la 
connexion et le chiffrement des données durant leurs transferts. 

- 4- © ENI Editions - All rigths reserved - Jonifar lina


44
Les composants utilisés dans les réseaux et la sécurité 
En  plus  des  routeurs  et  des  pare­feu,  les  composants  utilisés  dans  l’infrastructure  des  réseaux  représentent  les 
éléments essentiels de la connectivité entre les systèmes. 
Le plus simple étant le hub (concentrateur) qui intervient en couche 1 du modèle OSI. Toutefois, il existe de nombreuses 
faiblesses ou vulnérabilités à son niveau. En effet, n’importe quel autre composant du réseau peut y être connecté et 
permet  de  visualiser  les  trames.  En  conséquence,  les  hubs  ou  concentrateurs  ne  doivent  pas  être  utilisés  dans  les 
environnements de pare­feu ou de DMZ. 
Un autre dispositif utilisé est le switch ou commutateur qui opère en couche 2 du modèle OSI. Il est de conception plus 
intelligente que le précédent car il procure des points de connexion pour des composants. Ce sont des ponts (bridges) 
multiports. Ils sont en général les composants principaux des VLANs (Virtual LAN). 
Les  systèmes  connectés  sur  des  ports  différents  ne  peuvent  pas  obligatoirement  s’écouter.  Cette  particularité 
inhérente aux switches en fait des éléments capables d’être implémentés dans des environnements de pare­feu ou de 
DMZ. Toutefois, il est important de noter que ces composants ne doivent pas être utilisés ou intervenir dans le cadre 
d’isolation de trafic ou de pare­feu à l’extérieur d’un environnement de protection. En effet, les attaques de DoS (Denial 
of Service) ou Déni de service peuvent causer grâce aux commutateurs une inondation des réseaux connectés avec des 
paquets  inutiles.  L’implémentation  de  switches,  dont  la  fonction  de  base  est  d’isoler  des  sous­réseaux,  peut  aussi 
affecter la façon dont les systèmes de détection d’intrusion ou Intrusion Detection Systems (IDS) peuvent être déployés 
et implémentés. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


45
Les systèmes de détection d’intrusion ou Intrusion Detection Systems 
(IDS) 

La détection d’intrusion

Les  outils  de  détection  d’intrusion  viennent  compléter  les  fonctions  du  firewall :  au  travers  d’une  surveillance  de 
l’identité des requêtes en circulation sur le réseau, ces outils sont à même de repérer les requêtes malintentionnées, 
de  repérer  les  intrus  dans  le  flot  du  trafic  courant  transitant  par  les  ports  de  communication  laissés  ouverts  par  le 
firewall. 

Les systèmes de détection sont conçus pour informer, et dans certains cas pour empêcher, des accès non autorisés ou 
des intrusions dans les réseaux. Les pare­feu qui opèrent avec les systèmes de détection d’intrusion sont capables de 
détecter automatiquement les menaces venant de l’extérieur, plus rapidement qu’une vérification par un opérateur. 
Il existe deux types de détection d’intrusion. 

Le premier, système de détection d’intrusion basé sur l’hôte, doit être installé sur chaque machine à protéger. Il est, en 
général, intégré au système d‘exploitation qu’il protège. Ces types d’IDS sont prévus pour la détection des menaces à 
un haut niveau de sécurité. 

Le second type, système de détection d’intrusion basé sur le réseau, est implémenté en tant qu’analyseur intelligent 
de protocole. Ses composants surveillent le trafic réseau au niveau physique. 

Ce type de système de détection est théoriquement plus efficace que le précédent dans le sens où un seul système 
peut surveiller plusieurs ressources. 

Les outils de détection d’intrusion (IDS) ou scanners d’intrusion

Ce type d’outil, pouvant être associé à d’autres outils de gestion des vulnérabilités, permet de scanner chaque serveur 
en le testant à partir d’un  catalogue  d’évènements.  L’un des plus connus s’appelle  Nessus. C’est  un  outil  gratuit  de 
recherche de vulnérabilités pour les réseaux www.nessus.org 

Par  précaution,  les  administrateurs  du  réseau  doivent  être  avertis  que  cet  outil,  s’il  est  configuré  efficacement,  peut 
générer des journaux d’évènements volumineux qui doivent être analysés attentivement. Il est donc recommandé de 
positionner l’IDS dans tout endroit où le trafic réseau venant de l’extérieur est utilisé avec des VPNs. 

Il existe des outils plus performants qui bénéficient généralement d’une mise à jour continue de la base de données 
des attaques : celle­ci regroupe toutes les signatures des attaques référencées. Deux "méthodes" sont utilisées selon 
les outils : une surveillance du système et un signalement de toute action suspecte, ou la comparaison de toutes les 
requêtes au signalement des attaques les plus connues. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


46
Les serveurs DNS (Domain Name Service) et la sécurité 
Le  service  DNS  d’une  entreprise  peut  être  jugé  critique  pour  tout  environnement  qui  utilise  Internet.  À  cause  de 
l’aspect sensible de ce service réseau, il est recommandé de mettre en place des mesures particulières de sécurité. 

Tout d’abord, les serveurs DNS d’un réseau interne doivent être installés dans un réseau totalement différent de ceux 
utilisés  en  externe.  Cette  disposition  empêche  les  systèmes  du  réseau  interne  d’être  identifiés  par  les  postes 
utilisateurs situés hors de l’entreprise. 

Ensuite, il est aussi nécessaire de contrôler tous les types d’accès que le serveur autorise. Les accès au serveur de 
domaine utilisant le protocole TCP (Transmission Control Protocol) doivent être restreints uniquement aux serveurs DNS 
sous le contrôle direct de l’entreprise. 
Le  serveur  DNS  interne  principal  est  généralement  configuré  pour  résoudre  les  noms  pour  les  systèmes  internes  de 
telle façon que ceux­ci puissent communiquer ensemble, de même pour tous les systèmes situés dans la DMZ et les 
autres accessibles via Internet. 
Le  serveur  DNS  externe  doit  permettre  de  résoudre  les  noms  pour  le  pare­feu  principal  et  les  systèmes  de  la  partie 
externe de la DMZ, pas pour le réseau interne. En conséquence, ces systèmes seuls seront visibles à partir d’Internet. 

Exemple d’implémentation de serveurs DNS 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


47
Les  autres  technologies  utilisées  dans  les  réseaux  d’entreprise  et  la 
sécurité 

1. Le Wi­Fi et le réseau sans fil 

Cette technologie permet de connecter un poste de travail à un réseau de communication en utilisant le minimum de 
connexions physiques. Les technologies réseaux utilisant une liaison sans fil (sous forme d’ondes électromagnétiques 
ou ondes radio) peuvent être classées selon les usages suivants : 

● Les  réseaux  sans  fil  personnels :  ils  permettent  une  connectivité  entre  périphériques  proches  les  uns  des 
autres (technologie Bluetooth dont la portée standard est de plusieurs mètres). 

● Les  réseaux  sans  fil  d’entreprise :  ils  complètent  les  réseaux  câblés  d’entreprise  classiques.  Ils  utilisent  la 
technologie  Wi­Fi  ayant  une  portée  typique  de  quelques  dizaines  de  mètres.  Les  connexions  s’effectuent  à 
partir d’un point d’accès, lui­même relié au réseau câblé de l’entreprise. 

Les réseaux sans fil et leurs vulnérabilités

Les  réseaux  sans  fil  du  type  Wi­Fi  ou  Bluetooth  offrent  de  multiples  avantages :  simplicité  et  coût  d’installation 
relativement faible, facilité d’usage, mobilité étendue. Par contre, ils sont, de par leur concept d’utilisation des ondes 
radio, plus vulnérables aux attaques informatiques (détection, intrusions…) que les réseaux filaires. 
Par défaut, l’ensemble du réseau sans fil est accessible de l’extérieur par d’autres équipements du même type (postes 
de travail ou périphériques équipés d’une  interface  Wi­Fi ou Bluetooth). Il est extrêmement difficile de contrôler que 
seuls les personnels autorisés y ont accès. 
La sécurité du réseau repose donc essentiellement sur la structure du contrôle d’accès logique par une clé de sécurité 
mise en place. 
La  plupart  des  protocoles  sans  fil  intégrent  systématiquement  des  moyens  de  chiffrement  des  communications 
permettant de se prémunir des intrusions. 

La mise en œuvre de la sécurisation du réseau sans fil

Les  équipements  sans  fil  peuvent  être  accessibles  au­delà  du  périmètre  physique  sécurisé  de  l’entreprise,  il  est 
indispensable de les protéger dès l’installation des points d’accès. De fait, la mise en œ uvre d’un  réseau  Wi­Fi dans 
l’entreprise nécessite un niveau de sécurité minimal, sans quoi elle sera une cible facile pour des intrus. 
Compte  tenu  de  la  difficulté  pour  sécuriser  l’accès  à  un  réseau  sans  fil,  il  est  indispensable  d’associer  à  son 
déploiement des procédures particulières de sécurité. 
Les principes généraux sont décrits ci­dessous pour deux environnements spécifiques : Bluetooth et Wi­Fi. 

● Sécurité des réseaux sans fil personnels (Bluetooth) 

Cette technologie servant à connecter des équipements donnant accès à des informations stratégiques pour 
l’entreprise devra être évitée. 

● Sécurité des réseaux sans fils d’entreprise (Wi­Fi) 

La  sécurité  d’un  réseau  local  sans  fil  de  type  Wi­Fi  est  plus  complexe.  Elle  intègre  l’ensemble  des 
préconisations  de  sécurité  valables  pour  un  réseau  filaire  avec  en  plus  des  préconisations  spécifiques  au 
réseau sans fil. 

Les bonnes pratiques de sécurisation d’un réseau Wi­Fi

En plus de la sensibilisation des utilisateurs, des bonnes pratiques de protection comprennent impérativement : 

● l’isolement de cette partie de réseau par rapport au réseau d’entreprise grâce à des passerelles sécurisées ; 

● la gestion rigoureuse des accès ; 

● les mises à jour logicielles des points d’accès du réseau sans fil, des équipements réseaux et des postes de 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


48
travail ; 

● l’audit périodique et la surveillance active du réseau. 

Et les recommandations suivantes pour l’installation et l’administration : 

● Positionner  les  points  d’accès  pour  couvrir  des  zones  restreintes,  faire  attention  aux  débordements  de 
couverture vers l’extérieur de locaux ou de bâtiments. Réduire la puissance de la borne d’accès si nécessaire. 

● Sécuriser les points d’accès, les clients du réseau sans fil et utiliser une liste d’accès contrôlée d’équipements 
autorisés. 

● Changer  impérativement  la  configuration  par  défaut  des  équipements  Wi­Fi  (mot  de  passe  d’administration, 
SSID…). C’est la cause principale de vulnérabilité. Désactiver la diffusion du nom de réseau. 

● Utiliser, de préférence, des routeurs à la norme 802.11i (ce protocole utilise l’algorithme de chiffrement AES). 
Ils authentifient les utilisateurs par un certificat présent sur leur machine (PC ou PDA) et par un mot de passe. 

● S’assurer  que  les  mécanismes  de  sécurité  intégrés  et  normalisés  sont  bien  activés  (authentification, 
chiffrement WPA (Wi­Fi Protected Access) ou WPA2, liste d’équipements autorisés). 

● Augmenter  l’authentification :  pour  mieux  gérer  ces  authentifications,  les  autorisations  et  la  gestion  des 
comptes  utilisateurs,  il  est  recommandé  de  recourir  à  un  serveur  RADIUS  (Remote  Authentication  Dial­In User 
Service). 

● Filtrer  les  adresses  MAC  (Media  Access  Control).  Les  appareils  nomades  (ordinateur  portable,  PDA)  disposent 
d’une carte réseau associée à une adresse spécifique. Dans la configuration du routeur, souvent associé au 
point  d’Accès,  il  est  recommandé  d’activer  l’option  de  filtrage  et  saisir  les  adresses  MAC  de  chacun  de  ces 
périphériques. Ce qui limitera l’accès au réseau à ces seuls appareils. 

● Pour éviter des attaques par déni de service, allouer automatiquement des canaux de diffusion en fonction de 
leur disponibilité. 

● Mettre à jour le logiciel des équipements réseaux, Wi­Fi en particulier. 

● Compléter les services de sécurité déjà déployés sur le réseau filaire. 

● Mettre en œ uvre les outils et règles d’authentification en fonction de la politique de sécurité de l’entreprise. 

● Informer  les  utilisateurs  sur  les  risques  associés  à  ces  matériels  et  les  former  aux  bonnes  pratiques  de 
sécurité. 

● Auditer  périodiquement  le  réseau :  audit  physique  (vérification  des  zones  de  réception),  audit  de  sécurité 
(vérification des protections). 

● Auditer  périodiquement  les  appareils  en  service  utilisant  le  Wi­Fi.  Ceci  pour  vérifier  quels  sont  les  appareils 
autorisés. 

● Surveiller fréquemment le réseau : surveillance au niveau IP avec un outil de détection d’intrusions. 

La difficulté n’est pas dans la technologie elle­même mais dans sa mise en œ uvre et sa maintenance. 

La mise en place demande d’utiliser toutes les fonctionnalités, surtout celles qui concernent la sécurité. 

Si les procédures de sécurité ne sont pas respectées, ce qui demande des ressources en personnel, l’architecture Wi­
Fi sera un élément de vulnérabilité très critique. 

Finalement  la  mise  en  place  d’un  réseau  sans  fil  n’est  pas  recommandée  dans  une  entreprise  sauf  si  elle  est 
indispensable et peut apporter des facilités de communication réseau pour les utilisateurs. 

Elle peut être aussi une solution pour permettre aux personnes extérieures à l’entreprise ou à des employés de se 
connecter sur le réseau Internet sans utiliser le réseau interne et protégé de l’entreprise. La condition essentielle et 
impérative est qu’il n’existe aucune connexion entre ce réseau sans fil et le réseau interne de l’entreprise. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


49
Par  contre,  il  existe  d’autres solutions sécurisées, plus simples si l’entreprise  veut  éviter  d’utiliser le câblage réseau 
sous  forme  filaire,  il  s’agit  de  la  technologie  CPL  (Courant  Porteur  en  Ligne).  C’est  souvent  le  cas  des  petites 
entreprises n’ayant pas un réseau très important. 

Le protocole RADIUS (défini par les RFC 2865 et 2866), est un système utilisant le principe client/serveur. Ce 
protocole permet de gérer de façon centralisée les comptes des utilisateurs et les droits d’accès associés. 

 
Le standard de chiffrement AES (Advanced Encryption Standard) utilise un algorithme de cryptage symétrique.

2. La technologie CPL (Courant Porteur en Ligne) 

Elle utilise le câblage électrique en place pour transporter les données. 

Actuellement, cette technologie est disponible comme solution adaptée à la petite entreprise pour étendre le réseau 
local  et  partager  l’accès  Internet  haut  débit  existant.  Les  boîtiers  CPL  se  présentent  en  général  sous  la  forme  d’un 
module avec un port Ethernet et une connexion vers la prise électrique. 

L’installation  s’effectue  à  l’image  d’un  réseau  local  Ethernet  filaire.  Toutefois,  la  mise  en  place  ne  peut  se  faire  que 
derrière  un  compteur  monophasé  dans  la  mesure  où  les  adaptateurs  se  branchent  directement  sur  les  prises 
électriques. 
Cette technologie permet de déployer un réseau dans une petite PME (de 10 à 15 postes au maximum) ou de créer un 
réseau propre à un service. Les matériels actuels assurent un débit physique maximum théorique allant de 85 Mbits/s 
à 200 Mbits/s, selon les modèles. 
La sécurité du réseau CPL 

Les signaux électroniques, donc les trames de données, transitent par les câbles électriques. Ils peuvent passer par le 
compteur électrique. En conséquence, le réseau CPL doit être sécurisé comme tout réseau local classique. 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


50
Objectifs 
Dans  une  entreprise  en  terme  de  sécurité  informatique  l’objectif  le  plus  important  est  de  protéger  le  système 
d’information  et  de  se  protéger  des  vulnérabilités.  Cela  consiste  à  mettre  en  œ uvre  un  processus  de  gestion  de 
sécurité  pour  tous  les  environnements  logiciels  (systèmes  d’exploitation, applicatifs…)  présents  dans  l’entreprise afin 
de pouvoir bénéficier des dernières améliorations en matière de sécurité. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


51
La disponibilité des données et des systèmes 

Concepts et principes

L’un  des  principes  de  sécurité  appliquée  au  système  d’information  consiste  à  mettre  en  place  des  environnements 
techniques et organisationnels de façon à garantir : 

● la disponibilité des données et des applications, 

● la disponibilité des services, 

● la tolérance aux pannes, 

● la prévention des désastres. 

L’objectif en relation avec ces bases consiste à définir et à mettre en œ uvre une protection sur plusieurs niveaux : 

● disponibilité des données (SAN, RAID, sauvegarde des données…), 

● disponibilité des systèmes (Clusters…), 

● disponibilité des applications, 

● disponibilité de l’infrastructure (énergie électrique, réseaux de communication). 

1. La disponibilité des données 

Différentes  technologies  sont  utilisées  pour  assurer  que  les  données  sont  accessibles  de  façon  permanente  et 
sécurisées pour les applications utilisées par l’entreprise. Les solutions existantes sont présentées ci­dessous. 

a. La technologie RAID (Redundant Array of Inexpensive Disks) 

Elle est constituée d’un ensemble de disques indépendants qui permet de réaliser une unité de stockage à partir de 
plusieurs disques durs. Selon le type de RAID (à partir de RAID1), l’unité ainsi créée possède une grande tolérance 
de panne avec un risque minimal de perte de données. La répartition des informations sur plusieurs disques durs 
permet donc d’augmenter la sécurité et la disponibilité de ces données. 
Les  disques  assemblés  en  unité  de  stockage  peuvent  être  utilisés  de  différentes  façons,  appelées  niveaux  RAID. 
Les formes les plus courantes sont listées ci­dessous : 

● Niveau 0 : appelé striping ou agrégat de bandes, 

● Niveau 1 : appelé mirroring, shadowing ou disques disposés en miroir, 

● Niveau  3 :  appelé  grappes  de  disques  identiques,  une  unité  de  stockage  est  réservé  à  la  gestion  de  la 
parité, 

● Niveau 4 : type amélioré du niveau 3 avec une gestion synchrone des unités de disques, 

● Niveau 5 : agrégat de bandes avec parité alternée (parité répartie sur tous les disques), 

● Niveau 6 : extension du niveau 5, utilisation d’une double parité répartie sur tous les disques, 

● Niveau 10 : assemblage de Niveau 0 et de Niveau 1. 

Actuellement, les plus utilisés sont les formes : RAID­1, RAID­5, RAID­10 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


52
Il existe des assemblages de type RAID matériels et logiciels. 

Le RAID logiciel

Cette  technologie,  basée  sur  le  système  d’exploitation,  permet  d’utiliser  tous  les  types  de  disques  équipant  les 
serveurs sous différentes plates­formes  (Windows,  Linux)  pour  créer  des  structures  redondantes  économiques  et 
faciles  à  implémenter.  Dans  certains  cas,  l’assemblage  en  RAID  logiciel  est  plus  performant  qu’en  RAID  matériel 
décrit  ci­dessous.  Plusieurs  combinaisons  de  structure  RAID  sont  réalisables  pour  créer  des  assemblages 
redondants simples et peu coûteux. 

Windows  Server  2003  permet  la  création  d’éléments  de  stockage  sous  forme  de  volumes  RAID.  Il  suffit  pour  cela 
que les disques durs soient sélectionné en mode dynamique. 

Le RAID matériel (via un module SCSI)

Dans ce cas, le principe d’assemblage est basé sur le matériel, en général une carte SCSI disposée dans le serveur. 
Le  système  est  indépendant  du  serveur  hôte  et  ne  rend  visible  à  celui­ci  qu’une  seule  unité  de  disque  par 
assemblage RAID. Sa fonctionnalité est gérée entièrement par le module dédié pour l’écriture et la lecture sur les 
disques cibles, la gestion des erreurs. 
Ce dispositif se configure sur les serveurs comportant les unités de disques durs et une carte d’interface prévue à 
cet usage. Il existe alors des outils de configuration pour assembler les disques selon l’architecture RAID désirée. 
L’essentiel de la gestion des disques ainsi définie est réalisé par cette carte. 
Il est ainsi possible de configurer un assemblage de RAID de niveau 1 pour contenir le système d’exploitation. L’outil 
de configuration permettra par la suite l’installation du système dont les fichiers seront disponibles physiquement 
en même temps sur les deux disques durs de la configuration RAID. 

En cas de défaut de l’un d’eux, le serveur pourra alors continuer à fonctionner normalement car au moins un disque 
dur est présent. 
Toutefois,  il  est  important  de  prévoir  un  outil  de  supervision  qui  va  détecter  que  l’un  des  deux  disques  durs  est 
défectueux,  informer  l’administrateur  du  système  pour  qu’il  prévoie  une  intervention  au  niveau  du  matériel.  En 
l’absence de cette alarme indiquant le défaut, le système peut tomber complètement en défaut de façon inopinée si 
l’autre disque dur tombe à son tour en panne. Le serveur est alors inopérationnel. 

Il est requis d’effectuer la supervision des évènements (gestion des erreurs et des alertes) survenant sur 
les  disques  faisant  partie  d’un  miroir  (RAID1  pour  Windows),  principalement  s’il  s’agit  des  disques  sur 
lesquels est installé le système d’exploitation. 

En  effet,  un  des  disques  peut  avoir  une  défectuosité  et  ne  plus  être  opérationnel,  sans  que  le  système 
d’exploitation  ou  l’accès  aux  disques  ne  soit  affecté.  Le  défaut  existe  mais  il  n’est  pas  visible.  Quand  un  incident 
arrivera sur le deuxième disque du miroir (RAID 1), l’accès sera interrompu et le système s’arrêtera ou les données 
en cours de traitement ne seront plus accessibles. Ce qui amènera un arrêt brutal du système ou de l’application. 

b. Le réseau de stockage SAN (Storage Area Network) 

Le  concept  du  SAN  permet  le  stockage  des  informations  et  leurs  échanges  entre  plusieurs  serveurs  et 
périphériques,  d’assurer  une  meilleure  disponibilité  d’accès  aux  données  et  de  garantir  la  tolérance  aux  pannes. 
Ces  données  n’ont  pas  besoin  d’être  transférées  par  le  réseau  local  d’entreprise (LAN) pour être accessibles par 
l’intermédiaire de plusieurs machines. 

Une architecture SAN se compose de serveurs, de périphériques de sauvegarde, d’éléments de stockage, de baies 
de disques, tous reliés par une connexion réseau rapide (généralement Fibre Channel). Son déploiement facilite la 
mise en place d’une stratégie complète de stockage au sein d’une entreprise. 
Elle  permet  l’interconnectivité  de  l’ensemble  des  ressources :  les  périphériques  peuvent  ainsi  être  partagés  entre 
plusieurs systèmes client et le trafic de données ainsi que la disponibilité des périphériques sont améliorés. 

Le  partage  de  l’espace  disque  s’effectue  entre  les  différentes  plates­formes  qui  y  sont  connectées,  il  simplifie 
l’administration (création et gestion de zones de stockage) et rationalise les opérations de sauvegarde. 

Cette unité est reliée à un réseau dédié au stockage. La technologie est basée sur le standard Fibre Channel (1 ou 
2 Gbits/s). Elle permet l’interconnexion entres des serveurs et des baies de stockage. 
Dans un réseau de type SAN, il est possible de connecter de nouveaux serveurs ou d’ajouter de nouvelles capacités 
de stockage sans perturber les autres systèmes ni interrompre l’accès aux données. 
Dans le cas d’une architecture SAN, il existe trois topologies possibles : 

● Point  à  Point :  permettant  de  relier  deux  éléments  avec  un  débit  de  1  Gbits/s  ce  qui  correspond  à  une 
bande passante effective de 100 Mo/s et une distance pouvant aller jusqu’à 10 km. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


53
● FCAL :  Fiber  Channel  Arbitrated  Loop  (arbitration  de  boucles).  Les  informations  transitent  d’une  manière 
séquentielle et qui ne supporte pas la déconnexion d’un élément en fonctionnement. 

● Switché : Le mode Fabric est une configuration de un ou plusieurs switches Fibre Channel interconnectés. 
Cette topologie est la plus performante. 

Les connexions associées au SAN

Ces liaisons point à point ou FCAL sont réalisables sur de longues distances selon deux modes : 

● Lien optique Fiber Channel reliés par deux switchs, 

● Lien  IP  (Internet  Protocol)  jusqu’à  plusieurs  milliers  de  km,  utilisable  principalement  en  l’absence 
d’infrastructure de fibre optique. 

Les  constructeurs  de  la  technologie  SAN  proposent  des  outils  adaptés  à  la  configuration.  Ceux­ci  permettent  de 
définir un environnement de sécurité sous la forme de : 

● Zoning : c’est une méthode d’organisation des périphériques connectés en Fiber Channel ou FC en groupes 
logiques  à  partir  de  la  configuration  physique.  Elle  permet  la  limitation  et  le  contrôle  du  trafic  entre 
l’adaptateur FC installé sur le serveur (host) et l’unité de stockage attachés. Le zoning peut être de type 
matériel ou logiciel. Il peut être implémenté pour compartimenter des ensembles de données pour assurer 
leur intégrité. 

● LUN (Logical Unit Number) : c’est une entité logique qui convertit un espace brut d’espace disque en unité de 
stockage logique que le système d’exploitation d’un serveur peut accéder et utiliser. 

Le SAN et l’aspect sécurité d’accès aux données

Une amélioration de la sécurité d’accès au SAN est réalisable par la méthode du masquage de LUN (LUN masking). 
Cette  solution  permet  de  limiter  le  nombre  de  connexions  sur  une  LUN  et  de  pouvoir  mieux  les  contrôler.  Cette 
configuration fournit un environnement de sécurité important surtout dans le cas de multiples connexions réseau. 
Le  réseau  SAN  possède  une  sécurité  renforcée  par  rapport  à  un  réseau  LAN  dans  lequel  les  données  sont 
susceptibles d’être captées ou altérées. En effet, il existe peu de possibilité d’intrusion (réseau séparé du réseau 
LAN)  mais  à  partir  du  moment  où  un  accès  a  été  réalisé,  le  risque  est  accru  (toutes  les  données  peuvent  être 
copiées  ou  détruites).  De  plus,  tout  dysfonctionnement  du  SAN  provoque  des  interruptions  dans  les  applications 
(forte sensibilité au niveau des SGBD). 

Règles de base de sécurité à prévoir au niveau du SAN

Il est recommandé de protéger physiquement le SAN : 

● Changer les mots de passe définis par défaut par le constructeur. 

● Créer un réseau séparé pour l’administration du SAN. 

● Bien configurer le zoning. 

● Inhiber les ports non utilisés des switches du réseau SAN. 

● Bien documenter la configuration du SAN. 

● Repérer et documenter toutes les connexions entre les différents composants. 

● Mettre en place une supervision et la possibilité d’alertes. 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


54
Exemple des composants d’un environnement de SAN sécurisé 

2. La disponibilité des systèmes 

Elle  assure  la  haute  disponibilité  au  sens  système  d’exploitation  et  applications.  Pour  qu’elle  devienne  proche  de 
100 %,  le  nombre  de  points  de  faiblesse  doit  être  minimisé.  Par  conséquent,  la  solution  pour  assurer  cette 
disponibilité est réalisée avec la mise en place de clusters de serveurs, appelée aussi le clustering. 

La  plupart  des  solutions  de  clusters  existant  actuellement  sont  basées  sur  les  systèmes  d’exploitation  Windows, 
Linux et Unix. 
Il existe plusieurs modes de fonctionnement : 

● actif/actif 

● actif/passif 

a. Les clusters de serveurs Windows 

Principes

Un cluster Windows comprend un groupe de serveurs, appelés aussi nœ uds utilisant le service de cluster Microsoft 
(MSCS : MicroSoft Cluster Service). Cette technologie garantit un environnement de haute disponibilité, une tolérance 
de  panne  pour  des  ressources  et  des  applications  en  cas  de  défaut  (basculement  manuel  ou  automatique  sur 
l’autre nœ ud). 
Par conception, le cluster est capable de détecter l’état de non disponibilité de l’un des serveurs par le principe du 
Heartbeat  ou  vérification  de  fonctionnement  réciproque  des  serveurs.  Selon  la  configuration  mise  en  place,  ce 
système  pourra  faire  basculer  automatiquement  les  ressources.  Cette  fonctionnalité  offre  ainsi  une  continuité  de 
service des applications aux utilisateurs, elle permet aussi aux clients d’accéder aux applications et ressources lors 
d’arrêts planifiés de l’un des serveurs. Celles­ci sont basculées automatiquement vers le serveur opérationnel. 
Les  clusters  de  serveurs  peuvent  fournir  suffisamment  de  disponibilité  des  services  pour  les  applications  métier 
critiques. 

- 4- © ENI Editions - All rigths reserved - Jonifar lina


55
Cluster MSCS 

Création d’une infrastructure de cluster de serveurs Windows

Pour  plus  d’information  sur  la  création  de  clusters  MSCS  Windows,  les  références  suivantes  donnent  les 
informations nécessaires. 
http://technet.microsoft.com/en­us/library/cc758334.aspx 

http://www.laboratoire­microsoft.org/articles/cluster­mscs­exchange­2003/  (cf.  chapitre  La  sécurité  dans 


l’entreprise ­ Le réseau ­ Mise en place du cluster MSCS). 

Toutefois,  seule  la  combinaison  de  la  haute  disponibilité  du  cluster  et  de  la  redondance  des  autres  éléments 
matériels  (Réseaux,  SAN…)  permet  de  réduire  suffisamment  les  risques  d’interruptions  dans  le  système 
d’information donc l’indisponibilité des applications. 

b. La virtualisation de systèmes 

Une autre forme de mise en œ uvre de disponibilité des systèmes est de réaliser des serveurs virtuels. 

La technologie de virtualisation consiste à créer une ou plusieurs images actives d’un système d’exploitation. Celle­
ci pourra être remise en service en cas d’incident grave de l’un des systèmes. 
La technologie de virtualisation utilise le principe d’un hyperviseur matériel ou logiciel qui permet de distribuer les 
ressources  du  serveur  physique  (serveur  hôte)  aux  serveurs  virtuels  (serveurs  invités).  Ainsi  plusieurs  systèmes 
d’exploitation  invités  peuvent  s’exécuter  en  même  temps  sur  une  seule  machine  hôte  permettant  de  séparer  les 
différents services associés aux serveurs (consolidation). 
La virtualisation de serveurs consiste à réduire le nombre de serveurs physiques d’une infrastructure. Elle permet le 
fonctionnement simultanément de plusieurs instances de serveurs sur une même machine physique. 

Cette technique permet de partager sur un même ordinateur plusieurs applications ou systèmes d’exploitation. Elle 
autorise le transfert d’application entre serveurs. 

En  cas  d’incident  affectant  un  serveur  virtualisé,  cette  technologie  assure  une  récupération  beaucoup  plus  rapide 
que la restauration à partir d’une sauvegarde mais elle ne rétablit que l’image actuelle du système, par contre elle 
ne permet pas de retrouver des informations précédentes qui auraient été supprimées ou modifiées. 

La  technologie  et  les  outils  de  virtualisation  associés  permettent  de  répondre  à  des  problématiques  de  plans  de 
continuité d’activité et de reprise d’activité, d’extension de capacités très rapide ou de facilité de maintenance. 

Il existe différents logiciels de virtualisation de type : 

© ENI Editions - All rigths reserved - Jonifar lina - 5-


56
● VMware Infrastructure 

● Microsoft Virtual Server 2005 R2 

● CitrixXenServer 

À l’instar d’autres solutions, le système d’exploitation Windows 2008 offre la fonctionnalité de création de machines 
virtuelles. 
L’hyperviseur permet la migration en temps réel de machines virtuelles tout en gérant la mémoire, le stockage et les 
transferts de données sur les entrées­sorties. 

c. La virtualisation et la réplication de serveurs 

Il  existe  sur  le  marché  des  outils  de  migration  Physique  vers  Virtuel  Physical­to­virtual  (P2V)  qui  peuvent  aider  à 
répliquer le contenu de machines virtuelles d’une machine physique à une autre. C’est une technologie qui peut être 
utilisée  en  cas  de  désastre.  En  effet,  elle  permet  de  répartir  des  systèmes  d’exploitation  vers  des  machines 
physiques,  des  machines  virtuelles  et  des  images  archivées  sur  d’autres  serveurs  via  le  réseau  interne  de 
l’entreprise. 

Certains  de  ces  outils  permettent  également  de  copier  ou  de  récupérer  les  données,  les  applications  et  les 
systèmes d’exploitation entre machines physiques et virtuelles. 
Ces  solutions  peuvent  optimiser,  dans  le  domaine  technique,  le  plan  de  continuité  ou  de  reprise  d’activité  mis  en 
place. 

En  effet,  ce  type  d’outil  permet  de  dupliquer  intégralement  et  en  continu  un  serveur  physique  ou  virtuel  via  un 
transfert périodique de ses données vers n’importe quel autre serveur sur un site de secours (physique ou virtuel). 
En  cas  de  défaillance  du  serveur  principal,  le  serveur  défini  dans  le  plan  de  reprise  peut  être  remis  en  service 
rapidement et facilement pour assurer la continuité des activités métiers de l’entreprise. 

d. La virtualisation et le stockage en réseau SAN (Storage Area Network) 

Le principe de la virtualisation du stockage consiste à donner au système d’exploitation ou à l’application une vision 
logique  de  l’espace de stockage disponible indépendamment de la réalité physique des matériels sur lesquels les 
données  sont  effectivement  stockées.  Le  stockage  en  réseau  ou  SAN  autorise  la  virtualisation  des  accès  à  partir 
d’ensembles de serveurs qui eux­mêmes peuvent être virtualisés. 

Virtual SAN : très comparable au VLAN 

La virtualisation et le stockage en réseau SAN (Storage Area Network) 

- 6- © ENI Editions - All rigths reserved - Jonifar lina


57
La disponibilité de l’infrastructure 

1. Énergie électrique 

D’autres éléments matériels vont assurer la sécurité de l’alimentation des composants du système d’information. Ils 
concernent l’alimentation  électrique  soit  de  l’ensemble  de  l’installation soit de chaque composant (serveur…).  Ils se 
composent de matériels de type : 

● onduleurs pour serveur indépendant pour un environnement de système d’information, 

● alimentation redondée pour serveurs ou unités de stockage. 

2. Réseau de communications 

Il est préférable pour l’entreprise de disposer de dispositifs de communication redondants sous forme de connexions 
réseau et des matériels associés. Leur mise en place est principalement requise si le métier de l’entreprise impose 
des connexions constantes aux réseaux internes et externes et de bonne qualité. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


58
Identification et authentification 

1. Définitions 

Accès physique 

Il s’agit du processus qui permet d’utiliser un système informatique sous la forme d’un accès à un ordinateur via une 
interface de type clavier ou la possibilité d’entrer dans des environnements ou locaux de l’entreprise dans lesquels 
des systèmes ou des informations sont à disposition. 

Accès logique 

Il s’agit du procédé qui permet d’entrer, de modifier, de supprimer, de consulter des données, des enregistrements 
présents sur un système à l’aide d’une autorisation d’accès. 

Identification 

C’est le moyen par lequel un utilisateur fournit une identité réclamée par le système. 

Authentification 

Il s’agit du moyen qui permet d’établir la validité de la requête émise pour accéder à un système. Ce mécanisme est 
précédé d’une identification permettant de se faire reconnaître par le système. Cela peut être sous la forme d’un mot 
de passe, une identification PIN (Personal Identification Number), une clé chiffrée. 

Ce  sont  des  éléments  critiques  de  la  sécurité  informatique  à  partir  du  moment  où  ils  sont  considérés  comme  des 
briques de base pour la plupart des types de contrôle d’accès des utilisateurs. 

La  méthode  la  plus  commune  utilisée  sur  les  systèmes  informatiques  est  un  nom  d’utilisateur  couplé  à  un  mot  de 
passe. Cette façon de procéder, dans un environnement correctement géré, fournit une sécurité efficace. Toutefois, 
cette méthode est loin d’être idéale. C’est pour cela qu’il est nécessaire d’être vigilant et de se reporter à des bonnes 
pratiques qui devront s’adapter à l’environnement de l’entreprise. 

Les mots de passe 

Le  principe  de  l’utilisation  de  mots  de  passe  pour  l’authentification  d’un  utilisateur  doit  respecter  certaines  règles. 
Celles­ci  doivent  être  connues  des  utilisateurs  et  appliquées  par  eux.  Malgré  sa  facilité  d’utilisation,  le  principe  de 
précaution impose d’éviter qu’il soit facilement intercepté, principalement sur les réseaux d’entreprise. 

2. Implémentation de systèmes d’identification et d’authentification 

L’implémentation de ces systèmes assure la confidentialité et l’intégrité des données de l’entreprise. 
Les critères d’accès à l’information comprennent : 

Les rôles

L’accès à l’information peut aussi être contrôlé par le type de fonction de l’utilisateur qui veut accéder au système. Le 
processus  de  définir  des  rôles  doit  être  basé  sur  une  analyse  globale  des  politiques  de  sécurité  de  l’entreprise  et 
tenir compte de l’ensemble des utilisateurs du système d’information dans l’entreprise. 

Les contraintes et horaires d’utilisation des services

Les  restrictions  d’accès  aux  serveurs  ou  aux  postes  de  travail  peuvent  être  mises  en  place  en  relation  avec  les 
horaires d’utilisation ou de bureau. 

Des  contraintes  d’accès  aux  services  basées  sur  des  paramètres  peuvent  être  mises  en  place,  en  limitant  par 
exemple le nombre limité d’accès simultanés à une ressource ou à un service. 

Les modes courants d’accès à l’information

Il existe plusieurs possibilités d’accès, il s’agit de : 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


59
● Accès  en  lecture :  fournit  la  possibilité  aux  utilisateurs  de  visualiser  uniquement  l’information  dans  un 
système. 

● Accès en écriture : permet aux utilisateurs d’ajouter, modifier, supprimer des données. 

● Accès pour exécuter des programmes : privilège qui permet aux utilisateurs d’exécuter des programmes. 

● Accès  en  suppression :  permet  aux  utilisateurs  de  supprimer  ou  d’effacer  des  ressources  systèmes  (ex : 
fichiers, enregistrements, programmes). 

Ce qui implique la mise en place de dispositifs de contrôles. 

3. Mécanismes de contrôle d’accès 

a. Contrôle d’accès logiques 

Ils fournissent un moyen technique de contrôler les données que les utilisateurs peuvent accéder ou modifier, les 
programmes  qu’ils  peuvent  utiliser.  L’accès  logique  donne  la  possibilité  d’agir  techniquement  sur  une  ressource 
informatique  (ex :  lecture,  création,  modification,  suppression  d’un  fichier  ou  d’une  donnée,  l’exécution  d’un 
programme, l’utilisation d’une connexion externe). 

Le terme accès logique est souvent confondu avec autorisation et authentification. 
L’autorisation est la permission d’utiliser une ressource informatique. Cette permission est accordée directement ou 
indirectement  par  l’application ou le propriétaire du système. L’authentification sert à prouver que ces utilisateurs 
sont bien identifiés. 

Le  contrôle  d’accès  est  le  moyen  par  lequel  la  validité  des  demandes  est  explicite  (autorisation  complète  ou 
restreinte).  Il  peut  prescrire  non  seulement  qui  ou  quoi  (cas  d’un  programme)  est  autorisé  à  avoir  accès  à  une 
ressource système mais aussi le type d’accès autorisé. Ces contrôles peuvent être implémentés ou incorporés dans 
les  programmes  d’applications  (gestion  de  bases  de  données  ou  systèmes  de  communication)  ou  encore  dans  le 
système d’exploitation. 

Couple Identifiant/Mot de passe

Cette méthode, la plus utilisée et la plus courante pour l’authentification des utilisateurs, est aussi la plus simple à 
mettre en œ uvre techniquement car elle est déjà incluse dans une grande variété d’applications. 

Le cryptage ou chiffrage

Ce  moyen  peut  être  utilisé  pour  le  contrôle  d’accès  logique.  L’information  chiffrée  transmise  peut  être  seulement 
décodée et accessible seulement par les utilisateurs qui possèdent la clé adéquate. Ceci est particulièrement utile 
en  l’absence  de  contrôles  d’accès  physiques  rigoureux.  C’est  le  cas  pour  les  ordinateurs  portables  ou  pour  les 
supports de données comme les clés USB ou disques durs externes. Il s’agit de protéger les données contenues sur 
ces  matériels  afin  qu’elles  ne  soient  accessibles  que  par  la  personne  autorisée  et  pas  par  l’auteur  du  vol  du 
matériel. 

Les listes de contrôle d’accès ou Access Control Lists (ACL)

Ce type de liste fait référence à un enregistrement qui concerne des utilisateurs (serveurs, processus…) à qui une 
permission a été donnée pour utiliser une ressource système particulière ainsi que les types d’accès autorisés. 

b. Contrôles d’accès internes 

Ce sont des moyens logiques de séparer la façon dont les utilisateurs ou groupes d’utilisateurs identifiés peuvent 
accéder les ressources systèmes. Plusieurs méthodes de contrôle d’accès interne existent : couple identifiant/mots 
de passe, le chiffrage, les listes de contrôle d’accès (ACL : access control lists) et identifiants. 

c. Contrôles d’accès externes 

Ils permettent de contrôler les actions entre le système d’information et les personnes externes à l’entreprise ou 
ses sous­traitants. L’établissement de ces protections peut impliquer la mise en place de postes de travail dans un 
environnement distinct des utilisateurs de la société ou de les autoriser à accéder à partir d’un réseau informatique 
séparé de l’infrastructure interne. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


60
d. Administration des contrôles d’accès 

Il  existe  trois  types  basiques  d’approche  pour  administrer  les  contrôles  d’accès :  centralisé,  décentralisé,  ou  une 
combinaison des deux. Chaque type possède ses avantages et ses inconvénients. 

Administration centralisée

Dans  ce  cas,  un  service,  groupe  ou  personne  est  en  charge  de  la  configuration  des  contrôles  d’accès.  La  gestion 
d’un Centre de Services (suivant les bonnes pratiques ITIL) permet sa mise en place de façon pratique et efficace. 
Ce  type  d’administration  permet  un  contrôle  rigoureux  sur  les  comptes  des  utilisateurs  parce  que  la  possibilité 
d’effectuer des ajouts ou des modifications reste l’apanage de très peu de personnes. Les comptes des utilisateurs 
peuvent être gérés à partir d’un point central et la suppression des accès aux utilisateurs quittant l’entreprise peut 
être effectuée rapidement. 

Administration décentralisée

Dans ce cas, l’accès est directement contrôlé par le propriétaire ou le créateur des fichiers ou de comptes, cela peut 
être souvent un responsable fonctionnel. 

Approche Hybride

Approche mixte qui combine les deux types d’administration. 

e. Les outils ou solutions de contrôle d’accès 

L’entreprise a le choix pour la mise en place de systèmes d’accès logiques pour les systèmes. 

Authentification unique ou Single Sign­On (SSO)

L’authentification  unique  consiste  en  un  système  permettant  à  un  utilisateur  de  ne  procéder  qu’à  une  seule 
authentification  pour  accéder  à  plusieurs  ressources.  Cela  assure  une  simplification  pour  la  gestion  de  l’ensemble 
des accès. 
Pour  améliorer  l’efficacité,  il  est  préférable  pour  les  utilisateurs  de  s’authentifier  de  façon  unique  pour  pouvoir 
accéder un ensemble d’applications ou de systèmes locaux ou distants. Cela correspond au single Sign­on. 

Les serveurs et systèmes d’authentification

Avec  ce  mode,  les  utilisateurs  s’authentifient  via  un  serveur  dédié  qui  authentifie  l’utilisateur  ce  qui  lui  permet 
d’accéder  aux  autres  serveurs.  Cela  veut  dire  que  ceux­ci  doivent  être  en  relation  d’approbation  avec  le  serveur 
d’authentification qui peut être disposé à n’importe quel endroit du réseau de l’entreprise. 

Il s’agit de : 

● Le protocole d’identification réseau Kerberos qui utilise un système de tickets. 

● OpenID  est  basé  sur  un  système  d’authentification  décentralisé  qui  autorise  l’authentification  unique.  Il 
permet à un utilisateur de s’identifier auprès de plusieurs ressources sans à avoir à retenir un mot de passe 
différent pour chacune d’elles mais en utilisant à chaque fois le même identifiant. 

4. La signature numérique, signature électronique 

Ces procédés, plus spécifiques, assurent la confidentialité et l’intégrité des données à transférer. Ils permettent en 
supplément un mécanisme de gestion de la preuve et de la non répudiation. 
La  signature  électronique  est  une  solution  technique  et  fiable  d’identification  qui  permet  à  l’entreprise  et  aux 
différentes  administrations  d’assurer  la  sécurité  de  leurs  échanges  par  Internet.  Elle  s’appuie  sur  une  technologie 
appelée PKI (Public Key Infrastructure, ICP : Infrastructure à Clés Publiques). 
Il s’agit d’un mécanisme de contribution aux services d’authentification, d’intégrité et de non répudiation. 

Ce dispositif utilise la norme ISO 7498­2 relative à l’architecture de sécurité pour les systèmes ouverts. 
En effet, cette solution permet le transfert d’information en sécurité lors de transactions et d’échanges de documents 
dématérialisés, notamment pour accomplir certaines formalités administratives en ligne. 
Le mécanisme de signature électronique ou signature numérique permet : 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


61
● L’authentification de l’auteur d’un document électronique, il garantit donc l’identité du signataire. 

● La garantie de l’intégrité du message reçu par le destinataire : il constitue la preuve que le document n’a pas 
subi d’altération entre l’instant où il a été signé par l’émetteur (son auteur) et celui où il a été consulté par le 
récepteur. 

● La  garantie  que  l’émetteur  du  document  a  bien  envoyé  le  message :  cela  correspond  à  la  signature 
manuscrite d’un document papier qui prouve que l’émetteur a bien envoyé le message dont il est l’auteur. 

La signature électronique est formée de trois composantes : 

● le document porteur de la signature ; 

● la signature elle­même ; 

● le certificat électronique authentifiant le signataire. 

Par contre, cette technologie nécessite la délivrance par des Autorités de Certification (AC) de certificats de signature 
électronique et l’autorité d’enregistrement (AE) qui a un rôle essentiel d’identification. 

La  norme  complète,  de  référence  ISO  7498  est  globalement  intitulée  Modèle  basique  de  référence  pour 
l’interconnexion  des  systèmes  ouverts  (OSI).  Elle  est  composée  de  4  parties :  le  modèle  de  base, 
l’architecture de sécurité, la dénomination et adressage et le cadre général de gestion. 

5. La mise en place d’une infrastructure de Chiffrage à Clés Publiques 

Mécanisme de chiffrement par ICP

L’ICP, en anglais Public Key Infrastructure (PKI) comporte un ensemble d’éléments organisationnels et techniques qui 
va aider l’entreprise dans la mise en place d’une telle infrastructure de sécurité pour son système d’information. 
En effet, les attaques lors des transmissions des mots de passe sur le réseau d’entreprise (LAN) sont relativement 
simples à réaliser par capture des trames. De plus, certains logiciels spécialisés qui agissent par essais de mots de 
passe par force brute sur les serveurs et postes de travail ont plus de facilité d’attaques principalement à cause de 
l’absence des bonnes pratiques de choix des mots de passe par les utilisateurs. 

- 4- © ENI Editions - All rigths reserved - Jonifar lina


62
Mécanismes de sécurité et protocoles 

Le  chiffrement  consiste  à  traiter  une  information  par  un  algorithme  mathématique,  de  sorte  que  seules  les 
personnes possédant la clé appropriée puissent accéder à l’information et la traiter. 
Le principe général consiste à utiliser un code pour chiffrer les messages et un code pour les déchiffrer. 

Il existe deux catégories principales de chiffrement : 

● Le  chiffrement  symétrique  (aussi  appelé  chiffrement  à  clé  privée  ou  chiffrement  à  clé  secrète)  consiste  à 
utiliser la même clé pour le chiffrement et pour le déchiffrement. 

● Le chiffrement asymétrique est basé sur le principe que les clés existent par paires : une clé publique pour le 
chiffrement et une clé privée ou secrète pour le déchiffrement. 

Autres méthodes de chiffrement

Dans  les  échanges  électroniques  des  données,  plusieurs  méthodes  (utilisant  un  protocole  ou  un  logiciel)  de 
chiffrement,  comme  SSL  (Secure  Socket  Layer)  ou  PGP  (Pretty  Good  Privacy),  consistant  à  crypter  les  données  soit 
avant, soit pendant leur transfert sont utilisées : 

● SSL  est  un  protocole  de  transfert  de  données  qui  permet  de  chiffrer  l’échange  électronique  pendant  son 
transfert entre l’expéditeur et le destinataire, par exemple entre un outil de navigation Internet et un serveur 
Web. 

● PGP est un procédé hybride, qui sert à chiffrer des données au moyen d’une clé publique et à les déchiffrer à 
l’aide d’une clé privée. Il est fréquemment utilisé pour le chiffrement du courrier électronique. 

D’autres ouvrages décrivent plus précisément les fonctionnalités du chiffrement en rapport avec l’aspect sécurité des 
données dans l’entreprise. 

© ENI Editions - All rigths reserved - Jonifar lina - 5-


63
Sécurité physique et environnementale 
Les dispositifs et contrôles de sécurité sont mis en place pour protéger les locaux hébergeant les ressources systèmes 
et autres emplacements dédiés. 

Par  ressources  systèmes,  il  faut  comprendre  les  équipements  d’alimentation  électrique,  matériels  (serveurs, 
périphériques  de  stockage,  dispositifs  réseaux,  modems…)  le  stockage  des  supports  et  média  d’installation  et  de 
sauvegarde, les éléments nécessaires à l’exploitation. 

L’accès  de  l’environnement  dédié  doit  être  contrôlé  constamment,  particulièrement  pendant  leurs  périodes  de  non 
occupation des locaux. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


64
Les protections contre les virus et programmes malveillants 

1. Les virus 

Un  virus  est  un  programme  qui  s’exécute  sur  un  ordinateur  et  peut  se  répandre  à  travers  d’autres  machines  d’un 
système  d’information  dans  l’objectif  de  provoquer  des  perturbations  dans  les  applications  informatiques.  Il  existe 
plusieurs types de virus qui correspondent à des menaces plus ou moins graves. 

La mise en place de la protection

L’objectif principal est de limiter la prolifération virale dans le cas où au moins une machine est infectée. 

Trois solutions complémentaires existent : 

● Un  logiciel  d’anti­virus  disposé  sur  la  passerelle  d’accès  à  Internet.  Cette  solution  consiste  à  réaliser  un 
filtrage  applicatif  sur  l’ensemble  des  flux  qui  transitent  par  cette  passerelle.  Cet  outil  de  protection  pourra 
avoir  la  capacité  d’analyser  les  flux  Web  (par  exemple :  service  de  courrier  Web),  notamment  des  logiciels 
malveillants. 

● Un logiciel d’anti­virus installé et opérationnel sur le serveur de messagerie. 

● Un  anti­virus  installé  et  opérationnel  sur  tous  les  postes  de  travail  et  tous  les  serveurs  présents  dans  le 
système  d’information.  Les  systèmes  multiples  qui  composent  l’environnement  peuvent  nécessiter  des 
logiciels d’anti­virus de plusieurs éditeurs. 

Les outils d’anti­virus et leurs propriétés

Ils  sont  destinés  à  rechercher  et  à  éliminer  ces  logiciels  néfastes.  Le  principe  consiste  à  détecter  la  présence 
d’infections  lors  de  l’analyse  complète  des  fichiers  d’un  serveur  ou  d’un  poste  de  travail  puis  à  les  supprimer 
complètement de la machine sur laquelle ils peuvent résider et être actifs. Chaque logiciel d’anti­virus  possède  ses 
propres fonctionnalités. 

La présence d’un  logiciel  d’anti­virus opérationnel et à jour s’impose sur chaque poste de travail de l’entreprise. En 


effet,  les  usages  personnels  des  ordinateurs  sont  incontrôlables  (insertion  de  CD,  de  clé  USB,  utilisation  d’une 
connexion à domicile…). 
Toutefois, le déploiement de logiciels de protection peut impliquer une remise à niveau de l’ensemble des serveurs du 
système  d’information.  Ce  mécanisme  de  sécurité  doit  permettre  la  mise  à  jour  régulière  des  bases  de  signatures, 
sans  laquelle  l’efficacité  du  système  de  défense  est  compromise.  Le  système  d’information  doit  être  composé  de 
plates­formes  et  de  systèmes  d’exploitation  suffisamment  homogènes  pour  autoriser  un  déploiement  uniforme  de 
l’anti­virus. L’efficacité est à ce prix. 

La solution idéale serait d’utiliser plusieurs logiciels de protection complémentaires pour mieux sécuriser le système 
d’information. Par contre, il est nécessaire de vérifier si ceux­ci sont bien compatibles entre eux et ne provoquent pas 
d’effets indésirables. 

2. Les autres programmes malveillants 

Parmi les plus courants, il existe : 

Le  SPAM :  il  s’agit  de  messages  électroniques  non  sollicités  envoyés  en  grand  nombre.  Il  se  transmet  à  partir  de 
l’utilisation de relais de messagerie ouverts ou de machines mal sécurisées. 
La mise en place de la sécurité s’effectue par la : 

Prévention

● Éviter de rendre visible ou de divulguer toute adresse de messagerie quand ce n’est pas indispensable en les 
intégrant dans le code des pages Web pour les rendre indétectables par les logiciels d’extraction. 

Protection

● Mettre en place des outils de filtrage de contenus. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


65
● Sensibiliser les utilisateurs à la mise en place de filtres sur leur messagerie individuelle et de vérification de 
messages suspects. 

Le programme espion (spyware) ou du type cheval de Troie 
C’est  un  programme  indésirable  qui  s’installe  en  général  sur  un  poste  de  travail.  Sa  fonction  est  de  récupérer  des 
informations sur une personne ou une société de façon transparente pour l’utilisateur. 
Les mécanismes de prévention suivants peuvent être utiles pour les postes de travail : 

● Utiliser systématiquement un outil de protection de type anti­spyware, 

● Utiliser un logiciel de pare­feu personnel pour filtrer les paquets sortants au niveau du réseau. 

D’autres  logiciels  malveillants  sont  de  plus  en  plus  présents,  de  nouveaux  apparaissent  régulièrement.  Il  convient 
donc de rester vigilant et d’effectuer une veille technologique constante. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


66
Les  bonnes  pratiques  de  sécurité  dans  le  cadre  d’un  système 
d’information 

1. Les bonnes pratiques générales 

La  plus  importante  doit  permettre  à  tout  utilisateur  ayant  des  responsabilités  d’administration  ou  non  de  pouvoir 
signaler tout évènement, même mineur, impliquant la sécurité du système d’information de l’entreprise. 

La  procédure  définie  par  les  responsables  du  système  d’information  doit  être  simple,  facile  à  mettre  en œ uvre.  Les 
personnels  doivent  être  formés  et  sensibilisés  à  la  sécurité  informatique,  être  encouragés  à  remonter  toute 
information pouvant permettre la détection d’un incident plus important. 

Les outils automatiques de surveillance implémentés sur les ordinateurs ne peuvent pas forcément détecter tous les 
défauts, l’implication des personnels est prépondérante. 

Plus l’incident sera détecté et maîtrisé rapidement, moins les conséquences seront importantes et graves. 

La protection du périmètre

Le principe de sécurisation d’une entreprise consiste à mettre en place un périmètre de défense afin de protéger les 
équipements (physiques et logiques) du système d’information situés à l’intérieur de l’entreprise. 

Gestion centralisée des incidents et communications

La  solution  la  plus  adaptée  consiste  en  la  mise  en  place  d’une  équipe  ou  d’un  service  sous  forme  de  plate­forme 
technique dédiée centralisant la gestion de tous les incidents et la prise en compte des défauts pouvant survenir dans 
un système d’information. Les bonnes pratiques décrites dans ITIL peuvent être utiles pour la mise en place de cette 
gestion centralisée. 

2. La gestion des comptes 

Cette  fonction  implique  les  processus  de  demande,  d’établissement,  de  résolution  de  problèmes,  de  clôture  des 
comptes des utilisateurs, d’avoir une trace des modifications. Le responsable du système d’information doit mettre en 
place un ensemble de procédures qui permettent de réaliser correctement ces processus dans le souci de respecter la 
sécurité globale de l’entreprise et les informations confidentielles. 
Pour cela, le rôle principal des administrateurs consiste à mettre en place une gestion stricte des comptes et des mots 
de  passe  des  systèmes  (serveurs)  et  des  utilisateurs  à  l’aide  de  procédures  rigoureuses,  de  sensibiliser  les 
utilisateurs aux bonnes pratiques. 

a. Conseils à destination des administrateurs 

Normalement,  la  création  et  l’attribution  du  compte  d’accès  au  système  d’information  de  tout  nouvel  utilisateur 
(référence du compte et mot de passe) est effectuée par l’administrateur. Le mot de passe délivré doit être remplacé 
au premier accès au système par l’utilisateur. 

Par contre, les utilisateurs choisissant leurs propres mots de passe ont tendance à les définir facile à retenir. Cela 
veut dire qu’ils peuvent être faciles à découvrir. 

Voici quelques conseils utiles : 

Envers les utilisateurs

● Ne pas fermer ou réinitialiser le mot de passe d’un utilisateur sans vérifier son identité. 

● Choisir des mots de passe élaborés dans le cas de création de comptes pour les nouveaux utilisateurs. 

● Ne pas transmettre les mots de passe aux utilisateurs de façon non chiffrée spécialement via la messagerie. 

● Éviter  d’envoyer  les  mots  de  passe  par  mail.  Il  est  possible  d’intercepter  ou  de  lire  les  messages  et  de 
récupérer les informations. À partir du moment où le mot de passe est transféré par un moyen électronique 
écrit, il est susceptible d’être intercepté. Il est recommandé aux administrateurs systèmes de tenir compte de 
cette vulnérabilité. Il est préférable d’utiliser les communications téléphoniques. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


67
● Demander impérativement aux nouveaux utilisateurs de changer le mot de passe utilisé pour la création du 
compte  et  de  changer  leur  mot  de  passe  périodiquement.  Utiliser  les  fonctionnalités  du  système 
d’exploitation. 

● Utiliser  les  fonctionnalités  du  système  d’exploitation  pour  suspendre  automatiquement  les  comptes  des 
utilisateurs après un nombre d’essais infructueux, valeur à définir selon l’environnement. 

● Ne réactiver le compte suspendu d’un utilisateur que sous la responsabilité d’un administrateur système. 

Pour la gestion des serveurs

● Changer  impérativement  tous  les  mots  de  passe  système  ou  administrateur  donnés  par  défaut  pour  le 
système ou l’application après l’installation d’une nouvelle machine. 

● Ne pas autoriser qu’un mot de passe soit public ou soit commun à plusieurs comptes d’accès. 

● Utiliser des mots de passe différents pour chaque compte créé. 

● Ne pas créer des comptes ou groupes génériques avec un mot de passe commun. 

● Ne pas utiliser de mots de passe génériques ou courants (utilisés par plusieurs personnes) surtout s’il s’agit 
d’un  compte  système  ou  d’application.  Finalement  trop  d’utilisateurs  vont  les  connaître,  pouvoir  les 
transmettre  à  d’autres  personnes,  d’autres  services  ou  vers  l’extérieur.  Cela  arrive  fréquemment  dans  les 
petites entreprises et rend les systèmes vulnérables aux hackers ou autres personnes mal intentionnées. 

● Modifier rapidement tout mot de passe généré de façon unique ou dès la suspicion d’un accès non autorisé 
au compte. 

● Ne  pas  utiliser  le  même  mot  de  passe  sur  plusieurs  systèmes  ou  serveurs,  même  pour  des  comptes 
identiques. 

● Ne pas utiliser un mot de passe qui a été utilisé précédemment sur le même ou un autre système (serveur, 
poste de travail…). 

Le  fichier  contenant  les  mots  de  passe  est,  en  général,  crypté  et  protégé  des  accès  d’intrus.  Toutefois  en  cas  de 
récupération de ce fichier, des tentatives de d’accès peuvent être réalisées, par comparaison à l’aide de mots déjà 
cryptés par ailleurs dans un autre fichier. 

Dans le cadre d’un environnement informatique complexe, la prolifération de mots de passe peut réduire la 
sécurité générale d’un système d’information. 

b. Les bonnes pratiques de gestion des comptes et des mots de passe pour les utilisateurs 

Selon l’organisation mise en place, une demande officielle doit être requise pour chaque création ou modification de 
compte utilisateur demandant des accès particuliers à un système ou à une application. 
Toute demande de ce type doit être enregistrée dans une base de données utilisateurs et gérée par le responsable 
système. 
Une charte de bon usage du compte doit être délivrée à chaque nouvel utilisateur pour l’informer de ses droits et 
devoirs, ainsi qu’une sensibilisation à la sécurité. 

C’est  aussi  le  rôle  du  responsable  du  système  d’information  d’agir  sur  la  mise  en  attente  ou  la  suppression  des 
comptes d’utilisateurs absents pendant une longue période ou quittant l’entreprise. 

Il est impératif d’utiliser la fonctionnalité de limitation du nombre d’essais d’entrée de mot de passe pour un compte 
utilisateur, la plupart des systèmes d’exploitation peuvent être configurés pour bloquer le compte après un nombre 
d’essais infructueux. 

Précautions de gestion des mots de passe à appliquer

● Les mots de passe doivent être stockés ou transmis sous une forme cryptée. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


68
● Implémenter des changements de mots de passe de façon automatique et contrôlée par l’utilisateur. 

● Bloquer l’accès  au  compte  après  un  nombre  de  tentatives  infructueuse  ou  utiliser  une  autre  méthode  (ex : 
appeler un administrateur de sécurité). 

● Forcer la modification du mot de passe de façon périodique pour tous les serveurs et postes utilisateurs. 

● Bloquer ou supprimer le compte d’un utilisateur après une période d’inactivité (ex : 30 jours). 

● Déconnecter la session active sur les postes utilisateurs après une période d’inactivité pour forcer l’utilisateur 
à se reconnecter. 

● Ne pas autoriser l’emploi du même mot de passe en utilisant une procédure qui évite de réutiliser l’un d’eux 
gardé dans l’historique (au moins les 10 derniers mots de passe). 

Les mauvaises habitudes à éviter

● Ne pas utiliser son prénom ou son nom ou celui d’un membre de famille ou encore son nom d’utilisateur. 

● Éviter des mots de la culture populaire. 

● Ne pas utiliser sa date de naissance, son numéro de téléphone, sa plaque d’immatriculation de voiture, nom 
de rue, tout ce qui est relation avec sa situation professionnelle en cours. 

● Ne pas utiliser des lettres ou chiffres qui se suivent, des suites de caractères de clavier, des répétitions de 
lettres ou de chiffres. 

● Éviter de faire précéder ou suivre le mot de passe avec un chiffre. 

● Ne  pas  utiliser  un  mot  courant  traduit  dans  une  autre  langue  ou  les  mots  d’un  dictionnaire  (français  ou 
étranger). 

● Ne  pas  construire  des  mots  de  passe  utilisant  une  séquence  de  base  et  la  suite  liée  à  une  date  ou  à  un 
évènement prévisible. 

● Ne pas réutiliser des mots de passe récents. 

● Ne pas utiliser le même mot de passe pour plusieurs types d’accès. 

● Ne pas écrire les mots de passe près des postes de travail ou des serveurs ou sur un écran d’ordinateur. 

● Ne pas divulguer les mots de passe à d’autres personnes, il doit rester confidentiel. 

● Ne pas envoyer de mots de passe via la messagerie. 

● Ne stocker le mot de passe sur un média que s’il est protégé des accès non autorisés (chiffrage…). 

Ce qui est préférable ou recommandé

● Utiliser un mot de passe comportant au moins 6 caractères. 

● Utiliser un mot de passe difficile à trouver, de préférence en mixant des caractères alphanumériques et des 
caractères spéciaux, des chiffres, lettres (majuscules et minuscules), des symboles. 

● Utiliser un mot de passe facile à retenir, ne pas écrire les mots de passe sous une forme lisible (électronique, 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


69
papier…) à une place facilement accessible (post­it sous clavier, moniteur vidéo, casier ou tiroir personnel. 

● Utiliser  le  principe  de  mot  de  passe  créé  de  la  même  façon  que  les  textes  envoyés  par  SMS  sur  les 
téléphones portables. 

● Utiliser des mots de passe faciles à mémoriser, pour éviter d’avoir une trace écrite, mais difficiles à trouver 
pour d’autres personnes. 

● Utiliser un mot de passe facile et rapide à saisir de façon à ce que personne ne puisse capter ce qui est tapé. 

● Changer obligatoirement le mot de passe fréquemment, au minimum tous les trimestres et chaque fois qu’un 
doute d’accès non autorisé a été détecté ou suspecté. 

● Se déconnecter de son compte ou interdire l’accès du compte sur les postes de travail. 

● Avertir l’administrateur des tentatives d’accès à son compte. 

● Modifier rapidement tout mot de passe généré de façon unique ou dès la suspicion d’un accès non autorisé 
au compte. 

● Essayer  d’utiliser  des  mots  de  passe  qui  se  tapent  avec  les  deux  mains  sur  le  clavier,  pour  éviter  qu’une 
autre personne puisse les mémoriser facilement. 

Un exemple de création de mot de passe : 
Créer  une  phrase  totalement  personnelle  et  la  traduire  en  phonétique  (facile  à  retenir)  avec  des  lettres,  chiffres… 
(difficile à trouver pour un autre utilisateur). 
En  conclusion,  la  gestion  des  mots  de  passe  des  utilisateurs  doit  procéder  d’un  consensus  entre  les  besoins  de 
sécurité et la criticité du système d’information de l’entreprise et l’assentiment des utilisateurs. 

Changements affectant les comptes utilisateurs

Un des aspects de la gestion des systèmes implique de garder les autorisations d’accès des utilisateurs à jour. Ces 
permissions peuvent être modifiées sous le fait de plusieurs circonstances : 

● le changement de la fonction ou du rôle de l’utilisateur, 

● son transfert dans un autre groupe dans lequel les autorisations d’accès sont différentes, 

● l’absence prolongée ou le départ de l’utilisateur de l’entreprise. 

Dans  tous  les  cas,  les  précautions  d’accès  doivent  être  modifiées  pour  éviter  des  accès  non  prévus  ou  pouvant 
amener des risques aux systèmes ou aux applications métier de l’entreprise. 

Dans le cas où le collaborateur quitte l’entreprise, il peut s’agir d’une séparation amicale (départ en retraite) ou non 
(licenciement). Dans tous les cas, il est nécessaire de prévenir tout problème lié à la sécurité, surtout dans le second. 

Délégation de privilèges aux utilisateurs

Quand il est nécessaire de créer un compte utilisateur privilégié, il est recommandé de ne donner que les privilèges 
minimum  requis  ou  utiliser  les  outils  fournis  avec  le  système  d’exploitation  pour  limiter  les  possibilités  d’accès.  De 
plus, il est recommandé de contrôler ou de vérifier fréquemment les actions de ces utilisateurs privilégiés. 

Sensibilisation des utilisateurs

Les  administrateurs  systèmes  et  réseaux  sont  le  premier  contact  avec  les  utilisateurs  dans  l’entreprise.  Le  rôle 
principal  de  ces  administrateurs  est  de  sensibiliser  les  personnels  sur  leurs  postes  de  travail.  Cela  consiste  à  leur 
rappeler les principes de sécurité de base pour l’utilisation de leur matériel informatique. 

Plus ces utilisateurs seront conscients et respectueux de ces principes, moins l’administrateur se retrouvera devant 
des situations délicates et face à des problèmes à gérer qui viendraient en complément de ses tâches dédiées. 

3. Les mécanismes de contrôles et de vérification 

- 4- © ENI Editions - All rigths reserved - Jonifar lina


70
Les mécanismes de contrôle d’accès

Une entreprise, pour augmenter la protection de ses données et applications, peut mettre en place les mécanismes 
suivants : 

● Listes de contrôle d’accès ou ACL (Access control lists) : il s’agit d’un registre d’utilisateurs (comprenant aussi 
des  groupes  d’utilisateurs,  des  serveurs,  des  processus)  à  qui  des  permissions  ont  été  données  pour  un 
système de ressource particulier et le type d’accès autorisé. 

● Le chiffrage ou cryptage : cela permet un contrôle d’accès rigoureux, il est accompagné par une gestion stricte 
des clés de chiffrage. 

● Protection des ports de communication réseau (sur un serveur ou un périphérique réseau). 

● Pare­feu  et  passerelles  sécurisées :  protection  des  réseaux  privés  d’entreprise,  ou  entre  réseaux  (Wi­Fi, 
filaire). 

Les sociétés, dans un souci de sécurité, doivent gérer et administrer correctement les contrôles d’accès aux systèmes 
d’information. Cela comprend la surveillance, la modification, le test, le contrôle d’accès des utilisateurs. 
Si  les  mots  de  passe  sont  utilisés  comme  moyens  de  contrôle  d’accès,  il  est  nécessaire  de  se  méfier  de  leur 
prolifération  qui  peut  résulter  en  une  réduction  de  la  sécurité  globale.  En  effet,  la  mauvaise  utilisation  de  mots  de 
passe  difficiles  à  retenir  (écrits  sur  papier  ou  mal  choisis)  peut  amener  à  ce  qu’ils  soient  découverts  facilement  et 
utilisés à mauvais escient. 

Contrôles d’accès logique

Les entreprises se doivent d’implémenter des contrôles d’accès logiques basés sur leur politique de sécurité, cela par 
des  personnes  responsables  d’applications,  de  sous­systèmes  ou  groupes  de  systèmes.  Cette  politique  doit  tenir 
compte  des  principes  de  sécurité,  des  besoins  opérationnels  disponibles  et  être  facilement  utilisable  par  les 
utilisateurs. 

Elles peuvent contrôler les accès logiques aux ressources selon les critères suivants : 

● l’identité (la référence du compte de l’utilisateur), 

● le rôle ou la fonction de l’utilisateur dans l’entreprise, selon l’organisation générale, 

● la localisation, l’accès à un système ou une application particulière peut être défini par un aspect physique ou 
logique, 

● les jours ou horaires d’accès imposés par des contraintes de confidentialité. 

Revues et audits

C’est  aussi  une  bonne  idée  d’effectuer  périodiquement  un  audit  des  comptes  des  utilisateurs  pour  vérifier  les 
cohérences avec d’une part les informations de création et les demandes de modifications, d’autre part avec les états 
des comptes. Cela permet de vérifier les conformités avec la politique de sécurité et d’éviter des dérives. 

Cette vérification peut s’effectuer à deux niveaux : systèmes et applications. 

a. Les anomalies 

La détection des anomalies

Pour identifier l’activité anormale, il est nécessaire, au préalable, de : 

● Définir  ce  qu’est  une  activité  normale,  c’est­à­dire  les  types  de  flux  autorisés  ainsi  que  les  configurations 
associées. Cette action peut être menée par l’utilisation d’outils de supervision automatisés enregistrant les 
évènements. 

● Détecter  les  flux  contraires  aux  règles  définies  précédemment  dans  le  cadre  de  la  politique  de  sécurité  ou 
des modifications non tracées ou non répertoriées de configuration des systèmes. 

© ENI Editions - All rigths reserved - Jonifar lina - 5-


71
Sans  ces  deux  démarches  les  intrus  pourront  d’une  part  s’introduire  sur  le  système  sans  risque  d’être  détectés, 
d’autre part et plus grave encore, se maintenir sur le système de façon pérenne avec un accès de plus en plus large 
à l’ensemble des ressources informatiques. 

Une  des  opérations  les  plus  importantes  à  mettre  en  place  dans  un  système  d’information  pour  établir  une 
protection de sécurité consiste en la surveillance des journaux d’évènements des systèmes sensibles ou critiques. 

Les outils de détection d’anomalies d’accès sur les postes de travail

Ce type de logiciel permet de simplifier la tâche de l’administrateur système en ce qui concerne les comportements 
anormaux.  Pour  rester  cohérent,  cela  implique  que  cet  outil  soit  installé  sur  tous  les  postes  de  travail.  Il  permet 
d’obtenir une vision globale de la situation et de détecter absolument les comportements anormaux dus à un logiciel 
malveillant ou une tentative d’intrusion. http://www.nexthink.com/risk_reduction.html 

Détection des activités illégales ou non autorisées

Plusieurs  mécanismes  peuvent  être  utilisés.  Leur  objectif  principal  consiste  à  détecter  des  actions  illégales  ou  non 
autorisées à partir de vérifications, d’audits  et  d’analyses d’audit­trails.  Ces  outils  spécifiques  peuvent  être  mis  en 
œ uvre en cas de suspicion d’actes de malveillance. 

b. La surveillance des systèmes 

La supervision et la journalisation des évènements

Correctement  configurés,  les  matériels  (serveurs,  équipement  réseau)  du  système  d’information  de  l’entreprise 
génèrent des traces appelés aussi journaux d’évènements permettant de retracer une partie de l’activité de chacun 
des équipements. 
La  surveillance  de  ces  évènements  est  pourtant  essentielle  pour  détecter  les  incidents  de  sécurité  sous  forme  de 
contrôle  continu.  Il  est  indispensable  que  la  mise  en  place  de  procédures  simples  de  collecte  et  d’analyse  sur  les 
machines sensibles ou exposées soit effectuée, par exemple à partir d’outils spécifiques. 
Il  est  important  et  parfois  requis  dans  une  entreprise  de  pouvoir  vérifier  certaines  opérations  effectuées  sur  le 
système d’information. C’est le rôle de la journalisation d’évènements, au point de vue réseau et/ou systèmes. Dans 
certaines entreprises, des exigences légales imposent un tel contrôle. 
Les  bonnes  pratiques  de  sécurité  consistent  à  mettre  en  place  une  supervision  adaptée  à  l’environnement  du 
système d’information de l’entreprise de façon à enregistrer le maximum d’évènements, dans l’objectif d’une enquête 
plus approfondie pour les environnements de : 

● Réseaux LAN et WAN : ouvertures de connexions, refus de connexions... 

● Systèmes (serveurs et postes de travail) : sessions, durée des processus, utilisation des ressources... 

Vérification périodiques des systèmes

Il est indispensable pour l’administrateur de surveiller attentivement et périodiquement les journaux d’évènements 
et d’erreurs sur tous les systèmes. Il existe pour cela des outils qui peuvent surveiller un ensemble de serveurs et le 
réseau associé. 

Sous forme d’actions qui consistent à : 

● Effectuer  des  contrôles  de  sécurité  et  de  performance  (vérification  de  la  santé  de  l’ensemble du réseau et 
des serveurs de l’entreprise). 

● Tracer  les  actions  effectuées  dans  le  cadre  d’administration  des  réseaux  et  des  serveurs  (les  postes 
d’administration sont des cibles privilégiées d’attaques). 

● Détecter les incidents (accidentels) ou actes de malveillance (piratages), les évènements anormaux (erreurs 
disques…). 

● Repérer les répétitions anormales d’un évènement banal (scan du réseau, des mots de passe…). 

● Détecter  les  intrusions,  en  complément  l’utilisation  de  sondes  de  détection  d’intrusion  aide  à  une  analyse 
plus spécifique. 

- 6- © ENI Editions - All rigths reserved - Jonifar lina


72
● Détecter  les  modifications  de  configuration.  Une  agression  sur  un  serveur  peut  se  caractériser  par  la 
modification de paramètres de configuration ou de fichiers du système d’exploitation sans autorisation. 

Ces bonnes pratiques peuvent être mises en œ uvre à partir de plusieurs règles : 

● Règle 1 : éviter de collecter plus d’informations que nécessaire (sélectionner les plus pertinentes). 

● Règle  2 :  les  fréquences  d’apparition  d’un  évènement  normal  ou  insignifiant  constituent  une  information 
valable (Corrélations d’événements). 

● Règle 3 : journaliser le maximum d’information  dans  la  limite  de  ce  qui  est  possible  et  du  temps  disponible 
pour l’analyse. 

● Règle  4 :  une  remontée  d’alarme  en  temps  réel  n’est  pas  utile  si  elle  n’est  pas  traitée  aussitôt  par  un 
administrateur. 

● Règle  5 :  tous  les  serveurs  du  système  d’information  doivent  être  configurés  à  la  même  heure  (utilisation 
d’un serveur NTP (Network Time Protocol). 

● Règle 6 : de préférence, après la collecte d’information, effectuer une exportation et la centraliser en temps 
réel sur un serveur sécurisé et accessible que par des personnes autorisées (pour éviter la corruption ou la 
suppression des données). 

La  plupart  des  systèmes  d’exploitation  utilisent  des  outils  pour  gérer  les  fichiers  de  journalisation.  La  vérification 
périodique  de  ces  traces  constitue  l’une  des  lignes  de  défense  la  plus  sûre  pour  détecter  les  utilisations  non 
autorisées du système. 
Les idées suivantes peuvent identifier des accès non autorisés : 

● La plupart des utilisateurs se connectent et se déconnectent de leur compte à peu près toujours dans une 
même  période  de  temps  chaque  jour.  Un  compte  qui  serait  accédé  en  dehors  de  ces  périodes  normales 
pourrait faire l’objet d’une attaque d’un intrus au système. 

● Il est possible d’analyser les enregistrements de connexion aux systèmes, si la fonctionnalité a été mise en 
place, des accès non habituels ou particuliers peuvent indiquer des utilisations non autorisées. 

● De  même  les  fonctionnalités  de  journalisation  des  accès  doivent  être  vérifiées  en  ce  qui  concerne  des 
messages d’erreur. 

● Les commandes de gestionnaire de tâches (sous Windows) qui listent les processus en exécution peuvent 
être  utilisés  pour  détecter  les  utilisateurs  qui  exécutent  des  programmes  non  autorisés  ou  encore  des 
programmes qui auraient été démarrés par un intrus ou par un programme malveillant. 

Si  le  besoin  de  vérifier  de  façon  plus  précise  les  possibilités  d’accès  non  autorisés  sur  les  systèmes,  il  peut  être 
judicieux d’utiliser des contrôles plus rigoureux. 
Un  système  de  détection  d’intrusion  (IDS)  peut  aussi  être  implémenté  pour  déterminer  les  activités  abusives  ou 
malveillantes à l’intérieur du réseau (cf. Les systèmes de détection d’intrusion). 

Gestion du planning des outils de surveillance système

En  dépit  des  avantages  indéniables  de  la  supervision  des  systèmes  avec  l’enregistrement  des  journaux 
d’évènements  et  des  alarmes  associées,  certains  intrus  sont  conscients  de  la  mise  en  place  de  tels  mécanismes. 
Leur objectif principal va être de les désactiver. En effet, la vérification périodique ne garantit pas que le système est 
bien  sécurisé.  Pour  minimiser  le  risque  d’accès  illégaux,  les  opérations  de  surveillance  doivent  être  exécutées  plus 
fréquemment et de façon aléatoire durant les périodes de vérification, afin de compliquer la tâche de l’intrus. 

Les tests de vulnérabilité

La  prévention  est  toujours  préférable  aux  corrections.  Comme  l’administrateur  système  doit  être  vigilant  en  ce  qui 
concerne les vulnérabilités, il est nécessaire de mettre en place des actions correctives. 

c. La protection des serveurs 

Dans une entreprise, il est nécessaire de bien savoir définir son besoin de services. Cela signifie que chaque serveur 

© ENI Editions - All rigths reserved - Jonifar lina - 7-


73
a un rôle ou une utilité bien défini. Cela implique de bien déterminer, pour tout nouveau serveur, sa fonction dans 
l’entreprise. 

Cela peut être l’occasion de réaliser un état des lieux des matériels en place pour vérifier l’utilité de chacun d’eux, de 
faire  du  ménage,  le  cas  échéant.  Des  serveurs  inutilisés  peuvent  être  des  sources  de  vulnérabilité  car  ils  ne  sont 
pas  forcément  administrés  de  façon  aussi  rigoureuse  que  les  serveurs  ayant  une  fonction  bien  déterminée.  L’état 
des lieux pourra aussi permettre de vérifier comment est réalisée la mise en commun d’espaces de stockage et les 
protections mises en place. 

La  protection physique  des  serveurs  est  indispensable.  En  général,  dans  une  entreprise  de  moyenne  importance, 
une salle informatique ou un environnement est dédié à cette fonction. Il comporte la sécurité d’accès physique et 
une alimentation électrique avec onduleur. Dans le cas d’entreprises plus modestes, cette protection minimale n’est 
pas souvent réalisée. 
À défaut d’un local dédié, une armoire fermée à clé hébergeant le ou les serveurs, le matériel réseau, un onduleur 
pourrait très bien être mise en place. Cela éviterait d’être confronté à des problèmes d’indisponibilité de service ou 
des pannes intempestives dues à des accès de toute personne non formée ou non autorisée. 

Dans le cas de petites entreprises, les serveurs trop facilement accessibles peuvent héberger des applications ou 
logiciels parasites, installés sous forme de test, par exemple. Des services s’exécutant sous forme cachée peuvent 
très bien exister. Ils deviennent alors des sources de vulnérabilité de sécurité. 

La  journalisation  de  tous  les  évènements  (modifications,  erreurs…)  sur  chaque  serveur  est  indispensable.  Les 
systèmes d’exploitation possèdent les outils nécessaires pour des vérifications de base. Des logiciels de supervision 
peuvent être ajoutés pour permettre un meilleur contrôle. 
De même, il est important de tenir à jour un document comportant les modifications tant techniques que logicielles, 
les  réparations  effectuées.  Cela  permettra  de  retrouver  plus  facilement  les  causes  de  défaut  ou  de 
dysfonctionnement. 
Naturellement,  les  contenus  des  disques  de  chaque  serveur  devront  être  sauvegardés.  Si  cela  est  utile,  une 
réplication du serveur pourra être mise en œ uvre. Il existe pour cela les architectures de virtualisation. 
Précautions à prendre pour la gestion de la sécurité des serveurs par l’administrateur 

● Système d’exploitation configuré correctement, acceptant les mises à jour automatiques et mis à jour. 

● Anti­virus installé avec mise à jour correcte du logiciel et de la base de données des virus. 

● Mise à jour des patches de correction des failles de sécurité, hot fixes, mises à jour critiques. 

● Pare­feu activé et mis à jour (firmware…), mise à jour des règles de sécurité. 

● Vérification de la présence de logiciels non autorisés sur les serveurs et surtout sur les postes clients. 

● Vérification des problèmes d’erreurs, de problèmes de performance... 

● Veille  technologique  constante  pour  connaître  les  dernières  vulnérabilités  (serveurs,  messagerie,  virus, 
chevaux de Troie…). 

● Utiliser des outils d’inventaire et de détection de vulnérabilité (PSI : Free Secunia Personal Software Inspector), 
MBSA (Microsoft Baseline Security Analyzer). 

● Sauvegarde périodique du système d’exploitation, des applications, des données. 

d. La protection des postes de travail 

La  sécurité  du  poste  de  travail  peut  être  plus  simple  à  mettre  en  œ uvre  à  partir  du  moment  où  des  règles 
d’installation  strictes  et  la  sensibilisation  des  utilisateurs  sont  bien  établies.  La  vérification  périodique  ou  la 
réinitialisation des postes utilisateurs sont les plus sûrs moyens d’éviter de trouver des postes utilisateurs avec des 
jeux ou des logiciels non conformes. 

D’où les bonnes pratiques suivantes : 

● Pour installer un poste de travail, utiliser de préférence un master configuré avec le minimum d’applications 
installées. 

● Mettre à jour et réinstaller fréquemment ce master sur les postes clients. 

- 8- © ENI Editions - All rigths reserved - Jonifar lina


74
● Restreindre l’accès physique des postes de travail aux seules personnes autorisées. 

● Sensibiliser les utilisateurs des postes clients à sécuriser l’accès à leur poste de travail en se déconnectant 
ou en désactivant l’accès en cas d’absence. 

● Sensibiliser ces utilisateurs à suivre les politiques et procédures applicables dans l’entreprise pour l’utilisation 
des mots de passe. 

● S’assurer que les postes de travail ne sont utilisés que pour les besoins métier de l’entreprise. 

● Sensibiliser ces utilisateurs à n’installer que les logiciels autorisés. 

● Stocker toute information confidentielle sur les serveurs du réseau d’entreprise. 

● Installer un anti­virus, un anti spyware. 

● Mettre  à  jour  et  configurer  les  logiciels  de  navigation  Internet  (Internet  Explorer,  Firefox…)  avec  les 
protections prévues. 

e. Les risques particuliers des postes nomades 

Les nouveaux matériels de l’informatique mobile (ordinateurs portables, smartphones…) de plus en plus utilisés dans 
la  pratique  professionnelle  des  personnels  des  entreprises,  peuvent  contenir  des  informations  importantes  de 
l’entreprise.  Ces  matériels  introduisent  de  nouveaux  risques  liés  aux  informations  qu’elles  contiennent  et  aux 
impératifs de connexions réseau avec l’entreprise. 
La gestion des risques liés aux matériels nomades (matériel ou périphérique) 
Les bonnes pratiques suivantes permettent d’éviter que ces matériels soient une source de vulnérabilités. 

● Identifier l’appareil avec le nom du propriétaire, le nom de l’entreprise, l’adresse, le numéro de téléphone. 

● Protéger  l’accès logique à l’appareil  à  l’aide d’un  mot  de  passe  selon  des  critères  de  bonnes  pratiques  de 
sécurité. 

● Installer des dispositifs ou logiciels de cryptage des données pour protéger les informations confidentielles 
stockées sur le matériel. 

● Utiliser des logiciels d’anti­virus et de protection contre les logiciels malveillants. Ceux­ci devront être mis à 
jour  au  point  de  vue  de  leurs  signatures.  Ils  sont  utilisés  pour  analyser  et  vérifier  toute  entrée  de 
messagerie et d’acquisition de données et pour protéger les fichiers de toute atteinte. 

● Chiffrer toute information ayant une classification de confidentialité sur tout matériel de stockage de données 
externe  (disque  amovible,  clé  USB,  Carte  mémoire  SD…)  selon  les  principes  de  la  politique  de  sécurité  de 
l’entreprise. 

● De même, chiffrer toute information et message ayant une classification de confidentialité avant d’effectuer 
un transfert de données vers un réseau non sécurisé (réseau Wi­Fi par exemple). 

● Installer un logiciel de pare­feu personnel pour protéger contre les intrusions réseau. 

● Si cela est le cas, désactiver les ports infrarouges pendant les périodes de non utilisation, prévoir de même 
de se déconnecter ou de protéger la position de veille par une identification de l’utilisateur. 

● Éviter de stocker sur l’appareil des références de compte systèmes ou d’applications (messagerie, comptes 
d’accès réseau…) avec leurs identifications d’accès (mots de passe). 

● Établir une demande de mot de passe pour toute application de synchronisation des fichiers sur le réseau. 

© ENI Editions - All rigths reserved - Jonifar lina - 9-


75
● Tout  autre  dispositif  additionnel  de  protection  pouvant  améliorer  l’authentification  d’accès  au  matériel  est 
recommandé. 

Organisation/environnement 

● Établir  ou  conduire  un  processus  périodique  d’évaluation  de  risques  couvrant  les  matériels  nomades  en 
service dans l’entreprise. 

● Sensibiliser  périodiquement  les  propriétaires  et  utilisateurs  de  l’informatique  mobile  en  ce  qui  concerne  les 
précautions d’usage. 

● Fournir les dispositifs de protection physiques pour ces matériels pour éviter qu’ils ne soient dérobés dans 
les environnements de bureau (câbles de protection…). 

● La  liste  de  ces  matériels  doit  être  tenue  constamment  à  jour  avec  la  référence  de  leurs  propriétaires  ou 
utilisateurs pour faciliter des vérifications d’inventaire et des audits de sécurité. 

f. La protection des périphériques d’impression de documents 

L’aspect  sécurité  ne  concerne  pas  que  les  accès  logiques  et  physiques  aux  postes  de  travail,  aux  serveurs  et 
applications.  Les  informations  imprimées,  donc  visibles  sous  forme  de  papier  peuvent  être  une  source  de  risque 
majeur pour les entreprises. En effet, ces matériels sont généralement facilement accessibles dans les espaces de 
bureaux. Il convient donc de tenir compte du fait qu’ils peuvent présenter des failles de sécurité. 
En  effet,  dans  une  entreprise,  particulièrement  dans  le  cas  de  l’utilisation  d’imprimantes  en  réseau,  un  certain 
nombre  de  feuilles  imprimées  est  oublié  involontairement.  Ces  documents  qui  n’ont  pas  été  récupérés 
immédiatement par l’utilisateur ayant généré l’impression peuvent devenir des vulnérabilités plus ou moins graves. 
N’importe quel autre collaborateur de l’entreprise ou personne passant près du périphérique d’impression peut avoir 
accès  à  des  informations  qui  ne  lui  étaient  pas  destinées.  Il  peut  ainsi  les  lire,  les  emporter,  les  détruire  ou  les 
copier.  Cette  situation  peut  poser  un  défaut  de  confidentialité  critique  pour  l’entreprise  s’il  s’agit  de  documents 
financiers, stratégiques… 
Au point de vue légal, les articles de lois sur la protection des données sont strictes et sont également valables pour 
les données sous forme de papier et disponibles sur les imprimantes de l’entreprise. 
Les  bonnes  pratiques  à  mettre  en  place  sont,  dans  ce  cas,  de  mettre  en  place  des  solutions  d’impressions 
sécurisées  permettant  d’accéder  au  document  sur  le  périphérique  qu’après  authentification  de  l’utilisateur  sur 
l’imprimante choisie. Cela peut être un code ou un badge d’entreprise. 
D’autres solutions peuvent être mises en place en isolant dans un local sécurisé avec contrôle d’accès physique les 
imprimantes susceptibles de présenter des documents confidentiels. 
Des bonnes pratiques complémentaires seraient de définir une politique ou des procédures liées à l’entreprise pour 
maîtriser  l’utilisation  des  appareils  d’impression.  Ensuite,  ce  serait  d’inclure  l’aspect  sécurité  d’impression  dans  les 
présentations et documents de sensibilisation à la sécurité informatique dans l’entreprise. 

g. Bonnes pratiques de sécurité à destination de l’administrateur système et réseau 

Les principes généraux qui s’appliquent du poste du travail au parc d’ordinateurs, au réseau de communications sont 
les suivants : 

● Configurer  et  activer  le  ou  les  pare­feu.  Ces  dispositifs  servent  à  contrôler  les  flux  réseaux  entrants  et  à 
bloquer les tentatives d’intrusion venant de l’extérieur par le réseau. 

● Maintenir  à  jour  tous  les  systèmes  d’exploitation  en  installant  rapidement  toute  nouvelle  version  (Service 
Pack pour Windows) ou toute correction disponible sur le site Internet de l’éditeur (hotfix). 

● Installer, configurer et gérer un logiciel d’anti­virus pour toutes les machines, avec les dernières versions du 
logiciel et les mises à jour de données de virus. 

● Installer et utiliser un logiciel anti­espion de type anti­spyware efficace, surtout sur les postes de travail ou 
les systèmes connectés vers le réseau Internet. 

Il  est  aussi  important  de  s’assurer  que  les  systèmes  d’exploitation  et  les  dernières  applications  intègrent  des 
fonctionnalités de mise à jour automatique présentes et activées. 

- 10 - © ENI Editions - All rigths reserved - Jonifar lina


76
De plus, les administrateurs systèmes et réseaux devront suivre impérativement le processus suivant : 

● Vérification  périodique  des  configurations  installées,  veille  permanente  sur  les  vulnérabilités  des  systèmes 
d’exploitation et applications installées (http://ww.cert.org). 

● Test  des  nouvelles  mises  à  jour  des  logiciels  sur  une  plate­forme  d’essai (l’utilisation  de  la  technologie  de 
virtualisation permet de réaliser ces tests sans intervenir sur les serveurs en production). 

● Installation et déploiement des correctifs de sécurité en commençant par les failles les plus critiques sur les 
machines les plus sensibles. 

● Application des correctifs adaptés à chaque environnement, grâce aux outils spécifiques, en tenant compte 
des particularités de la non régression des systèmes. 

Cas des mots de passe d’administration des serveurs 

Se référer aux bonnes pratiques recommandées pour chaque utilisateur. 

Centralisation des mots de passe

La solution de centralisation peut être très utile pour un administrateur gérant un parc de serveurs. En effet, il doit 
maintenir (connaître, mémoriser, modifier) un certain nombre de mots de passe différents. 
Le  stockage  de  ces  données  peut  être  fait  dans  un  SGBD  (Système  de  Gestion  de  Base  de  Données),  sur  d’autres 
types de support à partir du moment où des techniques de protection (accès à la base restreint, stockage de hash 
ou de mots de passe chiffrés et non mots de passe en clair) sont utilisées. 
Il existe une solution viable, celle de stocker tous les comptes des utilisateurs sur Active Directory et de mettre en 
place un serveur d’authentification RADIUS (Remote Authentication Dial­In User Service). 

Le protocole RADIUS (défini par les RFC 2865 et 2866), est un système client/serveur permettant de gérer de façon 
centralisée  les  comptes  des  utilisateurs  et  les  droits  d’accès  associés.  Il  permet  l’interaction  avec  des  bases 
centrales  de  type  AAA  (Authentication/Authorization/Accounting) et gère la notion de domaine Active Directory et de 
type d’accès. 

Logiciel et outils de gestion de comptes pour administrateurs

Il existe différents outils gratuits  à disposition des administrateurs systèmes et réseaux qui permettent de gérer ou 
de stocker de multiples mots de passe : 

● KeePass Password Safe est le seul outil gratuit http://keepass.info/ 

● Passwords Max for Groups est un logiciel payant : http://www.authord.com/PP/ppgroups.htm 

● Cyber­Ark Password Vault est payant, utilisé dans les pays anglo­saxons pour les problèmes de conformité. 
http://www.cyber­ark.com/digital­vault­products/enterprise­password/index.asp 

● Password Director est aussi payant : http://passworddirector.com/ 

D’autres  informations  sur  ces  outils  peuvent  être  trouvées  sur :  http://www.ossir.org/windows/supports/liste­
windows­2007.shtml 

Cela veut dire que l’administrateur n’a qu’un couple identifiant/mot de passe à retenir. Il peut ainsi entreposer tous 
les mots de passe nécessaires à la gestion de son parc informatique (systèmes, bases de données, applications…). 
Exemples d’outils de contrôles de mise à jour des protections sur Windows 
Les systèmes d’exploitation Windows intègrent un service de mise à jour automatique, Windows Update. Il permet 
aux entreprises d’installer automatiquement les mises à jour dès qu’elles sont disponibles, à condition que ce service 
soit configuré correctement. 
Il existe d’autres outils de vérification conçus pour vérifier le processus de mise à jour des systèmes Windows : 

● MBSA est un outil gratuit d’inventaire des mises à jour manquantes pour les machines Windows. 

MBSA (Microsoft Baseline Security Analyzer) est utilisable indifféremment sur les postes clients (Windows XP) 
et les serveurs (Windows 2000/2003). Sa fonctionnalité consiste à détecter les erreurs de configuration de 
sécurité les plus courantes et les correctifs non installés, en particulier la recherche de correctifs de sécurité 
manquants. 

© ENI Editions - All rigths reserved - Jonifar lina - 11 -


77
Cet outil nécessite les pré­requis suivants : 

Certains ports du pare­feu doivent être autorisés : Port TCP 80 (HTTP) en entrée/sortie, Port TCP 139, Port 
TCP 445 (CIFS) 

Son exécution requiert un compte possédant les privilèges d’administrateur local de la machine à vérifier. 

● Microsoft Windows Server Update Services (WSUS) 

SUS est un outil qui permet aux administrateurs de déployer rapidement et en toute sécurité les mises à jour 
importantes sur les serveurs Windows jusque Windows Server 2008). 

Ces outils peuvent être téléchargés gratuitement sur le site Web de Microsoft. 

● PSI (Personal Software Inspector) de Secunia scanne les applications installées sur un ordinateur et compare 
avec les dernières versions disponibles. 

Sécurité physique des accès à la console des systèmes 
Les  périphériques  de  console  d’accès  aux  serveurs  doivent  être  protégés  physiquement.  De  même,  les  serveurs 
doivent être situés dans un environnement sécurisé et protégé. 
Les postes de travail utilisés par les administrateurs systèmes et réseaux sont ceux qui ont le plus de risque d’être 
accédés pour effectuer des opérations malveillantes. En conséquence, il est indispensable qu’ils soient de préférence 
disposés  dans  un  environnement  non  accessible  par  des  personnes  étrangères.  Si  ce  n’est  pas  le  cas,  il  est 
indispensable  de  ne  laisser  aucune  possibilité  d’accès  en  son  absence.  D’où  la  nécessité  de  verrouiller  l’accès  au 
poste tant que l’administrateur n’est pas présent (mêmes précautions que pour un poste de travail classique). 
Précautions d’installation des serveurs et postes de travail 
Pour  éviter  des  intrusions  possibles  sur  les  machines,  il  est  recommandé  de  n’installer  que  les  services  et 
applications strictement utiles. Plus le nombre de services autorisés sera important plus le risque sera critique pour 
tous les systèmes d’exploitation. D’autres précautions consistent à fermer et à désactiver tous les ports réseaux non 
utilisés. 
Ce qui signifie, en résumé, supprimer tous les services non utiles à l’utilisation normale de la machine. 
Documentation de configuration des serveurs et périphériques 
Une  bonne  pratique  consiste  à  mettre  en  place  et  à  tenir  à  jour  une  documentation  reportant  toute  installation, 
changement ou modification qui peut intervenir dans les matériels ou logiciels. 
Ces  documents  peuvent  être  très  utiles  lors  d’une  situation  de  restauration  après  un  incident  important  ou  un 
sinistre  affectant  les  systèmes  ou  plus  simplement  pour  résoudre  un  problème.  Il  est  préférable  que  cette 
documentation existe sous deux formes : électronique et papier. 

La veille technologique

Il s’agit, pour l’administrateur, d’une façon de suivre les dernières mises à jour et failles de sécurité qui concernent 
les systèmes d’exploitation des serveurs et postes de travail à gérer, à partir des bulletins de sécurité des éditeurs, 
des forums et organismes de sécurité. 

Il  lui  est  donc  conseillé  de  s’inscrire  sur  les  sites  spécialisés  pour  recevoir  ces  informations  de  sécurité.  Cela  lui 
permet de rester en contact avec les changements qui interviennent sur les systèmes, réseaux, les besoins métier 
qui pourraient impacter la sécurité des systèmes qu’il a à gérer. 

- 12 - © ENI Editions - All rigths reserved - Jonifar lina


78
Bonnes pratiques d’administration spécifiques à Windows 
Politique de verrouillage de compte 
Il  existe  un  paramètre  qui  permet  d’éviter  d’accéder  illégalement  à  un  compte  d’utilisateur.  Il  est  géré  de  façon 
particulière par Windows qui bloque l’accès au compte après un certain nombre de tentatives infructueuses. 
Ce  paramètre  est  défini  de  façon  à  éviter  des  attaques  par  Déni  de  service  (DoS :  Denial  of  Service) en essayant de 
façon répétitive l’accès à un compte. 

Cette  solution  permet  d’éviter  des  appels  fréquents  au  centre  de  service  pour  des  problèmes  de  verrouillage  de 
compte par erreur de l’utilisateur (cas de mots de passe de grande longueur). 

La politique de sécurité d’accès aux comptes via Kerberos sur les plates­formes Windows 
Kerberos  est  utilisé  pour  la  gestion  des  comptes  de  domaines  Windows.  La  dernière  version  du  protocole 
d’authentification  fournit  le  mécanisme  par  défaut  des  services  d’authentification  et  les  données  d’autorisation 
nécessaires à un utilisateur pour accéder à une ressource et réaliser les tâches nécessaires. La configuration doit être 
effectuée de façon à procurer le maximum de sécurité en relation avec la politique globale de l’entreprise. 

Protocole d’authentification par défaut dans Windows 2000/2003 
Il est basé sur un système de chiffrage à clés (symétriques ou privées). Il partage avec chaque machine cliente dans le 
réseau une clé secrète servant de preuve pour l’identification. Il est utilisé par Windows 2000/2003 pour des serveurs 
membres d’un domaine Active Directory. 

Le chiffrage ou cryptage des systèmes de fichiers de Windows 

À partir de Windows 2000, un système de chiffrage est disponible de façon native sur les fichiers et répertoires d’un 
volume  de  type  NTFS  (New  Technology  File  System)  grâce  à  l’utilisation  du  système  EFS  (Encrypting  File  System).  Ce 
dispositif  utilise  un  mécanisme  de  chiffrage  à  clé  privée  et  utilise  à  la  fois  un  cryptage  de  clé  symétrique  et  de  clé 
publique pour protéger les fichiers. 

Des articles de Microsoft traitent particulièrement de ce sujet : 

● Article sur la base de connaissance des meilleures pratiques d’utilisation de EFS 

http://support.microsoft.com/default.aspx?scid=kb;EN­US;223316 

● Analyse sur les vulnérabilités connues du mécanisme EFS dans Windows 2000 

http://technet.microsoft.com/en­us/library/cc749962.aspx 

● Documentation sur EFS 

http://www.laboratoire­microsoft.org/whitepapers/6715/ 

Politique d’audit des accès aux comptes et aux fichiers et la journalisation des tentatives illégales d’accès 

Un journal d’audit enregistre les accès effectués par un utilisateur selon la configuration définie. Les entrées dans ce 
journal peuvent indiquer les actions réalisées, le compte utilisateur associé, et le moment (date et heure) de l’action. 
Les actions et accès (valables et non valables) sont enregistrés. 

Les  paramètres  seront  définis  selon  les  besoins  de  sécurité  et  la  criticité  métier  de  l’entreprise.  Le  système 
d’exploitation Windows permet de définir la configuration adéquate. Toutefois, il est important de noter que si rien n’a 
été configuré au point de vue de la procédure d’audit, il sera difficile de déterminer ce qui s’est vraiment passé dans le 
cas d’un incident lié à la sécurité. 
A  contrario,  si  la  configuration  de  l’audit  génère  trop  d’enregistrements,  le  fichier  de  journalisation  sera  difficile  à 
analyser et pourra comporter des données inutiles. De plus, un système de journalisation d’audit d’évènements peut 
affecter les performances d’un serveur ou d’une application. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


79
Les risques de perte des données 
La sauvegarde des données est essentielle pour une entreprise, quelle que soit sa taille, à partir du moment où toute 
information importante est stockée sur l’infrastructure de son réseau interne. 

Il n’est pas indispensable systématiquement d’imaginer le pire, mais il est néanmoins rationnel de prendre en compte 
toutes  les  éventualités  pouvant  conduire  à  la  perte  partielle  ou  totale,  temporaire  ou  définitive,  des  informations  de 
l’entreprise. Voici quelques exemples de risques susceptibles d’affecter les données d’un système d’information : 

● dysfonctionnement  du  réseau  électrique  général  pouvant  amener  des  coupures  avec  pour  conséquence  des 
corruptions de données, 

● défaut du système d’exploitation, 

● virus informatiques et logiciels malveillants, 

● dommages ou pannes du matériel (disques durs…), 

● suppression de fichiers (accidentelle ou non), 

● altération, modification ou suppression d’informations à mauvais escient, 

● vol de matériels, de logiciels ; sabotages, 

● erreurs de traitement de données, 

● désastres naturels. 

L’éventualité  de  pertes  de  données  importantes  pour  l’entreprise  implique  la  nécessité  d’effectuer  des  copies  des 
données  à  l’aide  de  sauvegardes  et  d’archives  pour  toute  l’infrastructure  informatique  (serveurs  de  production,  de 
développement…). 

Les principes généraux

Des  copies  de  sauvegarde  de  toutes  les  données  opérationnelles  doivent  être  effectuées  pour  permettre  la 
reconstruction dans le cas où elles seraient détruites ou perdues. 

L’application de sauvegarde doit être prévue pour être installée sur des serveurs de telle façon que les transferts de 
données soient le plus efficace possible et que la bande passante du réseau ne soit pas affectée surtout pendant les 
moments les plus utilisés par les applications métier de l’entreprise. 

Il est fortement recommandé de stocker les copies de sauvegarde dans un emplacement sécurisé éloigné du site où se 
trouvent  la  plupart  des  systèmes  critiques.  Dans  le  cas  d’un  incident  grave  ou  d’un  sinistre  affectant  totalement  ces 
systèmes, cette précaution permettra de remettre en service des machines équivalentes sur un site différent. 
Les  supports  de  sauvegarde  utilisés  pour  les  opérations  de  sauvegarde  doivent  être  testés  périodiquement  pour 
s’assurer que les données peuvent être restaurées dans un état correct à chaque fois que cela est nécessaire. 
Les  principes  généraux  présentés  sont  valables  pour  la  plupart  des  logiciels  et  applications  de  sauvegarde.  Des 
différences  peuvent  exister  car  chacun  possède  des  spécifications  relatives  à  l’éditeur  qui  les  a  conçus  et  à 
l’environnement pour lequel il a été prévu. Chaque entreprise choisit son application de sauvegarde en fonction de son 
environnement et de décisions stratégiques. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


80
La sauvegarde, la restauration 

1. Concepts généraux 

Il est utile, pour commencer, de définir les concepts principaux qui seront utilisés dans les prochains chapitres. 

a. Définitions 

Le serveur de sauvegarde

Il s’agit d’un serveur équipé d’un ou de plusieurs périphériques de stockage, en général dédiés à cette fonction. Sa 
fonction  principale  est  de  réaliser  les  phases  de  sauvegarde,  d’archivage,  de  restauration  de  données  (système 
d’exploitation, fichiers, bases de données…). 

Le client de sauvegarde

Le serveur est également sauvegardé par l’application de sauvegarde, il est donc aussi client de l’application. 

Les machines clientes sont aussi des serveurs, elles représentent les environnements à sauvegarder. 
Le  client  comprend  un  ensemble  de  données  à  sauvegarder  sur  une  machine  donnée  (serveur  de  fichiers, 
d’application…). 
Plusieurs clients peuvent coexister sur une même machine physique, chaque client ayant ses propres attributs. Ce 
sont : 

● un nom : toujours le nom du serveur connu sur le réseau de l’entreprise, 

● des  ensembles  à  sauvegarder  ou  save­sets :  des  noms  de  fichiers,  de  répertoires  ou  de  systèmes  de 
fichiers, 

● l’appartenance à un groupe, un planning de sauvegarde, une directive, des politiques… 

● un alias : autre nom de la machine dans le réseau, 

● nœ uds de stockage : liste prioritaire des périphériques locaux ou distants vers lesquels vont être envoyés 
les flux de données, 

● nœ uds de stockage de clonage : liste prioritaire pour le clonage, 

● politiques de rétention des données et de recherche. 

Les clients peuvent regroupés et posséder des attributs propres : 

● nom, 

● heure de démarrage, 

● type de démarrage, 

● politique de rétention des données et de recherche. 

L’application de sauvegarde

C’est le logiciel installé sur le serveur de sauvegarde. Sa fonction consiste à gérer les opérations sur les supports, 
les connexions sur les clients, à signaler les erreurs rencontrées. 

Les groupes d’utilisateurs et les droits d’accès

© ENI Editions - All rigths reserved - Jonifar lina - 1-


81
Dans l’application de sauvegarde, des groupes d’utilisateurs peuvent être créés pour les opérations de sauvegarde, 
de  restauration  ou  d’archivage.  Un  utilisateur  doit  appartenir  à  un  groupe  avant  de  pouvoir  se  voir  attribuer  des 
droits d’accès particuliers. En effet, sauvegarder et restaurer revient à copier des données, il convient donc de limiter 
l’accès aux utilisateurs autorisés. Ce qui implique un système de sécurité relatif aux utilisateurs du type : 

● Toute  personne  souhaitant  utiliser  le  logiciel  de  sauvegarde  doit  être  définie  comme  utilisateur  dans 
l’application. 

● Seul le propriétaire de la sauvegarde peut visualiser les données qu’il a sauvegardées. 

D’autres  autorisations  peuvent  être  définies  en  fonction  du  contexte  et  des  besoins  des  utilisateurs  ou  de 
l’environnement. 

Le planning de sauvegarde

La  périodicité  est  définie  en  fonction  des  besoins  et  des  niveaux  de  sauvegarde,  elle  peut  être  quotidienne, 
hebdomadaire ou mensuelle. 

Ces  lignes  de  conduite  se  définissent  comme  étant  une  combinaison  de  périodes  (jour,  semaine,  mois,  année)  ou 
une fréquence de sauvegarde. 

b. La politique de sauvegarde 

Elle est définie en fonction du volume de données à copier, de la quantité d’information à garder ou éventuellement 
à perdre, de l’environnement technique, de la durée légale de conservation des données. 
Cette politique consiste à définir : 

● L’environnement du système d’information à sauvegarder (services, matériels, sites, utilisateurs…) et la façon 
dont les opérations sont réalisées. 

● Le type et la quantité de données à stocker (fichiers utilisateurs, fichiers applicatifs, comptes de messagerie, 
bases  de  données…). Le  nombre  de  fichiers  ou  la  taille  des  sauvegardes  peut  évoluer  dans  le  temps  avec 
l’ajout de nouvelles applications ou de données. 

● La fréquence/périodicité des sauvegardes. 

● Les lieux et moyens de stockage des sauvegardes. 

Politique de rétention des données sauvegardées

Deux types existent : 
Politique de recherche : période de maintien des informations dans les index ou la base de données interne. 

Politique de rétention : période de conservation des informations dans la bandothèque ou l’ensemble de stockage 
des supports. 

c. La sauvegarde 

Il  s’agit  de  l’opération  consistant  à  créer  une  copie  des  données  sur  un  support  de  stockage  (bande  magnétique, 
support optique, disque…). Cette réplication d’information est stockée et conservée pour une utilisation ultérieure de 
restauration dans le cas où l’original serait supprimé (involontairement ou volontairement), détruit ou endommagé. 
Le logiciel qui copie les données vers un media s’appelle application de sauvegarde. 

Dans la plupart des cas, la source correspond à des données enregistrées sur une unité de disques, par exemple 
des fichiers, des répertoires, des bases de données et des applications. 

La destination est un support de stockage utilisant un matériel d’enregistrement et de lecture tel une unité de bande 
magnétique, un robot de sauvegarde (bandothèque), une unité de stockage composée de disques ou de supports 
optiques (CD­Rom, DVD­Rom…). 

d. L’archivage 

C’est une opération de copie identique à la sauvegarde, sauf que les données copiées sont stockées et conservées 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


82
pour  une  durée  plus  longue.  Cette  opération  peut  s’avérer  nécessaire  pour  des  raisons  légales  et/ou 
administratives.  Elle  permet  aussi  de  conserver  l’état  du  système  d’exploitation  d’un  serveur  juste  après  une 
installation ou une mise à jour importante. 
La destination est un support utilisant un périphérique de sauvegarde équivalent à ceux définis pour la sauvegarde, 
le support WORM (Write Once/Read Many) peut être utilisé plus spécifiquement dans ce cas. 

e. La restauration 

Cette opération réalise la reconstruction des données originales à partir d’une copie de sauvegarde ou d’archivage. 

Ce concept regroupe la préparation et la recopie proprement dite des données, certaines actions supplémentaires 
pour rendre les données exploitables sont parfois nécessaires. 

La  destination  est  généralement  un  disque  ou  une  unité  de  disques  sur  lequel  les  données  d’origine  avaient  été 
stockées. 

2. Les méthodes générales de sauvegarde 

a. La sauvegarde directe 

La  sauvegarde  directe  est  une  opération  qui  s’effectue  sur  la  même  machine.  Elle  n’utilise  pas  le  réseau  de 
l’entreprise. Les données sont directement envoyées à partir du disque ou de l’unité de disque vers le périphérique 
de sauvegarde installé sur le serveur. Il s’agit, en général, d’un serveur isolé. 

b. La sauvegarde en environnement réseau 

Lorsque  des  sauvegardes  sont  effectuées  dans  un  environnement  de  réseau  d’entreprise,  les  données  sont 
transférées via le réseau à partir des systèmes à sauvegarder, appelés aussi clients de sauvegarde vers un système 
équipé de périphériques et de supports de sauvegarde, sur lesquels les données vont être stockées. 

Le temps nécessaire pour effectuer une action de sauvegarde ou de restauration par ce moyen dépend fortement du 
type de réseau utilisé et de ses caractéristiques techniques (bande passante, architecture et type de réseau…). 
Le  tableau  suivant  montre  les  débits  maximum  théoriques  et  ceux  observés  en  pratique  lors  d’une  sauvegarde 
effectuée par le réseau entre un serveur de sauvegarde et ses clients. 

Type de réseau de communication  Débit maximum (Go/h)  Débit typique (Go/h) 

10Base­T  3,6  2 

100Base­T  36  15­20 

Gigabit Ethernet  360  36­100 

FDDI  Similaire au 100Base­T  Similaire au 100Base­T 

Fibre Channel 1Gb (SAN)  360  280 

Fibre Channel 2Gb (SAN)  720  560 

Type de réseau de périphérique  Débit maximum (Go/h)  Débit typique (Go/h) 


(bus) 

SCSI­2 single­ended  36  15­20 

FWD (fast­wide­differential)  72  30­40 

UltraSCSI  144  60­80 

3. Les types de sauvegarde les plus courants 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


83
a. La sauvegarde complète (Full Backup) 

La sauvegarde complète est une copie de la totalité des données présentes sur les disques ou les partitions d’un 
serveur (défini comme client de sauvegarde) vers une unité de stockage (bandes magnétiques, cartouches, unités 
de disques). 

En général, l’opération de sauvegarde s’effectue à partir d’un serveur dédié comportant les périphériques adaptés. 

b. La sauvegarde normale 

Cette opération sauvegarde les fichiers et retire le bit d’archive. Celui­ci est utilisé pour déterminer si le fichier a été 
sauvegardé. 

La sauvegarde normale réinitialise le bit d’archive du fichier après sa copie. 

c. La sauvegarde partielle 

Elle peut être incrémentale ou différentielle. 
Sauvegarde différentielle (Differential Backup) 
Cette  opération  traite  uniquement  les  fichiers  qui  ont  été  ajoutés  ou  modifiés  depuis  la  dernière  sauvegarde 
complète. Si un élément est modifié après la sauvegarde complète, il est sauvegardé de nouveau à la sauvegarde 
différentielle suivante. 
Sauvegarde incrémentale simple (Incremental Backup) 
Cette  procédure  concerne  les  fichiers  qui  ont  été  ajoutés  ou  modifiés  depuis  la  dernière  sauvegarde  (normale  ou 
partielle). 
Si  un  fichier  est  modifié  après  la  sauvegarde  complète,  il  est  sauvegardé  uniquement  dans  la  sauvegarde 
incrémentale  suivante  et  non  dans  les  sauvegardes  incrémentales  ultérieures.  Si  aucune  modification  n’a  été 
apportée, le fichier n’est pas sauvegardé. 

Sauvegardes Complètes et incrémentales 

Sauvegarde incrémentale par niveaux 

La  sauvegarde  incrémentale  par  niveaux  (de  1  à  9)  dépend  de  la  dernière  sauvegarde  en  date  du  niveau 
immédiatement inférieur, sauvegarde dont les données sont toujours protégées. 

Exemple  :  une  sauvegarde  Inc1  consiste  à  sauvegarder  toutes  les  modifications  effectuées  depuis  la  sauvegarde 
complète la plus récente, tandis qu’une sauvegarde Inc5 consiste à sauvegarder toutes les modifications effectuées 
depuis la sauvegarde de type Inc4 la plus récente. 

Une sauvegarde Inc1­9 ne fait jamais référence à une sauvegarde Inc existante. 

- 4- © ENI Editions - All rigths reserved - Jonifar lina


84
Sauvegardes incrémentales par niveaux 

Certains  logiciels  de  sauvegarde  utilisent  une  combinaison  de  sauvegardes  complète  et  incrémentale  pour 
optimiser le temps de restauration des données. 

d. La sauvegarde définie par l’utilisateur 

Les  fichiers  sauvegardés  sont  définis  par  l’utilisateur  (mode  normal  ou  copies).  Ce  type  d’opération  peut  être,  en 
général, utilisé lors des tests (installation ou maintenance). 

e. La sauvegarde à distance (electronic vaulting) 

C’est  une  opération  de  sauvegarde  qui  consiste  à  utiliser  un  partenaire  professionnel  via  le  réseau  Internet  pour 
stocker de façon sécuritaire sur un site distant une copie des fichiers d’un ou de plusieurs serveurs. Cette solution 
correspond à une mise en miroir des données, à distance. Ce type de sauvegarde sécurisée est généralement confié 
à un prestataire externe. 
Le principe de cette sauvegarde est simple : l’utilisateur télécharge le logiciel de transfert de données à partir du site 
du prestataire et crée un compte d’utilisation et un mot de passe. Il peut alors copier ses données selon sa politique 
de sauvegarde. 
Cette solution offre l’avantage de ne plus avoir à gérer les sauvegardes par du matériel ou des ressources internes 
à l’entreprise, car elles sont externalisés à un prestataire via un réseau haut débit. 
Par contre, il est nécessaire de bien définir le contrat de prestation avec le partenaire sous la forme d’un accord sur 
la qualité de service (disponibilité et confidentialité des données), la politique de sauvegarde. 
Cette  solution  permet  à  l’entreprise  de  définir  des  critères  pour  automatiser  ses  sauvegardes  en  fonction  de  ses 
besoins : fréquence et horaires, types de fichiers, répertoires des disques dur à enregistrer. Une fois l’outil configuré, 
le système d’exploitation du serveur ou du poste de travail se connecte automatiquement via Internet sur le site du 
prestataire  et  lance  la  sauvegarde.  Les  données  sont  d´abord  compressées,  puis  chiffrées  et  envoyées  sur  les 
serveurs distants. 

f. La sauvegarde synthétique 

La sauvegarde synthétique relative à l’application de sauvegarde permet de fusionner une sauvegarde complète et 
les sauvegardes incrémentales intermédiaires afin d’obtenir une nouvelle sauvegarde complète. 
Ce  type  de  sauvegarde  se  crée  à  partir  d’une  sauvegarde  complète  écrite  indépendamment  sur  un  périphérique 
composé  de  disques  ou  de  bandes  et  de  sauvegardes  incrémentales  écrites  sur  un  périphérique  du  même  type. 
Cette fonctionnalité est essentiellement gérée par l’application de sauvegarde. 

La  restauration  d’une  telle  sauvegarde  est  équivalente  quant  à  son  principe  à  celle  effectuée  à  partir  d’une 
sauvegarde  complète  classique.  Par  contre,  elle  permet  de  gagner  beaucoup  de  temps  car  elle  s’exécute  en  une 
seule fois étant donné que les sauvegardes intermédiaires sont intégrées sur le support de sauvegarde. 

g. La sauvegarde en ligne 

Ce type de sauvegarde est parfois adopté lorsque le parc d’ordinateurs portables à gérer dépasse un certain seuil. À 
partir  du  moment  où  l’entreprise  utilise  de  plus  en  plus  de  postes  nomades,  donc  très  souvent  déconnectés  du 

© ENI Editions - All rigths reserved - Jonifar lina - 5-


85
réseau,  il  est  souhaitable  d’opérer  des  sauvegardes  à  distance,  car  statistiquement  les  sauvegardes  locales  sont 
réalisées de moins en moins souvent. 

h. Comparaison des types de sauvegardes 

Type de sauvegardes  Avantages  Inconvénients 

Normale (complète)  Lors de la restauration, les fichiers sont  Demande beaucoup de temps et de 


faciles à trouver parce qu’ils sont  place de stockage pour réaliser la 
présents sur le support de sauvegarde.  sauvegarde. Si les fichiers ne sont pas 
Cela facilite la copie de fichiers à partir  beaucoup modifiés ou le sont peu, les 
du support.  sauvegardes sont pratiquement 
identiques.  
Ce type de sauvegarde est 
recommandé pour la sauvegarde des 
fichiers du système d’exploitation. 

Incrémentale   Demande moins de place pour le  La restauration complète d’un système 


stockage des données. Permet des  peut prendre beaucoup plus de temps 
sauvegardes rapides.  qu’une sauvegarde normale ou 
différentielle. 

Différentielle   Une restauration demande seulement le  La restauration complète d’un système 


support des dernières sauvegardes  peut prendre beaucoup plus de temps 
complètes et différentielles. Permet une  qu’une sauvegarde normale. S’il existe 
sauvegarde plus rapide qu’une  beaucoup de grands changements sur 
complète.  les fichiers, les sauvegardes de ce type 
peuvent prendre plus de temps que 
des sauvegardes incrémentales. 

Copies auxiliaires (clones)  Réalise l’exacte copie des supports de 
sauvegarde pour la redondance des 
supports. Les copies de support 
s’effectuent plus rapidement que la 
sauvegarde classique. Elles peuvent 
être stockées dans un endroit sécurisé 
dans l’éventualité d’un sinistre. 

Complète synthétique  Effectue la consolidation entre une  Demande à effectuer des opérations 


sauvegarde complète et des  supplémentaires, le matériel de 
sauvegardes incrémentales dans une  stockage et des supports disponibles. 
sauvegarde normale dans un 
équipement qui peut être dans un 
réseau différent de celui de production 
ou des serveurs critiques. Le temps de 
restauration des données est nettement 
réduit. 

i. Avantages et inconvénients des différents types de sauvegarde 

Quand le type de sauvegarde à effectuer a été décidé, il est important de tenir compte de l’impact de l’exécution des 
sauvegardes  sur  la  bande  passante  du  réseau  et  le  temps  nécessaire  pour  restaurer  les  données  à  partir  des 
supports de sauvegarde. 

Il est recommandé de définir les fenêtres de sauvegarde pendant des périodes de moindre utilisation des serveurs 
utilisés  pour  la  production  (système  d’information).  De  plus,  il  est  nécessaire  de  tenir  compte  de  l’architecture  du 
réseau  informatique  en  place.  Il  sera  peut­être  utile  de  l’optimiser  pour  éviter  des  points  d’étranglement  qui  vont 
limiter le flux des données, des surcharges de l’utilisation de la bande passante selon les sous­réseaux et selon les 
périodes de son utilisation. 

Si des sauvegardes à distance sont à réaliser, il faudra tenir compte de l’éloignement des clients à sauvegarder et 
des  difficultés  de  transmission  qui  peuvent  survenir.  C’est  pour  cela  qu’il  est  recommandé  d’effectuer  les 
sauvegardes incrémentales et complètes des clients à distance sur des unités de stockage sous forme de disques 
plutôt que de bandes pour éviter de bloquer l’unité d’écriture dans la bandothèque. Les données sauvegardées sur 
disques peuvent être alors aisément copiées, par la suite, sur bandes ou cartouches magnétiques pour satisfaire la 
stratégie de sauvegarde mise en place. 

- 6- © ENI Editions - All rigths reserved - Jonifar lina


86
4. Les périphériques de sauvegarde 

La  durée  nécessaire  pour  effectuer  une  sauvegarde  dépend  aussi  du  type  de  périphérique  utilisé.  Il  peut  être  un 
lecteur de bandes, un robot de sauvegarde associé à une bandothèque ou plus spécifiquement une unité de disques. 
Chaque  constructeur  informatique  propose  des  modèles  de  périphériques  qui  vont  de  la  simple  unité,  pouvant 
s’intégrer  dans  un  serveur  autonome,  au  dispositif  appelé  robotique.  Ce  matériel  comporte  plusieurs  unités  de 
lecture/écriture de bandes magnétiques et un nombre conséquent d’emplacements de stockage physique (slots) dans 
un  magasin.  Cette  unité  de  stockage,  appelée  aussi  robotique  incorpore  une  mécanique  complexe  de 
chargement/déchargement des supports pour une gestion automatisée. 

5. Les supports de sauvegarde 

La solution la plus pratique actuellement se présente sous forme de cartouches de bande magnétique. De petite taille, 
elles offrent une capacité de plusieurs dizaines à quelques centaines de giga­octets et une longévité beaucoup plus 
importante que les supports optiques. 
Les cartouches se présentent sous plusieurs formats, en fonction des besoins : 

● DAT (format d’enregistrement dérivé du format d’enregistrement du son) pour les petits serveurs, 

● DLT ou SDLT (format d’enregistrement des données en serpentin) pour les serveurs de moyenne capacité, 

● LTO (Linear Tape Open) pour les plus grosses architectures de serveurs, 

● LTO WORM de 3ème Génération (WORM :  Write Once, Read Many ­  Ecriture  Unique,  Lecture  Multiple)  pour  un 


stockage sécurisé. 

Exemples de taux de transfert sur supports de sauvegarde

Lecteurs de bandes  ULTRIUM 2  ULTRIUM 3  ULTRIUM 4 

Capacité (Go)  400  800  1600 

Capacité native (sans compression 
200  400  800 
de données) 

Taux de transfert 
108  288  612 
Sans compression (Go/h) 

Exemples de performance des supports de sauvegarde

Capacité  Durée de vie 
Technologie  Constructeur  Enregistrement/Débit 
Native (Go)  (années) 

Hélicoïdale / 30 à 60 
SAIT­1­500  Sony  500/1300  10­25 
Mo/s 

AIT1­40N  Sony   40/104  Hélicoïdale / 12Mo/s  10­25 

AIT2­80C  Sony  80/208  Hélicoïdale / 12Mo/s  10­25 

DAT DDS3  Sony ­TDK  12/24  Linéaire /  10­25 

Sony­HP­Quantum ­ 
DAT DDS4  20/40  Linéaire /  10­25 
Imation 

Sony­ HP­Quantum ­ 
DAT 72  36/72  Hélicoïdale /  10­25 
TDK ­ Imation 

DAT 160  Quantum ­ Sony  80/160  Linéaire /  10­30 

© ENI Editions - All rigths reserved - Jonifar lina - 7-


87
DLT­Tape VS1  Quantum ­ Sony  80/160/320  Linéaire / 8/16/20  10­30 

SDLT 1  Quantum­TDK ­ Sony  160/320  Linéaire / 16 Mo/s  10­30 

SDLT 2  Quantum­TDK ­ Sony  300/600  Linéaire / 16 Mo/s  10­30 

SDLT 3 / DLT ­S4  Quantum­TDK ­ Sony  800/1600  Linéaire / 16 Mo/s  10­30 

LTO 2  IBM­HP­Quantum­TDK  200/400  Linéaire / 40 Mo/s  10­30 

LTO 3  IBM­HP­Quantum  400/800  Linéaire / 80 Mo/s  10­30 

LTO 3 WORM  Imation ­ Quantum   400/800  Linéaire / 160 Mo/s  30 

LTO 4  IBM­HP­Quantum  800/1600  Linéaire / 80 Mo/s  10­30 

CD­ROM  0,640  <10 

DVD  9,4  Inconnu pour l’instant 

Lecture : 2 à 6 Mo/s 
Magnéto­optique  2,5 à 4,6  Inconnu pour l’instant 
Ecriture : 1,7 à 3 Mo/s 

Particularités de la cartouche LTO WORM

Elle  offre  des  particularités  dans  le  cas  d’archivage,  c’est  la  seule  solution  non  réinscriptible  pour  répondre  aux 
exigences renforcées de conservation et d’archivage des données sous contraintes légales. Son utilisation avec des 
applications  de  sauvegarde  classiques  va  garantir  que  les  données  resteront  intactes  pendant  toute  leur  durée  de 
préservation. C’est le cas, par exemple de documents financiers ou confidentiels, de brevets industriels, de dossiers 
de messagerie. 
Les données sur les cartouches WORM ne peuvent être effacées qu’en effectuant une opération de désaimantation, 
ce qui correspond à une modification de l’état des particules magnétiques présentes sur la cartouche. 

En  réalité,  les  données  stockées  sur  ces  cartouches  sont  à  l’abri  de  toute  mauvaise  manipulation  qui  pourrait 
s’effectuer sur une unité de bandes magnétiques. Les informations enregistrées sont donc en totale sécurité. 
Les  cartouches  WORM  LTO  3  Ultrium  sont  compatibles  avec  les  lecteurs  LTO­3  de  certains  constructeurs.  Cela  peut 
nécessiter parfois la mise à niveau des matériels. 

Les  lecteurs  LTO  Ultrium  de  troisième  génération  peuvent  uniquement  lire  les  supports  de  première 
génération,  ceux  de  quatrième  génération  les  supports  de  deuxième  génération.  Cela  implique  que  les 
cartouches LTO­3 WORM, ne peuvent être ni écrites ni lues dans les lecteurs de première génération. 

6. La gestion des supports et périphériques dans l’application de sauvegarde 

Ce chapitre traite des supports de sauvegarde sous forme de bandes magnétiques. 

a. Critères de choix 

● le prix de l’unité de lecture/écriture, 

● le  prix  du  support  (le  coût  total  des  cartouches  nécessaires  à  un  an  de  besoins  en  sauvegardes  peut 
dépasser ce prix du lecteur), 

● la capacité totale disponible sur chaque cartouche, 

● la compatibilité ascendante en fonction des modèles, 

- 8- © ENI Editions - All rigths reserved - Jonifar lina


88
● la standardisation du matériel, 

● les besoins en stockage exprimés par l’infrastructure. 

Notions de durées de vie

MTBF (Mean Time Between Failure) de l’unité de lecture/écriture : 400 000 heures. 
Durée de vie de la tête d’enregistrement : 50 000 heures. 

Nombre d’utilisations maximum du support magnétique : 2 000 à 3 000 passages. 
Durée maximale de conservation théorique des informations : 30 ans. 

Archivage légal et à long terme

L’AFNOR  a  défini  un  ensemble  de  normes,  la  principale :  NF  Z42­013.  Cette  norme  traite  de  la  conservation  et  de 
l’intégrité des documents dématérialisés. 

b. Gestion des supports et des pools 

Les supports de sauvegarde sont regroupés dans des unités logiques appelées pools de supports (media pools). 
De  façon  à  mieux  gérer  ces  media,  de  plus  en  plus  d’unités  de  sauvegarde  sont  équipées  d’un  dispositif  de 
reconnaissance et de gestion des codes­barres. 
Certains  supports  sont  équipés  d’un  dispositif  d’identification  sous  cette  forme.  Ce  qui  permet  l’affichage  et  la 
gestion des supports utilisés par les logiciels de sauvegarde dans les bandothèques. 

Le pool de supports (Media Pool)

C’est l’unité de base du stockage, c’est­à­dire un regroupement logique de supports associé à une classe d’unité du 
même type physique. 
La structure des pools, leur nombre, le type de données sont déterminés en fonction des besoins. Cette structure 
peut être organisée sous la forme d’une hiérarchie de stockage. 
Lorsqu’un périphérique est configuré, un pool de supports par défaut est spécifié si aucun autre n’est défini dans la 
spécification de sauvegarde. La définition des noms des différents pools de media est à la charge de l’administrateur 
responsable des sauvegardes. Un pool peut être restreint à certains périphériques. 
La ressource pool permet de définir des filtres qui vont agir à chaque sauvegarde pour orienter les données vers la 
ressource correspondante. 
Il existe différents niveaux de filtres : 

● Le  premier  est  lié  au  type  des  données,  par  exemple :  Backup,  Archive,  Migration,  Backup  Clone,  Archive 
Clone, Migration Clone… 

● Le deuxième est composé de quatre filtres successifs et prioritaires : le groupe, le client, le sous­ensemble 
de sauvegarde (save­set), le niveau de sauvegarde. 

Gestion des pools de supports

La gestion de ces supports au niveau de l’entreprise peut s’avérer extrêmement complexe. 

Pour  cela,  l’application  de  sauvegarde  doit  fournir  les  fonctions  décrites  ci­dessous,  afin  de  réaliser  une  gestion 
simple et efficace : 

● la gestion des pools de supports, 

● le suivi de tous les médias, l’enregistrement de leur situation : l’état, le délai d’expiration de la protection des 
données, la disponibilité pour les sauvegardes, 

● les stratégies de rotation d’utilisation automatisée des supports pour éviter de devoir effectuer une gestion 
manuelle, 

● la  définition  explicite  des  supports  et  des  périphériques  devant  être  utilisés  pour  les  opérations  de 

© ENI Editions - All rigths reserved - Jonifar lina - 9-


89
sauvegarde, 

● la gestion des supports pour différents types de périphériques, tels que les unités de stockage autonomes, 
bandothèques… 

● des processus automatisés pour aider l’utilisateur dans le cadre d’opérations courantes, 

● la reconnaissance et prise en charge des codes­barres (autocollants de repérage présents sur les supports 
utilisables) sur les périphériques comportant plusieurs lecteurs. 

● une fonction de reconnaissance automatique des formats de support de l’application de sauvegarde installée 
et d’autres formats (originaires d’applications différentes) avec toutefois l’impossibilité d’enregistrer sur des 
supports formatés avec d’autres outils, 

● la conservation dans une base de données, interne à l’application, des informations sur les supports utilisés, 

● la création interactive ou automatisée de copies supplémentaires des données sur les supports. 

Pools de stockage et de supports mélangés

Ceci inclut les formats décrits précédemment : LTO1, LTO2, LTO3 et LTO4. Chaque format de support unique doit être 
relié à un pool de stockage distinct à travers sa propre classe d’unité. Plusieurs pools de stockage et leurs classes 
d’unité de types différents peuvent se référer vers une même unité de bandes qui les prend ainsi en charge. 
Les  volumes  de  pools  de  stockage  représentent  donc  les  supports  physiques  qui  sont  affectés  à  un  pool  de 
stockage. Voici quelques exemples de volumes : 

● espace alloué sur une unité de disque, 

● cartouche magnétique, 

● disque optique. 

Les  pools  de  stockage  et  leurs  volumes  sont  en  accès  aléatoire  ou  séquentiel,  en  fonction  du  type  de  la  classe 
d’unités à laquelle le pool est affecté. 
Support de données équipé d’étiquette autocollante avec code­barres 
L’application  de  sauvegarde  doit  prendre  en  charge  les  périphériques  de  type  robotique  à  multiples  unités 
d’enregistrement  équipés  d’un  lecteur  de  code­barres.  À  l’intérieur  de  ces  périphériques  chaque  support  dispose 
d’une étiquette l’identifiant de manière unique. 

● L’analyse  des  codes­barres  des  supports  contenus  dans  un  référentiel  de  périphérique  permet  d’accélérer 
les opérations de sélection. Cela dispense l’application de sauvegarde de prendre en charge chaque support 
dans  le  dispositif  de  lecture  et  de  vérifier  leur  en­tête  sur  lequel  sont  enregistrées  les  caractéristiques  du 
media. 

● L’information  de  code­barres  peut  être  directement  lue  par  l’application  de  sauvegarde.  Ce  qui  permet 
d’identifier le support de manière certaine. 

● Une bande nettoyante peut être automatiquement détectée si elle dispose d’un préfixe de code­barres de 
type CLN. Le nettoyage des enregistreurs peut ainsi être géré directement par l’application sans intervention 
manuelle. 

● Chaque code­barre  fournit  un  identifiant  unique  pour  chaque  support  dans  la  base  de  données  interne  de 
l’application. Il ne peut donc pas exister deux informations identiques de codes­barres dans l’environnement 
de sauvegarde. 

c. Cycle de vie des supports 

Le cycle de vie caractéristique des supports est composé des phases suivantes : 

● La  préparation  pour  la  sauvegarde.  Cette  phase  comporte  l’initialisation  (formatage)  en  vue  de  l’utilisation 

- 10 - © ENI Editions - All rigths reserved - Jonifar lina


90
future avec le logiciel de sauvegarde. 

● L’utilisation pour les opérations de sauvegarde et de restauration. 

● La  mise  au  coffre  (mise  en  lieu  sûr)  pour  un  stockage  des  données  et  la  création  de  copies  de  supports 
supplémentaires pour le long terme en cas de besoin ou prévision de sinistre. 

● Le  recyclage  pour  de  nouvelles  opérations  de  sauvegarde  une  fois  que  les  données  contenues  sur  les 
supports ne sont plus utiles, ce qui permet d’optimiser leur utilisation. 

● La mise hors service. Lorsque l’un d’entre eux est arrivé à une expiration d’utilisation, il doit être retiré de la 
bandothèque ; il peut cependant être relu lors d’une restauration. 

d. Formatage des supports 

Les logiciels de sauvegarde ne permettent, en général, d’écrire que sur des supports vierges qui ont été initialisés 
(formatés). 
Dans le fonctionnement normal, le logiciel de sauvegarde initialise (formate) automatiquement les supports dont il a 
besoin, les met dans le pool qui convient et les utilise ; il écrit sur la bande une étiquette (ou label) par défaut ou 
selon une configuration définie auparavant. 
Il  est  possible  d’initialiser  (formater)  des  supports  manuellement ;  il  faut  alors  préciser  à  quel  pool  de  supports  ils 
appartiennent et leur donner une étiquette (label). 

e. Prise en charge des bandes nettoyantes 

En général, le logiciel de sauvegarde gère automatiquement les bandes ou cartouches de nettoyage. Si ce n’est pas 
le cas, cela peut être le rôle du robot de sauvegarde et de la bandothèque associée. Il reconnaît automatiquement 
les  codes­barres  de  la  bande  nettoyante,  grâce  au  préfixe  CLN.  Lorsqu’une  bande  de  nettoyage  a  atteint  son 
nombre maximum d’utilisation, l’application de sauvegarde le signale et la cassette doit être remplacée. 

f. Protection des données écrites sur les supports 

Le  logiciel  de  sauvegarde  permet  de  spécifier  pendant  combien  de  temps  les  données  stockées  sur  les  supports 
doivent être protégées contre toute réécriture. Cette protection peut être définie en dates absolues ou relatives. 
Si  la  stratégie  de  sauvegarde  impose  que  les  données  soient  protégées  définitivement  ou  avec  une  longue 
échéance, le nombre de supports nécessaires pour les sauvegardes augmentera constamment. 

g. Recommandations pour la gestion des bandes ou cartouches magnétiques 

La  gestion  des  supports  dépend  de  la  stratégie  de  sauvegarde  mise  en  place.  Toutefois,  les  recommandations 
suivantes peuvent être appliquées dans l’entreprise. 

● Effectuer une sauvegarde complète au moins tous les 7 à 30 jours pour chaque serveur. 

● Configurer  des  sauvegardes  différentielles  ou  incrémentales  quotidiennement  (pendant  des  périodes  de 
moindre utilisation) avec une durée minimale de rétention pour les supports magnétiques de 90 jours. 

● Utiliser des supports différents pour l’archivage des données. 

Il  est  impératif  de  ne  pas  combiner  des  sauvegardes  classiques  avec  des  archives  sur  le  même  support, 
l’utilisation  est  complètement  différente.  Cette  façon  de  procéder  peut  amener  au  recyclage  et  à  la 
réutilisation du média provoquant la destruction des données d’archivage. 

Chaque support utilisé par un serveur de sauvegarde doit porter un nom unique. Cela s’applique à tous (ceux qui 
sont utilisés pour des pools de stockage ou pour des opérations telles que des sauvegardes ou des exportations de 
base de données). Cela s’applique également aux supports qui se trouvent dans des bandothèques différentes mais 
qui sont utilisés par le même serveur. 

© ENI Editions - All rigths reserved - Jonifar lina - 11 -


91
Gestion des supports après une session de sauvegarde

Une fois les opérations d’écriture effectuées, il est indispensable de prendre les mesures nécessaires pour protéger 
les données stockées. Cela implique de prendre les bonnes pratiques suivantes : 

● Protection des supports contre les effacements ou réécritures manuels. 

Bien que définie au moment de la configuration de la sauvegarde, il est possible de la modifier par la suite. 

● Protection des supports contre les dommages physiques, d’où un stockage dans un endroit sécurisé. 

La gestion des supports consiste à maintenir un stock adapté par rapport aux consommations constatées. Elle doit 
être revue lorsque le périmètre de sauvegarde évolue. 
Afin  de  minimiser  les  risques  d’éléments  défectueux,  il  est  utile  de  remplacer  périodiquement  et  au  moins 
annuellement les cartouches très utilisées. 

La mise au coffre

Selon la politique mise en œ uvre, les supports de sauvegarde sont généralement entreposés à différents endroits. 
Ils doivent être, de préférence, retirés rapidement de l’unité de sauvegarde et stockés dans un lieu protégé afin de 
minimiser  l’impact  suite  à  une  perte  de  données  dans  le  cas  d’une  destruction  complète  ou  partielle  de  la  salle 
informatique. 
Par exemple, les sauvegardes de données sont généralement stockées sur site dans un coffre sécurisé et ignifugé 
pour que les données puissent être rapidement restaurées en cas de besoin, tandis que les copies des supports de 
sauvegarde sont stockées hors site pour des raisons de sécurité. 

Le stockage hors site

À  partir  du  moment  où  les  supports  ont  été  enregistrés  et  recopiés,  ils  doivent  être  entreposées  dans  un  endroit 
sécurisé (à l’abri du feu ou d’un vol) et dans un endroit éloigné de celui où ils ont été copiés. 

7. Les copies de supports (clonage) 

La  duplication  de  données  sauvegardées  présente  plusieurs  avantages  dont  le  fait  de  permettre  d’améliorer  leur 
sécurité et leur disponibilité ou encore permet leur utilisation à des fins d’externalisation. 

La procédure consiste à créer une copie exacte d’un support de sauvegarde. Une fois cette opération effectuée, il est 
possible de stocker la copie dans un site éloigné et mise au coffre. Le support contenant la copie ou la source peut 
indépendamment être utilisé pour restaurer les données qu’il contient. 
Les deux dispositifs de lecture/écriture utilisés pour cette opération dans le périphérique de sauvegarde doivent être 
de même type et de même capacité, mais ils ne feront pas forcément partie de la même robotique. Par contre, si les 
matériels sont différents, il est préférable qu’ils soient connectés physiquement sur le même serveur de sauvegarde. 
Le support de destination doit se trouver obligatoirement dans le même pool que celui de la source. 

Il est possible de planifier le processus de copie. 

● Copie  de  supports  après  sauvegarde :  l’opération  est  effectuée  juste  après  la  fin  de  la  session  de 
sauvegarde. Le support utilisé est celui utilisé lors de la session en question. 

● Copie de supports programmée : l’opération est effectuée à une heure définie par un ordonnanceur et peut 
être réalisée en une seule session de sauvegarde, ou avec des spécifications différentes. 

Choix du support de stockage approprié

Selon la stratégie mise en œ uvre, le choix du type de support doit répondre aux contraintes suivantes : 

● le montant total des données à sauvegarder, selon les types (fichiers, bases de données…), 

● les types de données à sauvegarder (fichiers, bases de données…), 

● la fenêtre de sauvegarde, 

- 12 - © ENI Editions - All rigths reserved - Jonifar lina


92
● l’environnement (systèmes d’exploitation, applications spécifiques aux métiers de l’entreprise, localisation des 
machines à sauvegarder…), 

● la distance, dans l’architecture de réseau, entre les systèmes à sauvegarder et l’unité de sauvegarde, 

● les  accords  de  niveau  de  service  avec  les  entités  de  l’entreprise  pour  les  besoins  de  restaurations  de 
données. 

8. Les sauvegardes sur disque, la bibliothèque virtuelle 

a. Sauvegarde disque vers disque vers bande 

Certaines applications de sauvegarde proposent une solution de copie sur disques et sur bandes magnétiques pour 
répondre à des besoins de sécurité renforcés des données dans le cadre des systèmes d’informations. 
Cette solution permet de créer de manière transparente une architecture utilisant à la fois des supports sous forme 
de  disques  et  de  bandes  magnétiques  (disque  vers  disque  vers  bande)  sans  perturber  les  stratégies  de 
sauvegarde  existantes.  En  effet,  les  données  sont  copiées  sur  une  unité  de  disques  puis  migrées  de  manière 
synchrone  ou  asynchrone  sur  une  unité  de  bandes  selon  des  règles  établies  dans  la  gestion  du  logiciel  de 
sauvegarde. 
Ce type de copie utilise le principe de la bandothèque ou bibliothèque virtuelle. 
Le  principe  de  sauvegarde  couramment  utilisé  est  basé  sur  la  copie  de  disque  vers  bandes  (Disk  to  Tape),  la 
restauration  s’effectuant  de  bandes  vers  disques.  Toutefois,  la  capacité  toujours  plus  importante  des  unités  de 
disques pour les données et les applications, l’utilisation d’unités de disques de type SAN impliquent des temps très 
longs  de  restaurations  d’informations  de  bandes  vers  disques.  En  effet,  la  lecture  des  données  sur  une  bande 
magnétique est réalisée sous un mode séquentiel alors que le mode de lecture sur disques s’opère en mode direct. 
II est donc possible d’utiliser de l’espace disque (les coûts des disques ayant tendance à diminuer) pour effectuer ou 
partie ou l’ensemble des sauvegardes sous la forme d’une copie de disque à disque (Disk To Disk) et de prolonger 
cette copie sur bandes (Disk to Disk to Tape). 

Cette possibilité permet de réaliser des copies de disque à disque selon une planification optimale et de copier les 
données  vers  des  bandes  magnétiques  ultérieurement.  Les  performances  des  serveurs  ne  sont  pas  perturbées 
pendant  les  copies  de  disque  à  disque.  Par  contre,  en  cas  d’urgence, les données sauvegardées sont rapidement 
restaurées. 
L’avantage  est  de  pouvoir  réaliser  des  restaurations  rapides  (de  disque  vers  disque),  tout  en  gardant  des 
sauvegardes  de  sécurité  sous  forme  de  support  de  bandes  magnétiques.  Celles­ci  conservent  leurs  fonctions 
d’origine. 

Sur d’autres applications de sauvegarde, le nom peut être différent (volumes séquentiels) mais le principe 
reste le même. 

Cette architecture (disque vers disque vers bande) a de nombreux avantages outre l’aspect sécurité et disponibilité 
des données. 

Au  point  de  vue  exploitation,  les  administrateurs  peuvent  vérifier  le  contenu  de  n’importe  quelle  bibliothèque 
virtuelle, afficher et administrer facilement plusieurs pools de stockage ou exporter les données sur bande pour un 
archivage hors site. 
Ils  peuvent  aussi  aisément  moduler  (augmenter  ou  diminuer)  facilement  la  capacité  nécessaire  pour  améliorer  les 
performances en ajoutant des unités de stockage ou des lecteurs de disques virtuels. 
Grâce aux données sur disque et à leur migration sur bande en blocs volumineux, la maintenance des lecteurs et des 
médias  est  plus  simple,  les  taux  de  défaillance  sont  réduits.  Par  conséquent,  la  fiabilité  des  matériels  et  la 
disponibilité des données sont améliorées. 
La capacité maximale de la bibliothèque est identique à la capacité maximale du système de fichiers sur lequel elle 
réside. Chaque dépôt de fichier possède une capacité maximale définie par l’application de sauvegarde. Les dépôts 
de fichier sont créés automatiquement selon les besoins. Cela permet de libérer de l’espace disque pour permettre 
au périphérique de continuer à enregistrer des données. 
Au point de vue supervision, les administrateurs sont avertis en temps utile. En effet, un message d’avertissement 
est inscrit dans le journal des événements si l’espace disque disponible approche le minimum configuré requis pour 
que le périphérique fonctionne. 
Le périphérique de bibliothèque de fichiers crée automatiquement de nouveaux dépôts de fichier si une sauvegarde 
particulière requiert plus d’espace que n’en contient un seul dépôt de fichiers. 
Autre  avantage,  le  format  de  données  des  périphériques  sur  disque  s’appuie  sur  le  même  format  que  celui  des 

© ENI Editions - All rigths reserved - Jonifar lina - 13 -


93
données pour bandes. 

b. La bibliothèque virtuelle de sauvegarde ou VTL (Virtual Tape Library) 

Ce principe de sauvegarde utilise une architecture de type : Système de bibliothèque virtuelle (VLS : Virtual Library 
System ou VTL : Virtual Tape Library). 

Il s’agit d’une solution en même temps matérielle et logicielle qui fait qu’une unité de disques apparaît à l’application 
de  sauvegarde  comme  une  bandothèque.  Ce  dispositif  apparaît  à  tous  les  processus  comme  étant  une  unité 
physique standard de bandes magnétiques, par contre ils opèrent avec la vitesse et la fiabilité d’unités de disques. 
Ce dispositif présente un avantage pour les systèmes de production à protéger. En effet, il n’est plus nécessaire de 
fonctionner en mode dégradé quand les sauvegardes sont en train de s’exécuter ni de passer du temps à attendre 
une opération de restauration des données. 
Dans  un  cas  classique  de  scénario,  les  données  des  systèmes  de  production  sont  sauvegardées  vers  cette 
bibliothèque virtuelle qui, à son tour, transfère les données de sa propre sauvegarde vers les supports de bandes 
selon la stratégie de sauvegarde définie localement. 

Aussi  longtemps  que  cela  est  nécessaire,  les  données  résident  sur  la  bibliothèque  virtuelle  à  base  d’unités  de 
disques,  ces  données  sont  ainsi  accessibles  très  rapidement  sans  attendre  la  restauration  à  partir  des  bandes 
magnétiques. 

Pratiquement,  les  restaurations  réalisées  à  partir  de  sauvegardes  incrémentales  et  de  la  sauvegarde  complète  la 
plus récente sont immédiatement disponibles à partir du système de bibliothèque virtuelle. La récupération est ainsi 
plus rapide. 
Cette  technique  utilise  un  système  de  consolidation  de  données  au  lieu  de  les  copier  en  plusieurs  endroits. 
L’opération prend ainsi moins de temps et évite une duplication inutile. 

9. Le stockage virtuel 

Utilisation d’un SAN (Storage  Area  Network) pour l’implémentation de bibliothèque virtuelle ou pour le principe 


du Disk to Disk to Tape 
Solution logicielle élaborée en fonction du système d’exploitation. En général, le serveur de sauvegarde utilise la suite 
des systèmes d’exploitation Windows. 
Virtualisation du stockage 
Cette technologie permet de séparer la représentation logique du stockage des composants de stockage physiques 
réels. Elle comprend la création de volumes logiques en dehors d’un pool de disques physiques résidant sur une unité 
de stockage composée de baie de disques. 

Un volume logique est limité au cadre du pool mais peut s’étendre sur un nombre non défini de disques physiques au 
niveau du stockage. 

10. Les clés d’une bonne sauvegarde 

Pour  éviter  des  pertes  complètes  de  données,  il  est  indispensable  d’effectuer  des  sauvegardes  régulières 
(quotidiennes au minimum) ainsi, en cas de perte, les données récupérées seront récentes et la perte d’information 
limitée. 
Il est, de plus, recommandé de réaliser des copies lors de chaque changement ou mise à jour important du système 
d’information (matériel, système d’exploitation, application…) ainsi, en cas de mauvais fonctionnement menant à une 
panne ou à un défaut de redémarrage, les données récupérées permettront la remise en état du système. 

Pour  s’assurer  de  bien  récupérer  les  informations  dans  les  cas  les  plus  critiques,  il  est  préconisé  de  conserver  les 
supports de sauvegardes dans un lieu différent, éloigné de la localisation du serveur de sauvegarde. Ainsi, en cas de 
sinistre ou de vol, les données seront épargnées. 

Pour ne pas entraver l’activité de l’entreprise il convient d’effectuer l’opération de sauvegarde pendant des périodes 
de moindre utilisation de l’infrastructure informatique (nuit, week­end) et bien sûr, de l’automatiser. 

Les sauvegardes doivent être réalisées à intervalles réguliers de telle façon que la récupération se fasse dans l’état le 
plus récent possible. 
Les procédures mises en place pour les sauvegardes et les restaurations doivent être bien garanties. Si possible, leur 
efficacité dans des situations réelles doit avoir été testée complètement, surtout pour la validité des restaurations. 
Plusieurs  générations  de  copies  de  sauvegarde  doivent  être  conservées.  Cela  fournit  plus  de  flexibilité  et  de 
consistance au processus de restauration. 
Le  choix  de  l’application  de  sauvegarde,  qui  s’avère  très  importante  pour  la  sécurité  de  ses  données,  doit 

- 14 - © ENI Editions - All rigths reserved - Jonifar lina


94
correspondre  aux  besoins  de  l’entreprise  dans  le  cadre  de  la  gestion  de  la  disponibilité  de  ses  données.  Il  est 
recommandé que l’entreprise ou le responsable du système d’information puisse tester le logiciel le plus adéquat. Cela 
est  réalisable  en  demandant  à  l’éditeur  une  version  d’évaluation  pour  bien  valider  que  le  logiciel  est  bien  adapté  à 
l’environnement de l’entreprise et que son efficacité pourra être prouvée dans toutes les circonstances, surtout pour 
les scénarios de sinistre ou d’incident les plus graves. 

11. La base de données de sauvegarde 

a. Le concept 

En  général,  le  logiciel  de  sauvegarde  enregistre  les  informations  utiles  (données  sur  les  clients  de  sauvegarde,  la 
gestion des plannings et des politiques de sauvegarde) dans une base de données interne. 
Ces informations y sont mises à jour lors de chaque opération, ce qui implique que la taille de cette base augmente, 
en général, avec le nombre et la taille des sauvegardes effectuées. 
La base de données inclut des informations concernant : 

● les postes clients et les administrateurs, 

● les règles et les plannings, 

● les paramètres du serveur, 

● l’emplacement des fichiers client sur l’espace de stockage du serveur, 

● les opérations du serveur (par exemple, les journaux d’activité et les enregistrements d’événement). 

Cette  base  de  données,  appelée  aussi  catalogue  ou  base  d’index  selon  l’application,  réside  sur  le  serveur  de 
sauvegarde principal. Elle comporte toutes les informations sur les données sauvegardées, les supports sur lesquels 
elles  ont  été  copiées,  les  résultats  des  opérations  de  sauvegarde,  de  restauration,  de  copie,  sur  la  gestion  des 
supports ainsi que les périphériques et équipements configurés par l’application. 
Elle comprend aussi plusieurs autres fonctionnalités : 

● Elle permet une restauration rapide et facile. 

Elle  contient  toutes  les  informations  permettant  de  retrouver  rapidement  les  supports  requis  pour  une 
restauration à partir d’une recherche sur les éléments à recopier. 

● Gestion des évènements lors des opérations. 

L’accès  aux  informations  de  la  base  de  données  permet  de  vérifier  le  déroulement  des  opérations  de 
sauvegardes ou de copies. 

● Gestion des supports. 

À partir des informations disponibles, l’application peut effectuer automatiquement une gestion des supports 
pendant les opérations de sauvegarde, de copie, de réaliser d’autres opérations dans les périphériques de 
bandes ou de disques en liaison avec les pools de supports définis. 

Cette base de données peut s’accroître énormément. La vérification périodique de l’espace utilisé sur le serveur de 
sauvegarde est indispensable. Un outil de supervision prenant en compte les disques du serveur est recommandé. 

L’augmentation  non  contrôlée  de  l’espace  d’allocation  peut  avoir  un  impact  important  sur  les  performances  du 
système de sauvegarde principal et sur les sauvegardes. 

Outre  le  contrôle  de  son  expansion,  il  est  nécessaire  de  configurer  l’application  pour  garder  uniquement  les 
informations nécessaires et de trouver le bon équilibre entre les besoins liés à l’exploitation d’une part, la taille et la 
croissance de la base de données d’autre part. 
Cela implique aussi que l’administrateur en charge de l’application comprenne bien le fonctionnement de cette base 
de données et puisse intervenir en temps utile. 

© ENI Editions - All rigths reserved - Jonifar lina - 15 -


95
b. La sauvegarde de la base de données 

Comme  cette  base  est  l’élément  le  plus  critique  du  logiciel,  elle  est  en  général  copiée  périodiquement 
(quotidiennement  au  moins)  sur  les  supports  de  sauvegarde  par  l’application.  Dans  le  cas  d’un  incident  grave  au 
niveau du serveur de sauvegarde, les exploitants doivent pouvoir la récupérer en premier pour pouvoir reprendre les 
opérations, principalement la restauration de données. 

12. Les notifications 

Le serveur de sauvegarde utilise des ressources spécifiques, transmettant les comptes rendus, les informations et les 
alertes relatives aux opérations sur le serveur de sauvegarde. 

À chacune d’entre elles correspond un événement par exemple, nettoyage des lecteurs, fin de sauvegarde, vérification 
des index, expiration des licences, etc. 

À chaque évènement correspond une priorité (information, notification, alerte critique, urgence) ou une action : envoi 
d’un message, création d’un fichier de log ou impression des informations relatives à l’incident. 

13. Les machines virtuelles et leur stratégie de sauvegarde 

Il existe deux approches pour effectuer la sauvegarde de machines virtuelles intégrées à une machine physique. 
Soit  l’implémentation  de  sauvegardes  du  serveur,  en  globalité,  qui  héberge  les  machines  virtuelles  soit  des 
sauvegardes individuelles. Il est simplement nécessaire que les systèmes d’exploitation du serveur hôte et ceux des 
machines virtuelles soient tous compatibles avec le logiciel de sauvegarde. 
Bonnes pratiques de sauvegarde de machines virtuelles 
Un des nombreux avantages de la technologie de virtualisation est sa capacité à désolidariser les charges de travail 
des  applications  et  les  systèmes  d’exploitation  à  partir  du  matériel  sous­jacent.  Le  résultat  final  est  la  capacité  de 
déplacer  une  machine  virtuelle  entre  différents  serveurs  physiques  sans  avoir  à  se  soucier  des  inconsistances 
mineures de configuration. 
Comment déterminer ce qui est nécessaire de sauvegarder 
D’un point de vue logique, les machines virtuelles sont des unités qui se suffisent à elles­mêmes. Elles comprennent 
une  configuration  matérielle  virtuelle,  un  système  d’exploitation,  des  applications  et  des  services.  Sur  l’aspect 
physique, il y a de nombreux fichiers et paramètres qui doivent être transférés vers une sauvegarde ou un site prévu 
pour la reprise d’activité. 
Selon la plate­forme de virtualisation, les types généraux de fichiers à prendre en compte comprennent : 

● les données de configuration du serveur hébergeant les machines virtuelles, 

● les disques virtuels, 

● les fichiers de configuration des machines virtuelles, 

● les fichiers de la configuration virtuelle des réseaux et des fonctionnalités de redondance de réseau, 

● les  fichiers  de  configuration  du  logiciel  de  virtualisation,  par  exemple  la  configuration  du  serveur  ESX  pour 
Vmware. 

● les fichiers d’état pour chacun des systèmes d’exploitation. 

Réalisation de sauvegardes au niveau du serveur hébergeant les machines virtuelles 
Le premier problème en relation avec la réalisation des sauvegardes des machines virtuelles est le fait que les fichiers 
sur  le  serveur  hôte  correspondant  aux  disques  virtuels  sont  constamment  en  utilisation  tant  que  le  serveur  est  en 
exploitation. 

Bien qu’il soit possible d’effectuer une copie des disques virtuels alors que la machine virtuelle est en exécution, il y a 
toutefois un grand risque d’engendrer une copie non utilisable par la suite. 

Cela  signifie  que  les  agents  de  sauvegarde  gérant  des  fichiers  ouverts  ont  besoin  de  prendre  en  compte  l’aspect 
virtualisation de façon à générer des sauvegardes correctes et valables. 

Il  y  a  différentes  manières  de  réaliser  des  sauvegardes  de  fichiers  créés  pour  les  machines  virtuelles  au  niveau  du 

- 16 - © ENI Editions - All rigths reserved - Jonifar lina


96
serveur hôte. 
Les sauvegardes à froid sont sûres par contre elles imposent l’arrêt du serveur ou des machines virtuelles. Elles sont 
réalisables pour des systèmes qui peuvent être indisponibles pendant la durée nécessaire pour réaliser une copie des 
fichiers associés des disques virtuels. 

Des sauvegardes à chaud peuvent être effectuées pendant que la machine virtuelle est en fonctionnement. Des outils 
adaptés à la virtualisation sont généralement requis pour implémenter ce type de sauvegardes. 
Options de stockage de sauvegarde 

Un  des  problèmes  potentiels  à  considérer  lors  de  la  sauvegarde  de  disques  virtuels  est  le  montant  total  d’espace 
disque qui sera nécessaire. Il existe différentes options en relation : 

● Stockage  Direct  (Direct­attached storage) :  cette  méthode  implique  d’avoir  stocké  des  copies  des  fichiers  de 
machines  virtuelles  directement  sur  le  serveur  hôte.  Alors  que  le  processus  peut  être  rapide  et  facile  à 
implémenter, il ne protège pas contre les pannes du serveur hôte ou du sous système du disque hôte. 

● Stockage  basé  sur  le  réseau (Network­based  storage) :  il  s’agit  de  la  destination  la  plus  courante  pour  des 
sauvegardes  de  machines  virtuelles.  Les  données  peuvent  être  stockées  sur  des  périphériques  de  type : 
serveurs  standards  de  fichiers,  des  NAS  (Network Attached Storage)  dédiés,  des  serveurs  de  stockage  basés 
sur iSCSI (internet SCSI). 

● Stockage SAN (Storage Area Networks) : les entreprises peuvent utiliser des connexions à partir de ce type de 
réseau  pour  gérer  de  façon  centrale  le  stockage  de  données,  tout  en  fournissant  une  possibilité  de  haute 
performance  pour  les  sauvegardes  et  les  processus  associés.  L’architecture  SAN  est  généralement  la  plus 
applicable  pour  les  sauvegardes  réalisées  entre  les  sites  de  reprise  d’activité,  sachant  que  les  limitations 
pratiques lors de transferts des données s’avèrent être la longueur des connexions entre les sites concernés. 

14. La gestion de la sécurité au niveau des sauvegardes 

a. La sécurité des données stockées 

Sécurité des opérations entre clients et serveurs

Dans le cadre d’une opération, toutes les fois qu’un client veut communiquer avec le serveur, une authentification est 
mise  en  place.  Cette  vérification  est  bi­directionnelle,  le  client  s’authentifie  par  rapport  au  serveur  et  vice  versa. 
Chaque client possède un mot de passe stocké sur le serveur et le client. Les mots de passe ne sont pas transmis 
sur  le  réseau  pour  éviter  d’être  interceptés.  Une  session  de  contrôle  est  effectuée  avant  tout  transfert  pour  la 
validation. 

Cryptage des données sur les supports

La  plupart  des  logiciels  de  sauvegarde  permettent  le  chiffrage  ou  le  cryptage  des  données  envoyées  par  chaque 
client de sauvegarde vers le serveur. 

Cette  option  améliore  encore  plus  le  transfert  sécurisé.  Toutefois,  il  est  important  de  noter  que  ces  données 
sauvegardées et cryptées sur le serveur de sauvegarde ne sont plus du tout récupérables si la clé de cryptage est 
perdue. Le logiciel de sauvegarde peut toutefois stocker la clé de cryptage. 

b. Dispositifs supplémentaires de gestion de la sécurité 

Transfert de données via le SAN (LAN­free data transfer)

Si un des clients de sauvegarde, le serveur de sauvegarde et l’unité de bandes magnétiques sont connectés sur le 
même SAN, les données peuvent être transférées via cet environnement. Ce qui a pour avantage de pouvoir obtenir 
des débits de transferts importants et améliorer leur sécurité. En effet, les données ne transitent plus par le réseau 
LAN de l’entreprise. 

© ENI Editions - All rigths reserved - Jonifar lina - 17 -


97
Principe de transfert de données via le SAN 

15. Concepts de snapshot ou clichés instantanés 

Un certain nombre d’entreprises ont actuellement une demande croissante en besoin de stockage haute disponibilité. 
En réponse à ces problèmes, de nouvelles technologies de sauvegarde avec temps d’indisponibilité quasiment nul ont 
été mises au point. 
Il s’agit de la technologie de snapshot. Les copies d’informations effectuées lors d’opération utilisant cette technique 
peuvent ensuite être conservées sur une baie de disques sous forme de copies ponctuelles des données d’origine à 
des fins de restauration instantanée. Elles peuvent aussi être utilisées pour créer des sauvegardes sur supports de 
bandes à l’aide d’une application de sauvegarde. 
Les processus mis en œ uvre lors de leur création ont peu d’impact sur les performances du serveur d’applications. 

Concepts de snapshot

Le processus de snapshot permet de créer une réplication de données d’application vers d’autres volumes logiques de 
la même baie de disques, également appelés volumes cible. Les données ainsi dupliquées sont également appelées 
données  snapshot.  Elles  correspondent  à  des  copies  ponctuelles  instantanées  d’un  système  de  fichiers  ou  d’un 
volume donné. 
Une  fois  les  données  copiées,  les  applications  s’exécutant  sur  le  serveur  peuvent  apporter  des  modifications  aux 
données  d’origine  sans  perturbation.  Pendant  ce  temps,  les  données  dupliquées  peuvent  être  sauvegardées  sur  le 
serveur de sauvegarde sans intervenir sur les performances du serveur d’application. 
Un instantané de volume ou snapshot est donc une image d’un volume de stockage à un instant donné dans le temps. 
Il  s’agit  de  l’équivalent  logique  d’une  copie  physique  complète  créée  bien  plus  rapidement  tout  en  occupant  moins 
d’espace disque. 

Les  réplications  ont  l’apparence  des  volumes  de  stockage  standard  et  peuvent  donc  être  accédées  de  la  même 
manière. 

Grâce à cette technologie de copie en écriture, l’instantané de volume conserve les données sous leur forme d’origine 
dans le référentiel d’instantanés. Cette fonctionnalité ne demande qu’une capacité minimum de stockage dédiée, qui 
se limite généralement à 10 ou 20 % du volume d’origine de base, il est possible de gérer plusieurs instantanés dans 
l’espace nécessaire pour des données différentes. 

- 18 - © ENI Editions - All rigths reserved - Jonifar lina


98
Comme les volumes snapshot sont disposés sur des volumes physiques d’une unité de stockage, ils bénéficient des 
mêmes caractéristiques de haute disponibilité que les volumes de stockage standard, notamment la protection RAID 
et, si cela est configuré, le basculement vers un chemin redondant. 

Principe du snapshot 

Restauration instantanée

Pendant  les  sessions  de  copie  de  snapshot  vers  le  serveur  de  sauvegarde,  plusieurs  instances  de  snapshot  des 
données peuvent être conservées sur une baie de disques dédiée. 
Les  copies  de  snapshot  stockées  peuvent  ensuite  être  utilisées  pour  une  restauration  instantanée  vers  le  serveur 
d’application. Dans ce cas, la copie ponctuelle d’une réplique sélectionnée est restaurée à son emplacement d’origine 
dans l’état dans lequel elle se trouvait au moment où les données snapshot ont été générées. 
Aucun  transfert  de  données  à  partir  d’un  support  de  bande  n’étant  requis  dans  le  cadre  de  cette  procédure,  cela 
autorise une durée de restauration globale très réduite. 

Utilisation des snapshots

Les instantanés de volumes ont été développés et mis en œ uvre pour éviter toute perturbation dans la disponibilité 
des accès aux données par les applications au cours des activités de gestion habituelles. 

La  sauvegarde  à  partir  d’un  instantané  de  volume  permet  aux  processus  de  production  ou  aux  applications  de  se 
poursuivre sans perturbation, surtout dans le cas où la réplication s’effectue par un chemin redondant (autre unité de 
stockage redondée). 
La sécurité et la protection des données peuvent être ainsi assurées : 

● Protection et disponibilité rapide des informations : restauration facile et rapide. 

● Protection supplémentaire dans l’éventualité d’une erreur d’utilisateur ou d’une altération. 

● Dans  le  cas  de  recherche  de  données  parmi  des  informations  critiques :  un  ensemble  de  données  peut  être 
réservé  à  des  analyses,  tandis  qu’un  autre  peut  accéder  à  des  données  confidentielles.  Ce  qui  garantit  la 
confidentialité d’accès à certaines informations. 

Snapclones

La création des snapclones commence par une procédure semblable à celle utilisée pour créer des snapshots) sans 
allocation préalable d’espace disque. Il s’en suit un processus de clonage ou de copie. Un snapclone permet d’accéder 
sans  interruption  aux  données  répliquées  pendant  que  le  processus  de  clonage  s’exécute  en  tâche  de  fond  en 
exploitant  les  périodes  d’inactivité  de  la  baie  de  stockage  de  disques.  Une  fois  le  processus  achevé,  le  snapclone 
représente une copie de données complète reproduisant le volume source à un état donné. Si les données stockées 
sur  le  volume  source  sont  perdues,  il  est  toujours  possible  de  rétablir  le  snapclone.  Cette  technologie  présente 
l’avantage d’amener une double sécurité pour les données et ainsi assurer leur disponibilité. 

© ENI Editions - All rigths reserved - Jonifar lina - 19 -


99
La restauration des données 
Observations relatives à la restauration 
La  restauration  des  dernières  données  sauvegardées  nécessite  les  supports  de  la  sauvegarde  complète  la  plus 
récente et les sauvegardes incrémentales qui ont suivi. 
Par conséquent, plus le nombre de sauvegardes incrémentales effectuées est important, plus le temps de restauration 
est long et plus il y a de supports à gérer. 

Une autre utilisation courante du concept de sauvegarde incrémentale est illustrée dans la figure ci­après. 
Dans ce cas, l’espace nécessaire sur les supports est légèrement plus important, mais la restauration ne nécessite que 
deux supports : 

Principe de restauration de données 

1. Les différentes options de restauration de fichiers 

a. Restauration à la demande 

Ce  type  concerne  des  fichiers  perdus,  effacés  ou  altérés  d’un  utilisateur,  d’une  application  ou  du  système 
d’exploitation. 

Plusieurs possibilités de restauration de fichier sont disponibles : soit rétablir sur l’original, donc risquer de perdre 
les données actuelles, ou restaurer sur un autre emplacement pour pouvoir ensuite déplacer les fichiers concernés 
vers leur cible finale. Il s’agit  de  la  méthode  la  plus  pertinente  et  la  plus  sûre  pour  restaurer  des  fichiers  perdus. 
Cette solution permet la comparaison de l’état des fichiers concernés et évite des erreurs non récupérables. 
Il  est  également  possible  de  restaurer  une  version  donnée  d’un fichier ou d’une  arborescence.  Cette  option  peut 
être utile en cas de changement de version multiple sur des applications. 

Restauration sur un autre répertoire du même système

Cette  restauration  est  le  type  que  l’on  utilise  pour  restituer  les  fichiers  perdus  ou  endommagés  appartenant  aux 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


100
utilisateurs ou au système d’exploitation. 
Dans  ce  cas,  toutes  les  protections  des  fichiers  sont  conservées :  leurs  propriétaires,  leurs  listes  de  contrôle 
d’accès, etc. 

L’administrateur du système peut mettre en œ uvre plusieurs méthodes de restauration. 
La plus effective consiste à créer un répertoire vide dans un des dossiers de l’utilisateur. Il s’agira alors de restaurer 
les  données  de  l’utilisateur  à  cet  emplacement.  Cela  donne  la  possibilité  à  l’utilisateur  de  récupérer  selon  ses 
besoins. 
Ce  type  de  restauration  est  celui  qui  présente  le  moins  de  risques ;  il  est  donc  recommandé  pour  toutes  les 
opérations courantes au cours de l’exploitation des systèmes. 

Restauration sur un autre système

Ce type de restauration est identique au précédent. Le client de sauvegarde cible sera en fait un autre système. 
Dans certains cas, les protections et caractéristiques des fichiers ne seront pas conservées. 

Ce  procédé  peut  être  utilisé  pour  restaurer  un  grand  nombre  de  fichiers  ou  une  application  en  provenance  d’un 
système  sur  lequel  il  reste  peu  de  place  ou  pour  restaurer  un  serveur  par  un  autre  identique.  Cette  solution  est 
plus souvent utilisée avec la technologie des systèmes virtualisés. 

Restauration sur le répertoire d’origine du même système

L’autre méthode consiste à restaurer les fichiers ou données dans leur répertoire d’origine. Par contre, si un fichier 
ou des données de même référence ou de même nom ont été créés entre­temps, ils ou elles seront effacés lors de 
la  restauration.  Heureusement,  les  applications  de  sauvegarde  possèdent,  en  général,  des  options  évitant  des 
manipulations hasardeuses. 
Cette restauration est le type utilisé pour restituer un système d’exploitation endommagé. 

Trois possibilités existent pour la gestion des fichiers en doublon : 

● Garder le plus récent : le fichier le plus récent entre le fichier sur la sauvegarde et celui sur la destination 
est conservé ; il s’agit typiquement de la restauration de fichiers dont certains ont été modifiés par erreur. 

● Pas de réécriture : s’il y a un fichier du même nom sur la destination, le fichier en provenance du système 
est rejeté. Il s’agit typiquement de la restauration de fichiers dont certains ont été détruits par erreur. 

● Réécriture : les fichiers en provenance de la sauvegarde remplacent systématiquement les fichiers présents 
sur la destination. 

Cette  option  est  obligatoire  lorsque  l’on  restaure  un  système  d’exploitation  Windows  endommagé  ou 
corrompu  par  un  virus  par  exemple.  Tous  les  fichiers  présents  dans  le  système  d’exploitation  sont  alors 
remplacés par des fichiers non corrompus provenant d’une sauvegarde réalisée avant le moment supposé 
de l’introduction du virus. Cela implique une gestion rigoureuse des supports. 

Les  fichiers  en  cours  d’utilisation  sont  alors  marqués  pour  n’être  réinstallés  qu’au  redémarrage  suivant, 
toutes  les  personnalisations  de  Windows  restent  identiques.  Au  redémarrage  suivant,  toutes  les 
informations  sont  remplacées  par  celles  en  provenance  de  la  sauvegarde,  il  faut  donc  s’assurer  que  les 
informations sur les comptes du système et des applications, les mots de passe du système d’exploitation 
(les derniers connus) sont correctement copiés au moment de la sauvegarde. 

Une autre solution consiste à avoir une politique de gestion sécurisée des mots de passe des systèmes (cf. 
chapitre La sécurité dans l’entreprise ­ Les systèmes). 

Ce  type  de  restauration  est  à  manipuler  avec  une  grande  précaution  pour  la  restitution  des  fichiers  des 
utilisateurs. 

Autres options de restauration 
Il est également possible effectuer une recherche lors de la sélection de la source des données à récupérer. Selon 
la  politique  de  rétention  définie,  il  est  possible  de  choisir  les  fichiers  à  récupérer  en  recherchant  à  partir  des 
informations stockées qui existent dans la base de données de l’application. 

b. Restauration d’un système d’exploitation complet d’un serveur 

Ce cas peut intervenir dans le cas où l’unité de disque contenant le système d’exploitation a été remplacée suite à 
un problème de matériel. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


101
Les  solutions  utilisant  une  méthode  appelée  Bare­Metal­Recovery  permettent  la  reconstruction  d’un  système 
complet à partir d’une nouvelle unité de disques. Cela signifie que toute la configuration du système d’exploitation 
d’origine ainsi que les applications installées ont été copiées précédemment sur un support de disque de façon à 
effectuer la restauration complète. 

Les  éditeurs  de  logiciel  de  sauvegarde  proposent,  en  général,  une  procédure  adaptée  à  leur  application  et  en 
fonction du type de système d’exploitation. 

Il  existe,  en  outre,  d’autres  applications  (uniquement  compatibles  avec  Windows)  pouvant  être  associées  à  une 
application de sauvegarde normale. Elles effectuent la restauration complète du système. 
Cette image du système, copiée sur un support de DVD­Rom, est amorçable directement (sur un serveur Windows) 
et permet le rétablissement complet du serveur. 
Cette procédure a toutefois une limitation. L’image sauvegardée ne peut être utilisée que sur un serveur Windows 
dont l’architecture matérielle est absolument identique à celle d’origine. Cela correspond à la solution idéale lorsqu’il 
s’agit du même serveur physique. 

Toutefois, des étapes supplémentaires sont nécessaires. En effet, l’image restaurée correspond à la version de la 
dernière copie effectuée sur le DVD­Rom. La restauration des dernières sauvegardes complètes, intermédiaires ou 
incrémentales  est  nécessaire.  Cela  est  facilement  réalisable  si  et  seulement  si  le  système  a  été  sauvegardé  de 
façon régulière, les copies vérifiées régulièrement. 
Le  pré­requis  est  naturellement  de  posséder  au  minimum  une  sauvegarde  totale  (complète  +  incrémentale), 
correcte de l’unité de disque concernée. 
Si  cela  n’est  pas  le  cas,  il  est  nécessaire  de  réinstaller  le  système  d’exploitation  complet  à  partir  des  supports 
d’installation,  de  le  mettre  à  jour,  de  le  configurer,  d’installer  tous  les  logiciels  existant  précédemment.  Cela  peut 
être très long et le risque principal est de retrouver un système non conforme ou non identique avec ce qu’il était 
avant l’incident. 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


102
La stratégie de sauvegarde 
Une  architecture  correcte  de  sauvegarde  et  de  reprise  doit  inclure  un  plan  de  recouvrement  en  cas  de  sinistre,  des 
procédures et des outils pour assister à la reprise après un incident grave, des procédures détaillées pour réaliser la 
reprise.  Pour  chaque  domaine,  une  stratégie  doit  définir  clairement  les  ressources,  les  processus,  les  technologies  à 
mettre en place pour finaliser une structure opérationnelle. 
Un  des  rôles  de  la  stratégie  de  sauvegarde  consiste  à  collecter  les  informations  nécessaires  pour  mener  à  bien  une 
architecture de sauvegarde opérationnelle et adaptée au contexte de l’entreprise. 
Elle peut être différente et s’adapter au logiciel de sauvegarde choisi. Son principe d’élaboration reste le même. 

La planification d’une stratégie de sauvegarde est un processus qui comporte les étapes suivantes : 
1.  La  définition  des  contraintes  et  des  besoins  relatifs  aux  sauvegardes,  notamment  la  fréquence  à  laquelle  les 
données doivent être sauvegardées, le besoin ou non de copies supplémentaires sur des supports. 
2. La maîtrise des facteurs qui influencent la sauvegarde, notamment les taux de transfert de données pris en charge 
par  le  réseau  et  les  périphériques  de  sauvegarde.  Ces  facteurs  peuvent  déterminer  la  manière  dont  l’application de 
sauvegarde et le type de sauvegarde (réseau ou directe, par exemple) choisis seront configurés. 
La sauvegarde sur disque permettra de bénéficier de solutions avancées telles que la sauvegarde synthétique ou la 
sauvegarde de disque sur bandes magnétiques selon plusieurs étapes. 
3. La préparation d’une stratégie de sauvegarde décrivant le concept de sauvegarde et sa mise en œ uvre. 

Définition des besoins relatifs à une stratégie de sauvegarde et questions essentielles 

La définition des objectifs et des contraintes de la stratégie implique de répondre aux premières questions suivantes : 

● Quelles  sont  les  stratégies  de  l’entreprise  en  matière  de  gestion  des  données  (sauvegarde  et  de 
restauration) ? 

La politique de gestion des données de l’entreprise est­elle déjà définie ? La stratégie de sauvegarde devra en 
tenir compte. 

● Quels types de données est­il nécessaire de sauvegarder ? 

Pour cela, il est nécessaire d’établir une liste des types de données existant sur le réseau de l’entreprise, tels 
que  les  fichiers  des  utilisateurs,  les  fichiers  des  systèmes  d’exploitation  ou  des  applications.  Les  types  de 
machines utilisées : les serveurs Web, de messagerie et les bases de données relationnelles volumineuses. 

● Quel est le temps d’indisponibilité maximal à ne pas dépasser pour leur récupération ? 

Il s’agit de la durée que l’entreprise s’autorise à rester non opérationnelle. Cet élément a un impact important 
sur le choix des investissements en termes d’infrastructure réseau et de matériel de sauvegarde. Pour chaque 
type de données, déterminer le temps d’indisponibilité maximal acceptable pour la récupération. 

Le  temps  de  récupération  total  correspond  au  temps  nécessaire  pour  accéder  au  support  sur  lequel  se 
trouvent  les  données  à  récupérer,  ensuite  au  processus  de  copie  qui  permet  leur  restauration  sur  leur 
emplacement d’origine (en général). La récupération d’un système d’exploitation complet demande la mise en 
place d’une procédure spécifique. 

● Pendant combien de temps les données seront­elles conservées ? 

Le  besoin  de  conserver  les  informations  dépendra  des  contraintes  légales  ou  administratives  de  l’entreprise, 
de ses besoins métiers. 

● Comment conserver et maintenir les supports contenant des données sauvegardées ? 

Une  réflexion  sur  la  façon  dont  elles  seront  stockées,  selon  les  contraintes  ou  les  moyens  que  l’entreprise 
dispose doit être menée. Les supports doivent­ils être conservés dans un lieu sécurisé (coffre par exemple) ou 
entreposées sur un site externe sécurisé lui aussi ? 

● Est­il requis de créer des copies de supports des données pendant la sauvegarde ? 

Pendant  la  copie,  l’écriture  de  données  critiques  sur  plusieurs  ensembles  de  supports  permet  d’améliorer  la 
tolérance  aux incidents  qui  peuvent  survenir  lors  des  sauvegardes  ou  de  procéder  à  une  mise  au  coffre  sur 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


103
plusieurs sites. Par contre la copie en miroir de données augmente le temps nécessaire à la sauvegarde. 

● Quel volume de données est­il nécessaire de sauvegarder ? 

Pour  chaque  type  de  données,  il  est  nécessaire  d’estimer  la  quantité  de  données  à  conserver.  Celle­ci  a  un 
impact direct sur le temps nécessaire aux opérations de copie et guide dans le choix de périphériques et de 
supports de sauvegarde adaptés. 

● Quelle est la croissance future estimée du volume de données ? 

L’entreprise  a  une  estimation  de  son  évolution  ou  de  ses  prochains  changements.  Cela  permet  d’apprécier, 
pour chaque type de données, le taux de croissance prévisionnel. Les solutions de sauvegarde devront être 
étudiées en conséquence. 

● Combien de temps peut prendre une sauvegarde (complète, incrémentale) ? 

Estimer  le  temps  nécessaire  à  chaque  sauvegarde  permet  de  définir  l’incidence  directe  sur  la  durée  pendant 
laquelle les données sont disponibles ou indisponibles à l’utilisation selon les types d’applications. 

Le  temps  nécessaire  à  la  sauvegarde  dépend  aussi  du  type  de  sauvegarde  effectuée  (complète  ou 
incrémentale). 

D’autres solutions existent dont la sauvegarde synthétique et la sauvegarde en plusieurs étapes (de disque 
vers  disque  vers  bande).  Certaines  stratégies  de  sauvegardes  avancées  permettent  de  réduire 
considérablement le temps nécessaire à l’opération. 

Si  la  quantité  d’informations  à  sauvegarder  est  conséquente  avec  un  temps  imparti  qui  est  limité,  d’autres 
options ou technologies peuvent être mises en œ uvre (sauvegarde directe sur SAN). 

● À quelle fréquence est­il nécessaire de sauvegarder les données ? 

Selon les contraintes métier ou les types de données, la fréquence de sauvegarde des données du système 
d’information de l’entreprise devra être calculée ou tout au moins évaluée. 

Des questions complémentaires peuvent suivre : 

● Quelles sont les contraintes de conservation des données et leur durée de conservation ? 

● En cas d’urgence, en combien de temps est­il possible de récupérer les données ? 

● Quelle est la fenêtre des sauvegardes (contraintes d’horaires, de charge des serveurs) ? 

● Besoin d’une sauvegarde sur serveur local ou d’une sauvegarde en réseau, de sauvegardes virtuelles ? 

● Quels sont les scénarios de panne ou d’interruptions possibles ? 

● Quelles sont les données critiques et où sont­elles localisées ? 

● Quand  les  sauvegardes  complètes  sont­elles  prévues,  en  comparaison  des  autres  types  de  sauvegardes 
(incrémentales, différentielles) ? 

● Quels types de supports de sauvegarde sont utilisés (disques magnétiques, cartouches magnétiques, disques 
optiques…) ? 

● Les sauvegardes sont effectuées en ligne ou hors­ligne ? 

● Comment est établi le planning de sauvegarde ? 

● Quelles procédures sont utilisées pour s’assurer de la validité des sauvegardes ? 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


104
● Où les supports de sauvegarde sont­ils stockés (sur site, hors site, les deux cas) ? 

Facteurs ayant une influence sur la stratégie de sauvegarde 
D’autres éléments vont influencer la manière dont la stratégie de sauvegarde sera mise en œ uvre. Il est important de 
bien les évaluer et de les comprendre avant d’élaborer cette stratégie. Ils peuvent concerner : 

● La politique de sécurité et les besoins de l’entreprise en matière de sauvegarde et de stockage des données. 

● La configuration physique globale du réseau d’entreprise (site central, sites externes, zones protégées…). 

● Les  ressources  de  l’entreprise  (environnementales,  matérielles,  applicatives,  humaines)  disponibles  sur  les 
différents sites. 

Préparation du plan de stratégie de sauvegarde et de restauration 

Dans l’optique de l’élaboration d’un plan de reprise du système d’information, la stratégie de sauvegarde doit prendre 
en compte les points suivants : 

● La définition de l’importance de la disponibilité (et de la sauvegarde) du système pour l’entreprise selon : 

● la conservation des données sauvegardées à un emplacement distant en cas de sinistre, 

● le niveau de continuité des opérations courantes. 

● La sécurité des données sauvegardées 

Cela  implique  de  les  garantir  contre  tout  accès  non  autorisé,  à  l’aide  de  protections  physiques  d’accès  aux 
supports stockés ou en cours d’utilisation, de protection logique d’accès aux données. 

● Les types de données à sauvegarder selon leurs utilisations et leurs criticités 

● La mise en œ uvre de la stratégie de sauvegarde 

● Les types et la configuration des périphériques 

Ceux qui sont utilisés pour les sauvegardes et auxquels ils sont connectés vont dépendre de l’environnement, 
de  la  quantité  de  données  à  copier,  de  l’infrastructure  du  réseau  de  l’entreprise  et  de  ses  caractéristiques 
(bande passante, architecture…). 

La sauvegarde d’importantes quantités de données implique d’envisager : 

● l’utilisation d’un périphérique de type robotique, 

● la mise en place d’un périphérique sur disques ou de virtualisation pour les sauvegardes, 

● la  configuration  du  serveur  pour  une  sauvegarde  directe  en  reliant  la  bandothèque  au  réseau  SAN  à 
l’aide d’une liaison Fibre Channel. 

● La gestion des supports 

Selon  le  type  de  support  à  utiliser,  la  façon  de  définir  les  pools,  leur  mode  d’utilisation  dans  le  cadre  des 
stratégies de sauvegarde. 

Leur  stockage  dans  un  lieu  sûr  (un  coffre  sécurisé)  où  ils  seront  conservés  durant  une  période  déterminée. 
Cette possibilité peut impliquer la duplication des données ou des supports. 

● Administrateurs et opérateurs de sauvegarde 

Le  système  d’exploitation  doit  permettre  la  gestion  des  accès  et  des  droits  pour  administrer  et  utiliser 
l’application de sauvegarde. 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


105
Les bonnes pratiques pour la mise en place d’une stratégie de sauvegarde 
Lors de sa préparation, il est recommandé de tenir compte des éléments suivants : 

● Impliquer les personnels appropriés et utiliser les ressources idoines lors de l’étude, de la conception et du test 
des stratégies de sauvegarde et de restauration. 

● Créer  un  schéma  organisationnel  de  protection  des  données  qui  comprend  les  responsabilités  et  les 
informations pour chaque personne impliquée. 

● Réaliser une sauvegarde initiale complète pour chaque serveur pour chaque volume de disque reconnu par le 
serveur (disques locaux, en réseau SAN, ou NAS…), l’état du système pour chaque serveur de l’infrastructure. 

● Vérifier les rapports de sauvegarde pour vérifier que tous les fichiers et répertoires prévus dans la stratégie de 
sauvegarde ont bien été traités. 

● Effectuer périodiquement des essais de restauration de données pour vérifier que les éléments sauvegardés 
ont été copiés correctement. Utiliser, de préférence pour ces tests, des situations les plus complexes possibles 
(réseau, serveurs éloignés ou d’un genre particulier) ou encore à partir de scénarios les plus critiques. 

● S’assurer  que  tous  les  supports  de  sauvegarde  sont  entreposés  dans  un  endroit  sécurisé  et  facilement 
accessible par les personnels en charge de leur gestion. 

Éviter les sauvegardes inutiles ou non nécessaires 

Lors  de  la  conception  d’une  stratégie  de  sauvegarde,  l’administrateur  des  systèmes  peut  être  tenté,  par  double 
sécurité,  d’effectuer  systématiquement  une  sauvegarde  complète  de  chaque  serveur  de  l’environnement  de  son 
système  d’information.  Il  faut  se  rappeler  que  l’objectif  final  est  de  pouvoir  réaliser  une  reprise  des  données  et  des 
applications métier de l’entreprise après une panne importante ou une catastrophe impactant l’ensemble du système 
d’information. En conséquence, la stratégie de sauvegarde doit se focaliser sur les objectifs suivants : 

● Les données à restaurer doivent être faciles à récupérer. 

● La restauration doit être la plus rapide et la plus efficace possible. 

Les  sauvegardes  non  utiles  sont  une  perte  de  temps  pour  le  système  d’information,  enrayent  la  disponibilité  des 
serveurs et périphériques, utilisent des supports supplémentaires. 

Choix des périodes de temps appropriées en fonction des applications métier pour effectuer les sauvegardes 

La  stratégie  de  sauvegarde  doit  être  adaptée  au  métier  de  l’entreprise.  Elle  ne  peut  être  la  même  selon  qu’il  s’agit 
d’une entreprise dont le métier consiste en l’utilisation du commerce électronique ou celui d’une société du domaine du 
tertiaire  qui  comporte  un  réseau  LAN  classique  ou  encore  d’une  entreprise  industrielle.  En  effet,  selon  le  métier  de 
l’entreprise, l’environnement technique utilisé lors de la sauvegarde sera différent. 

● Domaine  des  services  :  l’utilisation  de  la  bande  passante  du  réseau  et  la  charge  demandée  aux  serveurs 
diminuent en dehors des horaires de bureau. 

● Commerce électronique : les périodes d’utilisation plus intensive surviennent à partir de la fin de l’après­midi 
jusqu’aux premières heures du matin. 

● Entreprise  industrielle  :  l’utilisation  est  intensive  et  constante  toute  la  journée  (24/24),  des  diminutions  de 
charge du réseau et des serveurs peuvent se présenter les week­ends. 

C’est  pour  cette  raison  que  dans  ces  deux  derniers  cas,  il  n’est  pas  facile  d’identifier  une  période  ou fenêtre  idéale 
pour sauvegarder l’environnement des serveurs du système d’information. 
Pour  réduire  l’impact  de  l’utilisation  de  la  bande  passante  du  réseau  et  de  l’utilisation  des  serveurs,  les  précautions 
suivantes sont recommandées : 

● Analyser les pointes d’utilisation des systèmes et du réseau (outils de supervision, analyses de performance…). 

● Planifier les sauvegardes en fonction des résultats de ces analyses de façon à éviter les pics d’utilisation. 

- 4- © ENI Editions - All rigths reserved - Jonifar lina


106
● Évaluer les données à sauvegarder selon leur criticité et définir la bonne stratégie de sauvegarde. 

● Choisir le meilleur type de sauvegarde selon les besoins : 

● Normale ou complète 

● Incrémentale 

● Différentielle 

● Copie auxiliaire (clonage) 

● Normal synthétique 

● Ne pas sauvegarder systématiquement les données non nécessaires. 

Autres bonnes pratiques 

Éviter de laisser les supports de sauvegarde dans le serveur ou à proximité. Ce qui implique de retirer les média juste 
après la fin de la sauvegarde (complète ou incrémentale) pour les stocker dans un endroit sécurisé. 

En effet, en cas de vol ou de sinistre, ceux­ci risquent en effet d’être dérobés ou détériorés. 

Les  supports  mensuels  et  annuels  doivent  être  impérativement  entreposés  en  dehors  du  site  de  l’entreprise,  les 
supports hebdomadaires dans un endroit le plus éloigné possible de l’équipement de sauvegarde et dans une armoire 
fermée (ignifugée de préférence). 
Dans le cadre de l’utilisation des postes de travail ou nomades qui accèdent à des fichiers de travail de type Windows 
Office ou équivalents, l’entreprise dispose de plusieurs solutions. 

Soit  chaque  poste  de  travail  accède  ou  est  synchronisé  avec  un  serveur  de  fichier  de  l’entreprise,  normalement 
sauvegardé  dans  le  cadre  d’une  architecture  de  sauvegarde  définie,  soit  chaque  poste  utilisateur  est  autonome  par 
contre il est nécessaire de sauvegarder périodiquement les données. 

Pour  cela,  il  existe  des  outils  de  sauvegarde  automatiques  en  continu  vers  un  serveur  dédié  (qui  lui­même  doit  être 
sauvegardé). Ces logiciels détectent soit la présence du poste nomade soit les moindres modifications effectuées sur 
chaque poste et effectuent les copies de fichiers, agendas, carnets d’adresses… de façon automatique. 

L’utilisateur  peut  ainsi  retrouver,  le  cas  échéant,  les  données  perdues.  Cela  implique  que  l’utilisateur  reste  vigilant 
quant  au  bon  transfert  des  données.  Dans  le  cas  de  l’accès  direct  au  serveur  de  fichier,  l’utilisateur  est  certain  de 
pouvoir retrouver ses informations. 
Une bonne pratique essentielle dans le cadre de sauvegardes implique d’effectuer au moment de la mise en place de 
l’architecture et périodiquement des tests de sauvegardes. 

L’opération  doit  prévoir,  avant  de  passer  en  mode  de  fonctionnement  définitif,  de  tester  la  bonne  récupération  des 
données afin de s’assurer de la bonne réalisation des sauvegardes. 

1. Éléments de réflexion pour la mise en place d’une stratégie de sauvegarde 

Points à prendre en considération

Les éléments suivants sont à prendre en compte pour définir la stratégie de sauvegarde de l’entreprise : 

● Importance de la disponibilité des données du système (et de la sauvegarde) pour l’entreprise : 

● Nécessité  de  conserver  les  données  sauvegardées  à  un  emplacement  distant  en  cas  de  sinistre 
affectant le site principal. 

● Niveau  de  continuité  des  opérations,  comprenant  notamment  un  plan  de  récupération  et  de 
restauration pour l’ensemble des systèmes stratégiques. 

● Sécurité des données sauvegardées. 

● Nécessité  de  contrôler  les  accès  physiques  au  niveau  de  l’accès  aux  locaux  dans  lesquels  se  trouvent  les 

© ENI Editions - All rigths reserved - Jonifar lina - 5-


107
serveurs et supports de sauvegarde Cela comprend également la protection des accès logiques des données 
au niveau des systèmes. 

● Types de données à sauvegarder : 

L’application  de  sauvegarde  permet  de  regrouper  les  données  en  catégories  selon  leurs  besoins  métier  ou 
criticités. 

● Facteurs  de  performance  pour  les  transferts  de  données  lors  des  opérations  de  sauvegarde  et  de 
restauration : 

● Topologie réseau et performances des systèmes (de production, de sauvegarde) 

Une  analyse  préalable  de  la  bande  passante  de  la  partie  du  réseau  utilisé  est  requise.  Des 
modifications de l’architecture peuvent être certainement nécessaires. 

● Fenêtre temporelle 

Une  évaluation  des  périodes  d’utilisation  des  systèmes  et  du  réseau  doit  être  entreprise  en  amont 
pour définir les plages de temps qui affecteront le moins possible l’ensemble des applications métier 
de l’entreprise lors des sauvegardes. 

● Sauvegardes locales ou réseau 

Selon les différentes localisations de l’entreprise et l’éloignement entre ses entités, une mixité entre 
sauvegardes en local ou sur le réseau sera nécessaire. 

● Mise en œ uvre de la stratégie de sauvegarde : 

● Définition de la fréquence des sauvegardes complètes et incrémentales, des options de sauvegarde à 
utiliser, de la protection des données sauvegardées selon leur localisation à la suite des opérations 
(site local ou distant). 

● Optimisation du planning de sauvegarde en fonction des spécifications et de la fenêtre temporelle. 

● La  protection  des  données  et  des  supports  contre  tout  risque  d’effacement  des  données  ou  des 
supports. 

● Configuration des périphériques 

● L’infrastructure de sauvegarde (serveurs et périphériques) à utiliser pour les opérations. 

● Administrateurs et opérateurs de sauvegarde 

● Définir les droits d’administration et d’accès pour les utilisateurs des systèmes de sauvegarde. 

a. La fenêtre de sauvegarde 

Idéalement, la période connue sous le nom de fenêtre de sauvegarde est définie quand l’accès des utilisateurs et 
applications vers les serveurs est restreint ou lors d’une moindre utilisation (nuit, week­end…). 
Pour la définir, il est nécessaire de déterminer la période pendant laquelle les opérations peuvent s’effectuer sans 
affecter  la  productivité  des  systèmes,  les  traitements  des  utilisateurs  ni  le  risque  de  dégrader  fortement  les 
performances des serveurs ou du réseau de l’entreprise. 

b. La périodicité des sauvegardes 

La fréquence ou périodicité des sauvegardes sera déterminée en fonction de plusieurs critères liés au contexte de 
l’entreprise ou à partir des considérations suivantes : 

- 6- © ENI Editions - All rigths reserved - Jonifar lina


108
● Le montant acceptable de données qui peut être perdu dans le cas d’une panne catastrophique. 

● Le volume des informations mises à jour régulièrement. 

● Le coût engendré par la réalisation des sauvegardes (administratif et ressources). 

● Le  temps  nécessaire  aux  restaurations  et  les  délais  de  remise  en  état  des  systèmes  qui  vont  affecter  le 
temps d’arrêt permis pour réparer un incident ou le défaut survenu. 

c. Le temps de rétention des données copiées 

Les  administrateurs  et  exploitants  doivent  être  informés  du  temps  de  rétention  des  données  (durée  pendant 
laquelle elles doivent être gardées). 
Il existe, pour cela, les critères dictés par les impératifs légaux et les besoins métier de l’entreprise. 
Certaines données financières et administratives doivent être gardées 30 années, parfois plus, à vie. 

Par  exemple  dans  le  domaine  de  l’industrie  pharmaceutique,  les  informations  relatives  à  un  médicament  doivent 
être gardées pendant la durée de son existence. 

Cela  implique  de  pouvoir  garder  les  informations  stockées  même  dans  le  cas  de  changement  de  matériel,  de 
système d’exploitation, de logiciel de sauvegarde, des supports, de la technologie utilisée pour la copie. 

D’autres  informations  tels  les  fichiers  d’un  système  d’exploitation  peuvent  avoir  une  durée  de  rétention  juste 
nécessaire pour s’assurer une remise en état de fonctionnement. 

d. Le type de support de copie de données 

Le choix des média est à déterminer en fonction du type de matériel et de la quantité de données à sauvegarder. 
Des indications ont été données un peu plus haut dans ce chapitre. 

2. Les spécifications de sauvegarde 

a. Création d’une spécification de sauvegarde 

La création d’une spécification de sauvegarde consiste à créer une association entre des données à sauvegarder, 
une unité de bandes et des supports. Cela consiste à définir les éléments de planning suivants : 

● nom du planning, 

● type d’opération à effectuer, 

● date et heure de début de la fenêtre de démarrage initiale des sauvegardes, 

● durée de cette fenêtre de démarrage, 

● délais entre les fenêtres de lancement des opérations (si un planning classique est utilisé), 

● jour  (planning  classique)  ou  jours  (planning  amélioré)  de  la  semaine  où  les  opérations  planifiées  peuvent 
débuter. 

b. Les calculs de besoins en stockage 

Il  s’agit  du  montant  total  d’espace  de  stockage  et  des  supports  de  stockage  nécessaires  pour  maintenir  les 
sauvegardes pendant une période de temps spécifiée. 

Pour ces calculs, il est nécessaire de définir les points suivants : 

● nombre de clients pour la sauvegarde, 

© ENI Editions - All rigths reserved - Jonifar lina - 7-


109
● durée de rétention des données sauvegardées, 

● espace de stockage requis, 

● supports de stockage nécessaires. 

Il  est  d’abord nécessaire de déterminer les besoins pour estimer le montant total d’espace physique de stockage 


pour l’architecture de sauvegarde prévue. 
Pour définir le schéma de rétention de données, il est recommandé d’utiliser les critères suivants : 

● nombre de cycles de sauvegardes complètes maintenus en stockage, 

● nombre de sauvegardes incrémentales/différentielles réalisées entre les sauvegardes complètes. 

Détermination du stockage requis

L’exemple suivant donne quelques indications : 
Besoin en stockage par client = montant de l’espace des sauvegardes complètes (nombre de cycles x espace total 
utilisé)  +  montant  de  l’espace  pour  les  sauvegardes  incrémentales  (nombre  de  cycles  x  nombre  de  changements 
journaliers x espace utilisé pour chaque sauvegarde incrémentale). 
En général, la taille de la base de données ou de catalogue ou index de sauvegarde (comportant les informations 
générales  de  configuration)  peut  être  estimée  à  4 %  de  la  taille  totale  utilisée  des  sauvegardes  complètes  et 
incrémentales. Ce paramètre est appelé taille de index dans cet exemple. 

Le stockage total nécessaire est : besoin en stockage par client x nombre de clients. 

Par  exemple,  supposons  que  le  cycle  complet  de  sauvegarde  pour  un  serveur  est  de  4  semaines,  le  nombre  de 
sauvegardes incrémentales est de 6 par semaine, il y a 10 clients à sauvegarder. 
Supposons ensuite que l’espace disque total moyen à sauvegarder pour chaque client est de 500 Go et que le taux 
de changement moyen quotidien est de 10 %, soit 50 Go. 

La taille totale des sauvegardes complètes pour un serveur est : (4 Cycles * 500 Go) = 2 To 

La taille totale pour toutes les sauvegardes incrémentales est de : (4 Cycles * 6 sauvegardes incrémentales * 50 
Go changement moyen quotidien) = 1,2 To 
La taille de l’index : 4 % de 3,2 To = 128 Go 

Le besoin total requis pour un client est de : 2 To + 1,2 To 

Pour tous les clients, cela correspond à : (2 To + 1,2 To) * nombre de clients = 3,2 * 10 = 32 To 

Le besoin total en stockage pour la sauvegarde de cet environnement est donc de : 32000 Go + 128 Go = 32128 
Go 

Il  faudra  tenir  compte  des  besoins  en  augmentation  de  stockage  prévisionnel  basés  sur  une  période  définie, 
généralement sur un an. Ce taux d’accroissement peut être de 1,25 à 1,50. 

Le  besoin  en  stockage  total  prévisionnel  est  alors  augmenté  et  il  est  nécessaire  d’en tenir compte dans tous les 
calculs. 

Détermination des besoins en supports de sauvegarde

Il  s’agit  du  montant  des  supports  physiques  de  sauvegarde  nécessaires  (cartouches,  disques  durs,  disques 
optiques…) nécessaire pour entreposer les besoins totaux en stockage de données pendant la durée de rétention. 

Ce qui donne les calculs suivants : 
Montant de support de stockage requis = stockage total à sauvegarder (besoin total calculé ci­dessus) / (capacité 
(hors compression) d’un support utilisé pour la sauvegarde * taux de compression matérielle) 
La suite de l’évaluation tient compte des résultats de l’exemple ci­dessus : 
Supposons que le support de sauvegarde utilisé a une capacité de 400 Go avec un taux de compression de 2 : 1 , le 
nombre de supports requis est de : 32128 Go / (400 Go *2) = 40,160 soit 41 supports 

Détermination des besoins en unités et en lecteur de sauvegarde

Il s’agit du besoin en matériel nécessaire (robotique) pour effectuer une sauvegarde complète simultanément sur 

- 8- © ENI Editions - All rigths reserved - Jonifar lina


110
tous les clients sur une période de temps et dans une fenêtre de sauvegarde définie. 
Pour  continuer  l’exemple  précédent,  supposons  que  la  taille  de  la  sauvegarde  totale  pour  tous  les  clients  est  de 
64256 Go, le taux de transfert est de 612 Go/heure (Type LT04, taux de transfert : 32128 Go/heure), la fenêtre de 
sauvegarde est 12 heures. 
Le nombre minimal de lecteurs dans le périphérique (robotique) est de : (32128 Go / 612 Go/heure) / 12 heures = 
4,37 soit 4 lecteurs. 

c. Collecte des besoins pour concevoir un système de sauvegarde opérationnel 

L’objectif  consiste  à  collecter  les  données  indispensables  pour  chacun  des  serveurs  de  l’infrastructure  appelés 
clients de sauvegarde pour l’application. 

Les informations suivantes sont donc requises : 

● Le nom du serveur (nom au sens NetBios pour Windows) ou le nom complet réseau. 

● Le système d’exploitation utilisé et de son niveau de révision ou de Service Pack. 

● La fonction (raison d’être du serveur, ses principales fonctionnalités). 

● Les partitions contenant les données du système et des applications, les volumétries correspondantes. 

● Les  applications  résidentes  sur  le  serveur  (progiciels,  logiciels,  applicatifs  métier)  susceptibles  d’un 
traitement particulier ou de contraintes (à préciser). 

● Les SGBD (Système de Gestion de Base de Données) installées sur le serveur (moteur, instances…). 

● La  classe  de  criticité  (dans  le  cas  où  le  serveur  fait  partie  d’un  plan  de  sauvegarde,  la  classe  est  définie 
dans le chapitre sur le plan de reprise d’activité). 

● Le  temps  d’indisponibilité  maximum  pour  restaurer  un  état  opérationnel,  pour  le  système  et  chacune  des 
applications. Ce choix va orienter vers la méthode de restauration des données la plus appropriée. 

● La fenêtre de sauvegarde. Il s’agit de la durée pendant laquelle les données, applications ou les serveurs 
sont disponibles pour effectuer une sauvegarde. 

● Les contraintes liées à l’exploitation. Elle sera optimisée après la première phase de la mise en place des 
opérations de sauvegarde. 

● La  fréquence  de  sauvegarde  pour  réaliser  leur  ordonnancement.  Cette  fréquence  influe  fortement  sur  les 
moyens techniques à mettre en œ uvre et sur la fenêtre de sauvegarde. 

● La  fréquence  de  restauration  est  destinée  à  déterminer  la  localisation  des  supports  de  sauvegarde 
(utilisation de clonage ou non). 

● Actions  à  réaliser  avant  et  après  les  opérations  de  sauvegarde  ou  de  restauration.  Il  s’agit de toutes les 
actions  ou  vérifications  à  effectuer  avant  ou  après  l’opération  effective  de  copie.  Ces  actions  sont 
généralement réalisées sous forme d’appels de programmes de script. 

● Durée de rétention, c’est le temps pendant lequel les différents types d’information sont conservés sur les 
supports de sauvegarde ou dans la base de données du logiciel de sauvegarde. 

● Croissance du volume des données, pour chaque type de données, il est nécessaire d’estimer la croissance 
à  venir.  Elle  n’est  pas  forcément  linéaire  et  il  est  nécessaire  de  s‘informer  sur  les  futures  évolutions  du 
système d’information. 

● Types  de  données.  Cette  information  peut  amener  à  effectuer  des  regroupements  dans  les  sauvegardes. 
Cela peut être par exemple les données concernant : 

© ENI Editions - All rigths reserved - Jonifar lina - 9-


111
● la nécessité des procédures de sécurité ou de confidentialité particulières, 

● une application particulièrement sensible, critique ou particulière pour l’entreprise, 

● les fichiers de l’application de messagerie, 

● leur conservation pendant un très long laps de temps. 

- 10 - © ENI Editions - All rigths reserved - Jonifar lina


112
L’archivage des données 

1. Stratégie d’archivage 

La différence entre la sauvegarde et l’archivage de données est que la première crée et contrôle plusieurs versions 
de sauvegardes qui sont directement attachées au fichier d’origine, tandis que la seconde crée un environnement de 
stockage pour des données qui doivent être normalement gardées pour une période de temps définie, parfois longue 
car vitales pour l’entreprise. 
Le  processus  de  stockage  d’une  copie  permanente  de  données  s’appelle  l’archivage.  Il  peut  être  à  l’initiative  de 
l’utilisateur ou automatisée. 
Après sa copie sur un support amovible, la donnée peut rester sur une unité de disques du serveur ou y être effacée 
pour libérer de l’espace. 

2. Archivage légal et à long terme 

L’AFNOR  a  défini  un  ensemble  de  normes,  la  principale :  NF  Z42­013,  traite  de  la  conservation  et  de  l’intégrité  des 
documents dématérialisés. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


113
L’administration et la supervision des sauvegardes 

1. La supervision des sauvegardes 

Par sécurité, il est important et même nécessaire que toutes les opérations de sauvegarde s’effectuent correctement. 
En  effet,  un  incident  peut  survenir  à  n’importe  quel  moment  du  traitement  et  la  perte  complète  des  données  d’un 
serveur peut s’avérer grave pour l’entreprise. 

C’est pour cela que cette vérification doit s’effectuer le plus souvent possible. 
Il  est  aussi  recommandé  d’utiliser  un  outil  de  supervision  sur  le  serveur  dédié  aux  opérations  de  sauvegarde. 
Toutefois, quand cela n’est pas possible, l’administrateur système ou l’opérateur doit effectuer un contrôle fréquent. 

a. Administration quotidienne 

L’administrateur  en  charge  de  la  gestion  des  sauvegardes  doit  vérifier  chaque  jour  les  points  suivants,  sur  les 
dernières 24 heures ou moins si cela est nécessaire : 

● évènements, alertes, alarmes, 

● historique des sauvegardes réalisées, 

● les rapports de gestion des supports, 

● les rapports de gestion des pools. 

Analyse des sessions en erreur

Chaque  session  de  sauvegarde  indiquant  une  erreur  doit  être  analysée  et  les  défauts  corrigés  rapidement.  Des 
reprises  des  sessions  en  erreur  sont  essentiellement  recommandées,  en  tenant  compte  des  disponibilités  des 
systèmes. Des vérifications et des tests supplémentaires peuvent s’avérer utiles. 

Rapports d’alertes

Par  messagerie  ou  par  message  direct  sur  la  console  du  système  concernée  ou  la  console  de  gestion  globale  du 
système d’information. Les alertes peuvent concerner les évènements suivants : 

● sauvegarde défectueuse ou non terminée, 

● manque de support de sauvegarde disponible (ce qui a pu entraîner un arrêt d’une étape de sauvegarde), 

● support défectueux ou en état de fin de vie. 

La vérification des sauvegardes

Cette  démarche  importante  doit  comprendre  le  contrôle  régulier  d’un  journal  de  vérification  des  évènements  des 
sauvegardes afin de vérifier qu’aucune anomalie n’a perturbé le bon fonctionnement. 

b. Vérification des sessions 

La  première  opération  à  effectuer  lors  de  la  vérification  du  bon  déroulement  des  sauvegardes  récentes  (la  veille 
dans le cas d’un jour en pleine semaine et les 3 derniers jours le lundi) afin de s’assurer que toutes les opérations 
ont été terminées correctement. 
Dans  un  premier  temps,  les  sessions  en  erreur  ou  contenant  des  erreurs  seront  étudiées.  Une  analyse  plus  fine 
devra être effectuée systématiquement. 

c. Gestion de la base de données du logiciel de sauvegarde 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


114
L’importance de l’intégrité de la base de données implique d’effectuer les opérations suivantes : 

● sauvegarde systématique, 

● vérification périodique de sa taille. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


115
Plan de reprise du serveur de sauvegarde 
Le  plan  contient  les  informations,  programmes  et  procédures  nécessaires  pour  automatiser  la  restauration  et  aide  à 
s’assurer  une  récupération  des  données  après  un  sinistre.  Les  programmes  doivent  contenir  les  processus 
indispensables pour reconstruire en priorité le serveur de sauvegarde. 
Les fonctions du plan de reprise doivent aider à gérer la continuité des applications métier par les actions suivantes : 

● Établissement du plan de reprise. Les clients de sauvegarde peuvent ensuite récupérer leurs données à partir 
du serveur si besoin. 

● Automatisation  des  étapes  vitales  de  reprise  pour  rétablir  le  serveur  de  sauvegarde  et  l’environnement  de 
sauvegarde dans son environnement opérationnel. 

● Gestion  et  identification  des  supports  de  sauvegarde  stockés  hors  site  s’ils  sont  jugés  nécessaires  pour  la 
restauration. 

● Évaluation des systèmes impactés lors de l’occurrence d’un sinistre. 

À  l’aide  de  l’application  de  sauvegarde,  il  doit  être  possible  d’effectuer  la  reprise  sur  le  site  principal  ou  sur  celui  de 
secours,  avec  une  configuration  matérielle  différente,  des  personnels  non  forcément  familiers  avec  l’application  de 
sauvegarde. 

Exemple  de  procédure  de  restauration  du  serveur  de  sauvegarde,  utilisation  d’un  logiciel  de  création  d’image  du 
système d’exploitation du serveur. 

Le processus comporte la copie du système du serveur sur un ou plusieurs DVD­Rom. Ce support pourra servir par la 
suite à rétablir l’ensemble du serveur (système d’exploitation et applications) car il est amorçable directement à partir 
d’un lecteur de DVD interne ou externe (via une connexion USB) au serveur. Les copies d’écrans suivantes indiquent le 
processus de création du support amorçable. 

Opérations de création de l’image du disque système du serveur de sauvegarde. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


116
 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


117
 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


118
Les différents produits du marché 
Il existe différents logiciels, les plus connus sont : 

● Outils OpenSource : Amanda (Unix, Windows) 

● Outils commerciaux : 

● Atempo Time Navigator 

● EMC Networker 

● HP Data Protector 

● Veritas NetBackup DataCenter 

● IBM ­ TSM (Tivoli System Management) 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


119
Introduction 
Pour une entreprise, la continuité et la reprise des activités métier doit être plus qu’une bonne pratique. 
Un plan de continuité assure que l’entreprise a la possibilité de continuer les fonctions essentielles parmi une grande 
variété de situations qui pourraient interrompre les opérations normales. 
La haute disponibilité, présentée dans un chapitre précédent, est un élément essentiel pour la plupart des plans de 
continuité d’activité métier car il permet de déployer des solutions de protection des systèmes et des données. 

Un plan de reprise d’activité appelé aussi plan de secours informatique assure qu’elle a la possibilité de reprendre ses 
fonctions essentielles même en cas de situation grave. 

C’est  pour  cela  que  la  préparation  de  la  reconstruction  du  système  d’information,  en  cas  d’évènements  sévères, 
s’avère important. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


120
Comment bien se préparer aux incidents graves et aux sinistres 
Ces incidents graves peuvent agir sur l’ensemble des systèmes et impacter gravement sur les fonctions principales du 
métier de l’entreprise. Ils peuvent survenir à plusieurs niveaux et être plus ou moins importants. Ces interruptions de 
l’activité du système d’information peuvent avoir comme origine : des coupures d’alimentation électrique, des défauts de 
matériels, des attaques à l’aide de programmes malveillants. 
Les  documents  de  procédure  doivent  être  disponibles  facilement  en  interne  dans  l’entreprise  (site  Intranet…),  sous 
forme  de  papier  (à  mettre  à  jour  fréquemment  en  indiquant  la  date  d’impression)  dans  un  lieu  sécurisé  à  l’abri  des 
risques  potentiels  (incendie…),  disponible  sur  une  clé  USB  détenue  par  le  responsable  DSI,  RSSI,  ou  le  directeur  de 
l’entreprise. 

Les  documents  de  procédure  doivent  être  rédigés  de  façon  à  permettre  à  une  personne  ne  connaissant  pas 
l’aspect technique de pouvoir réaliser les actions de reprise. 

Comme tout projet à réaliser, l’établissement d’un plan de secours s’intègre dans une démarche de gestion de projet, 
méthodologie de conception suivant le processus présentant quatre phases. 

La phase d’analyse stratégique d’un plan de secours se décline sous forme de quatre tâches principales. 

Organisation et conduite de projet 

● gestion d’équipe, structure organisationnelle 

● planification, coordination, organisation de la mise à jour 

● formation et assistance 

Analyse des risques 

● évaluation 

● définition des risques potentiels 

Analyse d’impact 

● identification des critères de fragilité et de sensibilité aux risques 

● analyse des conséquences 

● évaluation des impacts 

Définition des modes de fonctionnement normal et minimal de chaque application critique 

● délai maximal d’inactivité, consignes opérationnelles, priorités de restauration, procédures de 
reprise, exigences de planification 

1. Approches possibles 

Deux approches existent pour faire face à un désastre potentiel de l’ensemble du système d’information. 

● Implémenter  une  infrastructure  redondante  sur  un  site  déporté  qui  peut  ou  serait  à  même  de  reprendre 
l’activité  de  l’entreprise dans des délais à définir selon les impératifs métier  de  l’entreprise et la criticité des 
applications. 

● Mettre en place un plan de reprise d’activité local qui va rétablir le plus rapidement possible l’ensemble de la 
structure du système d’information selon les impératifs de l’entreprise. 

La  première  solution  sera  forcément  plus  onéreuse  et  plus  complexe  que  la  seconde.  Différentes  solutions  seront 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


121
présentées dans les chapitres suivants. 

2. Rétablissement 

Il  existe  deux  types  de  rétablissement,  l’un  partiel  permettant  un  fonctionnement  dégradé  de  l’infrastructure  dans 
lequel  les  fonctions  principales  seront  rétablies,  l’autre  complet  dans  lequel  l’ensemble  sera  complètement 
opérationnel. 
Plusieurs  paramètres  doivent  être  analysés :  le  temps  de  rétablissement  et  le  pourcentage  de  rétablissement  des 
fonctionnalités souhaités. Le tableau suivant montre un exemple de types de reprise : 

Pourcentage de 
Type de  Temps de 
Service  rétablissement  commentaires 
rétablissement  rétablissement 
(partiel) 

ERP  Partiel/total  1j  80% 

Switches salle 
Total  1h  100% 
système 

Gestionnaire 
Partiel  4j  30% 
d’imprimantes 

Il  faut  noter  que  chaque  temps  de  rétablissement  (selon  le  type)  peut  en  réalité  se  mesurer  comme  la  somme  de 
plusieurs éléments : 

● le  temps  nécessaire  pour  installer  et  connecter  le  matériel  (alimentations  électriques,  serveurs,  unités  de 
disques, composants réseau, câbles, postes de travail…), 

● la durée requise pour installer et configurer les systèmes d’exploitation sur chaque serveur, 

● le temps de rétablissement des connexions réseaux avec les autres équipements, 

● le temps d’installation et de configuration des applicatifs. 

3. Sélection des objectifs prioritaires 

La création d’un plan de reprise d’activité va dépendre de priorités liées aux métiers de l’entreprise. Les fonctions les 
plus  critiques  devront  être  rétablies  plus  rapidement  au  détriment  d’autres.  Dans  l’élaboration  de  ce  plan,  il  sera 
nécessaire de définir des priorités de remise en fonctionnement selon les classes de criticités. 

4. Détermination du budget disponible 

Les  objectifs  du  plan  de  rétablissement  et  les  moyens  nécessaires  pour  y  parvenir  doivent  être  en  accord  avec  les 
possibilités budgétaires de l’entreprise. 

5. Détermination ou analyse des risques 

Avant  de  commencer  l’élaboration  de  ce  plan,  il  est  nécessaire  d’analyser  quels  sont  les  risques  potentiels  et  les 
menaces  à  couvrir.  En  effet  la  gamme  d’interruptions  possibles  est  très  variable  en  gravité  et  en  probabilité 
d’occurrence. 

Les désastres, considérés comme causes de ces interruptions, peuvent être classés en plusieurs catégories : 

● Catégorie  1 :  cela  comprend  les  événements  qui  peuvent  être  considérés  comme  des  incidents  tels  que  les 
pannes électriques, les orages ou les pannes de climatisation. Ils sont facilement maîtrisables en installant des 
équipements redondants (onduleurs…). 

● Catégories 2 : les destructions qui affectent la salle informatique ou le centre de stockage de données (Data 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


122
Center).  Elles  peuvent  être  évitées  par  la  mise  en  place  d’un  site  de  secours  externe,  par  l’hébergement de 
système redondants chez un fournisseur de services. 

● Catégorie  3 :  désastres  importants  (tremblements  de  terre,  inondations,  guerre  ou  attentats).  Ces  sinistres 
sont plus difficiles à prévoir et à gérer car ils s’accompagnent d’une désorganisation sociale et de destructions 
dans un grand rayon géographique. Une solution optimale est l’hébergement à grande distance des données 
de l’entreprise. Cette catégorie peut uniquement concerner les données extrêmement critiques ou sensibles. 

L’entreprise doit ainsi définir contre quelles catégories de désastre elle souhaite se prémunir. 

6. Les solutions de secours 

En résumé, pour définir une stratégie cohérente de secours en cas de désastre ou autre évènement grave pouvant 
survenir, les solutions techniques suivantes sont recommandées : 

● la sauvegarde de tous les systèmes, locale ou à distance, 

● redondance des composants pour les systèmes critiques ou sensibles, 

● l’utilisation de réseau de stockage, la réplication des disques ou unités de stockage, 

● la virtualisation des serveurs, 

● redondance de câblage des réseaux LAN et des liens de communications WAN. 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


123
Considérations techniques pour l’établissement de plans de secours 
Les pré­requis d’un tel plan imposent qu’une réflexion en amont a été réalisée, que des solutions sont prévues ou déjà 
en place. 

● fréquence  des  sauvegardes  et  du  stockage  hors  site  des  données,  des  applications  et  des  systèmes 
d’exploitation, 

● redondance des composants pour les systèmes critiques, 

● documentation sur les configurations des systèmes, 

● interopérabilité entre les composants des systèmes et entre l’équipement des sites principaux et secondaires 
pour réaliser la remise en service des systèmes, 

● les  systèmes  de  gestion  d’alimentation configurés et les contrôles d’environnement doivent être correctement 


paramétrés. 

1. Postes de travail fixes et portables 

a. Considérations de précautions et bonnes pratiques 

Les précautions à considérer pour ce type de matériel concernent la disponibilité, la confidentialité et l’intégrité des 
données. 
Pour respecter ces besoins en sécurité, les responsables systèmes et les administrateurs se doivent de réfléchir aux 
bonnes pratiques suivantes : 

● Stocker  les  sauvegardes  hors  site :  les  supports  de  sauvegarde  doivent  être  stockés  hors  site  dans  un 
local sécurisé et contrôlé. 

● Encourager les personnels possédant ce type de matériel à sauvegarder régulièrement leurs données et 
fichiers. Si aucun processus automatique n’a été mis en place pour stocker les fichiers des postes de travail 
directement sur un serveur dédié connecté au réseau d’entreprise, les utilisateurs doivent sauvegarder leurs 
données périodiquement. Ce point concerne surtout les utilisateurs d’ordinateurs portables. 

● Fournir les conseils adéquats aux utilisateurs sur la façon de sauvegarder leurs données. 

● Standardiser,  dans  l’entreprise,  les  matériels,  logiciels  (systèmes  d’exploitation,  applications)  et  les 
périphériques (imprimantes…). La récupération des systèmes s’avère nettement plus rapide et efficace si 
l’entreprise a défini un standard en ce qui concerne les actifs du système d’information. Si cette solution n’est 
pas  réalisable  complètement,  il  est  donc  préférable  de  standardiser  par  entité  ou  par  type  de  machine  ou 
encore par modèle. 

De plus, les composants matériels critiques qui ont besoin d’être remis en fonctionnement de façon urgente 
dans  l’éventualité  d’un  désastre  doivent  être  compatible  avec  les  matériels  immédiatement  disponibles. 
Cette  compatibilité  évite  des  difficultés  d’approvisionnement  relatives  à  des  retards  de  livraison  des 
fournisseurs ou partenaires professionnels. 

● Documenter  sur  les  configurations  des  systèmes  et  les  informations  des  constructeurs  et  éditeurs. Des 
procédures  de  configuration  des  systèmes  bien  documentées  et  correctement  mises  à  jour  aident  à  une 
remise  en  service  rapide  des  systèmes.  De  même,  les  références  des  fournisseurs  et  les  informations  de 
contacts doivent être répertoriées dans les documents de plans de reprise pour obtenir le support technique 
ou la possibilité de remplacement rapide de matériels. 

● Coordonner les politiques de sécurité avec les contrôles de sécurité mis en place dans l’entreprise. Les 
solutions  de  précaution  décrites  ci­dessus  pour  les  postes  de  travail  et  ordinateurs  portables  doivent  être 
compatibles  et  coordonnées  avec  la  politique  de  sécurité  définie  dans  l’entreprise  et  les  procédures  de 
contrôles mises en place. 

En conséquence, lors du choix des procédures de sécurité appropriées pour ces matériels, il est nécessaire 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


124
d’être  cohérent  et  d’implémenter  au  moins  les  mêmes  principes  pour  les  serveurs  de  production.  De  cette 
façon, lors d’un désastre ou une situation critique, les données transférées ne sont ni altérées ni détruites. 

b. Les sauvegardes 

Il  s’agit  de  la  solution  la  plus  efficace  pour  assurer  la  disponibilité  des  données  sur  les  postes  utilisateurs.  Les 
meilleures solutions devront être mises en œ uvre, parmi elles il existe celle qui consiste à effectuer une sauvegarde 
continue bloc de données par bloc de données vers un serveur dédié. Ce serveur de sauvegarde fera aussi partie de 
la solution de sauvegarde. Pour plus de facilité, il peut s’agir du serveur de sauvegarde lui­même. 

Exemple de solution du marché : Time Navigator LiveBackup 

● Interopérabilité des équipements 

Pour  faciliter  la  restauration,  le  périphérique  de  sauvegarde  (unité  simple  ou  bibliothèque  de  sauvegarde) 
doit  être  compatible  avec  le  système  d’exploitation  utilisé  et  les  applications.  Le  module  d’application  pour 
client de sauvegarde doit être facile à installer sur tous types de postes de travail. 

● Les supports de stockage 

Pour  assurer  un  stockage  efficace  et  adapté  à  l’entreprise,  la  taille  des  données  à  sauvegarder  doit 
déterminer la solution de sauvegarde appropriée. 

● Durée de vie des supports et durée de rétention des données 

Chaque type de support possède des caractéristiques, utilisations et durées de vie différentes. Cela implique 
des adaptations à réaliser pour des restaurations de données efficaces. 

● Le logiciel de sauvegarde 

Il doit être adapté au contexte de l’entreprise, à son métier et aux impératifs de stocker les données pour 
qu’elles puissent être récupérées de façon rigoureuses. 

Les sauvegardes simples pour les postes de travail ou nomades peuvent être accomplies selon différentes façons : 

● Clé USB : c’est actuellement la solution la plus simple et la plus économique pour réaliser des sauvegardes 
rapides.  La  seule  limitation  reste,  pour  l’instant,  sa  faible  capacité  par  rapport  aux  bandes  magnétiques. 
Seules les données de travail en cours peuvent être stockées. Elle est utilisée surtout pour des stockages 
temporaires. 

● Disques  portatifs : c’est  aussi  la  solution  simple,  moins  économique  que  la  clé  USB.  Ce  dispositif  possède 
assez  de  capacité  disque  pour  stocker  le  contenu  d’un  disque  dur.  C’est  la  solution  idéale  pour  les 
possesseurs de postes nomades. 

● Disque  optique  (CD  ou  DVD­Rom)  :  cette  unité  de  stockage  est  utilisée  en  standard  sur  la  plupart  des 
postes  de  travail.  Ceux­ci  sont  maintenant  équipés  de  possibilités  d’écriture  sous  forme  de  graveur  de 
disques  et  du  logiciel  adapté.  Ce  support,  de  faible  coût,  possède  encore  pour  l’instant  la  possibilité  de 
stocker plus de données qu’une clé USB. Toutefois, l’usage est différent, le stockage des données peut être 
de plus longue durée. 

● Stockage en réseau et synchronisation : les données utilisées par des applications peuvent être stockées 
sur  un  serveur  de  données  dédié,  faisant  partie  de  l’architecture  de  sauvegarde  globale  de  l’entreprise.  Il 
s’agit d’une des meilleures solutions pour les postes de travail fixes. Pour les postes nomades, il existe des 
logiciels  de  synchronisation  ou  de  sauvegarde  sur  lesquels  une  partie  client  est  installée.  Certains  de  ces 
outils  détectent  automatiquement  chaque  connexion  sur  le  réseau  de  l’entreprise  et  synchronisent  les 
données  entre  le  poste  et  le  serveur  dédié,  la  sauvegarde  est  alors  instantanée.  D’autres  applications 
nécessitent d’être exécutées manuellement. Le risque d’oubli de son utilisation augmente le risque de perte 
de données. 

● La sauvegarde image du ou des disques du poste utilisateur : la réalisation de la sauvegarde de la partie 
système  d’exploitation  du  disque  dur  sous  la  forme  d’une  image  du  système  est  aussi  une  solution  de 
secours.  Il  existe  plusieurs  solutions  et  logiciels  réalisant  cette  copie.  Certains  nécessitent  un  CD­Rom 
bootable  (amorçable)  plus  un  ou  plusieurs  DVD­Rom  contenant  une  copie  du  système.  D’autres  plus 
élaborés  et  plus  performants  demandent  seulement  un  ou  plusieurs  DVD­Rom  bootable  (amorçable). 
L’opération de copie et la restauration complète prennent peu de temps. 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


125
Exemple de solution du marché : Paragon DriveBackup 

La sauvegarde image du système, réalisée précédemment et stockée dans un endroit sécurisé, permet à un poste 
de  travail  d’être  reconstruit  dans  le  cas  d’un  défaut  matériel  (disque  dur  principalement)  ou  d’une  corruption  de 
l’ensemble du système. 

Dans le cas d’un défaut matériel lié à la carte­mère, la restauration du poste ne sera possible, pour la plupart des 
outils du marché, que si le matériel est totalement identique au précédent. 

Une autre solution disponible pour la gestion des postes est celle de créer un support de secours dit master. Il s’agit 
d’un CD­Rom  ou  DVD­Rom comportant une installation standard du système d’exploitation Windows, la plus à jour, 
associée aux logiciels ou applicatifs standards ou imposés dans l’entreprise. 

Cette  solution  permet  d’installer  ou  de  réinstaller  tous  les  postes  de  travail  avec  une  configuration  logicielle 
identique. 

Toutefois,  il  sera  nécessaire  d’être  vigilant  et  de  recréer  toutes  les  fois  que  ce  sera  possible  un  master  avec  les 
derniers correctifs du système d’exploitation et les mises à jour de logiciels de protection (anti­virus…). 

c. Les risques particuliers des postes nomades 

En  effet,  ces  matériels  sont  vulnérables  et  peuvent  être  dérobés  à  l’insu  de  leur  propriétaire.  En  conséquence,  le 
chiffrement  des  données  sur  les  unités  de  disque  est  recommandé  pour  protéger  les  informations  stockées.  Des 
précautions imposent aussi, suivant de bonnes pratiques de copier les données importantes sur un disque externe 
et de ne jamais transporter l’ordinateur et ce disque supplémentaire dans la même sacoche. Si le poste nomade est 
dérobé  alors  que  les  données  sont  chiffrées  et  sauvegardées,  le  risque  de  perte  de  données  existe  toujours.  Par 
contre, les informations stockées ne seront pas récupérées par une autre personne. 

2. Les serveurs 

À la différence des postes de travail, les serveurs ont des fonctions plus importantes dans le système d’information. Ils 
supportent le stockage et le partage des fichiers, le traitement des données, l’hébergement d’applications métiers ou 
centrales, la gestion de l’impression, les contrôles d’accès, l’authentification des utilisateurs, la connectivité d’accès à 
distance, d’autres services partagés sur le réseau d’entreprise. Les utilisateurs des postes de travail s’y connectent 
au travers d’applications ou pour accéder à leurs fichiers de travail. 

a. Considérations de précautions de sécurité et bonnes pratiques 

Les précautions à considérer pour ce type de matériel concernent la disponibilité, la confidentialité et l’intégrité des 
données de façon encore plus critique que pour les postes de travail. Pour respecter ces besoins en sécurité tout en 
prêtant  attention  aux  vulnérabilités,  les  responsables  systèmes  et  les  administrateurs  doivent  prendre  en 
considération les bonnes pratiques suivantes : 

● Stocker  les  supports  de  sauvegarde  et  d’installation  des  logiciels  hors  site  :  comme  cela  a  été  indiqué 
précédemment, ces supports doivent être stockés dans un site sécurisé. Cet endroit de stockage doit être 
assez  distant  du  site  principal  pour  réduire  la  probabilité  que  les  deux  sites  soient  affectés  par  un  même 
évènement grave. 

● Standardiser  les  matériels,  logiciels  et  périphériques  :  la  remise  en  état  du  système  d’information  sera 
plus rapide et efficace si tous ces éléments sont standardisés pour l’ensemble de l’entreprise ou du site. De 
même, il est recommandé d’uniformiser les configurations des serveurs et des périphériques. 

● Documenter  les  configurations  des  systèmes  et  des  applications  :  la  documentation  correctement  gérée 
sous  forme  d’enregistrement  papier  ou  électronique  permet  de  conserver  les  configurations  réalisées.  La 
remise en service n’en sera que plus rapide et efficace. De même, les documents des constructeurs, éditeurs 
de logiciels et des fournisseurs doivent être identifiés et gardés dans un endroit sécurisé. 

● Coordonner  avec  les  politiques  de  sécurité  et  les  contrôles  de  sécurité  système  :  le  fait  de  choisir  les 
bonnes solutions techniques de protection et de secours (évaluation de risques et des vulnérabilités) dans 
l’environnement de production permet de s’assurer que, dans le cas d’un incident grave ou d’un désastre, les 
interruptions de service n’auront pas d’impact sur l’intégrité et la disponibilité des données, surtout celles qui 
sont particulièrement sensibles. 

b. Solutions de précaution et de secours 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


126
Plusieurs solutions techniques permettent d’améliorer les possibilités de reprise d’activité des serveurs. Lors du choix 
de solutions appropriées, la confidentialité et l’aspect sensible ou critique des données doit être prises en compte. 
Par  précaution,  il  n’est  pas  recommandé  de  faire  cohabiter,  sur  un  même  serveur  ou  un  cluster  de  serveurs,  des 
fonctions et applications critiques avec celles qui le sont moins. Comme pour les postes de travail et a fortiori pour 
des considérations métier, les serveurs doivent être impérativement sauvegardés périodiquement. Cette opération 
peut s’effectuer localement sur chaque serveur à l’aide d’unité de sauvegarde locale ou dans le cadre d’un système 
centralisé de stockage avec l’implémentation d’une bandothèque relié à un serveur dédié. 

Ces solutions ont été présentées dans le chapitre précédent (cf. chapitre La sécurité des données). 
Réplication de données entre sites 

Dans le cas où la stratégie de plan de secours et de reprise a prévu l’implémentation d’une réplication entre deux 
sites  distants  de  l’entreprise,  il  est  nécessaire  de  prendre  en  compte  l’infrastructure  globale.  Celle­ci  prend  en 
compte  les  serveurs  normalement  utilisés  pour  la  réplication  des  données  ou  des  services.  Des  moyens  de 
communication redondants doivent être prévus. 
De plus, il est indispensable de bien gérer les sens de réplication entre serveurs distants pour éviter d’altérer ou de 
détruire  les  données  les  plus  récentes  lors  d’incidents  sur  l’un  des  sites.  Les  outils  de  réplication  les  plus 
couramment utilisés se chargent de cette vérification. Toutefois, un contrôle supplémentaire fait partie des bonnes 
pratiques. 

Exemple de procédure (étapes à suivre) à mettre en œuvre en cas en cas de sinistre total 
1. Le réseau de communication de l’entreprise doit être remis en état de fonctionnement. 
2. Les serveurs doivent être opérationnels et en état de marche. 
3. Le ou les serveurs de sauvegarde doivent être opérationnels et prêts à réaliser les restaurations. 

4. Les contrôleurs de domaine (Active Directory et DNS) doivent être restaurés en premier, cela permet de rétablir la 
connectivité partout dans l’entreprise. 
5.  S’ils  existent,  les  serveurs  de  base  de  données  doivent  ensuite  être  restaurés  suivis  par  les  serveurs 
d’applications. 
6. Toutes les applications doivent être testées pour vérifier leurs fonctionnalités. 
7.  Restaurer  les  autres  serveurs  de  l’entreprise  par  ordre  de  priorité  métier,  les  autres  serveurs  dépendant  des 
précédents sont alors remis en état. 

La restauration de base pour chaque serveur requiert : 

● tous les fichiers et les dossiers de toutes les partitions, 

● l’état du système (Windows), 

● les bases de données du système. 

c. Solutions de restauration particulières 

Types de restauration pour les contrôleurs de Domaine (environnement d’Active Directory) 

Les  contrôleurs  de  domaine  communiquent  entre  eux  à  travers  le  réseau  et  répliquent  les  données  et  des 
informations sur les utilisateurs. Cette réplication est automatisée selon la configuration définie lors de l’installation 
du système d’exploitation (Windows). 
Options de restauration des données de l’état du système 

Ces  opérations  de  restauration  restituent  plusieurs  objets,  comprenant  SYSVOL  et  Active  Directory.  Les  types  de 
restauration supportés par SYSVOL sont : 

● Authoritative ou Forcé : restauration du contrôleur de domaine et marquage des objets en tant que copies 
définitives. Les autres copies de l’annuaire, présentes sur le réseau, sont remplacées. 

● Non­authoritative  ou  Non­forcé  :  restauration  du  contrôleur  de  domaine  suivi  de  la  récupération  des 
modifications survenues dans l’annuaire. C’est la restauration par défaut. Cette méthode est utilisée quand 
un incident grave est arrivé sur le serveur hébergeant les données de l’Active Directory. 

● Primary  ou  Primaire  :  cas  de  restauration  où  tous  les  contrôleurs  de  domaine  sont  défectueux  ou 
inaccessibles. 

Le type de restauration choisi pour SYSVOL s’applique seulement à ce type d’opération de restauration et n’affecte 

- 4- © ENI Editions - All rigths reserved - Jonifar lina


127
pas les opérations réalisées sur les composants des autres contrôleurs de domaine. 
Restauration de la base de données d’un Cluster de serveurs Windows 

Les bases de données des services du cluster de serveurs et du quorum sont restaurées avec l’état du système, la 
restauration du nœ ud physique appartenant aux bases de données du quorum. 

Les fichiers des applications installées sont restaurés avec les autres répertoires. 

Le fait de restaurer l’état du système et les autres fichiers et répertoires va restaurer les fichiers sur une machine 
physique et les bases de données de cluster dans un répertoire temporaire. Il est nécessaire d’utiliser ensuite les 
outils de gestion du cluster pour finaliser la restauration. 

3.  Les  réseaux  locaux  ou  LAN  (Local  Area  Network),  étendus  ou  WAN  (Wide  Area 
Network) 

a. Considérations de bonnes pratiques 

Il est recommandé de suivre ces principes de protection : 

● Documentation  du  LAN  (Local  Area  Network)  et  du  WAN  (Wide  Area  Network)  :  les  représentations 
physiques  et  logiques  des  réseaux  doivent  être  documentés  sous  forme  de  schémas  et  mis  à  jour 
périodiquement. La représentation logique doit décrire les réseaux LAN, WAN et leurs différents composants. 
Il existe des outils de découverte et de supervision du réseau qu’il est intéressant d’utiliser pour cela. Tous 
ces diagrammes peuvent fournir une image réelle, ce qui permet au personnel dédié de remettre en état les 
services réseaux plus rapidement lors d’un incident impactant cette partie de l’infrastructure. 

● Documentation  sur  les  configurations  des  matériels  et  les  informations  des  constructeurs :  des 
procédures de configuration des équipements de connexion réseau bien documentées et correctement mises 
à jour aident à une remise en service rapide. 

De même, les références des fournisseurs et les informations de contacts doivent être répertoriées dans les 
documents de plans de reprise pour obtenir le support technique ou la possibilité de remplacement rapide 
des composants. 

● Coordonner  avec  les  politiques  de  sécurité  et  les  contrôles  de  sécurité  :  les  solutions  de  secours 
appliquées  au  LAN  et  au  WAN  impliquent  de  choisir  les  bonnes  solutions  techniques  de  protection  et  de 
secours  (évaluation  de  risques  et  des  vulnérabilités)  dans  l’environnement  de  production.  Ces  solutions 
permettent de s’assurer que, dans le cas d’un incident grave ou de menaces, il n’y aura pas d’impact sur la 
sécurité et l’état du réseau. 

b. Solutions de précaution et de secours 

L’un des premiers éléments dont il faut tenir compte est d’identifier les points critiques appelés aussi SPOF (single 
points  of  failure)  qui  peuvent  affecter  tous  les  systèmes,  en  particulier  les  plus  sensibles  ou  critiques.  Cette 
précaution peut inclure l’évaluation des menaces dans le système de câblage (détérioration physique, interférences 
électromagnétiques,  autres  dommages  causés  par  le  feu,  l’eau…).  La  solution  recommandée,  pour  éviter  ces 
vulnérabilités, est de mettre en place des connexions redondantes pour les systèmes critiques. 

Pour réduire les effets d’une interruption des réseaux LAN ou WAN, des outils de supervision doivent être installés. 
Ces dispositifs génèrent des alarmes quand un composant du réseau commence à présenter un défaut ou ne répond 
plus. Ces outils facilitent le dépannage et avertissent l’administrateur du réseau ou le responsable du système des 
perturbations affectant le réseau. 

Les accès à distance 
Il s’agit d’un service fourni par des serveurs dédiés et des équipements connectés sur le réseau pour accéder aux 
ressources internes à l’entreprise. Il est utile, à partir d’un accès externe, pour les utilisateurs utilisant un poste de 
travail  de  type  nomade.  Le  type  le  plus  courant  et  sécurisé  est  l’accès  privé  de  réseau  à  distance  ou  VPN  (Virtual 
Private Network). Cet accès doit être disponible le plus rapidement possible pour permettre à des utilisateurs d’être 
opérationnels même si une partie du site principal a subi des dommages importants. Les points essentiels à prendre 
en  compte  sont  la  bande  passante  réseau  disponible  et  les  contrôles  de  sécurité,  surtout  si  les  communications 
contiennent des informations sensibles. 

c. Les réseaux sans­fil ou WLAN (Wireless Local Area Networks) 

Ces  réseaux  peuvent  servir  comme  solution  de  secours  pour  restaurer  des  services  réseaux  à  la  suite  de 

© ENI Editions - All rigths reserved - Jonifar lina - 5-


128
l’interruption de réseaux LAN câblés, installé en tant que solution temporaire. Par contre, cette solution présente les 
inconvénients  de  manque  de  sécurité  par  rapport  à  un  réseau  filaire  dans  le  sens  où  les  communications  peuvent 
être interceptées. Dans le cas d’une implémentation temporaire ou définitive, il est indispensable de mettre en place 
des configurations permettant la plus grande sécurité. Des procédures de contrôles, comme le chiffrage de données, 
doivent être implémentées si les communications transfèrent des informations critiques. 

d. Les systèmes distribués selon une architecture client­serveur 

Ces  systèmes  sont  implémentés  dans  des  environnements  dans  lesquels  les  serveurs  (applications,  base  de 
données), les clients, les utilisateurs sont dispersés géographiquement. Ces systèmes dépendent de tous les types 
de  réseaux  implantés  dans  l’entreprise  (LAN,  WAN,  MAN,  WLAN…)  et  de  tous  les  éléments  qui  ont  besoin  de 
synchronisation  et  de  coordination  pour  éviter  des  interruptions  de  service.  Les  considérations  de  secours 
comprennent toutes celles qui ont été décrites ci­dessus en ce qui concerne les postes de travail, les serveurs et les 
réseaux. 

Les points sensibles ou critiques du système d’information sont les éléments à surveiller de manière plus précise. 

- 6- © ENI Editions - All rigths reserved - Jonifar lina


129
Guide  pour  l’établissement  d’un  Plan  de  Reprise  d’Activité  en 
préparation d’un désastre 
Un sinistre informatique majeur survient le plus souvent à la suite de la combinaison de causes multiples, le processus 
de gestion de crise doit être mûrement préparé, via des plans de communication externe et interne, d’une part ; par la 
prise en compte du stress inhérent aux situations exceptionnelles, d’autre part. 

1. Objectifs généraux 

L’objectif principal de cette démarche est de créer, de documenter et de tester un processus de restauration global 
de l’outil informatique dans le cas où un désastre surviendrait dans une entreprise. 
La  mise  en  œ uvre  d’un  tel  plan  de  secours  consiste  en  l’implémentation  d’une  structure  organisationnelle  et 
technique qui permet d’assurer le retour rapide à un fonctionnement minimal des applications classiques et critiques 
après la survenue du sinistre. 
L’un  des  premiers  principes,  avant  de  rédiger  le  document  de  référence,  consiste  à  réfléchir  aux  conséquences 
possibles du sinistre et aux scénarios les plus graves. Cela consiste donc à établir un état des lieux de l’organisation 
et de son système d’information. 

Les  éléments  du  guide  décrits  dans  ce  chapitre  nécessitent  un  certain  nombre  de  vérifications  et  d’actions  à 
entreprendre.  Il  pourra  être  géré  comme  un  projet  nécessitant  de  mettre  en  place  un  planning  et  d’allouer  des 
ressources tant humaines que techniques. 

L’implémentation  consiste  à  préparer  un  plan  de  secours  dans  une  situation  de  crise  majeure  pouvant  impacter  le 
système d’information et les outils associés. Ce dispositif peut comprendre : 

● un plan de continuité (interruptions, solutions techniques mises en œ uvre), 

● un plan de reprise d’activité, 

● un redémarrage de l’activité en 24 ou 48 heures, 

● un travail en mode dégradé de l’entreprise ou de certains services. 

Dans  l’élaboration  du  plan,  il  faudra  tenir  compte  des  pires  scénarios.  Il  s’agit  donc  de  définir  une  stratégie 
d’ensemble pour restaurer les services, les applications et les données. 

Conditions de réussite 

● Le plan doit être défini en fonction de l’environnement, des besoins spécifiques de l’entreprise. 

● Les  aménagements  en  cas  de  destruction  partielle  ou  totale  des  ressources  matérielles  doivent  avoir  été 
prévus. 

● La définition précise des responsabilités de chacun des personnels doit être établie. 

● L’engagement total et le support de la direction de l’organisation sont nécessaires. 

● La  préparation  d’un  programme  et  d’un  échéancier  de  rétablissement  sera  élaborée  (plan  documenté, 
éprouvé, vérifié, mis à jour en fonction des modifications de structure ou des nouveaux aménagements). 

● La  planification  de  la  reprise  sera  synchronisée  en  fonction  des  sites  (si  l’entreprise  comporte  plusieurs 
entités). 

● Ce  plan  devra  tenir  compte  que  les  moyens  de  communication  peuvent  être  indisponibles  (lignes 
téléphoniques, routes…). 

Contenu 

Le plan de reprise va comporter un ensemble de procédures et d’actions qui vont aider les responsables d’entreprise 
à restaurer d’abord les fonctions principales de l’organisation. Une remise en état rapide et efficace la sauvera plus 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


130
facilement d’une catastrophe économique et financière. 
Ce  document,  bien  que  présenté  sous  une  forme  générale,  sera  spécifique  à  chaque  entreprise  quant  à  son 
élaboration finale. 

Étapes majeures

La préparation implique de tenir compte d’étapes d’élaboration, parmi celles­ci : 

● l’analyse des enjeux et classification des ressources du système d’information, 

● le diagnostic de l’état de la sécurité, 

● l’identification et évaluation des risques encourus par l’entreprise, 

● l’établissement d’un plan opérationnel de reprise. 

2. État des lieux de l’existant 

a. Éléments critiques de l’infrastructure 

Cette  évaluation  qui  fait  suite  à  l’inventaire  des  actifs  liés  au  système  d’information  va  localiser  les  éléments 
critiques.  Il  s’agit de ceux qui sont définis comme les points critiques. Il peut s’agit d’éléments  matériels,  logiciels, 
organisationnels ou encore environnementaux. 

● matériel : serveur, composant réseau… 

● logiciel : système d’exploitation, applications, bases de données, messagerie… 

● unité de stockage : NAS (Network Attached Storage), SAN, périphériques de sauvegarde… 

● alimentation électrique, climatisation. 

Objectifs

● obtenir une analyse précise des risques potentiels, 

● définir les solutions et mesures à mettre en œ uvre. 

b. Inventaire et diagnostic de l’état de la sécurité 

L’une des premières étapes consiste à effectuer un inventaire des systèmes et services pour lesquels l’interruption 
pourrait avoir un impact sur l’activité de l’entreprise dans les domaines suivants : 

● opérationnels (exemple : poste de travail), 

● infrastructures (exemple : outils de maintenance ou de surveillance), 

● obligations légales (paiement des salaires), 

● intérêts financiers (exemple : paiement des factures), 

● pertes financières (exemple : système de communication avec les banques), 

● atteinte à l’image de marque de la société (exemple : site Internet), 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


131
● sécurité (exemple : surveillance de processus industriels). 

Inventaire technique et organisationnel

● de  l’environnement  informatique  et  de  communication,  comprenant  les  pratiques  personnelles,  la  sécurité 
physique, les procédures opératoires, 

● des dispositifs de sauvegarde, de plan de reprise existant, 

● des systèmes de maintenance et de développement, 

● de sécurité des données et des communications. 

Cette liste permet de visualiser les services qui pourraient être touchés. Elle servira de départ à la suite de l’étude. 

c. Architecture de sauvegarde 

La  sauvegarde  des  données  est  un  élément  déterminant  pour  effectuer  la  remise  en  état  de  l’infrastructure  du 
système  d’information. Celui­ci  ne  peut  être  rétabli  sans  le  stockage  sécurisé  des  informations.  La  vérification  du 
plan de sauvegarde et de la stratégie associée est un préalable à la création d’un plan de reprise d’activité. 

d. Équipements redondants ou de haute disponibilité 

Les impératifs métier  de  l’entreprise impliquent la mise en place d’éléments redondants ou de haute­disponibilité. 


L’analyse  de  la  situation  permettra  de  vérifier  leur  opérabilité  pour  comprendre  qu’ils  correspondent  bien  aux 
risques encourus. 

e. Matériel et logiciels de secours 

Il s’agit de réaliser l’inventaire des équipements disponibles sur place prévus en cas d’incident majeur. 

3. Analyse des besoins métier 

Certains éléments du guide d’audit de la méthodologie MEHARI peuvent être utilisés dans cette analyse. 

a. Analyse de l’impact sur l’activité 

Analyse des risques et d’impact

● évaluation des risques probables (cas des pires scénarios), 

● définition des risques potentiels, 

● identification des critères de fragilité et de sensibilité aux risques, 

● analyse des conséquences, 

● évaluation des impacts. 

Pour  chaque  élément  détecté  lors  des  analyses  des  fonctionnalités  du  système  d’information,  il  convient  alors  de 
déterminer le degré d’importance ou classe de criticité suivant les informations ci­après. 

Classes de criticité

Classe 0 : aucune raison de récupérer cette fonctionnalité rapidement en cas de problème. 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


132
Classe  1 :  fonctionnalité  non  vitale  pour  l’entreprise,  un  temps  raisonnable  de  restauration  est  recommandé. 
L’activité de l’entreprise peut se poursuivre sans cette fonctionnalité. 
Classe  2 :  fonctionnalité  vitale  pour  l’activité  de  l’entreprise ;  ce  n’est  cependant  pas  l’activité  la  plus  importante. 
L’activité  de  l’entreprise  peut  se  poursuivre  pendant  une  courte  période  de  temps  (exemple :  logiciel  de 
comptabilité). 
Classe  3 :  activité  critique ;  la  fonctionnalité  doit  être  présente  pour  que  l’activité  de  l’entreprise  puisse  se 
poursuivre (exemple : émission de bordereau d’envoi dans une société de logistique). 
Classe 4 : l’activité principale de l’entreprise impose un fonctionnement en continu, ne peut être interrompue sous 
aucun prétexte (exemple : tour de cracking pétrolier ou système de sécurité de tunnel routier). 

Cette analyse a pour objectif de déterminer les conséquences des vulnérabilités sur les métiers de l’entreprise. 

b. Détermination des durées d’interruptions acceptables 

Il  est  également  indispensable  dans  le  cadre  de  cette  analyse  d’évaluer  les  temps  maximums  de  reprise  pour 
chaque service avant que les conséquences de l’interruption ne deviennent trop critiques. 

Important  Critique  Impossible 


Service  Impact acceptable 
(classe 2) (classe 3) (classe 4)

ERP  1j  3j  7j 

Switches  
2h  5h  10h  2j 
salle système

Gestionnaire  3j  5j 


d’imprimantes 

Définition des modes de fonctionnement normal et minimal des applications critiques : 

● délai  maximal  d’inactivité,  consignes  opérationnelles,  priorités  de  restauration,  procédures  de  reprise, 
exigences de planification. 

Cette  analyse  doit  examiner  les  solutions  à  prévoir  dans  le  cas  d’une  procédure  de  récupération  pour  une 
catastrophe majeure et permettre : 

● une reprise rapide de l’exploitation ou une reprise dégradée, 

● la mise en place d’un site de reprise ou de secours. 

4. Les scénarios de risque 

Ils peuvent se définir selon les indications suivantes : 
Échelle de potentialité d’un scénario de risque : 

● Niveau 4 : très probable 

● Niveau 3 : probable 

● Niveau 2 : improbable 

● Niveau 1 : très improbable 

● Niveau 0 : non envisagé 

Exposition naturelle au risque : 

● Niveau 1 : très faible 

- 4- © ENI Editions - All rigths reserved - Jonifar lina


133
● Niveau 2 : faible, actif peu exposée 

● Niveau 3 : moyenne : actif pas particulièrement exposé 

● Niveau 4 : forte : actif particulièrement exposé 

Probabilité de survenance ou d’occurrence 
Échelle d’impact : 

● Niveau 4 : vital 

● Niveau 3 : très grave 

● Niveau 2 : important 

● Niveau 1 : non significatif 

Les objectifs de reprise

Deux termes sont utilisés pour l’évaluation des solutions optimales : 

● Objectif de délai maximal de reprise ou RTO (Recovery Time Objective) : 

Ce  terme  décrit  le  délai  à  l’intérieur duquel les fonctions métier ou les applications devront être restaurées 


(cela  inclut  le  délai  entre  le  moment  où  le  sinistre  survient  et  le  temps  nécessaire  pour  réaliser  toutes  les 
activités). C’est aussi la durée maximale d’indisponibilité des services admissible pour l’entreprise. 

● Objectif de point de reprise ou RPO (Recovery Point Objective) : 

Ce terme décrit le moment de restauration des données qui permettra de reprendre l’ensemble des activités 
du  système  d’information  de  l’entreprise  (il  s’agit  en  général  du  temps  entre  la  dernière  sauvegarde  et  le 
moment de l’interruption, a fortiori le montant des pertes acceptable). 

Plusieurs solutions sont possibles, selon le type d’entreprise, son environnement, la criticité ou l’importance  de  ses 


données. Le choix le plus judicieux impose de trouver le meilleur équilibre entre le coût de la solution mise en œ uvre, 
ceux associés à la perte de temps et des données qui pourraient résulter d’un évènement grave. 

Il est judicieux d’envisager plusieurs technologies ou stratégies dans le choix de la solution à implémenter. 

Le plan de reprise et les niveaux de reprise

Typiquement, un plan de reprise bien conçu comprend plusieurs niveaux de protection. Les données et applications 
doivent être sécurisées selon leur valeur et celle des actifs concernés, les besoins en réglementation au niveau de 
l’entreprise. Huit niveaux de protection sont proposés ci­dessous. 
Le niveau le plus bas de protection des informations ou niveau 0 ne procure aucune protection de données jusqu’au 
niveau 7 qui implique pratiquement la continuité instantanée du système d’information. 
Naturellement,  il  y  a  forcément  une  différence  importante  de  coût  de  mise  en  œ uvre  entre  les  deux  solutions 
extrêmes. La solution idéale et adaptée à l’entreprise se trouve entre les deux cas. 

Niveau  0 :  dans  ce  cas,  aucune  information  n’est  sauvegardée,  aucune  documentation  sur  des  procédures  de 
protection des données n’est disponible, aucun matériel supplémentaire n’est prévu en cas de remplacement, aucun 
plan  de  reprise  ni  de  secours  n’est  réalisé.  En  conséquence,  en  cas  d’incident  majeur  ou  de  désastre,  l’entreprise 
perd toutes ses données et se trouve en état de risque potentiel de cessation d’activité. 
Un  plan  de  reprise  de  niveau  1  procure  une  continuité  d’activité  ou  de  reprise  en  envoyant  les  supports  de 
sauvegarde sur un site externe ou secondaire pour les stocker. Par contre, la reprise peut impliquer des délais lors 
de la restauration des systèmes car elle nécessite la récupération de tous les média et la restauration des données. 
Le temps de reprise totale de l’activité de l’entreprise peut être long, de plusieurs heures à plusieurs semaines. 
Un plan de reprise de niveau 2 procure une nette amélioration par rapport au niveau précédent dans le sens où il 
existe un équipement de secours sur le site secondaire. Les supports de sauvegarde sont présents sur ce site qui 
possède  un  environnement  capable  d’effectuer  une  reprise  partielle  ou  totale  des  opérations.  Cela  implique  la 
possibilité de reprise relativement rapide avec un objectif de point de reprise inférieur à 48 heures. 

© ENI Editions - All rigths reserved - Jonifar lina - 5-


134
La sauvegarde électronique à distance peut être considérée comme appartenant au niveau 3. Elle fournit les mêmes 
fonctionnalités que le niveau 2 avec un transfert plus rapide des données. À la différence du principe décrit au niveau 
précédent  qui  implique  le  transfert  physique  des  supports  de  données  (copies  des  sauvegardes),  ce  type  de 
sauvegarde  transfère  les  données  de  sauvegarde  via  un  moyen  électronique.  Cette  copie  des  données  peut  être 
réalisée à l’aide de différents modes, comprenant l’utilisation de librairie de bandes virtuelles (Virtual Tape Library ou 
VTL) en utilisant les possibilités de la réplication VTL. Plusieurs éditeurs de logiciel applicatif pour VTL et de systèmes 
d’exploitation fournissent les possibilités de répliquer des copies images entre différents sites via la technologie VTL 
pendant des fenêtres de sauvegarde identiques à celles qui peuvent être définies pour des sauvegardes classiques. 

Le  niveau  4  incorpore  des  solutions  basées  sur  l’utilisation  de  disques.  Elle  introduit  aussi  la  notion  de  snapshot 
c’est­à­dire  de  copies  locales  de  données.  Cette  solution  permet  une  reprise  en  cas  de  désastre  limité.  En 
complément des fonctionnalités prévues au niveau 3, elle apporte une meilleure possibilité dans le sens où entre les 
sauvegardes périodiques des copies instantanées peuvent être effectuées, des copies de snapshots sont réalisées 
vers  le  site  distant.  Cela  permet  aux  données  stockées  à  distance  d’être  mises  à  jour  plus  rapidement.  Les 
possibilités de perte de données en cas d’incident grave du site central sont minimisées. 
Le  principe  du  snapshot  permet  aussi  la  copie  des  données  vers  une  autre  plate­forme  sur  le  même  site  que  le 
principal. Il est donc possible d’effectuer une reprise rapide en cas de désastre n’affectant qu’une partie du système 
d’information. 
Les trois derniers niveaux impliquent un taux d’indisponibilité pratiquement nul pour les systèmes. 

Le niveau  5  implique  une  exigence  de  cohérence  de  données  et  l’intégrité complète dans les transactions entre la 
production  et  le  ou  les  sites  de  rétablissement.  Il  n’y  a  pratiquement  aucune  perte  de  données  pour  ce  type  de 
solution. 
Le niveau 6 nécessite les niveaux les plus hauts de disponibilité de données. Il est utilisé dans les cas de peu ou pas 
de  tolérance  à  la  perte  de  données  et  devant  rétablir  des  données  requises  par  les  applications  très  rapidement. 
Cette solution est indépendante des applications pour fournir l’intégrité des données. 
Ce niveau exige une forme de réplication élevée pour les supports de données tant au point de vue des unités de 
stockage sur disques que sur supports de bandes magnétiques. 

Les unités de disques et de supports magnétiques sont en miroir entre les deux sites. 

Le  niveau  7  implique  la  synchronisation  automatique  et  instantanée  des  données  entre  les  sites  (principal  et 
distant). La mise en  œ uvre  est  complexe  et  nécessite  des  processus  de  contrôle  de  la  synchronisation  et  de  l’état 
des données sur chaque site. L’une des solutions qui peut être mise en œ uvre est la réplication de stockage. 
C’est  une  méthode  classique  pour  synchroniser  les  sites  de  production  et  servant  à  la  reprise  en  cas  de  sinistre. 
L’architecture de réplication la plus classique et avec un haut niveau de redondance est réalisée à base de stockage 
en réseau via Fibre Channel (FC) ou iSCSI. 

Plan de protection des données ­ Niveau 7 

La  plupart  des  éditeurs  de  stockage  en  réseau  proposent  des  outils  pour  la  réplication  de  données  entre  sites  de 
production et un site de secours. La plupart utilisent la réplication asynchrone entre sites pour la synchronisation du 
stockage en réseau sachant que la bande passante du réseau WAN ou la distance entre les sites n’est pas adaptée 
à ce type de synchronisation. 

5. Élaboration du plan de reprise d’activité 

a. Optimisation de l’infrastructure existante 

L’élaboration  du  plan  de  reprise  implique  de  réaliser  des  modifications  sur  l’architecture  du  système  d’information 
existant. Ces améliorations peuvent comprendre les possibilités suivantes : 

- 6- © ENI Editions - All rigths reserved - Jonifar lina


135
● L’architecture  de  sauvegarde  permettant  de  garantir  la  disponibilité  des  données  est  un  facteur 
déterminant.  Ce  sera  le  premier  élément  qui  devra  être  revu  lors  de  l’élaboration  du  plan.  En  effet,  un 
dispositif  de  sauvegarde  adaptée  à  l’architecture  existante  est  l’un  des  critères  essentiel  permettant  une 
reprise rapide après un désastre. 

● Parmi  les  renforcements  à  prévoir,  il  sera  nécessaire,  si  cela  n’est  pas  le  cas,  d’effectuer  des  copies  de 
chaque support de sauvegarde et de les stocker dans un lieu éloigné du site central. 

Une  bonne  sauvegarde  est  et  restera  le  moyen  privilégié  de  restaurer  les  données  en  cas  de  désastre.  Son 
automatisation reste un point important dans la sécurité des données car il implique moins de moyens humains et 
donc présente moins de risque d’erreur. Des tests périodiques de validité des sauvegardes présentent un élément 
important de sécurité préventive. 
La  création  d’un  site  distant  de  sauvegarde  possédant  un  système  de  sauvegarde  et  un  périphérique  de 
sauvegarde  de  type  robotique  sur  lequel  peut  se  faire  une  partie  des  sauvegardes  ou  un  clonage  d’autres 
sauvegardes représente une bonne solution pour assurer la sécurité physique des données sauvegardée. 

● La  redondance  des  systèmes  et  des  disques  ou  unités  de  disques  peut  être  nécessaire  pour  renforcer  la 
fiabilité  de  certains  éléments  en  installant  des  disques  en  structure  RAID,  une  architecture  SAN,  en 
remplaçant des serveurs par des clusters de serveurs ou par la technologie de virtualisation, par exemple. 

● Dans le cas des systèmes de gestion de bases de données il est préférable de mettre en œ uvre tous les 
outils de journalisation disponibles. 

b. Analyse des solutions et choix globaux 

Choix des stratégies de sauvegarde et de restauration

Cette sélection est proposée à partir des éléments suivants : 

● stratégie basée sur les contraintes opérationnelles et techniques, 

● réponse aux besoins de stockage de l’entreprise pour les enregistrements de type papier et électronique, 

● connaissances des alternatives : haute disponibilité ou continuité des opérations. 

Les sauvegardes de données

Les données doivent être restaurées à partir d’une copie qui n’a pas été affectée par le sinistre. Des dispositifs et 
des procédures doivent avoir été mis en place pour qu’au moins une copie des données survive au désastre (par 
exemple : l’entreposage des médias dans un lieu éloigné géographiquement). 
Sauvegarde automatique à bandes magnétiques à distance 

Cette option comprend un système de bandes magnétiques basé sur un ensemble robotisé localisé à distance et 
relié par réseau filaire ou une technologie avec un câblage en fibres optiques. 

Stockage des bandes magnétiques ou autres médias de sauvegarde hors site 
Cette  option,  la  moins  coûteuse,  nécessite  le  transport  des  bandes  des  ordinateurs  du  site  primaire  vers  un 
emplacement extérieur éloigné. Le choix du lieu est important car il nécessite en même temps d’assurer  la  survie 
des médias et leur disponibilité rapide. 
Par  contre,  elle  comporte  des  inconvénients.  Il  existe  un  temps  de  latence  pendant  lequel  la  sauvegarde  est 
effectivement réalisée et le moment où elle sera physiquement en sécurité. Un incident, à un moment critique, peut 
entraîner la perte des données pendant l’ensemble de l’opération. 
Il y a aussi une perte de temps, de ressource et d’énergie à transporter les bandes. De même, elles peuvent être 
physiquement endommagées ou perdues pendant leur manipulation et/ou leur transport. 
La copie simultanée à distance 

Cette option comporte un ensemble de sous­système de disques ou un réseau de stockage de type SAN éloigné du 
site primaire à l’aide d’une liaison utilisant un système de câblage à fibre optique. Les données écrites sur le site 
d’origine sont automatiquement copiées sur le site distant. 
Cela garantit une copie en temps réel des données sur un site différent en cas de sinistre sur celui d’origine. 
Cette  solution  peut  être  toutefois  onéreuse.  Elle  nécessite  de  posséder  des  systèmes  équivalents  utilisant  la 

© ENI Editions - All rigths reserved - Jonifar lina - 7-


136
technologie Fibre Channel sous forme de connexions par fibres optiques avec toutefois une limitation en distance. 

c. Choix du site de reprise ou de secours 

Le choix d’un site de secours est capital et est déterminé par l’autonomie organisationnelle et technologique dont 
l’entreprise veut se doter, par l’environnement structurel et par les contraintes budgétaires. 

Une PME/PMI peut aussi traiter ses moyens de secours auprès d’un  fournisseur  spécialisé.  Un  plus  grand  groupe 


exploitera son propre centre de secours. 

Les travaux importants de réalisation sur un site de reprise autre que le site principal impliquent : 

● le transport et l’installation des composants, des supports de stockage contenant les applications, logiciels 
et systèmes d’exploitation, 

● l’aménagement des locaux, des installations électriques, de la climatisation, 

● l’organisation et l’installation des communications (télécoms…) et du réseau informatique, 

● l’installation et le test des systèmes d’exploitation, des applications, des données, 

● l’approvisionnement en fournitures, 

● la mise en place de la reprise des activités de l’entreprise. 

Rétablissement sur le même site

Il s’agit du cas de réutilisation du site concerné par le sinistre. Un certain nombre d’opérations sera nécessaire : 

● réparation, nettoyage des locaux et aménagement de toute l’installation du site d’origine, 

● réparations des installations critiques, 

● organisation et installations électriques, 

● inventaire du matériel en bon état, réutilisable, 

● acquisition de nouveau matériel, pour remplacer celui qui été détérioré, 

● organisation et installations des communications (télécoms…), 

● installation et test des systèmes d’exploitation, des applications, des données, 

● approvisionnement en fournitures, 

● reprise des activités. 

Rétablissement à l’aide d’un site externe

La mise en place d’un plan de reprise implique la mise en place d’une structure sur le site éloigné : 

● ressources en matériel pour prendre en compte l’interruption du site principal de production, 

● inventaire  des  matériels  et  des  logiciels  (systèmes  d’exploitation,  applications)  système  par  système,  des 
serveurs virtualisés, 

● inventaire des niveaux de firmware des matériels, 

- 8- © ENI Editions - All rigths reserved - Jonifar lina


137
● les supports de sauvegarde, 

● les procédures de restauration, 

● les schémas précis des réseaux d’entreprise. 

Types de sites externes

Site de secours permanent (Hot Site) 
C’est probablement l’option la plus onéreuse pour le cas d’un désastre et probablement la plus appropriée pour de 
très  grosses  organisations.  Des  locaux  informatiques,  de  préférence  localisés  dans  un  lieu  différent  peuvent  être 
préparés  avec  tout  le  matériel  informatique  adéquat  et  le  réseau  adapté  totalement  opérationnels  en  cas 
d’urgence. Les deux sites peuvent être reliés par un système de communication à très haut débit de façon à ce que 
les utilisateurs du site principal puissent constamment accéder à leurs données et applications. 
Le site de secours ponctuel (Cold Site) 

Ce  type  de  site  est  un  emplacement  physiquement  séparé  du  site  primaire  où  l’espace  a  été  identifié  pour  une 
localisation  temporaire  des  systèmes  informatiques  et  réseaux  pendant  que  le  site  d’origine  est  en  cours  de 
réfection. 

Autres considérations applicables dans les choix

Il est important de noter que la restauration de machines virtuelles sera plus aisée que s’il s’agissait de machines 
physiques. 

La gestion des mises à niveau des firmwares est indispensable dans la préparation d’un plan de reprise. Toutes les 
mises à jour devront être effectuées sur tous les matériels, qu’ils soient en production ou en position de stand­by 
dans  l’éventualité  d’un  environnement  de  reprise  d’activité.  Sinon  des  différences  entre  les  pilotes  des 
périphériques  et  les  révisions  de  firmware  pourraient  amener  à  des  situations  délicates  et  sources  de  problèmes 
dans le cas d’un plan de reprise. 

Il est important de bien s’assurer que les schémas techniques généraux (réseaux, électriques…), les procédures de 
reprise,  les  logiciels  et  systèmes  d’exploitation  appropriés,  les  supports  de  sauvegarde  sont  effectivement 
disponibles au bon endroit pour réaliser efficacement le processus de reprise. 
La sauvegarde électronique à distance (electronic vaulting) peut être intégrée complètement dans un plan de reprise 
d’activité en cas de sinistre ou d’incident grave. Plusieurs obligations liées à des réglementations requièrent que les 
données soient préservées, principalement en cas de sinistre du système d’information. 

d. Autres solutions techniques de reprise 

Les sociétés d’aide à la récupération en cas de sinistre

Un certain nombre de sociétés proposent des services de sauvegarde à distance et de reprise en cas de désastre 
sur la base d’un loyer annuel. 

Partenariats avec d’autres entreprises

Certaines  sociétés  s’associent avec d’autres selon des accords réciproques pour s’entraider en cas de sinistre de 


l’une  d’elles.  Ces  agréments  peuvent  permettre  le  partage  de  simples  besoins  en  personnels  jusqu’à  l’utilisation 
des  ressources  informatiques.  Cela  nécessite  toutefois  une  confiance  absolue  entre  les  partenaires  et  leurs 
équipes. 

Le principal inconvénient est que ces partenaires doivent garder une vigilance accrue sur les accès et les utilisations 
informatiques critiques. 

6. Mise en place des ressources 

a. Évaluation des ressources 

En matière de secours, les coûts sont proportionnels aux technologies et aux configurations matérielles secourues, 
aux services attendus. Cette étude peut comporter des réflexions sur : 

● l’implantation du site de reprise, 

© ENI Editions - All rigths reserved - Jonifar lina - 9-


138
● la  définition  détaillée  des  ressources  essentielles  (financières  et  humaines),  des  fonctions,  des  activités ; 
des tâches liées à la planification des mesures d’urgence, 

● l’impact financier sur tous les services qui seront impliqués dans ce projet. 

b. Solutions techniques systèmes et réseaux 

Les solutions techniques que l’entreprise peut mettre en œ uvre dans un tel plan sont de deux ordres : 

● restauration  des  données  de  l’entreprise.  Il  s’agit  de  tout  mettre  en  œ uvre  pour  que  les  données  de 
l’entreprise ne soient pas détruites, en privilégiant les données critiques. 

● restauration de la capacité de l’entreprise à communiquer. L’objectif consiste à ce que les transactions avec 
l’extérieur puissent reprendre rapidement. 

Le plan de reprise doit prendre en compte ces deux aspects, l’un ou l’autre étant prépondérant suivant l’activité de 
l’entreprise. 

c. Moyens techniques externes 

Ils comprennent des services fournis par des prestataires spécialisés dans la sécurisation des données, selon les 
formes suivantes : 

● hébergement du système de secours chez un fournisseur de services, 

● contrats de mis à disposition de systèmes par les constructeurs informatiques, 

● contrat d’hébergement temporaire, 

● contrat de type centre informatique mobile. 

d. Contraintes liées aux fournisseurs externes 

Si l’entreprise fait appel à des fournisseurs externes pour assurer l’exploitation de ses systèmes ou la sécurisation 
de  ses  données,  elle  doit  s’assurer  que  ceux­ci  possèdent  également  une  structure  de  secours  opérationnelle  et 
peuvent intervenir aussi efficacement pour effectuer la reprise activité après désastre. Les contrats de service et les 
clauses particulières peuvent être annexés au plan de reprise. 

e. Aspect humain 

Dans un plan de reprise d’activité,  les  personnes  impliquées  dans  les  procédures  du  plan  de  reprise  doivent  être 
capables de restaurer le système d’information de l’entreprise. 
La  partie  ressources  du  plan  doit  donc  comporter  la  liste  des  personnes  ayant  la  responsabilité  des  applications 
tant au niveau exploitation qu’au niveau fonctionnel. Cette liste doit comporter tous les éléments nécessaires pour 
un contact rapide avec ces personnels selon la gravité de la situation (responsabilités, astreintes…). 

Immédiatement  après  le  désastre,  une  séquence  d’évènements  planifiés  commence.  Les  personnes­clé  sont 
informées  et  les  équipes  de  reprise  ont  été  définies  pour  la  mise  en œ uvre du plan. Celui­ci  doit  être  conçu  pour 
être utilisable même si une partie du personnel n’est pas disponible au moment du sinistre. 

Dans le cas d’un désastre, il faut se rappeler que le personnel est la ressource essentielle. Les équipes de reprise 
qui  vont  travailler  à  la  remise  en  état  vont  certainement  faire  des  sacrifices  personnels,  principalement  dans  les 
heures ou jours suivant le sinistre. 
La  reprise  après  un  tel  évènement  peut  être  un  moment  stressant  pour  tout  le  personnel  impliqué.  Les 
responsables de l’entreprise auront aussi à gérer cette situation pour éviter une situation de crise. 

7. Élaboration des procédures 

- 10 - © ENI Editions - All rigths reserved - Jonifar lina


139
a. Procédures d’exploitation 

Ces  procédures  comportent  évidemment  les  procédures  de  gestion  de  l’exploitation  et  d’administration  des 
systèmes et des réseaux, des activités de sauvegarde et de restauration (fichiers, bases de données…), ainsi que 
la mise en sécurité des supports de données. 

b. Procédures de reprise 

Elles  doivent  être  élaborées  selon  un  type  standard,  selon  les  spécificités  des  constructeurs  et  éditeurs,  les 
processus  élaborés  dans  le  cadre  du  plan  de  reprise.  Elles  seront  rédigées  pour  couvrir  tous  les  aspects 
(techniques, organisationnels, humains). 

c. Documentation 

L’ensemble  des  opérations  à  réaliser  lors  d’un  cas  de  reprise  d’activité  demande  à  être  présenté  sous  forme  de 
documentation. 

Elle  devra  être  disponible  sous  forme  écrite  (protégée  dans  un  coffre  ignifugé),  sous  forme  électronique  sous 
plusieurs formes : 

● à partir d’un site Intranet disponible pour tout le personnel concerné, 

● sur un disque optique de type CD­Rom ou DVD­Rom (protégé dans un coffre ignifugé), 

● sur une clé USB (détenu par les responsables du système d’information et de l’entreprise). 

Ce plan peut être rédigé sur un seul document disponible en un endroit stratégique et sécurisé de l’entreprise avec 
une copie à l’extérieur, en plusieurs exemplaires à destination des responsables des différents services. 

Naturellement,  cette  documentation  devra  être  impérativement  mise  à  jour,  périodiquement  et  en  fonction  des 
changements réalisés dans le système d’information de l’entreprise. 

Bien que la documentation soit destinée, en priorité, aux personnels spécialisés, la rédaction du plan doit 
être conçue de telle façon à ce que n’importe quelle personne de l’entreprise puisse aider les personnels 
spécialisés à rétablir l’activité du système d’information. 

Le manuel d’urgence 

Ce type de document peut faire partie de l’ensemble rédactionnel associé au plan de reprise : 

Il doit être modulaire et adapté à chaque service et à chaque responsable en fonction de son rôle dans l’entreprise. 
Il doit être documenté et mis à jour pour tenir compte de l’évolution de l’environnement de : 

● l’entreprise et de ses réorganisations, 

● l’infrastructure et de la modification des locaux, 

● mouvements de personnels, 

● nouveaux systèmes, matériels et logiciels, 

● nouvelles technologies. 

8. Les tests de fonctionnalité 

Le plan de reprise, tel qu’il a été élaboré, doit être testé périodiquement. Des procédures doivent être rédigées en 
fonction des scénarios prévus à l’origine de l’étude. 

Les  tests  doivent  être  les  plus  exhaustifs  possibles  afin  de  prendre  en  compte  tous  les  scénarios  susceptibles  de 
survenir. 

© ENI Editions - All rigths reserved - Jonifar lina - 11 -


140
Il faut également vérifier lors des tests que les temps de reprise prévus ou calculés lors de l’analyse de conception du 
plan sont bien respectés. 
Ce point est essentiellement valable pour la restauration des sauvegardes de données, il faudra revoir si nécessaire 
l’organisation du plan de sauvegarde. 
Les  tests  doivent  inclure  les  procédures  et  contrats  de  niveaux  de  services  mis  en  place  avec  les  partenaires 
professionnels (fournisseurs de matériels, de services…). 

Précautions à prendre lors des réalisations des tests

Des principes de précautions recommandent de réaliser des tests globaux du plan de reprise avec prudence. Ce type 
d’actions  peut  s’avérer  très  délicat  car  l’activité  de  l’entreprise  peut  être  impactée.  C’est  pour  cela  que  des 
précautions doivent être prises pour s’affranchir des erreurs possibles. 

La meilleure approche serait d’effectuer des tests partiels pendant des périodes définies et hors de l’activité normale 
de l’entreprise. Quand ceux­ci sont exécutés avec succès et validés, il est possible d’agrandir le domaine des essais 
jusqu’au point qui permettra d’homologuer le test global du plan de reprise. 

Tester le plan de reprise d’activité fréquemment

En plus des tests qui doivent être réalisés fréquemment, les personnels doivent être formés avec des mises à jour 
consécutives aux changements dans l’infrastructure du système d’information. Ces vérifications doivent être réalisées 
au moins une fois par an et chaque fois que de changements affectent les systèmes concernés par le plan. 

L’audit du plan de reprise

Son  objectif  est  de  déterminer  la  qualité  du  plan  établi.  Il  va  insister  sur  l’identification  des  domaines  sensibles  de 
l’entreprise pour lesquels le plan de secours doit s‘appliquer et sur l’évaluation des dispositions, procédures, tâches 
et actions prévues dans le plan en cas de sinistre. Puis les recommandations sont élaborées. Il est recommandé de 
réaliser cette opération pour s’assurer de sa conformité avec les besoins de l’entreprise. 
Des audits sont nécessaires pour détecter les nouvelles fonctionnalités (changements dans la structure du système 
d’information) de l’entreprise. L’organisation de la reprise d’activité doit tenir compte des évolutions, surtout en ce qui 
concerne les systèmes critiques et les quantités de données traitées. 

Cette étape est importante pour tester la validité de tout le processus mis en place. Elle comprend : 

La répétition et le test du plan de reprise par : 

● l’utilisation d’un processus pas à pas pour tester le plan dans sa globalité, 

● l’application des scénarios de test définis auparavant, 

● la documentation des résultats obtenus, 

● les recommandations et préconisations à apporter. 

Chaque  défaut  rencontré  lors  des  tests  doit  être  analysé.  Les  solutions  apportées  doivent  être  insérées  dans  la 
procédure et le test global repris jusqu’à l’élimination complète de tous les défauts. La méthode PDCA peut servir de 
base dans ce processus d’amélioration. 

9. La gestion du suivi du plan 

La mise à jour périodique

Posséder  un  plan  de  secours  en  cas  de  désastre  est  important.  Mais  il  peut  devenir  rapidement  obsolète  si  une 
procédure n’a pas été développée et implémentée pour le maintenir opérationnel. 

Le  suivi  et  la  remise  à  jour  des  procédures  utilisées  dans  le  plan  de  reprise  et  autres  actions  associées  sont  une 
activité essentielle. Ce processus implique la révision périodique des éléments du plan. 

Ce plan doit tenir compte des changements de la structure, des actifs, de son personnel, de nouvelles procédures. 
Cela implique : 

● la prise en compte des évolutions dans le plan de reprise, 

● le  test  et  la  maintenance  d’un  plan  de  restauration  efficace  dans  un  environnement  informatique  en 

- 12 - © ENI Editions - All rigths reserved - Jonifar lina


141
constante évolution, 

● la planification de revues et de vérifications régulières. 

La gestion des documents associés

Le  plan  devra  être  réévalué  au  moins  une  fois  par  an.  Il  devra  être  testé  régulièrement  après  son  élaboration  et 
corrigé selon les besoins. Le coordinateur du plan aura la responsabilité de vérifier tous les documents et fichiers et 
de s’assurer qu’il correspond aux standards et à la politique de sécurité de l’organisation. 
La  dénomination  et  la  structure  des  fichiers  peuvent  être  sous  la  forme  DRPxxxnn  or  DRPxxnnn  où  « x »  est  une 
lettre, et « n » un nombre. 

© ENI Editions - All rigths reserved - Jonifar lina - 13 -


142
La virtualisation de serveurs dans la stratégie de plan de secours 
De  plus  en  plus  d’entreprises  mettent  en  œ uvre  la  virtualisation  de  serveurs  pour  optimiser  leurs  ressources 
informatiques. 

Les  machines  virtuelles,  de  par  leur  conception,  possèdent  deux  fonctionnalités  qui  peuvent  être  utilisées  de  façon 
opérationnelle dans l’optique de plans de reprise : 

● Indépendance  par  rapport  au  matériel :  elles  sont  isolées  naturellement  du  matériel  sur  lequel  elles  sont 
opérationnelles. 

● Elles  sont  conçues  sous  forme  de  fichiers  ou  de  LUN  (Logical  Unit  Number) spécifiques dans une structure de 
réseau SAN. 

De  par  leur  encapsulation  à  l’intérieur  d’unités  de  stockage,  la  gestion  et  la  manipulation  de  machines  virtuelles 
appelées  aussi  VM  (Virtual  Machines)  sont  simplifiées  dans  le  cas  de  restauration  de  système  en  cas  de  sinistre  ou 
d’incident grave. 

Chaque machine virtuelle se présente sous la forme d’un fichier sur le serveur hôte, celui­ci peut être copié ou répliqué 
sur d’autres serveurs. Cette opération peut être réalisée soit à l’intérieur d’un réseau SAN soit via le réseau LAN soit 
grâce à la fonctionnalité d’un serveur de sauvegarde. 

Une  stratégie  de  reprise  peut  profiter  de  la  technologie  de  la  virtualisation  pour  réaliser  le  plan  de  secours  en 
exploitant les solutions de des machines virtuelles et la sauvegarde virtuelle sur disques. 

La virtualisation et les besoins en matériels (serveurs)

Une virtualisation des serveurs bien élaborée peut simplifier la façon dont la stratégie de reprise en cas de sinistre ou 
d’incident important sera exécutée. En effet, les besoins en matériel pour le site de restauration seront réduits. 

La virtualisation et la sauvegarde des systèmes

La virtualisation peut être une solution pour résoudre les problèmes rencontrés avec les supports magnétiques utilisés 
pour la sauvegarde. 

La  sauvegarde  sur  bandes  magnétiques  peut  fournir  un  archivage  à  long  terme  nécessaire  pour  les  serveurs 
virtualisés.  Toutefois,  les  bandes  magnétiques  ne  peuvent  procurer  le  niveau  de  reprise  nécessaire  pour  les 
applications métiers critiques. 
En disposant des machines virtuelles comme serveurs secondaires dans le cas de réplication standard et d’un scénario 
de failover, chaque système d’exploitation hébergé sur un serveur hôte possède son autonomie. 

Plusieurs  de  ces  machines  virtuelles  peuvent  fonctionner  simultanément  sur  un  seul  hôte  permettant  à  différents 
serveurs  de  production  d’être  préparés  comme  élément  de  secours  sur  un  seul  élément  matériel  disposé  dans  un 
environnement dédié à une reprise d’activité de l’entreprise. 

Les snapshots de machines virtuelles

La plupart des solutions de virtualisation comprennent des fonctionnalités qui permettent de créer des snapshots en 
temps réel de machines virtuelles en exploitation. Selon l’architecture de stockage, cette copie instantanée en temps 
réel peut être associée aux processus de sauvegarde et de restauration. 

La  mise  en  place  de  snapshots  pour  chaque  machine  virtuelle  créée  doit  être  considérée  comme  essentiel  dans  le 
cadre de l’implémentation d’un plan de secours et doit faire partie des processus prévus. 
En  effet,  à  chaque  fois  qu’une  modification  est  effectuée  au  niveau  d’une  machine  virtuelle  (changement  de 
configuration, installation de patch ou de nouvelle application), il est indispensable de créer un nouveau snapshot de la 
machine virtuelle et de la sauvegarder ou de la répliquer sur l’environnement de secours prévu. 

Ces  images  créées  doivent  servir  de  base  pour  toute  la  préparation  des  opérations  de  reprise  car  l’instantané  créé 
contient les configurations les plus récentes du système d’exploitation et des applications. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


143
Exemple de projet d’implémentation d’un PRA 
Phase 1 : Initialisation du projet 

● définition du périmètre du projet, 

● inventaires : risques, vulnérabilités, points faibles et/ou critiques, systèmes essentiels, services, 

● classification de criticité, 

● éléments de chiffrage d’impact. 

Livrables : 

● proposition de projet, évaluation de chiffrage d’impact, 

● document permettant d’effectuer un choix sur les risques à couvrir. 

Phase 2 : Analyse d’impact et des besoins, stratégie de continuité d’activité 

● audits (identification des points faibles et/ou critiques, systèmes essentiels), 

● systèmes (matériel, systèmes d’exploitation, applicatifs…) 

● réseaux (matériel, systèmes d’exploitation, applicatifs…) 

● environnement (électrique, climatisation, accès physiques…) 

● sécurité 

● sauvegardes/archivages 

● redondance, haute disponibilité 

● moyens techniques internes et externes 

● inventaires/analyse des risques, vulnérabilités, 

● types de sinistres à prendre en compte et identification des besoins, 

● identification des scénarios, 

● détermination des risques à couvrir, 

● proposition de mesures de réduction des risques et évaluation des choix possibles, 

● analyse des éléments et des processus critiques détectés en phase 1. 

Livrables : 

● proposition concrète de correction des points critiques relevés dans la première phase, 

● rapport d’audit, analyse d’impact, proposition de stratégie. 

Phase 3 : Mise en place de l’environnement nécessaire 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


144
Objectif : Augmenter le niveau de sécurité pour être compatible avec le plan définit au départ 

● correction des points critiques relevés dans la première phase, 

● modification par les services du client et vérification de l’existant, 

● révision des procédures de sauvegarde et restauration  « on site » et  « off site »  et des solutions et moyens 


techniques externes. 

Élaborer une stratégie de reprise/continuité : 

● sélection des objectifs prioritaires, 

● détermination du budget disponible, 

● détermination du coût des conséquences liées au désastre, 

● analyse et vérification du plan de sauvegarde. 

Actions à réaliser : 

● évaluation, 

● vérification de la mise en place. 

Phase 4 : Mise en œ uvre du PRA 

● organisation et planning de l’implémentation, 

● formalisation et rédaction du plan, 

● rédaction  des  procédures  d’exploitation  (exploitation  courante  et/ou  exceptionnelle…),  de  reprise,  de  test, 
élaboration des manuels, 

● reprise du plan de sauvegarde, 

● installation du matériel requis, 

● contrats, fournisseurs, SLA (services critiques), 

● organisation humaine (gestion des ressources, des compétences, logistique, sous­traitance…). 

Site de secours 

● architecture de sauvegarde, 

● accès aux locaux, 

● exploitation. 

Autres solutions 

● contrats de maintenance avec redémarrage, 

● hébergement. 

Test initial du PRA 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


145
● test de fonctionnement des moyens de secours, 

● tests de bascule vers le site de secours, 

● simulation de production (ou production réelle), 

● stratégie de retour vers le site central. 

Actions à réaliser : 

● évaluation. 

Livrables : 

● documents de PRA. 

Phase 5 : Gestion opérationnelle et des changements 

● publication et distribution du plan, du manuel d’urgence, 

● organisation humaine (gestion des ressources, des compétences, sous­traitance…), 

● formation, 

● audit, 

● tests périodiques, 

● gestion de la documentation. 

Actions à réaliser : 

● évaluation (Formation, Audit). 

Livrables : 

● documents de rapport d’audit, de formation. 

© ENI Editions - All rigths reserved - Jonifar lina - 3-


146
Objectif 
L’objectif  de  cette  démarche  est  de  rendre  les  utilisateurs  des  équipements  informatiques  (serveurs,  postes  de 
travail…)  responsables  de  leurs  activités  dans  le  cadre  de  l’utilisation  de  l’outil  informatique,  de  les  former  aux 
pratiques correctes dans l’objectif de changer leurs comportement vers plus de sécurité. 
Le rôle de ce chapitre est de présenter une approche pour développer un programme de sensibilisation à la sécurité 
informatique dans l’environnement d’une entreprise. 

La sensibilisation à la sécurité fait partie des chapitres de la norme IS0 27001 dans le cadre de la gestion du système 
d’information. 

Le principe général de cette sensibilisation consiste à préciser que la sécurité est l’affaire de tous dans une entreprise. 
Une  bonne  politique  de  sécurité  doit  être  comprise  et  appliquée  par  tout  le  personnel.  La  plus  grande  partie  des 
brèches de sécurité sont le fait d’ignorance ou d’intention frauduleuse (vol de données et transfert par Internet). 
La sensibilisation consiste en deux points principaux la formation et l’éducation. Ils ont pour objectifs : 

● d’améliorer le comportement des personnels sur les postes de travail, 

● de développer la responsabilité des personnels lors de l’utilisation des matériels et logiciels mis à disposition. 

En  résumé,  un  des  objectifs  principaux  de  la  sensibilisation,  de  la  formation,  de  l’éducation  consiste  à  réduire  les 
erreurs et omissions. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


147
Le comportement 
L’attitude des personnels est prépondérante dans la sécurité des systèmes informatiques et les ressources qui traitent 
des informations. 

D’après les statistiques, il s’est avéré que les menaces internes sont plus importantes que celles qui sont externes à 
l’entreprise. 
Les actions humaines prennent une plus grande part dans les pertes relatives au système d’information que les autres 
sources, toutes menaces confondues. 
Les  causes  les  plus  importantes  de  pertes  causées  par  les  employés  dans  le  cadre  de  leurs  fonctions  peuvent 
provenir d’erreurs et omissions, de fraudes, d’actions d’employés insatisfaits. 
Les fraudes et activités non autorisées provenant d’employés mécontents peuvent ainsi être réduites en augmentant 
la connaissance des employés au sujet des accès et des pénalités associées aux actes malveillants. Naturellement, les 
bons exemples doivent être donnés par la direction de l’entreprise. 
Le renforcement de la politique de sécurité est un des problèmes critiques qui doit être implémenté et renforcé à l’aide 
de programmes de formation. 
Il  ne  faut  pas  s’attendre à ce que les personnels suivent les procédures s’ils n’ont pas été auparavant informés. De 
plus, renforcer les pénalités ou sanctions peut être difficile si les utilisateurs démontrent leur ignorance quand ils ont 
agi de façon erronée. 

Beaucoup d’entreprises prévoient une charte de bonne conduite dans l’utilisation de l’outil informatique qui indique que 
les personnels ont lus et compris les informations sur la sécurité informatique. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


148
Sensibilisation 
Son  objectif  consiste  à  stimuler  et  à  motiver  les  utilisateurs  vers  les  bonnes  pratiques  qu’il  s’agit  de  leur  rappeler 
périodiquement. La répétition de ces conseils peut leur permettre de prendre en compte sérieusement la sécurité dans 
leur environnement de travail. 
Les règles édictées peuvent prendre plusieurs formes selon les personnels à qui elle s’adresse. Elle doit être adaptée 
au public concerné (tous niveaux de responsabilités, administrateurs techniques, développeurs...). 

Parmi les conseils de base à donner aux utilisateurs, les idées suivantes peuvent être proposées : 

● Lors  de  la  réception  de  messages  (e­mail),  se  méfier  de  tout  ce  qui  incite  à  donner  des  informations 
confidentielles. Cela peut être des renseignements personnels (code de carte de crédit, données bancaires…) 
ou professionnels (environnement de travail…). 

● Il est recommandé de vérifier la provenance de tout lien (http ou e­mail) intégré dans un message. Se méfier 
aussi  des  pièces  jointes.  En  cas  de  doute,  la  meilleure  solution  est  de  supprimer  ce  message  et  d’avertir 
l’administrateur ou le responsable informatique. 

● Ne  pas  modifier  ou  supprimer  les  outils  de  sécurité  installés  sur  les  postes  par  l’administrateur  ou  le 
responsable informatique. 

● Bien vérifier à qui vous diffusez votre adresse de messagerie. 

● Laisser  à  l’administrateur  ou  au  responsable  informatique  le  soin  de  se  débarrasser  des  disques  durs, 
cartouches magnétiques de toute machine non utilisée. 

Chaque utilisateur doit, en priorité, connaître les règles de prudence minimales (gestion de mot de passe, procédures 
de sauvegarde, protection physique du matériel) mais aussi être informé des procédures à suivre en cas d’incident. 

En  plus  de  présentation  au  personnel,  la  sensibilisation  débute  généralement  par  l’acceptation  d’une  charte.  Les 
responsables de l’informatique d’une entreprise, pour garantir la protection du système d’information par rapport à leur 
personnel  interne  peuvent  être  amenés  à  présenter  un  document  qui  servira  d’accord  sur  les  principes  de  bonne 
utilisation de l’outil informatique. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


149
La charte de bonne conduite 
La  mise  en  place  d’une  telle  charte  permet  d’assurer  la  protection  du  système  d’information  et  s’applique à tous les 
utilisateurs. Ce document pourra être disponible sur le ou les sites de l’entreprise et sous plusieurs formes. Il résume 
les droits et devoirs des utilisateurs du système d’information de l’entreprise : 

● intégrée au règlement intérieur, 

● note  interne  mise  à  disposition  pour  le  personnel  interne  ou  présentée  à  toute  personne  d’entreprise  sous­
traitante, 

● sous  forme  papier  ou  envoyée  sous  forme  électronique  aux  utilisateurs  (nécessité  de  rappel),  accessible  à 
partir du serveur Web interne de l’entreprise. 

Par son contenu, ce document doit définir clairement et de façon transparente les modalités et limites de l’utilisation 
des moyens informatiques mis à la disposition du personnel par l’entreprise. Les contrôles qui peuvent mis en place. 
Les sujets suivants peuvent être traités : 

● l’accès et l’usage des ressources informatiques et aux services Internet, 

● les règles d’utilisation des ressources mises à disposition, la sécurité, 

● les règles de confidentialité imposées par l’entreprise. 

Une sensibilisation à la sécurité informatique, bien élaborée et appliquée, à destination des utilisateurs peut amener 
des avantages indirects sous forme d’amélioration globale de la gestion du système d’information puisque le nombre 
d’incidents tendra à diminuer. 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


150
Sites Web 
Normes ISO 
http://www.iso.org/iso/home.htm 

Normes ISO sur la sécurité informatique 
http://www.standards­online.net/InformationSecurityStandard.htm 
http://www.standardsdirect.org/iso27001.htm 

ITIL 
http://www.itsmfi.org/ 

http://www.itsmf.fr/ 
http://www.itilfrance.com/ 

Sites institutionnels français sur la sécurité informatique 
SCSSI 
http://www.ssi.gouv.fr 

CNIL 
http://www.cnil.fr 

Internet 

http://www.internet.gouv.fr 

CRU 

http://www.cru.fr/securite 

Virus et logiciels malveillants 
http://www.interieur.gouv.fr/rubriques/divers/faq/virus_et_piratage 

Autres Sites officiels 

ADEPA 

http://vigie.adepa.asso.fr 

CERT 

http://www.cert.org 

CLUSIF 

http://www.clusif.asso.fr 

IDC 

http://www.idc.fr 

IETF 

http://www.ietf.org/ 

RSA PKCS 

http://www.rsa.com/ 

SANS Institute 

http://www.sans.org/rr/authentic/ 

Institute for Security and Open Methodologies 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


151
http://www.isecom.org/ 

NIST 

http://csrc.nist.gov/publications/PubsSPs.html 

Site d’actualité sur la sécurité informatique 

http://www.securite.org/ 

Revue MISC 

http://www.miscmag.com/ 

Sites d’entreprises 

http://www.hsc.fr/ressources/ 
http://www.ysosecure.com/index.html 
http://www.dnsi.info/ 

- 2- © ENI Editions - All rigths reserved - Jonifar lina


152
Organismes relatifs à la sécurité 

Organismes  Signification de l’acronyme  Description 

AFNOR  Association Française de NORmalisation  . 

AFNIC  Association Française pour le Nommage de  Organisme officiel de gestion et 


l’Internet en Coopération  d’attribution des noms de domaine .fr 

CERT / A  CERT pour l’Administration  Centre de gestion des informations sur la 


sécurité à destination des administrations 
françaises (dépendant de la DCSSI) 

CIGREF  Club Informatique des Grandes 
Entreprises Françaises. 

CISSI  Commission Interministérielle pour la 
Sécurité des Systèmes d’Information 

CLUSIF  Club de la Sécurité Informatique des 
Systèmes d’Information Français 

DCSSI  Direction Centrale de la Sécurité des  Direction chargée de la politique 


Systèmes d’Information.  gouvernementale dans le domaine de la 
Sécurité des Systèmes d’Information. 

DSSI  Directoire de la Sécurité des Systèmes 
d’Information 

ETSI  European Telecommunications Standard  Organisme européen de normalisation 


Institute  pour les télécommunications (Sophia 
Antipolis). 

IETF  Internet Engineering Task Force  Organisme chargé du développement des 


protocoles d’interconnexion de réseau 
basés sur TCP/IP, dont Internet 

ISO  International Standard Organization  Organisation de normalisation  

NSA  National Security Agency  Cette agence est chargée de l’espionnage 


des télécommunications et de la mise au 
point des systèmes de codage et de 
cryptage destinés à garantir la 
confidentialité de l’administration 
américaine. 

OSSIR  Observatoire de la Sécurité des Systèmes 
d’Information & des Réseaux 

© ENI Editions - All rigths reserved - Jonifar lina - 1-


153

Vous aimerez peut-être aussi