Académique Documents
Professionnel Documents
Culture Documents
INFORMATIQUES
Dispensé par :
E-mail : francislumingu12@gmail.com
Tél. 0895126256 – 0811856181
Mai 2021
1
INTRODUCTION
L’administration réseau, de même que l’administration système d’ailleurs, est une discipline
qui ne s’enseigne pas. Ceci peut paraître paradoxal puisque ce document est le support d’un
cours d’administration réseau, justement. Relativisons les choses, si l’administration réseau ne
s’enseigne pas, en revanche, elle s’apprend et le but de ce cours est de donner aux étudiants
un minimum d’éléments leur permettant par la suite d’orienter leur apprentissage dans la
bonne direction.
Pourquoi l’administration réseau ne s’enseigne-t-elle donc pas ? Tout d’abord, parce c’est un
domaine bien trop vaste et qui évolue trop rapidement pour que quiconque puisse le dominer
de la tête et des épaules. De plus, le nombre de matériels et de logiciels est trop important
pour qu’on puisse en faire une étude sérieuse. De toute façon, chaque entreprise a fait ses
choix dans ce domaine et les jeunes ingénieurs auront généralement à s’y plier. Ce cours ne se
veut donc pas exhaustif. En particulier, nous n’aborderons pas du tout la configuration des
équipements actifs (routeurs, commutateurs, etc.). Celle-ci nécessiterait un cours entier à elle
seule et obligerait à faire un choix partial pour tel ou tel constructeur.
Le but d’un réseau informatique est d’assurer le transport des données de manière
automatique. Il faut donc tendre vers les 100 % de disponibilité et arriver à minimiser
l’impact des incidents et les interventions d’urgence par :
En revanche, dans ce cours, nous essaierons de dégager des principes généraux sur la bonne
façon d’administrer un réseau. Le champ d’application étant plutôt étendu, nous nous
limiterons à quelques technologies fondamentales, applicables aux réseaux IP dans
l’environnement OSI et TCP/IP.
Prérequis
Introduction à l’informatique
Introduction à l’algorithmique et à la programmation
Introduction aux réseaux et à la communication des données.
Par ailleurs, des connaissances en gestion de la technologie seraient un atout.
Matériaux
OBJECTIFS DU COURS
L’objectif général de ce cours est d’initier les étudiants aux concepts communs
d’administration réseaux en mettant en place les services réseaux associées afin de sa gestion
active. Et d’une manière spécifique :
Adresse mac : Adresse physique d'une interface réseau fixée par le constructeur qui
permet d'identifier de façon unique une machine sur un réseau local.
Agent : Elément logiciel embarqué dans un élément actif du réseau permettant sa
gestion par une station de supervision.
Alerte : Signal qui prévient d’un incident.
Authentification : Procédure consistant à vérifier ou à valider l'identité d'une
personne ou l'identification de toute autre entité, pour contrôler l'accès à un réseau, à
un système informatique ou à un logiciel.
Evénement: Signal qui permet, par ses différents états, d'indiquer la situation ou
l'évolution d'une partie d'un système.
Interface : Ensemble de moyens permettant la connexion et l'interrelation entre le
matériel, le logiciel et l'utilisateur.
IP : Protocole de télécommunications utilisé sur les réseaux qui servent de support à
Internet, qui permet de découper l'information à transmettre en paquets, d'adresser les
différents paquets, de les transporter indépendamment les uns des autres et de
recomposer le message initial à l'arrivée.
Manager : Station de gestion de réseau.
Ping : Commande issue du monde Unix qui permet de mesurer le temps de réponse
d'une machine à une autre sur un réseau.
Port : Dans une architecture client-serveur, connexion virtuelle permettant
d'acheminer les informations directement dans le logiciel d'application approprié de
l'ordinateur distant.
Requête: Ensemble de commandes dont l'exécution permet d'obtenir un résultat.
Routage : Détermination par des routeurs du chemin que doit emprunter une
information sur un réseau afin de parvenir à sa destination dans les meilleures
conditions possibles.
Supervision : Surveillance de l’état d’un réseau et de ses composants.
3
Cette gestion des réseaux se définit comme étant l’ensemble des moyens mis en œuvre
(connaissances, techniques, méthodes, outils, ...) pour superviser, exploiter des réseaux
informatiques et planifier leur évolution en respectant les contraintes de coût, de qualité et de
matériel. La qualité de service se décline sur plusieurs critères pour le futur utilisateur,
notamment la disponibilité, la performance (temps de réponse), la fiabilité, la sécurité…
L’administration des réseaux est couramment classée en trois activités :
1. La Supervision
La supervision consiste à surveiller les systèmes et à récupérer les informations sur leur état et
leur comportement, ce qui peut être fait par interrogation périodique ou par remontée non
sollicitée d’informations de la part des équipements de réseaux eux-mêmes. Le plus grand
souci d’un administrateur est la panne. En effet, il doit pouvoir réagir le plus rapidement
possible pour effectuer les réparations nécessaires. Il faut pouvoir surveiller de manière
continu l’état des réseaux afin d’éviter un arrêt prolongé de celui-ci. La supervision doit
permettre d’anticiper les problèmes et de faire remonter les informations sur l’état des
équipements et des logiciels.
Plus le système est important et complexe, plus la supervision devient compliquée sans les
outils adéquats. Une grande majorité des logiciels de supervision sont basés sur le protocole
SNMP qui existe depuis de nombreuses années. La plupart de ces outils permettent de
nombreuses fonctions dont voici les principales :
La tâche de l’administrateur est alors simplifiée. Il n’a plus qu’à faire une vérification ou
réaliser une action en fonction d’une alerte déclenchée.
4
2. l'Administration
3. l'Exploitation
De nos jours, les systèmes d'exploitation à savoir les systèmes UNIX, MacOs et Windows
gèrent tous l'aspect de l’exploitation des réseaux, les procédures, et les fonctions associés. Un
système d’administration réseau est une collection d’outils pour la supervision et le contrôle
du réseau qui sont intégrés dans le sens qu’ils impliquent :
L'administration des utilisateurs fournit l'ensemble des mécanismes nécessaires pour une
personne afin d'utiliser le réseau, à savoir :
Une attente de l’administration des réseaux informatiques peut être considérée comme les
débouchés auxquels s’attendent les utilisateurs des réseaux informatiques. D’une façon
générale, les attentes d’une d'administration réseau doivent permettre :
l'extraction des informations des éléments du réseau au moyen d'outils d’un grand
nombre d'informations ;
la réduction du volume d'informations au moyen de filtres afin de sélectionner les
informations significatives ;
le stockage des informations retenues dans une base de données d'administration ;
des traitements sur ces informations ;
offrir des interfaces (utilisateur d'administration administration, opérateur réseau).
Avec l'apparition des nouvelles technologies et la diversification des types de réseaux comme
la multiplication des mobiles connectés et le développement des solutions de Cloud
computing, la gestion des solutions de sécurité réseau est devenue une tâche complexe.
L’efficacité des réseaux dépend de la manière dont se font les échanges d’informations. Ces
échanges sont effectués grâce à des mécanismes qui président comme les protocoles, ceux-ci
représentent l’ensemble des règles décrivant la manière de faire transiter les informations sur
un réseau. L'évaluation de la performance d'un réseau peut être effectuée de plusieurs façons
et revient à mesurer la rapidité et la fiabilité d'une transmission de données.
1
La congestion d’un réseau, c’est quand un réseau a des ressources insuffisantes pour faire face à
toutes les demandes de toutes les demandes de transfert qui lui sont adressées.
8
Comparaison des métriques : Cette étape finale sert à représenter les différentes
mesures sous forme de courbe sur un même graphique pour évaluer les différents
critères sur lesquels agir en priorité pour améliorer la performance du réseau.
L’administrateur réseau est responsable de ce qui peut se passer dans un réseau administré ;
ainsi les rôles d’un administrateur réseau consiste à :
Mettre en place et maintenir l’infrastructure du réseau (organisation, ...) ;
Installer et maintenir les services nécessaires au fonctionnement du réseau ;
Assurer la sécurité des données internes au réseau (particulièrement face aux attaques
extérieures) ;
S’assurer que les utilisateurs n’outrepassent pas leurs droits ;
Gérer les « logins » (i.e. noms d’utilisateurs, mot de passe, droits d’accès, permissions
particulières, ...) ;
Gérer les systèmes de fichiers partagés et les maintenir.
Pour une bonne administration d’un réseau, un bon administrateur a besoin différents niveaux
de la prise des décisions d’administration :
Ces trois principaux niveaux déterminent alors différents degrés de l’administration des
réseaux informatiques, Une bonne administration marche avec :
Notons que dans le cas d’un système d’exploitation multiutilisateurs, comme Unix, la gestion
du système et des utilisateurs est confié à un super-utilisateur2 nommé « root » ou racine. Le
rôle de l’administrateur (root) est :
2
Du fait que les super utilisateurs possèdent tous les droits, il doit posséder des connaissances
concernant le fonctionnement du système.
10
La supervision consiste à surveiller les systèmes et à récupérer les informations sur leur état et
leur comportement, ce qui peut être fait par interrogation périodique ou par remontée non
sollicitée d’informations de la part des équipements de réseaux eux-mêmes.
Le plus grand souci d’un administrateur est la panne. En effet, il doit pouvoir réagir le plus
rapidement possible pour effectuer les réparations nécessaires. Il faut pouvoir surveiller de
manière continu l’état des réseaux afin d’éviter un arrêt prolongé de celui-ci. La supervision
doit permettre d’anticiper les problèmes et de faire remonter les informations sur l’état des
équipements et des logiciels.
Plus le système est important et complexe, plus la supervision devient compliquée sans les
outils adéquats. Une grande majorité des logiciels de supervision sont basés sur le protocole
SNMP (Simple Network Management Protocol) qui existe depuis de nombreuses années. La
plupart de ces outils permettent de nombreuses fonctions dont voici les principales :
La tâche de l’administrateur est alors simplifiée. Il n’a plus qu’à faire une vérification ou
réaliser une action en fonction d’une alerte déclenchée.
L’ISO ne spécifie aucun système d’administration des réseaux informatiques mais définit
plutôt un cadre général avec le document ISO 7498-4 dénommé « OSI Framework » ou «
Cadre Architectural OSI » et un aperçu général des opérations d’administration des systèmes
avec le document ISO 1004 dénommé « OSI System Management » ou « Système
d’administration OSI ». Ces documents de base décrivent trois modèles :
Le Modèle organisationnel ;
Le Modèle informationnel ;
Le Modèle fonctionnel.
Le modèle organisationnel, aussi appelé modèle architectural (Managed System and Agents
(MSA) ou Système Administré et Agent) : c’est un modèle qui organise l’administration OSI,
définit la notion de systèmes administrés (Agents) et définit la notion du système
Administrant (DMAP : Distributed Management Application Processus).Le modèle
architectural définit trois types d’activité :
La gestion du système (System Management) ;
La gestion de couche (Layer Management) ;
11
A. LA GESTION DU SYSTEME
La gestion du système (SMAE : System Management Application Entity) met en relation deux
processus Manager et Agent. Le protocole standardisé de niveau application CMIP « Common
Management Information Protocol » est utilisé. Le Manager envoie des messages de
commandes à ses Agents; ceux-ci lui retournent les résultats des opérations effectuées dans
des messages de réponses.
Dans ce modèle, l’Agent n’utilise pas les mêmes normes ou la même syntaxe de
communication que le Manager, une entité tierce appelée « Proxy-Agent » permet d’adapter
le protocole de l’Agent et de convertir ses données au format du Manager. Le Proxy-Agent est
situé soit au niveau de l’Agent, soit au niveau du Manager.
B. LA GESTION DE COUCHE
La gestion de couche (ou protocole de couche), fournit les moyens de transfert des
informations de gestion entre les sites administrés. C’est un dialogue horizontal (CMIP,
Common Management Information Protocol, ISO 9596). Les opérations de couche (N), ou
protocole de couche (N) supervisent une connexion de niveau N. Ces opérations utilisent les
protocoles OSI classiques pour le transfert d’information. C’est par exemple :
Le CMIP utilise les primitives de service suivantes (CMISE : Common Management
Information Service Element) :
Get :il est utilisé par le gérant pour lire la valeur d’un attribut ;
Set : fixe la valeur d’un attribut ;
Event : permet à un agent de signaler un événement ;
Create : génère un nouvel objet ;
Delete : permet à l’agent de supprimer un objet.
C. OPERATIONS DE COUCHES
Elles concernent les mécanismes mis en œuvre pour administrer l’unique instance d’une
communication entre 2 entités homologues. Les opérations de couche N (protocole de Couche
N) supervisent une connexion de niveau N en utilisant un certain nombre de primitive de
service. Il s’agit d’un dialogue Vertical assuré par le CMIS (Common Management
Information Service).
Gestion de configuration ;
Gestion de performance ;
Gestion de panne ;
Gestion de comptabilité ;
Gestion de sécurité.
13
Pour cela l’ISO utilise les mécanismes d’encryptage, l’authentification des extrémités (source
et destinataire) et le contrôle des accès aux données. Notons également que c’est au niveau de
la gestion de sécurité que l’on trouve la notion de configuration du serveur AAA3
(Authentification – Authorization – Accounting).
Le Standard de fait dans l’administration des réseaux TCP/IP, le protocole SNMP (Simple
Network Management Protocol) est proche des concepts ISO. Cependant, non orienté objet
SNMP confond la notion d’attribut et d’objet. Issu du protocole de gestion des passerelles IP
(SGMP, Simple Gateway Monitoring Protocol – RFC 1028), SNMP est décrit dans la RFC
1157. Ce document est complété par de nombreuses RFC dont :
les RFC 1155 qui spécifient comment les objets gérés sont représentés dans les bases
d’informations (SMI, Structure of Management Information). SMI utilise la notation
ASN1 (Abstract Syntax Notation 1) ;
les RFC 1156 et 1213 qui définissent les MIB (MIB I et MIB II). Les MIB décrivent
les objets gérés (attributs ISO). Une MIB particulière (RMON MIB, Remote Monitor
Network MIB) est spécifié pour les réseaux locaux (Ethernet et Token Ring), les objets
RMON sont implémentés dans des sondes d’analyse et de surveillance. Cependant en
environnement commuté, les sondes RMON n’ont accès qu’aux segments sur lesquels
elles sont installées.
Pour assurer un accès aux différents éléments des réseaux commutés, une sonde spécifique a
été définie (RFC 2613, SMON, Switched RMON). Le SNMP spécifie les échanges entre la
3
La configuration du serveur AAA consiste à une méthode de définition du cadre de référence pour
l’utilisation sécurisée des ressources en réseau c’est-à-dire l’administrateur sera en mesure de
connaitre qui se connecte, et qui a le droit d’accéder à quoi et qui consomme quoi…
15
station d’administration et l’agent. S’appuyant sur UDP (User Datagram Protocol), SNMP
est en mode non connecté. De ce fait, les alarmes (trap) ne sont pas confirmées. La plus
grande résistance aux défaillances d’un réseau d’un protocole en mode datagrammes vis-à-vis
d’un protocole en mode connecté ainsi que la rapidité des échanges justifient le choix d’UDP.
Les messages SNMP permettent de lire la valeur (exemple : compteur de collisions) d’un
objet administré (attribut d’ISO) (GetRequest et GetNextRequest), de modifier la valeur
d’un objet (SetRequest). L’agent administré répond à ces sollicitations par le message
GetResponse. Le message Trap est émis sur l’initiative de l’agent qui notifie ainsi, à
l’administrateur, qu’une condition d’alarme a été détectée.
Les MIB décrivent les objets gérés, en définissent le nommage, ils en précisent le type, le
format et les actions. Les différentes valeurs des objets ne sont pas contenues dans la MIB,
mais dans des registres externes que l’agent vient consulter à la demande du manager. La
RFC 1213 (MIB II) formalise une structure de définition des objets.
Ainsi, l’objet « SysUpTime » qui mesure le temps, en centième de seconde, depuis que
l’agent a été réinitialisé, est de type TimeTicks (type de variable défini dans la SMI, TimeTicks
mesure le temps en centièmes de seconde) et est accessible uniquement en lecture
(read_only). Cet objet obligatoire (mandatory) est le troisième objet décrit dans la MIB
system.
Les objets (variables) gérés par les MIB sont désignés selon une hiérarchie définie par l’ISO
selon un arbre dit « arbre de nommage ». Dans l’arbre de la figure 18.7, chaque organisation
de normalisation possède une entrée au premier niveau. Les différentes branches permettent
16
de nommer un objet de manière unique. Les MIB standard établies par l’IETF appartiennent à
la branche « internet » et sont classées dans la sous-branche mgmt(2).
Il sied également de signaler que l’accès aux variables des MIB dites privées est assuré par un
agent spécifique qui effectue les conversions nécessaires : le proxy-agent.
Le logiciel SNMP est né pour répondre aux difficultés de surveillance et de maintien des
réseaux informatiques, un protocole d’administration, intitulé SNMPv1 (Simple Network
Management Protocol) a été finalisé en 1990. Ce protocole permet :
Dans cette première version, le protocole est défini par un standard IETF (Internet
Engineering Task Force) intitulé RFC 1157 (Request For Comments) « A Simple Network
Management Protocol (SNMP) » datant de mai 1990. Le but de cette architecture est de
faciliter son utilisation, d’être suffisamment extensible pour être compatible dans le futur et
qu’elle soit indépendante de l’architecture et des mécanismes des hôtes ou serveurs
particuliers. (IETF, 1990).
La sécurité de SNMPv1 est basée sur des noms de communautés qui sont utilisés comme des
mots de passe pour accéder à une arborescence de données de l’équipement appelée MIB
(Management Information Base). Le nom de la communauté est transmis en clair dans le
message SNMP. La première version n’étant pas sécurisée, le protocole SNMP a ainsi évolué
en une deuxième version finalisée en janvier 1996, intitulée SNMPv2C (RFC 1901 à 1908).
La sécurité de cette version est encore faible car elle s’appuie sur le modèle de SNMPv1 en
réutilisant les noms de communauté, d’où la lettre C de SNMPv2C. Cependant, elle comble
des lacunes de la version 1, en particulier au niveau de la définition des objets, du traitement
des notifications et du protocole lui-même. Une troisième version finale, intitulé SNMPv3, a
et approuvée comme projet de norme en avril 1999. Elle est devenue un standard en décembre
2002 (RFC 3410 à 3418). Elle a pour but principal d’assurer la sécurité des échanges.
La technologie SNMP s’appuie sur le modèle OSI (Open System Interconnection). Ce modèle
de communication mis en place par l’Organisation internationale de normalisation (ISO :
International Organization for Standardization) comporte 7 couches (1 = Physique, 2 =
Liaison Données, 3 = Réseau, 4 = Transport, 5 = Session, 6 = Présentation et 7 =
Application). Le rôle du modèle OSI, décrit dans la norme ISO 7498-1, est de standardiser la
communication entre les machines.
18
SNMP est un protocole situé entre la couche 4 et la couche 7 de ce modèle OSI. Il s’appuie
sur le protocole de télécommunication UDP (User Datagram Protocol). Le paquet UDP est
encapsulé dans un paquet IP (Internet Protocol). UDP est plus simple à utiliser que TCP
(Transmission Control Protocol) car il fonctionne en mode non connecté. Le mode non
connecté n’oblige pas les deux entités à établir une connexion entre elles avant de transférer
des données puis de mettre fin à leur connexion. En revanche, UDP ne permet pas de savoir si
les datagrammes sont bien arrivés et s’ils sont arrivés dans un ordre différent de celui
d’émission.
Tout d’abord, il sied de rappeler que les logiciels dits « Open Source »4 sont définis
particulièrement comme des « logiciels libres », c’est-à-dire que ce sont des logiciels qui
rassemblent les applications livrées avec leurs codes sources, que l’on peut donc modifier a
volonté pour l’adapter à ses besoins… afin de dire qu’un logiciel est libre, il faudrait tenir
compte des 9 aspects suivants :
la libre distribution ;
la mise à disposition du code source ;
la possibilité de distribuer ses travaux dérivés ;
le respect du code source originel ;
l’absence de la discrimination envers les personnes ;
l’absence de la limitation sur le domaine d’application du logiciel ;
la distribution de la licence ;
la non-spécificité a un produit ;
elle ne doit pas contaminer les travaux des autres ;
Les logiciels de supervision dits « Open Source », les plus utilisées sont :
le logiciel NAGIOS ;
le logiciel CACTI ;
Le logiciel CENTREON ;
20
Etc.
Les logiciels de supervision dits « propriétaires » sont des logiciels caractérisés par
l’appartenance à une personne ou à une société en particulier. Ce sont des logiciels qui ne sont
pas des standards à l’ origine et ne sont pas compatibles avec d’autres logiciels comparables
de la concurrence. Les logiciels de supervision dits « propriétaires », les plus utilisées sont :
le logiciel HP - OPENVIEW ;
le logiciel PRTG NETWORK MONITOR ;
Le logiciel MEMO GUARD ;
Etc.
Dans cette catégorie, on trouve les consoles d’administration de câblage et les analyseurs de
protocoles. Les gestionnaires de câblage permettent de suivre les évolutions du câblage et le
brassage de celui-ci. Compte tenu de la charge de travail imposée par l’acquisition préalable
des données et la mise à jour des évolutions, ces outils ne sont justifiés que pour les réseaux
importants en nombre de prises. Les sondes sont des éléments insérés dans un réseau pour en
surveiller le fonctionnement. Elles fournissent, en temps réel, toutes les informations utiles au
gestionnaire pour connaître l’état actuel de son réseau (taux d’erreurs, trafic...).
B. LES HYPERVISEURS
Les NOS (Network Operating System) comportent un ensemble d’outils non seulement pour
la gestion des utilisateurs, des ressources et de la sécurité, mais aussi de supervision du
fonctionnement général du réseau et tout particulièrement de la machine serveur (charge du
CPU, swapping... ).
21
L’une des tâches de sécurité réseau les plus importantes c’est le développement d’une
politique de sécurité du réseau. Les administrateurs réseau sont appelés à suivre la vie du
réseau au quotidien et à le sécuriser. Il y aura toujours un besoin de trouver une solution qui
résout le problème de la sécurité du réseau. Un plan de sécurité existant et bien pensé
permettra à l’administrateur de décider de ce qui a besoin d’être protégé, combien vaut la
peine d’investir dans la protection informatique, qui sera responsable de l’exécution des
mesures pour assurer la protection souhaitée. Un plan de sécurité est un document qui décrit
la façon dont une organisation va répondre à ses besoins de sécurité. Il doit évoluer en
permanence pour s’adapter à l’évolution des besoins de l’organisation. Les sections suivantes
comportent les questions abordées par le plan.
3.1.Politique
Les objectifs de l’organisation pour la sécurité. Par exemple, la protection contre la perte de
données due à une catastrophe naturelle comme une inondation ou un incendie, la protection
de l’intégrité des données, ou comment d’éviter aux utilisateurs de nier les opérations qu’ils
ont effectuées.
Une autre déclaration doit porter sur l’attribution de responsabilités de la sécurité. Par
exemple, si la responsabilité incombe à un petit groupe chargé de la sécurité informatique, à
chaque employé, ou aux gestionnaires concernés?
La figure présente le cycle de vie de la sécurité dont les phases sont les suivantes:
1. Planification
2. Définition et implémentation de la politique
3. Contrôle et gestion
4. Détection d’intrusion
5. Évaluation
6. Analyse de menaces/risques
7. Création d’une politique de sécurité.
Pour être en mesure de planifier pour la sécurité, une organisation doit comprendre les
vulnérabilités actuelles auxquelles elle peut être exposée: Il faut répondre à la question de
savoir quel est l’état actuel de l’entreprise en matière de sécurité. Une enquête minutieuse du
système, de son environnement, et des choses qui pourraient mal se passer doit être menée
avec l’intention de découvrir des vulnérabilités. L’état actuel, encore appelé existant, peut être
exprimé comme une liste des actifs de l’organisation, les menaces à la sécurité sur les actifs et
les contrôles en place pour protéger ceux-ci. L’état indique également qui est responsable de
protéger un actif identifié.
Par ailleurs, le plan de sécurité se bâtit sur les exigences de sécurité qui sont généralement
dérivées de besoins organisationnels. Par exemple, l’accès aux enregistrements de données
devrait être limité (et on indiquera à qui l’accès doit être limité). Les exigences ne doivent pas
inclure les aspects de la mise en oeuvre; elles élucident uniquement ce qui doit être fait, sans
se préoccuper de comment cela doit être fait. Chaque exigence doit être:
3.3.Contrôles et responsabilités
Les exigences de sécurité exposent les besoins du système en termes de ce qui doit être
protégé. Le plan de sécurité doit également recommander quels contrôles doivent être intégrés
dans le système pour répondre à ces exigences. L’analyse des risques est nécessaire pour créer
une carte de correspondance des vulnérabilités aux contrôles. La cartographie nous dit
comment le système répondra aux exigences de sécurité. Autrement dit, les contrôles
recommandés portent sur des questions de mise en œuvre: comment le système doit être
conçu et développé pour répondre aux exigences de sécurité énoncées.
Un plan de sécurité doit par ailleurs identifier les personnes qui sont responsables de la mise
en œuvre des exigences de sécurité. Il doit toujours y avoir une ou des personnes responsables
de la mise en œuvre de chaque exigence recommandée. Partant, la responsabilité sera
attribuée à cette personne.
3.4.Chronogramme
Un plan complet de sécurité ne peut être exécuté immédiatement. Le plan de sécurité inclut un
calendrier qui montre comment et quand les éléments du plan seront exécutés. Ces dates
donnent aussi des jalons afin que la direction puisse suivre la progression de la mise en œuvre
(des deux côtés; les contrôles et les personnes responsables). Le plan devrait indiquer l’ordre
dans lequel les commandes doivent être mises en œuvre afin que les expositions les plus
graves soient couvertes dès que possibles.
Les bonnes intentions ne suffisent pas quand il s’agit de la sécurité. Nous devons non
seulement prendre soins de définir les exigences et les contrôles, mais nous devons aussi
trouver des moyens pour évaluer la sécurité d’un système pour être sûr que le système est
aussi sûr que nous n’en avons l’intention. Ainsi, le plan de sécurité doit amener à procéder à
une ré-examen périodique de la situation de sécurité. Comme les utilisateurs, les données et
les équipements changent et nouveaux risques peuvent se développer. En outre, les moyens
actuels de contrôle peuvent devenir obsolètes ou inefficaces. L’inventaire des objets (entités
passives) et la liste des contrôles doit être périodiquement examinée et mise à jour, et
l’analyse des risques doit être reprise. Le plan de sécurité doit fixer les dates de ces examens
périodiques, sur la base soit du temps du calendrier (du genre, revoir le plan tous les neuf
mois) ou de la nature des changements de système (du genre, revoir le plan après chaque
publication d’une nouvelle version majeure du système).
24
La sécurisation du réseau et de ses composants doit être proportionnelle aux risques auxquels
ils sont exposés. Toutefois, le processus de détermination des contrôles de sécurité qui soient
appropriés et rentables dans chaque cas est souvent assez complexe et demeure parfois une
question subjective. L’une des fonctions principales de l’analyse des risques de sécurité est de
parvenir à fonder ce processus sur une base plus objective. Il existe un certain nombre
d’approches distinctes d’analyse des risques. Cependant, celles-ci peuvent être regroupées
essentiellement en deux types: Approches quantitatives et approches qualitatives.
Un risque est un problème potentiel que le système ou ses utilisateurs peuvent rencontrer. Une
planification de sécurité bonne et efficace est effectuée après une analyse minutieuse des
risques. La figure montre les composantes essentielles d’une analyse de sécurité. Un risque est
associé à ce qui suit:
La perte associée à un événement. Il s’agit d’un effet négatif qui peut survenir comme
conséquence d’un risque: compromission de la sécurité, le temps perdu, la qualité
réduite, argent perdu, perte de contrôle, perte de compréhension, et ainsi de suite.
Cette perte est appelée l’impact du risque.
La probabilité que l’événement se produise. C’est la probabilité d’occurrence associée
à chaque risque. Elle est mesurée de 0 (impossible) à 1 (certain). Lorsque la
probabilité de risque est de 1, nous disons que nous avons un problème.
La mesure dans laquelle nous pouvons influencer le résultat. Nous devons déterminer
ce qu’il faut faire en cas d’occurrence d’un risque; si c’est possible, nous devons faire
quelque chose pour éviter l’impact d’un risque ou tout au moins pour réduire ses
effets.
Le risque est inévitable dans la vie, nos réactions à son égard sont: identifier, limiter, éviter,
transférer, et contrôler son existence. Les étapes de l’analyse des risques sont discutées ci-
dessous.
25
Avant que nous puissions identifier les vulnérabilités, il faut d’abord décider ce que nous
devons protéger. Ainsi, la première étape d’une analyse de risques est d’identifier les actifs du
système informatique qui sont disponibles dans notre infrastructure réseau. Les actifs peuvent
être classés dans les catégories suivantes:
Cette liste et son ordre ne sont pas obligatoires, mais elle représente plutôt une ébauche qui
devrait être adaptée en fonction de la situation de l’organisation. Certains actifs ne sont pas
dignes de protection dans certaines organisations mais hautement prioritaire dans d’autres
organisations. La figure montre le diagramme de flux de l’analyse de risques avec les
différentes phases que nous allons parcourir dans cette activité. L’identification des biens et
l’estimation de la valeur de valeur (du point de vue de la sécurité) c’est ce que nous avons
abordé ici.
26
La prochaine étape dans l’analyse des risques est de déterminer les vulnérabilités de ces actifs.
Cette étape exige de l’imagination: Nous voulons prédire ce qui pourrait se produire comme
dommages aux biens et de quelles sources cela pourrait provenir. Nous pouvons améliorer nos
compétences imaginatives en développant une idée claire de la nature des vulnérabilités. Cette
nature découle de la nécessité d’assurer les trois objectifs de base de la sécurité informatique:
la confidentialité, l’intégrité et la disponibilité. Ainsi, nous pouvons appréhender la
vulnérabilité comme désignant toute situation qui pourrait entraîner une perte de
confidentialité, d’intégrité et de disponibilité. Nous voulons utiliser une approche organisée
dans la considération des situations qui pourraient causer ces pertes pour un objet particulier.
La troisième étape de la réalisation d’une analyse des risques consiste à déterminer combien
de fois chaque vulnérabilité est susceptible d’être exploitée. La probabilité de réalisation est
fonction de la rigueur des contrôles existants et de la probabilité que quelqu’un ou quelque
chose échappe aux contrôles existants. Il existe différentes méthodes utilisées pour évaluer la
probabilité d’un événement. L’une de ces méthodes consiste à demander à un analyste
familier avec le système de rapprocher le nombre de fois où un événement décrit a eu lieu
dans un certain laps de temps (un an par exemple). Le nombre pourrait ne pas être exact
(parce les informations à la disposition de l’analyste peuvent ne pas être complètes), la
connaissance de l’analyste du système et son utilisation peuvent donner une estimation
raisonnable.
d’un morceau logiciel on peut effectuer une approximation raisonnable à partir du coût initial
d’acquisition (ou développement: Spécification, conception et implémentation). Cependant,
nous devons prendre soins d’inclure les coûts cachés dans nos calculs. Par exemple, il y a un
coût engendré chez les autres par la non disponibilité d’un matériel ou d’un logiciel. De
même, il existe des coûts pour la restauration d’un système dans son état précédent, la
réinstallation de logiciels, ou la dérivation d’un élément d’information. Ces coûts sont
nettement plus difficiles à mesurer.
En outre, il peut y avoir des coûts cachés qui impliquent des frais juridiques si certains
événements venaient à se produire. Par exemple, certaines données doivent être protégées
pour des raisons juridiques. Les données personnelles, telles que les dossiers de police, les
renseignements fiscaux, les données de recensement et de l’information médicale sont si
sensibles que la législation prévoit des sanctions pénales pour la divulgation de telles données
à des personnes non autorisées. D’autres données font partie des secrets de l’entreprise; leur
publication peut donner un avantage compétitif aux concurrents en rapport avec de nouveaux
produits ou sur des changements possibles sur le prix des actions notées à la bourse. Certaines
données financières, en particulier quand elles reflètent un événement indésirable, pourraient
affecter sérieusement la confiance du public dans une banque, une compagnie d’assurance, ou
une société de courtage en bourse. Il est difficile de déterminer le coût de divulgation de ces
données.
À ce stade de notre analyse des risques, nous comprenons les vulnérabilités du système et la
probabilité de leur exploitation. Nous passons maintenant à une analyse des contrôles pour
voir ceux qui portent sur les risques que nous avons identifiés. Nous voulons faire
correspondre chaque vulnérabilité à au moins une technique de sécurité appropriée.
À ce stade de notre analyse de risques, nous avons des contrôles qui répondent à chacune des
vulnérabilités dans notre liste identifiée. L’étape suivante consiste à déterminer si les coûts
l’emportent sur les avantages de la prévention ou de l’atténuation des risques. Rappelons que
l’on multiplie la probabilité des risques par l’impact du risque pour déterminer le niveau de
vulnérabilité au risque. L’impact du risque est la perte que nous pourrions subir si le risque
venait à se transformer en un véritable problème. Il existe des techniques pour nous aider à
déterminer la vulnérabilité à un risque.
Le rapport coût/efficacité d’un contrôle donné représente le coût réel du contrôle (comme le
prix d’achat, les coûts d’installation, et les coûts de formation), moins les pertes attendues de
l’utilisation du contrôle (tels que les coûts administratifs ou d’entretien). Ainsi, le coût réel
d’un contrôle peut être positif si le contrôle est coûteux à administrer ou induit de nouveaux
risques dans un autre compartiment du système. Ou le coût peut même être négatif si la
réduction du risque est plus importante que le coût du contrôle.
Nb : L’analyse de risques est un long processus qui doit être conduit avec minutie, au risque
d’aboutir à des résultats qui ne reflètent pas la réalité. Elle permet de dresser la liste des
28
Introduction
La planification de la sécurité basée sur l’analyse des risques de toute organisation devrait
conduire à une politique de sécurité efficace. Une politique de sécurité doit répondre à trois
questions: qui peut accéder à quelles ressources et de quelle manière?
Détails de l’activité
Une politique de sécurité est un document de gestion de haut niveau pour informer tous les
utilisateurs sur l’utilisation d’un système. Un document de politique est écrit en des termes
assez larges qui ne changent pas fréquemment. La politique de sécurité est le fondement sur
lequel tous les efforts de protection sont construits. Il devrait être une représentation visible
des priorités de toute l’organisation, et devrait en définitive stipuler les hypothèses sous-
jacentes aux activités de sécurité. La politique devrait articuler les décisions de le top
management en matière de sécurité ainsi que l’affirmation de l’engagement de ce
management pour la sécurité. Pour être efficace, la politique doit être comprise par tout le
monde comme le produit d’une directive d’une personne d’autorité et influente au sommet de
l’organisation.
Il existe quelques idées fausses qui persistent autour de la politique de sécurité du réseau:
La sécurité physique est la protection du personnel, du matériel, des programmes, des réseaux
et des données de conditions physiques et les événements qui pourraient entraîner de graves
pertes ou des dommages à une organisation. Ceci inclut la protection contre les incendies, les
catastrophes naturelles, les cambriolages, le vol, le vandalisme et le terrorisme. contrôles de
sécurité physiques typiques comprennent gardes, serrures, et des clôtures pour dissuader les
attaques directes. En outre, il existe d’autres types de protection contre les catastrophes moins
directes, comme les inondations et les coupures de courant; ceux-ci, aussi, font partie de la
sécurité physique. Comme nous le verrons, de nombreuses mesures de sécurité physique ne
sera fournie par simple bon sens. Pour comprendre la sécurité physique, nous devons d’abord
comprendre les menaces physiques qui sont classées en trois:
menaces physiques externes: Ici, nous parlons; inondations, tremblements de terre, les
vents, les ouragans, le feu, la glace, les produits chimiques, etc.
menaces physiques internes: Ici, nous parlons; une interruption électrique, une fuite de
liquide, une insuffisance de l’environnement, etc. menaces physiques humaines: Ici,
nous parlons; le vol, l’accès non autorisé, le vandalisme, le sabotage, l’espionnage,
etc. contrôles de sécurité physiques doivent être mises en place pour empêcher ces
menaces d’être la réalité. Par conséquent, les clôtures, les barrières, portes, portes avec
des serrures, des badges, des escortes, des systèmes de détection, protection de
l’alimentation, la protection de l’eau, la protection incendie, etc sont mis en place pour
contrôler les attaques.
Le moyen essentiel de la sécurisation physique des biens du réseau c’est le contrôle de l’accès
à ces ressource. En effet, seules des personnes disposant du privilège nécessaire (et qui
30
La maintenance a un coût, raison pour laquelle toutes les unités ne peuvent pas bénéficier du
même niveau de maintenance. La politique de maintenance procède dans la plupart des cas en
fonction de la valeur économique et de l’importance des composants dans l’infrastructure. Les
activités de maintenance sont nombreuses et nécessitent une organisation efficace.
La maintenance comprend un volet organisationnel aussi important que les tâches techniques
effectuées lors de l’exécution de la maintenance. Dans un contexte d’administration réseau il
doit y avoir une politique de maintenance bien connue qui définit entre autres le plan et les
méthodologies de maintenance applicables. Nous pouvons distinguer essentiellement deux
types de maintenance rencontrées en environnements informatiques (figure):
Maintenance réactive.
Maintenance préventive.
31
La maintenance réactive ou corrective est une approche simple à la maintenance réseau. Elle
consiste à réagir aux défaillances et autres problèmes lorsqu’ils surviennent. Les
inconvénients de cette approche sont les suivantes sont considérables. On peut citer en
premier le fait que les tâches bénéfiques à un bon fonctionnement du réseau à long terme
soient ignorées, reportés ou oubliés: Quand on a réussi à remettre en fonctionnement l’unité
ayant connu un dysfonctionnement on éclipse facilement les causes, les répercutions et les
enseignements tirés du dépannage. L’autre inconvénient essentiel réside dans le fait que les
interventions de maintenance ne vont pas être effectuées dans l’ordre de priorité (d’urgence),
mais plutôt dans un ordre subjectif aux techniciens ou dans l’ordre d’occurrence des
dysfonctionnements.
Les approches et méthodologies de maintenance sont prises en compte dans les normes de
référence de management des réseaux comme TMN (Telecommunications Management
Network) ou de management des systèmes informatiques comme ITIL (IT Infrastructure
32
La maintenance est une rubrique indispensable de l’administration réseau parce que tout
composant ou système technique est susceptible de connaître des dysfonctionnement et a un
durée de vie déterminé. L’organisation de la maintenance s’appuie sur la politique de
maintenance préalable élaborée et adoptée au sein de l’entreprise. La maintenance a un coût
qui dépend des exigences et des efforts à consentir. Raison pour laquelle toutes les unités ne
peuvent pas bénéficier du même niveau de maintenance.
Les tâches de maintenance dans le cadre de l’administration réseau peuvent être regroupées en
cinq grandes catégories:
modules (de correction) de mise à jour doivent être téléchargés pratiquement au quotidien.
Pour les logiciels d’application la migration à une nouvelle version doit être évaluée, préparée
et justifiée par rapport à l’entreprise: On ne passe pas à une nouvelle version juste parce
qu’elle est disponible. Les tâches de maintenance dans le cadre de l’installation et la
configuration englobent aussi le backup et la restauration des données de configuration.
La deuxième catégorie des tâches de maintenance regroupe les tâches qui permettent de réagir
à l’occurrence de défaillances au niveau des composants individuels ou au niveau de
l’infrastructure réseau. Parmi celles-ci on peut citer l’assistance aux utilisateurs qui
rencontrent des difficultés avec la communication en réseau, le diagnostic des pannes
d’équipements et de lignes de communication, le remplacement d’équipements et la
restauration des backups. L’une des conséquences prévisibles des pannes qui peuvent survenir
dans un réseau c’est évidemment la perte de données. L’administration réseau doit avoir pour
objectif dans ce contexte de réduire les pertes à un minimum.
Les tâches de maintenance sont nombreuses et s’étendent sur tout le cycle de vie des
composants. Par ailleurs, il faut noter qu’en plus des activités techniques on y comptent les
procédures administratives qui relèvent de la dimension managériale de la maintenance. En
fait, une bonne gestion est indispensable à un bon rendement en matière de maintenance. De
nos jours la maintenance s’appuie fortement sur l’utilisation de logiciels spécialisés. On parle
de GMAO (Gestion de la Maintenance Assistée par Ordinateur).
Nous avons appris des activités précédentes que la maintenance nécessite des procédures
administratives en plus des activités techniques. En fait sans un cadre administratif global
défini dans l’entreprise, on ne saurait prendre des décisions efficaces pour la maintenance et
surtout allouer les moyens financiers nécessaires. C’est la politique de maintenance qui
fournit ce cadre pour l’organisation et l’exécution de la maintenance.
La carte réseau représente le document de base pour l’administration du réseau et surtout pour
la maintenance. Les logiciels spécialisés facilitent désormais la création et la mise à jour de la
documentation réseau.
L’occurrence d’incidents pouvant conduire à des pertes de ressources (et notamment des
pertes de données) dans une infrastructure réseau sont inévitables, quelles que soient les
mesures préventives que l’on peut implémenter. C’est pour cette raison que la sauvegarde
régulière des données représente la seule solution envisageable pour réagir aux incidents et
aux sinistres éventuels.
Le backup ou sauvegarde de sécurité consiste à créer régulièrement des copies des données et
des logiciels contenus dans les machines (serveurs notamment) et les équipements actifs de
l’infrastructure réseau. Ces copies aussi appelées backups qui sont conservées en dehors des
machines en production sont utilisées pour restaurer l’état de configuration des équipements,
pour réinstaller les serveurs et autres systèmes ou pour retrouver les données d’application
après des incidents ayant conduit à des pertes de données ou à une incapacité de redémarrage
d’une machine. Les situations pouvant conduire à de pertes de données sont nombreuses :
Le backup doit s’appuyer sur un plan qui doit être évidemment en conformité avec la
politique de générale de maintenance de l’entreprise. Les caractéristiques d’un bon plan de
backup sont les suivantes : Facilité d’exécution (il doit permettre l’automatisation des
sauvegardes, ainsi que les restaurations sélectives de fichiers/dossiers), possibilité de
programmer les sauvegardes, possibilité de vérifier les backups (c’est-à-dire les sauvegardes
effectuées), possibilité d’effectuer des copies délocalisées et portabilité. Le plan de backup
détermine aussi la stratégie de sécurisation. Parmi les stratégies existantes on a :
Le plan de backup peut par exemple fixer qu’un backup incrémentiel soit effectué au
quotidien (à la fin de la journée de travail) et qu’un backup complet soit effectué chaque
dimanche (le jour de repos où l’infrastructure est libre et à la disposition de l’administration).
Les systèmes d’exploitation modernes offrent des outils efficaces pour le backup et la
restauration. C’est ainsi que sous le système UNIX/Linux par exemple on a entre autres :
dump et restore : Pour les backups de tout le système de fichiers. Les deux supportent
aussi les backups incrémentiels.
tar : Permet un backup fichier par fichier (archivage) et il est particulièrement facile de
restaurer des fichiers sélectionnés.
compress et gzip : Ces deux outils système permettent d’effectuer des compressions de
données sauvegardées. La compression n’est pas inhérente au backup, mais dans le
cadre du backup et de la restauration on se retrouve généralement devant de gros
volumes de données qui ne peuvent être maîtrisés qu’avec l’aide de la compression sur
disque.
Pendant longtemps les bandes magnétiques ont été type de mémoires secondaires de backup
par excellence. Puis vinrent les disques durs amovibles et, depuis des années on a des
systèmes de backup construits notamment sur la base d’une combinaison dense de disques
durs. De tels systèmes sont conçus pour fonctionner directement en réseau et non comme
périphériques d’un serveur. A ce sujet l’avènement des réseaux de sauvegarde (Storage Area
Network, SAN) a été aussi très bénéfiques pour le backup : Les SANs permettent aux
serveurs d’enregistrer les données directement sur des systèmes de sauvegarde externes de
grosse capacité et de haute performance, avec possibilité de duplication. Ce qui représente
déjà une sécurisation.
La raison d’être du backup c’est aussi de permettre une reprise après un sinistre. Un sinistre
ou désastre est un événement catastrophique qui provoque une panne affectant un massif
bâtiment ou d’un site entier. Du point de vue de la sécurisation de l’infrastructure, il faut
38
compter avec une perte totale en cas de sinistre. Une catastrophe naturelle comme un
tremblement de terre ou inondation peut causer un sinistre en détruisant la salle des serveurs
ou le datacenter d’une entreprise. La prévention et la remise des sinistres nécessite un plan
bien élaboré.
Introduction
Introduction
Dans ce chapitre, nous allons passer en revue toutes les étapes par lesquelles nous sommes
passés pour déployer notre solution de gestion centralisée des comptes étudiants et espace de
travail individuel. En commençant par l’installation et configuration du serveur de gestion.
Microsoft a adapté Windows pour que la version 2008 réponde aux besoins et aux attentes des
entreprises et des informaticiens, qu’ils soient programmeurs ou administrateurs.
L’architecture Windows a été adaptée sur plusieurs fondations solides, citons la flexibilité qui
introduit la notion de rôles et de fonctionnalités, lui permettent d’étendre la sécurité au niveau
de l’environnement comme avec l’utilisation de contrôleurs de domaine en mode lecture seule
pour garantir l’accès au réseau en offrant des identités de manières sécurisée.
L’installation de Windows Server 2008 a été simplifiée et optimisée afin de réduire la durée
de l’installation. L’administrateur ne donnera que quatre informations :
Considérant que l’installation du système d’exploitation Windows Serveur 2008 est terminée
avec succès. Quelques taches sont nécessaires :
a. Installation
Commencez par ouvrir le "Gestionnaire de serveur" et cliquez sur "Ajouter des rôles".
Dans la fenêtre qui apparait, cochez la case "Services de domaine Active Directory".
Si votre serveur vous demande d’installer ".NET Framework", cliquez sur Ajouter les
fonctionnalités requises".
42
b. Configuration
Retournez ensuite sur le "Gestionnaire de serveur", puis cliquez sur "Accéder à services de
domaine Active Directory". Cliquez sur "Dcpromo.exe".
Soit dans Exécuter (Windows + R), taper dcpromo puis cliquer sur OK. Dans la fenêtre qui
s’affiche cochez sur "Utiliser l’installation en mode avancé", puis sur "Suivant".
45
Sélectionnez "Crée un domaine dans une nouvelle forêt", puis cliquez sur "Suivant".
46
Ensuite vous devez choisir le niveau de fonctionnalité de la forêt. Pour faire simple,
vous devez indiquer le plus ancien système d’exploitation de vos serveurs que l’on
trouve dans votre forêt. Considérant que nous dans notre réseau avons un serveur
Windows 2008R2 et un autre serveur Windows 2008 par exemple, nous indiquons un
niveau de fonctionnalité : "Windows Server 2008".
Si vous n’avez pas de Serveur DNS sur votre réseau alors cochez "Serveur DNS".
48
Si vous avez cochez l’option, la fenêtre suivante va apparaitre cliquez sur "Oui".
Indiquez les chemins des dossiers où seront stockés les fichiers journaux et les BDD,
pour une installation simple laissez les paramètres par défaut.
49
Dans la fenêtre "Gestionnaire de serveur" vous observez que le rôle "DNS" et le rôle
"Service de domaine Active Directory" ont bien était installé.
51
Sélectionnez le type de zone inversée IPv4 ou IPv6, puis cliquez sur "Suivant".
54
Sélectionnez "N’autoriser que les mises à jour dynamiques sécurisées", puis cliquez
sur "Suivant".
55
(Group Policies Object) sur l’unité d’organisation pour contrôler les droits des
utilisateurs. Faite un clic droit sur le domaine, "Nouveau" puis "Unité d’organisation".
Donnez un nom puis cochez la case "Protéger le conteneur contre une suppression
58
Puis ouvrez "Système". Cliquez sur l’onglet "Nom de l’ordinateur" et sur "Modifier".
Sélectionnez "Domaine" puis entrez le nom de votre domaine.
60
La station de travail vous demande alors le nom d’utilisateur et le mot de passe d’une
personne autorisé à joindre au domaine.
Après le redémarrage vous obtenez l’écran ci-dessous, faite "Ctrl + Alt + Suppr".
On entre ensuite son nom d’utilisateur sur le domaine, le mot de passe associé puis on clique
sur "Options" pour sélectionner le domaine auquel on veut se connecter via le menu
déroulant.
62
Références du cours