Vous êtes sur la page 1sur 77

Introduction générale

La surveillance du réseau est un processus informatique qui surveille et évalue en continu un


réseau informatique et ses ressources. Un système de surveillance du réseau identifie et
corrige de façon proactive les lenteurs du trafic réseau ou les composants réseaux inadaptés
pour maintenir l’intégrité du réseau.

Avec des réseaux d’entreprise de plus en plus complexes et tentaculaires, la surveillance revêt
une importance croissante, en particulier à l’heure où les entreprises migrent vers un
environnement de travail cloud ou hybride. Dans de nombreux cas, un outil avancé de
surveillance du réseau est également un composant critique de l’architecture de cybersécurité,
car il offre la visibilité en temps réel requise de bout en bout pour identifier les indicateurs de
compromission ou les indicateurs d’attaque précoces qui accompagnent un événement de
cybersécurité actif.

Ce travail est réalisé à Global Web Engineering dans le cadre d’un projet de d’études afin
d’obtenir une licence fondamentale en télécommunication. Au sein de Global Web
Engineering, la surveillance et la bonne gestion du parc informatique présente un enjeu
majeur. Elle permet de prévenir les dé- faillances et de réduire les coûts de fonctionnement du
système informatique. L’entreprise a trouvé nécessaire de concevoir et développer un outil de
surveillance pour son réseau.

Pour assurer une couverture de sécurité maximale des systèmes d’informations, une
combinaison complète d’outils est nécessaire. Une solution efficace basée sur SOC comprend
les principaux composants su système SIEM ( Security informations and Evenet
Management), un système de gestion et suivi des incidents, des systèmes de détection et
prévention.

Durant ces quatre mois de stage de fin d’études, nous proposons et nous testons une version
de système Nagios pour la gestion des incidents, détection et prévention.

Notre solution permet également de remonter des alarmes en cas de problèmes. En effet, notre
projet consiste à superviser un réseau grâce à l’outil Open source «Nagios». En fait, nous
apportons quelques modifications afin d’adapter "Nagios" au besoin de notre société.
Le présent rapport se compose de trois chapitres. Le premier chapitre, décrit le cadre général
du projet. Ce chapitre a été consacrée essentiellement à l’étude de différentes solutions de
supervision, afin de choisir la solution la mieux adaptée aux exigences des administrateurs au
sein de GWE. Le deuxième chapitre, a été consacré à l’analyse des besoins et à l’étude
conceptuelle de cette solution. Le troisième chapitre, consiste à la réalisation de notre projet
pour l’implémentation de la solution de surveillance réseau au sein de GWE.
Cadre générale du projet et état de l’art
I. Introduction :
Ce chapitre contient le cadre de projet. Il comporte deux parties : la première porte sur
l’entreprise d’accueil alors que la deuxième décrit la problématique et la solution du projet.

II. Présentation de la société d’accueil


a. Présentation 
GWE est créer en 2013 en Tunisie, à ce moment on possède des consultants en Afrique et en
France qui propose notre expertise en décisionnel et big data, nous sommes spécialisés en
mise en place des solutions informatiques web mobile basé Cloud.

b. Qui sommes-nous :

Figure 1: Logo GWE

GWE est une entreprise locale, agile et réactive. Nos équipes sont à l’écoute de vos besoins et
de l’évolution de vos projets pour vous apporter des solutions logicielles expertes pour l’IoT
adaptées et évolutives.

Global Web Engineering est une société de services informatiques en Tunisie à taille humaine
s’appuyant sur deux axes forts, la satisfaction de ses clients et l’épanouissement de ses
collaborateurs.

Global Web Engineering est reconnu comme un pionnier capable de relever les défis du
développement durable, auxquels sont confrontés les industries et la société. Grâce aux
services numériques, à sa conformité avec les réglementations sur la confidentialité des
données, ainsi qu’au soutien à la diversité et à l’accessibilité, Global Web Engineering a
toujours été à la pointe de l’innovation.

Global Web Engineering est pleinement conscient de sa mission et de sa responsabilité envers


la société et est convaincu que le numérique peut apporter une contribution significative au
développement durable et social, en particulier à la lutte contre le changement climatique, à
l’inclusion numérique et à la confiance dans la sécurité et la gestion des données.

c. Solutions :
i. La transformation numérique requiert un
périmètre sécurisé
Alors que les technologies numériques sont plus intégrées que jamais dans notre quotidien,
leur influence sur les entreprises, et même l’humanité, ne cesse d’augmenter. L’exécution
d’une stratégie numérique dépend grandement de la résolution des problèmes sous-jacents liés
aux exigences et limites des technologies numériques et de l’identification de la meilleure
façon de les gérer.

Les plateformes Cloud numériques permettront à votre entreprise de procéder à l’intégration


et l’automatisation nécessaires aux performances exceptionnelles que vous recherchez. La
vitesse et l’agilité requises aujourd’hui, indépendamment de l’état de votre périmètre sous-
jacent : hérité, privé, public ou multi-Cloud.

Une plateforme numérique adaptée permet à votre entreprise de mesurer et de contrôler en


permanence la réalisation des objectifs stratégiques.

ii. Accès fluide et sécurisé à toutes les applications


et données
 Dans leur parcours numérique d’entreprise les utilisateurs s’attendent à une expérience
totalement fluide et sécurisée, indépendamment des ressources de l’entreprise ou de leurs
propres terminaux.

Dans ce monde dont les périmètres s’effacent et où le cloud devient prépondérant, les
organisations doivent garantir la sécurité de l’espace de travail numérique et des
infrastructures.

iii. Sécurité de cloud :


 Le Cloud lui-même n’est pas « moins » sécurisé que les Data Center existants ou les
environnements existants sur site. Nous entendons de plus en plus parler d’incidents de
sécurité dans le Cloud… alors que de plus en plus de données vont dans le Cloud… et que les
« méchants » les suivent.
La question que les entreprises doivent se poser n’est pas « mon cloud est-il sécurisé », mais
plutôt « est-ce que j’utilise le cloud en toute sécurité ».

Pour toute organisation, tirer parti de tous les avantages du cloud nécessite une approche
solide de la cyber sécurité afin de protéger les données sensibles qui sont partagées entre les
environnements de cloud public et de cloud privé à un coût acceptable.

Global Web Engineering vous aide à maintenir un contrôle centralisé sur la gestion des
identités et des accès, ainsi que sur les clés de chiffrement, avec une approche unique de
sécurité du cloud.

iv. DÉVELOPPEMENT DES ERP SUR MESURE


Selon vos spécifications fonctionnelles et vos contraintes, Un logiciel métier est un outil
informatique développé spécifiquement selon vos besoins et votre activité. Il permet
d’informatiser et d’automatiser des processus de gestion propres à votre entreprise. Chaque
structure est unique et il est parfois complexe de trouver la solution ERP adéquate. C’est pour
cela que nous développons votre logiciel métier afin de répondre à vos besoins.

Figure 2: Intégration des ERP

Le développement des ERP sur mesure consiste à élaborer d'un logiciel s'adaptant aux
situations et aux besoins spécifiques de chaque entreprise. En fait, nous développons un
logiciel adapté aux besoins de votre entreprise pour résoudre vos problèmes et améliorer votre
gestion dans son ensemble et ainsi booster vos performances.

v. CRÉATION SITE WEB SUR MESURE


Pour les entrepreneurs, pouvoir compter sur un site web de qualité est aujourd’hui essentiel.
Le site de l’entreprise doit refléter ses valeurs et servir à forger son image de marque. Il est
donc intéressant de s'orienter vers la création un site web sur mesure, qui se démarquera de la
concurrence par son unicité tant sur le plan du contenu que de la forme.

Figure 3: Développement web

Chez Global Web Engineering, on s'intéresse à la création des sites web sur mesure nous
concevons des pages web et nous donnons la priorité aux performances et aux conceptions
professionnelles adaptées à chaque secteur. Quel que soit le type de site voulu (création du
site vitrine de société, une application en ligne ou boutique en ligne), Nos ingénieurs vous
propose des solutions adaptées avec vos besoins et qui correspond avec vos attentes.
L'ensemble de vos contenus crées sur mesure vont être adaptés à tous les écrans. Ainsi vos
contenus textes, images, vidéos sont directement responsive.

vi. DÉVELOPPEMENT MOBILE SUR MESURE


Le Smartphone n’est pas seulement un appareil téléphonique. Il est une véritable boîte à outils
grâce à ses multiples fonctionnalités, parmi lesquelles figurent des applications. En effet, une
application mobile permet donc de répondre à un besoin bien précis tel qu’avoir accès à
l’information, la praticité ou le gain de temps. De plus en plus, le développement mobile sur
mesure devient une stratégie de marketing la plus efficace et la plus rentable.
Figure 4: Développement des application mobiles sépcifiques

Une application mobile sur mesure ouvre aussi un accès très prometteur à votre entreprise.
Elle permet de créer un nouveau lien avec votre cible, un lien vous permettant d’accroître
votre visibilité, votre notoriété et même voir votre chiffre d’affaires. Donc, pour améliorer
votre placement et l’optimisation de votre entreprise, il est conseillé d’être visible et présent
dans l’univers d’internet mobile.

Les applications mobiles sont devenues un canal de communication primordial pour l’image
d’une entreprise. Nous vous accompagnons de l’idée de départ, à la conception et au
développement de votre application.

vii. DES SOLUTIONS À BASE D’IA


L’Intelligence Artificielle répond à vos besoins, Aujourd’hui, des données toujours plus
nombreuses sont gérées et traitées par des algorithmes au quotidien. Ces technologies
d’exploitation des données permettent l’émergence d’une Intelligence Artificielle tournée vers
différents services, dans des domaines applicatifs métiers.
Figure 5: Intelligence artificielle

Embrassez l'intelligence sous toutes ses formes pour résoudre les défis de votre entreprise :
servez vos clients selon des modalités inédites, personnalisez vos expériences, optimisez votre
chaîne logistique. Nos solutions IA permettent de traiter tous types de problématiques,
qu’elles soient de nature de votre secteur. L’IA peut être appliquée à tous domaines tels que la
finance, la santé, l’éducation, le droit, la fabrication.

viii. ROBOTS INDUSTRIELS SUR MESURE


Nos équipes imaginent et conçoivent pour vous des robots industriels et solutions robotisées
innovantes et sur mesure. La robotique devient est un moyen d’innovation durable dans les
secteurs d’activité les plus variés tel que fabrication industrielle, agriculture, santé…
Afin de concevoir des solutions robotisées inédite. Nous combinons d'une part, le meilleur de
la recherche et des nouvelles technologies et d'autre part nous offrons toujours le plus
d’autonomie et de performance que possible.

Figure 6 : Intégration des systèmes industriels


Les robots industriels permettent l’automatisation de certaines tâches sur votre chaîne de
production, vous apportant flexibilité et gain de productivité.

Développement et intégration de solutions robotisées sur mesure : Notre savoir-faire s’étend


de l’automatisation des procédés à l’instrumentation ainsi que la prise en compte de
l’expérience utilisateur ou encore le développement d’IHM innovantes. En premier lieu, notre
objectif est de faire avancer la Recherche et Développement et relever vos défis
technologiques. En deuxième lieu et on s’engage à vous faire voir le fruit de nos efforts sur
vos terrains.

ix. DES SOLUTIONS IOT SUR MESURE


Relever le défi avec l'Internet des Objets, Le marché de l'Internet of Things (IoT) poursuit sa
montée en puissance grâce notamment à l’adoption des objets connectés dans tous les
secteurs. Par ailleurs les données générées et collectées par les solutions IoT connectées
permettent aux organisations de fonctionner plus efficacement et de mieux comprendre les
processus métier et de fiabiliser la prise de décisions. De plus, grâce à des solutions IoT sur
mesure vous pouvez augmenter la compétitivité de votre entreprise avec les innovations liées
à l’internet des objets.

Figure 7: IOT sur mesure

L’IoT vous offre une visibilité précise et instantanée de l’état des assets de votre entreprise.
Grâce à leur capacité à transmettre de l’information en temps réel, les solutions connectées
répondent à des cas d’usage critiques. Ils améliorent également vos produits et services en
mesurant en continu la satisfaction client. Les freins à l’efficience sont levés et la maintenance
devient prédictive.
III. Étude de l’existant
Le Security Opération Center est aussi désigné en tant que COS (Centre Opérationnel de
Sécurité). Il se compose des personnes et des équipements techniques nécessaires pour assurer
la supervision de la sécurité informatique d'une société et intervenir rapidement en cas
d'incident ou d'attaque.

Afin d'optimiser le fonctionnement du SOC, il est important que plusieurs types de profils y
soient représentés :

 Des managers : ils supervisent l'ensemble des opérations ;


 Des analystes : ils surveillent le système d'information, détectent les activités
suspectes, gèrent les alertes de sécurité, mènent les investigations après des incidents
avérés et interviennent en amont pour de la prévention ;
 Des ingénieurs et des spécialistes en cybersécurité : ils œuvrent pour une amélioration
continue du SOC, paramètrent les systèmes de supervision, installent et intègrent les
différents outils, etc. ;
 Des experts en sécurité : ils font bénéficier les analystes de leur expertise spécifique
pour la résolution d'incident

Un des éléments clés sur lequel le SOC se base est le SIEM (Security Information and Event
Management). Le SIEM collecte l'ensemble des informations générées par l'infrastructure
informatique : systèmes d'exploitation, routeurs, serveurs, pare-feu, logiciels antivirus, base de
données, etc.

Il analyse toutes ces informations, les surveille et les corrèle afin d'évaluer la conformité des
événements par rapport aux normes et moyennes définies pour l'entreprise.

Quand un dysfonctionnement est détecté, le SIEM crée des alertes qui sont analysées par des
experts et éventuellement transmises à des outils spécifiques de sécurité.

Le SIEM peut également posséder une fonctionnalité lui permettant la surveillance des
actions des utilisateurs jugées non conformes.

IV. Problématique
Ce présent travail s’est déroulé dans un environnement comportant un parc informatique
important composé de machines et de serveurs locaux et distants. L’administrateur est
responsable de ses équipements, ce qui rend sa tâche difficile. En effet, l’administrateur doit
vérifier la disponibilité des équipements, la disponibilité des applications, installation des
applications, détection des incidents et gestion des machines.

C’est pour cela que l’entreprise souhaite mettre en place une solution capable de faciliter et
d’organiser l’administration de son réseau informatique. Cependant, les solutions de
surveillance de réseaux peuvent avoir un cout considérable. Il existe des solutions gratuites,
mais ces solutions doivent être adaptées aux besoins et spécificités de l’entreprise. Notre
objectif est de choisir la meilleure solution de surveillance gratuite et de l’adapter aux besoins
de Global Web Engineering.

V. Solution proposée
La gestion des incidents et suivi des états des stations de travail et serveurs étant le plus grand
souci de l’administrateur, nous avons jugées nécessaire de mettre en place un outil de
surveillance du réseau performant, souple et gratuit.

Notre solution propose de contrôler le fonctionnement du réseau, anticiper les problèmes en


faisant remonter des informations sur l’état des équipements, détecter les pannes afin d’offrir
à l’administrateur la possibilité d’arriver à résoudre les problèmes rapidement. De manière
générale, notre solution est capable d’évoluer facilement et efficacement au rythme des
besoins de l’équipe. L’objectif de notre solution est de :

 Suivi des incidents


 Suivi des alertes
 Suivi des états
 Suivi des processus
 Gestion des notifications

VI. Étude théorique


Dans cette section nous définissons la notion de supervision réseaux. Par la suite, nous
décrirons les différents outils de monitoring existants et nous étudierons le logiciel choisi pour
implémenter notre solution.

a. Qu’est-ce que la surveillance réseau ?

La surveillance du réseau consiste à utiliser un logiciel de surveillance du réseau pour


surveiller la santé et la fiabilité continues d’un réseau informatique. Les systèmes de
surveillance des performances réseau (NPM) génèrent généralement des cartes topologiques
et des informations exploitables, basées sur les données de performances collectées et
analysées. Grâce à cette cartographie du réseau, les équipes informatiques bénéficient d’une
visibilité complète sur les composants réseau, la surveillance des performances des
applications et l’infrastructure informatique associée, ce qui leur permet de suivre l’état global
du réseau, de repérer les signaux d’alarme et d’optimiser le flux de données.

Que les ressources réseau soient locales, dans un centre de données, hébergées par un
fournisseur de services cloud ou faisant partie d’un écosystème hybride, un système de
surveillance du réseau surveille les périphériques réseau défectueux et les ressources
surchargées. Par exemple, il peut trouver des processeurs surchargés sur les serveurs, des taux
d’erreur élevés sur les commutateurs et les routeurs, ou des pics soudains de trafic réseau. Une
caractéristique clé du logiciel NPM est d’alerter les administrateurs réseau lorsqu’un
problème de performance est détecté.

Les systèmes de surveillance du réseau collectent également des données pour analyser le flux
de trafic et mesurer les performances et la disponibilité. Une méthode de surveillance des
problèmes de performances et des goulots d’étranglement consiste à configurer des seuils, de
sorte que vous recevez des alertes instantanées en cas de violation de seuil. Alors que certains
seuils sont de simples seuils statiques, les systèmes NPM modernes utilisent l’apprentissage
automatique (ML) pour déterminer les performances normales de toutes les mesures d’un
réseau en fonction de l’heure de la journée et du jour de la semaine. Les systèmes NPM avec
de telles lignes de base basées sur le ML créent des alertes qui sont généralement plus
exploitables.

Les organisations effectuent souvent une surveillance réseau au sein d’un centre


d’opérations réseau (NOC), qui surveille les périphériques réseau et les connexions entre
toutes les dépendances sans que les utilisateurs finaux sachent que le NOC fonctionne en
arrière-plan.

b. Pourquoi la surveillance du réseau est-elle


nécessaire ?

Les pannes de réseau peuvent entraîner des interruptions d’activité, ce qui peut entraîner une
perte de clients, de productivité des employés et d’argent. En fait, 91 % des moyennes et
grandes entreprises déclarent qu’une seule heure d’arrêt informatique leur coûte au moins 300
000 USD par heure. Près de la moitié de ce groupe a déclaré que cela coûtait des millions.

Investir dans un logiciel de surveillance réseau, qu’il soit commercial ou open source, signifie
adopter une approche proactive pour maintenir votre infrastructure réseau en bonne santé et
maximiser le temps de disponibilité, au lieu d’attendre qu’un utilisateur final signale des
problèmes de réseau. Étant donné que la surveillance de l’infrastructure vous permet de savoir
précisément où un problème réseau se produit, vous disposez d’un délai de dépannage avant
que la situation n’entraîne une panne. L’identification et la résolution précoces de la cause
première d’un problème peuvent réduire le temps de réponse, améliorer la satisfaction des
clients, économiser de l’argent et protéger la réputation d’une entreprise.

c. Types d’outils de surveillance réseau

Il existe trois principaux types d’outils de surveillance réseau.

 Les outils basés sur SNMP utilisent le protocole SNMP (Simple Network


Management Protocol) pour interagir avec le matériel réseau et suivre l’état et
l’utilisation des ressources en temps réel, telles que les statistiques du processeur, la
consommation de mémoire, les octets transmis et reçus et d’autres mesures. SNMP est
l’un des protocoles de surveillance les plus utilisés, avec Microsoft Windows
Management Instrumentation (WMI) pour les serveurs Windows et Secure Shell
(SSH) pour les serveurs Unix et Linux.
 Les outils basés sur les flux surveillent le flux de trafic pour fournir des statistiques
sur les protocoles et les utilisateurs. Certains inspectent également les séquences de
paquets pour identifier les problèmes de performances entre deux adresses IP. Ces
outils de flux capturent les données de flux de trafic et les envoient à un collecteur
central pour traitement et stockage.
 Les solutions de surveillance active du réseau injectent des paquets dans le réseau et
mesurent l’accessibilité de bout en bout, le temps d’aller-retour, la bande passante, la
perte de paquets, l’utilisation des liaisons et plus encore. En effectuant et en mesurant
les transactions en temps réel du point de vue de l’utilisateur, ces solutions permettent
une détection plus rapide et plus fiable des pannes et de la dégradation des
performances.
Il existe également des méthodes de surveillance réseau sans agent et sans agent. La
surveillance basée sur un agent implique l’installation d’un agent, d’une petite application ou
d’un logiciel, sur le périphérique surveillé. La surveillance sans agent (à l’aide des protocoles
SNMP et SSH) ne nécessite aucune installation ; Au lieu de cela, le logiciel de surveillance du
réseau se connecte directement à l’appareil surveillé.
Fonctionnement des outils de surveillance réseau

Lors de l’utilisation d’un outil de surveillance réseau, la première étape consiste à déterminer
quels périphériques réseau doivent être surveillés et à établir des mesures de performance.
Ensuite, décidez d’un intervalle de surveillance qui convient à votre situation. La surveillance
des routeurs, des commutateurs et des serveurs est généralement effectuée plus souvent car
ces périphériques réseau sont plus critiques pour l’entreprise.

Une fois en place, les outils de surveillance du réseau recherchent les problèmes de réseau.
Les méthodes peuvent être aussi simples qu’un ping pour s’assurer qu’un hôte est disponible.
Ils peuvent également être plus étendus, tels que la surveillance de l’accès au pare-feu, de
l’utilisation de la bande passante, de la consommation de ressources, de la disponibilité et des
changements inattendus dans le trafic réseau; s’assurer que les commutateurs, routeurs,
serveurs, pare-feu et autres points de terminaison ont un niveau de débit acceptable;
effectuer l’équilibrage de charge; et la surveillance des taux d’erreur élevés.

Ces outils offrent une visualisation de l’ensemble de l’infrastructure réseau avec des tableaux
de bord personnalisables qui fournissent des graphiques de performance en temps réel et
d’autres rapports montrant à quoi ressemblent les composants et s’il existe des paramètres
inhabituels qui nécessitent une enquête plus approfondie.

d. Avantages du logiciel de surveillance réseau

Le principal avantage des outils de surveillance réseau est une visibilité simple et facile à
comprendre sur les appareils connectés d’un réseau entier et sur la façon dont les données
circulent entre eux. Les systèmes modernes de surveillance des performances réseau
fournissent des informations de base qui vous permettent de comparer automatiquement les
données et d’identifier toute dégradation des performances réseau. Voir tout cela sur un
tableau de bord signifie que vos administrateurs réseau peuvent rapidement identifier les
problèmes n’importe où dans le réseau, identifier la cause première et déterminer qui doit les
résoudre.

Une solution NPM nécessite moins de temps pour résoudre les problèmes de performances
réseau. Détecter un problème plus tôt signifie que vous pouvez le dépanner et le résoudre
beaucoup plus rapidement, ce qui vous permet d’économiser du temps et de l’argent. La
surveillance du réseau aide les entreprises à optimiser leur efficacité en détectant et en
réparant les problèmes avant qu’ils n’affectent les opérations et les clients. Cela, à son tour,
réduit les temps d’arrêt, garantit que les employés ont toujours accès aux ressources dont ils
ont besoin et augmente la disponibilité des API et des pages Web, afin que les clients y aient
accès quand ils en ont besoin. La surveillance des performances réseau fournit également des
données historiques et permet de résoudre les problèmes réseau passés afin que vous puissiez
éviter des problèmes similaires à l’avenir.

Les solutions de surveillance réseau vous offrent des outils et des capacités de gestion fiables
et flexibles, y compris des modèles préconfigurés pour des fournisseurs spécifiques, tels que
Cisco, Juniper, Arista et Aruba, entre autres, afin de garantir que tout fonctionne
correctement. Ils vous aident à vous conformer aux normes de l’industrie et aux
réglementations gouvernementales. Ils peuvent signaler des anomalies qui peuvent être des
signes avant-coureurs d’une cyberattaque. Les outils de surveillance peuvent également vous
aider à suivre et à comparer les mesures de performance de votre réseau, ce qui facilite la
définition d’objectifs et l’amélioration des performances du réseau. Tout cela vous aide à aller
de l’avant.

Les systèmes de surveillance réseau modernes vont encore plus loin en prenant en charge les
réseaux définis par logiciel de nouvelle génération déployés pour exécuter des applications
modernes. Ces nouveaux réseaux modernes nécessitent des méthodes très différentes de
collecte et d’analyse des données de performance à l’aide d’API tout en prenant en charge les
méthodes existantes telles que SNMP. La prise en charge des réseaux nouveaux et existants
aide les équipes d’exploitation et d’ingénierie du réseau à planifier correctement les
transitions vers les réseaux de nouvelle génération.

La surveillance des performances réseau vous permet également de suivre les réseaux qui
changent, se développent et deviennent plus complexes au fil du temps. Avec l’essor des
appareils IoT, qui permettent aux réseaux de connecter des milliers d’appareils IoT ou plus,
les réseaux informatiques deviennent énormes et complexes.

Réduire le travail manuel de votre équipe informatique grâce à l’automatisation de la


surveillance du réseau leur permet de consacrer leur temps à d’autres projets critiques et
signifie que vous utilisez vos ressources à bon escient.
La différence entre la surveillance du réseau et la surveillance de la sécurité du réseau

La surveillance du réseau n’est pas la même chose que la surveillance de la sécurité réseau.
Les organisations utilisent la surveillance de la sécurité réseau pour protéger un réseau contre
les accès non autorisés, les utilisations abusives et le vol. En revanche, une solution de
surveillance du réseau est principalement utilisée pour optimiser la disponibilité du réseau et
les performances globales.

Bien que la sécurité ne soit pas l’objectif principal de la surveillance du réseau, les meilleurs
outils de surveillance des performances réseau peuvent vous aider à vérifier que vos
dispositifs de sécurité fonctionnent efficacement. Certains outils de surveillance réseau
incluent un logiciel de gestion de la configuration, qui permet d’améliorer la sécurité et la
fiabilité de votre réseau en offrant des configurations entièrement automatisées pour les
périphériques et les interfaces réseau.

Avoir une visibilité et savoir comment fonctionne votre réseau peut attirer l’attention sur les
premiers signes de compromission ou d’attaque. Lorsque le logiciel de surveillance du réseau
signale des anomalies de performances, votre équipe informatique peut plus facilement
identifier les menaces réseau et traiter les violations de données et autres attaques.

VII. Solutions SOC open source existantes :


La mise en place d’un Centre des opérations de sécurité (SOC) comporte de nombreux
éléments mobiles. D’un point de vue technologique, il est très important de miser sur l’open
source pour identifier les menaces et réduire les coûts. Du point de vue de la DiD (Défense en
profondeur), de nombreux dispositifs et technologies doivent être utilisés pour construire le
SOC. Sur la base de l’expérience de l’industrie ci-dessous, les technologies peuvent être
utilisées pour construire un SOC approprié pour surveiller les menaces et détecter les
anomalies afin de protéger l’entreprise.
Principalement, étant donné que la plupart des attaques viennent de l’extérieur, il est très
important d’utiliser des contrôles appropriés au périmètre du réseau. En utilisant des produits
open source, nous pouvons réduire le coût du produit et le support n’est pas indispensable.

a. IDS / IPS: Snort

Figure 8: Logo Snort

Le système de détection d’intrusion est très important et est nécessaire pour surveiller le trafic
afin d’identifier ou de détecter les anomalies et les attaques. Snort est l’un des systèmes de
détection/prévention des intrusions en réseau open source capable d’effectuer une analyse du
trafic en temps réel avec la journalisation des paquets sur les réseaux de protocole Internet.
Snort a 5 composants importants qui aident à détecter les attaques.

 Décodeur de paquets
 Préprocesseurs
 Moteur de détection
 Système d’enregistrement et d’alerte
 Modules de sortie

À l’aide des composants ci-dessus, Snort peut détecter les attaques ou les sondes basées sur le
réseau, y compris les tentatives d’empreintes digitales du système d’exploitation, les attaques
d’URL sémantiques, les débordements de mémoire tampon, les SMB (Server Message
Blocks) et l’analyse furtive des ports. Il peut également détecter les attaques sur les
applications Web telles que les injections SQL.

Puisque Snort n’est qu’un moteur, il nécessite une interface graphique pour faciliter
l’utilisation si vous n’êtes pas très familier avec la ligne de commande, il est donc bon de
configurer Snorby et nécessite également une application de serveur Web normale telle
qu’Apache.

Une partie de la valeur de Snort est qu’il peut être configuré dans trois modes distincts: en tant
que renifleur réseau, enregistreur de paquets ou IDS complet. En tant que tel, il peut être au
cœur d’un système de sécurité automatisé ou d’un composant qui se trouve à côté d’une
gamme de produits commerciaux.

b. Scanner de vulnérabilité (Open VAS)

Figure 9: Logo Open VAS

Pour être un type de sécurité proactif, il est très important d’avoir un scanner de vulnérabilité
pour analyser et confirmer si un actif est en cours d’exécution avec des vulnérabilités critiques
qui peuvent conduire à une violation ou à une attaque de sécurité. Le scanner de vulnérabilité
est un produit qui comporte plusieurs scripts mis à jour qui sont utiles pour identifier les
vulnérabilités du système ou des applications. Analysez périodiquement les systèmes, en
particulier les systèmes externes ou les systèmes connectés à Internet, et corrigez-les
régulièrement.

c. Nagios

Figure 10: Logo Nagios

Nagios surveille le réseau : l’infrastructure, le trafic et les serveurs rattachés sont tous à la
portée de ses capacités de base ou étendues. Comme beaucoup d’autres paquets open source,
Nagios est disponible en versions gratuites et commerciales.

Nagios Core est le cœur du projet open source, basé sur la version libre et open source. Les
produits individuels peuvent être surveillés et les tâches individuelles peuvent être effectuées
par des plug-ins ; il y a environ 50 plug-ins « officiels » développés par Nagios et plus de 3
000 plug-ins fournis par la communauté.
d. Maltego

Figure 11: Logo MALTEGO

Maltego est un logiciel propriétaire utilisé pour le renseignement open source et l’analyse


médico-légale, développé par Paterva. Maltego se concentre sur la fourniture d’une
bibliothèque de transformations pour la découverte de données open source et la visualisation
de ces informations dans un format graphique, adapté à l’analyse de liens et à l’exploration de
données.

e. Ettercap

Figure 12: Logo Ettercap

Si vous avez besoin de tester la résistance de votre réseau d’entreprise aux attaques de
l’homme du milieu (MITM), Ettercap est l’outil qu’il vous faut. Ce programme a fait une
chose – lancer des attaques MITM – depuis sa sortie initiale en 2001.

Ettercap a quatre modes d’attaque de base: basé sur IP, basé sur MAC et deux stratégies
basées sur ARP. Vous pouvez décider du type de vulnérabilités à explorer et rechercher
comment votre environnement réagit à chacune.

Dans le processus de recherche d’une attaque de test, Ettercap peut fournir beaucoup
d’informations sur le réseau et ses périphériques. Dans le cadre d’une boîte à outils de sécurité
globale, Ettercap offre de solides capacités pour les attaques MITM et une augmentation
solide pour les fonctions d’analyse et de visibilité.

f. HoneyNet
Aujourd’hui, les attaquants deviennent plus intelligents chaque jour, il est donc bon d’avoir
Honeynet pour voir et analyser les modèles d’attaque que les attaquants essaient de connaître
et de défendre. C’est une technologie très importante qui est obligatoire pour tromper
l’attaquant et protéger les actifs. Vous pouvez utiliser Honeynet comme filet interne ou
externe en fonction des besoins. Imitez simplement les services utilisés pour empêcher les
attaques réelles. HoneyNet a principalement 4 composants, comme mentionné ci-dessous.

VIII. Gestion des incidents


La gestion des incidents consiste à analyser et résoudre les interruptions de projets le plus
rapidement possible. L’objectif : vous permettre de consacrer plus de temps aux tâches à
valeur ajoutée, et surtout, de mener à bien votre projet.

a. Qu'est-ce que la gestion des incidents ?


La gestion des incidents consiste à détecter les incidents, enquêter à leur sujet et y répondre le
plus rapidement possible. Même si cette solution n’est pas toujours définitive, elle permet de
finir les projets à temps (ou avec le moins de retard possible).
La gestion des incidents peut être mise en œuvre dans tous types d’équipes. Parfois connu
sous le nom de « gestion des incidents ITIL » (acronyme anglais signifiant « bibliothèque
pour l’infrastructure des technologies de l’information »), ce processus est souvent utilisé
conjointement à la gestion des mises en production par les équipes informatiques.
Les chefs de projet utilisent la gestion des incidents pour empêcher tout imprévu de faire
échouer les tâches. Ils suivent un processus en cinq étapes, qui permet de résoudre
correctement et efficacement les incidents.

b. Le plan de réponse aux incidents en 5 étapes


Le plan de réponse aux incidents est composé de cinq étapes clés. Chacune de ces étapes
contribue au cycle de vie de la gestion des incidents et aide les équipes à surveiller et résoudre
les dangers qui menacent le projet. C’est une démarche similaire au processus de contrôle du
changement, sauf qu’il s’agit ici de gérer des incidents majeurs plutôt qu’une modification du
projet.
Figure 13: Etapes de réponse aux incidents

Identification de l’incident, hiérarchisation, réponse… Chacune de ces étapes permet de


poursuivre le processus sans heurt en cas d’incident. Faute d’un plan de réponse approprié,
vos projets pourraient rencontrer de graves problèmes. Ce constat est particulièrement valable
pour les équipes informatiques et les équipes DevOps, en raison de la nature technique de leur
activité. C’est également l’une des raisons pour lesquelles la gestion des incidents est
couramment utilisée dans le cadre du management des services informatiques.
Un plan de réponse aux incidents est composé de cinq étapes :
1. Identification de l’incident
2. Classement de l’incident
3. Hiérarchisation de l’incident
4. Réponse à l’incident
5. Clôture de l’incident
Nous allons maintenant étudier plus en détail les cinq étapes de tout bon système de gestion
des incidents, apprendre à repérer et résoudre les problèmes lorsqu’ils surviennent et faire le
point sur l’utilité de l’allocation des ressources.

i. Identification de l’incident
Première étape du plan de réponse aux incidents : identifier l’incident. Ce dernier peut
survenir dans presque n’importe quelle partie du projet. Il peut par exemple être interne, lié à
un fournisseur ou à un client. La nature de l’incident joue un rôle sur sa hiérarchisation, à
laquelle vous procéderez dans une des prochaines étapes.
Pour identifier un incident, indiquez les informations suivantes ;
 Nom ou numéro d’identification
 Description
 Date
 Gestionnaire de l’incident
Chacune de ces informations servira plus tard à des fins de référence, surtout si vous avez mis
en place un plan de gestion des problèmes. De cette façon, vous pourrez trouver l’origine de
l’incident et veiller à ce qu’il ne se reproduise pas.

ii. Classement de l’incident


Une fois que vous avez identifié l’incident, vous pouvez le classer. Cette étape permet
notamment de retrouver facilement l’incident et de l’affecter aux bonnes équipes. Plus vous
retrouverez l’incident rapidement, plus vite vous pourrez reprendre le projet là où vous l’aviez
laissé.
En guise de catégorie, ajoutez un mot clé ou décrivez la nature du problème. Par exemple, si
vous rencontrez un bug logiciel causé par un problème de développement, vous pouvez
simplement l’associer à la catégorie « Développement ». Certaines équipes incluent aussi une
sous-catégorie afin d’indiquer plus de détails. Dans notre exemple, nous pourrions par
exemple indiquer « Bug de développement ».
Il n’y a pas de règle stricte en matière de catégories de gestion des incidents ; faites
simplement en sorte que votre équipe puisse identifier facilement les problèmes.

iii. Hiérarchisation de l’incident


Une fois l’incident identifié et classé, passez à la hiérarchisation. Vous trouverez ci-dessous
quelques informations clés à garder à l’esprit lorsque vous classez les incidents par ordre
d’importance.
Tout d’abord, pensez à prendre en compte les autres incidents à hiérarchiser. Pour cela, il
vous faudra évaluer les répercussions de chacun d’entre eux. Puisque la gestion des incidents
vise à résoudre rapidement les problèmes, efforcez-vous de régler ceux qui auront un impact à
court terme plutôt qu’à long terme.
Vous devrez aussi hiérarchiser les incidents au regard des tâches à exécuter. Demandez-vous
si l’incident est plus important que les livrables à fournir. Si ce n’est pas le cas, sa résolution
peut-elle attendre que les membres de l’équipe soient prêts à s’y pencher ? Une fois que vous
avez réfléchi à ces deux facteurs de hiérarchisation, occupez-vous des incidents prioritaires.
iv. Réponse à l’incident
Pour répondre aux incidents, commencez par diagnostiquer le problème, puis passez à l’étape
de résolution. La plupart des problèmes ont une solution, mais si aucune n’est facilement
applicable, faites remonter l’information et trouvez de l’aide auprès des responsables des
services concernés. Dans ce cas, il vous faudra suivre un processus de résolution et mettre au
point d’ingénieuses solutions pour clôturer l’incident.
Une fois que vous avez analysé l’incident et identifié le problème sous-jacent, déléguez votre
plan de réponse en attribuant les livrables aux personnes concernées. Pour ce faire, vous
pouvez utiliser un registre des incidents ou un logiciel de gestion du travail. Dans tous les cas,
pensez à communiquer le plan à toutes les personnes impliquées (et même aux intervenants
qui ne le sont pas) pour améliorer la visibilité du projet et renforcer la transparence des
communications.
La gestion des incidents peut vous aider à éviter les problèmes, mais sachez qu’il est possible
qu’un autre problème surgisse alors même que vous résolviez un incident, un comble ! Dans
ce cas, vous serez sûrement tenté de réaliser une analyse des causes racines. Néanmoins, il est
important d’attendre de pouvoir analyser ces causes à l’aide d’un véritable plan de gestion des
problèmes. De cette façon, vous pourrez résoudre l’incident le plus rapidement possible en
temps réel et vous replonger dans le projet.

v. Clôture de l’incident
Dernière étape de la journalisation des incidents : clôturer les livrables de la réponse.
Conservez tous les documents créés lors des étapes ci-dessus dans un espace de travail
commun (Drive partagé, dossier numérique, etc.) afin de pouvoir y accéder ultérieurement si
besoin.
En plus de stocker ces informations, vérifiez que les livrables de la réponse ont été
correctement exécutés avant de clôturer les tâches en cours. Que vous utilisiez un système de
tickets, un service d’assistance ou un processus de demande de service, vous serez rassuré de
savoir qu’il ne reste aucune dépendance non résolue. Une fois toutes les tâches terminées,
clôturez officiellement le plan de réponse aux incidents.
Lors de la réunion post-mortem (rétrospective), présentez en détail les incidents survenus
pendant le projet. Cette présentation peut faire office de passerelle vers la phase de gestion
des problèmes, lors de laquelle vous vous efforcerez d’en résoudre la cause sous-jacente, pour
une réunion plus efficace.
IX. NAGIOS CORE

Figure 14: Logo Nagios

Le cycle de vie DevOps est une boucle continue de plusieurs étapes, la surveillance continue
est la dernière étape de cette boucle. La surveillance continue est l'une des étapes de ce cycle
de vie. Dans ce chapitre, apprenons en détail ce qu'est la surveillance continue et comment
Nagios est utile à cette fin.

a. Qu'est-ce que la surveillance continue


La surveillance continue démarre lorsque le déploiement est effectué sur les serveurs de
production. Dès lors, cette étape est chargée de surveiller tout ce qui se passe. Cette étape est
très cruciale pour la productivité de l'entreprise.

Il y a plusieurs avantages à utiliser la surveillance continue -

 Il détecte tous les problèmes de serveur et de réseau.


 Il trouve la cause première de l'échec.
 Cela aide à réduire les coûts de maintenance.
 Cela aide à résoudre les problèmes de performances.
 Cela aide à mettre à jour l'infrastructure avant qu'elle ne devienne obsolète.
 Il peut résoudre les problèmes automatiquement lorsqu'il est détecté.
 Il s'assure que les serveurs, les services, les applications et le réseau sont toujours
opérationnels.
 Il surveille l'infrastructure complète chaque seconde.

b. Qu'est-ce que Nagios


Nagios est un outil de surveillance continue open source qui surveille le réseau, les
applications et les serveurs. Il peut trouver et réparer les problèmes détectés dans
l'infrastructure et arrêter les problèmes futurs avant qu'ils n'affectent les utilisateurs finaux. Il
donne l'état complet de votre infrastructure informatique et ses performances.
c. Pourquoi Nagios
Nagios offre les fonctionnalités suivantes, ce qui le rend utilisable par un large groupe
d'utilisateurs:

 Il peut surveiller les serveurs de base de données tels que SQL Server, Oracle, Mysql,
Postgres
 Il donne des informations au niveau de l'application (Apache, Postfix, LDAP, Citrix
etc.).
 Fournit un développement actif.
 A un excellent soutien forme énorme communauté active.
 Nagios fonctionne sur n'importe quel système d'exploitation.
 Il peut envoyer un ping pour voir si l'hôte est accessible.

d. Avantages de Nagios
Nagios offre les avantages suivants aux utilisateurs

 Cela aide à se débarrasser des tests périodiques.


 Il détecte les pannes en une fraction de seconde lorsque le bracelet est encore en phase
«intermittente».
 Il réduit les coûts de maintenance sans sacrifier les performances.
 Il informe en temps opportun la direction du contrôle et de la panne.

e. Architecture de Nagios
Les points suivants méritent d'être notés sur l'architecture de Nagios

 Nagios a une architecture d'agent serveur.


 Le serveur Nagios est installé sur l'hôte et les plugins sont installés sur les hôtes /
serveurs distants qui doivent être surveillés.
 Nagios envoie un signal via un planificateur de processus pour exécuter les plugins sur
les hôtes / serveurs locaux / distants.
 Les plugins collectent les données (utilisation du processeur, utilisation de la mémoire,
etc.) et les renvoient au planificateur.
 Ensuite, les planifications de processus envoient les notifications aux administrateurs
et mettent à jour l'interface graphique de Nagios.
Figure 15: Architecture agent serveur Nagios

La figure suivante montre en détail l'architecture de l'agent de serveur Nagios

X. Docker :

Figure 16: Logo Docker

Docker Hub est le plus grand référentiel au monde d’images de conteneurs avec un éventail
de sources de contenu, y compris des développeurs de communautés de conteneurs, des
projets open source et des éditeurs de logiciels indépendants (ISV) qui construisent et
distribuent leur code dans des conteneurs. Les utilisateurs ont accès à des référentiels publics
gratuits pour stocker et partager des images ou peuvent choisir un plan d’abonnement pour les
dépôts privés.

Docker Hub est un service de référentiel hébergé fourni par Docker pour rechercher et
partager des images de conteneur avec votre équipe. Les principales caractéristiques sont les
suivantes :

 Référentiels privés : Push and pull images de conteneur


 Builds automatisés : créez automatiquement des images de conteneur à partir de
GitHub et Bitbucket et poussez-les vers Docker Hub
 Équipes et organisations : Gérer l’accès aux référentiels privés
 Images officielles : Extrayez et utilisez des images de conteneur de haute qualité
fournies par Docker
 Images de l’éditeur : extrayez et utilisez des images de conteneur de haute qualité
fournies par des fournisseurs externes. Les images certifiées incluent également la
prise en charge et garantissent la compatibilité avec Docker Enterprise
 Webhooks : déclenchez des actions après une poussée réussie vers un référentiel pour
intégrer Docker Hub à d’autres services

XI. Conclusion
A travers ce chapitre nous avons situé le projet dans son cadre général. Nous avons présenté
l’entreprise d’accueil et l’étude de l’existant. Suite à cette étude nous avons soulevées les
problèmes que rencontre l’entreprise lors de la sécurité et gestion des incidents de son réseau.
Nous avons décrit les solutions existantes de sécurité réseau afin de proposer et configurer la
solution que nous jugeons la plus adapté au besoin de la société Global Web Engineering.
Dans le chapitre suivant, nous présenterons la conception UML détaillée de notre système.
Le cloud
I. Introduction :

Dans ce chapitre, nous présenterons les concepts de base des différentes techniques utilisées
lors de la mise en œuvre du projet. Dans un premier temps, nous présentons le cloud
computing, ses principes, les différents services qu'il propose, les modèles de déploiement, ses
avantages et ses inconvénients. Ensuite, nous attaquons le concept de sécurité du système
d’information, finalement nous présentons le système d’information.

II. Les concepts et définitions du Cloud Computing


Figure 17: concept de cloud computing

La compréhension des types de ressources de cloud computing peut prendre beaucoup de


temps et est onéreuse. Les entreprises doivent acheter des serveurs physiques et d'autres
infrastructures au moyen de processus d'approvisionnement qui peuvent prendre des mois et
qui sont compatibles avec l'architecture du cloud computing. Les systèmes acquis nécessitent
un espace physique, généralement une salle spécialisée avec suffisamment d'énergie et de
refroidissement. Après avoir configuré et déployé les systèmes, les entreprises ont besoin d'un
personnel expert pour les gérer.

Ce processus long est difficile à faire évoluer lors des pics de demande ou quand l'activité
commerciale se développe. Les entreprises peuvent acquérir plus de ressources informatiques
que nécessaire et se retrouver avec des chiffres d'utilisation peu élevés.

Le cloud computing résout ces problèmes en proposant des ressources informatiques sous
forme de services évolutifs à la demande. Découvrez Google Cloud, une suite de modèles de
service de cloud computing proposée par Google.

III. La migration vers le cloud :


Figure 18: migration vers cloud

La migration vers le cloud est le processus de migration des opérations commerciales


numériques vers le cloud. La migration vers le cloud est un peu comme un déplacement
physique, sauf qu’elle implique le déplacement de données, d’applications et de processus
informatiques de certains centres de données vers d’autres centres de données, au lieu
d’emballer et de déplacer des biens physiques. Tout comme un déménagement d’un bureau
plus petit vers un bureau plus grand, la migration vers le cloud nécessite beaucoup de
préparation et de travail préalable, mais elle finit généralement par en valoir la peine, ce qui se
traduit par des économies de coûts et une plus grande flexibilité.

Le plus souvent, la « migration vers le cloud » décrit le passage d’une infrastructure locale ou
héritée vers le cloud. Cependant, le terme peut également s’appliquer à une migration d’un
cloud vers un autre.

IV. Une infrastructure héritée :

En informatique, le matériel ou les logiciels sont considérés comme « hérités » s’ils sont
obsolètes mais toujours utilisés. Les produits et processus existants ne sont généralement pas
aussi efficaces ou sécurisés que les solutions plus récentes. Les entreprises coincées dans
l’exploitation de systèmes existants risquent de prendre du retard sur leurs concurrents ; ils
sont également confrontés à un risque accru de violation de données.

Les logiciels ou les matériels hérités peuvent devenir peu fiables, s’exécuter lentement ou ne
plus être pris en charge par le fournisseur d’origine. Windows XP, par exemple, est un
système d’exploitation hérité : sorti en 2001, ses capacités ont été dépassées par les versions
ultérieures de Windows, et Microsoft ne prend plus en charge le système d’exploitation en
publiant des correctifs ou des mises à jour pour celui-ci.
L’infrastructure comprend les serveurs, l’équipement réseau, les applications, les bases de
données et tout autre logiciel ou matériel critique pour l’entreprise. L’infrastructure héritée,
telle que les serveurs vieillissants ou les appliances de pare-feu physiques, peut ralentir les
processus métier d’une entreprise. Cela peut également ajouter plus de risques de sécurité car
les fournisseurs d’origine abandonnent la prise en charge de leurs produits et cessent de
publier des correctifs de sécurité.

L’infrastructure héritée est généralement hébergée sur site, ce qui signifie qu’elle est
physiquement située dans des bâtiments ou sur une propriété où l’organisation opère. Par
exemple, de nombreuses entreprises hébergent un centre de données sur site dans le même
bâtiment où travaillent leurs employés.

Les entreprises qui s’appuient sur une infrastructure existante sur site ne peuvent pas profiter
des avantages du cloud computing. Pour cette raison, la plupart des entreprises ont
aujourd’hui effectué au moins une migration partielle vers le cloud.

V. Principales différences entre le Cloud Computing et la


virtualisation :

Voici la différence entre le Cloud Computing et la Virtualisation :

Figure 19: Cloud Computing et la Virtualisation

 Une virtualisation est un logiciel qui virtualise votre matériel en plusieurs machines,
tandis que le cloud computing est la combinaison de plusieurs périphériques matériels.
 Dans la virtualisation, un utilisateur obtient du matériel dédié tandis que dans le cloud
computing, plusieurs périphériques matériels fournissent un environnement de
connexion pour l’utilisateur.
 Il est préférable d’accéder au cloud computing depuis l’extérieur du réseau de bureau,
tandis que la virtualisation est destinée à accéder uniquement depuis le bureau.

L’environnement cloud est accessible via une URL afin qu’il soit accessible en dehors des
locaux de travail (selon l’autorisation).

 La virtualisation ne dépend pas de l’environnement de cloud computing alors que sans


virtualisation, le cloud computing ne peut pas exister.
 Le cloud computing fonctionne sur IaaS (Infrastructure as a Service) tandis que la
virtualisation est basée sur SaaS (Software as a Service).
 Les ressources informatiques partagées telles que les logiciels et le matériel vous
fournissent un environnement de cloud computing tandis que la virtualisation voit le
jour après la manipulation de la machine / du matériel.
 Le Cloud Computing vous offre une flexibilité telle que le paiement à l’utilisation, le
libre-service, etc., tandis que l’accès à un environnement virtualisé ne vous permettra
pas d’accéder à de telles fonctionnalités.
 Le cloud computing est bon pour vendre votre service / logiciel à des utilisateurs
externes, tandis que la virtualisation est la meilleure pour configurer le centre de
données au sein du réseau / de l’infrastructure de l’entreprise.
 La capacité de stockage est illimitée dans le réseau Cloud tandis que dans une
virtualisation, elle dépend de la capacité du serveur physique.
 Une défaillance d’une seule machine n’aura pas d’impact sur l’infrastructure cloud
alors que dans la virtualisation, une défaillance d’un seul nœud peut avoir un impact
sur 100 machines virtuelles (si le matériel physique/la machine n’est pas configuré en
haute disponibilité)

VI. Tableau comparatif du Cloud Computing et de la


virtualisation

Vous trouverez ci-dessous le tableau comparatif entre le Cloud Computing et la


Virtualisation.
Points clés Informatique en nuage Virtualisation

  Le cloud peut être étendu La configuration de la

autant que vous le machine virtuelle limite son


Évolutivité
souhaitez. évolutivité.

  La configuration du cloud Il est très simple de

est une tâche très configurer un


Configuration rapide
fastidieuse. environnement virtuel.

  Il est très flexible pour Une authentification

l’accès des utilisateurs. Un appropriée est requise avant


 
utilisateur peut accéder à d’accéder aux machines

Flexibilité son cloud depuis n’importe virtuelles.

quel endroit avec Internet


 
(selon autorisation).

     

Service Type IaaS Le SaaS

  Plusieurs matériels créent Matériel dédié requis pour


un cloud computing plusieurs machines

virtuelles
Matériel dédié

  L’intégration cloud permet L’intégration de la

l’expansion future des virtualisation permet


Intégration
utilisateurs, des l’expansion de nouvelles

  applications, etc. machines au sein d’une

même infrastructure.

  Plusieurs utilisateurs Plusieurs systèmes

peuvent accéder au réseau d’exploitation peuvent être


Dépendance
en utilisant le même lien. installés sur un seul

  serveur/ordinateur

  Il est accessible de partout Des autorisations

dans le monde. (Cloud basé appropriées sont requises


Accessibilité
sur Internet) pour accéder depuis

  l’extérieur du réseau.

  Ne dépendez pas d’une Une défaillance d’une seule

seule machine. machine peut entraîner


Reprise après sinistre
plusieurs machines
  virtuelles.

  Cloud privé et cloud public Virtualisation matérielle et

virtualisation d’applications.
Types

Tableau 1: tableau comparatif entre le Cloud Computing et la Virtualisation.

VII. Les avantages de la migration vers le cloud :


 Évolutivité : le cloud computing peut évoluer pour prendre en charge des charges de
travail plus importantes et un plus grand nombre d’utilisateurs beaucoup plus
facilement que l’infrastructure sur site, ce qui oblige les entreprises à acheter et à
configurer des serveurs physiques, des équipements réseau ou des licences logicielles
supplémentaires.
 Coût : les entreprises qui migrent vers le cloud réduisent souvent considérablement le
montant qu’elles dépensent pour les opérations informatiques, car les fournisseurs de
cloud gèrent la maintenance et les mises à niveau. Au lieu de maintenir les choses en
état de marche, les entreprises peuvent concentrer plus de ressources sur leurs plus
grands besoins commerciaux.
 Performances : pour certaines entreprises, la migration vers le cloud peut leur
permettre d’améliorer les performances et l’expérience utilisateur globale de leurs
clients. Si leur application ou leur site Web est hébergé dans des centres de données
cloud plutôt que sur divers serveurs locaux, les données n’auront pas à voyager aussi
loin pour atteindre les utilisateurs, ce qui réduira la latence.
 Flexibilité : les utilisateurs, qu’ils soient employés ou clients, peuvent accéder aux
services cloud et aux données dont ils ont besoin de n’importe où. Cela permet à une
entreprise de se développer plus facilement sur de nouveaux territoires, d’offrir ses
services à des publics internationaux et de laisser ses employés travailler de manière
flexible.

VIII. Les principaux défis de la migration vers le cloud :


Figure 20 : migration vers cloud

 Migration de bases de données volumineuses : Souvent, les bases de données devront


passer à une plate-forme complètement différente pour fonctionner dans le cloud. Le
déplacement d’une base de données est difficile, surtout s’il y a de grandes quantités
de données impliquées. Certains fournisseurs de cloud proposent en fait des méthodes
de transfert de données physiques, telles que le chargement de données sur une
appliance matérielle, puis l’expédition de l’appliance au fournisseur de cloud, pour des
bases de données massives qui prendraient trop de temps à transférer via Internet. Les
données peuvent également être transférées sur Internet. Quelle que soit la méthode, la
migration des données prend souvent beaucoup de temps.
 Intégrité des données : Une fois les données transférées, l’étape suivante consiste à
s’assurer que les données sont intactes et sécurisées, et qu’elles ne sont pas divulguées
pendant le processus.
 Poursuite de ses activités : une entreprise doit s’assurer que ses systèmes actuels
restent opérationnels et disponibles tout au long de la migration. Ils devront avoir un
certain chevauchement entre le site et le cloud pour assurer un service continu; par
exemple, il est nécessaire de faire une copie de toutes les données dans le cloud avant
d’arrêter une base de données existante. Les entreprises ont généralement besoin de
bouger un peu à la fois plutôt que tout à la fois.

IX. LES DIFFÉRENTS TYPES DE CLOUD

Le cloud est l’avenir des entreprises. Mais, comme toute nouvelle technologie, il peut être
difficile à comprendre. Quelle est la différence entre les différents types de cloud ? Comment
choisir celui qui convient le mieux à votre entreprise ?
Il existe trois principaux types de cloud computing : cloud public, cloud privé, cloud hybride.
Il existe aussi trois principaux types de services de cloud computing : IaaS (Infrastructure-as-
a-Service), PaaS (Platform-as-a-Service) et SaaS (Software-as-a-Service).

a. Le Cloud public

Figure 21: cloud public

Le cloud public est le type de déploiement de Cloud Computing le plus courant. Il est partagé
par de nombreux utilisateurs, ce qui signifie qu’il n’est pas dédié à une seule entreprise ou
organisation. L’avantage d’utiliser ce type de système est qu’il est accessible à toute personne
disposant d’une connexion Internet, mais cela signifie également que vous ne possédez aucun
des serveurs qui composent votre système. Vous payez pour ce que vous utilisez et rien de
plus. Des déploiements cloud publics sont fréquemment utilisés pour fournir des services de
courrier, des applications bureautiques, de l’espace de stockage, ainsi que des environnements
de développement et de test en ligne.

b. Le Cloud privé
Figure 22: cloud privé

Un cloud privé consiste en l’ensemble des ressources de Cloud Computing qu’une entreprise


ou une organisation utilise en exclusivité. Le cloud privé peut être situé physiquement dans le
centre de données local de votre organisation, ou être hébergé par un fournisseur de services
tiers. Ce type d’architecture est idéal pour les organisations devant garder le contrôle exclusif
de leurs environnements cloud. Entièrement administré par et pour une organisation, le cloud
privé répond à toutes vos exigences de sécurité. Ainsi, il permet la gouvernance de données
sensibles et vous assure une conformité réglementaire optimale.

Les clouds privés sont souvent le choix d’organismes publics, d’institutions financières et
d’autres organisations de taille moyenne à grande, dont les opérations stratégiques doivent se
dérouler dans un environnement soumis à un contrôle optimal.

c. Le Cloud hybride
Figure 23: cloud hybride

Le cloud hybride est un type de cloud computing qui s’appuie sur une structure combinant
cloud privé et cloud public, parfois en complément d’une infrastructure locale. Les clouds
hybrides permettent aux données et aux applications de se déplacer entre les deux
environnements. Il allie les avantages des deux modèles pour assurer flexibilité, réactivité et
sécurité. Il s’agit de la solution idéale pour absorber un pic d’activité ou pour un besoin
ponctuel en ressources, par exemple.

De nombreuses organisations utilisent généralement un système de cloud hybride en raison


des impératifs liés à leur activité, tels que la satisfaction des exigences de réglementation et de
souveraineté des données, en tirant pleinement parti des investissements en technologie locale
ou en résolvant les problèmes de faible latence.

X. LES DIFFÉRENTS TYPES DE SERVICES DANS LE


CLOUD

Il existe trois principaux modèles de cloud computing public, « as-a-Service », chacun offrant
un certain degré de gestion : IaaS (Infrastructure-as-a-Service), PaaS (Platform-as-a-Service)
et SaaS (Software-as-a-Service).
 Le IaaS (Infrastructure as a Service) : Le IaaS offre des ressources d’infrastructure
hautement évolutives (instances, espace de stockage, services réseau, etc.). Il s’agit
d’un modèle à la demande qui s’adapte aux besoins d’infrastructure de votre
organisation. Vous gérerez vous-même la configuration, la mise à jour des systèmes
d’exploitation, les middlewares et les applications.
 Le PaaS (Platform as a Service) : c’est une plateforme automatisée permet aux
équipes de se focaliser sur le développement de leurs applications. Avec ce modèle,
vous pouvez vous concentrer sur votre cœur de métier en profitant d’un
environnement de travail sans les contraintes de réseau, de stockage, de sauvegarde ou
de système d’exploitation.

 Le SaaS (Software as a Service) : Les utilisateurs peuvent accéder aux applications


partout, tout le temps, directement sur le cloud, sans limites de nombre d’utilisateurs.
Le fournisseur de cloud gère les mises à jour ainsi que la maintenance des applications
et de l’infrastructure. Ce modèle rend aujourd’hui accessibles différents logiciels

d’entreprise de manière flexible et économique.

XI. Limites de l’utilisation du cloud :

Nous sommes conscients des avantages du cloud computing pour une entreprise. Cependant,
il y a aussi des limites.

 La confidentialité des données : Le fournisseur possède la main mise sur toutes vos
données, il peut les utiliser à des fins commerciales par exemple. Vous devez lui
accorder une totale confiance. Cependant, vous n’êtes pas à l’abri d’une attaque telle
que le piratage.
 La connexion internet : Lorsque l’on travaille avec le cloud, nous sommes
dépendants car on a nécessairement besoin d’une connexion internet efficace et fluide.
Cela est nécessaire afin d’accéder aux fichiers, de les modifier et de les sauvegarder à
nouveau. Cependant, il y a désormais la possibilité d’avoir un accès “hors ligne” au
drive de Google par exemple.
 Les fonctionnalités disponibles : Nous sommes d’accord sur le fait que tous les
fournisseurs ne proposent pas la même qualité de services. De ce fait, certaines
fonctionnalités sont gratuites mais limitées et il est demandé de payer afin de
bénéficier de la version supérieure (plus de stockage, plus de fonctionnalités…).
 Les problèmes techniques : Nous ne sommes pas à l’abri d’un problème technique,
le prestataire est chargé de la maintenance et des mises à jour mais en attendant,
n’ayant pas la main dessus, nous pouvons être pénalisés le temps de la réparation.

XII.  La sécurité du Cloud Computing :


La sécurité du cloud computing est une combinaison de contrôles, de stratégies et de
technologies utilisés pour protéger les environnements, les données et les applications
déployés et maintenus sur le cloud. Le cloud computing est la fourniture à la demande de
stockage de données et de puissance de calcul.

 Il permet aux organisations de concentrer leurs ressources sur le développement et


l’innovation tandis que les CSP s’occupent de la configuration et de la mise à l’échelle des
serveurs. Il convient de noter que la sécurité du cloud computing est différente de la sécurité
basée sur le cloud. Les solutions de sécurité basées sur le cloud relèvent généralement de la
sécurité en tant que service (SECaaS), offrant des services de sécurité centralisés hébergés sur
le cloud. Ils n’ont pas besoin de ressources dédiées dans l’infrastructure existante de
l’entreprise.

 Le cloud fonctionne essentiellement sur Internet, et la sécurité du cloud fait référence aux
mesures mises en œuvre pour résoudre en particulier les problèmes découlant des opérations
basées sur le cloud. Lorsque nous accédons et stockons des objets sur le cloud, nous utilisons
des serveurs distants avec une connexion Internet au lieu du matériel local. Cela équivaut à
louer un espace physique dans une unité de stockage. Les fournisseurs de services cloud
(CSP) s’occupent de l’allocation et de la maintenance de cet espace physique pour vos actifs.

XIII. Types de déploiement cloud :

 Déploiement de cloud privé : un cloud privé ou un cloud interne fournit des services


informatiques à la demande pour un réseau interne accessible uniquement à une seule
entreprise. Le cloud est généralement géré par le personnel informatique interne. HPE,
VMWare et CISCO sont parmi les fournisseurs de cloud privé les plus populaires.
 Déploiement de cloud public : Un cloud public fait référence aux services
informatiques offerts sur l’Internet général. Des fournisseurs tiers tels qu’AWS et
Microsoft Azure proposent des centres de données et des serveurs aux clients en les
traitant comme des locataires. Dans ce cas, la majeure partie du contrôle est entre les
mains du fournisseur. Avec les clouds publics, trois types de services peuvent être
consommés.
o Platform-as-a-service (PaaS): Ce sont des services qui fournissent
l’infrastructure nécessaire, ainsi qu’un modèle en libre-service de gestion et de
configuration de tout ce qu’il offre. Il est livré avec des environnements
prédéfinis pour le développement, les tests et les déploiements actifs. Tout ce
que les développeurs d’applications ont à faire est d’écrire et d’exécuter le
code. Dans ce cas, le fournisseur de cloud et l’organisation assument la
responsabilité de la sécurité. Par exemple, Heroku.
o Infrastructure en tant que service (IaaS) : ces services répondent aux besoins
d’infrastructure de base tels que le réseau, le stockage et les systèmes
d’exploitation, à la demande. Il permet aux organisations d’acheter, de créer et
de configurer par elles-mêmes. Dans ce cas, l’organisation assume la plupart
des responsabilités en matière de sécurité. Par exemple, AWS.
o Software-as-a-service (SaaS) : Il s’agit de solutions logicielles hébergées sur
un cloud et livrées à l’organisation via un navigateur Web ou à l’aide
d’interfaces Web telles que des API. Cela inclut les applications quotidiennes
telles que GSuite et Salesforce. Dans ce cas, l’organisation qui utilise le service
est responsable du stockage des données et de l’accès des utilisateurs. Le
fournisseur s’occupe de tout le reste, comme le cryptage.
 Déploiement du cloud hybride : bien qu’il soit logique que des actifs hautement
sensibles soient déployés sur un cloud privé, il peut s’avérer trop coûteux de s’appuyer
entièrement sur une infrastructure basée sur le cloud privé. Pour contourner ce
problème, de nombreuses organisations optent pour un déploiement hybride. Les
charges de travail sensibles et réglementées par la conformité sont exécutées sur des
cloud privés, tandis que les opérations moins cruciales sont exécutées sur un cloud
public. Cependant, son système rencontre des défis sous la forme de migration de
données.
Comme indiqué ci-dessus, chaque type de déploiement s’accompagne d’un ensemble unique
de défis en matière de sécurité. La nature inhérente d’une architecture basée sur le
cloud implique une responsabilité de sécurité partagée entre le fournisseur de services cloud et
le consommateur. Cela le rend plus compliqué que les configurations traditionnelles sur site.

 Avec le cloud computing, le périmètre d’une attaque n’est pas aussi défini que les
configurations traditionnelles, car il est similaire à une clôture mobile. Il y a un mouvement
constant des données entre le système d’entreprise et les appareils gérés et non gérés. Cela
signifie que les mesures de sécurité ne peuvent pas être axées uniquement sur les attaques
liées aux logiciels malveillants. Il implique plusieurs couches de pare-feu, l’une pour la
communication externe et l’autre pour la gestion interne.

XIV. Besoin de sécurité : principaux risques associés au cloud


computing

 L’avenir des applications d’entreprise est présenté comme étant profondément enchevêtré
dans le cloud computing, et les statistiques actuelles le reflètent. Le rapport 2022 de McAfee
sur l’adoption et les risques liés au cloud montre qu’une entreprise moyenne utilise environ 1
935 services cloud. L’informatique en nuage répond à notre scène technologique en évolution
rapide et géographiquement distribuée. Il répond également aux besoins des petites
entreprises et des startups qui n’ont pas le capital nécessaire pour investir dans leur propre
infrastructure.

 Nous avons abordé la question de la « responsabilité partagée » dans la section précédente, et


cela joue un rôle essentiel dans la sécurité du cloud d’une organisation. Les fournisseurs de
services cloud sont tenus par les SLA de fournir un hébergement sécurisé pour leurs
applications personnalisées avec des mécanismes de basculement en place. Cela signifie que
la responsabilité de la sécurité complète incombe à l’organisation elle-même.

 La Cloud Security Alliance (CSA) examine chaque année les risques inhérents au calcul dans
le cloud et publie un rapport. Le dernier rapport s’est concentré sur les problèmes de
configuration et d’authentification au lieu de se concentrer traditionnellement sur les logiciels
malveillants et les vulnérabilités. Avec l’augmentation des quantités de données sensibles
hébergées sur le cloud, ces risques deviennent cruciaux pour la continuité des activités. Voici
les risques liés au déplacement total ou même partiel de l’infrastructure vers une configuration
cloud.
a. Des frontières en constante évolution

 Avant l’arrivée officielle du cloud computing, les périmètres du réseau étaient bien définis.
Toute modification de ces limites était lente et sous le contrôle de l’entreprise. Les
environnements cloud, cependant, n’ont pas de limite bien définie. Les tactiques de cyber
sécurité testées de défense périmétrique ne sont donc pas suffisantes. Avec le cloud
computing, la question de la sécurité n’est plus limitée au blocage des pirates informatiques à
la clôture. La sécurité doit également se concentrer sur la sécurité des données.

b.  Manque de visibilité et de contrôle

 Les CSP n’exposent pas tous les détails et le contrôle total de l’infrastructure à leurs clients.
Cela signifie que l’équipe d’administration de la société cliente ne dispose pas de toutes les
informations qu’elle possédait avec une configuration sur site uniquement. Dans un tel cas, il
devient difficile d’identifier et de visualiser tous les actifs cloud.

c. Répartition de la charge de travail

 L’une des meilleures choses à propos de l’utilisation d’un CSP est le provisionnement et la
mise hors service à la demande des ressources. Cela signifie que l’environnement de travail
est en constante évolution. Cela signifie également que l’infrastructure est mise à l’échelle à
un rythme très rapide. Une stratégie de sécurité cloud est cruciale pour résoudre ce problème
heureux afin d’éviter les failles de sécurité. Toutes les stratégies de sécurité doivent
s’appliquer uniformément sur différents clouds et segments sur site.

d.   Défis en matière de conformité

 La conformité au cloud est importante car des lois telles que le RGPD qui régissent comment
et où les données sont stockées entrent en vigueur partout. Tout faux pas dans cette direction
peut entraîner des ramifications juridiques et financières. Les organisations doivent répondre à
des questions importantes dans les SLA du fournisseur de services cloud.

e.  DevOps, CI/CD et shadow IT

 La plupart des organisations utilisent l’intégration continue/livraison continue (CI/CD) pour
des mises à jour constantes des applications avec un temps d’arrêt minimal. CI/CD avec le
cloud nécessite des mesures supplémentaires telles que la mise à l’échelle instantanée et
automatique, le déploiement sur divers clouds et machines virtuelles (VM), et la mise en place
de points de contrôle et de contrôleurs responsables pour chaque module de l’application.

 Le Shadow IT est l’utilisation d’applications ou d’appareils sans l’approbation officielle de


l’administrateur informatique. Le cloud computing permet à n’importe qui dans l’organisation
d’acheter facilement des services, en contournant les politiques d’approvisionnement établies
par le service informatique, ce qui affecte la pile d’applications. Les exigences variées en
matière de déploiement et de maintenance associées à l’utilisation de différents services cloud
signifient également que les membres DevOps ont recours à plusieurs outils informatiques
locaux non approuvés pour faciliter l’exploitation.

f. Mauvaise configuration ou absence de configuration

 Selon le rapport 2022 McAfee Cloud Adoption and Risk Report, les entreprises sont
confrontées en moyenne à 2 269 incidents individuels liés à une mauvaise configuration par
mois. Ils ont également constaté que 1 compartiment AWS S3 sur 20 (les compartiments de
stockage cloud d’Amazon) dispose d’autorisations de lecture activées pour que tout le monde
puisse les consommer. Ces problèmes se produisent en raison d’une configuration incorrecte
de la part de l’organisation ou simplement du respect du paramètre par défaut fourni par le
CSP.
g. Complexités du transfert de données

 L’utilisation de services basés sur le cloud implique un transfert constant de données entre les
réseaux. Cela se fait généralement à l’aide de services Web. Pour sécuriser le déplacement des
données via ces services, les organisations doivent examiner le chiffrement, les contrôles
d’accès, l’autorisation et l’authentification.

h. Contrôle d’accès et privilèges

 Par défaut, les fournisseurs de services cloud accordent généralement des autorisations
d’accès très larges, en particulier avec les applications SaaS. Si les rôles et les privilèges des
utilisateurs ne sont pas correctement définis, l’organisation est exposée à des cyber attaques.
Par exemple, tous les employés n’ont pas besoin d’avoir le droit de supprimer des ressources
sur le cloud. Toute considération d’une architecture basée sur le cloud doit s’accompagner de
la mise en œuvre d’un plan de gestion des identités et des accès (IAM) solide.

i.  Vulnérabilité accrue aux attaques d’ingénierie sociale

 Avoir des actifs sur un cloud public ouvre le système de l’organisation au piratage et
aux attaques d’ingénierie sociale. Si les employés ne suivent pas de formation de
sensibilisation à la sécurité, ils pourraient être la proie de tentatives d’hameçonnage. Un
exemple d’incident majeur déclenché par une tentative de phishing est l’arnaque Bitcoin
Twitter 2020.

j. Incompatibilité entre on-premise et cloud

 Nous avons déjà mis en évidence les différences dans les stratégies de sécurité entre le fait
d’être entièrement sur site et le déplacement de certains composants vers le cloud.
Malheureusement, cela signifie que les outils traditionnels sur site peuvent ne pas traiter tous
les risques de sécurité. Par conséquent, les organisations doivent s’assurer qu’elles disposent
de l’expertise et des outils nécessaires pour repérer les lacunes en matière de visibilité et de
contrôle pendant la transition.

XV. Types de modèles de déploiement cloud


 Cloud privé : Dans le modèle de cloud computing privé, un environnement
propriétaire est dédié à votre entreprise. Les ressources informatiques et de stockage
sont étendus via des composants virtualisés, qui peuvent être sur site ou dans le centre
de données du fournisseur. Un cloud privé offre des niveaux supérieurs de sécurité et
de contrôle aux organisations, car elles peuvent configurer et gérer l’environnement en
fonction de leurs besoins métier spécifiques,
 Cloud communautaire : Un modèle de cloud communautaire est très similaire à une
configuration de cloud privé. La seule différence est que dans une configuration de
cloud privé, l’infrastructure et les serveurs de cloud computing sont détenus et gérés
par une seule entité privée. Mais dans un modèle de cloud communautaire, plusieurs
organisations différentes de taille similaire mettent en commun leurs ressources pour
partager les coûts d’infrastructure, la maintenance, les opérations et le déploiement.
Mais pour que le modèle communautaire fonctionne correctement, les entreprises
participatives doivent avoir des exigences similaires en matière de sécurité, de
confidentialité et de performance.
 Cloud public : Dans un cloud public, les ressources informatiques et de stockage sont
fournies au client via Internet. Le cloud public offre d’immenses avantages en termes
de coûts, car les organisations peuvent se passer du déploiement et de la maintenance
matérielle coûteux sur site.
 Cloud hybride : Le cloud computing hybride offre le meilleur des mondes public et
privé en chevauchant les deux avec une couche de logiciel propriétaire. Avec un
modèle hybride, il est possible d’héberger l’application dans un environnement
sécurisé tout en tirant parti des avantages en termes de coûts et de délais de mise sur le
marché offert par le cloud public.

XVI. Classification des modèles de déploiement cloud basés sur les


services
a. Infrastructure en tant que service 
IaaS exige que le client installe des applications traditionnelles sur des serveurs proposés par
le fournisseur de plate-forme cloud. Le client est censé gérer tous les aspects du logiciel et du
matériel de l’application. Les capacités du logiciel sont identiques à celles du même logiciel
déployé à l’aide de matériel local.

b. Avantages du modèle de service IaaS

1. Le modèle de service IaaS offre des économies de temps et d’argent, car l’installation
et la maintenance des logiciels / matériels informatiques se font en interne.
2. L’IaaS offre également une meilleure flexibilité puisque les ressources matérielles à la
demande peuvent être plus facilement adaptées à vos besoins spécifiques.
3. Le modèle IaaS, avec sa complexité, son temps et ses économies de coûts, est
particulièrement précieux pour les grandes entreprises, qui disposent de grandes
équipes informatiques internes capables de créer et de gérer la plate-forme par elles-
mêmes sans avoir à compter sur un partenaire externe. L’IaaS offre la flexibilité
souhaitée pour mouler la plate-forme en fonction de leurs besoins spécifiques.

c. Plateforme en tant que service


L’approche hybride du PaaS permet au fournisseur de cloud de fournir le matériel et le
logiciel en tant que service cloud, et le fournisseur gère le déploiement du matériel,
l’installation du logiciel et la configuration du logiciel. Le client, d’autre part, est responsable
de la gestion, du réglage et de l’optimisation du logiciel.

d. Avantages de la plate-forme en tant que service

1. Le modèle PaaS est très populaire car il offre le meilleur des deux mondes. Le
fournisseur est responsable du déploiement et de l’installation du matériel et des
logiciels, tandis que le client gère l’optimisation, le réglage fin et l’installation des
mises à jour logicielles et matérielles.
2. Le PaaS offre une flexibilité ainsi qu’un gain de temps pour la gestion et le
déploiement de grands projets de développement – en gérant la mise en œuvre de la
plate-forme et la production instantanée.

3. Sécurité – Le client est responsable de la gestion des protocoles de sécurité des


données et de la sauvegarde des applications.

e. Logiciel en tant que service (SaaS)


En SaaS, le fournisseur de cloud fournit tout le matériel et les logiciels, y compris tous les
aspects de la gestion du matériel et des logiciels. Cela inclut des services tels que les mises à
niveau logicielles et matérielles, la sécurité, la disponibilité, la sécurité des données et
l’optimisation des performances.

f. Avantages du SaaS

1. Tout en étant plus coûteux que ses homologues IaaS et PaaS, le SaaS offre
d’immenses avantages en termes de gain de temps et de déploiement rapide. Le client
n’a pas besoin de se préoccuper de l’infrastructure et de la gestion de l’alignement du
logiciel. Il n’y a pas besoin d’installation ou de maintenance logicielle.
2. Le fournisseur fournit toutes les mises à niveau logicielles et matérielles nécessaires, y
compris la sécurité.
3. Le test et le déploiement de nouvelles applications logicielles sont rapides et faciles.
4. Le modèle SaaS est le plus populaire, et il est responsable de la croissance rapide de
l’adoption des services de cloud computing aujourd’hui.
5. Une stratégie de déploiement cloud efficace doit prendre en compte les besoins
spécifiques de l’organisation. De nombreuses organisations trouvent qu’il est facile de
déployer et d’utiliser des modèles SaaS qui ont des plans d’abonnement mensuels à
faible coût.
XVII. Conclusion :

Dans ce chapitre, nous avons présenté une étude sur le principe de cloud computing, en
passant par les types des clouds vers la migration.

Dans le chapitre suivant nous allons présenter la spécification des besoins et la conception.
Spécification des besoins et conception
I. Introduction
Après avoir présenté le cadre général du projet, lors de ce chapitre nous nous intéressons à
l’analyse des différents besoins fonctionnels et non fonctionnels. Nous commencerons par
l’identification des différents acteurs puis nous exposerons la conception statique et
dynamique de notre solution à travers les diagrammes de classes et de séquences.

II. Analyse et spécification des besoins


Dans cette section, nous analysons les besoins des utilisateurs afin de spécifier les
diagrammes de cas d’utilisations globales et détaillés.

a. Identification des acteurs


Nous avons distingué un seul utilisateur qui interagit directement avec le système étudié, c’est
l’administrateur qui est le "end user". En effet, sa fonction est centralisée sur la surveillance et
l’administration réseau. En fait, l’administrateur est le seul responsable du bon
fonctionnement du système.

b. Spécification des besoins fonctionnels


Nous identifions nos besoins fonctionnels selon l’acteur mentionné, l’administrateur, afin de
mieux comprendre son rôle qui est basé sur :

 L’authentification pour accéder au système.


 La gestion des utilisateurs.
 Gestion des incidents
 Gestion des états des machines / serveurs
 Gestion des notifications
 Gestion des alertes de système

c. Diagrammes des cas d’utilisations


Nous exprimons dans ce qui suit, les besoins de l’administrateur par les diagrammes des cas
d’utilisations. La figure ci-dessous présente le diagramme de cas d’utilisation globale de notre
système.
Figure 24: Diagramme de cas d'utilisation globale

Ce diagramme nous permet d’identifier les différentes actions réalisées par l’administrateur
via le système Nagios. En effet, l’administrateur réseau a le droit de créer de services,
consulter l’état des machines, des serveurs, gestion des alertes et des incidents, consulter les
notifications, création de nouveaux services, créer des groupes des machines, consulter un
tableau de bord général, installez des applications sur les machines en espace cloud de
système NAGIOS. Afin d’accéder à toutes ces fonctionnalité, l’administrateur doit être
authentifié. Afin de mieux comprendre notre système, nous présentons le raffinement des
différents cas d’utilisation.
i. Gestion des utilisateurs :

Figure 25: raffinement de cas d'utilisation gestion des utilisateurs

ii. Gestion des incidents :

iii. Gestion des états des machines :

Figure 26: Raffinement de cas d'utilisation gestion des machines


iv. Gestion des notifications :

Figure 27: Raffinement de cas d'utilisation gestion des notifications

v. Gestion des alertes :

Figure 28: Raffinement de cas d'utilisation gestion des alertes


III. Spécification des besoins non fonctionnels
En plus des besoins fonctionnels et afin d’offrir une solution complète et performante à
différents niveaux, notre solution doit garantir les besoins non fonctionnels suivants :

 Rapidité : Le logiciel de surveillance doit fonctionner correctement et prévenir dès


qu’un problème survient avant même que la plupart des utilisateurs en aient
conscience.
 Performance : Les fonctionnalités de l’application doivent répondre à toutes les
exigences des usagers d’une manière optimale.
 Sécurité : L’accès aux données doit être authentifié et contrôlé, la solution doit
garantir les services de sécurité.
 Ergonomie : L’application doit offrir une interface facile à utiliser le logiciel en toute
simplicité.

IV. Conception
Dans cette section nous exposons la conception statique et dynamique de notre solution en
étudiant le diagramme de classes et les diagrammes de séquence qui présentent les différentes
interactions entre les divers composants de notre application.

a. Conception statique
Dans cette partie nous détaillons le diagramme de classes. En fait, nous décrivons les
différents objets et méthodes de chacune de ces classes.

i. Diagramme de classes
La figure ci-dessous présente le diagramme de classes qui est composé de neuf classes : la
classe administrateur, la classe moniteur réseau Nagios, la classe équipements, la classe
système d’exploitation, la classe machine Windows/Linux, la classe routeur, la classe serveur,
la classe commutateur et la classe services.

 Classe administrateur
 Classe utilisateur
 Classe machine
 Classe serveur
 Classe application
 Classe service
 Classe état machine
 Classe état serveur
 Classe groupe
 Classe incident
 Classe notifications
 Classe alerte
 Classe affectation
 Classe journal

Figure 29: Diagramme de classe

ii. Conception dynamique


Dans cette section nous représentons les diagrammes de séquences et les scénarios qui
décrivent l’échange des messages selon un ordre chronologique entre l’acteur et le système.
Ces diagrammes de séquence sont généralement associés aux diagrammes de cas d’utilisation
dans la vue logique du système.

1. Diagramme de séquence "Authentification"


Figure 30: Diagramme de séquence authentification

Scénario nominal

1. L’administrateur s’authentifie.

2. Il demande au système d’ajouter des équipements et des services


tel que (la dispo- nibilité, la mémoire, l’état des ports, la
connectivité internet ..).

3. Le système renvoie l’espace d’ajout.

4. L’administrateur saisie convenablement les données et édit les


paramètres néces- saires.

5. Le système vérifie les données avec la base de données :

6. Selon l’adresse IP, la Base de données renvoie au système le résultat de


l’opération.

7. Le système affiche un message selon le résultat de l’opération.


2. Diagramme de séquence créer application :

Figure 31: Diagramme de séquence créer application

3. Diagramme de séquence créer service :

Figure 32: Diagramme de séquence créer service


V. Conclusion
A travers ce chapitre, nous avons détaillés notre conception statique à savoir le diagramme de
classes. Nous avons également étudié la conception dynamique en détaillant les diagrammes
de séquences. Le chapitre suivant présente l’architecture de notre solution et la partie
réalisation du projet en présentant les environnements de travail et les différents modules
réalisés.
Mise En œuvre de la solution
I. Introduction :
Dans cette partie, nous présenterons l'environnement matériel et technique relatif à la
réalisation de l'application.

II. Environnement de travail :


L'architecture matérielle utilisée pour la réalisation de l'application est la suivante :

Tableau ci-dessous

PC portable USUS X556U


RAM 8 Go
Microprocesseur Intel® Core™ i7-6500U CPU@2.50Hz
Disque dur 1 To
Système d’exploitation Windows 10

Tableau 2: Tableau 4:Environnement matériel

III. Environnement matériel :

IV. Environnement logiciel :

V. Langages et bibliothèque utilisé :

VI. Interface de NAGIOS :

Nagios Dashboard :
Figure 33 : tableau de bord de l'accueil sous Nagios

Etat des machines :

Figure 34: Etat des machines (host)

Etat des services :


Figure 35: Etat de services

Problèmes au niveau de service :

Figure 36: Détection des problèmes au niveau des services

Problèmes au niveau des machines :

Figure 37: Incidents au niveau des machines


Derniers Alertes Reçues :

Figure 38: Derniers alertes reçues

Liste des notifications :

Figure 39:Liste des notifications


Host and server Monitoring :

Figure 40: Host and server monitoring

Etat de machine : exemple :

Figure 41: Machine statuts détails

Etat de service pour cette machine :


Figure 42: Host service status

Machine locale consulter son état :

Figure 43: Localhost state

Configuration service sous machine local :


Conclusion générale
Le présent projet intitulé « Mise en place d’une solution de supervision de réseau avec l’outil
Nagios basé sur docker » est réalisé dans le cadre de projet de fin d'études pour l'obtention du
diplôme de licence en télécommunication a ENSTAB. Ce projet a été réalisé dans la société
Global Web Engineering durant la période s'étalant du 02 avril 2023 jusqu'à 02 juillet 2023.

Le développement de notre projet intitulé « Mise en place d’une solution de supervision de


réseau avec l’outil Nagios basé sur docker » nous a permis de répondre aux besoins de notre
client la société GWE.
Notre application consiste à gérer l’état de réseau ainsi que la supervision des incidents et des
alertes en temps réel.
La mise en place de cette application nous a permis de mettre en œuvre nos connaissances
théoriques acquises tout au long de notre formation à ENSTAB.
Ce travail nous a fourni également un grand apport au niveau de plusieurs niveaux. Sur le plan
technique, nous avons appris à manipuler l'outil NAGIOS pour la mise en place de la solution,
aussi de manipuler l’outil Docker pour créer des containers pour le déploiement.
Nous avons également eu l’opportunité de maîtriser la conception en utilisant UML.
Le stage quotidien au sein de la société a aussi été pour nous une occasion unique qui nous a
apporté beaucoup d’enrichissement sur le plan relationnel.
Bien que les principaux objectifs de notre projet aient été atteints, le système que nous avons
développé pourrait être enrichi par d’autres fonctionnalités avancées et améliorations selon
des nouveaux besoins demandés par notre client.
Aussi, Vu le grand volume de données de la direction, une extension de ce travail pourra avoir
lieu via l’utilisation de l’informatique décisionnelle qui englobe les solutions IT et qui leur
apporte une nouvelle vision contenant des rapports et des tableaux de bord de suivi des
activités de l’entreprise à la fois analytiques et prospectifs.
Bibliographie
[1]: Nagios - The Industry Standard In IT Infrastructure Monitoring

[2]: Nagios XI - Easy Network, Server Monitoring and Alerting

[3]: Snort - Network Intrusion Detection & Prevention System

[4]: Download Docker Desktop | Docker

[5]: Defense.com™ - Cyber Detection and Response Platform

[6]: http://uml.free.fr/index-cours.html

[7]: https://openclassrooms.com/fr/courses/4507926-initiez-vous-a-la-gestion-de-projet-agile

[8]: https://www.my-mooc.com/fr/mooc/gerez-votre-projet-avec-une-equipe-scrum/

[9]: TheHive Project (thehive-project.org)

[10]: https://www.next-decision.fr/editeurs/modelisation/sap-power-amc
Annexe

Déployer Nagios en tant que conteneur Docker :

Vous aimerez peut-être aussi