Académique Documents
Professionnel Documents
Culture Documents
Avec des réseaux d’entreprise de plus en plus complexes et tentaculaires, la surveillance revêt
une importance croissante, en particulier à l’heure où les entreprises migrent vers un
environnement de travail cloud ou hybride. Dans de nombreux cas, un outil avancé de
surveillance du réseau est également un composant critique de l’architecture de cybersécurité,
car il offre la visibilité en temps réel requise de bout en bout pour identifier les indicateurs de
compromission ou les indicateurs d’attaque précoces qui accompagnent un événement de
cybersécurité actif.
Ce travail est réalisé à Global Web Engineering dans le cadre d’un projet de d’études afin
d’obtenir une licence fondamentale en télécommunication. Au sein de Global Web
Engineering, la surveillance et la bonne gestion du parc informatique présente un enjeu
majeur. Elle permet de prévenir les dé- faillances et de réduire les coûts de fonctionnement du
système informatique. L’entreprise a trouvé nécessaire de concevoir et développer un outil de
surveillance pour son réseau.
Pour assurer une couverture de sécurité maximale des systèmes d’informations, une
combinaison complète d’outils est nécessaire. Une solution efficace basée sur SOC comprend
les principaux composants su système SIEM ( Security informations and Evenet
Management), un système de gestion et suivi des incidents, des systèmes de détection et
prévention.
Durant ces quatre mois de stage de fin d’études, nous proposons et nous testons une version
de système Nagios pour la gestion des incidents, détection et prévention.
Notre solution permet également de remonter des alarmes en cas de problèmes. En effet, notre
projet consiste à superviser un réseau grâce à l’outil Open source «Nagios». En fait, nous
apportons quelques modifications afin d’adapter "Nagios" au besoin de notre société.
Le présent rapport se compose de trois chapitres. Le premier chapitre, décrit le cadre général
du projet. Ce chapitre a été consacrée essentiellement à l’étude de différentes solutions de
supervision, afin de choisir la solution la mieux adaptée aux exigences des administrateurs au
sein de GWE. Le deuxième chapitre, a été consacré à l’analyse des besoins et à l’étude
conceptuelle de cette solution. Le troisième chapitre, consiste à la réalisation de notre projet
pour l’implémentation de la solution de surveillance réseau au sein de GWE.
Cadre générale du projet et état de l’art
I. Introduction :
Ce chapitre contient le cadre de projet. Il comporte deux parties : la première porte sur
l’entreprise d’accueil alors que la deuxième décrit la problématique et la solution du projet.
b. Qui sommes-nous :
GWE est une entreprise locale, agile et réactive. Nos équipes sont à l’écoute de vos besoins et
de l’évolution de vos projets pour vous apporter des solutions logicielles expertes pour l’IoT
adaptées et évolutives.
Global Web Engineering est une société de services informatiques en Tunisie à taille humaine
s’appuyant sur deux axes forts, la satisfaction de ses clients et l’épanouissement de ses
collaborateurs.
Global Web Engineering est reconnu comme un pionnier capable de relever les défis du
développement durable, auxquels sont confrontés les industries et la société. Grâce aux
services numériques, à sa conformité avec les réglementations sur la confidentialité des
données, ainsi qu’au soutien à la diversité et à l’accessibilité, Global Web Engineering a
toujours été à la pointe de l’innovation.
c. Solutions :
i. La transformation numérique requiert un
périmètre sécurisé
Alors que les technologies numériques sont plus intégrées que jamais dans notre quotidien,
leur influence sur les entreprises, et même l’humanité, ne cesse d’augmenter. L’exécution
d’une stratégie numérique dépend grandement de la résolution des problèmes sous-jacents liés
aux exigences et limites des technologies numériques et de l’identification de la meilleure
façon de les gérer.
Dans ce monde dont les périmètres s’effacent et où le cloud devient prépondérant, les
organisations doivent garantir la sécurité de l’espace de travail numérique et des
infrastructures.
Pour toute organisation, tirer parti de tous les avantages du cloud nécessite une approche
solide de la cyber sécurité afin de protéger les données sensibles qui sont partagées entre les
environnements de cloud public et de cloud privé à un coût acceptable.
Global Web Engineering vous aide à maintenir un contrôle centralisé sur la gestion des
identités et des accès, ainsi que sur les clés de chiffrement, avec une approche unique de
sécurité du cloud.
Le développement des ERP sur mesure consiste à élaborer d'un logiciel s'adaptant aux
situations et aux besoins spécifiques de chaque entreprise. En fait, nous développons un
logiciel adapté aux besoins de votre entreprise pour résoudre vos problèmes et améliorer votre
gestion dans son ensemble et ainsi booster vos performances.
Chez Global Web Engineering, on s'intéresse à la création des sites web sur mesure nous
concevons des pages web et nous donnons la priorité aux performances et aux conceptions
professionnelles adaptées à chaque secteur. Quel que soit le type de site voulu (création du
site vitrine de société, une application en ligne ou boutique en ligne), Nos ingénieurs vous
propose des solutions adaptées avec vos besoins et qui correspond avec vos attentes.
L'ensemble de vos contenus crées sur mesure vont être adaptés à tous les écrans. Ainsi vos
contenus textes, images, vidéos sont directement responsive.
Une application mobile sur mesure ouvre aussi un accès très prometteur à votre entreprise.
Elle permet de créer un nouveau lien avec votre cible, un lien vous permettant d’accroître
votre visibilité, votre notoriété et même voir votre chiffre d’affaires. Donc, pour améliorer
votre placement et l’optimisation de votre entreprise, il est conseillé d’être visible et présent
dans l’univers d’internet mobile.
Les applications mobiles sont devenues un canal de communication primordial pour l’image
d’une entreprise. Nous vous accompagnons de l’idée de départ, à la conception et au
développement de votre application.
Embrassez l'intelligence sous toutes ses formes pour résoudre les défis de votre entreprise :
servez vos clients selon des modalités inédites, personnalisez vos expériences, optimisez votre
chaîne logistique. Nos solutions IA permettent de traiter tous types de problématiques,
qu’elles soient de nature de votre secteur. L’IA peut être appliquée à tous domaines tels que la
finance, la santé, l’éducation, le droit, la fabrication.
L’IoT vous offre une visibilité précise et instantanée de l’état des assets de votre entreprise.
Grâce à leur capacité à transmettre de l’information en temps réel, les solutions connectées
répondent à des cas d’usage critiques. Ils améliorent également vos produits et services en
mesurant en continu la satisfaction client. Les freins à l’efficience sont levés et la maintenance
devient prédictive.
III. Étude de l’existant
Le Security Opération Center est aussi désigné en tant que COS (Centre Opérationnel de
Sécurité). Il se compose des personnes et des équipements techniques nécessaires pour assurer
la supervision de la sécurité informatique d'une société et intervenir rapidement en cas
d'incident ou d'attaque.
Afin d'optimiser le fonctionnement du SOC, il est important que plusieurs types de profils y
soient représentés :
Un des éléments clés sur lequel le SOC se base est le SIEM (Security Information and Event
Management). Le SIEM collecte l'ensemble des informations générées par l'infrastructure
informatique : systèmes d'exploitation, routeurs, serveurs, pare-feu, logiciels antivirus, base de
données, etc.
Il analyse toutes ces informations, les surveille et les corrèle afin d'évaluer la conformité des
événements par rapport aux normes et moyennes définies pour l'entreprise.
Quand un dysfonctionnement est détecté, le SIEM crée des alertes qui sont analysées par des
experts et éventuellement transmises à des outils spécifiques de sécurité.
Le SIEM peut également posséder une fonctionnalité lui permettant la surveillance des
actions des utilisateurs jugées non conformes.
IV. Problématique
Ce présent travail s’est déroulé dans un environnement comportant un parc informatique
important composé de machines et de serveurs locaux et distants. L’administrateur est
responsable de ses équipements, ce qui rend sa tâche difficile. En effet, l’administrateur doit
vérifier la disponibilité des équipements, la disponibilité des applications, installation des
applications, détection des incidents et gestion des machines.
C’est pour cela que l’entreprise souhaite mettre en place une solution capable de faciliter et
d’organiser l’administration de son réseau informatique. Cependant, les solutions de
surveillance de réseaux peuvent avoir un cout considérable. Il existe des solutions gratuites,
mais ces solutions doivent être adaptées aux besoins et spécificités de l’entreprise. Notre
objectif est de choisir la meilleure solution de surveillance gratuite et de l’adapter aux besoins
de Global Web Engineering.
V. Solution proposée
La gestion des incidents et suivi des états des stations de travail et serveurs étant le plus grand
souci de l’administrateur, nous avons jugées nécessaire de mettre en place un outil de
surveillance du réseau performant, souple et gratuit.
Que les ressources réseau soient locales, dans un centre de données, hébergées par un
fournisseur de services cloud ou faisant partie d’un écosystème hybride, un système de
surveillance du réseau surveille les périphériques réseau défectueux et les ressources
surchargées. Par exemple, il peut trouver des processeurs surchargés sur les serveurs, des taux
d’erreur élevés sur les commutateurs et les routeurs, ou des pics soudains de trafic réseau. Une
caractéristique clé du logiciel NPM est d’alerter les administrateurs réseau lorsqu’un
problème de performance est détecté.
Les systèmes de surveillance du réseau collectent également des données pour analyser le flux
de trafic et mesurer les performances et la disponibilité. Une méthode de surveillance des
problèmes de performances et des goulots d’étranglement consiste à configurer des seuils, de
sorte que vous recevez des alertes instantanées en cas de violation de seuil. Alors que certains
seuils sont de simples seuils statiques, les systèmes NPM modernes utilisent l’apprentissage
automatique (ML) pour déterminer les performances normales de toutes les mesures d’un
réseau en fonction de l’heure de la journée et du jour de la semaine. Les systèmes NPM avec
de telles lignes de base basées sur le ML créent des alertes qui sont généralement plus
exploitables.
Les pannes de réseau peuvent entraîner des interruptions d’activité, ce qui peut entraîner une
perte de clients, de productivité des employés et d’argent. En fait, 91 % des moyennes et
grandes entreprises déclarent qu’une seule heure d’arrêt informatique leur coûte au moins 300
000 USD par heure. Près de la moitié de ce groupe a déclaré que cela coûtait des millions.
Investir dans un logiciel de surveillance réseau, qu’il soit commercial ou open source, signifie
adopter une approche proactive pour maintenir votre infrastructure réseau en bonne santé et
maximiser le temps de disponibilité, au lieu d’attendre qu’un utilisateur final signale des
problèmes de réseau. Étant donné que la surveillance de l’infrastructure vous permet de savoir
précisément où un problème réseau se produit, vous disposez d’un délai de dépannage avant
que la situation n’entraîne une panne. L’identification et la résolution précoces de la cause
première d’un problème peuvent réduire le temps de réponse, améliorer la satisfaction des
clients, économiser de l’argent et protéger la réputation d’une entreprise.
Lors de l’utilisation d’un outil de surveillance réseau, la première étape consiste à déterminer
quels périphériques réseau doivent être surveillés et à établir des mesures de performance.
Ensuite, décidez d’un intervalle de surveillance qui convient à votre situation. La surveillance
des routeurs, des commutateurs et des serveurs est généralement effectuée plus souvent car
ces périphériques réseau sont plus critiques pour l’entreprise.
Une fois en place, les outils de surveillance du réseau recherchent les problèmes de réseau.
Les méthodes peuvent être aussi simples qu’un ping pour s’assurer qu’un hôte est disponible.
Ils peuvent également être plus étendus, tels que la surveillance de l’accès au pare-feu, de
l’utilisation de la bande passante, de la consommation de ressources, de la disponibilité et des
changements inattendus dans le trafic réseau; s’assurer que les commutateurs, routeurs,
serveurs, pare-feu et autres points de terminaison ont un niveau de débit acceptable;
effectuer l’équilibrage de charge; et la surveillance des taux d’erreur élevés.
Ces outils offrent une visualisation de l’ensemble de l’infrastructure réseau avec des tableaux
de bord personnalisables qui fournissent des graphiques de performance en temps réel et
d’autres rapports montrant à quoi ressemblent les composants et s’il existe des paramètres
inhabituels qui nécessitent une enquête plus approfondie.
Le principal avantage des outils de surveillance réseau est une visibilité simple et facile à
comprendre sur les appareils connectés d’un réseau entier et sur la façon dont les données
circulent entre eux. Les systèmes modernes de surveillance des performances réseau
fournissent des informations de base qui vous permettent de comparer automatiquement les
données et d’identifier toute dégradation des performances réseau. Voir tout cela sur un
tableau de bord signifie que vos administrateurs réseau peuvent rapidement identifier les
problèmes n’importe où dans le réseau, identifier la cause première et déterminer qui doit les
résoudre.
Une solution NPM nécessite moins de temps pour résoudre les problèmes de performances
réseau. Détecter un problème plus tôt signifie que vous pouvez le dépanner et le résoudre
beaucoup plus rapidement, ce qui vous permet d’économiser du temps et de l’argent. La
surveillance du réseau aide les entreprises à optimiser leur efficacité en détectant et en
réparant les problèmes avant qu’ils n’affectent les opérations et les clients. Cela, à son tour,
réduit les temps d’arrêt, garantit que les employés ont toujours accès aux ressources dont ils
ont besoin et augmente la disponibilité des API et des pages Web, afin que les clients y aient
accès quand ils en ont besoin. La surveillance des performances réseau fournit également des
données historiques et permet de résoudre les problèmes réseau passés afin que vous puissiez
éviter des problèmes similaires à l’avenir.
Les solutions de surveillance réseau vous offrent des outils et des capacités de gestion fiables
et flexibles, y compris des modèles préconfigurés pour des fournisseurs spécifiques, tels que
Cisco, Juniper, Arista et Aruba, entre autres, afin de garantir que tout fonctionne
correctement. Ils vous aident à vous conformer aux normes de l’industrie et aux
réglementations gouvernementales. Ils peuvent signaler des anomalies qui peuvent être des
signes avant-coureurs d’une cyberattaque. Les outils de surveillance peuvent également vous
aider à suivre et à comparer les mesures de performance de votre réseau, ce qui facilite la
définition d’objectifs et l’amélioration des performances du réseau. Tout cela vous aide à aller
de l’avant.
Les systèmes de surveillance réseau modernes vont encore plus loin en prenant en charge les
réseaux définis par logiciel de nouvelle génération déployés pour exécuter des applications
modernes. Ces nouveaux réseaux modernes nécessitent des méthodes très différentes de
collecte et d’analyse des données de performance à l’aide d’API tout en prenant en charge les
méthodes existantes telles que SNMP. La prise en charge des réseaux nouveaux et existants
aide les équipes d’exploitation et d’ingénierie du réseau à planifier correctement les
transitions vers les réseaux de nouvelle génération.
La surveillance des performances réseau vous permet également de suivre les réseaux qui
changent, se développent et deviennent plus complexes au fil du temps. Avec l’essor des
appareils IoT, qui permettent aux réseaux de connecter des milliers d’appareils IoT ou plus,
les réseaux informatiques deviennent énormes et complexes.
La surveillance du réseau n’est pas la même chose que la surveillance de la sécurité réseau.
Les organisations utilisent la surveillance de la sécurité réseau pour protéger un réseau contre
les accès non autorisés, les utilisations abusives et le vol. En revanche, une solution de
surveillance du réseau est principalement utilisée pour optimiser la disponibilité du réseau et
les performances globales.
Bien que la sécurité ne soit pas l’objectif principal de la surveillance du réseau, les meilleurs
outils de surveillance des performances réseau peuvent vous aider à vérifier que vos
dispositifs de sécurité fonctionnent efficacement. Certains outils de surveillance réseau
incluent un logiciel de gestion de la configuration, qui permet d’améliorer la sécurité et la
fiabilité de votre réseau en offrant des configurations entièrement automatisées pour les
périphériques et les interfaces réseau.
Avoir une visibilité et savoir comment fonctionne votre réseau peut attirer l’attention sur les
premiers signes de compromission ou d’attaque. Lorsque le logiciel de surveillance du réseau
signale des anomalies de performances, votre équipe informatique peut plus facilement
identifier les menaces réseau et traiter les violations de données et autres attaques.
Le système de détection d’intrusion est très important et est nécessaire pour surveiller le trafic
afin d’identifier ou de détecter les anomalies et les attaques. Snort est l’un des systèmes de
détection/prévention des intrusions en réseau open source capable d’effectuer une analyse du
trafic en temps réel avec la journalisation des paquets sur les réseaux de protocole Internet.
Snort a 5 composants importants qui aident à détecter les attaques.
Décodeur de paquets
Préprocesseurs
Moteur de détection
Système d’enregistrement et d’alerte
Modules de sortie
À l’aide des composants ci-dessus, Snort peut détecter les attaques ou les sondes basées sur le
réseau, y compris les tentatives d’empreintes digitales du système d’exploitation, les attaques
d’URL sémantiques, les débordements de mémoire tampon, les SMB (Server Message
Blocks) et l’analyse furtive des ports. Il peut également détecter les attaques sur les
applications Web telles que les injections SQL.
Puisque Snort n’est qu’un moteur, il nécessite une interface graphique pour faciliter
l’utilisation si vous n’êtes pas très familier avec la ligne de commande, il est donc bon de
configurer Snorby et nécessite également une application de serveur Web normale telle
qu’Apache.
Une partie de la valeur de Snort est qu’il peut être configuré dans trois modes distincts: en tant
que renifleur réseau, enregistreur de paquets ou IDS complet. En tant que tel, il peut être au
cœur d’un système de sécurité automatisé ou d’un composant qui se trouve à côté d’une
gamme de produits commerciaux.
Pour être un type de sécurité proactif, il est très important d’avoir un scanner de vulnérabilité
pour analyser et confirmer si un actif est en cours d’exécution avec des vulnérabilités critiques
qui peuvent conduire à une violation ou à une attaque de sécurité. Le scanner de vulnérabilité
est un produit qui comporte plusieurs scripts mis à jour qui sont utiles pour identifier les
vulnérabilités du système ou des applications. Analysez périodiquement les systèmes, en
particulier les systèmes externes ou les systèmes connectés à Internet, et corrigez-les
régulièrement.
c. Nagios
Nagios surveille le réseau : l’infrastructure, le trafic et les serveurs rattachés sont tous à la
portée de ses capacités de base ou étendues. Comme beaucoup d’autres paquets open source,
Nagios est disponible en versions gratuites et commerciales.
Nagios Core est le cœur du projet open source, basé sur la version libre et open source. Les
produits individuels peuvent être surveillés et les tâches individuelles peuvent être effectuées
par des plug-ins ; il y a environ 50 plug-ins « officiels » développés par Nagios et plus de 3
000 plug-ins fournis par la communauté.
d. Maltego
e. Ettercap
Si vous avez besoin de tester la résistance de votre réseau d’entreprise aux attaques de
l’homme du milieu (MITM), Ettercap est l’outil qu’il vous faut. Ce programme a fait une
chose – lancer des attaques MITM – depuis sa sortie initiale en 2001.
Ettercap a quatre modes d’attaque de base: basé sur IP, basé sur MAC et deux stratégies
basées sur ARP. Vous pouvez décider du type de vulnérabilités à explorer et rechercher
comment votre environnement réagit à chacune.
Dans le processus de recherche d’une attaque de test, Ettercap peut fournir beaucoup
d’informations sur le réseau et ses périphériques. Dans le cadre d’une boîte à outils de sécurité
globale, Ettercap offre de solides capacités pour les attaques MITM et une augmentation
solide pour les fonctions d’analyse et de visibilité.
f. HoneyNet
Aujourd’hui, les attaquants deviennent plus intelligents chaque jour, il est donc bon d’avoir
Honeynet pour voir et analyser les modèles d’attaque que les attaquants essaient de connaître
et de défendre. C’est une technologie très importante qui est obligatoire pour tromper
l’attaquant et protéger les actifs. Vous pouvez utiliser Honeynet comme filet interne ou
externe en fonction des besoins. Imitez simplement les services utilisés pour empêcher les
attaques réelles. HoneyNet a principalement 4 composants, comme mentionné ci-dessous.
i. Identification de l’incident
Première étape du plan de réponse aux incidents : identifier l’incident. Ce dernier peut
survenir dans presque n’importe quelle partie du projet. Il peut par exemple être interne, lié à
un fournisseur ou à un client. La nature de l’incident joue un rôle sur sa hiérarchisation, à
laquelle vous procéderez dans une des prochaines étapes.
Pour identifier un incident, indiquez les informations suivantes ;
Nom ou numéro d’identification
Description
Date
Gestionnaire de l’incident
Chacune de ces informations servira plus tard à des fins de référence, surtout si vous avez mis
en place un plan de gestion des problèmes. De cette façon, vous pourrez trouver l’origine de
l’incident et veiller à ce qu’il ne se reproduise pas.
v. Clôture de l’incident
Dernière étape de la journalisation des incidents : clôturer les livrables de la réponse.
Conservez tous les documents créés lors des étapes ci-dessus dans un espace de travail
commun (Drive partagé, dossier numérique, etc.) afin de pouvoir y accéder ultérieurement si
besoin.
En plus de stocker ces informations, vérifiez que les livrables de la réponse ont été
correctement exécutés avant de clôturer les tâches en cours. Que vous utilisiez un système de
tickets, un service d’assistance ou un processus de demande de service, vous serez rassuré de
savoir qu’il ne reste aucune dépendance non résolue. Une fois toutes les tâches terminées,
clôturez officiellement le plan de réponse aux incidents.
Lors de la réunion post-mortem (rétrospective), présentez en détail les incidents survenus
pendant le projet. Cette présentation peut faire office de passerelle vers la phase de gestion
des problèmes, lors de laquelle vous vous efforcerez d’en résoudre la cause sous-jacente, pour
une réunion plus efficace.
IX. NAGIOS CORE
Le cycle de vie DevOps est une boucle continue de plusieurs étapes, la surveillance continue
est la dernière étape de cette boucle. La surveillance continue est l'une des étapes de ce cycle
de vie. Dans ce chapitre, apprenons en détail ce qu'est la surveillance continue et comment
Nagios est utile à cette fin.
Il peut surveiller les serveurs de base de données tels que SQL Server, Oracle, Mysql,
Postgres
Il donne des informations au niveau de l'application (Apache, Postfix, LDAP, Citrix
etc.).
Fournit un développement actif.
A un excellent soutien forme énorme communauté active.
Nagios fonctionne sur n'importe quel système d'exploitation.
Il peut envoyer un ping pour voir si l'hôte est accessible.
d. Avantages de Nagios
Nagios offre les avantages suivants aux utilisateurs
e. Architecture de Nagios
Les points suivants méritent d'être notés sur l'architecture de Nagios
X. Docker :
Docker Hub est le plus grand référentiel au monde d’images de conteneurs avec un éventail
de sources de contenu, y compris des développeurs de communautés de conteneurs, des
projets open source et des éditeurs de logiciels indépendants (ISV) qui construisent et
distribuent leur code dans des conteneurs. Les utilisateurs ont accès à des référentiels publics
gratuits pour stocker et partager des images ou peuvent choisir un plan d’abonnement pour les
dépôts privés.
Docker Hub est un service de référentiel hébergé fourni par Docker pour rechercher et
partager des images de conteneur avec votre équipe. Les principales caractéristiques sont les
suivantes :
XI. Conclusion
A travers ce chapitre nous avons situé le projet dans son cadre général. Nous avons présenté
l’entreprise d’accueil et l’étude de l’existant. Suite à cette étude nous avons soulevées les
problèmes que rencontre l’entreprise lors de la sécurité et gestion des incidents de son réseau.
Nous avons décrit les solutions existantes de sécurité réseau afin de proposer et configurer la
solution que nous jugeons la plus adapté au besoin de la société Global Web Engineering.
Dans le chapitre suivant, nous présenterons la conception UML détaillée de notre système.
Le cloud
I. Introduction :
Dans ce chapitre, nous présenterons les concepts de base des différentes techniques utilisées
lors de la mise en œuvre du projet. Dans un premier temps, nous présentons le cloud
computing, ses principes, les différents services qu'il propose, les modèles de déploiement, ses
avantages et ses inconvénients. Ensuite, nous attaquons le concept de sécurité du système
d’information, finalement nous présentons le système d’information.
Ce processus long est difficile à faire évoluer lors des pics de demande ou quand l'activité
commerciale se développe. Les entreprises peuvent acquérir plus de ressources informatiques
que nécessaire et se retrouver avec des chiffres d'utilisation peu élevés.
Le cloud computing résout ces problèmes en proposant des ressources informatiques sous
forme de services évolutifs à la demande. Découvrez Google Cloud, une suite de modèles de
service de cloud computing proposée par Google.
Le plus souvent, la « migration vers le cloud » décrit le passage d’une infrastructure locale ou
héritée vers le cloud. Cependant, le terme peut également s’appliquer à une migration d’un
cloud vers un autre.
En informatique, le matériel ou les logiciels sont considérés comme « hérités » s’ils sont
obsolètes mais toujours utilisés. Les produits et processus existants ne sont généralement pas
aussi efficaces ou sécurisés que les solutions plus récentes. Les entreprises coincées dans
l’exploitation de systèmes existants risquent de prendre du retard sur leurs concurrents ; ils
sont également confrontés à un risque accru de violation de données.
Les logiciels ou les matériels hérités peuvent devenir peu fiables, s’exécuter lentement ou ne
plus être pris en charge par le fournisseur d’origine. Windows XP, par exemple, est un
système d’exploitation hérité : sorti en 2001, ses capacités ont été dépassées par les versions
ultérieures de Windows, et Microsoft ne prend plus en charge le système d’exploitation en
publiant des correctifs ou des mises à jour pour celui-ci.
L’infrastructure comprend les serveurs, l’équipement réseau, les applications, les bases de
données et tout autre logiciel ou matériel critique pour l’entreprise. L’infrastructure héritée,
telle que les serveurs vieillissants ou les appliances de pare-feu physiques, peut ralentir les
processus métier d’une entreprise. Cela peut également ajouter plus de risques de sécurité car
les fournisseurs d’origine abandonnent la prise en charge de leurs produits et cessent de
publier des correctifs de sécurité.
L’infrastructure héritée est généralement hébergée sur site, ce qui signifie qu’elle est
physiquement située dans des bâtiments ou sur une propriété où l’organisation opère. Par
exemple, de nombreuses entreprises hébergent un centre de données sur site dans le même
bâtiment où travaillent leurs employés.
Les entreprises qui s’appuient sur une infrastructure existante sur site ne peuvent pas profiter
des avantages du cloud computing. Pour cette raison, la plupart des entreprises ont
aujourd’hui effectué au moins une migration partielle vers le cloud.
Une virtualisation est un logiciel qui virtualise votre matériel en plusieurs machines,
tandis que le cloud computing est la combinaison de plusieurs périphériques matériels.
Dans la virtualisation, un utilisateur obtient du matériel dédié tandis que dans le cloud
computing, plusieurs périphériques matériels fournissent un environnement de
connexion pour l’utilisateur.
Il est préférable d’accéder au cloud computing depuis l’extérieur du réseau de bureau,
tandis que la virtualisation est destinée à accéder uniquement depuis le bureau.
L’environnement cloud est accessible via une URL afin qu’il soit accessible en dehors des
locaux de travail (selon l’autorisation).
virtuelles
Matériel dédié
même infrastructure.
serveur/ordinateur
l’extérieur du réseau.
virtualisation d’applications.
Types
Le cloud est l’avenir des entreprises. Mais, comme toute nouvelle technologie, il peut être
difficile à comprendre. Quelle est la différence entre les différents types de cloud ? Comment
choisir celui qui convient le mieux à votre entreprise ?
Il existe trois principaux types de cloud computing : cloud public, cloud privé, cloud hybride.
Il existe aussi trois principaux types de services de cloud computing : IaaS (Infrastructure-as-
a-Service), PaaS (Platform-as-a-Service) et SaaS (Software-as-a-Service).
a. Le Cloud public
Le cloud public est le type de déploiement de Cloud Computing le plus courant. Il est partagé
par de nombreux utilisateurs, ce qui signifie qu’il n’est pas dédié à une seule entreprise ou
organisation. L’avantage d’utiliser ce type de système est qu’il est accessible à toute personne
disposant d’une connexion Internet, mais cela signifie également que vous ne possédez aucun
des serveurs qui composent votre système. Vous payez pour ce que vous utilisez et rien de
plus. Des déploiements cloud publics sont fréquemment utilisés pour fournir des services de
courrier, des applications bureautiques, de l’espace de stockage, ainsi que des environnements
de développement et de test en ligne.
b. Le Cloud privé
Figure 22: cloud privé
Les clouds privés sont souvent le choix d’organismes publics, d’institutions financières et
d’autres organisations de taille moyenne à grande, dont les opérations stratégiques doivent se
dérouler dans un environnement soumis à un contrôle optimal.
c. Le Cloud hybride
Figure 23: cloud hybride
Le cloud hybride est un type de cloud computing qui s’appuie sur une structure combinant
cloud privé et cloud public, parfois en complément d’une infrastructure locale. Les clouds
hybrides permettent aux données et aux applications de se déplacer entre les deux
environnements. Il allie les avantages des deux modèles pour assurer flexibilité, réactivité et
sécurité. Il s’agit de la solution idéale pour absorber un pic d’activité ou pour un besoin
ponctuel en ressources, par exemple.
Il existe trois principaux modèles de cloud computing public, « as-a-Service », chacun offrant
un certain degré de gestion : IaaS (Infrastructure-as-a-Service), PaaS (Platform-as-a-Service)
et SaaS (Software-as-a-Service).
Le IaaS (Infrastructure as a Service) : Le IaaS offre des ressources d’infrastructure
hautement évolutives (instances, espace de stockage, services réseau, etc.). Il s’agit
d’un modèle à la demande qui s’adapte aux besoins d’infrastructure de votre
organisation. Vous gérerez vous-même la configuration, la mise à jour des systèmes
d’exploitation, les middlewares et les applications.
Le PaaS (Platform as a Service) : c’est une plateforme automatisée permet aux
équipes de se focaliser sur le développement de leurs applications. Avec ce modèle,
vous pouvez vous concentrer sur votre cœur de métier en profitant d’un
environnement de travail sans les contraintes de réseau, de stockage, de sauvegarde ou
de système d’exploitation.
Nous sommes conscients des avantages du cloud computing pour une entreprise. Cependant,
il y a aussi des limites.
La confidentialité des données : Le fournisseur possède la main mise sur toutes vos
données, il peut les utiliser à des fins commerciales par exemple. Vous devez lui
accorder une totale confiance. Cependant, vous n’êtes pas à l’abri d’une attaque telle
que le piratage.
La connexion internet : Lorsque l’on travaille avec le cloud, nous sommes
dépendants car on a nécessairement besoin d’une connexion internet efficace et fluide.
Cela est nécessaire afin d’accéder aux fichiers, de les modifier et de les sauvegarder à
nouveau. Cependant, il y a désormais la possibilité d’avoir un accès “hors ligne” au
drive de Google par exemple.
Les fonctionnalités disponibles : Nous sommes d’accord sur le fait que tous les
fournisseurs ne proposent pas la même qualité de services. De ce fait, certaines
fonctionnalités sont gratuites mais limitées et il est demandé de payer afin de
bénéficier de la version supérieure (plus de stockage, plus de fonctionnalités…).
Les problèmes techniques : Nous ne sommes pas à l’abri d’un problème technique,
le prestataire est chargé de la maintenance et des mises à jour mais en attendant,
n’ayant pas la main dessus, nous pouvons être pénalisés le temps de la réparation.
Le cloud fonctionne essentiellement sur Internet, et la sécurité du cloud fait référence aux
mesures mises en œuvre pour résoudre en particulier les problèmes découlant des opérations
basées sur le cloud. Lorsque nous accédons et stockons des objets sur le cloud, nous utilisons
des serveurs distants avec une connexion Internet au lieu du matériel local. Cela équivaut à
louer un espace physique dans une unité de stockage. Les fournisseurs de services cloud
(CSP) s’occupent de l’allocation et de la maintenance de cet espace physique pour vos actifs.
Avec le cloud computing, le périmètre d’une attaque n’est pas aussi défini que les
configurations traditionnelles, car il est similaire à une clôture mobile. Il y a un mouvement
constant des données entre le système d’entreprise et les appareils gérés et non gérés. Cela
signifie que les mesures de sécurité ne peuvent pas être axées uniquement sur les attaques
liées aux logiciels malveillants. Il implique plusieurs couches de pare-feu, l’une pour la
communication externe et l’autre pour la gestion interne.
L’avenir des applications d’entreprise est présenté comme étant profondément enchevêtré
dans le cloud computing, et les statistiques actuelles le reflètent. Le rapport 2022 de McAfee
sur l’adoption et les risques liés au cloud montre qu’une entreprise moyenne utilise environ 1
935 services cloud. L’informatique en nuage répond à notre scène technologique en évolution
rapide et géographiquement distribuée. Il répond également aux besoins des petites
entreprises et des startups qui n’ont pas le capital nécessaire pour investir dans leur propre
infrastructure.
La Cloud Security Alliance (CSA) examine chaque année les risques inhérents au calcul dans
le cloud et publie un rapport. Le dernier rapport s’est concentré sur les problèmes de
configuration et d’authentification au lieu de se concentrer traditionnellement sur les logiciels
malveillants et les vulnérabilités. Avec l’augmentation des quantités de données sensibles
hébergées sur le cloud, ces risques deviennent cruciaux pour la continuité des activités. Voici
les risques liés au déplacement total ou même partiel de l’infrastructure vers une configuration
cloud.
a. Des frontières en constante évolution
Avant l’arrivée officielle du cloud computing, les périmètres du réseau étaient bien définis.
Toute modification de ces limites était lente et sous le contrôle de l’entreprise. Les
environnements cloud, cependant, n’ont pas de limite bien définie. Les tactiques de cyber
sécurité testées de défense périmétrique ne sont donc pas suffisantes. Avec le cloud
computing, la question de la sécurité n’est plus limitée au blocage des pirates informatiques à
la clôture. La sécurité doit également se concentrer sur la sécurité des données.
Les CSP n’exposent pas tous les détails et le contrôle total de l’infrastructure à leurs clients.
Cela signifie que l’équipe d’administration de la société cliente ne dispose pas de toutes les
informations qu’elle possédait avec une configuration sur site uniquement. Dans un tel cas, il
devient difficile d’identifier et de visualiser tous les actifs cloud.
L’une des meilleures choses à propos de l’utilisation d’un CSP est le provisionnement et la
mise hors service à la demande des ressources. Cela signifie que l’environnement de travail
est en constante évolution. Cela signifie également que l’infrastructure est mise à l’échelle à
un rythme très rapide. Une stratégie de sécurité cloud est cruciale pour résoudre ce problème
heureux afin d’éviter les failles de sécurité. Toutes les stratégies de sécurité doivent
s’appliquer uniformément sur différents clouds et segments sur site.
La conformité au cloud est importante car des lois telles que le RGPD qui régissent comment
et où les données sont stockées entrent en vigueur partout. Tout faux pas dans cette direction
peut entraîner des ramifications juridiques et financières. Les organisations doivent répondre à
des questions importantes dans les SLA du fournisseur de services cloud.
La plupart des organisations utilisent l’intégration continue/livraison continue (CI/CD) pour
des mises à jour constantes des applications avec un temps d’arrêt minimal. CI/CD avec le
cloud nécessite des mesures supplémentaires telles que la mise à l’échelle instantanée et
automatique, le déploiement sur divers clouds et machines virtuelles (VM), et la mise en place
de points de contrôle et de contrôleurs responsables pour chaque module de l’application.
Selon le rapport 2022 McAfee Cloud Adoption and Risk Report, les entreprises sont
confrontées en moyenne à 2 269 incidents individuels liés à une mauvaise configuration par
mois. Ils ont également constaté que 1 compartiment AWS S3 sur 20 (les compartiments de
stockage cloud d’Amazon) dispose d’autorisations de lecture activées pour que tout le monde
puisse les consommer. Ces problèmes se produisent en raison d’une configuration incorrecte
de la part de l’organisation ou simplement du respect du paramètre par défaut fourni par le
CSP.
g. Complexités du transfert de données
L’utilisation de services basés sur le cloud implique un transfert constant de données entre les
réseaux. Cela se fait généralement à l’aide de services Web. Pour sécuriser le déplacement des
données via ces services, les organisations doivent examiner le chiffrement, les contrôles
d’accès, l’autorisation et l’authentification.
Par défaut, les fournisseurs de services cloud accordent généralement des autorisations
d’accès très larges, en particulier avec les applications SaaS. Si les rôles et les privilèges des
utilisateurs ne sont pas correctement définis, l’organisation est exposée à des cyber attaques.
Par exemple, tous les employés n’ont pas besoin d’avoir le droit de supprimer des ressources
sur le cloud. Toute considération d’une architecture basée sur le cloud doit s’accompagner de
la mise en œuvre d’un plan de gestion des identités et des accès (IAM) solide.
Avoir des actifs sur un cloud public ouvre le système de l’organisation au piratage et
aux attaques d’ingénierie sociale. Si les employés ne suivent pas de formation de
sensibilisation à la sécurité, ils pourraient être la proie de tentatives d’hameçonnage. Un
exemple d’incident majeur déclenché par une tentative de phishing est l’arnaque Bitcoin
Twitter 2020.
Nous avons déjà mis en évidence les différences dans les stratégies de sécurité entre le fait
d’être entièrement sur site et le déplacement de certains composants vers le cloud.
Malheureusement, cela signifie que les outils traditionnels sur site peuvent ne pas traiter tous
les risques de sécurité. Par conséquent, les organisations doivent s’assurer qu’elles disposent
de l’expertise et des outils nécessaires pour repérer les lacunes en matière de visibilité et de
contrôle pendant la transition.
1. Le modèle de service IaaS offre des économies de temps et d’argent, car l’installation
et la maintenance des logiciels / matériels informatiques se font en interne.
2. L’IaaS offre également une meilleure flexibilité puisque les ressources matérielles à la
demande peuvent être plus facilement adaptées à vos besoins spécifiques.
3. Le modèle IaaS, avec sa complexité, son temps et ses économies de coûts, est
particulièrement précieux pour les grandes entreprises, qui disposent de grandes
équipes informatiques internes capables de créer et de gérer la plate-forme par elles-
mêmes sans avoir à compter sur un partenaire externe. L’IaaS offre la flexibilité
souhaitée pour mouler la plate-forme en fonction de leurs besoins spécifiques.
1. Le modèle PaaS est très populaire car il offre le meilleur des deux mondes. Le
fournisseur est responsable du déploiement et de l’installation du matériel et des
logiciels, tandis que le client gère l’optimisation, le réglage fin et l’installation des
mises à jour logicielles et matérielles.
2. Le PaaS offre une flexibilité ainsi qu’un gain de temps pour la gestion et le
déploiement de grands projets de développement – en gérant la mise en œuvre de la
plate-forme et la production instantanée.
f. Avantages du SaaS
1. Tout en étant plus coûteux que ses homologues IaaS et PaaS, le SaaS offre
d’immenses avantages en termes de gain de temps et de déploiement rapide. Le client
n’a pas besoin de se préoccuper de l’infrastructure et de la gestion de l’alignement du
logiciel. Il n’y a pas besoin d’installation ou de maintenance logicielle.
2. Le fournisseur fournit toutes les mises à niveau logicielles et matérielles nécessaires, y
compris la sécurité.
3. Le test et le déploiement de nouvelles applications logicielles sont rapides et faciles.
4. Le modèle SaaS est le plus populaire, et il est responsable de la croissance rapide de
l’adoption des services de cloud computing aujourd’hui.
5. Une stratégie de déploiement cloud efficace doit prendre en compte les besoins
spécifiques de l’organisation. De nombreuses organisations trouvent qu’il est facile de
déployer et d’utiliser des modèles SaaS qui ont des plans d’abonnement mensuels à
faible coût.
XVII. Conclusion :
Dans ce chapitre, nous avons présenté une étude sur le principe de cloud computing, en
passant par les types des clouds vers la migration.
Dans le chapitre suivant nous allons présenter la spécification des besoins et la conception.
Spécification des besoins et conception
I. Introduction
Après avoir présenté le cadre général du projet, lors de ce chapitre nous nous intéressons à
l’analyse des différents besoins fonctionnels et non fonctionnels. Nous commencerons par
l’identification des différents acteurs puis nous exposerons la conception statique et
dynamique de notre solution à travers les diagrammes de classes et de séquences.
Ce diagramme nous permet d’identifier les différentes actions réalisées par l’administrateur
via le système Nagios. En effet, l’administrateur réseau a le droit de créer de services,
consulter l’état des machines, des serveurs, gestion des alertes et des incidents, consulter les
notifications, création de nouveaux services, créer des groupes des machines, consulter un
tableau de bord général, installez des applications sur les machines en espace cloud de
système NAGIOS. Afin d’accéder à toutes ces fonctionnalité, l’administrateur doit être
authentifié. Afin de mieux comprendre notre système, nous présentons le raffinement des
différents cas d’utilisation.
i. Gestion des utilisateurs :
IV. Conception
Dans cette section nous exposons la conception statique et dynamique de notre solution en
étudiant le diagramme de classes et les diagrammes de séquence qui présentent les différentes
interactions entre les divers composants de notre application.
a. Conception statique
Dans cette partie nous détaillons le diagramme de classes. En fait, nous décrivons les
différents objets et méthodes de chacune de ces classes.
i. Diagramme de classes
La figure ci-dessous présente le diagramme de classes qui est composé de neuf classes : la
classe administrateur, la classe moniteur réseau Nagios, la classe équipements, la classe
système d’exploitation, la classe machine Windows/Linux, la classe routeur, la classe serveur,
la classe commutateur et la classe services.
Classe administrateur
Classe utilisateur
Classe machine
Classe serveur
Classe application
Classe service
Classe état machine
Classe état serveur
Classe groupe
Classe incident
Classe notifications
Classe alerte
Classe affectation
Classe journal
Scénario nominal
1. L’administrateur s’authentifie.
Tableau ci-dessous
Nagios Dashboard :
Figure 33 : tableau de bord de l'accueil sous Nagios
[6]: http://uml.free.fr/index-cours.html
[7]: https://openclassrooms.com/fr/courses/4507926-initiez-vous-a-la-gestion-de-projet-agile
[8]: https://www.my-mooc.com/fr/mooc/gerez-votre-projet-avec-une-equipe-scrum/
[10]: https://www.next-decision.fr/editeurs/modelisation/sap-power-amc
Annexe