Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
et de la Recherche Scientifique
Université de Carthage
Institut National des Sciences
Appliquées et de Technologie
Sujet :
Sécurisation des flux et contenus avec la technologie
BlueCoat
Entreprise d’accueil :
Soutenu le 07/10/17
Sujet :
Sécurisation des flux et contenus avec la technologie
BlueCoat
Entreprise d’accueil :
Soutenu le 07/10/17
A ma tendre famille
Pour leur bienveillance et amour
Keskes Dorra
Remerciements
Avant tout, J’exprime mes sincères reconnaissances à l’égard de tous ceux qui ont contribué à ma
formation.
Monsieur Fayçal KABANI, pour m’avoir accepté en stage au sein de son entreprise, pour m’avoir fait
confiance, et pour m’avoir permise d’intervenir auprès des clients de 2SB et d’assister aux différentes
formations dont j’ai pu bénéficier.
Monsieur Roshan MANDIL mon encadrant de stage qui a dirigé mon projet de fin d’études, pour son
engagement permanent, son soutien sans faille, ses conseils et explications et la confiance totale qu’il
m’a accordée.
J’adresse aussi mes profonds remerciements à Monsieur Raki HAMMAMI, mon encadrant au sein de
l’INSAT, pour son encadrement, son soutien, sa disponibilité et ses conseils qui m’ont guidé tout au
long de mon stage.
Monsieur JEMAI Abderrazak, pour l’honneur qu’il a bien voulu me faire en acceptant de présider le
jury chargé d’évaluer ce travail.
2 Critique de l’existant............................................................................................................................21
3 Spécifications des besoins ..................................................................................................................21
3.1 Les besoins fonctionnelles .........................................................................................................22
2.3 Authentification...........................................................................................................................38
2.3 Vérification de la mise en place d’un filtrage par catégorie / applications .........................79
2.7 Vérification de la configuration des fonctions de sécurisation contre les attaques DOS .83
Aujourd’hui, la connectivité à Internet ne cesse de s’étendre non seulement auprès des grandes
entreprises mais aussi auprès du public (particuliers) et des organisations. On s’aperçoit que dès lors le
paradigme informatique change, la protection des organisations, du gouvernement et des citoyens
contre les logiciels malveillants devient un défi car les attaques sont d’une part de plus en plus
sophistiquées et d’autre part très dynamiques.
En effet, Les premières activités malicieuses avaient pour but de détruire les données par contre les
logiciels malveillants actuels se focalisent, désormais, sur le vol des données sensibles et autres activités
illicites.
Malgré l'existence de solutions de sécurité traditionnelles, les entreprises constatent des augmentations
des équipements défectueux. Cependant, ils ne sont généralement pas en mesure de localiser la source
de la menace avec précision et de prendre les actions correctives correspondantes.
Aussi, l’accélération du télétravail et la mobilité complique la capacité des responsables informatiques
à soutenir efficacement et à protéger les utilisateurs finaux en dehors de l’entreprise.
De plus, L'année dernière, les menaces Web ont augmenté de plus de 500%, le volume des variantes
de code malveillant augmentant de près de 300% et des attaques de phishing de 600%. Et ils évoluent
constamment. 90% des menaces Web proviennent désormais de sites Web fiables et plus de 40% des
menaces de codes malveillants ciblent les navigateurs Internet plutôt que les systèmes d'exploitation
sous-jacents, ce qui a été la cible traditionnelle. En outre, l'ampleur et la nature dynamique de tous les
organismes de services Web 2.0 et Cloud signifient que les attaques réussies contre ces services peuvent
se propager plus rapidement et avoir un impact plus large.
Pour lutter contre ce paysage de menaces énormes, des couches de sécurité supplémentaires s’imposent
pour fournir une diversité de protection pour prévoir les nouveaux risques et optimiser le niveau de
sécurité.
C’est dans ce cadre que s’articule notre projet de fin d’étude intitulé mettre en place une solution pour la
sécurisation des flux et des contenus d’une entreprise.
Le présent rapport qui détaille notre contribution, se compose de Cinque chapitres.
Un premier chapitre qui permet de délimiter le cadre du projet entre la présentation de l’organisme
d’accueil et la mise du sujet dans son contexte. Un deuxième chapitre conçu à base d’analyses qui nous
1
ont menés à la rédaction des besoins fonctionnels et des choix techniques. Ensuite, le troisième
chapitre de conception sert à exposer l’architecture de la solution et de présenter les différentes
technologies que nous avons utilisées. Un quatrième chapitre viendra démontrer les réalisations
effectuées pour aboutir à la solution finale qui a été intégrée, mise en service et testée. Et nous
concluons ce rapport par un cinquième chapitre pour valider le travail effectué et répondre aux
exigences de notre client.
2
Chapitre 1
Introduction
L’étude préliminaire est la première phase de tout projet réussi. Elle consiste à bien positionner le
projet. Ainsi, ce premier chapitre va servir dans un premier temps à la description du contexte général,
définissant l’organisme d’accueil, ses activités, ses fonctionnalités, et son domaine de travail. Nous
aborderons, ensuite, le cadre de notre projet, nos objectifs et la méthodologie à suivre. Dans un
deuxième temps nous allons effectuer une étude préalable des notions de bases pour comprendre
l'aspect général du projet.
3
1 Présentation générale
1.1 Organisme d’accueil
4
Un support technique de haute qualité assuré par des spécialistes ayant à leur actif plusieurs
années d'expériences.
Un support commercial au service des revendeurs avec un apport régulier d'affaires, un support
produit adapté et des possibilités de prêts de matériel.
Une logistique performante à votre service, suivi de commandes et factures.
Le métier de grossiste en tant que tel est basé essentiellement sur la revente de produits des fournisseurs
mais ne se limite pas qu’à ça. L’entreprise 2SB tout en étant grossiste offre des valeurs ajoutées, en
proposant plusieurs services comme l’intégration à ses clients, qui le positionne aujourd’hui comme
l’un des leadeurs du marché. [1]
1.1.3 Positionnement de L’entreprise
Le positionnement généralement correspond à l'image que l’entreprise veut donner à son client et
concurrents de ses produits. Chaque entreprise à un positionnement particulier tout en prenant
compte:
Les attentes, les spécificités et les besoins des cibles.
Le positionnement des concurrents.
Et les caractéristiques du produit (son avantage concurrentiel) et des capacités de l’entreprise.
2SB a mis en œuvre les moyens nécessaires pour permettre à l’entreprise de pénétrer durablement son
marché. Et il se trouve que 2SB se positionne, aujourd’hui, comme étant un des leadeurs du secteur.[1]
1.1.4 Gamme de produits et services proposés
2SB distribue des produits de sécurité informatique et on trouve dans leur portefeuille, des produits de
marques reconnues mondialement tel que BlueCoat ainsi que des solutions innovantes et adaptées aux
besoins d'aujourd'hui.
De la sélection des meilleures solutions de sécurité informatique à la formation de ses partenaires
revendeurs, 2SB aide les clients dans leurs processus d'intégration.
La société porte un effort particulier sur la notion de Service Client en leur apportant une approche
globale sur l’ensemble solution/environnement. [1]
2SB propose différents produits :
Firewalls
Cryptage et Gestion des VPNs
Proxy
Anti-virus
Sondes de détection d’intrusion
5
Analyseurs de logs
Scanners de vulnérabilité
Accélérateurs SSL et de flux
Equilibreurs de charge
Solutions d’administration centralisée
1.1.5 L’organigramme de l’entreprise
Directeur Général
"KABANI Fayçal"
Directrice
Direction Marketing Direction Financière Direction Technique
Commerciale
"DZEGO Falonne Line" "LAGARRE Caroline" "MANDIL Roshan"
"LAAROUSSI Hédia"
Stagiaire
"KESKES Dorra"
Pour présenter le projet, nous commençons par exposer le contexte général ainsi que les différentes
problématiques. Puis, nous poursuivons par l’énoncé des différents objectifs de la solution à concevoir.
Nous finissons par la méthodologie à suivre et la planification du déroulement du projet.
6
Les leaders technologiques dans ce domaine se focalisent plus que jamais sur une sécurité globale
intégrant le réseau interne, les services Cloud, les applications mobiles, et l’Internet des objets (IoT).
Les DSI et autres responsables ont besoin d'un nouveau modèle de sécurité qui mélange le Cloud et
les installations sur site pour maîtriser le chaos. La sécurisation des flux et des données sur site doit
être complétée par une sécurisation des flux et des données sur le Cloud.
Il n'est clairement plus possible de relier entre eux des dizaines de produits de point de sécurité qui
protègent des équipements individuels, des réseaux, et des applications.
Désormais, pour gérer la sécurité et la gouvernance de la génération Cloud, il faut une plateforme
réseau unifiée et une architecture de sécurité flexible. [2]
C’est dans ce contexte que plusieurs acteurs majeurs de la sécurité informatique mondiale se
positionnent pour proposer leurs solutions.
De ce fait, Une société Cliente a fait appel à 2SB vu les défaillances présentes dans son système
d'information et son architecture réseau.
Absence de contrôle et de visibilité sur la totalité de ses sites (site central, sites distants,
utilisateurs nomades)
Absence d’une politique de filtrage uniforme et centralisée
Mauvaise gestion de la bande passante
Absence d’analyse du trafic transitant depuis et vers le réseau de l’entreprise
1.2.2 Objectifs du projet
L’objet du stage que nous avons effectué, c’est précisément de répondre aux besoins de protéger les
utilisateurs et les données quel que soit l'appareil utilisé où qu'il soit dans le monde, quel que soit le
réseau utilisé sur site, sur internet, ou sur le Cloud et quelle que soit l'application utilisée partant du
contrôle des accès, la protection contre les menaces avancées, l'analyse des réseaux jusqu’à la sécurité
pour l'entreprise.
L'objectif est aussi de garantir la visibilité complète, l'application des politiques en vigueur, et
l’inspection détaillée de la charge pour protéger les utilisateurs et les données, même en cas de
chiffrement, sur n’importe quel terminal (mobile, véhicule connecté, site Internet connecté, ou centre
de données)et en conservant ce contrôle tout en migrant en partie vers le Cloud en toute sécurité .
1.2.3 Planification du déroulement du projet
Les différentes tâches et responsabilités incluent :
l'analyse des besoins et des contraintes,
l’étude des technologies existantes,
7
la spécification des architectures et des solutions de sécurisation,
la réalisation des maquettes,
la validation des produits,
la qualification des solutions,
la réalisation des présentations et des démonstrations techniques,
la rédaction des documentations,
la contribution aux réponses aux cahiers des charges,
le support technique
Pour accompagner le client dans la gestion de ce projet d’intégration ambitieux et complexe, La
méthodologie était de s’appuyer sur trois phases du métier d’intégration :
Phase1 : phase de conception
Cette phase comporte différentes réunions techniques avec le client. Ces réunions vont
permettre de se mettre d’accord sur la solution adéquate et sur les différents impacts de cette
solution sur le fonctionnement du réseau. La réunion d’initialisation avec le client a pour
objectif de présenter l’équipe de projet ainsi que le planning et les différentes étapes de
déroulement du projet. Parallèlement à ces réunions, l'équipe de projet met en place une
maquette de l’architecture cible pour tester et valider le fonctionnement de la nouvelle solution.
Phase2 : phase d’intégration et de déploiement
Cette phase consiste à livrer les différents équipements utilisés dans le projet, à installer
physiquement les différents équipements (installation dans la Baie, câblage, etc.) puis à mettre
en place la nouvelle solution (configuration des équipements, tests, etc.). Cette phase représente
la phase la plus importante du projet et son bon déroulement est décisif.
Phase3 : phase de validation
Cette phase consiste à s’assurer du bon fonctionnement de la solution mise en place.
Afin de modéliser cette organisation, nous allons présenter le planning que nous avons suivi pendant
la réalisation du projet.
Ce projet est divisé en 6 étapes :
- Etape 1 : Documentation et recherche préliminaires.
- Etape 2 : Analyse des besoins du client et conception de la solution de sécurisation des flux et
des contenus.
- Etape 3 : Mise en place de la solution
8
- Etape 4 : Test et validation de la solution
- Etape 5 : Rédaction des documents d’exploitation
- Etape 6 : Rédaction du rapport
9
2.2.3 Risques et types d’attaques liés au aux flux entrants
2.2.3.1 L’attaque déni de service (DoS : Deny of Service)
L’attaque DoS vise à saturer un réseau et rendre indisponible un système et les services associés.
Dans ce type d’attaque, l’attaquant utilise un ou plusieurs systèmes informatiques pour forcer la
surcharge d’un système ciblé hors ligne avec un trafic inutile.
Une telle attaque peut rendre un site web ou des services injoignables pendant longtemps ce qui aura
pour cause la perte potentielle de clients, et ainsi des conséquences désastreuses pour les entreprises.
Les attaques par déni de service peuvent être effectuées selon différents méthodes :
Ping Flood (ICMP Flood) : Le principe de cette attaque est :
- envoyer des « ICMP echo requests » à un grand nombre d’hôtes en utilisant une adresse de
broadcast, et ayant comme adresse IP source celle de la victime.
- Les « ICMP echo reply » vont donc être dirigés vers la victime et ainsi rapidement épuiser
la bande passante du réseau, cela empêchera alors les paquets légitimes de passer vers leur
destination.
SYN/TCP Flood : Le principe de cette attaque est :
- envoyer une multitude de paquets TCP avec le flag SYN ayant une adresse source falsifiée
à une victime pour saturer un serveur.
- Chaque paquet correspond à une demande de connexion, d’où l’ouverture de plusieurs
connexions ‘half-opened’, en renvoyant un paquet TCP/SYN-ACK (Acknowledge) à
l’adresse IP source falsifiée.
- La victime reste en attente d'un paquet en réponse qui ne viendra jamais provenant de
l'adresse IP de l'expéditeur.
- Les connexions ‘half-opened’ saturent donc le nombre de connexions que le serveur est
capable de faire, l'empêchant ainsi de répondre aux demandes légitimes jusqu'à la fin de
l'attaque.
UDP Flood : Le principe de cette attaque est :
- envoyer une multitude de paquets UDP ayant une adresse source falsifiée à destination de
ports aléatoires sur un hôte distant. Le trafic UDP étant prioritaire sur le trafic TCP, ce
type d'attaque peut vite troubler et saturer le trafic transitant sur le réseau.
- En conséquence l’hôte distant va vérifier quelles applications écoutent sur ces ports, il va
se rendre compte qu’aucunes applications n’écoutent sur ces ports et va donc répondre à
10
l’expéditeur avec des paquets ‘ICMP Destination Unreachable’. Ainsi, pour un grand
nombre de paquets UDP, le système victime sera contraint à répondre par un grand
nombre de paquets ICMP et finalement être injoignable par d'autres clients. Généralement
les attaquants usurpent l'adresse IP des paquets UDP pour veiller à ce que les paquets de
retour ICMP excessives ne les atteignent. [6]
2.2.3.2 L’attaque par virus et codes malicieux
Le virus est un morceau de code logiciel avec la possibilité unique de se multiplier et de se propager
sur d'autres ordinateurs et qui a pour but de consommer ou paralyser les ressources système.
Les virus sont de plus en plus évolués, ils peuvent s'auto modifier pour échapper à une éventuelle
détection (virus polymorphes). D'autres types peuvent tenter de leurrer le système en s'installant dans
des secteurs défectueux ou non utilisés (virus furtifs).
Le code malveillant en général se réfère à des programmes informatiques qui sont écrits spécifiquement
pour causer des dommages aux ordinateurs qui y sont infectés. [6]
2.2.3.3 Chevaux de Troie
Le cheval de Troie est une autre forme de code malveillant. Il est similaire à un virus par la façon dont
il est transmis. Cependant, contrairement à un virus, un cheval de Troie ne se réplique pas. Plutôt, il
reste dans la machine cible, infligeant des dégâts ou de permettre à quelqu'un sur un site distant de
prendre le contrôle de l'ordinateur.
Un cheval de Troie se fait passer souvent comme un programme légitime mais, une fois installé sur la
machine de la victime, il effectue des activités illicites et destructrices. En général, le but d’un cheval
de Troie est de créer une porte dérobée (backdoor) pour qu’un pirate informatique puisse ensuite
accéder facilement l’ordinateur ou le réseau informatique. Il peut alors voler des mots de passe, copier
des données ou exécuter des actions nuisibles. [6]
2.2.3.4 Les vers
Le ver est connu comment étant un autre type de code malveillant. C’est un type de virus qui peut se
reproduire à travers tous les différents nœuds ou connexions qui composent le réseau. Les vers peuvent
contenir des charges nuisibles mais généralement ils causent la plupart de leurs dommages en
s’attachant au réseau et ainsi utilisent les ressources précieuses telles que la mémoire et le temps de
traitement des processeurs. Par conséquent ils ralentissent voir même paralysent complètement le
réseau d’une entreprise. [6]
11
2.2.3.5 Les applications web vulnérables
Une vulnérabilité dans une application est généralement un défaut du système ou d’une faiblesse dans
l’application qui pourrait être exploitée pour compromettre la sécurité de l'application.
Une fois que l'attaquant a trouvé une faille et a déterminé comment y accéder, l'attaquant a la possibilité
d'exploiter la vulnérabilité dans l’application pour compromettre la confidentialité et l'intégrité des
ressources possédées par l’application, ses créateurs et ses utilisateurs. Les pirates s'appuient
généralement sur des outils ou des méthodes spécifiques pour découvrir les vulnérabilités dans les
applications web.
SQL injection : Les failles SQL donnent la possibilité d’injecter du code dans les requêtes SQL
qui sont appelées sur une page web. Les conséquences d'une faille SQL peuvent être multiples,
du contournement de formulaires d'authentification au dump complet de la base de données
en passant par l'exécution arbitraire de code.
Dans le plus simple et général des cas une application est vulnérable aux attaques de ce
type quand elle permet aux potentiels attaquants d’interagir avec la base de données et
d’exécuter des requêtes arbitraires.
Cross Site Scripting (XSS) : Cross Site Scripting (XSS également connu sous le nom de CSS)
est considéré comme l'une des techniques les plus courantes de piratage de la couche
application. Cette technique permet à un attaquant d'intégrer un code malveillant JavaScript,
VB Script ou HTML dans le code source d’une page web dynamique vulnérable dont le but
est de tromper l’utilisateur. L'exécution du script sur sa machine permet à l’attaquant de:
- Recueillir des informations privées
- Rediriger l'utilisateur vers un autre site sous son contrôle
- Voler les cookies
- Exécuter du code malveillant sur les systèmes des utilisateurs finaux.
File Inclusion : Dans ce type d’attaque attaque, l’attaquant exécute son propre code sur une
page web vulnérable. L’attaque implique une importation du code dans un programme en
profitant du fait que ce programme ne procède à aucune vérification et validation de ses
entrées. Si un attaquant arrive à inclure son propre code malveillant sur une page web, il est
possible de ‘convaincre’ un script PHP d’inclure un fichier distant au lieu d'un fichier du
système de fichiers local.
Comme nous le voyons il existe beaucoup de types d’attaques qui sont associés aux flux entrants dans
une entreprise et qui peuvent avoir des conséquences désastreuses. Les entreprises doivent dès lors
12
mettre en œuvre les moyens efficaces pour lutter contre ces attaques. Cependant les attaques ne se
limitent pas qu’aux flux entrants. [6]
2.2.4 Risques et types d’attaques liés au aux flux sortants
La préoccupation d’un administrateur réseau/sécurité au sein d’une entreprise est le périmètre de son
réseau. Dans la plupart des cas, les entreprises dépensent beaucoup de temps à se protéger contre les
trafics qui pourraient entrer dans leurs réseaux alors qu’elles ne consacrent pas assez de temps aux
trafics qui pourraient quitter leurs réseaux. Or, les risques associés à ces trafics sortants sont aussi
important que ceux liés aux flux entrants.
S'il n'y avait qu'une seule raison qui faisait clairement ressortir la nécessité de filtrer le trafic sortant
tout comme les entreprises filtrent les flux entrants, alors la raison serait les attaques de déni de service
distribué (DDoS). Des entreprises qui ont des flux sortants non filtrés sont très susceptibles de devenir
un participant d’un tel type d’attaque. Mais les attaques DDoS ne sont pas la seule raison pour filtrer
les flux sortants.
Dans le cas des connexions sortantes, les risques potentiels comprennent toutes les variantes des
logiciels installés sur chaque machine capable de faire les connexions sortantes. Cela comprend des
technologies telles que Flash, programmes FTP, Google Chrome, Internet Explorer, Adobe Acrobat,
Mozilla Firefox, entre autres.
Pour lutter contre ces différents types d’attaques liées aux flux entrants et sortants que nous avons
vues, les entreprises ont recours à des solutions de sécurités traditionnelles. Ces solutions de sécurités
sont très efficaces pour contenir ces types attaques. Néanmoins ces solutions traditionnelles basées sur
les signatures sont inefficaces contre les menaces avancées (Advanced Threats) car elles ne disposent
de signatures connus pour les détecter. [6]
2.3 Les menaces potentielles (Advanced Threats)
2.3.1 Définition d’une menace avancée
La menace informatique est le résultat de diverses actions susceptibles de nuire dans l’absolu à un
système informatique en provenance de plusieurs origines.
Une menace avancée « Advanced Persistent Threat (APT) », comme on les appelle, est une attaque
réseau dans laquelle une personne non autorisée obtient l’accès à un réseau et reste inaperçue pendant
une longue période. L’intention derrière une telle attaque est de voler des données plutôt que de causer
des dommages au réseau ou à l’entreprise. [7]
13
2.3.2 Les menaces avancées
Les attaques APT visent surtout les entreprises, qui traitent des informations à forte valeur ajoutée,
comme la défense, le secteur financier, entre autres.
Dans une attaque basique, l'intrus essaie d'entrer et de sortir le plus rapidement possible afin d'éviter
d’être détecté par des systèmes de détection d'intrusion réseau (IDS). Alors que pour une attaque APT,
l'objectif n'est pas d'entrer et de sortir, mais d’assurer un accès continu. Pour éviter d’être détecté,
l'intrus doit constamment réécrire le code et employer des techniques d'évasion sophistiquées.
Les caractéristiques des attaques APT sont :
Ciblées : elles ciblent des entreprises spécifiques dans le but de voler des données spécifiques
ou de causer des dommages spécifiques.
Persistantes : elles ont différentes phases pendant lesquelles elles évoluent sur une longue
période. Avant de lancer une attaque APT, les attaquants connaissent seulement l’entreprise et
ses objectifs. Ils ne savent pas où les données ciblées sont sauvegardées, quels contrôles de
sécurité sont déjà en place ou quelles vulnérabilités existent qui pourraient être exploitées.
Evasifs : elles sont systématiquement conçues pour contourner les produits de sécurité
traditionnels que la plupart des entreprises ont utilisé pendant des années.
Complexes : Une menace APT donnée peut impliquer:
- l'ingénierie sociale à travers le téléphone pour identifier les personnes clés au sein de
l'entreprise ciblée.
- les emails de phishing envoyés à ces personnes clés avec des liens vers un site Web qui
exécute le code JavaScript personnalisé pour installer un outil d'accès à distance
- la technologie de cryptage
Parmi les APT, les vecteurs d’attaques les plus fréquents sont:
Les malwares personnalisés
Un morceau de code malveillant écrit pour compromettre une ou plusieurs entreprises ayant des
profils/activités similaires. Les APT faisant usage de logiciels malveillants sont très ciblés et spécifiques.
Il est possible de développer des signatures AV pour les attaques utilisant des malwares personnalisés.
Cependant, les attaquants ont compris que plus une attaque est nouvelle et qu’elle ne se propage pas
au-delà d’une petite communauté d’utilisateurs plus la chance d’être détectée diminue
considérablement. [6]
14
Le spear phishing
Spear phishing combine l'attaque de phishing, qui consiste à usurper l'identité d'un utilisateur en ayant
recours à des Spams et des sites web factices, avec des techniques d'ingénierie sociale pour construire
des attaques très ciblées. Spear phishing est largement utilisé contre les institutions financières.
L'attaquant exploite les informations personnelles ou publiques sur les individus afin de personnaliser
un email qui semble provenir d'une source légitime et ainsi inciter les personnes à répondre avec des
informations personnelles telles que nom d'utilisateur et mot de passe. [6]
Le ransomware
Ransomware est un code malveillant qui compresse les fichiers importants dans une archive cryptée et
supprime les fichiers originaux, rendant ainsi impossible l'accès aux fichiers à moins qu'une rançon soit
payée. Une fois la 'rançon' payée, l'utilisateur obtient le mot de passe pour déverrouiller ses fichiers.
Les attaques ransomware utilisent les émotions des utilisateurs cibles telles que la peur et l’embarras en
leurs indiquant que le ransomware a été causé suite à une des leurs action (téléchargement illégale,
visiter des sites inappropriés, entre autres.).
Aujourd’hui, aucun produit de sécurité seul ne peut offrir une couverture contre toutes ces stratégies
d’attaques APT. Il se doit d’adopter une stratégie de protection et une méthodologie multicouche dans
laquelle les mécanismes de détection multiples travaillent conjointement pour identifier des modèles
complexes de comportement évasifs. [6]
2.4 Méthodologie des attaques et Stratégies de protection
Pendant les trois dernières décennies, les logiciels anti-virus étaient très efficaces contre les
attaques de virus. Toutefois, les codes malveillants d’aujourd'hui se caractérisent différemment de ceux
du passé.
Les pirates ne cessent de concevoir de nouveaux codes malveillants pour éviter d’être détectés
par les logiciels anti-virus. Les attaques modernes pénètrent les systèmes de protection basés sur les
signatures existants en utilisant des techniques à multiples facettes visant à compromettre les systèmes.
La stratégie des pirates était alors d’examiner comment les solutions de sécurité traditionnelles
fonctionnent pour développer de nouveaux codes malveillants afin d’exploiter les failles. Du coup, Les
codes malveillants modernes ont la possibilité d’éviter d’être découverts et ainsi de déjouer l'ensemble
du processus sur lequel se reposent les systèmes de sécurité traditionnels.
En étant furtives et précis, les codes malveillants modernes évitent d’être détectés et n’infectent
pas un grand nombre de systèmes.
15
Les mesures de sécurités traditionnelles ne répondent pas adéquatement aux menaces
d'aujourd'hui. Sans une nouvelle posture de sécurité, de nombreuses attaques qui s’appuient sur les
techniques APT vont continuer à atteindre leurs objectifs. Pour faire face à cela il convient dans un
premier temps de comprendre les méthodes utilisées par les menaces APT et ainsi de développer une
stratégie de protection adéquate. [6]
Une menace APT procède selon trois phases qui peuvent durer plusieurs mois :
Phase 1
L’attaquant effectue une reconnaissance de l’infrastructure réseau de l’entreprise, identifie les
vulnérabilités, cordonne une attaque et infecte les hôtes cibles.
Phase 2
L’attaquant contrôle les hôtes infectés, met à jour son code malveillant, le propage à d’autres machines
et identifie les données ciblées.
Phase 3
L'attaquant extrait les données ciblées du réseau et procède à des actions sur celles-ci.
A ce stade, les attaquants contrôlent un ou plusieurs hôtes dans le réseau cible, peuvent établir
les connexions en utilisant des identifiants qui ont un accès privilégié et ont déjà identifiés les données
cibles (en supposant que les données étaient le but). La seule chose qui reste à faire est d'extraire les
données depuis le réseau vers leur serveur. Ce serveur peut être situé au même emplacement que
l'attaquant ou dans un pays étranger.
En se basant sur les caractéristiques et les modes de fonctionnement des attaques APT vus
précédemment, nous pouvons décrire les principales exigences d'une solution de sécurité efficace.
Ainsi une telle solution doit être :
- Sensible au contenu des données : Puisque les APT arrivent à pénétrer le pare-feu des
réseaux, en intégrant des codes malveillants dans le contenu transporté par les protocoles (qui
sont couramment utilisés et autorisés), les solutions doivent cependant être capables de faire
une analyse profonde des contenus qui sont transportés par les protocoles.
- Sensible au contexte : Comme la plupart des attaques APT utilisent du code développé sur
mesure et ciblent les vulnérabilités zero day, aucune signature d’antivirus n’est susceptible de
les identifier avec certitude. Sans signatures d'attaques définitives, nous devons compter sur
des indicateurs moins explicites. Bien que seul un indicateur suspect ne puisse suffire pour
identifier une attaque, il se doit d’analyser les autres indicateurs suspects qui sont dans le même
16
contexte et ainsi récolter suffisamment de preuves pour identifier de manière fiable les activités
malveillantes.
- Conscience des données : Bien que les entreprises cibles puissent ne pas savoir exactement
à quoi ressemble une attaque APT, la plupart des entreprises peuvent identifier leurs propres
données sensibles. Par conséquent, un ‘Data Loss Prevention’ (DLP) peut être appliqué
comme une couche de sécurité pour identifier les données sensibles et empêcher les transferts
sortants de ces données. [6]
2.5 Sécurisation dynamique des points d’accès internet
2.5.1 Définition du proxy
2.5.1.1 Serveur Proxy
Un proxy est un système matériel ou logiciel faisant fonction d'intermédiaire entre les ordinateurs d'un
réseau local et internet. Ses objectifs, le filtrage des services Internet auxquels les utilisateurs peuvent
accéder, l’accélération des performances du réseau et la protection des réseaux contre les intrusions
extérieures. [8]
2.5.1.2 Passerelle de sécurité
La passerelle web sécurisée est une solution de sécurité Web efficace assurant une protection contre
les menaces inégalée. C’est est un proxy évolutif conçu pour sécuriser vos communications web et
accélérer vos applications professionnelles. L'architecture proxy unique de cette solution lui permet de
surveiller, contrôler et sécuriser le trafic pour offrir une expérience sécurisée sur le Web et dans le
Cloud. [9]
2.5.1.3 Rôle du proxy
Identifier, gérer et connecter les protocoles les plus populaires web.
Définir des politiques globales d'utilisation qui peuvent être appliquées à tous les utilisateurs
(individuels ou des groupes).
Authentifier et autoriser l’accès utilisateur quand c'est nécessaire.
Filtrer les URL en utilisant la base de données et des définitions personnalisées.
17
2.5.2 Les types de proxy
2.5.2.1 Forward proxy
Un proxy en mode forward est un proxy "mandaté" par une application pour effectuer une requête
sur Internet à sa place. Ainsi, lorsqu'un utilisateur se connecte à internet à l'aide d'une application
cliente configurée pour utiliser un serveur proxy, celle-ci va se connecter en premier lieu au serveur
proxy et lui donner sa requête.
Le serveur proxy va alors se connecter au serveur que l'application cliente cherche à joindre et lui
transmettre la requête. [8]
Le serveur va ensuite donner sa réponse au proxy, qui va à son tour la transmettre à l'application cliente.
2.5.2.2 Reverse proxy
Conclusion
Avec ce premier chapitre nous avons défini le contexte général du projet ainsi que la méthodologie de
gestion du projet proposée par 2SB, chose qui nous a permis de dégager un plan précis du déroulement
du projet. Nous avons fini par expliquer les notions abordées dans le lexique du projet
Le chapitre qui suit va se baser sur une analyse de l’architecture existante du client afin de dégager ces
besoins pour la sécurisation des flux et contenus.
18
Chapitre 2
Plan
1 Analyse de l’existant ........................................................................................................................... 19
1.1 Architecture de l’entreprise ....................................................................................................... 20
Introduction
La phase de spécification des besoins est une phase vitale dans le cycle de vie de tout projet. Elle
permet de dégager ces exigences et d’en définir les besoins et les attentes du client. Dans ce deuxième
chapitre, nous allons analyser l’architecture cliente pour en dégager les failles et ainsi pouvoir
déterminer les besoins fonctionnels et non fonctionnels.
1 Analyse de l’existant
Une bonne compréhension de l’environnement informatique de notre société cliente aide à déterminer
la portée de notre projet de mise en place d’une solution avancée de sécurisation des flux et contenus.
19
Il est essentiel de disposer d’informations précises sur l’infrastructure réseau physique. En effet, ces
informations affectent en grande partie les décisions que nous allons prendre en considération dans la
conception de l’architecture hybride à mettre en place.
Le système d'information de notre client est complexe vu qu’il dispose d’un siège central, de deux sites
distants et beaucoup d’utilisateurs nomades.
En conséquent, une étude de l'architecture et de ces équipements de sécurité est primordiale
1.1 Architecture de l’entreprise
20
des antivirus sont utilisés sur toutes les machines branchées sur le réseau afin de vérifier si des
virus ont pu se propager.
Malheureusement, plusieurs sites distants ainsi que des utilisateurs nomades ne sont pas encore
protégés contre les risques d’attaques liés à l’accès à Internet.
2 Critique de l’existant
La solution de sécurité adoptée actuellement par l’entreprise cliente ne satisfait plus aux besoins.
En effet, la solution de filtrage Squid propose une multitude d’options et de services comme :
Le filtrage des requêtes des clients.
La restriction de l’accès à l’Internet.
L’authentification des clients.
L’accélération des accès aux ressources grâce au système de cache.
Mais, il ne permet pas
Le filtrage du trafic en fonctions des catégories et des applications
La visibilité sur le trafic chiffré qui représente un besoin primordial pour le client vu que
son trafic chiffré représente plus de 30%.
Le Contrôle de l'utilisation du Web dans le Cloud
L’analyse des contenus et la détection des malwares
De plus, l’utilisation d’une liaison MPLS est assez coûteuse afin de permettre à un site distant de
bénéficier de la protection existante au niveau du siège central.
Finalement, Suite à plusieurs réclamations de ralentissements lors de l’accès à Internet, nous avons
constaté l’absence de gestion de la qualité de service.
21
3.1 Les besoins fonctionnelles
La spécification fonctionnelle permet de décrire les principaux besoins que la solution doit satisfaire.
L'objectif principal est de concevoir et mettre en place une solution avancée pour la sécurisation des
flux et contenus sur une architecture hybride on promises et sur le Cloud.
Pour atteindre cet objectif, La solution doit répondre aux besoins suivants :
Mettre en place une architecture hybride (en local et sur le Cloud):
La solution doit garantir une sécurité des contenus et des flux pour le siège central ainsi que les
sites distants et les postes nomades. Cette sécurité doit englober les données locales ainsi que
celle sur le Cloud.
Garantir la confidentialité par authentification des utilisateurs:
La solution doit garantir l’un des principaux caractéristiques de la sécurité informatique qui est
la confidentialité en fournissant un moyen d’authentifier les utilisateurs selon le profil et selon
la localisation.
Etablir une politique de filtrage uniforme et centralisée en fonctions des catégories et des
applications:
La solution doit garantir que la politique de sécurité à mettre en place soit appliquée d’une
façon centralisée pour tout utilisateur quel que soit sa géolocalisation (dans le siège central,
dans un des sites distants ou nomades).
Analyser le trafic chiffré par une interception SSL:
La solution doit garantir l’interception de tout trafic même chiffré pour analyser et inspecter
son contenu.
Gérer la bande passante et mettre en place l’accélération web grâce au caching:
La solution doit garantir l'accélération Web, la mise en cache des objets et la mise en place de
techniques d'optimisation des protocoles telles que le pipelining. Elle doit fournir également
une compression de niveau HTTP et un cadre de stratégie granulaire pour contrôler ou réécrire
des classes spécifiques de requêtes et de réponses http afin de gérer la bande passante.
Dégager des tableaux de bord et des rapports:
La solution doit fournir un tableau de bord de rapport, qui affiche des résumés de haut niveau
des activités de navigation Web ainsi qu’une visibilité puissante sur toutes les activités des
utilisateurs liées au Web.
22
3.2 Les besoins non fonctionnels
Les besoins non fonctionnels représentent les exigences implicites auxquelles la solution doit répondre.
Ainsi à part les besoins fondamentaux, Il s’agit des caractéristiques en matière de:
Flexibilité : Vu la croissance de l’Internet, la solution doit être flexible pour des éventuels
changements en termes de configuration de la politique de sécurité.
Usage : la partie de la solution concernant la gestion des logs et des rapports doit être facile à
manipuler.
Transparence: La solution de sécurisation doit être assez transparente pour les utilisateurs.
Délai : La mise en place de la solution doit être effectuée dans le temps imparti.
23
5 Modélisation des besoins
Nous allons modéliser les besoins de notre solution au moyen de diagramme de cas d’utilisation qui
sert à donner une vision globale du comportement fonctionnel du système et décrire des interactions
entre les acteurs et les fonctionnalités du système.
5.1 Diagramme de cas d'utilisation
Un cas d’utilisation est un flot d’événements complet et significatif, il est initié par un acteur pour
invoquer des fonctionnalités du système. La collection de tous les cas d’utilisations constitue l’ensemble
des possibilités d’utilisation du système.
24
5.2 Description de quelques cas d'utilisation
Nom Acteur Pré condition Description
Effectuer les Administrateur Authentification L’administrateur accède aux équipements
configurations de l'administrateur afin d’effectuer les configurations de base
basiques (DNS, NTP, Services, etc…)
Conclusion
Au cours de ce chapitre nous avons pu mettre le point sur les défaillances de l’architecture réseau de
notre client et ainsi dégager les besoins fonctionnels et proposer une solution pour palier à ces
problèmes
25
Chapitre 3
26
Introduction
Le but de ce troisième chapitre est d’effectuer, dans un premier temps, la conception de l’architecture
à déployer. Dans un second temps, Nous allons présenter les différentes solutions existantes sur le
marché afin d’appuyer le choix du client pour la solution BlueCoat. Nous finissons par aborder les
différentes fonctionnalités des solutions de la technologie élue.
27
Solution Internet
Cloud
Internet
Utilisateurs nomades
Firewall
LAN2 Zone
DMZ 50 utilisateurs
LAN1
10 Mbps
Solution Internet
Cloud
28
1.2.1 Diagramme de séquence de la sécurisation d’un utilisateur du siège central
29
1.2.2 Diagramme de séquence de la sécurisation d’un utilisateur du site de Lyon
30
1.2.3 Diagramme de séquence de la sécurisation d’un utilisateur du site de Toulouse
31
1.2.4 Diagramme de séquence de la sécurisation d’un utilisateur nomade
32
une protection Web rapide et complète grâce au plus grand réseau de détection des menaces
au monde, avec la plus grande visibilité et la plus grande empreinte
un filtrage d'URL traditionnel avec une analyse de contenu dynamique pour atténuer les risques
de conformité, de responsabilité et de productivité
une protection avancée contre les logiciels malveillants
empêcher les données confidentielles de quitter le réseau en créant des règles contextuelles
pour DLP basique
contrôler facilement l'utilisation de centaines d'applications Web 2.0 et plus de 150 000 micro-
applications.
33
une protection complète de tous les aspects du trafic web au sein d'une architecture de
composants logiciels de hautes performances.
une protection contre les fuites de données et d'informations confidentielles, sensibles ou
réglementées via des vecteurs tels que les sites de réseaux sociaux, les blogs et les wikis. [12]
Écosystème de
l'Intelligence de X
la menace
Application
d’une politique
granulaire
34
Application,
opérations,
contrôles
Proxy SSL et
décryptage des X X X
flux (Pas de décryptage) (Pas de décryptage) (Pas de décryptage)
Qualité de
service
(Gestion de la
bande passante)
Tableau 2: Tableau comparatif des solutions existantes sur le marché [14]
35
garantissent la protection des réseaux d’entreprise contre les menaces issues du Web grâce à la large
gamme de produits de sécurité Web, des solutions de création et de configuration de règles de sécurité,
un puissant logiciel de reporting et une solution de filtrage des contenus.
De plus, suite aux présentations et différentes démonstrations techniques que nous avons effectuées
pour notre client, Nous avons réussi à le convaincre d’opter pour la meilleure solution qui répond à
son besoin qui est la solution BlueCoat.
36
Contrôle de l'utilisation du Web et du Cloud
Le ProxySG permet un contrôle des contenus sensibles et l’identification des applications en Cloud. Il
permet ainsi de réduire les risques posés par les «Shadow IT».
Performance accélérée de l'application Cloud
Le ProxySG fournit la mise en cache de contenu et l'optimisation du trafic afin d'assurer la disponibilité
des applications Cloud. Il offre une gestion avancée de la bande passante, avec des compressions de
médias en continu. [11]
2.2 Les architectures supportées
La solution Blue Coat offre une grande flexibilité de déploiements. Les différentes architectures sont
réparties en 2 familles :
Mode proxy explicite
Mode proxy transparent
2.2.1 Mode Proxy Explicite
Dans ce mode, le proxy est explicitement déclaré dans le navigateur. Les méthodes généralement
utilisées sont :
le fichier PAC (Proxy Auto_configuration File)
l’auto détection de proxy
une configuration IP ou DNS
Il est possible de contrôler cette configuration de manière centralisée grâce aux GPO Microsoft ou
tout outil de gestion de parc.
Le proxy peut être positionné à tout endroit du réseau, une DMZ ou le réseau local sont en général
utilisés. [8]
Voici un exemple de proxy en DMZ avec un fichier PAC :
2.3 Authentification
Le ProxySG offre un large choix d’authentification, avec une mise en œuvre qui est dépendante des
normes RFC et du choix d’architecture.
2.3.1 Protocoles d’authentification
Sur l’équipement les protocoles supportés sont :
Active Directory avec un agent BCAAA (avec tous les types : basic, NTLM, Kerberos)
Active Directory avec intégration au domaine sans agent (avec tous les types : basic,
NTLM, Kerberos)
Active Directory en mode SSO
LDAP(s)
Base locale
2.3.2 Mécanismes d’authentification
A travers les multiples protocoles supportés, plusieurs types d’authentification s’appliquent :
Authentification http de type proxy : ce mode utilise le code HTTP 407 et n’est autorisé
qu’en proxy explicite
Authentification http de type serveur : ce mode utilise le code HTTP 401 et nécessite une
redirection sur une virtual URL lors de l’authentification. Il est notamment utilisé pour les
déploiements en proxy transparent
Lecture de jetons de session utilisés dans les mécanismes SSO
Identification d’IP source utilisé avec un Active Directory (Windows SSO)
38
Lecture d’entête HTTP notamment utilisé lors du chainage de proxy
Une fois l’authentification réalisée, il est nécessaire d’utiliser un mécanisme de persistance pour
reconnaître l’utilisateur lors de ses requêtes suivantes :
Session TCP : toutes les requêtes de la session en cours appartiennent à l’utilisateur, il y a
une authentification par session TCP
IP : toutes les requêtes de l’IP source sont automatiquement authentifiées pendant une
durée paramétrable
Cookie : un cookie de session permet de suivre l’utilisateur, la durée du cookie est
paramétrable [8]
2.4 Application de la politique de sécurité
2.4.1 Introduction
Chaque client a des besoins spécifiques liés à son métier et à l’évolution de son système d’information.
L’application de la politique de sécurité et le traitement des cas particuliers nécessite donc un système
flexible et performant.
Pour répondre à l’ensemble des situations, la politique de sécurité est définit dans une interface
graphique appelée le Visual Policy Manager ou VPM. Cet outil permet la définition de règles pour
le traitement de chacune des requêtes traitées par le ProxySG. [8]
2.4.2 Webfilter / Webpulse
Notre solution de catégorisation Blue Coat Webfilter constitue un élément crucial pour la mise en
place de la politique de l’entreprise. En effet, elle délivre des informations précises sur la qualité du site
accédé par l’utilisateur.
Le résultat de la catégorisation est accessible en tant que critère de destination dans le VPM. [8]
2.4.2.1 Catégorisation des applications
39
Avec le Web 2.0, les sites web peuvent devenir des applications aussi riches que des logiciels installés
sur un système d’exploitation. Afin de fournir les moyens d’identifier et de contrôler ces nouveaux
usages, webfilter permet d’identifier l’application utilisée ainsi que de détailler les tâches réalisées par
l’utilisateur. [8]
2.4.2.2 Catégorisation dynamique
Suivre l’évolution d’internet en temps réel est un vrai challenge. La catégorisation dynamique permet
d’obtenir une solution hybride à la fois performante et très réactive :
Les sites connus sont catégorisés en local par le proxySG qui dispose de la base webfilter
en RAM
Les requêtes non catégorisées sont transmises au cloud WebPulse pour analyse en temps
réel et le résultat est mémorisé dans un cache.
Cette technologie est utilisée depuis 2004 et permet d’enrichir la base webfilter en continu. Lorsqu’il
n’est pas possible de déterminer automatiquement la catégorie d’un site, une analyse à l’œil humain
permet la catégorisation de ce site.
Aujourd’hui, WebPulse est constitué de 7 datacenter à travers le monde et réalise aussi bien la détection
de catégorie que de malware.
Ainsi nos 75 millions d’utilisateurs protégés à travers le monde génèrent quotidiennement pas moins
de 1,2 milliards de requêtes, ces requêtes nous permettent une grande réactivité par rapport à
l’évolution d’Internet. [8]
2.4.2.3 Protection contre les menaces
WebFilter/WebPulse n’est pas uniquement une solution permettant de contrôler l’usage d’internet.
C’est également un outil de sécurité puissant permettant de bloquer les requêtes malicieuses.
Pour ce faire, nos experts sécurités surveillent et analysent de nombreux paramètres afin de noter la
dangerosité des sites :
Le contenu exécutable, en particulier les javascripts
La réputation du serveur hébergeant le site
L’historique du nom de domaine
Tout fichier dangereux est analysé dans une batterie d’antivirus différent (plus de 10)
Une empreinte ADN est prise sur tous les sites malicieux afin d’en détecter les clones
40
Enfin, une grande attention est portée aux malnets. Nous réalisons la surveillance
permanente de plus de 1500 réseaux à travers le monde afin d’identifier et de catégoriser
toute nouvelle source s’ajoutant au réseau en temps réel. [8]
2.5 Analyse des flux SSL
Le ProxySG permet de réaliser plusieurs traitements sur les flux SSL :
Le contrôle et la catégorisation des certificats
Le déchiffrement des flux SSL [8]
2.5.1 Contrôle et catégorisation des certificats
Il est possible de contrôler le certificat serveur avant d’autoriser l’établissement de la session SSL.
Les champs contrôlés sont :
La date de validité du certificat
L’autorité émettrice du certificat (Issuer)
Le Common Name (CN) du certificat indiquant les domaines certifiés.
De plus, le CN du certificat est catégorisé grâce à Webfilter et permet l’application de la politique de
sécurité sur les flux SSL de façon efficace.
L’analyse du certificat ne nécessite pas l’interception complète de la session. [8]
2.5.2 Déchiffrement des flux SSL
Les flux SSL représentent aujourd’hui 30% à 40% du trafic, il est donc recommandé de déchiffrer ces
flux pour les inspecter. ProxySG réalise alors une interception du flux de type « man in the middle » :
La session cliente est terminée par le ProxySG et une nouvelle session SSL est initiée par le BlueCoat
pour se connecter au serveur.
Le certificat présenté à l’utilisateur est automatiquement généré par le ProxySG, il reprend l’ensemble
des informations contenues dans le certificat d’origine (CN, dates, …). Seul l’émetteur du certificat est
remplacé par l’autorité installée dans l’appliance.
L’implémentation de ce mécanisme nécessite donc la distribution d’une autorité de confiance sur les
postes utilisateurs, cette tâche étant facilement réalisable avec les GPO Microsoft.
41
Enfin, les certificats serveurs issus d’une autorité non reconnue sont signés par une deuxième autorité
non déployée sur les postes utilisateurs. Cela permet de conserver l’affichage du message
d’avertissement sur les navigateurs. [8]
2.6 Optimisation des performances
2.6.1 Mise en cache des pages web
Le ProxySG se base sur les headers HTTP standard pour réaliser la mise en cache. Le taux de
cachabilité dépend des indications fournies par les sites web et varie en général entre 20 et 30%.
Les headers sont également modifiable pour améliorer la cachabilité ou corriger d’éventuels problèmes
de cache sur les navigateurs utilisateurs. [8]
2.6.2 Accélération des accès aux pages web
En addition au caching, le ProxySG intègre les fonctions de pipeline et prefetch permettant de
télécharger les objets d’une page en anticipant les requêtes de l’utilisateur. Pour cela, chaque page est
analysée et les images, scripts et feuilles de styles sont téléchargées immédiatement.
2.7 Protection contre les attaques DOS
Le ProxySG intègre une fonction de protection contre les attaques DOS et DDOS grâce à une analyse :
Du nombre de sessions TCP
Du nombre de requêtes TCP
Du nombre de requêtes TCP retournant des codes d’erreur
Il est possible de définir des seuils de protection sur ces différentes valeurs par serveur, site, IP source
de la session TCP ou IP source définie par header HTTP.
Si la valeur seuil est atteinte, il est possible de générer des alertes et bloquer les attaques. [8]
2.8 Logs d’accès
Afin de comprendre comment Internet est utilisé par ses collaborateurs, chaque entreprise souhaite
disposer de rapport détaillés sur le trafic traité par le proxy.
Le ProxySG génère des logs d’accès regroupant l’ensemble des informations de chaque requête qui
peuvent être envoyées à un SIEM pour une analyse plus détaillée.
Le ProxySG offre une grande flexibilité dans la génération de logs d’accès :
Le format des logs est totalement personnalisable au format ELFF ou Custom. Plusieurs
centaines de champs sont disponibles
Une requête peut être loguée dans plusieurs fichiers de logs simultanément, ces fichiers
peuvent avoir des formats différents
L’export des fichiers de logs peut être réalisé :
42
En FTP(s) ou HTTP(s) à heure fixe, toutes les x minutes ou au bout d’une certaine taille.
Le fichier peut être compressé.
Au fil de l’eau dans un Blue Coat Reporter
Au fil de l’eau en syslog TCP [8]
43
Control POD Data POD
Administration des consoles Traitement du trafic (connexion)
Politiques de sécurité du Client Application de la politique
Reporting Balayage des logiciels malveillants
Systéme de gestion Serveur d'évaluation
Tableau 3: Tableau de spécification des rôles du Control et Data POD
44
- l'emploi d’une autorité de certification sécurisée, avec les autorités centrales Root et
Intermediate de BlueCoat PKI hébergées
- une validation de l'autorité de certification du serveur avec vérification de la révocation
Une connectivité universelle
- des Datacenters globaux distribués fournissent un accès au cloud local
- une connexion facile des ordinateurs portables, des appareils mobiles, des pare-feux,
des proxies
Symantec a racheté BlueCoat et a intégré le service de sécurité Web avec d'autres produits dans son
vaste portefeuille de sécurité. L’une des principales solutions supplémentaires est :
Un courtier de sécurité d’accès au Cloud (CASB) qui permet :
- une identification des applications "Shadow IT": identifier les applications Cloud
auxquelles vos utilisateurs ont accès et évaluer les risques de ces applications.
- une définition des politiques d'accès et de contrôle basées sur des données du Cloud
afin de gérer les risques, les menaces et protéger les informations [17]
3.3 Les modes de déploiement du service Cloud WSS :
Le service de sécurité Cloud « WSS » offre plusieurs modes de déploiement afin de bénéficier de ces
différentes fonctionnalités.
45
3.3.1 Mode de déploiement avec un tunnel IPSec VPN (site à site)
La méthode d'accès Firewall / VPN permet de configurer le pare-feu ou le périphérique de routage
pour envoyer le trafic Web du réseau interne de l'entreprise au service de sécurité Cloud de Blue Coat.
Cela se produit sur une connexion Internet Protocol Security (IPsec).
Le concept le plus bas pour cette méthode est de:
Configurer le périphérique pour acheminer tout le trafic lié à Internet (port 80 et
443) vers le service de sécurité Cloud en utilisant un VPN site-to-site à partir d'un
périphérique de pare-feu existant.
Configurer les règles de stratégie de l'appareil pour envoyer un trafic Web au service
et ignorer tout le reste.
C'est la méthode de la clé pré-partagée (PSK).
Blue Coat utilise des algorithmes de cryptage forts standard de l'industrie, y compris AES-256, pour
s'assurer que tout le trafic est gardé privé lorsqu'il passe à ce service de sécurité Web. Pendant la
configuration, Il faut spécifier une clé de pré-coupure pour la connexion VPN de site à site. Cela
permet un plus grand contrôle de la sécurité du tunnel IPsec. [16]
3.3.2 Mode de déploiement avec un chainage de proxies (Proxy Forwarding)
Cette méthode permet d’établir une connexion au service Cloud de Blue Coat en utilisant un proxy de
réseau existant. Dans ce cas, le trafic de l'utilisateur est dirigé depuis le proxy local du client (tel qu'un
Blue Coat ProxySG ou un périphérique similaire), en fonction d'une politique de transfert qui
sélectionne le trafic qui devrait être sécurisé par le Cloud.
Les utilisateurs sont authentifiés et le trafic est sélectivement transmis au service WSS, ainsi que les
informations utilisateur et de groupe, en utilisant la politique de proxy établie. Toute méthode
d'authentification compatible avec le proxy fonctionnera. [16]
3.3.3 Mode de déploiement avec un proxy explicite « Proxy Pac »
Un fichier proxy auto-config (PAC) est un JavaScript qui permet aux requêtes du navigateur Web dans
le pare-feu d'une entreprise de contourner le serveur proxy en fonction de l'adresse IP de l'ordinateur
utilisé pour accéder aux sites Web internes. Les ordinateurs à l'intérieur du pare-feu ont accès à des
sites sur l'intranet de l'entreprise sans être acheminés via le service de sécurité Web de Blue Coat.
Les demandes de sites Web externes ou les demandes effectuées par des ordinateurs appartenant à
l'entreprise à l'aide d'une adresse IP externe sont acheminées via le service.
46
Les fichiers PAC peuvent également diriger la demande du navigateur Web vers un proxy spécifique
et peut restreindre l'accès en fonction des règles et des restrictions régissant l'accès au Web. [16]
3.3.4 Mode de déploiement avec connecteur de bureau « Unified-Agent »
L'agent unifié de BlueCoat fournit une sécurité Web aux utilisateurs distants lorsqu'un itinéraire via le
réseau d'entreprise n'est pas possible ou pratique. Dans le cas de notre entreprise cliente, les utilisateurs
distants sont définis comme des utilisateurs avec des ordinateurs portables qui sont pris en dehors du
réseau de l'entreprise (utilisateurs nomades).
Une fois l’agent installé, aucune configuration supplémentaire n'est requise sur le système client. Il
dirige les demandes de contenu au service de sécurité Web Blue Coat (ThreatPulse) sur une connexion
sécurisée (port 443).
Pour imposer l’application des règles de filtrage au niveau du service de sécurité Cloud, l'agent unifié
détecte et supprime les requêtes de méthode HTTP_CONNECT à toute adresse IP externe. Lorsque
ces connexions sont supprimées, l'utilisateur est incapable de contourner le filtrage et la numérisation
de logiciels malveillants. [16]
3.4 Gestion des politiques de sécurité
Le service Web de BlueCoat permet différents types de contrôles de politique. Pour la solution Blue
Coat Web Security Service, la politique se réfère aux contrôles de configuration qui restreignent ou
autorisent les éléments du réseau et du Web tels que les adresses IP et les catégories de filtrage de
contenu.
47
outre, le tableau de bord « Vue d'ensemble » fournit des résumés généralement surveillés à partir de
tous les modules. [16]
Conclusion
Le succès de presque toutes les organisations dans le monde en réseau d'aujourd'hui repose sur la
capacité à sécuriser la connexion Internet tout en veillant à ce que les utilisateurs aient accès à
l'information et aux ressources dont ils ont besoin pour faire leur travail. Au cours de ce chapitre, nous
avons enfin dévoilé le choix de la solution et nous avons montré les fonctionnalités des équipements
BlueCoat, en collaboration avec la communauté WebPulse et ses technologies de détection des
menaces, afin de garantir au client les outils dont il a besoin pour réduire les risques et maximiser les
activités productives en ligne.
Le chapitre suivant va s’appuyer sur la mise en place de la solution avec les différentes analyses
d’ingénieurs à faire pour valider certains choix.
48
Chapitre 4
Plan
1 Environnement de travail et dimensionnement de l’architecture cliente ................................... 50
1.1 Environnement de travail .......................................................................................................... 50
Introduction
Dans ce chapitre nous détaillons les différents axes du travail effectué pour la mise en place de la
solution conçue pour la sécurisation des flux et contenus avec la technologie BlueCoat en passant par
le dimensionnement de l’architecture du client à la configuration des tous les points convenus dans la
politique de sécurité et l’exposition des analyses à faire pour valider certains choix et résoudre certains
dysfonctionnements.
49
1 Environnement de travail et dimensionnement de l’architecture cliente
1.1 Environnement de travail
Les équipements de sécurité BlueCaot constituant la solution à mettre en place pour notre client sont :
Un « ProxySG » en appliance physique avec une version de système d’exploitation SGOS
6.6.2.3.
Un compte d’accès au service Cloud « Web Security Service » avec les différents modules
commandés pour la sécurité Web, la gestion de rapports et le couplage avec le service
CASB d’Elastica.
1.2 Dimensionnement de l’architecture cliente
Pour un dimensionnement répondant au mieux aux besoins de notre client, nous avons effectué une
capture complète de son réseau lors d’une période de la journée où le trafic est élevé. L’analyse des
informations sur le nombre de sessions actives, le nombre d’utilisateurs et sur la bande passante vers
Internet nous a permis d’avoir une connaissance de l’état de charge du réseau. Selon les caractéristiques
de l’architecture de notre client après le dimensionnement de son réseau, notre choix était de partir sur
un équipement « ProxySG S200-20-PR » parce qu’il a la capacité de couvrir jusqu’à 1200 employés,
6000 sessions actives et pour une bande passante de 25-30 Mbps pouvant atteindre les 60 Mbps.
50
2 Mise en place de l’architecture hybride
2.1 Architecture cible avec les équipements BlueCoat
51
Figure 24: Interface de gestion du ProxySG
A travers cette interface de gestion, nous avons configuré les services au niveau du proxy, l’interception
SSL, la gestion de la bande passante et des utilisateurs, le filtrage des contenus et des applications,
l’analyse et la protection contre les menaces, la traçabilité des évènements ainsi que l’application des
règles de sécurité conformément à la stratégie de la société.
Nous avons aussi configuré le ProxySG en mode « Reverse » pour écouter les requêtes sur le site web
de l’entreprise hébergé en interne et pour les transmettre à l'adresse IP du serveur. La configuration du
mode « Reverse » est décrite en Annexe.
52
Une adresse e-mail de l'administrateur principal lié au compte du service.
Nous avons saisi ces informations au niveau du portail d’inscription au service Cloud pour commencer
la configuration du Web Security Service. Ainsi, le wizard de configuration initiale du service est lancé.
Une fois l’installation terminée, l’interface de gestion du service Cloud suivante s’affiche.
A travers cette interface de gestion, nous pouvons configurer le filtrage des contenus et des
applications, l’analyse et la protection contre les menaces, la gestion des journaux et des rapports,
l’interception du trafic SSL ainsi que l’application des règles de sécurité conformément à la stratégie de
la société.
53
Ainsi, le site central est protégé par le ProxySG en premier lieu et par le WSS grâce au chainage du
trafic.
Nous avons alors configuré le proxySG afin de transférer le trafic HTTP / HTTPS des
périphériques/clients en aval au service de sécurité Cloud. Pour cela, nous avons créé des hébergeurs
qui transmettent le trafic HTTP, HTTPS et SSL. Cette procédure est décrite en détails en Annexe.
Figure 27: Création des hébergeurs pour le chainage du trafic vers le Cloud
Nous avons mis en place une politique de transfert installée sur le ProxySG pour rediriger le trafic vers
l'hôte de transfert correct.
Le trafic SSL non intercepté va être remis sur le port 8443 (chiffré).
Le trafic http va être renvoyé sur le port 8080.
Le trafic SSL intercepté (les informations d'authentification de l'utilisateur (en plus du
trafic) au service de sécurité Web) va être renvoyé sur le port 8084.
54
Figure 28: Mise en place de la politique de redirection du trafic
Pour la redirection du trafic depuis les hôtes de transfert vers le service de sécurité Cloud, il est
nécessaire de configurer une localisation relative à leur emplacement. Nous avons alors ajouté au
niveau du portail du service Cloud la localisation du Proxy Forwarding.
Ensuite, Nous avons éliminé la liaison MPLS entre le site de Lyon et le site central et nous avons établi
un tunnel IPSec/VPN entre ce site distant et le service WSS pour sécuriser le trafic Web généré par
les utilisateurs. Pour cela, nous avons configuré un tunnel VPN au niveau du pare-feu « fortinet » de
ce site en saisissant les paramètres adéquats au service Cloud et au DataPod de la région parisienne. La
procédure détaillée est décrite en Annexe.
55
Figure 30: Paramétrage du Tunnel IPSec/VPN au niveau de fortinet
Nous avons aussi configuré l’autre extrémité du tunnel au niveau du service Cloud, en définissant la
localisation du site de Lyon.
Pour le site de Toulouse qui est protégé grâce à la méthode d’accès Proxy Explicit, nous avons
configuré l’URL du fichier PAC au niveau des navigateurs Web des utilisateurs et nous avons aussi
défini au niveau du service Cloud la localisation de ce site distant.
56
Figure 32: Ajout de la localisation du site de Toulouse au niveau du WSS
Finalement, Nous avons configuré l’agent « Unified Agent » pour rediriger le trafic des utilisateurs
nomades vers le service Cloud.
2.2.2 Mise en place de l’authentification des utilisateurs
Suite à la réunion de mise en place de la politique de sécurité, l’authentification des différents
utilisateurs était l’un des points primordiaux à mettre en place.
Nous avons étudié la situation de l’architecture cliente afin de choisir un mode d’authentification
suffisant et adéquat.
Les utilisateurs du site central de Paris ont un nombre conséquent. La configuration d’un mode
d’authentification robuste au niveau du ProxySG est essentielle. Nous sommes arrivés à convaincre
l’entreprise cliente de mettre en place le mode d’authentification IWA avec agent BCAAA et avec le
type « Kerberos ». En effet, c’est le protocole d'authentification recommandé pour IWA car il est plus
sécurisé que NTLM ou Basic et il met le moins de charge sur le réseau.
57
Nous allons commencer par faire une description du mode d’authentification IWA BCAAA avec
Kerberos.
1. Le client envoie une requête à un proxy pour une URL. Le ProxySG vérifie la substitution
(cookie ou IP). Si la souscription est présente et valide, la demande est considérée comme
authentifiée et le ProxySG ne communique pas avec BCAAA.
2. Si l'authentification doit être effectuée, le ProxySG envoie un défi d'authentification au client.
3. Dans notre cas, Le client décide d'utiliser Kerberos. Il contacte le Centre de distribution de
clés (KDC) sur le contrôleur de domaine et demande un ticket Kerberos.
4. Le KDC envoie le ticket au client.
5. Le client renvoie sa demande au ProxySG. La demande comprend maintenant une en-tête
d'autorisation ainsi que le ticket Kerberos.
6. Le ProxySG envoie une demande d'authentification, y compris le ticket Kerberos à BCAAA.
7. BCAAA transmet cette demande à l'API Windows « AcceptSecurityContext() » pour
authentifier l'utilisateur. L'API Windows décide si la requête est valide et renvoie la valeur à
BCAAA.
8. BCAAA passe le résultat de l'authentification au proxySG qui répond par la suite au client. [18]
Nous avons alors configuré ce mode d’authentification au niveau du ProxySG. La procédure est décrite
en détails en Annexe.
58
Figure 34: Configuration de l’IWA BCAAA avec kerberos
Une fois le domaine d’authentification est bien configuré, nous avons appliqué au niveau de l’interface
de gestion des politiques de sécurité (VPM) du proxySG la règle suivante qui permet d’appliquer
l’authentification pour tous les utilisateurs du site central.
Pour les utilisateurs des sites distants et les utilisateurs nomades, vu que leur nombre est réduit et
l’architecture au niveau des sites est assez simplifiée, Nous avons opté pour une solution
d’authentification légère. Elle consiste à une simple correspondance entre l’adresse IP de la machine
et le nom d’utilisateur. Pour cela, nous avons configuré un agent d'authentification que nous avons
installé sur le contrôleur de domaine Active Directory du site central. Cet agent permet de transmettre
les informations des utilisateurs et des groupes au service de sécurité Cloud et de surveiller l'activité de
connexion et de déconnexion des utilisateurs du domaine pour créer une matrice de correspondance
IP/nom d’utilisateur.
59
Nous avons alors configuré cet outil d’authentification au niveau du service Cloud. La procédure est
décrite en détails en Annexe.
60
Figure 37: Mise en place d'une règle de filtrage par catégorie
Cette règle de filtrage empêche tous les utilisateurs sur site ou mobiles à utiliser certaines applications
telles que « Facebook ».
61
Dans le cadre d’améliorer la mise en place de la politique de filtrage, nous avons mis en place une page
personnalisée à afficher à l’utilisateur dans le cas de l’application de règles de restrictions.
Il s’agit d’une page d'exception qui permet de prévenir, conseiller et bloquer les utilisateurs en fonction
de leurs tentatives d'accès à des sites Web particuliers.
Pour mettre en place la page d’exception, nous l’avons défini au niveau de l’interface de gestion du
ProxySG.
Figure 39: Définition d'une politique de sécurité pour l’affichage de la page d'exception
Figure 40: Configuration des services pour l'interception des flux SSL
Nous avons créé, en deuxième lieu, un certificat de confiance auto-signé par le ProxySG afin de
déchiffrer le trafic crypté et l’analyser en toute sécurité.
62
Figure 41: Création d'un certificat de confiance auto-signé par le ProxySG
Enfin, nous avons mis en place une règle de sécurité pour appliquer cette interception sur le trafic
généré. Nous n’avons pas activé l’interception SSL pour le trafic catégorisé dans « Finance », « Banque »
et « Santé » parce que nous ne pouvons pas déchiffrer leurs contenus vu les informations confidentielles
que l’utilisateur pourra saisir.
Nous avons aussi activé au niveau du service Cloud, l’interception du trafic chiffré pour l’appliquer sur
tout le flux sortant des sites distants et des utilisateurs nomades et nous avons téléchargé le certificat
SSL depuis le servie. Ce certificat sera un certificat de confiance et tout le trafic web sécurisé sera
envoyé à la plateforme afin d’inspecter son contenu. Nous importons le certificat téléchargé dans la
stratégie de groupe de l’AD dans l’autorité de certification racine afin que tous les utilisateurs puissent
le désigner comme certificat de confiance.
63
Figure 43: Configuration de l'interception SSL au niveau du service Cloud
La deuxième est une page de coaching qui s'affiche lorsqu'un utilisateur visite un site web bloqué par
une stratégie de filtrage de contenu. Cette page explique pourquoi le site est bloqué et les conséquences
d'un accès non autorisé.
64
Pour mettre en place la page de coaching, nous avons défini une page personnalisée relative à notre
client et nous l’avons inséré au niveau de l’objet action de la règle de sécurité.
65
Figure 46: Activation de la traçabilité des évènements
Nous avons, en deuxième lieu, mis en place une « Web Access Layer » dans laquelle nous avons activé
le « logging » au niveau de l’objet action de la règle.
Figure 47: Définition d'une politique de sécurité pour mettre en place la traçabilité
66
Figure 48: Sécurisation du client contre une attaque DOS
67
Figure 50: Intégration du module CASB au service Cloud
68
Figure 51: Architecture simplifiée du réseau du site de Lyon
69
3.3 Description de la solution :
70
Figure 54: Configuration du protocole PPPoE sur l'interface logique
Suite aux différentes modifications que nous avons apportées à l’architecture, le tunnel a été monté
avec succès et le trafic y transite sans problème.
Conclusion
A la fin de ce quatrième chapitre, nous venons de terminer l’intégration et la configuration de tous les
éléments de la solution de sécurisation de l’architecture de notre client. Nous allons ainsi pouvoir
passer à la phase des tests pour la phase de validation de la solution.
71
Chapitre 5
2.7 Vérification de la configuration des fonctions de sécurisation contre les attaques DOS 83
Introduction
Après avoir expliqué et configuré les différentes parties convenues de notre solution de sécurisation,
nous allons procéder dans ce dernier chapitre à présenter les résultats de certains tests pour vérifier
que la solution mise en place répond convenablement aux exigences de l'entreprise cliente.
72
Figure 55: Vérification de la bonne configuration du ProxySG
Nous nous sommes aussi connectés depuis le site central et nous avons testé la page de démonstration
de connectivité « demo.threatpulse.com ». Nous avons bien vérifié que nous sommes protégés par le
service de sécurité Cloud avec le message « You are Protected ».
73
Figure 57: Vérification de la connectivité côté client (Paris)
Pour valider la partie d’intégration du service WSS au niveau du site de Lyon, nous avons vérifié la
connectivité au niveau du service Cloud, du pare-feu et du client.
Nous remarquons alors qu’au niveau du service Cloud, la localisation du « IpSec/VPN » est bien valide.
Nous avons aussi consulté le statut du tunnel IPSec/VPN au niveau au niveau du pare-feu. Nous
constatons qu’il est en mode « up » et qu’il y a du trafic entrant et du trafic sortant.
Nous nous sommes aussi connectés depuis le site de Lyon et nous avons testé la page de démonstration
de connectivité. Nous avons bien vérifié que nous sommes protégés par le service de sécurité Cloud
avec le message « You are Protected ».
74
Figure 60: Vérification de la connectivité côté Client Lyon
Lors de la vérification de l’intégration du Web Security Service sur le site de Toulouse avec la méthode
Pac file nous avons vérifié la connectivité de la localisation du « ProxyExplicit » au niveau du service
Cloud, nous remarquons alors que est bien valide grâce au statut vert.
Nous avons accéder depuis ce site à la page de démonstration de la connectivité .Nous avons bien
vérifié que nous sommes protégés par le service de sécurité Cloud avec le message « You are
Protected ».
75
Figure 62: Vérification de la connectivité côté client Toulouse
Finalement pour les utilisateurs nomades, nous avons consulté le statut de l’agent « BlueCoat Unified
Agent » installé sur leurs machines. Nous vérifions que l’agent est bien connecté au service Cloud.
76
Nous avons accéder depuis le navigateur d’une machine distante à la page de démonstration de la
connectivité. Nous avons bien vérifié que nous sommes protégés par le service de sécurité Cloud avec
le message « You are Protected ».
77
Figure 65: Vérification de la configuration de l'authentification
Pour les utilisateurs des sites distants et les utilisateurs nomades, l’authentification s’effectue avec
l’agent d’authentification « Auth_Connector ».Nous avons commencé par vérifier la connectivité de
l’agent au niveau du service Cloud.
Ensuite, nous avons vérifié que, lors de la synchronisation de l’agent avec l’AD, tous les utilisateurs
sont importés au niveau du service « Web Security Service ».
78
Figure 67: Synchronisation entre l'AD et le « Auth_Connector »
Ainsi, lorsqu’un utilisateur distant se connecte un Internet, une fenêtre d’authentification s’affiche pour
la saisie des identifiants. Si les utilisateurs ne se sont pas authentifiés la navigation Web sera bloquée.
79
Figure 69: Filtrage par catégorie
Pour vérifier que la règle mise en place pour le filtrage des applications est bien appliquée, nous nous
sommes connecté depuis le navigateur d’un utilisateur mobile et nous avons accédé à « Facebook ».
L’accès nous a été refusé conformément à la règle de sécurité mise en place au niveau du service Cloud.
De plus, lorsque nous avons accéder à une URL non catégorisée, nous avons vérifié que la page
d’exception créé pour notre client a été affichée.
80
Figure 71: Page d'exception pour une URL non catégorisée
Pour vérifier l’interception SSL du côté du service Cloud WSS, Nous avons accédé au site
https://www.google.fr depuis un utilisateur mobile et nous avons vérifié au niveau du certificat qu’il
est bien celui du « Cloud Services Root CA ».
81
Figure 73: Vérification de l'interception SSL au niveau du service Cloud
82
2.6 Vérification de la traçabilité des historiques d’accès.
En ce qui concerne la traçabilité des logs, nous avons accédé au journal du proxySG dans la fenêtre
« Access Logging » et nous avons vérifié qu’il existe des lignes de traçabilité des évènements.
2.7 Vérification de la configuration des fonctions de sécurisation contre les attaques DOS
Pour vérifier que les fonctions de sécurisation du réseau interne contre les attaques Dos sont
opérationnelles, nous avons accédé au site web hébergé en interne. Nous avons actualisé la page
plusieurs fois. Lorsque la limite a été atteinte un message d’avertissement est apparu.
Nous avons continué à actualiser la page alors notre adresse Ip a été bloquée. Nous avons pu consulter
ça au niveau de l’interface de gestion du ProxySG.
83
Figure 77: Vérification que l'adresse ip est bloquée au niveau du ProxySG
84
Conclusion
Au terme de ce chapitre, nous venons de conclure la dernière phase du projet, à savoir la validation de
la solution conçue et mise en place dans l’architecture de notre client. Cette architecture offre
désormais une sécurisation avancée des flux et contenus web comme exigés par l'entreprise cliente.
Cette solution a été intégrée et validé par l'entreprise. Et nous restons à sa disposition pour un support
continue durant les 3 prochaines années.
85
Conclusion générale
Au terme de notre projet, nous dressons le bilan de notre travail effectué au sein de l’entreprise 2SB et
pour le compte de l’un de ces clients.
Le travail entrepris lors de ce projet de fin d’études avait comme finalité de mettre en place une
solution de sécurisation des flux et contenu avec la gamme de produits BlueCoat.
Durant ce projet, nous avons montré une nouvelle définition de la sécurité Web dans une véritable
architecture hybride avec une politique universelle qui permet de contrôler tous les utilisateurs sur un
service de sécurité Web basé sur le Cloud.
Nous avons aussi pu intégrer une protection avancée contre les menaces et les risques liés au Web et
la sécurité des données.
Nous proposons aussitôt en guise de perspectives d’étendre les fonctionnalités de la passerelle Web en
local et sur le Cloud en ajoutant d’autres règles qui renforce la stratégie de sécurité du client, de
renforcer le mode d’authentification des utilisateurs à distance avec une authentification forte et de
mettre en place la prévention des fuites de données (DLP) en évitant la perte d’éléments de propriété
intellectuelle, en garantissant la conformité aux réglementations et en fournissant des données
d’investigation numérique en cas d’infraction.
86
Bibliographies et Webographies
[2] https://www.bluecoat.com/fr/innovation-for-the-cloud-generation?src=&lg=&elqEmailName=
[consulté le 13 juin 2017]
[5] https://etskblog.wordpress.com/2014/05/17/comment-et-avec-quoi-les-systemes-sont-ils-
attaques/ [consulté le 30 juin 2017]
87
[10] Cisco Web Security Appliance
https://www.cisco.com/c/en/us/products/collateral/security/content-security-management-
appliance/datasheet-c78-729630.html [consulté le 12 juillet 2017]
[17] https://www.symantec.com/content/dam/symantec/docs/data-sheets/web-security-service-
en.pdf [consulté le 20 juillet 2017]
[20]https://benjamin.sonntag.fr/Se_debarasser_de_la_livebox_fibre_orange_pppoe_mode_d_empl
oi_ [consulté le 15 mai 2017]
88