Vous êtes sur la page 1sur 93

Rapport de stage

Nom et prénom :Narjis tazari

Ecole : ensak

filière : réseaux et systeme de telecommunication

Ministère de l'Aménagement du territoire national,

de l'Urbanisme, de l'Habitat et de la Politique de la ville .


Tout d’abord, je tiens à remercier Mr adil benthami . Un grand

merci pour son accueil chaleureux au sein du département qu’il

dirige, ainsi que pour sa patience et ses précieux conseils. Je

voudrais remercier également tous les membres du personnel

qui ont mis tout en œuvre pour que mon stage se déroule dans

les meilleures conditions possible et qui ont contribué

principalement au succès de mon stage , notons Mr. mehdi et

Mme. rawya .

Je saisis également cette occasion pour adresser mes profonds

remerciements aux responsables et au personnel de l‘École

Nationale des Sciences Appliquées précisément Mr bouayadi et

Mme madini . qui ont été toujours à mon écoute et ont su

m’apporter un soutien sans faille, notamment en ce qui

concerne les démarches administratives relatives à mon stage .

Pour finir , je mentionne que durant ces deux mois de stage ,le

temps, l’attention, l’intérêt que votre personnelle avez bien

voulu me témoigner n’ont pas été perdus. Ils m’ont donné envie

de persévérer dans ce métier pour lequel vous m’avez donné le

plus grand respect .


01

01 Les bases du réseau

02 Les bases du sécurité réseau

03 virtualisation

04 Développement d’un site-web


1.Définition :

2.Les classes d’adresses IP :

a. Les adresses IP privées

b. Les adresses IP publiques

c. Les exceptions

3.Modèle de transport

a. Modèle OSI

b. Modèle TCP/IP

4,L’adresse IPv4

5.L’adresse IPv6

6. IPv6 et IPv4

7. Dns

8. VLAN

10. NAT

a. types du nat

b. Implémentation du NAT

c. Problèmes inhérents

d. Bénéfices du NAT

e. Configuration du NAT dynamique

e.1. Pour configurer le NAT dynamique, les étapes suivantes sont

requises:

e.2. Étapes pour configurer le NAT dynamique à l'aide de CLI.

f. Configuration du NAT statique


f.1.Pour configurer le NAT statique sur les appareils Cisco, les étapes

suivantes sont requises:

f.2.Étapes pour configurer le NAT statique sur les appareils Cisco via CLI

1.Vulnérabilités

2. Menaces

3. Attaques

4. Risques

5. Typologie des attaques les plus courante

6. Sécurité sur les ports

7. HSRP

a.Configuration du routeur 1

b.Configuration du tracking

8. Cryptographie

C’est quoi la virtualisation

1.notions:

2.Les types des systèmes de virtualisation

a.isolateur

b. Hyperviseur de type

c. Hyperviseur de type

3.proxmox
pourquoi utiliser proxmox

a.LXC

b.KVM

c.installation et configuration des machine vertuelles

d-Machine virtuelle Windows server 2016 :

e. Configuration du serveur DHCP et dns

e.1.Mise en place de redondance DHCP: en mode failover

e.2.mise en place de dns

f.Machine vertuelle linux

f.1. Wireshark, c’est quoi ?

f.2. utilisation wireshark

1.code source back-end

<!-- pr md5 -->

<!-- pr sha512 -->

<!-- base64 -->

<!-- Bcrypt -->

<!--argon2I -->

2. Des captures d’écran du site crée


1.Définition :

Une adresse IP est un numéro d'identification qui est attribué de façon

permanente ou provisoire à chaque périphérique relié à un réseau informatique qui

utilise l'Internet Protocol. L'adresse IP est à la base du système d'acheminement

(le routage) des paquets de données sur Internet.

Il permet donc d’identifier chaque hôte connecté à un réseau informatique utilisant le

protocole IP. Actuellement, elle est mondialement utilisée dans sa version 4, une

version dans laquelle l’adresse IP est composée de 4 nombres (4 octets) allant de 0 à

255, séparés par des points. De ce fait, l’adresse IP la plus basse est 0.0.0.0 et la plus

haute 255.255.255.255, chacun de ces nombres correspond à un octet.

Internet protocol (protocole internet, abrégé en IP) est une famille

de protocoles de communication de réseaux informatiques conçus pour être utilisés

sur Internet. Les protocoles IP sont au niveau 3 dans le modèle OSI. Les protocoles IP

s'intègrent dans la suite des protocoles Internet et permettent un service d'adressage

unique pour l'ensemble des terminaux connectés.

La commutation de paquets, ou commutation par paquets, ou encore transmission par

paquets, est une technique utilisée pour le transfert de données informatiques dans

des réseaux spécialisés. Elle existe en deux grandes variantes :

les datagrammes (données transmises sans connexions connues dans le réseau), et

les circuits virtuels (données transmises avec connexions connues dans le réseau).
Internet est un réseau informatique mondial accessible au public. Il s'agit d'un

réseau de réseaux, à commutation de paquets, sans centre névralgique, composé de

millions de réseaux aussi bien publics que privés, universitaires, commerciaux,

et gouvernementaux, eux-mêmes regroupés en réseaux autonomes ; il en existe plus

de 91 000 en 20191. L'information est transmise via Internet grâce à un ensemble

standardisé de protocoles de transfert de données, qui permet

des applications variées comme le courrier électronique, le World Wide Web,

la messagerie instantanée, le partage de fichiers en pair-à-pair, le streaming,

le podcasting, la téléconférence.

Les ports sont des numéro dans chaque paquet IP qui permet de savoir à tel ou

tel logiciel le paquet est destiné .

UDP/IP est un protocole qui permet justement d'utiliser des numéros

de ports en plus des adresses IP (On l'appelle UDP/IP car il fonctionne au dessus d'IP).

IP s'occupe des adresses IP et UDP s'occupe des ports.

2.Les classes d’adresses IP :

Chaque adresse IP appartient à une classe qui correspond à une plage d’adresses

IP. Ces classes d’adresses sont au nombre de 5 c'est-à-dire les classes A, B, C, D et E. Le

fait d’avoir des classes d’adresses permet d’adapter l’adressage selon la taille du réseau

c'est-à-dire le besoin en terme d’adresses IP.

- La classe A de l’adresse IP 0.0.0.0 à 126.255.255.255 (adresses privées et

publiques).

- La classe B de l’adresse IP 128.0.0.0 à 191.255.255.255 (adresses privées et


publiques).

- La classe C de l’adresse IP 192.0.0.0 à 223.255.255.255 (adresses privées et

publiques).

- La classe D de l’adresse IP 224.0.0.0 à 239.255.255.255 (adresses de multicast).

- La classe E de l’adresse IP 240.0.0.0 à 255.255.255.255 (adresses réservées par

l’IETF).

Les adresses IP privées représentent toutes les adresses IP de classe A, B et C

que l’on peut utiliser dans un réseau local (LAN) c'est-à-dire dans le réseau de votre

entreprise ou dans le réseau domestique. De plus, les adresses IP privées ne peuvent

pas être utilisées sur internet (car elles ne peuvent pas être routées sur internet), les

hôtes qui les utilisent sont visibles uniquement dans votre réseau local. Les classes A,

B et C comprennent chacune une plage d’adresses IP privées à l’intérieur de la plage

globale.

- Les adresses privées de la classe A : 10.0.0.0 à 10.255.255.255

- Les adresses privées de la classe B : 172.16.0.0 à 172.31.255.255

- Les adresses privées de la classe C : 192.168.1.0 à 192.168.255.255

Contrairement aux adresses IP privées, les adresses IP publiques ne sont pas

utilisées dans un réseau local mais uniquement sur internet. Les routeurs (par

exemple : votre box) disposent d’une adresse IP publique côté internet, ce qui rend

votre box visible sur internet (elle répondra au ping). Mais aussi, lorsque vous accédez
à un site web vous utilisez l’adresse publique du serveur web.

Une adresse IP publique est unique dans le monde, ce qui n’est pas le cas des

adresses privées qui doivent être unique dans un même réseau local mais pas au

niveau planétaire étant donné que ces adresses ne peuvent pas être routées sur

internet.

Les adresses IP publiques représentent toutes les adresses IP des classes A, B et

C qui ne font pas partie de la plage d’adresses privées de ces classes ou des exceptions

de la classe A.

- Le réseau 127.0.0.0 est réservé pour les tests de boucle locale avec

notamment l’adresse IP 127.0.0.1 qui est l’adresse « localhost » c'est-à-dire de boucle

locale de votre PC.

- Le réseau 0.0.0.0 est lui aussi réservé (et utilisé notamment pour définir une

route par défaut sur un routeur).

3.Modèle de transport

Avant de spécifier les modèles en vigueur sur les réseaux, on va découvrir de

façon sommaire comment l’information est transmise, en tous les cas quels sont les

principes qui ont été retenus. Les modèles d’architecture réseau sont composés de

couches, relativement indépendantes les unes des autres. On part des applications

(haut niveau) à la transmission physique (bas niveau). L’idée retenue a été de

segmenter l’information à transmettre (on parlera de segments, paquets , trames) ,

chaque couche ajoutant des informations (on parlera d’encapsulation)


On voit que chaque donnée est englobée (encapsulée), à chaque étape. Le

processus inverse se produit à la réception du message par la machine réceptrice

L’idée de découper l’information en petits segments est simple : la transmission

est plus rapide, s’il y a une erreur ou une perte, il n’y a pas tout le message à renvoyer,

il y a moins d’engorgement des capacités de transmission… On étudiera en détail une

transmission via TCP/IP

Pour uniformiser les protocoles utilisés lors des communications entre les

différentes couches d’un réseau, l’International Standards Organization (ISO) a fondé

un modèle , le modèle OSI. La dernière révision de ce modèle date de 1995. Le modèle

OSI n’est pas une architecture réseau, car il ne décrit pas explicitement les protocoles

mis en jeu. Elle précise seulement le rôle de chaque couche. Ce modèle est composé de

7 couches

1. La couche physique : est chargée de la transmission effective des signaux


entre les interlocuteurs. Les données sont transmises sous forme de bit.

2. La couche liaison : Son rôle est un rôle de « liant » : elle va transformer la

couche physique en une liaison a priori exempte d’erreurs de transmission pour la

couche réseau. • Fractionne les données en trame • Transmet ces trames • Gère les

acquittements envoyés à l’émetteur • Détection et correction dans les informations

reçues de la couche physique . • Contrôle de flux pour éviter un trop grand afflux de

données. BRUNO SAINT PEE,LYCEE ROTROU DREUX 3

3. La couche réseau : gère les communications, généralement entre machines :

Elle a un rôle de routage , d’adressage des paquets.

4. La couche transport est responsable de l’acheminement des messages. Les

messages sont découpés en unités plus petites (but : Ne pas engorger le réseau), de les

passer à la couche réseau, de s’assurer de la bonne réception. Elle s’occupe aussi du

réassemblage des paquets reçus pour reformer le message initial.

5. La couche session: synchronise les échanges entre tâches distantes.

6. La couche présentation : traite l’information de façon à la rendre compatible

entre les données entre les différentes applications. Elle crypte, reformate,

compresse…

7. La couche application : est le contact entre l’utilisateur et le réseau. Elle offre

donc des services via des protocoles (messagerie, accès au web…). Quelques

protocoles utilisés par les couches


.
Le modèle OSI a eu l’avantage d’imposer des standardisations et de prendre en

compte l’hétérogénéité du monde informatique de l’époque. Cependant, il est

postérieur (fin des années 70 ) au modèle TCP/IP(développé par Arpanet), qui ne

présente que 4 (ou 5) couches , et dont les débuts (université de Berkeley en 74 sous

Unix) ont été couronnés de succès. L’avènement d’internet lui assurera de devenir le

modèle retenu.

Les principes qui ont conduit à ces 7 couches sont les suivants :

une couche doit être créée lorsqu’un nouveau niveau d’abstraction est

nécessaire,

chaque couche a des fonctions bien définies,

les fonctions de chaque couche doivent être choisies dans l’objectif de la

normalisation internationale des protocoles,

les frontières entre couches doivent être choisies de manière à minimiser

le flux d’information aux interfaces,

le nombre de couches doit être tel qu’il n’y ait pas cohabitation de

fonctions très différentes au sein d’une même couche et que l’architecture

ne soit pas trop difficile à maîtriser.

Les couches basses (1, 2, 3 et 4) sont nécessaires à l’acheminement des


informations entre les extrémités concernées et dépendent du support physique. Les

couches hautes (5, 6 et 7) sont responsables du traitement de l’information relative à

la gestion des échanges entre systèmes informatiques. Par ailleurs, les couches 1 à 3

interviennent entre machines voisines, et non entre les machines d’extrémité qui

peuvent être séparées par plusieurs routeurs. Les couches 4 à 7 sont au contraire des

couches qui n’interviennent qu’entre hôtes distants.

La chose la plus frappante à propos du modèle OSI est que c’est peut-être la

structure réseau la plus étudiée et la plus unanimement reconnue et pourtant ce n’est

pas le modèle qui a su s’imposer. Les spécialistes qui ont analysé cet échec en ont

déterminé 4 raisons principales.

Le modèle OSI était idéalement placé par rapport à la recherche, mais hélas, le

modèle TCP/IP était déjà en phase d’investissement prononcé (lorsque le modèle OSI

est sorti, les universités américaines utilisaient déjà largement TCP/IP avec un certain

succès) et les industriels n’ont pas ressenti le besoin d’investir dessus.

Le modèle OSI est peut-être trop complet et trop complexe. La distance entre

l’utilisation concrète (l’implémentation) et le modèle est parfois importante. En effet,

peu de programmes peuvent utiliser ou utilisent mal l’ensemble des 7 couches du

modèle : les couches session et présentation sont fort peu utilisées et à l’inverse les

couches liaison de données et réseau sont très souvent découpées en sous-couches


tant elles sont complexes.

OSI est en fait trop complexe pour pouvoir être proprement et efficacement

implémenté. Le comité rédacteur de la norme a même du laisser de côté certains

points techniques, comme le la sécurité et le codage, tant il était délicat de conserver

un rôle bien déterminé à chaque couche ainsi complétée. Ce modèle est également

redondant (le contrôle de flux et le contrôle d’erreur apparaissent pratiquement dans

chaque couche). Au niveau de l’implémentation, TCP/IP est beaucoup plus optimisé et

efficace.

La plus grosse critique que l’on peut faire au modèle est qu’il n’est pas du tout

adapté aux applications de télécommunication sur ordinateur ! Certains choix

effectués sont en désaccord avec la façon dont les ordinateurs et les logiciels

communiquent. La norme a en fait fait le choix d’un « système d’interruptions » pour

signaler les événements, et sur des langages de programmation de haut niveau, cela

est peu réalisable.

Cela tient tout simplement du fait que le modèle est relativement complexe, et

que du coup les premières implémentations furent relativement lourdes et lentes. A

l’inverse, la première implémentation de TCP/IP dans l’Unix de l’université de

Berkeley (BSD) était gratuite et relativement efficace. Historiquement, les gens ont

donc eu une tendance naturelle à utiliser TCP/IP.

Le modèle OSI a en fait souffert de sa trop forte normalisation. Les efforts


d’implémentation du modèle étaient surtout « bureaucratiques » et les gens ont peut-

être vu ça d’un mauvaise oeil.

A l’inverse, TCP/IP est venu d’Unix et a été tout de suite utilisé, qui plus est par

des centres de recherches et les universités, c’est-à-dire les premiers a avoir utilisé les

réseaux de manière poussée. Le manque de normalisation de TCP/IP a été contre-

balancé par une implémentation rapide et efficace, et une utilisation dans un milieu

propice à sa propagation.

Au niveau de son utilisation et implémentation, et ce malgré une mise à jour du

modèle en 1994, OSI a clairement perdu la guerre face à TCP/IP. Seuls quelques

grands constructeurs dominant conservent le modèle mais il est amené à disparaître

d’autant plus vite qu’Internet (et donc TCP/IP) explose.

Le modèle OSI restera cependant encore longtemps dans les mémoires pour

plusieurs raisons. C’est d’abord l’un des premiers grands efforts en matière de

normalisation du monde des réseaux. Les constructeurs ont maintenant tendance à

faire avec TCP/IP, mais aussi le WAP, l’UMTS etc. ce qu’il devait faire avec OSI, à savoir

proposer des normalisations dès le départ. OSI marquera aussi les mémoires pour une

autre raison : même si c’est TCP/IP qui est concrètement utilisé, les gens ont tendance

et utilisent OSI comme le modèle réseau de référence actuel. En fait, TCP/IP et OSI ont

des structures très proches, et c’est surtout l’effort de normalisation d’OSI qui a

imposé cette « confusion » générale entre les 2 modèles. On a communément tendance

à considérer TCP/IP comme l’implémentation réelle de OSI.


on peut maintenant faire communiquer 2 logiciels situés sur des ordinateurs

différents.

Mais il y a encore de petits problèmes:

Quand vous envoyez un paquet IP sur Internet, il passe par des dizaines d'ordinateurs.

Et il arrive que des paquets IP se perdent ou arrivent en double exemplaire.

Ça peut être gênant : imaginez un ordre de débit sur votre compte bancaire arrivant

deux fois ou un ordre de crédit perdu !

Même si le paquet arrive à destination, rien ne vous permet de savoir si le paquet est

bien arrivé (aucun accusé de réception).

La taille des paquets IP est limitée (environ 1500 octets).

Comment faire pour envoyer la photo JPEG du petit dernier qui fait 62000 octets ? (la

photo... pas le bébé).

C'est pour cela qu'a été conçu TCP.

TCP est capable:

de faire tout ce que UDP sait faire (ports).

de vérifier que le destinataire est prêt à recevoir les données.

de découper les gros paquets de données en paquets plus petits pour que IP les

accepte

de numéroter les paquets, et à la réception de vérifier qu'ils sont tous bien arrivés,

de redemander les paquets manquants et de les réassembler avant de les donner aux
logiciels. Des accusés de réception sont envoyés pour prévenir l'expéditeur que les

données sont bien arrivées.

Par exemple, pour envoyer le message "Salut, comment ça va ?", voilà ce que fait TCP

(Chaque flèche représente 1 paquet IP):

A l'arrivée, sur l'ordinateur 204.66.224.82, la couche TCP reconstitue le message

"Salut, comment ça va ?" à partir des 3 paquets IP reçus et le donne au logiciel qui est

sur le port 80.

Avec TCP/IP, on peut maintenant communiquer de façon fiable entre logiciels situés

sur des ordinateurs différents.

TCP/IP est utilisé pour des tas de choses:


Dans votre navigateur, le protocole HTTP utilise le protocole TCP/IP pour envoyer et

recevoir des pages HTML, des images GIF, JPG et toutes sortes d'autres données.

FTP est un protocole qui permet d'envoyer et recevoir des fichiers. Il utilise également

TCP/IP.

Votre logiciel de courrier électronique utilise les protocoles SMTP et POP3 pour

envoyer et recevoir des emails. SMTP et POP3 utilisent eux aussi TCP/IP.

Votre navigateur (et d'autres logiciels) utilisent le protocole DNS pour trouver

l'adresse IP d'un ordinateur à partir de son nom (par exemple, de trouver

216.32.74.52 à partir de 'www.yahoo.com'). Le protocole DNS utilise UDP/IP et

TCP/IP en fonction de ses besoins.

Il existe ainsi des centaines de protocoles différents qui utilisent TCP/IP ou UDP/IP.

L'avantage de TCP sur UDP est que TCP permet des communications fiables.

L'inconvénient est qu'il nécessite une négociation ("Bonjour, prêt à communiquer ?"

etc.), ce qui prend du temps.

le modèle TCP/IP n’est pas vraiment éloigné du

modèle OSI. Il ne présente cependant que 4

couches, même si un modèle hybride, séparant les

couches Physique et Liaison peut

faire autorité.
Elle est en fait composée de deux couches : Physique et

Liaison La couche physique décrit les caractéristiques physiques de la connexion :

câbles, ondes… La couche liaison spécifie le moyen utilisé pour acheminer les données

sur la couche physique : Cable Ethernet, wi fi.

Son rôle est l’injection de paquets dans n’importe quel réseau.

Lorsque deux terminaux communiquent entre eux via ce protocole, aucun chemin

pour le transfert des données n'est établi à l'avance : il est dit que le protocole est «

non orienté connexion ». Ainsi les paquets envoyés peuvent arriver dans le désordre

car ils n’auront pas suivi la même route. C’est le protocole transport qui se chargera de

remettre les paquets dans le bon ordre.

Son rôle est similaire à celui de la couche transport du modèle

OSI. Les protocoles utilisés à ce niveau sont TCP et UDP. TCP est fiable, acheminant

sans erreur les paquets à destination, utilisant des services d’acquittement, de gestion

du temps d’attente… UDP est non fiable mais plus rapide. Il est utilisé dans les liaisons

voix IP, où l’on prèfére perdre quelques données qu’attendre. Utilisé aussi pour le

streaming ou la video confèrence. Dans l’entête TCP, on retrouve le code du port

source et du port destination. Par exemple 80 pour http. 5 .

Le Modèle TCP/IP est fondé sur le constat que les logiciels

réseaux n’utilisent que très peu, ou pas , les couches session et présentation. Cette

couche regroupe toute les protocoles de haut niveau (FTP, SMTP, HTTP, DNS…). Cette

couche devra choisir un protocole de transport adapté au service demandé


4,L’adresse IPv4

L’adresse IP IPv4 est codée en décimale sur 4 octets dont chacun peut avoir un

numéro compris entre 0 à 255. Chaque octet est séparé par un point (ex. :

192.168.10.1). L’adresse IP IPv4 est le protocole qu’on utilise aujourd’hui. C’est ce qui

permet la connexion de plus de 4 milliards de machines sur un réseau en même temps.

5.L’adresse IPv6

Ce type d’Internet Protocole est assez récent par rapport à l’IPv4. C’est une

version améliorée de l’IPv4. Elle n’est plus codée en décimale en 4 octets, mais en

hexadécimal sur 16 octets dont 8 parties telles que chaque partie est sur 2 octets. Au

lieu d’un point comme séparation, les 8 parties de l’adresse IPv6 sont séparées par

deux points (ex. : 3ac4:0567:0000:34b6:0000:0000:c6d4:4300). Avec l’IPv6, le

nombre de PC qui peuvent se connecter est égal à 2128.

6. IPv6 et IPv4

La grande différence entre l’IPv4 et l’IPv6 est le nombre d’adresses IP. Celui de

l’IPv6 est beaucoup plus nombreux par rapport à celui de l’IPv4. C’est ce qui permet

de mettre au point un réseau encore plus vaste. L’adresse IPv4 a été créée en 1981 et

sa taille est de 32 bits. Quant à l’IPv6, elle a été créée en 1990 et sa taille est de 128

bits.

Cette transition est un processus qui vise au remplacement progressif du

protocole IPv4 par IPv6 sur internet. Vu que les deux adresses ne sont compatibles, la
communication entre un hôte qui dispose d’une adresse IPv6 et d’un autre utilisant

l’IPv4 est donc impossible. Afin de permettre l’échange entre les deux, il existe deux

approches bien distinctes : la double pile et les traducteurs de protocole.

7. Dns

Chaque ordinateur directement connecté à internet possède au moins une adresse

IP propre. Cependant, les utilisateurs ne veulent pas travailler avec des adresses

numériques du genre 194.153.205.26 mais avec un nom de domaine ou des adresses

plus explicites (appelées adresses FQDN pour Fully Qualified Domain Name) du

type www.ensa.uit.ac.ma Ainsi, il est possible d'associer des noms en langage courant

aux adresses numériques grâce à un système appelé DNS (Domain Name System).

Donc le DNS (Domain Name System) est un service permettant d'établir une

correspondance entre un nom de domaine et une adresse IP. Il s'agit donc d'un

système essentiel à Internet afin de ne pas avoir à saisir des adresses IP à longueur de

temps.

On appelle résolution de noms de domaines (ou résolution d'adresses) la corrélation

entre les adresses IP et le nom de domaine associé.

Ce système propose :

♯ un espace de noms hiérarchique permettant de garantir l'unicité d'un nom dans

une structure arborescente, à la manière des systèmes de fichiers d'Unix.

♯ un système de serveurs distribués permettant de rendre disponible l'espace de

noms.

♯ un système de clients permettant de « résoudre » les noms de domaines, c'est-à-


dire interroger les serveurs afin de connaître l'adresse IP correspondant à un nom.

♯ L'espace de noms

il s'appuie sur une structure arborescente dans laquelle sont définis des domaines de

niveau supérieurs (appelés TLD, pour Top Level Domains), rattachés à un noeud

racine représenté par un point.

nom de domaine : chaque noeud de l'arbre. Chaque noeud possède une étiquette (en

anglais « label ») d'une longueur maximale de 63 caractères.

L'ensemble des noms de domaine constitue ainsi un arbre inversé où chaque noeud

est séparé du suivant par un point (« . »).

L'extrémité d'une branche est appelée hôte, et correspond à une machine ou une

entité du réseau. Le nom d'hôte qui lui est attribué doit être unique dans le domaine

considéré, ou le cas échéant dans le sous-domaine. A titre d'exemple le serveur web

d'un domaine porte ainsi généralement le nom www.

Le mot « domaine » correspond formellement au suffixe d'un nom de domaine, c'est-à-

dire l'ensemble des étiquettes de noeuds d'une arborescence, à l'exception de l'hôte.


Le nom absolu correspondant à l'ensemble des étiquettes des noeuds d'une

arborescence, séparées par des points, et terminé par un point final, est appelé

adresse FQDN (Fully Qualified Domain Name, soit Nom de Domaine Totalement

Qualifié).

La profondeur maximale de l'arborescence est de 127 niveaux et la longueur

maximale d'un nom FQDN est de 255 caractères. L'adresse FQDN permet de repérer

de façon unique une machine sur le réseau des réseaux.

Ainsi www.ensa.uit.ac.ma représente une adresse FQDN.

Les machines appelées serveurs de nom de domaine permettent d'établir la

correspondance entre le nom de domaine et l'adresse IP des machines d'un réseau.

Chaque domaine possède un serveur de noms de domaines, appelé « serveur de noms

primaire » (primary domain name server), ainsi qu'un serveur de noms secondaire

(secondary domaine name server), permettant de prendre le relais du serveur de

noms primaire en cas d'indisponibilité.

Chaque serveur de nom est déclaré dans à un serveur de nom de domaine de niveau

immédiatement supérieur, ce qui permet implicitement une délégation d'autorité sur

les domaines. Le système de nom est une architecture distribuée, où chaque entité est

responsable de la gestion de son nom de domaine. Il n'existe donc pas d'organisme

ayant à charge la gestion de l'ensemble des noms de domaines.

Les serveurs correspondant aux domaines de plus haut niveau (TLD) sont appelés

« serveurs de noms racine ». Il en existe treize, répartis sur la planète, possédant les
noms « a.root-servers.net » à « m.root-servers.net ».

il ne faut pas oublier les points suivants :

Chaque ordinateur doit être configuré avec l'adresse d'une machine capable de

transformer n'importe quel nom en une adresse IP. Cette machine est appelée Domain

Name Server. Pas de panique: lorsque vous vous connectez à internet, le fournisseur

d'accès va automatiquement modifier vos paramètres réseau pour vous mettre à

disposition ces serveurs de noms.

L'adresse IP d'un second Domain Name Server (secondary Domain Name Server) doit

également être définie : le serveur de noms secondaire peut relayer le serveur de

noms primaire en cas de dysfonctionnement.

Le serveur le plus répandu s'appelle BIND (Berkeley Internet Name Domain). Il s'agit

d'un logiciel libre disponible sous les systèmes UNIX, développé initialement par

l'université de Berkeley en Californie et désormais maintenu par l'ISC (Internet

Systems Consortium).

Le mécanisme consistant à trouver l'adresse IP correspondant au nom d'un hôte est

appelé « résolution de nom de domaine ». L'application permettant de réaliser cette

opération (généralement intégrée au système d'exploitation) est appelée « résolveur »

(en anglais « resolver »).

Lorsqu'une application souhaite se connecter à un hôte connu par son nom de

domaine (par exemple « www.commentcamarche.net »), celle-ci va interroger un

serveur de noms défini dans sa configuration réseau. Chaque machine connectée au


réseau possède en effet dans sa configuration les adresses IP de deux serveurs de

noms de son fournisseur d'accès.

Une requête est ainsi envoyée au premier serveur de noms (appelé « serveur de nom

primaire »). Si celui-ci possède l'enregistrement dans son cache, il l'envoie à

l'application, dans le cas contraire il interroge un serveur racine (dans notre cas un

serveur racine correspondant au TLD « .net »). Le serveur de nom racine renvoie une

liste de serveurs de noms faisant autorité sur le domaine (dans le cas présent les

adresses IP des serveurs de noms primaire et secondaire de commentcamarche.net).

Le serveur de noms primaire faisant autorité sur le domaine va alors être interrogé et

retourner l'enregistrement correspondant à l'hôte sur le domaine (dans notre

cas www).

Un DNS est une base de données répartie contenant des enregistrements,

appelés RR (Resource Records), concernant les noms de domaines. Seules sont

concernées par la lecture des informations ci-dessous les personnes responsables de

l'administration d'un domaine, le fonctionnement des serveurs de noms étant


totalement transparent pour les utilisateurs.

En raison du système de cache permettant au système DNS d'être réparti, les

enregistrements de chaque domaine possèdent une durée de vie, appelée TTL (Time

To Live, traduisez espérance de vie), permettant aux serveurs intermédiaires de

connaître la date de péremption des informations et ainsi savoir s'il est nécessaire ou

non de la revérifier.

D'une manière générale, un enregistrement DNS comporte les informations suivantes :

Nom de domaine (FQDN) TTL Type Classe RData

www.commentcamarche.net. 3600 A IN 163.5.255.85

Nom de domaine : le nom de domaine doit être un nom FQDN, c'est-à-dire être

terminé par un point. Si le point est omis, le nom de domaine est relatif, c'est-à-dire

que le nom de domaine principal suffixera le domaine saisi ;

Type : une valeur sur 16 bits spécifiant le type de ressource décrit par

l'enregistrement. Le type de ressource peut être un des suivants :

A : il s'agit du type de base établissant la correspondance entre un nom canonique et

une adresse IP. Par ailleurs il peut exister plusieurs enregistrements A, correspondant

aux différentes machines du réseau (serveurs).

CNAME (Canonical Name) : il permet de faire correspondre un alias au nom canonique.

Il est particulièrement utile pour fournir des noms alternatifs correspondant aux

différents services d'une même machine.

HINFO : il s'agit d'un champ uniquement descriptif permettant de décrire notamment

le matériel (CPU) et le système d'exploitation (OS) d'un hôte. Il est généralement


conseillé de ne pas le renseigner afin de ne pas fournir d'éléments d'informations

pouvant se révéler utiles pour des pirates informatiques.

MX (Mail eXchange) : correspond au serveur de gestion du courrier. Lorsqu'un

utilisateur envoie un courrier électronique à une adresse (utilisateur@domaine), le

serveur de courrier sortant interroge le serveur de nom ayant autorité sur le domaine

afin d'obtenir l'enregistrement MX. Il peut exister plusieurs MX par domaine, afin de

fournir une redondance en cas de panne du serveur de messagerie principal. Ainsi

l'enregistrement MX permet de définir une priorité avec une valeur pouvant aller de 0

à 65 535 :

NS : correspond au serveur de noms ayant autorité sur le domaine.

PTR : un pointeur vers une autre partie de l'espace de noms de domaines.

8. VLAN

Un VLAN (Virtual Local Area Network ou Virtual LAN, en français Réseau Local Virtuel)

est un réseau local regroupant un ensemble de machines de façon logique et non

physique.

En effet dans un réseau local la communication entre les différentes machines est

régie par l'architecture physique. Grâce aux réseaux virtuels (VLANs) il est possible de

s'affranchir des limitations de l'architecture physique (contraintes géographiques,

contraintes d'adressage, ...) en définissant une segmentation logique (logicielle) basée

sur un regroupement de machines grâce à des critères (adresses MAC, numéros de

port, protocole, etc.).


Plusieurs types de VLAN sont définis, selon le critère de commutation et le niveau

auquel il s'effectue :

Un VLAN de niveau 1 (aussi appelés VLAN par port, en anglais Port-Based VLAN)

définit un réseau virtuel en fonction des ports de raccordement sur le commutateur ;

Un VLAN de niveau 2 (également appelé VLAN MAC, VLAN par adresse IEEE ou en

anglais MAC Address-Based VLAN) consiste à définir un réseau virtuel en fonction des

adresses MAC des stations. Ce type de VLAN est beaucoup plus souple que le VLAN par

port car le réseau est indépendant de la localisation de la station ;

Un VLAN de niveau 3 : on distingue plusieurs types de VLAN de niveau 3 :

Le VLAN par sous-réseau (en anglais Network Address-Based VLAN) associe des sous-

réseaux selon l'adresse IP source des datagrammes. Ce type de solution apporte une

grande souplesse dans la mesure où la configuration des commutateurs se modifient

automatiquement en cas de déplacement d'une station. En contrepartie une légère

dégradation de performances peut se faire sentir dans la mesure où les informations

contenues dans les paquets doivent être analysées plus finement.

Le VLAN par protocole (en anglais Protocol-Based VLAN) permet de créer un réseau

virtuel par type de protocole (par exemple TCP/IP, IPX, AppleTalk, etc.), regroupant

ainsi toutes les machines utilisant le même protocole au sein d'un même réseau.

Le VLAN permet de définir un nouveau réseau au-dessus du réseau physique et à ce

titre offre les avantages suivants :

Plus de souplesse pour l'administration et les modifications du réseau car toute


l'architecture peut être modifiée par simple paramètrage des commutateurs

Gain en sécurité car les informations sont encapsulées dans un niveau supplémentaire

et éventuellement analysées

Réduction de la diffusion du traffic sur le réseau

assignement des addresse ip 192.168.1.1/24, 192.168.1.2/24 et 192.168.2.1/24 au pc .

on vas crée vlan 2 et vlan 3 dans switch

Switch(config)#vlan 2

Switch(config)#vlan 3

On a maintenant creee les vlan mais le plus important est d’aasigner les ports

correspandant a chaque vlan

Switch(config)#int fa0/0

Switch(config-if)#switchport mode access

Switch(config-if) #switchport access Vlan 2

Switch(config)#int fa0/1

Switch(config-if)#switchport mode access

Switch(config-if) #switchport access Vlan 3


Switch(config)#int fa0/2

Switch(config-if)#switchport mode access

Switch(config-if) #switchport access Vlan 2

On a donc attribuer vlan2 au port fa0/0 , fa0/2 et vlan 3 au fa0/1 .

9. Routage inter-vlan

Il se peut qu’un besoin de communication se fasse entre les deux groupes de travail. Il

est alors possible de faire communiquer deux Vlans sans pour autant compromettre

leur sécurité.

Pour cela nous utilisons un routeur relié à un des deux switchs. Nous appelons ce type

de routage inter-vlan un Router-on-stick. Cela signifie que le router va, par

intermédiaire d'un seul lien physique router et faire transiter un ensemble de VLAN.
On aurait également pu mettre en place un switch de niveau trois qui aurai été capable

d'effectuer les tâches de routage inter-vlan.

Plusieurs Vlans peuvent avoir pour passerelle un même port physique du routeur qui

sera "découpé" en plusieurs interfaces virtuelles. Nous pouvons en effet diviser un

port du routeur selon les Vlans à router et ainsi créer une multitude de passerelles

virtuelles avec des adresses IP différentes.

Nous allons donc créer nos interface virtuelles sur le port Fa0/0 de notre routeur. Il

faut tout d'abord absolument activer l'interface physique pour que les interfaces

virtuelles soient opérationnelles :

Router#enable

Router#configuration terminal

Router(config)#interface fa0/0

Router(config-if)#no shutdown

Router(config-if)#exit

Nous allons ensuite créer l'interface fa0/0.1 (interface virtuelle 1 de l'interface

physique fa0/0),nous dirons que ce port virtuel sur la passerelle des postes du VLAN

20 :

Router(config)#interface fa0/0.1

Router(config-subif)#encapsulation dot1Q 20

Router(config-subif)#ip address 192.168.20.254 255.255.255.0


Router(config-subif)#no shutdown

Router(config-subif)#exit

Nous faisons pareil pour l'interface fa0/0.2 et les postes du réseau du vlan 30

Router(config)#interface fa0/0.2

Router(config-subif)#encapsulation dot1Q 30

Router(config-subif)#ip address 192.168.30.254 255.255.255.0

Router(config-subif)#no shutdown

Router(config-subif)#exit

Un petit mot de la commande "encapsulation dot1q". La norme de

trame 802.1q indique que les trames sont étiquetées pour contenir le numéro de vlan

à laquelle elles sont destinées/attribuées. La commande "encapsulation dot1q 30"

permet donc d'encapsuler une trame pour transiter sur le vlan 30 si elle est destinée à

celui ci. Le routeur a besoin de cette information par exemple quand il voit une trame

venant du vlan 20 (étiquetée vlan 20) qui souhaite se diriger sur le vlan 30. Il change

donc à ce moment la son étiquetage 802.1q pour que les switchs puissent

correctement acheminé la trame vers le ou les postes du vlan 30. N'oublions pas notre

switch ! Il faut également mettre le port fa0/24 de notre "Switch2" (qui fait la liaison

avec le routeur) en mode trunk pour que lui aussi puisse acheminer toutes les VLANs
vers et depuis le routeur :

Switch(config)#interface fa0/24

Switch(config-if)#switchport mode trunk

Switch(config-if)#switchport trunk allowed vlan 20,30,99

Switch(config-if)# switchport trunk native vlan 99

Switch(config-if)#no shutdown

Switch(config-if)#exit

10. NAT

NAT (Network Address Translation) est un processus de modification des adresses IP

et des ports source et de destination. La traduction d'adresses réduit le besoin

d'adresses publiques IPv4 et masque les plages d'adresses réseau privées. Le

processus est généralement effectué par des routeurs ou des pare-feu.


il fait correspondre des adresses IP à d'autres adresses IP. En particulier, un cas

courant est de permettre à des machines disposant d'adresses privées qui font partie

d'un intranet et ne sont ni uniques ni routables à l'échelle d'Internet, de communiquer

avec le reste d'Internet en utilisant vers l'extérieur des adresses externes publiques,

uniques et routables.

Ainsi, il est possible de faire correspondre une seule adresse externe publique visible

sur Internet à toutes les adresses d'un réseau privé, afin de pallier l'épuisement des

adresses IPv4.

La fonction NAT dans un routeur de service intégré (ISR) traduit une adresse IP

source interne en adresse IP globale.

Ce procédé est très largement utilisé par les box internet (ou modem routeur) des

fournisseurs d’accès pour cacher les ordinateurs personnels derrière une seule

identification publique. Il est également utilisé de façon similaire dans des réseaux

privés virtuels.

NAT permet à un seul appareil, tel qu'un routeur, d'agir comme un agent entre

Internet (ou réseau public) et un réseau local (ou réseau privé), ce qui signifie qu'une

seule adresse IP unique est requise pour représenter un groupe entier d'ordinateurs à

quoi que ce soit en dehors de leur réseau.

Il existe trois types de traduction d’adresses:


NAT statique - traduit une adresse IP privée en une adresse publique. L'adresse IP

publique est toujours la même.

NAT dynamique - les adresses IP privées sont mappées au pool d'adresses IP

publiques.

Traduction d'adresse de port (PAT) - une adresse IP publique est utilisée pour tous les

périphériques internes, mais un port différent est attribué à chaque adresse IP privée.

Également connu sous le nom de surcharge NAT

Les correspondances entre les adresses privées (internes) et publiques (externes)

sont stockées dans une table sous forme de paires (adresse interne, adresse externe).

Lorsqu'une trame est émise depuis une adresse interne vers l'extérieur, elle traverse le

routeur NAT qui remplace, dans l'en-tête du paquet TCP/IP, l'adresse de l'émetteur

par l'adresse IP externe. Le remplacement inverse est fait lorsqu'une trame

correspondant à cette connexion doit être routée vers l'adresse interne. Aussi, on peut

réutiliser une entrée dans la table de correspondance du NAT si aucun trafic avec ces

adresses n'a traversé le routeur pendant un certain temps (paramétrable).

IP interne IP externe Durée (s)Réutilisable ?

10.101.10.20 193.48.100.174 1 200 non

10.100.54.251193.48.101.8 3 601 oui

10.100.0.89 193.48.100.46 0 non

Voici par exemple une table de NAT simplifiée. On supposera qu'une entrée pourra

être réclamée si la traduction n'a pas été utilisée depuis plus de 3 600 secondes.
La première ligne indique que la machine interne, possédant l'adresse IP 10.101.10.20

est traduite en 193.48.100.174 quand elle converse avec le monde extérieur. Elle n'a

pas émis de paquet depuis 1 200 secondes, mais la limite étant 3 600, cette entrée

dans la table lui est toujours assignée. La seconde machine est restée inactive pendant

plus de 3 600 secondes, elle est peut-être éteinte, une autre machine peut reprendre

cette entrée (en modifiant la première colonne puisqu'elle n'aura pas la même IP

interne). Enfin, la dernière machine est actuellement en conversation avec l'extérieur,

le champ de Durée étant 0.

La plupart des pare-feu et routeurs implémentent le NAT pour permettre à plusieurs

machines de partager une seule adresse IP publique.

Bien que certaines applications s'en accommodent sans difficulté, le NAT n'est pas

transparent vis-à-vis des applications du réseau et reporte une complexité

additionnelle sur le fonctionnement des applications (RFC 29933, RFC 30274) :

 Les communications entre postes qui se situent derrière des NAT posent un

problème, c'est le cas des protocoles pair à pair.

 La fragmentation éventuelle des paquets dans le réseau pose également un

problème quand un NAT est traversé, car il n'est pas possible pour un hôte qui reçoit

des fragments avec le même fragment id et des adresses IP source identiques

d'identifier qu'ils appartiennent en réalité à deux hôtes différents derrière un NAT.


 Certains protocoles, comme rlogin, imposent que le port source soit fixé à 512.

La traversée d'un NAT empêche alors plus d'une session sortante par adresse

publique.

 Le protocole X Window pose également un problème, car les connexions TCP

sont initiées par les clients vers l'affichage.

 rsh et rlogin utilisent un socket initié par le serveur vers le client pour l'erreur

standard.

Un problème majeur se pose lorsqu'un protocole de communication transmet

l'adresse IP de l'hôte source dans un paquet, ou des numéros de ports. Cette adresse

n'étant pas valide après avoir traversé le routeur NAT, elle ne peut être utilisée par la

machine destinataire. Ces protocoles sont dits « passant difficilement les pare-feu »,

car ils échangent au niveau applicatif (FTP) des informations du niveau IP (échange

d'adresses) ou du niveau TCP (échange de ports), ce qui transgresse le principe de la

séparation des couches réseaux.

Les adresses internes peuvent être choisies parmi les adresses définies dans la RFC

1918. Ainsi plusieurs sites peuvent avoir le même adressage interne et communiquer

entre eux en utilisant ce mécanisme. Étant donné que les adresses internes sont

réutilisées, on économise des adresses IP publiques, dont l'occupation, en IPv4, arrive

à saturation.

On peut avoir moins d'adresses dans l'ensemble des adresses externes que ce qu'on a

comme adresses IP à l'intérieur du réseau, si l'on met en place un mécanisme


permettant de récupérer des adresses inutilisées après un certain temps (on appelle

ceci un bail). Plus précisément, si une entrée dans la table des traductions n'est pas

utilisée pendant un certain temps (paramétrable dans le serveur DHCP du réseau),

cette entrée peut-être réutilisée : une autre machine avec une adresse interne va

récupérer l'adresse externe.

On estime parfois que le NAT apporte un bénéfice du point de vue de la sécurité car

les adresses internes sont dissimulées. La sécurité des équipements derrière un NAT

n'est cependant pas supérieure à celle qu'un pare-feu à états peut fournir

1. Configurez l'interface interne du routeur à l'aide de la commande ip nat

inside

2. Configurez l'interface extérieure du routeur à l'aide de la commande ip nat

outside

3. Configurer une ACL contenant une liste des adresses source internes qui

seront traduites

4. Configurer le pool d'adresses IP globales à l'aide de la commande ip nat pool

NAME FIRST_IP_ADDRESS LAST_IP_ADDRESS netmask SUBNET_MASK

5. Activer le NAT dynamique avec la commande de configuration globale AC

NAT_NUMBER pool list NAME ip nat


1. Connectez-vous à l'appareil à l'aide de SSH / TELNET et passez en mode

activation.

2. Passez en mode config.

Router#configure terminal

Entrez les commandes de configuration, une par ligne. Terminez avec CNTL / Z.

Router(config)#

3. Configurer l'interface interne du routeur

Router(config)#interface fa0/0

Router(config-if)#ip nat inside

Router(config-if)#exit

4. Configurer l'interface externe du routeur

Router(config)#interface eth0/0/0

Router(config-if)#ip nat outside

Router(config-if)#exit

5. Configurez une ACL contenant une liste des adresses source internes qui

seront traduites.

Router(config)#access-list 1 permit 192.168.0.0 0.0.0.255


REMARQUE: la liste d'accès configurée ci-dessus correspond à tous les hôtes du sous-

réseau 192.168.0.0/24.

6. Configurer le pool d'adresses IP globales

Router(config)#ip nat pool MY_POOL 4.4.4.1 4.4.4.5 netmask 255.255.255.0

REMARQUE: le pool configuré ci-dessus se compose de 5 adresses : 4.4.4.1, 4.4.4.2,

4.4.4.3, 4.4.4.4 et 4.4.4.5.

7. Activer le NAT dynamique

Router(config)#ip nat inside source list 1 pool MY_POOL

REMARQUE: La commande ci-dessus demande au routeur de traduire toutes les

adresses spécifiées dans la liste d'accès 1 dans le pool d'adresses globales appelé

MY_POOL.

8. Quitter le mode de configuration

Router(config)#exit

Router#

9. Exécutez la commande « show ip nat translations » pour afficher la

configuration NAT.

10. Copiez la configuration en cours dans la configuration de démarrage à l'aide

de la commande ci-dessous
Router#write memory

Building configuration... [OK]

Router#

Le NAT statique n'est pas souvent utilisé car il nécessite une adresse IP publique

pour chaque adresse IP privée.

1. Configurer le mappage d'adresses IP privées/publiques à l'aide de la

commande ip nat inside dans la commande statique source PRIVATE_IP

PUBLIC_IP

2. Configurez l'interface interne du routeur à l'aide de la commande ip nat inside

3. Configurez l'interface extérieure du routeur à l'aide de la commande ip nat

outside

1. Connectez-vous à l'appareil à l'aide de SSH / TELNET et passez en mode

activation.

2. Passez en mode config.

Router#configure terminal
Entrez les commandes de configuration, une par ligne. Terminez avec CNTL / Z.

Router(config)#

3. Utilisez la commande ci-dessous pour configurer le NAT statique

Router(config)#ip nat inside source static 10.0.0.2 59.40.40.1

4. Configurer l'interface interne du routeur

Router(config)#interface fa0/0

Router(config-if)#ip nat inside

Router(config-if)#exit

5. Configurer l'interface externe du routeur

Router(config)#interface fa0/1

Router(config-if)#ip nat outside

Router(config-if)#exit

6. Quitter le mode de configuration

Router(config)#exit

Router#

7. Exécutez la commande « show ip nat translations» pour afficher la

configuration NAT.
8. Copiez la configuration en cours dans la configuration de démarrage à l'aide

de la commande ci-dessous

Router#write memory

Building configuration... [OK]

Router#
1. Vulnérabilités

Tous les actifs d’un système d’information peuvent faire l’objet de vulnérabilités, soit

d’une faiblesse qui pourrait compromettre un critère de sécurité défini comme l’accès

non autorisé à des données confidentielles ou la modification d’un système.

Un exploit est une charge informatique ou un outil qui permet d’“exploiter” une

faiblesse ciblée, soit une vulnérabilité.

2. Menaces

Une menace est l’action probable qu’une personne malveillante puisse mener grâce à

un “exploit” contre une faiblesse en vue d’atteindre à sa sécurité. Une menace est une

cause potentielle d’incident, qui peut résulter en un dommage au système ou à

l’organisation. Quelques exemples de menaces courantes :

# Code malveillant

# Personnes extérieures malveillantes

# Perte de service

# Stagiaire malintentionné
3. Attaques

Une attaque est l’action malveillante destinée à porter atteinte à la sécurité d’un bien.

Une attaque représente la concrétisation d’une menace nécessitant l’exploitation

d’une vulnérabilité.

4. Risques

Une fois les objectifs de sécurisation déterminés, les risques d’attaque pesant sur

chacun de ces éléments peuvent être estimés en fonction de menaces et de

vulnérabilités.

Le niveau global de sécurité des systèmes d’information est défini par le niveau de

sécurité du maillon le plus faible. Les précautions et contre-mesures doivent être

envisagées en fonction des vulnérabilités propres au contexte auquel le système

d’information est censé apporter service et appui.

Il faudrait pour cela estimer :

 la gravité des impacts au cas où les risques se réaliseraient,

 la vraisemblance des risques (ou leur potentialité, ou encore leur probabilité

d’occurrence).

5. Typologie des attaques les plus courante

 Usurpation d’adresses (Spoofing)

 Attaque de reconnaissance

 Eavesdropping attack

 Attaque Buffer Overflow

 Malwares
 Vulnérabilités des mots de passe

 Attaques IP

 Attaques TCP

 Vulnérabilités humaines

 Vulnérabilités des mots de passe

 Usurpation d’adresses (Spoofing)

 Attaque Denial-of-Service (DoS)/(DDoS)

 Attaque par réflexion

 Attaque par amplification

 Attaque Man-in-the-Middle (MitM)

 Attaque de reconnaissance

 Eavesdropping attack

 Attaque Buffer Overflow

 Types de Malwares

 Trojan, Virus, Vers

Social engineering : Exploite la crédulité et la confiance humaine ainsi que les

comportements sociaux.

Phishing : Dégise une invitation malveillante en quelque chose de légitime.

Spear phishing : Cible un groupe d’utilisateurs semblables.


Whaling : Cible des profil individuels de haut-niveau.

Vishing : Utilise des messages vocaux.

Smishing: Utilise des messages texte SMS.

Pharming : Utilise des services légitimes pour envoyer des utilisateurs vers un site

compromis.

Watering hole : Cible des victimes spécifiques vers un site compromis.

6. Sécurité sur les ports

On parle de la fonction Switchport Security , Cette fonction permet de contrôler les

adresses MAC autorisées sur un port. En cas de “violation”, c’est-à-dire en cas

d’adresses MAC non autorisées sur le port, une action est prise.

Switchport-Port Security permet donc de contrôler au plus bas niveau les accès au

réseau. Elle fait partie de l’arsenal disponible pour contrer des attaques de bas niveau

sur les infrastructures commutées. Parmi d’autres :

# BPDU Guard

# Deep ARP Inspection

# IPv6 First Hop Security

# DHCP Snooping

# IEEE 802.1X / EAP + Radius


# Bonne pratique VLAN

Par défaut, cette fonction est désactivée.

Si elle est simplement activée, par défaut :

Une seule adresse MAC est apprise dynamiquement et elle la seule autorisée.

En cas de “violation”, le port tombe en mode shutdown.

La fonction s’active en encodant une première fois la commande switchport port-

security en configuration d’interface.

(config)#interface G0/1

(config-if)#switchport mode access

(config-if)#switchport port-security

On peut fixer le nombre d’adresses MAC autorisées, ici par exemple 10 :

(config-if)#switchport port-security maximum 10

Les adresses MAC apprises peuvent être inscrites dynamiquement dans la

configuration courante (running-config) avec le mot clé “sticky“ :

(config-if)#switchport port-security mac-address sticky

Les adresses MAC autorisées peuvent être fixées :


(config-if)#switchport port-security mac-address 0000.0000.0003

Une “Violation” est une action prise en cas de non-respect d’une règle port-security.

(config-if)#switchport port-security violation {protect | restrict | shutdown}

Mode protect : dès que la “violation” est constatée, le port arrête de transférer le trafic

des adresses non autorisées sans envoyer de message de log.

Mode restrict : dès que la “violation” est constatée, le port arrête de transférer le trafic

des adresses non autorisées et transmet un message de log.

Mode shutdown : dès que la “violation” est constatée, le port passe en état err-

disabled (shutdown) et un message de log est envoyé.

Désactivation d’un port err-disabled selon la plateforme (shut/no shutdown) :

(config)#errdisable recovery cause psecure-violation

Diagnostic :

#show port-security

#show port-security address

#show port-security interface G0/1

#show running-config

#clear port-security {all | configured | dynamic | sticky}


7. HSRP

Le protocole HSRP (Hot Standby Routing Protocol) est un protocole propriétaire de

“continuité de service” implémenté dans les routeurs Cisco pour la gestion des “liens

de secours”.

HSRP sert à augmenter la tolérance de panne sur le réseau en créant un routeur

virtuel à partir de 2 (ou plus) routeurs physiques : un “actif” et l'autre (ou les autres)

“en attente” (ou ”standby”) en fonction des priorités accordées à chacun de ces

routeurs.

HSRP est un protocole propriétaire aux équipements Cisco et il n'est pas activé par

défaut.

Les communications HSRP entre les routeurs participant au routeur virtuel se font par

l'envoi de paquets Multicast (224.0.0.2) vers le port 1985 des routeurs concernés.

le protocole HSRP utilise pour authentifier les requêtes un mot de passe qui transite

en clair sur le réseau (même principe que les noms de communauté SNMP - Simple

Network Management Protocol). Au-delà de cette faiblesse, il existe aussi un problème

dans la gestion des adresses IP par HSRP.

En effet, bien que les messages HSPR sont de type Multicast, les paquets de type

Unicast sont acceptés et traités par HSRP. Les paquets HSRP, ayant pour adresse de

destination celle du routeur, seront traités par ce dernier sans contrainte. Ce

comportement peut permettre des attaques à distance en s'affranchissant des

contraintes de sécurité liées au trafic Multicast (le trafic Multicast peut être parfois

interdit au niveau de la politique de sécurité des routeurs).


Il a été constaté dans certaines circonstances que sur certaines versions de Cisco IOS

(11.2.x, 12.1.x), le port 1985 relatif au protocole HSRP était ouvert même si HSRP

n'était pas configuré. Ce phénomène peut être propice à l'inondation de ce port

jusqu'à la saturation des ressources de l'équipement.

Pour une sécurité plus optimale, Cisco propose d'utiliser IPSec ou un autre protocole :

VRRP (Virtual Router Redundancy Protocol).

De son côté Cisco a prévu deux types d'amélioration pour son protocole HSRP :

 utilisation de mécanisme de hachage de type MD5 afin de sécuriser les

mots de passe HSRP

 vérification plus stricte des adresses IP de destination dans les paquets

relatifs à HSRP

HSRP (Hot Standby Routing Protocol) est un protocole propriétaire crée par

Cisco et très utilisé aujourd’hui dans nos LAN. De ce protocole est dérivé VRRP

(Virtual Router Redundancy Protocol), normalisé et utilisé chez la plupart des autres

constructeurs (Nokia, Alcatel)

En pratique, HSRP permet qu’un routeur de

secours (ou spare) prenne immédiatement, de façon

transparente, le relais dès qu’un problème physique

apparaît.

En partageant une seule même adresse IP et MAC,

plusieurs routeurs peuvent être considérés comme un

seul routeur “Virtuel”. Les membres du groupe de ce

routeur virtuel sont capables de s’échanger des


messages d’état et des informations.

Un routeur physique peut donc être “responsable” du routage et un autre en

redondance.

Nous allons prendre comme cas de figure, le schéma suivant :

Le PC1 veut envoyer une requête sur Internet. R1 et R2 sont donc capables de router

sa demande. Nous allons voir la configuration nécessaire afin que R1 soit le routeur

primaire HSRP du groupe numéro 1 et que R2 soit le secondaire (standby) en cas de

problèmes.

Les interfaces Serial 0/0 des routeurs sont pour les liens vers Internet et les

interfaces FastEthernet 0/0 pour les liens du LAN.

NB : Bien sur, cette configuration s’applique également à une interface VLAN.

Il faut de toute façon affecter une adresse IP physique réelle à chacune des interfaces

puis configurer le HSRP.

Nous choisirons le groupe HSRP Numéro 1 et R1 en tant que routeur primaire.

R1(config)#interface Fastethernet 0/0

R1(config-if)# ip address 192.168.0.2 255.255.255.0

R1(config-if)#standby 1 ip 192.168.0.1

R1(config-if)#standby 1 priority 105

R1(config-if)#standby 1 preempt
Le denier paramètre “preempt” permet d’accélérer le processus d’élection. Le routeur

avec la plus haute priorité sera élu, même si un nouveau routeur avec une priorité plus

haute est ajouté.

R2(config)#interface Fastethernet 0/0

R2(config-if)# ip address 192.168.0.3 255.255.255.0

R2(config-if)#standby 1 ip 192.168.0.1

R2(config-if)#standby 1 preempt

La priorité n’est pas définie ici, en effet par défaut elle est à 100. Donc R1 avec sa

priorité 105 sera élu primaire (active) et R2 secondaire (Standby)

Les requêtes du PC1 seront donc envoyées vers R1 de façon transparente. Si jamais R1

devient inactif, la requête sera redirigée alors vers R2 sans aucun changement de

configuration.

Notre configuration est valide mais qu’arrive-t-il si le lien du Serial 0/0 du R1 est

coupé ?

Le HSRP restera identique car le routeur lui-même n’est pas tombé ou le lien vers le

LAN !!

Le paramètre “track” permet de surveiller une autre interface du routeur et de baisser

la priorité HSRP si celle-ci devient down.

Le décrément est, par défaut, de 10 par interface surveillée mais ce nombre peut être

spécifié par la commande suivante : standby [group] track interface [priority]


Retour à notre configuration, la priorité de R1 est de 105, donc si une interface

surveillée devient inactive elle sera, par défaut, réduite de 10. Sa priorité passera donc

à 95.

La priorité HSRP de R2 étant, par défaut, de 100, R2 deviendra donc actif à la place de

R1 !

Routeur 1 :

R1(config-if)#standby 1 track serial 0/0

Le comportement est le même si on spécifie explicitement la valeur du décrément (ici

10) :

Routeur 1 :

R1(config-if)#standby 1 track serial 0/0 10

Malgré que Le protocole HSRP est très répandu avec du matériel Cisco sur les LAN. Vu

qu’il permet une souplesse de configuration sur tous les matériels Cisco, y compris

Wireless , mais , il présente quelques failles non négligeables.

En effet, le protocole HSRP utilise pour authentifier les requêtes un mot de passe qui

transite en clair sur le réseau (même principe que les noms de communauté SNMP -

Simple Network Management Protocol).

Au-delà de cette faiblesse, il existe aussi un problème dans la gestion des adresses IP

par HSRP. En effet, bien que les messages HSPR sont de type Multicast, les paquets de
type Unicast sont acceptés et traités par HSRP. Cela signifie que les paquets HSRP,

ayant pour adresse de destination celle du routeur, seront traités par ce dernier sans

contrainte. Ce comportement peut permettre des attaques à distance en

s'affranchissant des contraintes de sécurité liées au trafic Multicast (le trafic Multicast

peut être interdit au niveau de la politique de sécurité des routeurs).

8. Cryptographie

cryptographie est un terme générique désignant l'ensemble des techniques

permettant de chiffrer des messages, c'est-à-dire permettant de les rendre

inintelligibles sans une action spécifique. Le verbe crypter est parfois utilisé mais on

lui préfèrera le verbe chiffrer.

La cryptologie est essentiellement basée sur l'arithmétique : Il s'agit dans le cas d'un

texte de transformer les lettres qui composent le message en une succession de

chiffres (sous forme de bits dans le cas de l'informatique car le fonctionnement des

ordinateurs est basé sur le binaire), puis ensuite de faire des calculs sur ces chiffres

pour :

 d'une part les modifier de telle façon à les rendre incompréhensibles. Le résultat

de cette modification (le message chiffré) est appelé cryptogramme (en

anglais ciphertext) par opposition au message initial, appelé message en clair (en

anglais plaintext) ;

 faire en sorte que le destinataire saura les déchiffrer


C’est quoi la virtualisation ?

La virtualisation consiste, en informatique, à exécuter sur une machine hôte,

dans un environnement isolé, des systèmes d'exploitation1 — on parle alors

de virtualisation système — ou des applications2 — on parle alors

de virtualisation applicative. Ces ordinateurs virtuels sont appelés serveur privé

virtuel (Virtual Private Server ou VPS) ou encore environnement virtuel (Virtual

Environment ou VE).

1. Notions

Chaque outil de virtualisation met en œuvre une ou plusieurs de ces notions :

# couche
......d'abstraction

............matérielle et/ou logicielle ;
# syst
....è.
me
..d'exploitation
..............h.
ô.
.te.(installé directement sur le matériel) ;

# syst
....è.
mes
.d'exploitation
.. .
.............(ou applications, ou encore ensemble d'applications)

« virtualisé(s) » ou « invité(s) » ;

# partitionnement
............... , isolation et/ou partage des ressources physiques et/ou

logicielles ;

# .
images
..... manipulables
............ : démarrage, arrêt, gel, clonage, sauvegarde et

restauration, sauvegarde de contexte, migration d'une machine physique à

une autre ;

# .
ré.
seau
....virtuel

......: réseau purement logiciel, interne à la machine hôte, entre

hôte et/ou invités.


2. Les types des systèmes de virtualisation

Un isolateur est un logiciel permettant d'isoler

l'exécution des applications dans ce qui est

appelé des contextes, ou bien zones

d'exécution. L'isolateur permet ainsi de faire

tourner plusieurs fois la même application

dans un mode multi-instance (plusieurs instances d’exécution) même si elle

n’était pas conçue pour ça. Cette solution est très performante, du fait du peu

d'overhead (temps passé par un système à ne rien faire d'autre que se gérer),

mais les environnements virtualisés ne sont pas complètement isolés. La

performance est donc au rendez-vous, cependant on ne peut pas vraiment parler

de virtualisation de systèmes d’exploitation. Uniquement liés aux systèmes Linux,

les isolateurs sont en fait composés de plusieurs éléments et peuvent prendre

plusieurs formes.

Par exemple, en logiciels libres : Linux-VServer (isolation des processus

en espace utilisateur), chroot (isolation changement de racine), BSD

Jail (isolation en espace utilisateur), OpenVZ (partitionnement au niveau noyau

sous Linux), LXC (usage des Cgroups du noyau Linux), Docker.

Un hyperviseur de type 1 est comme un noyau système très léger et optimisé


pour gérer les accès des noyaux d'OS invités à l'architecture matérielle sous-

jacente. Si les OS invités fonctionnent en ayant conscience d'être virtualisés et

sont optimisés pour ce fait, on parle alors de para-virtualisation (méthode

indispensable sur Hyper-V

de Microsoft et qui

augmente les performances

sur ESX de VMware par

exemple). Actuellement

l’hyperviseur est la

méthode de virtualisation

d'infrastructure la plus

performante mais elle a pour inconvénient d’être contraignante et onéreuse, bien

que permettant plus de flexibilité dans le cas de la virtualisation d'un centre de

données.

Par exemple : Citrix Xen Server (libre), VMware vSphere (anciennement VMware

ESXi et VMware ESX), Microsoft Hyper-V Server, Parallels Server Bare

Metal, Oracle vm (gratuit), KVM (libre).

Un hyperviseur de type 29 est un logiciel (généralement assez lourd) qui tourne

sur l'OS hôte. Ce logiciel permet de lancer un ou plusieurs OS invités. La machine

virtualise ou/et émule le matériel pour les OS invités, ces derniers croient
dialoguer directement avec ledit matériel. Cette solution est très comparable à

un émulateur, et parfois même

confondue. Cependant l’unité

centrale de calcul, c'est-à-dire

le microprocesseur, la mémoire

système (RAM) ainsi que la mémoire

de stockage (via un fichier) sont

directement accessibles aux

machines virtuelles, alors que sur un

émulateur l’unité centrale est simulée ce qui réduit considérablement les

performances par rapport à la virtualisation.

Cette solution isole bien les OS invités, mais elle a un coût en performance. Ce

coût peut être très élevé si le processeur doit être émulé, comme cela est le cas

dans l’émulation. En échange cette solution permet de faire cohabiter plusieurs

OS hétérogènes sur une même machine grâce à une isolation complète. Les

échanges entre les machines se font via les canaux standards de communication

entre systèmes d’exploitation (TCP/IP et autres protocoles réseau), un tampon

d’échange permet d’émuler des cartes réseaux virtuelles sur une seule carte

réseau réelle.

Par exemple : logiciels Microsoft (Microsoft VirtualPC, Microsoft Virtual Server),

logiciels Parallels (Parallels Desktop, Parallels Server), Oracle VM

VirtualBox (libre), logiciels VMware (VMware Fusion, VMware Player, VMware


Server, VMware Workstation), logiciels libres (QEMU : émulateur de plateformes

x86, PPC, Sparc, et bochs : émulateur de plateforme x86).

On utilisera par suite , pour notre projet un système


de virtualisation de type 2 , on parlera du proxmox .
A l’aide de proxmox on vas créé des machines virtuelles
qui sont :
× Un client : avec système d’exploitation ubunto
× Un serveur : windows server 2016
× Un intermédiaire entre client et serveur :avec
système d’exploitation kali linux
On utilise kali lunix comme intermédiaire entre le client
et le serveur , afin d’analyser les unités de données
transmise , soit disant les paquets .
En guis de conclusion : le but de ce premiere projet est
de décode les paquets capturés et de comprendre les
différentes structures (encapsulation) des protocoles de
communication entre le client et le serveur .
On commence d’abord par la mise en place du
proxmox .
3. Proxmox :

Proxmox Virtual Environment (PVE) est une solution de virtualisation

libre basée sur l'hyperviseur Linux KVM, et offre aussi une solution de containers

avec LXC. C'est une solution de virtualisation de type "bare metal". La base du

système est une distribution Debian. C'est un équivalent à la solution ESX de

VMware.

L’outil propose une interface Web, accessible après l’installation sur votre

serveur. Cette interface facilite la gestion de la machine virtuelle, puisque

généralement, quelques clics suffisent.

Pourquoi utiliser Proxmox ?

Les solutions de management de virtualisation des serveurs ne manquent pas

sur le marché, mais Proxmox se distingue par ensemble de caractéristiques.

✓ Migration directe : cela permet de déplacer une machine virtuelle en cours

d’exécution d’un serveur physique à un autre, sans interruption.

✓ Open source : il est entièrement open source, sousGeneral Public License,

version 3 (GNU AGPL, v3). Cela signifie que vous pouvez librement visualiser,

modifier et supprimer le code source, et distribuer votre propre version, tant que

vous respectez les termes de la Licence.

✓ Mise en réseau pontée : Proxmox VE permet à un utilisateur de créer un

réseau privé entre les machines virtuelles. Des options VLANsont également

disponibles.

✓ Modèle de système d’exploitation : Proxmox VE permet aux utilisateurs de


créer leur propre modèle de système d’exploitation pour un déploiement

ultérieur. Bien sûr, il est également possible pour les utilisateurs de télécharger

un fichier modèle depuis Internet et d’importer ce fichier dans leur système.

✓ Stockage flexible : une large gamme d’options de stockage est disponible, y

compris des technologies de stockage locales .

✓ Sauvegarde planifiée : une interface utilisateur est fournie aux utilisateurs afin

qu’ils puissent configurer leur propre stratégie de sauvegarde. Les fichiers de

sauvegarde peuvent être stockés localement ou sur n’importe quelle option de

stockage prise en charge que vous avez configurée.

✓ Outil de ligne de commande (CLI) : Proxmox VE fournit différents outils de

gestion CLI, permettant aux utilisateurs d’accéder au conteneur de la machine

virtuelle, de gérer les ressources, et Les technologies de virtualisation

supportées :

Proxmox supporte 2 technologies de virtualisation, à savoir la LXC et la

KVM. Elles sont toutes les deux excellentes, mais Il existe quelques

différences entre les deux – liées aux fonctionnalités et aux performances.

✓ LXC s’appuie sur le noyau et le système d’exploitation de la machine hôte pour

fonctionner. Pour cette raison, certaines fonctionnalités sont limitées, telles que :

✓ l’utilisation de Windows et d’autres systèmes d’exploitation,

✓ l’installation de nouveaux noyaux,

✓ la modification des valeurs du noyau du système.


➢ L’utilisation de LXC présente également des avantages :

✓ Peut être plus performant que KVM car il n’y a pas de surcharge d’hyperviseur.

✓ Étant donné que les frais généraux sont inférieurs, le coût global

d’hébergement des conteneurs est inférieur à KVM.

Lorsque vous utilisez KVM, vous ne rencontrerez généralement pas de

fonctionnalités qui ne sont pas prises en charge, comme dans le cas de LXC. Les

serveurs KVM exécutent leur propre système d’exploitation, avec son propre

noyau et son matériel virtuel. Ceci permet :

✓ l’utilisation de systèmes d’exploitation Windows ou BSD,

✓ l’exécution de systèmes d’exploitation spécialisés, tels que le routage, le pare-

feu et d’autres systèmes d’exploitation centrés sur le réseau,

✓ l’utilisation de votre propre technologie de conteneur telle qu’ OpenVZ, LXC,

Docker ou bien d’autres. Installation Proxmox : Ici, il faudra sélectionner « Install

Proxmox VE »

En installation actuellement :
Apres des simple configuration , tel que nom adresse ip , passerelle …
Pour finir, vous aurez à l’écran un rappel de l’URL d’accès à l’interface

d’administration. Je vous invite à la noter pour après, ensuite cliquez sur «

Reboot » :

Vous pouvez maintenant vous connecter à votre serveur via votre navigateur en

utilisant l’URL notée précédemment avec le port 8006. Une fois sur l’interface, il

faudra vous authentifier avec le mot de passe root en sélectionnant « Linux PAM

standard authentication » et le langage souhaité :

Commençons par la création d’une machine virtuelle sous le nom « ubuntu »

avec les paramètres résumés dans la figure suivante :


Après la création, comme vous voyez voilà votre machine près à utiliser.

Après avoir démarré la machine virtuelle et fait toutes les modifications

nécessaires. On peut installer les services Openssh et Docker et cloudnext les

vérifier en tapant les commandes suivantes :


Authentification en tant qu'administrateur

Installation du protocol ssh, après la vérification. ssh n'est pas encore installer tu

peux vérifier avec la commands ssh localhost.

On a commencé l’installation de protocole pour accéder à distance :


Voilà notre protocole est activé avec succès.

Nous avons accéder à l'intérieur de notre machine avec ssh.

De la meme facon qu’on a cree avec la machine vertuelle ubunto - le client - on

cree deux autre machine kali linux et windows server

Windows server 2016 : Kali linux :


d.

Sur machine serveur on configure dhcp et dns :

On va commencer par

affecter une adresse

IPv4 statique à notre

serveur, on le fait car on

ne peut se permettre

que notre serveur

DHCP change d’adresse

IP régulièrement:

Pour pouvoir installer

le serveur DHCPv4 il

faut ajouter des rôles et

fonctionnalités, pour cela

on se rend dans le

gestionnaire de serveur,

puis cliquez sur

« Ajoutez des rôles et des

fonctionnalités »:

Une fenêtre apparaîtra,


cliquez sur « Suivant ».

Puis, choisissez « Installation

basée sur un rôle ou une

fonctionnalité » puis cliquez

sur « Suivant ».

Ensuite, Sélectionnez votre

serveur de destination puis

cliquez sur « Suivant »:

Dans la liste des rôles de serveurs,

cochez la case « Serveur

DHCP » et « Serveur DNS

» (qu’on configurera plus tard)

puis cliquez sur « Suivant ».

Cette fenêtre apparaîtra, cochez la

case « Inclure les outils de gestion

(si applicable) » puis cliquez sur « Ajouter des fonctionnalités »:

Une fenêtre vous expliquant le rôle d’un serveur DHCP apparaîtra, cliquez sur

« Suivant ».

Vous pouvez maintenant installer les rôles Serveur DHCP, cliquez sur « Installer »:
Pour pouvoir

configurer notre

serveur DHCP, on se

rend dans

le gestionnaire de

serveur, onglet DHCP:

Cliquez sur

« Gestionnaire

DHCP »:
Dans cette fenêtre on clique droit sur IPv4 puis on va définir une nouvelle

étendue:

On définit un nom à l’entendue, dans notre cadre d’étude nous avons définit le
nom « PPEIPv4-SDIS29 »:

Cette fenêtre nous permet de configurer la plage d’adresses IPv4 de l’étendue:

On définit ensuite la ou les adresses exclues (comme par exemple l’adresse du

serveur DHCP):
Puis on définit la durée du bail:

Et on termine la création d’une nouvelle étendue:


Le serveur DHCPv4 est désormais opérationnel.

Mise en place de redondance DHCP: en mode failover

Avoir un serveur DHCP c’est bien, cependant si il vient à planter, c’est

compromettant. C’est pour ça que nous allons voir comment mettre en place une

redondance DHCP sur Windows Server 2016.

Il existe deux sortes de redondance DHCP, le Failover et le Load Balancing.

Le Failover consiste à avoir deux serveurs DHCP, un fonctionnel que l’on

appellera « Maître » et un autre en veille que l’on appellera « Esclave », le but


étant que si le serveur DHCP « Maître » vient à planter le serveur DHCP

« Esclave » prenne le relais.

Pour le Load Balancing, les deux serveurs DHCP fonctionnent en même temps et

se répartissent les charges (en fonction d’un pourcentage défini par

l’administrateur).

Configuration IP des machines :

Serveur DHCP 1 : 192.168.42.29

Serveur DHCP 2 : 192.168.42.1

La première chose à faire est d’installer le rôle DHCP sur notre deuxième serveur

DHCP:
Inutile de configurer une étendue sur votre second serveur DHCP,

puis qu’avec le basculement la configuration du serveur 1 sera

envoyé vers le serveur 2.

Ensuite, nous pouvons donc

mettre en place le basculement:

On saisit l’adresse IP de notre

second serveur DHCP :

Maintenant nous pouvons

choisir quel type de

redondance nous

voulons, Failover ou Load

Balancing.

Pour ce tutoriel nous

allons utiliser le

mode Failover:
Après avoir configuré notre basculement nous allons maintenant voir si ça

fonctionne.

On éteint le serveur DHCP Maître afin de voir si l’esclave va prendre le relais, une

fois le serveur éteint on peut voir que le serveur esclave a bien reçu la

configuration du serveur Maître, la petite flèche orange indique que ce serveur

est bien un serveur redondant.

Sur le client on ouvre un

cmd, on fait un ipconfig

/release et

un ipconfig/renew afin

de charger une nouvelle

configuration IP.
Passons maintenant a linux : problèmes réseau et assurer des

formations. Il n’y a pas de meilleur

On utilise par suite wireshark moyen pour apprendre le

Par défaut wireshark est déjà installe fonctionnement des réseaux que

dans kali linux , on est censée de l’ouvrir d’analyser du trafic sous le microscope

tout simplement . de Wireshark. La question de la légalité

de Wireshark est souvent posée, car il

Wireshark est un logiciel open source s’agit d’un puissant outil de capture de

d’analyse des protocoles réseau créé paquets. Pour rester du côté lumineux

par Gerald Combs en 1998. Un groupe de la Force, vous ne devez utiliser

international d’experts réseau et de Wireshark que sur les réseaux dont

développeurs gère aujourd’hui cet outil vous avez l’autorisation d’inspecter les

et le met à jour pour assurer sa paquets. Utiliser Wireshark pour

compatibilité avec les nouvelles observer des paquets sans autorisation

technologies réseau et méthodes de vous ferait basculer du côté obscur de la

chiffrement. Wireshark ne pose Force.

absolument aucun risque de sécurité. Il


Les options de capture les plus utiles
est notamment utilisé par des agences
que nous considérerons sont :
gouvernementales, de grandes
Interface réseau – nous n'analyserons
entreprises, des organisations à but non
que les paquets provenant de eth0,
lucratif et des établissements
qu'ils soient entrants ou sortants.
pédagogiques pour résoudre des
Filtre de capture – Cette option nous
permet d'indiquer quel type de trafic

nous voulons surveiller par port,

protocole ou type.

Avant de passer aux astuces, il est

important de noter que certaines


Parfois, vous serez intéressé par
organisations interdisent l'utilisation de
l'inspection du trafic qui correspond à
Wireshark dans leurs réseaux. Cela dit, si
l'une des conditions (ou aux deux). Par
vous n'utilisez pas Wireshark à des fins
exemple, pour surveiller le trafic sur les
personnelles, assurez-vous que votre
ports TCP 80 (serveur web) et 3306
organisation autorise son utilisation.
(serveur de base de données

MySQL/MariaDB), vous pouvez utiliser

une condition OR dans le filtre de

capture :

Inspecter le traffic de http

La règle de filtrage suivante affichera

uniquement le trafic local et exclura les

Inspecter le trafic HTTP à partir d'une paquets entrant et provenant d'Internet :

adresse IP donnée
Pour inspecter le contenu d'une

conversation TCP (échange de données),

faites un clic droit sur un paquet donné et

choisissez Suivre le flux TCP. Une fenêtre Pour résumé , il suffit de taper le

apparaîtra avec le contenu de la protocole que vous cherchez dans la

conversation. bande de recherche pour filtre le

résultats apparut .

Cela inclura les en-têtes

HTTP si nous inspectons le

trafic Web, ainsi que les

informations d'identification

en texte brut transmises au

cours du processus, le cas

échéant.
Dans le cadre du sécurité réseau , on développe un site web qui a comme but la criptographie .

Donc il a pour rôle ; crypter le text donnée en différents forme selon le choix de l’utilisateur ,

soit md5, sha256 , sha512 , base64 , Bcrypt ou argon21 .

Pour ceux-la on utilise php , html , c++ et javascript

1. Code source back-end


<!-- pr md5 -->
<?php
if(isset($_POST['btn'])):
$text = $_POST['texto'];
$textmd5 = md5($text);
echo "<h4>en MD5: $textmd5</h4>";
endif;
?>

<body>
<form action="<?php echo $_SERVER['PHP_SELF']; ?>" method="post">
<p>donner le text a chiffrer en sha256 </p>
<input type="text" name="texto1" placeholder="le text ">
<button type="submit" name="btn1">chiffrer le text </button>
</form>
</body>
</html>

<?php
if(isset($_POST['btn1'])):
$text = $_POST['texto1'];
$textsha256 = hash('sha256',$text);
echo "<h4>en SHA256: $textsha256</h4>";
endif;
?>
<!-- pr sha512 -->

<?php
if(isset($_POST['btn3'])):
$text = $_POST['texto3'];
$textsha512 = hash('sha512',$text);
echo "<h4>en SHA512: $textsha512</h4>";
endif;
?>
<!-- base64 (shit alt a) -->
<?php
if(isset($_POST['btn4'])):
$text = $_POST['texto4'];
$textBase64 = base64_encode($text);
echo "<h4>en Base64: $textBase64</h4>";
endif;
?>
<!-- Bcrypt -->

<?php
if(isset($_POST['btn5'])):
$text = $_POST['texto5'];
$textBcrypt = password_hash($text,PASSWORD_DEFAULT);
echo "<h4>Em Bcrypt: $textBcrypt</h4>";
endif;
?>

<!--argon2I -->
<?php
if(isset($_POST['btn6'])):
$text = $_POST['texto6'];
$textARGON2I = password_hash($text,PASSWORD_ARGON2I);
echo "<h4>en ARGON2I: $textARGON2I</h4>";
endif;
?>

2. Des captures d’écran du site crée :


Ces deux buttons pour

changer les couleurs de la

page selon vos choix


On veut crypter le mot “ rapport stage “ en Bcrypt :

Le résultat est :

En Bcrypt :

En sha256 :

En md5 :

En aron21 :

Vous aimerez peut-être aussi