Vous êtes sur la page 1sur 7

Devoir à la maison:

- Data Center
- Protocoles de Téléphone

Réaliser par:

ZAIM Mohamed
Encadré par:

Mm.Pr. SAIDI Hanana

Année scolaire: 2022 - 2021 Page | 1


Data Center:
I. Definition:
Un data center, ou centre de données en français, désigne un lieu physique où sont regroupés
différents équipements informatiques, tels que des ordinateurs, des serveurs, etc. Sa fonction principale
consiste à stocker des informations utiles au bon fonctionnement d'une entreprise. Un data center,
selon sa taille, la puissance de ses systèmes de stockage, et d'autres caractéristiques, peut en effet
conserver des milliards de données sur des clients, des individus, etc.

II. Fonctionnement des Data Centers :


Les data centers contiennent des serveurs virtuels ou physiques connectés en interne et en
externe via des équipements réseau et de communication afin de stocker et de transférer
l’information numérique ainsi que d’y accéder. Chaque serveur comprend un processeur, de
l’espace de stockage et de la mémoire comme sur un ordinateur personnel, mais offrant plus de
puissance. Les data centers utilisent des logiciels pour regrouper les serveurs en clusters et
répartir la charge de travail entre eux.

Page | 2
III. Architecture de réseau de centre de
données traditionnel :
Dans les grands centres de données traditionnels, le réseau est généralement une structure à trois
niveaux. Cisco l'appelle : un modèle d'inter-réseau hiérarchique. Ce modèle contient les trois couches
suivantes :

 Couche d'accès : parfois appelée couche de contour. Les commutateurs d'accès sont
généralement situés en haut du rack, ils sont donc également appelés commutateurs ToR
(Top of Rack), qui sont physiquement connectés au serveur.
 Couche d'agrégation : parfois appelée couche de distribution. Le commutateur
d'agrégation se connecte au commutateur d'accès et fournit d'autres services tels que le
pare-feu, le déchargement SSL, la détection d'intrusion et l'analyse du réseau.
 Couche principale : le commutateur principal fournit un transfert à grande vitesse pour
les paquets entrant et sortant du centre de données, fournissant une connectivité pour
plusieurs couches d'agrégation. Le commutateur principal fournit un réseau de routage L3

flexible pour l'ensemble du réseau.Un schéma d'architecture de réseau à trois couches est le suivant :

Page | 3
Généralement, le commutateur d'agrégation est le point de démarcation entre les réseaux L2 et L3. Le
commutateur d'agrégation se trouve en dessous du réseau L2. Ce qui précède est le réseau L3. Chaque
groupe de commutateurs d'agrégation gère un POD (Point Of Delivery), et chaque POD est un réseau
VLAN indépendant. Le serveur n'a pas besoin de modifier l'adresse IP et la passerelle par défaut pour
migrer au sein du POD car un POD correspond à un domaine de diffusion L2.

STP (Spanning Tree Protocol) est généralement utilisé entre le commutateur d'agrégation et le
commutateur d'accès. STP ne met à disposition qu'un seul commutateur de couche d'agrégation pour un
réseau VLAN, et d'autres commutateurs de couche d'agrégation sont utilisés en cas de défaillance (ligne
pointillée dans la figure ci-dessus). C'est-à-dire que la couche d'agrégation est un mode HA actif-passif.
De cette façon, au niveau de la couche d'agrégation, l'expansion horizontale n'est pas possible, car même
si plusieurs commutateurs d'agrégation sont ajoutés, un seul fonctionne toujours. Certains protocoles
propriétaires, tels que le vPC (Virtual Port Channel) de Cisco, peuvent améliorer l'utilisation du
commutateur de couche d'agrégation, mais d'une part, il s'agit d'un protocole propriétaire, d'autre part, le
vPC ne peut pas vraiment atteindre une expansion horizontale Complète. La figure ci-dessous montre
une couche de convergence en tant que ligne frontière L2/L3 et utilise l'architecture de réseau vPC.

Page | 4
Avec le développement du cloud computing, les ressources informatiques sont mutualisées. Afin
d'allouer arbitrairement les ressources informatiques, une grande architecture de réseau à deux
niveaux est nécessaire. C'est-à-dire que l'ensemble du réseau du centre de données est un
domaine de diffusion L2 afin que le serveur puisse être créé et migré n'importe où, sans modifier
l'adresse IP ou la passerelle par défaut. L'architecture de réseau de deuxième niveau, la limite
L2/L3 se trouve dans le commutateur principal, le commutateur principal, c'est-à-dire que
l'ensemble du centre de données est le réseau L2 (bien sûr, il peut contenir plusieurs VLAN et les
VLAN sont connectés via le commutateur principal pour la communication). L'architecture
réseau des deuxième et deuxième niveaux est illustrée ci-dessous :

Bien que la grande architecture de réseau à deux niveaux permette de créer de manière flexible le
réseau de machines virtuelles, les problèmes engendrés sont évidents. La tempête BUM
(Broadcast, Unknown Unicast, Multicast) apportée par le domaine de diffusion L2 partagé
augmente considérablement avec l'augmentation de la taille du réseau, ce qui finira par affecter
le trafic réseau normal.

Les architectures réseau traditionnelles à trois niveaux existent depuis des décennies et sont
toujours utilisées dans certains centres de données. Quelle était la raison originelle de cette
architecture ? D'une part, parce que les premiers périphériques de routage L3 sont

Page | 5
beaucoup plus chers que les périphériques de pont L2. Même maintenant, les commutateurs
principaux sont beaucoup plus chers que les périphériques de couche d'accès d'agrégation. Avec
cette architecture, plusieurs POD de couche d'agrégation peuvent être connectés à l'aide d'un
ensemble central de commutateurs. Par exemple, dans la figure ci-dessus, une paire de
commutateurs principaux est connectée à plusieurs POD de couche d'agrégation. D'autre part,
dans les premiers centres de données, la majeure partie du trafic était un trafic nord-sud. Par
exemple, une application Web est déployée sur un serveur pour être utilisée par des clients en
dehors du centre de données. À l'aide de cette architecture, vous pouvez contrôler l'entrée et la
sortie de données dans le commutateur principal, ajouter un équilibreur de charge et équilibrer la
charge du trafic de données.

Page | 6
Protocol de Téléphones:
I. Introduction :
Le protocole de voix sur Internet nécessite l'utilisation de divers protocoles pour transmettre les données
en temps réel et gérer la congestion du réseau. Les protocoles VoIP sont divisés en deux parties, il existe
des protocoles pour la signalisation et l’établissement des connexions entre les entités VoIP (H323, SIP,
MGCP, SCCP), des protocoles standards comme les protocoles (H323, SIP, MGCP) et SCCP (Skinny
Client Control Protocol) qui est un protocole propriétaire CISCO ainsi que des protocoles pour le
transport. Le transport et le contrôle des flux média sont garantis par les protocoles RTP (Real-time
Transport Protocol) et RTCP (Real-time Transport Control Protocol).

Les protocoles de signalisations il est responsable du contrôle de la communication, de l'identification


des appels, des sonneries, de signaler les appelants, de gérer les absences …etc. Notre étude sera sur les
protocoles : H323, SIP, SCCP.

 SIP (Session Initiation Protocol) est un protocole de communication standard ouvert de gestion
de sessions souvent utilisé dans les télécommunications multimédia (son, image, etc.). Il est
depuis 2007 le plus courant pour la téléphonie par internet (la VoIP).

 H.323 regroupe un ensemble de protocoles de communication de la voix, de l'image et de données sur


IP. C'est un protocole développé par l'UIT-T qui le définit comme : « systèmes de communication
multimédia en mode paquet ». La première version est publiée en novembre 19961. La version actuelle
de la norme date de 20092 et est précédée des plusieurs autres mises à jour, toujours rétro compatibles.

 SCCP (Skinny Call Control Protocol) est un protocole de communication, faisant partie de la couche
Application du modèle OSI.

Page | 7

Vous aimerez peut-être aussi