Vous êtes sur la page 1sur 13

CHAPITRE 4

DATA CENTER ARCHITECTURE

Un data center ou centre de données est un site physique regroupant des


installations informatiques (serveurs, routeurs, commutateurs, disques durs...)
chargées de stocker et de distribuer des données (data en anglais) à travers un
réseau interne ou via un accès Internet.
Les entreprises possédant des bases de données, tous les sites Internet, les
services de cloud computing hébergent leurs activités dans des data centers. Il peut
s'agir d'installations privées à usage exclusif ou bien de centres de données
administrés par des prestataires qui regroupent plusieurs clients.

Fig2 :Image d’un data center 1

DR DJOUSSE 1
I.GESTION D’UN DATACENTER
Un data center n'est finalement qu'un ensemble de serveurs. Chaque serveur est
un ordinateur ultra performant, avec beaucoup de mémoire, de l'espace de
stockage et un ou plusieurs processeurs puissants. Mais ils doivent être en service
constamment, ne peuvent connaître aucune interruption ni baisse de performances
et les problèmes peuvent être nombreux.
La gestion des pannes
Les centres doivent être opérationnels 24h/24. Les défaillances (pannes
d'équipement, coupures d'électricité) doivent être traitées immédiatement. En cas
de sinistre, tout est mis en œuvre pour un traitement et une reprise des activités
rapides.

La gestion de la chaleur
Les serveurs d'un data center génèrent une chaleur considérable qu'il faut gérer et
limiter pour leur bon fonctionnement. Chaque centre possède donc un système de
refroidissement qui garde une température constante d'une vingtaine de degrés
Celsius. Aujourd'hui on utilise surtout des systèmes de refroidissement à l'air libre,
moins gourmands en énergie.
La gestion de la sécurité
Sur les serveurs se trouvent des informations sensibles qui doivent être
physiquement et numériquement protégées. Les centres sont donc très sécurisés:
alarmes, portails et portes de sécurité, pare-feu. Les adresses de certains centres
sont même tenues secrètes. Tout doit être fait pour empêcher les intrus et les
pirates électroniques d'entrer d'une manière ou d'une autre.
La gestion de l’énergie
Les serveurs et le système de refroidissement d'un data center consomment une
grande quantité d'énergie. Un des enjeux actuels est donc de limiter cette
consommation en optimisant le fonctionnement des centres et d'utiliser
des énergies vertes. Des systèmes de récupération de chaleur sont aussi mis en
place.

DR DJOUSSE 2
II. Role d’un data center
Les centres de données servent à héberger les milliards de milliards de gigaoctets
présents sur internet, mais aussi les données que toute personne ou compagnie
génèrent et utilisent. Certaines sociétés construisent et entretiennent leurs propres
centres, d'autres louent des serveurs dans des installations de colocation (appelées
colos) et d'autres encore utilisent des services publics. Les centres de données sont
utilisés par tout le monde:
 les agences gouvernementales;

DR DJOUSSE 3
 les institutions financières;
 les fournisseurs d'informations en ligne;
 les réseaux sociaux;
 les services de courriers électroniques et de messagerie instantanée;
 les fournisseurs de cloud computing;
 les services de jeux en ligne;
 les entreprises de télécommunications, etc.

DR DJOUSSE 4
L'architecture du centre de données est la disposition physique et logique des
ressources et de l'équipement au sein d'une installation de centre de données.
Il sert de modèle pour la conception et le déploiement d'une installation de centre
de données. Il s'agit d'un processus en couches qui fournit des directives
architecturales pour le développement de centres de données.
L'architecture du centre de données est généralement créée lors de la phase de
conception et de construction du centre de données.

DR DJOUSSE 5
L'architecture du centre de données spécifie où et comment le serveur, le réseau de
stockage, les racks et les autres ressources du centre de données seront
physiquement placés.
Il explique également comment ces ressources/dispositifs seront interconnectés et
comment les flux de travail de sécurité physiques et logiques sont organisés.
En règle générale, l'architecture du centre de données consiste en ou intègre :
• Architecture réseau du centre de données
• Architecture informatique du centre de données
• Architecture de sécurité du centre de données
• Architecture physique du centre de données
• Architecture des informations du centre de données

III. Composant infrastructurel d’un DATACENTER

DR DJOUSSE 6
Fig3 :Infrastructure data center

Composants les plus importants des datacenters modernes


1 – Alimentation électrique et onduleur sécurisés
Aucun datacenter n’est concevable sans alimentation sans coupure (UPS). En cas de panne de
l’alimentation principale, les batteries du système UPS prennent temporairement le relais
jusqu’à ce que les générateurs diesel entrent en service. De nouveaux concepts intelligents
pour les batteries et les salles de batteries changent actuellement les systèmes traditionnels :
des batteries modernes et sans entretien sont maintenues en permanence dans la salle de
batteries climatisée par une électronique de charge intelligente. En cas de panne totale de
l’alimentation externe, ils peuvent alimenter le datacenter en pleine charge pendant une dizaine
de minutes. Les générateurs diesel sont démarrés pendant ce temps, ce qui garantit
l’alimentation électrique pendant de plus longues périodes.
2 – Systèmes de sécurité, de protection contre l’incendie et de contrôle environnemental
Dans le datacenter les normes de sécurité les plus élevées s’appliquent, non seulement pour la
défense contre les cyberattaques, mais aussi pour la sécurité structurelle, l’accès et le contrôle
d’accès, ainsi que les systèmes conçus de manière redondante. Une protection incendie
sophistiquée joue un rôle décisif, car il n’y a pratiquement aucun endroit où l’énergie est aussi
concentrée que dans un datacenter. Un réseau dense de détecteurs d’incendie et un système
de détection précoce d’incendie sont donc tout aussi importants qu’un système d’extinction.
d’extinction inonde le datacenter d’azote non toxique en cas d’incendie, ce qui étouffe les
flammes.
3 – Zone intérieure du datacenter : les racks de serveurs dans une architecture
intelligente
La réduction de la chaleur est généralement renforcée par la construction d’un double étage
dans la salle des serveurs. C’est un principe simple. L’air chaud qui est soufflé des serveurs est
aspiré par une unité de refroidissement par air à recirculation, refroidi par un échangeur de
chaleur et finalement renvoyé vers les racks. Cette circulation d’air garantit une température
ambiante appropriée au cœur du datacenter, où les serveurs, les systèmes de stockage et de
réseau sont disposés dans des racks normalisés de 19 pouces.
4 – Câblage du datacenter : structuré et sécurisé
Les composants de réseau passifs tels que les câbles et les connecteurs, qui connectent tous
les systèmes de manière redondante les uns aux autres et à Internet, devraient permettre
l’utilisation de réseaux de câblage en cuivre et en fibre optique. Un câblage sécurisé et structuré
garantit le succès d’un concept de datacenter et un fonctionnement sans problème, conforme
aux normes en vigueur.

DR DJOUSSE 7
IV.Présentation de l'architecture du centre de
données (cisco)
.
Ici nous avons un aperçu des solutions Cisco éprouvées pour fournir des conceptions d'architecture dans le centre de
données d'entreprise et comprend les sujets suivants :

• Présentation de l'architecture du centre de données

• Modèles de conception de centre de données

Présentation de l'architecture du centre de données


Le centre de données abrite la puissance de calcul, le stockage et les applications nécessaires pour prendre en charge les
activités d'une entreprise. L'infrastructure du centre de données est au cœur de l'architecture informatique, à partir de
laquelle tout le contenu provient ou transite. Une bonne planification de la conception de l'infrastructure du centre de
données est essentielle, et les performances, la résilience et l'évolutivité doivent être soigneusement prises en compte.
Un autre aspect important de la conception du centre de données est la flexibilité dans le déploiement
et la prise en charge rapides de nouveaux services. La conception d'une architecture flexible capable
de prendre en charge de nouvelles applications dans un court laps de temps peut se traduire par un
avantage concurrentiel significatif. Une telle conception nécessite une planification initiale solide et
une réflexion approfondie dans les domaines de la densité des ports, de la bande passante de liaison
montante de la couche d'accès, de la véritable capacité du serveur et du surabonnement, pour n'en
nommer que quelques-uns.

La conception du réseau du centre de données est basée sur une approche en couches éprouvée, qui a
été testée et améliorée au cours des dernières années dans certaines des plus grandes implémentations
de centres de données au monde. L'approche en couches est la base de la conception du centre de
données qui vise à améliorer l'évolutivité, les performances, la flexibilité, la résilience et la
maintenance. La figure 1-1 montre la conception de base en couches.

DR DJOUSSE 8
Figure 1-1 Conception en couches de base

Les couches de la conception du centre de données sont les couches principales, d'agrégation et d'accès. Ces couches
sont largement évoquées tout au long de ce guide et sont brièvement décrites comme suit :

• Couche centrale : fournit le fond de panier de commutation de paquets à haut débit pour tous les flux entrant et sortant
du centre de données. La couche centrale fournit une connectivité à plusieurs modules d'agrégation et fournit une
structure routée de couche 3 résiliente sans point de défaillance unique. La couche centrale exécute un protocole de
routage intérieur, tel que OSPF ou EIGRP, et équilibre la charge du trafic entre les couches centrales et d'agrégation du
campus à l'aide d'algorithmes de hachage basés sur Cisco Express Forwarding.

• Modules de couche d'agrégation : fournissent des fonctions importantes, telles que l'intégration des modules de
service, les définitions de domaine de couche 2, le traitement Spanning Tree et la redondance de la passerelle par défaut.
Le trafic multiniveau de serveur à serveur passe par la couche d'agrégation et peut utiliser des services, tels que le pare-
feu et l'équilibrage de charge du serveur, pour optimiser et sécuriser les applications. Les petites icônes du commutateur
de couche d'agrégation de la Figure 1-1 représentent les modules de service intégrés. Ces modules fournissent des
services, tels que la commutation de contenu, le pare-feu, le déchargement SSL, la détection d'intrusion, l'analyse de
réseau, etc.

• Couche d'accès—L'endroit où les serveurs se connectent physiquement au réseau. Les composants de serveur se
composent de serveurs 1RU, de serveurs lames avec commutateurs intégrés, de serveurs lames avec câblage pass-
through, de serveurs en cluster et de mainframes avec adaptateurs OSA. L'infrastructure réseau de la couche d'accès se

DR DJOUSSE 9
compose de commutateurs modulaires, de commutateurs à configuration fixe 1 ou 2RU et de commutateurs de serveurs
lames intégrés. Les commutateurs fournissent à la fois des topologies de couche 2 et de couche 3, répondant aux diverses
exigences administratives ou de domaine de diffusion du serveur.

Qu'est-ce que 1U ou une unité rack?

Une unité de rack ou U est la taille standard désignée à indiquer la hauteur d'équipement informatique prévu pour être
installé dans des baies serveur de 19 pouces de largeur.
Les baies serveur offrent place à du matériel standardisé de 19" (482.6 mm), et ont une hauteur variable, exprimée en U
ou unités rack. 1U équivaut à 1.75" ou bien 44.45 mm.

Quelle est la hauteur d'une baie serveur?

La hauteur d'une baie complète varie selon le modèle. Les baies serveur que X vous offrent ont une hauteur utile de
46U, ce qui veut dire que vous pouvez y héberger 46 serveurs d'1U de hauteur, ou du matériel réseau équivalent.
Les baies ont également une profondeur d'1m et une largeur de 80cm, pour pouvoir y héberger sans soucis des serveurs
de taille importante.

V. Models de Data Center


Le modèle multiniveau est la conception la plus courante dans l'entreprise. Il est basé sur la conception en couches du
Web, des applications et des bases de données prenant en charge les solutions ERP et CRM pour le commerce et les
entreprises. Ce type de conception prend en charge de nombreuses architectures de services Web, telles que celles basées
sur Microsoft .NET ou Java 2 Enterprise Edition. Ces environnements d'applications de services Web sont utilisés par les
solutions ERP et CRM de Siebel et Oracle, pour n'en nommer que quelques-unes. Le modèle multiniveau repose sur des
services de sécurité et d'optimisation des applications à fournir dans le réseau.

Le modèle de cluster de serveurs est né de la communauté universitaire et scientifique pour émerger dans les secteurs
verticaux des entreprises, notamment la finance, la fabrication et le divertissement. Le modèle de cluster de serveurs est
le plus souvent associé aux environnements de calcul haute performance (HPC), de calcul parallèle et de calcul à haut
débit (HTC), mais peut également être associé au calcul de grille/utilitaire. Ces conceptions sont généralement basées sur
des architectures d'applications personnalisées, et parfois propriétaires, conçues pour servir des objectifs commerciaux
particuliers.

1.Multi-Tier Model
Le modèle de centre de données à plusieurs niveaux est dominé par des applications basées sur HTTP dans une approche
à plusieurs niveaux. L'approche multiniveau comprend les niveaux de serveurs Web, d'application et de base de données.
Aujourd'hui, la plupart des applications Web sont conçues comme des applications multiniveaux. Le modèle multiniveau
utilise un logiciel qui s'exécute en tant que processus distincts sur la même machine à l'aide de la communication
interprocessus (IPC) ou sur différentes machines avec des communications sur le réseau. Généralement, les trois niveaux
suivants sont utilisés :
DR DJOUSSE 10
• Serveur Web

• Application

• Base de données

Les fermes de serveurs multiniveaux construites avec des processus exécutés sur des machines distinctes peuvent
améliorer la résilience et la sécurité. La résilience est améliorée car un serveur peut être mis hors service alors que la
même fonction est toujours assurée par un autre serveur appartenant au même niveau d'application. La sécurité est
améliorée car un attaquant peut compromettre un serveur Web sans avoir accès aux serveurs d'applications ou de bases
de données. Les serveurs Web et d'applications peuvent coexister sur un serveur physique commun ; la base de données
reste généralement séparée.

La résilience est obtenue en équilibrant la charge du trafic réseau entre les niveaux, et la sécurité est obtenue en plaçant
des pare-feu entre les niveaux. Vous pouvez réaliser la ségrégation entre les niveaux en déployant une infrastructure
distincte composée de commutateurs d'agrégation et d'accès, ou en utilisant des VLAN (voir Figure 1-2).
Figure 1-2 Ségrégation physique dans une batterie de serveurs avec des appliances (A) et des modules de service
(B)

La conception illustrée à la Figure 1-3 utilise des VLAN pour séparer les batteries de serveurs. Le côté gauche de
l'illustration (A) montre la topologie physique et le côté droit (B) montre l'allocation VLAN entre les modules de service,
le pare-feu, l'équilibreur de charge et le commutateur. Le pare-feu et l'équilibreur de charge, qui reconnaissent le VLAN,

DR DJOUSSE 11
appliquent la séparation VLAN entre les batteries de serveurs. Notez que tous les VLAN ne nécessitent pas d'équilibrage
de charge. Par exemple, la base de données de l'exemple envoie le trafic directement au pare-feu.

Figure 1-3 Ségrégation logique dans une batterie de serveurs avec des VLAN

La ségrégation physique améliore les performances car chaque niveau de serveurs est connecté à un matériel dédié.
L'avantage d'utiliser la ségrégation logique avec les VLAN est la complexité réduite de la batterie de serveurs. Le choix
de la ségrégation physique ou de la ségrégation logique dépend des exigences spécifiques de performance de votre
réseau et des modèles de trafic.

Les exigences de sécurité et de performance de l'entreprise peuvent influencer la conception de la sécurité et les
mécanismes utilisés. Par exemple, l'utilisation d'ACL à vitesse filaire peut être préférée à l'utilisation de pare-feu
physiques. Les dispositifs de sécurité non intrusifs qui assurent la détection et la corrélation, tels que Cisco Monitoring,
Analysis, and Response System (MARS) combiné avec Route Triggered Black Holes (RTBH) et Cisco Intrusion
Protection System (IPS) peuvent répondre aux exigences de sécurité. Cisco Guard peut également être déployé comme
défense principale contre les attaques par déni de service distribué (DDoS).

2.Modèle de cluster de serveurs

Dans l'environnement de centre de données moderne, les clusters de serveurs sont utilisés à de
nombreuses fins, notamment la haute disponibilité, l'équilibrage de charge et l'augmentation de la
puissance de calcul. Ce guide se concentre sur la forme haute performance des clusters, qui comprend de
nombreuses formes. Tous les clusters ont pour objectif commun de combiner plusieurs processeurs pour
apparaître comme un système haute performance unifié utilisant un logiciel spécial et des interconnexions
réseau à haut débit. Les grappes de serveurs ont toujours été associées à la recherche universitaire, aux
laboratoires scientifiques et à la recherche militaire pour des applications uniques, telles que les
suivantes :
• Météorologie (simulation météorologique)
• Sismologie (analyse sismique)
• Recherche militaire (armes, guerre)
DR DJOUSSE 12
Les clusters de serveurs sont désormais présents dans l'entreprise car les avantages de la technologie de
clustering sont désormais appliqués à un plus large éventail d'applications. Les applications suivantes
dans l'entreprise sont à l'origine de cette exigence :
• Analyse des tendances financières : analyse des prix des obligations en temps réel et tendances
historiques
• Animation de film : rendu de fichiers d'artistes de plusieurs gigaoctets
• Fabrication : modélisation de la conception automobile et aérodynamique
• Moteurs de recherche : recherche parallèle rapide et insertion de contenu
Dans l'entreprise, les développeurs demandent de plus en plus une bande passante plus élevée et une
latence plus faible pour un nombre croissant d'applications. Les implications de délai de mise sur le
marché liées à ces applications peuvent se traduire par un énorme avantage concurrentiel. Par exemple,
les performances du cluster peuvent affecter directement la mise sur le marché d'un film pour la période
des fêtes ou la fourniture aux clients de la gestion financière d'informations sur les tendances historiques
lors d'un changement de marché.
Types de cluster HPC et interconnexions
Dans le paysage du calcul haute performance, divers types de grappes HPC existent et diverses
technologies d'interconnexion sont utilisées. La liste des 500 meilleurs superordinateurs sur
www.top500.org fournit une vue assez complète de ce paysage. La majorité des technologies
d'interconnexion utilisées aujourd'hui sont basées sur Fast Ethernet et Gigabit Ethernet, mais il existe un
nombre croissant d'interconnexions spécialisées, notamment Infiniband et Myrinet. Les interconnexions
spécialisées telles qu'Infiniband ont des caractéristiques de commutation à très faible latence et à bande
passante élevée par rapport à l'Ethernet traditionnel, et tirent parti de la prise en charge intégrée de l'accès
direct à la mémoire à distance (RDMA). Des cartes réseau 10GE sont également apparues récemment et
introduisent des moteurs de déchargement TCP/IP qui offrent des performances similaires à Infiniband.
La gamme Cisco SFS de commutateurs Infiniband et d'adaptateurs de canal hôte (HCA) fournit des solutions
informatiques hautes performances qui répondent aux exigences les plus élevées.

DR DJOUSSE 13

Vous aimerez peut-être aussi