Académique Documents
Professionnel Documents
Culture Documents
DR DJOUSSE 1
I.GESTION D’UN DATACENTER
Un data center n'est finalement qu'un ensemble de serveurs. Chaque serveur est
un ordinateur ultra performant, avec beaucoup de mémoire, de l'espace de
stockage et un ou plusieurs processeurs puissants. Mais ils doivent être en service
constamment, ne peuvent connaître aucune interruption ni baisse de performances
et les problèmes peuvent être nombreux.
La gestion des pannes
Les centres doivent être opérationnels 24h/24. Les défaillances (pannes
d'équipement, coupures d'électricité) doivent être traitées immédiatement. En cas
de sinistre, tout est mis en œuvre pour un traitement et une reprise des activités
rapides.
La gestion de la chaleur
Les serveurs d'un data center génèrent une chaleur considérable qu'il faut gérer et
limiter pour leur bon fonctionnement. Chaque centre possède donc un système de
refroidissement qui garde une température constante d'une vingtaine de degrés
Celsius. Aujourd'hui on utilise surtout des systèmes de refroidissement à l'air libre,
moins gourmands en énergie.
La gestion de la sécurité
Sur les serveurs se trouvent des informations sensibles qui doivent être
physiquement et numériquement protégées. Les centres sont donc très sécurisés:
alarmes, portails et portes de sécurité, pare-feu. Les adresses de certains centres
sont même tenues secrètes. Tout doit être fait pour empêcher les intrus et les
pirates électroniques d'entrer d'une manière ou d'une autre.
La gestion de l’énergie
Les serveurs et le système de refroidissement d'un data center consomment une
grande quantité d'énergie. Un des enjeux actuels est donc de limiter cette
consommation en optimisant le fonctionnement des centres et d'utiliser
des énergies vertes. Des systèmes de récupération de chaleur sont aussi mis en
place.
DR DJOUSSE 2
II. Role d’un data center
Les centres de données servent à héberger les milliards de milliards de gigaoctets
présents sur internet, mais aussi les données que toute personne ou compagnie
génèrent et utilisent. Certaines sociétés construisent et entretiennent leurs propres
centres, d'autres louent des serveurs dans des installations de colocation (appelées
colos) et d'autres encore utilisent des services publics. Les centres de données sont
utilisés par tout le monde:
les agences gouvernementales;
DR DJOUSSE 3
les institutions financières;
les fournisseurs d'informations en ligne;
les réseaux sociaux;
les services de courriers électroniques et de messagerie instantanée;
les fournisseurs de cloud computing;
les services de jeux en ligne;
les entreprises de télécommunications, etc.
DR DJOUSSE 4
L'architecture du centre de données est la disposition physique et logique des
ressources et de l'équipement au sein d'une installation de centre de données.
Il sert de modèle pour la conception et le déploiement d'une installation de centre
de données. Il s'agit d'un processus en couches qui fournit des directives
architecturales pour le développement de centres de données.
L'architecture du centre de données est généralement créée lors de la phase de
conception et de construction du centre de données.
DR DJOUSSE 5
L'architecture du centre de données spécifie où et comment le serveur, le réseau de
stockage, les racks et les autres ressources du centre de données seront
physiquement placés.
Il explique également comment ces ressources/dispositifs seront interconnectés et
comment les flux de travail de sécurité physiques et logiques sont organisés.
En règle générale, l'architecture du centre de données consiste en ou intègre :
• Architecture réseau du centre de données
• Architecture informatique du centre de données
• Architecture de sécurité du centre de données
• Architecture physique du centre de données
• Architecture des informations du centre de données
DR DJOUSSE 6
Fig3 :Infrastructure data center
DR DJOUSSE 7
IV.Présentation de l'architecture du centre de
données (cisco)
.
Ici nous avons un aperçu des solutions Cisco éprouvées pour fournir des conceptions d'architecture dans le centre de
données d'entreprise et comprend les sujets suivants :
La conception du réseau du centre de données est basée sur une approche en couches éprouvée, qui a
été testée et améliorée au cours des dernières années dans certaines des plus grandes implémentations
de centres de données au monde. L'approche en couches est la base de la conception du centre de
données qui vise à améliorer l'évolutivité, les performances, la flexibilité, la résilience et la
maintenance. La figure 1-1 montre la conception de base en couches.
DR DJOUSSE 8
Figure 1-1 Conception en couches de base
Les couches de la conception du centre de données sont les couches principales, d'agrégation et d'accès. Ces couches
sont largement évoquées tout au long de ce guide et sont brièvement décrites comme suit :
• Couche centrale : fournit le fond de panier de commutation de paquets à haut débit pour tous les flux entrant et sortant
du centre de données. La couche centrale fournit une connectivité à plusieurs modules d'agrégation et fournit une
structure routée de couche 3 résiliente sans point de défaillance unique. La couche centrale exécute un protocole de
routage intérieur, tel que OSPF ou EIGRP, et équilibre la charge du trafic entre les couches centrales et d'agrégation du
campus à l'aide d'algorithmes de hachage basés sur Cisco Express Forwarding.
• Modules de couche d'agrégation : fournissent des fonctions importantes, telles que l'intégration des modules de
service, les définitions de domaine de couche 2, le traitement Spanning Tree et la redondance de la passerelle par défaut.
Le trafic multiniveau de serveur à serveur passe par la couche d'agrégation et peut utiliser des services, tels que le pare-
feu et l'équilibrage de charge du serveur, pour optimiser et sécuriser les applications. Les petites icônes du commutateur
de couche d'agrégation de la Figure 1-1 représentent les modules de service intégrés. Ces modules fournissent des
services, tels que la commutation de contenu, le pare-feu, le déchargement SSL, la détection d'intrusion, l'analyse de
réseau, etc.
• Couche d'accès—L'endroit où les serveurs se connectent physiquement au réseau. Les composants de serveur se
composent de serveurs 1RU, de serveurs lames avec commutateurs intégrés, de serveurs lames avec câblage pass-
through, de serveurs en cluster et de mainframes avec adaptateurs OSA. L'infrastructure réseau de la couche d'accès se
DR DJOUSSE 9
compose de commutateurs modulaires, de commutateurs à configuration fixe 1 ou 2RU et de commutateurs de serveurs
lames intégrés. Les commutateurs fournissent à la fois des topologies de couche 2 et de couche 3, répondant aux diverses
exigences administratives ou de domaine de diffusion du serveur.
Une unité de rack ou U est la taille standard désignée à indiquer la hauteur d'équipement informatique prévu pour être
installé dans des baies serveur de 19 pouces de largeur.
Les baies serveur offrent place à du matériel standardisé de 19" (482.6 mm), et ont une hauteur variable, exprimée en U
ou unités rack. 1U équivaut à 1.75" ou bien 44.45 mm.
La hauteur d'une baie complète varie selon le modèle. Les baies serveur que X vous offrent ont une hauteur utile de
46U, ce qui veut dire que vous pouvez y héberger 46 serveurs d'1U de hauteur, ou du matériel réseau équivalent.
Les baies ont également une profondeur d'1m et une largeur de 80cm, pour pouvoir y héberger sans soucis des serveurs
de taille importante.
Le modèle de cluster de serveurs est né de la communauté universitaire et scientifique pour émerger dans les secteurs
verticaux des entreprises, notamment la finance, la fabrication et le divertissement. Le modèle de cluster de serveurs est
le plus souvent associé aux environnements de calcul haute performance (HPC), de calcul parallèle et de calcul à haut
débit (HTC), mais peut également être associé au calcul de grille/utilitaire. Ces conceptions sont généralement basées sur
des architectures d'applications personnalisées, et parfois propriétaires, conçues pour servir des objectifs commerciaux
particuliers.
1.Multi-Tier Model
Le modèle de centre de données à plusieurs niveaux est dominé par des applications basées sur HTTP dans une approche
à plusieurs niveaux. L'approche multiniveau comprend les niveaux de serveurs Web, d'application et de base de données.
Aujourd'hui, la plupart des applications Web sont conçues comme des applications multiniveaux. Le modèle multiniveau
utilise un logiciel qui s'exécute en tant que processus distincts sur la même machine à l'aide de la communication
interprocessus (IPC) ou sur différentes machines avec des communications sur le réseau. Généralement, les trois niveaux
suivants sont utilisés :
DR DJOUSSE 10
• Serveur Web
• Application
• Base de données
Les fermes de serveurs multiniveaux construites avec des processus exécutés sur des machines distinctes peuvent
améliorer la résilience et la sécurité. La résilience est améliorée car un serveur peut être mis hors service alors que la
même fonction est toujours assurée par un autre serveur appartenant au même niveau d'application. La sécurité est
améliorée car un attaquant peut compromettre un serveur Web sans avoir accès aux serveurs d'applications ou de bases
de données. Les serveurs Web et d'applications peuvent coexister sur un serveur physique commun ; la base de données
reste généralement séparée.
La résilience est obtenue en équilibrant la charge du trafic réseau entre les niveaux, et la sécurité est obtenue en plaçant
des pare-feu entre les niveaux. Vous pouvez réaliser la ségrégation entre les niveaux en déployant une infrastructure
distincte composée de commutateurs d'agrégation et d'accès, ou en utilisant des VLAN (voir Figure 1-2).
Figure 1-2 Ségrégation physique dans une batterie de serveurs avec des appliances (A) et des modules de service
(B)
La conception illustrée à la Figure 1-3 utilise des VLAN pour séparer les batteries de serveurs. Le côté gauche de
l'illustration (A) montre la topologie physique et le côté droit (B) montre l'allocation VLAN entre les modules de service,
le pare-feu, l'équilibreur de charge et le commutateur. Le pare-feu et l'équilibreur de charge, qui reconnaissent le VLAN,
DR DJOUSSE 11
appliquent la séparation VLAN entre les batteries de serveurs. Notez que tous les VLAN ne nécessitent pas d'équilibrage
de charge. Par exemple, la base de données de l'exemple envoie le trafic directement au pare-feu.
Figure 1-3 Ségrégation logique dans une batterie de serveurs avec des VLAN
La ségrégation physique améliore les performances car chaque niveau de serveurs est connecté à un matériel dédié.
L'avantage d'utiliser la ségrégation logique avec les VLAN est la complexité réduite de la batterie de serveurs. Le choix
de la ségrégation physique ou de la ségrégation logique dépend des exigences spécifiques de performance de votre
réseau et des modèles de trafic.
Les exigences de sécurité et de performance de l'entreprise peuvent influencer la conception de la sécurité et les
mécanismes utilisés. Par exemple, l'utilisation d'ACL à vitesse filaire peut être préférée à l'utilisation de pare-feu
physiques. Les dispositifs de sécurité non intrusifs qui assurent la détection et la corrélation, tels que Cisco Monitoring,
Analysis, and Response System (MARS) combiné avec Route Triggered Black Holes (RTBH) et Cisco Intrusion
Protection System (IPS) peuvent répondre aux exigences de sécurité. Cisco Guard peut également être déployé comme
défense principale contre les attaques par déni de service distribué (DDoS).
Dans l'environnement de centre de données moderne, les clusters de serveurs sont utilisés à de
nombreuses fins, notamment la haute disponibilité, l'équilibrage de charge et l'augmentation de la
puissance de calcul. Ce guide se concentre sur la forme haute performance des clusters, qui comprend de
nombreuses formes. Tous les clusters ont pour objectif commun de combiner plusieurs processeurs pour
apparaître comme un système haute performance unifié utilisant un logiciel spécial et des interconnexions
réseau à haut débit. Les grappes de serveurs ont toujours été associées à la recherche universitaire, aux
laboratoires scientifiques et à la recherche militaire pour des applications uniques, telles que les
suivantes :
• Météorologie (simulation météorologique)
• Sismologie (analyse sismique)
• Recherche militaire (armes, guerre)
DR DJOUSSE 12
Les clusters de serveurs sont désormais présents dans l'entreprise car les avantages de la technologie de
clustering sont désormais appliqués à un plus large éventail d'applications. Les applications suivantes
dans l'entreprise sont à l'origine de cette exigence :
• Analyse des tendances financières : analyse des prix des obligations en temps réel et tendances
historiques
• Animation de film : rendu de fichiers d'artistes de plusieurs gigaoctets
• Fabrication : modélisation de la conception automobile et aérodynamique
• Moteurs de recherche : recherche parallèle rapide et insertion de contenu
Dans l'entreprise, les développeurs demandent de plus en plus une bande passante plus élevée et une
latence plus faible pour un nombre croissant d'applications. Les implications de délai de mise sur le
marché liées à ces applications peuvent se traduire par un énorme avantage concurrentiel. Par exemple,
les performances du cluster peuvent affecter directement la mise sur le marché d'un film pour la période
des fêtes ou la fourniture aux clients de la gestion financière d'informations sur les tendances historiques
lors d'un changement de marché.
Types de cluster HPC et interconnexions
Dans le paysage du calcul haute performance, divers types de grappes HPC existent et diverses
technologies d'interconnexion sont utilisées. La liste des 500 meilleurs superordinateurs sur
www.top500.org fournit une vue assez complète de ce paysage. La majorité des technologies
d'interconnexion utilisées aujourd'hui sont basées sur Fast Ethernet et Gigabit Ethernet, mais il existe un
nombre croissant d'interconnexions spécialisées, notamment Infiniband et Myrinet. Les interconnexions
spécialisées telles qu'Infiniband ont des caractéristiques de commutation à très faible latence et à bande
passante élevée par rapport à l'Ethernet traditionnel, et tirent parti de la prise en charge intégrée de l'accès
direct à la mémoire à distance (RDMA). Des cartes réseau 10GE sont également apparues récemment et
introduisent des moteurs de déchargement TCP/IP qui offrent des performances similaires à Infiniband.
La gamme Cisco SFS de commutateurs Infiniband et d'adaptateurs de canal hôte (HCA) fournit des solutions
informatiques hautes performances qui répondent aux exigences les plus élevées.
DR DJOUSSE 13