Vous êtes sur la page 1sur 8

ISET Zaghouan IOT Chapitre 2: ……..

Chapitre 2
Contraintes et classification

1. Gestion de la capacité d’un centre de données


La capacité d’utilisation d’un centre de données peut être limitée par plusieurs paramètres.
Sur le long terme, les principales limites que rencontreront les exploitants seront la surface
utilisable, puis la puissance disponible.
Dans la première phase de son cycle de vie un centre de données verra une croissance plus
rapide de sa surface occupée que de l’énergie consommée.
Avec la densification constante des nouvelles technologies des matériels informatiques, le
besoin en énergie va devenir prépondérant, équilibrant puis dépassant le besoin en
superficie (deuxième puis troisième phase du cycle).
Le développement et la multiplicité des appareils connectés, des besoins en stockage et
traitements des données font que les besoins des centres de données croissent de plus en
plus rapidement. Il est donc important de définir une stratégie de développement du centre
de données avant d’être « dos au mur ». Le cycle de décision, conception, construction est
de plusieurs années. Il est donc important d’initier cette réflexion stratégique lorsque le
centre de données atteint 50 % de son énergie consommée.
Le maximum d’occupation d’un centre de données doit se stabiliser autour des 85 % tant en
énergie qu’en superficie occupée. En effet, les ressources ainsi ménagées serviront d’espace
de manœuvre pour gérer les remplacements de matériel et permettra ainsi la cohabitation
temporaire des anciennes et nouvelles générations.
Si cette limite vient à être dépassée durablement, il ne devient plus possible de procéder au
remplacement des matériels, ce qui conduit inexorablement vers l’étouffement du système
d’information.
Le centre de données est une ressource à part entière du Système d’information (SI), avec
ses propres contraintes de temps et de gestion (durée de vie 25 ans), il doit donc être pris en
compte dans le cadre des plans à moyens termes du SI (entre 3 et 5 ans).

2. Localisation des centres de traitement de données


En 2011, on dénombrait 2 087 centres de traitement de données dans le monde. Le
Groupement des industries de l’équipement électrique, du contrôle-commande et des
services associés (Gimélec) estime à 130 le nombre de centres de traitement de données
d'offreurs en France dont 40 % en région parisienne. Globalement les centres de traitement
sont dispersés sur l'ensemble du territoire avec des zones de concentration en partie liées au
réseau urbain.
Les services informatiques des grandes entreprises sont généralement implantés dans des
centres de traitement de données, dédiés ou mutualisés. Les plus gros centres dans le
monde sont ceux des géants de l'internet comme Google, qui utilise des infrastructures

AZOUZI Maher 1
ISET Zaghouan IOT Chapitre 2: ……..

modulaires basées sur des conteneurs qui peuvent héberger jusqu'à 1 160 serveurs,
ou Facebook qui a étendu son centre de traitement de Prineville dans l'Oregon. Amazon a lui
aussi implanté son centre de traitement dans l'Oregon compte tenu du faible coût de
l'énergie dans cet État. Apple a construit son plus gros centre à Maiden en Caroline du Nord,
pour soutenir sa stratégie de développement de l'iCloud.
En 2019, le site danois datacentermap.com recense 4 438 centres de traitement de données
dans 122 pays dans le monde, dont 1 756 aux États-Unis et 149 en France.

3. Enjeux énergétiques
En 2018 les cinq premières entreprises mondiales en capitalisation
boursière sont Apple, Amazon, Alphabet, Microsoft et Facebook, qui dépassent des titans
pétrogaziers que sont Shell et Exxon Mobil (en 2019, l'entrée en bourse de Saudi
Aramco change la donne, puisque la capitalisation de cette entreprise dépasse
2 000 milliards de dollars en décembre). Ces nouveaux géants et les GAFAM en général
contribuent au réchauffement des milieux et au réchauffement climatique par l'énergie
grise qu'ils consomment. Cette tendance devrait s'amplifier avec le développement mondial
d'Internet, de la vidéo en ligne, de la téléphonie sans fil, des objets connectés, du big data et
la technologie blockchain. Un rapport de l'Agence internationale de l'énergie atomique de
2017 sur le numérique et l'énergie estime que la quantité de données à stocker et manipuler
par les centres de données devrait tripler entre 2014 et 2020, ce qui doit inciter à les gérer
avec la plus grande vigilance ; dans un premier temps, l'optimisation énergétique devrait
permettre de limiter l'augmentation de la consommation à 3 % entre 2014 et 2020, mais ni
l'informatique quantique, ni la bio-informatique ne semblent assez mûres pour permettre un
saut technologique.
En 2018, 200 térawatt-heures (TWh) ont été nécessaires au fonctionnement des centres de
données, soit 1 % de la demande mondiale d'électricité, équivalent à la production d'environ
la moitié des réacteurs nucléaires de France (379,1 TWh en 2017, pertes en ligne non
comprises). L'augmentation de leur efficacité nullifiera encore jusqu'en 2028 l’augmentation
de la consommation induite par un accroissement du trafic, selon Dale Sartor (responsable
du Centre d'expertise sur l'efficacité énergétique dans les centres de données du laboratoire
national Lawrence-Berkeley, du DOE), mais la demande en électricité devrait ensuite de
nouveau augmenter rapidement.
Deux enjeux sont donc de réduire la consommation informatique mondiale d'énergie et de
valoriser sa chaleur de récupération.
Le seul refroidissement du matériel informatique contribue directement à 0,3 % aux
émissions totales de carbone, alors que la totalité de l'informatique émet 2 % de toutes les
émissions mondiales, énergie grise non comprise. L'empreinte carbone de l'informatique
devrait encore beaucoup augmenter, de même que son empreinte eau (en 2014, les data
centers américains ont consommé 100 milliards de litres d'eau dans les tours de
refroidissement). La consommation électrique de l'informatique dans le monde dépassera
probablement 20 % du total mondial avant 2030, dont le tiers pour les seuls centres de
données. La prospective reste délicate dans le domaine informatique, où l'innovation est
rapide, mais si la cryptomonnaie (comme Bitcoin ou Ethereum) et la blockchain ou l'IA se
développent sans se décarboner et sans économiser l'énergie, notamment dans un contexte

AZOUZI Maher 2
ISET Zaghouan IOT Chapitre 2: ……..

de gaspillage d'énergies et d'obsolescence programmée, la demande en énergie et en


électricité sera encore très supérieure.
Anders Andrae, expert en TIC durables chez Huawei Technologies à Kista en Suède, estime
que sans effort important, la consommation électrique des centres de données pourrait être
multipliée par 15 entre 2015 et 2030, pour atteindre 8 % de la demande mondiale en
électricité29, mais ce chiffre est controversé.
Une hypothèse inverse est qu'une partie des données sera stockée et exploitée sur les
millions d'ordinateurs selon le principe d'un centre de données distribuée, même si des
centres de données sécurisés resteront a priori nécessaires pour les données sensibles,
économique, militaires, de renseignement, de santé et personnelles notamment.
Le bas coût de l'énergie dans les années 2000-2010, permis par le gaz de schiste et la crise de
2008, ainsi que l'absence de taxe carbone ou de taxe générale sur les activités polluantes des
centres de données, n'ont pas encouragé les économies d'énergie, mais des progrès sont
faits.
De nombreux serveurs réalisent aussi des tâches inutiles ; ainsi Jonathan Koomey a-t-il
constaté en 2018 que presque un quart d'un échantillon de 16 000 petits serveurs installés
dans des placards, gaines et sous-sols d'entreprises effectuaient en « zombies » des tâches
obsolètes que des techniciens ou logiciels avaient oublié de désactiver. Selon une étude
du Berkeley National Laboratory, transférer l'activité de 80 % des serveurs de petits centres
de données américains vers des centres de très grande envergure plus performants
entraînerait une économie de 25 % de leur consommation d’énergie.
Le Bitcoin, né en 2008, consommait déjà à lui seul 20 TWh d’électricité par an dans le monde
en 2018, l'équivalent d'un peu moins de 10 % de la consommation des centres de données,
selon Alex de Vries (consultant en données chez PwC), mais il pourrait ne pas se développer
autant que ce qu'espèrent ses promoteurs, ou migrer vers des types de blockchains
humaines ou moins énergivores, ou pourrait finalement ne pas répondre aux besoins de
confiance dans les transactions34. L'utilisation généralisée de la blockchain par les bourses
serait plus préoccupant

4. Enjeux et impacts environnementaux


Selon Frédéric Bordage, expert en informatique durable et sobriété numérique,
contrairement à une idée répandue, résultant d'une certaine sur médiatisation, l'impact
environnemental des centres informatiques, certes important, ne représente en 2019
qu'environ 15 % de l'impact environnemental du numérique à l'échelle mondiale, loin
derrière les équipements utilisateurs (plus des deux tiers) et le réseau3.
L'empreinte écologique globale des centres de données grandit rapidement, mais elle aurait
pu être réduite par une optimisation et un partage des ressources (de 25 % environ en
2010) et pourrait encore l'être (voir ci-dessous).
Les impacts environnementaux se concentrent lors de :

1. la fabrication : des bâtiments, des équipements liés aux bâtiments (groupes froid, groupes
électrogènes, onduleurs, etc.) et des équipements informatiques et télécoms qu'ils
contiennent ;

AZOUZI Maher 3
ISET Zaghouan IOT Chapitre 2: ……..

2. l'utilisation du centre de données.


La fabrication concentre les pollutions et l'épuisement des stocks de ressources non
renouvelables. L'utilisation se traduit essentiellement par des émissions de gaz à effet de
serre (liées à la production de l'énergie consommée par le centre de données) et des
émissions des déchets d'équipements électriques et électroniques (DEEE).
Deux facteurs pouvant être mieux maîtrisés et/ou valorisés sont :

4.1 Consommation d'électricité


Malgré des gains d'efficience énergétique des processeurs et en matière d'optimisation des
réseaux et d'efficacité énergétique des matériels informatiques, en raison de l'explosion des
besoins, les gros centres de traitement de données sont des systèmes physiques
et cybernétiques (Cyber-Physical System) qui consomment des quantités importantes et
croissantes d'électricité. D'après Qarnot Computing En France, en 2013, plus de deux cents
centres de données consomment plus de 7 % de l'électricité du pays. Un centre de données
de 10 000 m2 consommerait autant qu'une ville de 50 000 habitants et un grand centre de
données consomme 100 MW soit 1/10e de la production d’une centrale thermique.
« À l'échelle européenne, la Commission estimait en 2008 que les centres de données
consommaient 56 TWh, dont la moitié pour refroidir les bâtiments ».
Une des principales métriques utilisées pour évaluer l'efficacité énergétique d'un datacenter
est l'indicateur d'efficacité énergétique ou PUE (pour Power Usage Effectiveness en anglais).
Cet indicateur évalue la surconsommation électrique due à tous les équipements non
informatiques du datacenter. Un datacenter idéal aurait un indicateur d'efficacité
énergétique de 1, c'est-à-dire la totalité de la consommation électrique du datacenter serait
consommée par les équipements informatiques.

4.2Bilan carbone
Les centres de données sont responsables de 0,3 % des émissions mondiales de gaz à effet
de serre.
Deux leviers pour améliorer le bilan carbone sont les économies d'énergie d'une part et
l'écoconception avec valorisation des calories produites d'autre part. Des mesures
compensatoires (compensation carbone) sont aussi envisagées ou utilisées par certains
acteurs. En 2011, le centre GrenoblIX est devenu le premier centre de données
« écologique » en France.

4.3Alternative distribuée
Pour répondre à ces trois enjeux et après que l'expérience SETI@home ait montré l'intérêt
du « calcul distribué » (en utilisant dans ce cas des ordinateurs domestiques connectés à
l’Internet), certains opérateurs comme AMD ont envisagé de décentraliser leurs centres de
traitement de données en un réseau distribué tel que proposé par d'unités (petits centres de
traitement de données bénéficiant chacun d'une éolienne, maillés entre eux par des fibres
optiques).
Des installateurs et propriétaires de centres de traitement de données et des producteurs
d'énergie46 pourraient à l'avenir associer leurs investissements dans un réseau électrique

AZOUZI Maher 4
ISET Zaghouan IOT Chapitre 2: ……..

intelligent, éventuellement intégré dans l'« Internet de l'énergie » que Jeremy Rifkin propose
dans son concept de « troisième révolution industrielle ».
Le cloud computing pourrait alors évoluer vers un modèle totalement décentralisé,
nécessitant une « gestion dynamique du refroidissement » (refroidir là où il faut et quand il
faut, et passivement tant que possible), ainsi qu'une conception différente de la sécurité des
serveurs et de leurs données, de la gestion distribuée des données, de la gestion de
l'énergie et de la capacité des réseaux de centres de traitement de données à s'autoadapter
aux fluctuations des besoins, mais aussi de l'énergie disponible. Leurs réponses doivent être
plus élastiques, sans augmentation globale des consommations d'énergie, dans le cadre
d'un green cloud qui reste à inventer.
Au début des années 2000, une solution complémentaire des précédentes apparait, qui
pourraient être réservée aux données à fortement sécuriser. C'est de développer des
réseaux de serveurs en grande partie virtuel (ou plus précisément partagés et distribués,
utilisant une partie des ressources des ordinateurs familiaux et d'entreprises ou les utilisant
quand leur propriétaire ne les utilisent pas ou les sous-utilisent, ce qui demande aussi de
repenser la sécurité informatique). Pour cela, des systèmes d'allocation sécurisée des
ressources et de répartition des tâches (éventuellement différées quand elles ne sont pas
urgentes) doivent encore être testés et validés à grande échelle. Dans tous les cas
la recherche et développement est à développer.
Radiateurs numériques : C'est un pseudo radiateur électrique (il irradie la chaleur fatale
informatique sous forme de chaleur utile. ce sont les cartes mères et leurs processeurs qui
remplacent tout ou partie de l'élément chauffant à effet joule.

 En 2013, Qarnot Computing (start-up française) propose d'ainsi délocaliser des serveurs chez des
particuliers en lieu et place de radiateurs. Un premier test où une centaine de logements HLM
parisiens (RIVP dans le 15e arrondissement) devaient être gratuitement chauffés par de petits
serveurs alimentés par le réseau électrique et connectés à l'Internet et via une plateforme
sécurisée, dite "Q.Ware".
 En 2015, la start-up comptait un parc de 700 radiateurs répartis entre le 15e arrondissement de
Paris, l'incubateur ParisTech et des logements sociaux du Conseil départemental de la Gironde.
Plus les processeurs travaillent, plus le chauffage est important, mais le résident du logement
contrôle la température grâce à un thermostat. En été des serveurs classiques prennent le relais.
Le 5 juin 2018, dans le cadre du Projet Natick Microsoft et Naval Group ont immergé leur
premier datacenter au large des Orcades en Écosse fonctionnant complètement en
autonomie avec des énergies renouvelables.

5. Classification des centres de traitement de données


L'organisme Uptime Institute a défini une certification des centres de traitement de données
en quatre catégories, appelées « Tier ».
Chaque niveau reprend les caractéristiques des niveaux précédents, en y ajoutant certaines
améliorations.

AZOUZI Maher 5
ISET Zaghouan IOT Chapitre 2: ……..

Tier I - Le Basique
Site basique sans redondance (capacité N). Il doit cependant disposer au minimum de salles
informatiques dédiées, d’un groupe électrogène disposant d’une réserve de fioul de 12
heures, et d’un onduleur.
Un centre de données Tier I nécessite au moins un arrêt annuel pour maintenance. Une
grande partie des maintenances et pannes génèrent un arrêt du site.
Tier II - La Redondance
Le Tier II est caractérisé par la redondance de sa production (capacité N+R). L’ensemble des
composants dispose de redondance : Groupes électrogènes, cuves à fioul, onduleurs,
production de froids (groupes froids, pompes, unités de froid en sales, … Les distributions
(électricité et froid) n’ont pas besoin d’être redondées.
Un centre de données Tier II nécessite au moins un arrêt annuel pour maintenance.
Certaines maintenances et pannes génèrent un arrêt du site, notamment sur les circuits de
distribution.
Tier III - La Maintenabilité
Tous et chacun des composants d’un centre de données Tier III sont maintenables sans arrêt
de l’informatique. Le corollaire est que tous les composants et circuits de distribution sont
redondants. De plus les groupes électrogènes doivent pouvoir fonctionner à charge
nominale (N) sans limitation de durée. Cela implique que les valeurs de groupe à retenir est
la « Continuous Power » (CP) selon la norme ISO8528.1. Un déclassement de 30 % de la PRP
(Prime Rating Power) est à appliquer aux groupes ne déposant de classification « CP ».
Aucune maintenance ne doit provoquer un arrêt de l’informatique.
Certaines pannes, incidents ou erreurs humaines peuvent interrompre l’informatique
Tier IV - La tolérance aux pannes
Le centre de données Tier IV présente les grandes caractéristiques suivantes :

 Tous les composants et distributions sont maintenables sans impact informatique ;


 Réponse automatique aux pannes uniques (N Capacity) ;
 Compartimentage coupe-feu : les éléments de la voie A peuvent être dans le même
compartiment qu’un composant de la voie B,
 Continuous Cooling : assurer le refroidissement en absence totale d’alimentation
électrique ;
 Groupe Électrogène fonctionnant sans limitation de durée (Continuous Power),
Le corollaire est l’absence de point unique de défaillance (SPOF, Single Point Of Failure).
Le Tier IV est tolérant aux maintenances, pannes (uniques), et incidents même graves
(incendie par exemple).

AZOUZI Maher 6
ISET Zaghouan IOT Chapitre 2: ……..

6.Taux de disponibilité
Il est souvent associé à chaque Tier un niveau de disponibilité statistique. Ainsi les centres de
données Tier IV ont un taux de disponibilité annoncé de 99,995 %. Cette valeur qui
correspond à 26 minutes de coupure par an doit être correctement interprétée. Cette durée
peut se traduire par 30 secondes de coupure par semaine (ne correspondant pas à l'objectif
de disponibilité), ou une demi-journée tous les 10 ans, correspond à l'objectif recherché.
Il convient donc d’être très prudent dans l’interprétation des valeurs ci-dessous :

Indisponibilité Maintenance
Taux de Tolérance
Type de tier Caractéristiques à chaud
disponibilité aux pannes
statistique possible
annuelle

Tier I Non redondant 99,671 % 28,8 h Non Non

Tier II Redondance partielle 99,749 % 22 h Non Non

Tier III Maintenabilité 99,982 % 1,6 h Oui Non

Tier IV Tolérance aux pannes 99,995 % 0,4 h Oui Oui

AZOUZI Maher 7
ISET Zaghouan IOT Chapitre 2: ……..

Contenu
1. Gestion de la capacité d’un centre de données .................................................................................. 1
2. Localisation des centres de traitement de données ........................................................................... 1
3. Enjeux énergétiques ............................................................................................................................ 2
4. Enjeux et impacts environnementaux ................................................................................................. 3
4.1 Consommation d'électricité .......................................................................................................... 4
4.2Bilan carbone.................................................................................................................................. 4
4.3Alternative distribuée..................................................................................................................... 4
5. Classification des centres de traitement de données ......................................................................... 5
Tier I - Le Basique ............................................................................................................................ 6
Tier II - La Redondance .................................................................................................................... 6
Tier III - La Maintenabilité ............................................................................................................... 6
Tier IV - La tolérance aux pannes .................................................................................................... 6
6.Taux de disponibilité ............................................................................................................................ 7

AZOUZI Maher 8

Vous aimerez peut-être aussi