Vous êtes sur la page 1sur 65

Sommaire

Partie 1 :

Synthèse des connaissances acquises

3

1. Problématique informatique

3

2. Quelques chiffres marquants

4

 

3. PUE

6

4. Implantation et architecture

9

5. Distribution d’air

10

6. Allée chaude / allée froide

12

7. Point chaud

14

8. Confinement

16

9. Confinement de l’allée froide

17

10. Confinement de l’allée chaude

18

11. Température

intérieure

19

12. Virtualisation

20

13. Surdimensionnement

26

14. Apports frigorifiques gratuits

31

Partie 2 :

Méthode de calcul détaillée

39

1. Armoires de climatisation

39

2. Groupes froids et aéroréfrigérants

40

3. Pompes

47

4. Centrales de traitement d’air neuf

50

5. Ventilation d’extraction

53

Partie 3 :

Projets annexes

56

1. Réseau de chaleur biomasse à Graulhet

56

2. Grand théâtre d’Albi

60

3. Université de Rangueil

61

4. Cité municipale de Bordeaux

62

5. Hôpital de Rangueil

64

1

Partie 1 :

Synthèse des connaissances acquises

1. Problématique informatique

Encore inconnu de nos dictionnaires, un data center est une salle informatique hébergeant des serveurs. Ces serveurs sont composés essentiellement de disques durs pour stocker l’information et de micro processeurs pour rechercher l’information.

- L’association de ces composants forme un hub.

- Plusieurs hubs empilés constituent un rack. Un rack possède une taille normalisée :

19 pouces de large (48,26 cm) et 17 pouces de profondeur (43,18 cm).

- Les racks sont rangés dans une armoire de protection : une baie informatique.

- Plusieurs baies informatiques forment une salle serveur : un data center.

informatiques forment une salle serveur : un data center. fig 1 : hub source : www.apple.com/in/xserve/design.html

fig 1 :

hub

source : www.apple.com/in/xserve/design.html

fig 1 : hub source : www.apple.com/in/xserve/design.html fig 2 : baie informatique source :

fig 2 :

baie informatique

source : www.directindustry.fr/prod/panduit/armoires-rack-pour-reseaux-12722-42893.html

3

Toute entreprise qui stocke des données informatiques possèdent un ou plusieurs serveurs. Lorsque le nombre de serveurs est important, il devient utile de les disposer dans une salle dédiée afin d’optimiser la rapidité de recherche de l’information.

Selon l’activité du propriétaire de la salle informatique, les équipements informatiques de ces salles peuvent fonctionner en continu toute l’année. C’est le cas de la majorité des data centers. Les propriétaires de tels data centers fonctionnant en continu sont des banques, des assurances, des sociétés commerciales, des moteurs de recherches internet, des réseaux sociaux internet, etc. Toutes ces utilisations lucratives renferment des informations confidentielles. C’est pourquoi un data center doit être fiable. Aucune panne n’est acceptable.

La chaleur générée par le stockage et la recherche d’information est un risque majeur. Une hausse significative de la température du data center peut être la cause d’une défaillance grave voire irrémédiable : perte temporaire des informations (arrêt due à la surchauffe), perte partielle ou totale des informations (hub grillé). Un data center n’est donc pas qu’une simple salle de stockage informatique, il possède tout un environnement associé : système de refroidissement, système électrique d’alimentation sans interruption, surveillance et protection incendie.

Tous ces équipements qui assurent le maintien de l’information consomment énormément d’énergie car ils fonctionnent aussi souvent que fonctionnent le stockage et la recherche, c’est-à-dire en continuellement.

2. Quelques chiffres marquants

L’énergie consommée par l’ensemble des data centers à travers le monde représente près de 1% de la consommation mondiale d’électricité, soit 450 milliards de kWh :

- Cette consommation représente 92% de la consommation totale de la France (tous

secteurs d’activité confondus).

- Cette consommation représente la consommation de 81,4 millions d’Européens, soit la population de la France et de la Belgique réunies.

- Les data centers émettent actuellement autant de CO 2 que la France.

Greenpeace prédit que l’énergie consommée par les data centers va être multipliée par 4

d’ici 2020, soit autant que la France, l’Allemagne, le Brésil et le Canada réunis.

4

2010

2010 92% 2020 fig 3 : équivalence de la consommation en 2010 (réelle) et en 2020
92%
92%

2020

2010 92% 2020 fig 3 : équivalence de la consommation en 2010 (réelle) et en 2020
2010 92% 2020 fig 3 : équivalence de la consommation en 2010 (réelle) et en 2020

fig 3 :

équivalence de la consommation en 2010 (réelle) et en 2020 (estimée) source : www.hebergeur-web.net/testimonials.html

Les plus grands data centers du monde nécessitent à eux seuls l’énergie produite par 14 centrales électriques. Des géants de la consommation internet sont pointés du doigt : Apple et Facebook possèdent des data centers alimentés par des centrales à charbon. Des efforts sont possibles dans cette consommation abusive, à l’image de Yahoo! qui alimente son centre par une centrale hydroélectrique. Concernant le jeu virtuel Second Life qui possède plus de 20 millions d’utilisateurs : un personnage virtuel de ce jeu consomme chaque année autant d’électricité qu’un Brésilien et 10 fois plus qu’un Camerounais. Une recherche Google équivaut à l’énergie consommée pendant une heure par une ampoule à économie d’énergie. Télécharger la version électronique d’un quotidien consomme autant d’électricité que de faire une lessive.

Le terme de nuage informatique (cloud computing) signifie l’accès à l’information de data centers éloignés de l’ordinateur de l’utilisateur. L’expansion et la surconsommation des data centers présagent un réel orage informatique.

5

fig 4 : « nuage informatique » source : www.astrosurf.com/luxorion/nucleaire-liste-incident-accident-delits.html Les

fig 4 :

« nuage informatique »

source : www.astrosurf.com/luxorion/nucleaire-liste-incident-accident-delits.html

Les enjeux de réduction de consommation de ces salles informatiques sont énormes. Actuellement, quasi aucun effort n’est réalisé pour remédier à ce problème. Aucune réglementation ne limite les consommations. Les data centers présentent cependant une caractéristique importante dans la mesure de leur efficacité par rapport aux autres infrastructures tertiaires : le PUE.

3.

PUE

Le PUE, Power Usage Effectiveness, est une notion proposée par l’association de professionnels de l’informatique The Green Grid. Il est un indicateur synthétique, efficace et reconnu internationalement permettant une évaluation rapide de l’efficacité énergétique d’un data center. Il permet également de comparer les centres informatiques entre eux et de déterminer si des améliorations d’efficacité énergétique sont nécessaires.

Le PUE se calcule par la relation suivante :

PUE = puissance totale du site / puissance informatique

: PUE = puissance totale du site / puissance informatique fig 5 : logo du Green

fig 5 :

logo du Green Grid

source : www.thegreengrid.org

Théoriquement un data center parfait présente un PUE égal à 1. Dans ce cas, toute la puissance consommée par l’enceinte est destinée au fonctionnement des équipements informatiques. Mais la théorie est bien loin de la réalité et un data center « moyen » présente un PUE compris entre 2 et 2,5. C’est à dire qu’un data center moyen consomme autant en refroidissement qu’en stockage informatique. Et rare sont ceux qui peuvent se vanter d’un PUE inférieur à 1,5. On peut citer Google qui possède, d’après lui-même, le meilleur data

6

center affichant un PUE de 1,21. Yahoo! et Cap Gemini visent un PUE de 1,08 pour leur futurs data centers.

Gemini visent un PUE de 1,08 pour leur futurs data centers. fig 6 : Google :

fig 6 :

Google : 36 data centers en 2008

source : www.royal.pingdom.com/2008/04/11/map-of-all-google-data-center-locations/

Il faut préciser que cette course au plus faible PUE n’a pas de règles strictes. Le calcul du PUE n’est pas standardisé. Beaucoup d’entreprises se vantent d’un PUE très faible mais aucune ne précise les éléments pris en compte pour le calcul du numérateur : la puissance totale du site. Schneider Electric établit dans son livre blanc n°158 « Méthode de calcul de l’efficacité énergétique dans les data centers » une liste de tous les équipements électriques susceptibles d’être présents dans l’enceinte d’un data center. Chaque élément est classé dans l’une des 3 catégories suivantes : charge informatique, infrastructure physique, non inclus. C’est seulement à des niveaux de calcul égaux qu’il est possible de comparer énergétiquement les data centers.

7

fig 7 : PUE : absence de calcul standardisé source : Schneider Electric, livre blanc

fig 7 :

PUE : absence de calcul standardisé

source : Schneider Electric, livre blanc n°158

« Méthode de calcul de l’efficacité énergétique dans les data centers »

Schneider Electric établit par ce livre blanc le début d’une normalisation dans le calcul du PUE. Le Green Grid a reconnu les problèmes soulevés dans ce livre blanc et tente actuellement de trouver des solutions sous forme de directives et de normes. Ce livre blanc ne prend pas en compte :

- Le nombre de tranches informatiques ouvertes.

- Le taux de remplissage des racks.

- Le taux de disponibilité des serveurs.

Un data center dont les systèmes de refroidissement ou d’alimentation sont souvent en panne consomme moins qu’un data center fiable. Le PUE d’un data center peu fiable est donc plus faible. Avec des telles pannes les données informatiques risquent d’être indisponible momentanément à cause des surchauffes ou des coupures de courant. Des data centers renfermant des données confidentielles peuvent admettre des taux de disponibilité supérieurs à 99,99%. La notion de disponibilité n’étant pas considérée dans le PUE, on comprend très aisément son impact sur la consommation annuelle.

8

Cette consommation annuelle est largement augmentée par le système de refroidissement très gourmand en énergie. Cette consommation doit être considérée dès les premières phases de conception ; des phases comme que le choix du terrain d’implantation ou encore l’architecture. Que la raison soit écologique ou financière, l’économie d’énergie est à prendre en compte dès la phase de conception du data center.

4. Implantation et architecture

Au niveau de l’implantation, les petits data centers peuvent être intégrés dans l’enceinte même d’un bâtiment, au centre selon l’axe Est-Ouest (axe Y), au plus bas selon l’axe vertical (axe Z), au centre ou au Nord selon l’axe Nord-Sud (axe X) (pour l’hémisphère nord bien évidemment). Ainsi l’échange avec l’extérieur et les apports solaires sont limités. Nous ne développerons pas plus l’implantation et l’architecture des petits centres informatiques.

et l’architecture des petits centres informatiques. fig 8 : imp lantation d’un petit data center source

fig 8 :

implantation d’un petit data center source : production personnelle

Pour les data centers plus importants nécessitant une enceinte dédiée, un modèle compact est le mieux approprié : un volume intérieur maximal pour une surface d’échange extérieure minimale.

maximal pour une surface d’échange extérieure minimale. fig 9 : compacité source :

fig 9 :

compacité

source : www.logisylva.com/menu-2/maisons-basse-consomation/pour-une-conception-

reussie/

9

Les apports de chaleur sont à éviter. On peut noter que certaines entreprises américaines ont implanté leurs data centers en Alaska. Google songent à construire son prochain data center dans la cale d’un bateau afin de profiter d’un échange avec un extérieur frais et peu variable dans le temps.

L’environnement du terrain constructible joue aussi un rôle important : on privilégie les zones en dehors des villes afin d’éviter la chaleur urbaine, les régions froides du pays concerné, les zones ombragées (proche d’une forêt), les zones à albédo faible (loin des plans d’eau), les zones non caniculaires (éviter les climats continentaux).

zones non caniculaires (éviter les climats continentaux). fig 10 : îlot de chaleur urbain à Paris

fig 10 :

îlot de chaleur urbain à Paris : 09-08-2009

source : www.actualite.lachainemeteo.com/actualite-meteo/2009-09-28/paris-banlieue---9--d-

ecart_-2638.php

L’architecture intérieure est elle aussi très importante. Les apports solaires devant eux aussi être limités, les rares ouvrants prévus sont uniquement opaques : il n’y a donc aucune fenêtre, uniquement des portes opaques. Dans un bâtiment dédié, il est judicieux d’encadrer les salles serveurs par une circulation périphérique ou des salles à refroidissement moindre (poste de contrôle, sanitaires…). Cette véritable enceinte périphérique joue le rôle de zone tampon pour stocker la chaleur et limite les apports solaires dans la salle contenant les serveurs informatiques. La salle hébergeant les serveurs informatiques nécessite une conception élaborée pour une efficacité maximale. La compacité est encore primordiale. Les flux d’air chauds et froids ne doivent pas stagner. La salle doit donc présenter le moins d’angles possible.

5. Distribution d’air

Concernant les flux d’air, un data center bien refroidit est un data center où l’air circule correctement. Il ne doit pas y avoir de mélange entre l’air extrait et l’air soufflé. Il existe plusieurs configurations, chacune présente des avantages et des inconvénients. Les data centers étant relativement récents, il est encore difficile d’avoir un regard critique et de prendre du recul sur les différents modèles de circulation d’air. Avant toute réflexion sur la méthode d’extraction et de soufflage, le premier choix à faire est une distribution par allée chaude / allée froide. Cette méthode permet d’extraire un maximum

10

d’air chaud, et très peu d’air mélangé à température moyenne. Le mélange amène le système de refroidissement à fonctionner de façon moins efficace : une plus petite différence de température entre l’air chaud extrait et les températures du serpentin de refroidissement induit une dégradation du rendement de l’installation.

induit une dégradation du rendement de l’installation. fig 11 : principe de l’allée chaude / allée

fig 11 :

principe de l’allée chaude / allée froide avec faux-plancher source : www.conteg.fr/confinement-d-allee-froide

11

6.

Allée chaude / allée froide

6. Allée chaude / allée froide fig 12 : les 9 schémas de distribution en allée

fig 12 :

les 9 schémas de distribution en allée chaude / allée froide

source : Schneider Electric, livre blanc n°55 « Options d’architecture pour la distribution d’air dans les installations critiques »

12

fig 13 : modélisation de l’allée chaude / allée froide avec faux -plancher source :

fig 13 :

modélisation de l’allée chaude / allée froide avec faux-plancher source : www.conteg.fr/allee-chaude-froide/

Le faux-plancher est devenu en peu de temps une habitude constructive. Cependant il a quasiment perdu sa raison d’être et n’offre plus que des inconvénients importants : frais d’étude et de construction, temps d’installation, réduction de la hauteur de plafond, fragilité sismique, risques pour la sécurité des personnes et la sûreté de l’information, charge limitée et rampes d’accès, etc. Lorsque les câblages électriques sont eux aussi en faux-plancher, leur présence perturbe l’écoulement de l’air en augmentant la perte de charge et en modifiant la répartition des pressions et des débits. De plus, la nécessité de modifier fréquemment le câblage oblige le personnel à ouvrir certaines dalles pour accéder aux câbles, ce qui perturbe encore plus l’alimentation en air des équipements critiques. Il est préférable d’acheminer ces câbles par le plafond afin d’éviter tout risque de lié au traitement d’air.

afin d’éviter tout risque de lié au traitement d’air. fig 14 : faux plancher encombré par
afin d’éviter tout risque de lié au traitement d’air. fig 14 : faux plancher encombré par

fig 14 :

faux plancher encombré par les câbles électriques

source : Schneider Electric, livre blanc n°135 « Confinement de l’allée chaude / Confinement de l’allée froide » source : http://www.lemagit.fr/article/greenit-data center-bouygues-centre-calcul-

prosodie/3423/1/prosodie-emmene-bouygues-vers-green-mais-peine-etendre-mouvement/

Si le cheminement des câbles électriques n’est possible qu’en faux-plancher, l’alimentation en haut glacée peut s’effectuer par le plafond afin de minimiser l’encombrement du faux- plancher.

13

fig 15 : alimentation en eau glacée par faux-plancher et en plafond apparent source :
fig 15 : alimentation en eau glacée par faux-plancher et en plafond apparent source :

fig 15 :

alimentation en eau glacée par faux-plancher et en plafond apparent

source : Schneider Electric, livre blanc n°131 « Systèmes avancés de distribution d'aeu réfrigérée pour centres de données »

7. Point chaud

La stagnation ou le ralentissement du flux d’air peut avoir de lourdes conséquences dans certains cas. Les racks sont utilisés à charge inégale les uns par rapport aux autres. Lorsque la charge informatique est importante, la baie surchauffe localement, créant ainsi un point chaud par rapport aux baies voisines dont la température est modérée. Cette surchauffe localisée nécessite un traitement en refroidissement plus important. Si cette surchauffe survient en un point éloigné du départ de l’air soufflé en faux-plancher et que différents obstacles perturbent son écoulement, alors le traitement du point chaud sera insuffisant voire inexistant. Si le point chaud n’est pas traité, les hubs risquent de griller, entraînant une panne partielle de l’installation et une perte probable des données de ces hubs.

on et une perte probable des données de ces hubs. fig 16 : points chauds source

fig 16 :

points chauds

source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus »

14

Traditionnellement, la perspective d’avoir à refroidir des points chauds dans les salles informatiques à faux-plancher a conduit à surdimensionner le système de distribution d’air, avec des investissements et des frais d’exploitation inutilement élevés, sans toujours atteindre le résultat désiré le moment venu. Pour éviter les coûts d’une surcapacité de refroidissement, il est préférable de desservir les zones à forte dissipation par des gaines individuelles de soufflage et / ou d’extraction. En général, les circuits de soufflage canalisée et / ou d’extraction canalisée ne sont nécessaires que pour des niveaux de puissance de 5 à 15 kW par rack.

que pour des niveaux de puissance de 5 à 15 kW par rack. fig 17 :

fig 17 :

extraction canalisée

source : www.conteg.fr/alimentation-en-salle-avec-retour-par-plenum/

Si cela est le cas, le maître d’ouvrage et le bureau d’étude ont plusieurs choix :

Le maître d’ouvrage connaît l’emplacement des baies à forte charge et le bureau d’étude conçoit les gaines individuelles en conséquence. La plupart du temps, le maître d’ouvrage ne connaît pas l’emplacement des baies à forte charge :

- Une solution onéreuse consiste à traiter toute la salle de façon régulière par des

gaines individuelles. Cette solution paraît peu réalisable du point de vue purement financier.

- Une solution plus performante consiste à imposer au maître d’ouvrage le nombre et

l’emplacement des baies à forte charge. Mais cette solution n’est pas évolutive. Le matériel informatique évolue sans cesse et très rapidement. Les hubs sont de plus en plus petits et performants, et chauffant aussi de plus en plus. Le changement de matériel informatique peut induire la création de points chauds supplémentaires par rapport à la configuration avec le matériel ancien. La salle n’a donc plus assez de gaines individuelles et les nouveaux points chauds ne sont pas traités.

- La solution optimale est une solution intermédiaire : imposer le nombre et l’emplacement des racks à forte charge et prévoir quelques gaines individuelles supplémentaires.

La notion de point chaud n’est pas exclusive aux salles avec faux-plancher. Les salles sans faux-plancher, à même le sol, sont aussi des salles à risque. L’architecture de la salle (compacité) peut induire des ralentissements du flux d’air vers les ou baies éloignés du ventilateur de soufflage et / ou d’extraction.

Dans la plupart des nouvelles constructions, la salle est à même le sol. Contrairement à des croyances bien établies, l’absence de faux-plancher permet d’utiliser des méthodes de refroidissement aussi efficaces, sinon plus, que celles qui font circuler l’air sous faux- plancher.

15

NB : Nous reviendrons sur la notion de point chaud dans le paragraphe sur la virtualisation.

8.

Confinement

Le coût de l’énergie n’est pas négligeable, surtout pour des installations comme un data center qui fonctionne en permanence. La configuration en allée chaude / allée froide est une avancée dans le dimensionnement des systèmes de refroidissement. Cependant un problème de pression de distribution peut laisser l’air froid stagner en bas et une mauvaise extraction laisse l’air chaud stagner en haut. Le mélange de ces deux airs implique une ambiance où la température est ni chaude, ni froide, mais modérée et où le refroidissement des ou baies est inefficace à une altimétrie moyenne et haute.

Afin d’améliorer les performances de la configuration en allée chaude / allée froide, il est possible de confiner les rangées. Le confinement consiste en l’installation de séparation physique entre les extrémités de chaque rangée.

Le confinement permet de résoudre les problèmes de mélange d’air. Sans confinement, le mélange est mauvais lorsqu’il existe une différence entre le débit brassé par les armoires de climatisation et le débit soufflé par le faux-plancher.

- Si le débit des armoires de climatisation est supérieur à celui du faux-plancher, alors

il y a risque de points chauds : il y a une mauvaise reprise, l’air mélangé en principe modéré

devient chaud.

- Si le débit des armoires de climatisation est inférieur à celui du faux-plancher, alors

il y a une perte d’air frais : c’est de l’air frais qui est repris et non de l’air modéré.

de l’air frais qui est repris et non de l’air modéré. fig 18 : débit armoires

fig 18 :

débit armoires > débit faux-plancher = points chauds

source : www.atos-racks.com/fiche,allee_froide,109.html

16

fig 19 : débit armoires < débit faux-plancher = perte de capacité de refroidissement source

fig 19 :

débit armoires < débit faux-plancher = perte de capacité de refroidissement source : www.atos-racks.com/fiche,allee_froide,109.html

9. Confinement de l’allée froide

L’allée froide peut être confinée. Pour cela une séparation aux extrémités de chaque rangée par de simples rideaux en plastiques est possible. Le coût de mis en place de ce confinement est négligeable, et les gains énergétiques sont eux significatifs.

et les gains énergétiques sont eux significatifs. fig 20 : confinement de l’allée froide avec un

fig 20 :

confinement de l’allée froide avec un rideau en plastique source : www.gridata center.org/data center/

Enfermer l’allée froide d’un bout à l’autre permet de minimiser l’espace à refroidir et ainsi le refroidissement volumétrique devient meilleur pour un même débit d’air sans confinement. Toutes les allées froides dans la totalité du data center doivent être confinées afin d’en tirer des bénéfices. Le confinement de quelques-unes seulement n’apporte que peu de bénéfices car tout le reste de l’air froid se mélange à l’air chaud et réduit les économies escomptées.

Mais le confinement de l’allée froide présente plusieurs défauts :

- En cas d’une perte d’alimentation (ventilateurs) ou de refroidissement (groupes froids) : la diminution du volume disponible réduit le laps de temps suffisant aux serveurs pour atteindre une surchauffe. Avec le confinement de l’allée froide, la panne informatique

17

peut survenir quelques secondes après la panne technique (panne du lot CVC), au lieu de quelques minutes sans confinement. - Il n’élimine pas la variable du faux-plancher. L’encombrement du passage disponible par les câblages reste un frein au refroidissement des baies, et le risque de surchauffe est plus important du fait du volume de passage réduit du le faux-plancher.

10. Confinement de l’allée chaude

Bien que le système de confinement de l’allée froide soit un scénario préférable, si l’on compare à l’approche traditionnelle, le meilleur scénario est celui du système de confinement de l’allée chaude. Le confinement de l’allée chaude nécessite l’installation d’un plafond en plus des séparations latérales (panneaux préférables aux rideaux en plastiques). L’installation est plus onéreuse.

en plastiques). L’installation est plus onéreuse. fig 21 : confinement de l’allée chaude avec des panneaux

fig 21 :

confinement de l’allée chaude avec des panneaux rigides

source : Schneider Electric, livre blanc n°135 « Confinement de l’allée chaude / Confinement de l’allée froide » source : www.schroff.fr/internet/html_f/service/pressreleases/sro1003.html

Comparons la température ambiante de la salle :

- Dans le cas d’une salle sans confinement, l’air ambiant est un mélange d’air chaud à extraire et d’air froid insufflé.

18

- Dans le cas d’une salle avec confinement de l’allée froide, l’air ambiant est plus

élevé, car il est un mélange d’air chaud à extraire et d’une faible part d’air froid qui s’est dissipé sous les rideaux en plastique. La température ambiante peut augmenter jusqu’à plus de 10°C au dessus de la température sans confinement.

- Dans le cas d’une salle avec confinement de l’allée chaude, l’air ambiant est plus

frais car il est un mélange d’air froid insufflé et d’une faible part d’air chaud à extraire qui

s’est dissipé sous les panneaux et par le plafond du confinement. Ainsi, dans le cas d’une défaillance technique (panne du lot CVC), les serveurs restent dans une ambiance moins chaude que sans confinement et prélèvent l’air dans un grand réservoir frais à l’inverse du confinement par l’allée froide où ce réservoir est à son minimum. Le laps de temps suffisant aux serveurs pour atteindre une surchauffe est donc à son maximum (mais ne reste toujours que de quelques minutes).

Dans les deux cas de confinements, une détection et / ou protection incendie adaptée doit être prévue à chaque espace de confinement. Cet investissement conséquent est à considérer en parallèle aux économies d’énergie réalisées.

A l’heure actuelle il est difficile de quantifier l’économie réalisée par le confinement car les normes sur les températures intérieures admissibles dans les data centers sont en cours d’élaboration. L’échauffement de la température ambiante par le confinement de l’allée froide et l’échauffement de la zone de confinement de l’allée chaude sont en dehors des limites admises. Il est donc encore rare de voir des applications du confinement.

11. Température intérieure

Pour le moment l’Union Européenne, par le biais de l’ETSI (European Telecommunications Standards Institute), travaille sur une norme environnementale pour les data centers. Il s’agit de la norme, encore non finalisée, ETSI EN 300 019-1-3. Les data centers sont répertoriés dans la classe environnementale 3.1. Le « code de conduite européen sur les Datacentres ». Le respect de cette norme est prévue pour 2012. Pour l’instant le « code de conduite européen sur les Datacentres » se base sur les recommandations de l’ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers) décrit dans le document « 2008 ASHRAE Environnemental Guidelines for Datacom Equipment ». Ce document préconise des températures ambiantes de 18°C à 27°C et accepte des températures de 15°C à 32°C.

à 27°C et accepte des températures de 15°C à 32°C. fig 22 : logos de l’ETSI
à 27°C et accepte des températures de 15°C à 32°C. fig 22 : logos de l’ETSI

fig 22 :

logos de l’ETSI et de l’ASHRAE source : www.etsi.org source : www.ashrae.org

Certaines études empiriques montrent que les conditions optimales d’utilisation d’un data center est aux alentours de 27°C. Malheureusement l’habitude au sur-refroidissement est déjà acquise : certains data centers sont refroidis jusqu’à 12°C, et la moyenne internationale est à 22°C. Malgré les études prouvant la valeur optimale de 27°C, seul Yahoo! (une fois de plus) pousse les limites exercées à ce jour en refroidissant son centre à 23,8°C et en déclenchant des ventilateurs supplémentaires lorsque la température varie de 25,5 à 26,6°C. Les enjeux financiers que renferment les données informatiques des serveurs sont si importants que l’erreur n’est pas permise. L’évolution vers une température ambiante élevée,

19

sécurisée et certifiée par les organismes agrées est pour demain mais pour le moment tout est à faire.

Le processus de production de normes et de directives est long. Le système de refroidissement d’un data center est intimement lié aux équipements informatiques se trouvant dans la salle. L’évolution informatique est très rapide, même si cette dernière ne suit plus le loi de Moore depuis plus de 20 ans (rappel de la loi de Moore : la capacité informatique double tous les 18 mois), et que son évolution exponentielle s’est ralentie, il n’en reste pas moins que l’évolution continue. Et à moins que les futures technologies ne contredisent les faits suivants, l’évolution des serveurs correspond avec les augmentations de leur consommation en alimentation et de leur chaleur dissipée : plus petits, plus puissants, plus chauds.

dissipée : plus petits, plus puissants, plus chauds. fig 23 : croissance de la capacité informatique

fig 23 :

croissance de la capacité informatique

source : fr.wikipedia.org/wiki/Loi_de_Moore

Dans un souci de performance informatique, les hubs sont destinés à être changés régulièrement. Le système de refroidissement évolue beaucoup moins rapidement et doit être capable de supporter les charges des futurs serveurs plus gourmands en énergie. Ces futures augmentations de charges dissipées ne peuvent être admises uniquement par un système de refroidissement surdimensionné ; ce qui est contradictoire à l’économie d’énergie. Mais l’économie d’énergie intéresse les utilisateurs de data centers car celle-ci est coûteuse. La location de racks l’est encore plus. En France, le prix moyen de location mensuel d’un rack est de 1 029 €. De nouvelles méthodes informatiques ont été développées pour contrer ces prix exorbitants. Les propriétaires et les loueurs de racks peuvent choisir de virtualiser certains de leurs racks afin d’optimiser leur utilisation et ainsi réduire les coûts de consommation et de matériels informatiques. La virtualisation consiste à simuler plusieurs machines sur une seule.

12.

Virtualisation

Les racks ne sont jamais pleinement utilisés. La plupart du temps ils sont chargés de 20 à 30% de leur capacité.

20

Il est possible de transférer les données et le système d’exploitation associé d’un hub sur un autre. L’hub qui a reçu les nouvelles données peut gérer les deux systèmes d’exploitation et gérer des actions simultanées sur les données existantes et sur les nouvelles données : le rack contenant ce hub a été virtualisé. Il est possible de virtualiser plusieurs hubs sur un seul hub, et plusieurs racks sur un seul rack.

hubs sur un seul hub, et plusieurs racks sur un seul rack. fig 24 : principe

fig 24 :

principe de fonctionnement de la virtualisation

source : www.alunys.com/page/53/virtualisation

Après la virtualisation, il est possible de retirer définitivement les racks vidés virtuellement. Cette solution est profitable aux personnes louant les racks pouvant ainsi réduire le nombre de racks présents dans leur data center. Cependant la capacité de stockage du data center est fortement diminuée.

Ou alors, il est possible de conserver les racks vidés virtuellement. Virtualiser et conserver les racks est profitable aux personnes propriétaires des racks. Les données virtualisées sont présentes sur deux racks : celui d’origine et celui virtualisé. Cela permet d’avoir une redondance dans les données et de les conserver en cas de panne avec perte partielle ou totale. Ou bien, les racks vidés virtuellement peuvent être réellement vidés : il n’y pas de redondance de données mais cela permet d’augmenter la capacité de stockage du data center sans investissement de matériels informatiques.

Après virtualisation il y a donc trois possibilités :

- Retirer le rack vidé

- Conserver le rack vidé

- Vider réellement et conserver le rack vidé.

La consommation électrique informatique est différente selon ces trois cas. Un rack consomme quasiment autant d’énergie qu’il fonctionne à faible ou à pleine charge. Sa consommation est quasiment fixe, et peu variable, peu proportionnelle selon la charge.

21

fig 25 : rendement d’un rack en fonction de sa charge source : h41112.www4.hp.com/qualifiedoptions/fr/fr/rack/index.html

fig 25 :

rendement d’un rack en fonction de sa charge

source : h41112.www4.hp.com/qualifiedoptions/fr/fr/rack/index.html

A de 25% de charge, le rendement est de 80%.

Ainsi, avec deux racks chargés à 25%, virtualiser un des racks sur l’autre permet de réduire

la consommation informatique de 37%. Le rack virtualisé atteint une charge de 50%.

Evaluation de la consommation électrique informatique selon les trois cas :

- Retirer le rack vidé :

économie d’énergie, économie de location, capacité de stockage diminuée.

- Conserver le rack vidé :

faible augmentation de la consommation, redondance de l’information assurée.

- Vider réellement et réutiliser le rack vidé :

faible augmentation de la consommation, capacité de stockage augmentée.

L’inconvénient majeur de la virtualisation survient lorsque tous les serveurs présents dans le rack virtualisé atteignent leur charge de pointe au même instant. Le rack virtualisé atteint 90

à 100% de sa charge et dissipe énormément de chaleur, créant un point chaud. Les points

chauds liés à la virtualisation sont difficiles à traiter car ils sont mobiles : les charges

informatiques sont en déplacement du fait du fonctionnement simultané de serveurs sur une seule machine. Le taux de charge du rack virtualisé varie sans cesse d’une charge quasi nulle à une charge totale.

sans cesse d’une charge quasi nulle à une charge totale. fig 26 : déplacement des points

fig 26 :

déplacement des points chauds après virtualisation source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus »

22

Une mauvaise trajectoire du flux d’air, un problème d’écoulement d’air, un mauvais dimensionnement du confinement accentue ce phénomène : un rack virtualisé atteignant seulement 50% ou 60% de sa capacité peut créer un point chaud. Un taux de 50% est atteint fréquemment par un rack virtualisé. Pour atteindre la demi-charge il ne suffit pas que tous les serveurs présents soient en charge de pointe (ce qui est rare), mais seulement quelques uns. La virtualisation est donc à utiliser avec précaution.

La meilleure solution est de regrouper des serveurs ayant des utilisations complémentaires non simultanées ; mais cette situation reste rare et difficile à identifier. La virtualisation à demi-charge (50%) est à étudier, mais la virtualisation jusqu’à la pleine charge (90 à 100%) présente des risques trop importants pour la disponibilité (arrêt due à la surchauffe) et le maintien de l’information (perte partielle due à la surchauffe).

Autre problème, dans un data center en sous-charge à cause du surdimensionnement du système de refroidissement, la diminution de la dissipation de chaleur grâce à la virtualisation peut amener ce dernier en sous-charge extrême. Les effets négatifs d’une sous-charge extrême sont développés dans le paragraphe sur le surdimensionnement.

Le rendement et la charge ne sont pas liés linéairement. A partir de 30% de charge, le rendement est acceptable. Le principal but de la virtualisation n’est pas d’atteindre des niveaux de rendement supérieurs à ceux atteint à 30% de charge, mais d’atteindre un niveau de charge minimum, assurant ainsi la non-dégradation du rendement.

La virtualisation augmente sensiblement le rendement informatique : il y a plus d’activité informatique par Watt d’électricité consommé par le data center. Le rendement du data center DCIE, Data Center Infrastructure Efficiency, correspond à l’inverse du PUE, soit :

DCIE = consommation informatique / consommation totale du site

Comment varie le DCIE avec la virtualisation ? Par la virtualisation, la puissance informatique diminue. Les puissances informatique, du système de refroidissement et du système d’alimentation forment à elles trois 90% de la puissance totale du site.

Dans le cas où le rack vidé est retiré :

- Le système de refroidissement est un peu moins sollicité.

- L’alimentation informatique retirée ne représente qu’une faible part de l’alimentation

totale. De ce fait, la puissance totale du site augment : le DCIE diminue, le PUE augmente.

Dans le cas où le rack vidé est conservé :

- Le système de refroidissement est plus sollicité.

- L’alimentation informatique augmente.

De ce fait, la puissance totale du site augmente de significativement : le DCIE diminue, le PUE augmente fortement.

Le DCIE ne mesure pas le quantité d’énergie utilisée mais indique la part de l’énergie gaspillée par rapport à l’énergie utilisée.

23

fig 27 : diminution du DCIE après virtualisation source : Schneider Electric, livre blanc n°118

fig 27 :

diminution du DCIE après virtualisation

source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus »

Lorsque le rendement informatique augmente sans modification du système de refroidissement, le système de refroidissement devient surdimensionné. En effet la chaleur dissipée par un rack n’est pas linéairement proportionnelle à sa charge : un rack à faible charge informatique dissipe une certaine quantité de chaleur non négligeable. Ainsi la chaleur dissipée par le matériel informatique d’un data center virtualisé est inférieure à la chaleur dissipée par un data center non virtualisé lorsque la charge informatique est la même dans les deux cas, c’est-à-dire lorsque les racks sont retirés. La conservation et la réutilisation des racks vidés ne permet pas de réaliser des économies d’énergie, ils ne permettent que d’augmenter la capacité informatique du data center.

Si la volonté est aux économies d’énergies, la part majeure est à récupérer sur le dimensionnement du système de refroidissement et l’alimentation électrique. Les économies réalisées par la virtualisation sont notables, mais faibles par rapport à ceux réalisables sur la consommation électrique non informatique.

Consommation électrique non informatique associée à la virtualisation La consommation d’énergie non informatiques, ou pertes, sont les suivantes :

- Les pertes électriques internes du système d'alimentation (périphériques du circuit

d'alimentation, notamment les onduleurs, les bandeaux de prises, le câblage, etc.), qui se

dispersent sous forme de chaleur.

- L'ensemble de la puissance consommée par le système de refroidissement.

- L'ensemble de la puissance consommée par d'autres sous-systèmes de l'infrastructure physique du data center (réduite par rapport aux précédentes).

Sur l'ensemble de la puissance consommée par les systèmes d'alimentation et de refroidissement, une partie reste identique quelle que soit la charge informatique, et une partie varie en proportion de la charge informatique. Ces deux composants de puissance consommée sont appelés perte fixe et perte proportionnelle.

La perte fixe est la puissance consommée que le système fonctionne ou non, quelle que soit la charge. La réduction de la charge ne modifie pas la quantité de perte fixe. Les transformateurs et les ventilateurs à vitesse fixe possèdent des pertes fixes importantes. La perte proportionnelle est directement proportionnelle à la charge. Le doublement de la charge doublera la perte proportionnelle. Les ventilateurs à vitesse variable et les pompes à débit variable possèdent des pertes proportionnelles.

24

Les pertes fixes représentent une part non négligeable lorsque le matériel concerné fonctionne à bas régime. En d’autres termes, plus un data center est grand et plus ces pertes représentent une part importante de la consommation électrique non informatique.

Pour la même capacité informatique, la virtualisation permet de diminuer le nombre de racks. Diminuer le nombre de racks permet de :

- Diminuer les longueurs d’alimentation électrique.

- Diminuer les longueurs des réseaux aéraulique et hydraulique.

- Réduire le système de refroidissement ; par exemple, en retirant quelques armoires

de climatisation au niveau des racks retirés. Modifier la taille du groupe froid et des aéroréfrigérants est un investissement trop lourd. Ainsi, les pompes et les ventilateurs ont moins de pertes de charge à combattre. Avec des ventilateurs et des pompes à vitesse variable, les économies d’énergie sont notables car les pertes proportionnelles diminuent. Dans ce cas il est considéré que le système de refroidissement est déjà muni de tels variateurs. Si ce n’est pas le cas, l’investissement pour des matériels avec variateurs est conséquent mais le retour sur investissement est rapide (quelques années). La meilleure solution est de prévoir des ventilateurs et des pompes à vitesse variables dès la conception : avec la virtualisation, les économies d’énergie réalisées sont immédiates et sans investissement. Il en est de même pour l’investissement d’onduleurs plus performants et moins puissants (moins de racks à alimenter) : l’investissement est lourd mais le retour sur investissement est rapide (quelques années).

En optimisant le système de refroidissement et le système d’alimentation, la puissance totale du site est fortement diminuée. le DCIE virtualisé reste proche du DCIE non virtualisé, il peut être supérieur ou inférieur de quelques points. Les rendements sont proches, mais la facture énergétique est plus faible.

sont proches, mais la facture énergétique est plus faible. fig 28 : DCIE et PUE initiaux

fig 28 :

DCIE et PUE initiaux atteints après virtualisation et optimisation du système de refroidissement et d’alimentation source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus »

La réduction des pertes fixes, via un meilleur rendement des périphériques et / ou une meilleure configuration du système (variateurs de vitesse), est la méthode la plus efficace pour accroître le rendement. En partant d’un data center défavorable, il est possible de faire près de 65% d’économies grâce au confinement, à la virtualisation, à l’optimisation de refroidissement et d’alimentation et d’obtenir un retour sur investissement inférieur à 4 ans. Mais le surdimensionnement n’apparaît pas uniquement lors de la virtualisation. Il est vite devenu une habitude de conception.

25

13.

Surdimensionnement

APC de Schneider Electric a recueilli dans son livre blanc n°37 « Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de données et de salles réseaux » des données auprès de nombreux utilisateurs et a réalisé l’étude suivante :

nombreux utilisateurs et a réalisé l’étude suivante : fig 29 : capacité, charge, gaspillage en fonction

fig 29 :

capacité, charge, gaspillage en fonction du temps

source : Schneider Electric, livre blanc n°37 « Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de

données et de salles réseaux »

En phase de conception. La capacité théorique en alimentation et en refroidissement de la salle correspond au seuil 100%. La capacité à installer est égale à la capacité théorique de la salle. Il est prévu que la salle démarre à 30% de ses capacités informatiques : il s’agit de la charge prévue. Cette charge prévue augmente avec le temps jusqu’à un certain seuil poche de 85%. La limite haute de la charge prévue n’excède pas 85% afin de laisser 15% de marge en capacité de refroidissement dans le cas de conditions climatiques extrêmes (canicule) ou la panne d’une (voire deux) armoire de climatisation. L’énergie gaspillée correspond à la différence entre la courbe de capacité à installer et celle de la charge prévue.

La marge de sécurité de 15% n’est pas justifiée car la conception est établie pour les conditions extrêmes et non pour les valeurs réglementaires d’été. De plus, les pannes sont gérées par la redondance du matériel. Afin de maintenir une disponibilité maximale du data center, pour une quantité N de matériel installé, il est choisi d’installer N+1 fois ou 2N fois le matériel nécessaire pour pallier aux éventuelles pannes. Tous les data centers sont au moins en redondance N+1, aucun n’est uniquement en installation N. La charge finale prévue doit être de 100% et non de 85%. Ainsi la charge initiale doit être de 45% et non de 30%.

26

fig 30 : capacité, charge, gaspillage en fonction du temps source : Schneider Electric, livre

fig 30 :

capacité, charge, gaspillage en fonction du temps

source : Schneider Electric, livre blanc n°37 « Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de

données et de salles réseaux »

En phase de commande. La puissance des équipements est contractuelle et figure dans le CCTP. L’entreprise d’exécution n’est pas censée rehausser la puissance prescrite. Si elle décide de surdimensionner, acheter des équipements plus puissants est plus coûteux et génère moins de bénéfices. De plus un système de refroidissement atteint son rendement maximum lorsqu’il fonctionne à plein régime. Il n’y a donc aucun intérêt à surdimensionner les puissances prescrites.

En phase d’utilisation. La charge réellement installée est de 10% au lieu des 30% prévus. La charge installée augmente avec le temps jusqu’à environ 30% de la capacité installée. Ces 30% installées correspondent pour l’utilisateur à la pleine utilisation de son centre. Ces mêmes 30% correspondent pour le concepteur à la charge initiale. Le gaspillage réel est largement supérieur au gaspillage théorique.

Ci dessous un récapitulatif des consommations et du gaspillage sur 10 ans :

 

Consommation

Gaspillage

Capacité installée (référence) :

100%

0%

Charge prévue (sans sécurité) :

86,4%

13,6%

Charge prévue (avec sécurité) :

70,8%

29,2%

Charge réelle :

26,0%

74,0%

En terme de puissance finale installée, les installations de refroidissement et d’alimentation sont 3 fois trop puissantes : capacité 100%, charge réelle 30%. Selon le type d’installation, simple ou complexe (régulation, technologie des aéroréfrigérants, groupes froids, récupération d’énergie, etc.), cela représente un surcoût d’environ 2 fois le prix nécessaire.

Un groupe froid fonctionnant à 30% de sa charge maximale voit son rendement fortement dégradé. Certaines technologies ne permettent pas de descendre à aussi bas régime :

certains groupes à vis ne peuvent pas être régulés en dessous de 50%.

27

Lorsque la charge installée est inférieure à 20% de la capacité installée il y a risque de sous- charge est extrême. Sur le refroidissement cela peut impliquer :

- Un arrêt sécurisé en raison de la pression de refoulement trop basse sur les compresseurs.

- Des cycles courts des compresseurs en raison des arrêts fréquents et une réduction

de la durée de vie des compresseurs.

- L’invalidité possible de la garantie en cas de fonctionnement sous limites minimales de charge.

Grâce à son enquête auprès des utilisateurs de data centers, suivant :

APC a établi le graphique

de data centers, suivant : APC a établi le graphique fig 31 : part de la

fig 31 :

part de la capacité installée réellement utilisée

source : Schneider Electric, livre blanc n°37 « Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de

données et de salles réseaux »

On voit que près de 20% des utilisateurs sont en dessous de la limite de sous-charge extrême. On remarque aussi que seulement 3% des utilisateurs atteignent ou dépasse le seuil des 85% de charge prévue à la conception.

Pourquoi le surdimensionnement est-il devenu une habitude ? Pour l’utilisateur le coût de création d’un data center est élevé. Planifiant son évolution dans les années à venir, l’utilisateur demande un certain surdimensionnement de peur que son nouveau centre soit déjà obsolète quelques années après sa mis en service. Cette anticipation certes logique est bien souvent démesurée. La conception d’un centre capable de s’adapter à un future demande imprévisible est la solution, mais ce n’est pas aussi simple.

Il est possible de réaliser un data center selon plusieurs tranches. Pour simplifier l’étude, nous nous limiterons à une première tranche réalisée, et à une deuxième tranche conditionnelle. Le nombre de tranches n’est pas limité à deux. Une première tranche concerne l’ouvrage de l’infrastructure (gros œuvre), l’installation de baies alimentées et refroidies : transformateurs, onduleurs, armoires de climatisation, groupes froids, aéroréfrigérants… Une deuxième tranche permet l’installation de baies supplémentaires : il s’agit d’un développement de l’utilisateur. L’ampleur de cette deuxième tranche est variable.

28

Cette tranche impose les installations suivantes :

- Des armoires climatisation : dans le cas où les systèmes d’alimentation et de refroidissement ont été conçus pour supporter les deux tranches. - Un transformateur, un ou plusieurs groupes froids et aéroréfrigérants, des armoires de climatisation, un système de détection et de protection incendie ; dans le cas où les systèmes d’alimentation et de refroidissement n’ont été conçus pour ne supporter que la première tanche.

Cette deuxième tranche, si elle est conditionnelle, permet à l’utilisateur de planifier son développement, de l’effectuer uniquement si son activité informatique en exprime le besoin. Le coût des travaux d’une deuxième tranche différée est plus élevé que ceux de deux tranches effectuées à la suite. Avec un tranche future, l’infrastructure est déjà active, les travaux de manutentions, de coupure de courant, de passage de câbles (entre autres) sont plus délicats et donc plus coûteux.

Dans le premier cas, la deuxième tranche concerne uniquement l’installation de nouvelles baies et armoires de climatisation supportées par les systèmes d’alimentation et de refroidissement existants. Il n’y a pas d’adaptabilité de l’infrastructure. La puissance des systèmes d’alimentation et de refroidissement est donc beaucoup trop élevée durant la période qui sépare la première et la deuxième tranche. La data center est donc surdimensionné pendant cette période. Il y a des risques d’indisponibilité liés à la sous- charge.

Dans le second cas, la deuxième tranche concerne l’installation de nouvelles baies associées à un nouveau système d’alimentation et de refroidissement. L’infrastructure s’adapte selon la nouvelle demande informatique. De plus, le temps séparant les deux tranches permet à l’utilisateur de prendre conscience de la différence notable entre la charge prévue à la conception et la charge réellement installée. Le dimensionnement de la deuxième tranche peut alors être revu à la baisse.

Ci dessus un graphique schématisant l’adaptabilité dans le second cas d’étude :

l’adaptabilité dans le second cas d’étude : fig 32 : adaptabilité et gaspillage en fonction du

fig 32 :

adaptabilité et gaspillage en fonction du temps

source : Schneider Electric, livre blanc n°37

« Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de données et de salles réseaux »

29

 

Consommation

Gaspillage

Charge réelle selon capacité non adaptée 92,8% Charge réelle selon capacité adaptée

96,3%

7,2%

3,7%

Il est intéressant pour l’utilisateur d’évaluer la perte engendrée par la réalisation de deux tranches distinctes et de la comparer à la perte engendrée par la surconsommation (dues aux pertes fixes) d’une installation surdimensionnée réalisée en une tranche ou en deux tranches (premier cas). Mais dans la majorité des cas, le surdimensionnement de la production de froid n’est pas justifiable.

Le surdimensionnement de la production de froid est inutile, coûteux et parfois dangereux, cependant le surdimensionnement des armoires de climatisation est nécessaire. Le moteur d’une armoire de climatisation ne présente pas un comportant linéaire dans le rapport puissance fournie ~ puissance absorbée.

La relation de la puissance absorbée en fonction de la puissance fournie est du type parabolique :

fonction de la puissance fournie est du type parabolique : fig 33 : puissance absorbée en

fig 33 :

puissance absorbée en fonction de l’utilisation (ou puissance fournie) source : production personnelle

A 30% de la capacité frigorifique de l’armoire, l’énergie électrique consommée est de l’ordre de 15% de l’énergie totale absorbée. Et à 50% de la capacité, l’énergie consommée est de l’ordre de 30%. Pour évaluer la part de la capacité frigorifique utilisée on parle de taux de charge.

Le taux de charge se calcule par la relation suivante :

Taux de charge = puissance frigorifique demandée / puissance frigorifique disponible

Le taux de charge est donc inférieur à 1. Dans le cas d’une production de froid, on cherche à atteindre la valeur théorique maximale de 1. Mais au vue de l’évolution de l’énergie électrique consommée en fonction de la puissance fournie, et donc en fonction du taux de charge, on voit qu’il est judicieux de surdimensionner l’armoire de climatisation afin de

30

consommer moins. Il ne faut pas non plus tomber dans l’extrême et trop surdimensionner

l’armoire. Une armoire de climatisation trop puissante présente les risques suivants :

- Une valeur d’achat plus élevée.

- Un encombrement plus important.

- Le ventilateur ne démarre qu’à partir d’un taux de charge compris entre 12% et

17%. Lors d’une utilisation partielle du data center ou lors de déperditions importantes par les parois (hiver rigoureux, salle informatique donnant sur l’extérieur), le taux de charge d’une armoire surdimensionnée peut être inférieur à son seuil limite d’utilisation. Le non- fonctionnement de l’armoire crée une surchauffe dans la salle, nécessitant ainsi un plus grand besoin en refroidissement, ainsi le taux de charge augmente, l’armoire s’enclenche et refroidit la salle jusqu’à la température de consigne, puis l’armoire s’arrête, etc. : il y a un

risque de courts-cycles.

Les aéroréfrigérants à moteur EC se comportent de la même façon : la relation entre l’utilisation et la puissance électrique consommée est parabolique. Cependant le surdimensionnement des aéroréfrigérants induit un surcoût à l’achat et une place nécessaire en toiture non négligeable et donc infructueux en terme d’économie pour le client.

La consommation des armoires de climatisation et des aéroréfrigérants est 4 à 8 fois plus faible que celle de la production de froid : le système de refroidissement représente la part la plus importante dans la consommation totale du data center. Son surdimensionnement accentue sa consommation en abaissant son rendement. Il existe plusieurs moyens de diminuer la consommation en refroidissement : la technologie du groupe froid, la possibilité de régulation plus large en scroll plutôt qu’en vis, la température du régime d’eau plus élevée, la récupération d’énergie, les apports de froid gratuits, etc. Nous allons nous intéresser à l’économie la plus grande qui est celle des apports de froid gratuits.

Pour profiter d’un froid gratuit et disponible tout au long de l’année il existe plusieurs méthodes. Il est possible de récupérer de l’énergie frigorifique gratuite sur l’eau ou sur l’air.

14. Apports frigorifiques gratuits

1. Sur l’eau

Les puits sont parfois utilisés pour le système de refroidissement des data centers : les puits canadiens, sur nappe, sur rivière, sur eau profonde de lac ou de mer permettent d’assurer un refroidissement constant tout au long de l’année. L’eau à refroidir circule soit directement dans le puit, soit dans un échangeur de chaleur connecté à l’eau du puit. Avec les puits sur eau profonde, la température de l’eau à refroidir peut diminuer jusqu’à

6°C.

Mais la réalisation des puits est limitée. La surface dédiée à un puit canadien pour un data center est considérable et les puits sur nappe, rivière, lac ou mer ne sont pas réalisables partout.

Le coût d’investissement est élevé mais l’économie réalisée est très importante. Le retour sur investissement est rapide. Selon la configuration du site et la difficulté des travaux, le retour sur investissement peut être de quelques années seulement (3 à 4 ans).

L’avantage des puits sur l’eau est leur prise en compte dans le dimensionnement de la puissance frigorifique à installer dans le data center. La puissance frigorifique à fournir est établie selon le cas le plus défavorable l’été. Or aux conditions extrêmes d’été, les puits

31

restent une source froide sûre. Ainsi, cet apport de froid gratuit au moment le plus défavorable permet de diminuer la puissance des équipements frigorifiques.

Il existe une autre méthode d’apport de froid gratuit, moins constante mais plus facile à mettre en place : le free cooling, qui permet un refroidissement sur l’air ou sur l’eau.

Le free cooling sur l’eau est possible dans une configuration de production de froid avec des aéroréfrigérants.

de production de froid avec des aéroréfrigérants. fig 34 : schéma de free cooling sur l’eau

fig 34 :

schéma de free cooling sur l’eau

source : production personnelle

Classiquement, le groupe froid délivre par l’évaporateur de l’eau glacée et par le condenseur de l’eau chaude. L’eau chaude circule dans des tuyaux jusqu’en toiture, puis dans le serpentin de l’aéroréfrigérant. Les ventilateurs de l’aéroréfrigérant soufflent l’air extérieur sur le serpentin. Ce système est un véritable échangeur de chaleur statique air brassé / eau. Par échange thermique l’eau se refroidit d’un delta de température identique à celui de l’eau glacée. Cette égalité de delta de température est une habitude de conception, le delta de température du condenseur peut être plus important que celui de l’évaporateur.

Par exemple, l’eau chaude se refroidit de 52°C à 47°C et le groupe froid fournit de l’eau à 8°C pour un retour à 13°C. L’eau froide à 8°C circule dans le serpentin de l’armoire de climatisation. Les ventilateurs de l’armoire permettent un brassage de l’air ambiant sur le serpentin froid : il y a échange thermique (air brassé / eau). L’air se refroidit et l’eau se réchauffe jusque 13°C. A cette température l’eau circule jusqu’au groupe froid où elle est à nouveau refroidit à 8°C, etc.

Le free cooling sur aéroréfrigérant consiste en l’installation d’un circuit d’eau direct entre l’aéroréfrigérant et l’armoire de climatisation quoi by-passe le groupe froid. Dans le cas d’une température extérieure inférieure à 3°C, il est possible de faire circuler l’eau glacée à 13°C dans un échangeur à plaque. Cet échangeur de chaleur est alimenté d’un côté par l’eau glacée à 13°C et de l’autre par le circuit by-pass de l’aéroréfrigérant. Le but est de refroidir l’eau glacée de 13°C à 8°C, il faut donc de l’eau dans le circuit by-pass à moins de 8°C en sortie d’échangeur. La température à l’entrée de l’échangeur du circuit by-pass doit être de 8°C moins le delta de température de l’eau glacée : l’eau en entrée d’échangeur doit être à moins de 3°C. Cette eau de by-pass circule dans le serpentin de l’aéroréfrigérant où elle se refroidit de 8°C à 3°C par brassage avec l’air extérieur. Ainsi l’air extérieur doit être inférieur à 3°C.

L’installation d’un échangeur entre les circuits d’eau glacée et de by-pass est fortement recommandée : on parle de free cooling indirect. Le free cooling direct ne nécessite pas d’échangeur. Le problème majeure du fonctionnement direct réside dans le fait que l’eau glacée circule en partie à l’extérieur (au passage dans les aéroréfrigérants) et de ce fait l’injection de glycol est obligatoire pour la

32

sûreté du système. Une eau glycolée nécessite des pompes et des armoires de climatisation spécifiques. De plus, l’échange thermique au niveau de l’échangeur de l’armoire de climatisation est dégradé : l’eau glycolée un fluide ayant une capacité calorifique inférieure à celle de l’eau « normale ».

calorifique inférieure à celle de l’eau « normale ». fig 35 : principe du free cooling

fig 35 :

principe du free cooling indirect par eau

source : www.eco-info.org/spip.php?article140

par eau source : www.eco-info.org/spip.php?article140 fig 36 : principe du free cooling direct par eau source

fig 36 :

principe du free cooling direct par eau

source : www.eco-info.org/spip.php?article140

Le free cooling par eau, direct ou indirect, a des limites :

- La période d’une température extérieure à 3°C est faible, voire quasi nulle selon les régions. - L’installation coûteuse d’un réseau by-pass : tuyauterie calorifugée, pompe, échangeur statique.

33

- La valeur de 3°C extérieur est théorique, elle est évaluée rapidement sans prise en

compte des rendements des deux échanges (serpentin aéroréfrigérant & échangeur à plaques), sans prise en compte de réchauffement par circulation à l’intérieur du bâtiment. En réalité il faut une température encore plus basse, proche de 0°C.

- A 3°C théorique, il y a un risque de condensation dans l’échangeur à plaques et ainsi une dégradation du rendement de l’échange est dégradé.

Le free cooling sur l’eau permet de ne pas utiliser les groupes froids et les pompes associées. Mais les aéroréfrigérants et les pompes réseaux fonctionnent toujours. La pompe du circuit by-pass fonctionne aussi lors du free cooling sur l’eau.

2. Sur l’air

Il est possible de refroidir un data center non pas en allant refroidir de l’eau et injecter cette dernière dans les groupes froids ou directement dans les armoires de climatisation, mais en allant chercher de l’air frais et de le souffler directement dans la salle informatique sans passer par le système de refroidissement.

Il existe plusieurs moyens d’apporter de l’air frais dans le data center :

- Les souterrains : ils sont très rares mais ils représentent un réservoir d’air à

température constante toute l’année ; ils sont à prendre en compte dans le dimensionnement de la puissance frigorifique à installer, de la même façon que les puits. Au vue de la rareté des souterrains, nous ne développerons pas leur utilisation.

- L’air extérieur : lorsque sa température est inférieure à celle de la consigne d’air

soufflé.

Sauf quelques exceptions, le free cooling sur l’air extérieur est le mode de refroidissement gratuit le plus disponible sur Terre. Les exceptions sont les pays très chauds où l’air

extérieur est supérieur à la consigne de soufflage toute l’année. Le free cooling sur air extérieur est justifié quelque soit l’implantation géographique du site :

- Dans un climat chaud, le free cooling permet l’arrêt du système de refroidissement l’hiver et pendant les nuits d’été.

- Dans un climat plus frais, la période disponible de free cooling est étendue.

Habituellement dans un data center, la température de l’air soufflé par les armoires de climatisation est de l’ordre de 15°C. Le free cooling s’effectue jusqu’à 14°C extérieur ; il est compté 1°C de réchauffement par le ventilateur de la centrale de traitement d’air.

34

fig 37 : moyenne des températures diurnes en mars (2001-2010) source :

fig 37 :

moyenne des températures diurnes en mars (2001-2010)

source : neo.sci.gsfc.nasa.gov/Search.html?datasetId=MOD11C1_M_LSTDA

Free cooling diurne en mars : l’Europe, les Etats-Unis, le Canada, la Russie et le Japon sont des régions où le free cooling sur l’air est possible une majeure partie de la journée (moyenne journalière inférieure à 14°C).

de la journée (moyenne journalière inférieure à 14°C). fig 38 : moyenne des températures nocturnes en

fig 38 :

moyenne des températures nocturnes en mai (2001-2010)

source : neo.sci.gsfc.nasa.gov/Search.html?datasetId=MOD11C1_M_LSTDA

Free cooling nocturne en mai : l’Australie, l’Afrique du Sud, le Chili et les pays Caucasiens s’ajoutent à la liste pour un free cooling nocturne.

35

fig 39 : moyenne des températures diurnes en mai (2001-2010) source :

fig 39 :

moyenne des températures diurnes en mai (2001-2010)

source : neo.sci.gsfc.nasa.gov/Search.html?datasetId=MOD11C1_M_LSTDA

Free cooling diurne en mai : possible uniquement dans le nord du Canada, de l’Europe et de la Russie, le sud de l’Argentine et du Chili.

Par exemple à Bordeaux, durant 57,2% de l’année la température extérieure est inférieure ou égale à 14°C. En heures cumulées cela représente 209 jours par an, dont 142 jours (= 4,75 mois) entre novembre et mars (= 5 mois).

Pour déterminer le débit d’air soufflé par free cooling dans la salle informatique il faut se référer aux armoires de climatisation. La puissance frigorifique des armoires de climatisation est surdimensionnée afin de consommer moins. Lorsque les besoins en froid sont faibles, le taux de charge diminue et ainsi la puissance frigorifique de l’armoire diminue. Mais le débit soufflé reste stable afin de maintenir une pression statique disponible maximale. En effet, si le débit soufflé diminue, la pression statique disponible diminue et le flux d’air circule mal, voire pas du tout s’il y a de nombreux obstacles (cas du faux plancher). Donc le débit d’air soufflé par les armoires de climatisation n’est pas surdimensionné, seule la puissance frigorifique l’est. Le débit d’air soufflé par free cooling est égal au débit total disponible dans la salle informatique.

Le débit soufflé par free cooling est donc très important. Dans un data center, le volume d’amenée d’air neuf est faible : les besoins en renouvellement d’air son faibles car il n’y a aucun dégagement d’humidité ou de composés organiques volatiles par le matériel informatique. Le réseau de la centrale de traitement d’air neuf est trop petit pour le free cooling, il faut installer de nouvelles centrales dédiées.

Ces centrales sont constituées de :

- Un caisson de mélange afin d’obtenir par mélange entre air repris et air neuf un air soufflé à 15°C.

- Un séparateur de gouttelettes dans le cas d’un air extérieur très humide.

- Un humidificateur dans le cas d’un air extérieur très sec.

- Un ventilateur avec variateur de vitesse.

- Des filtres G4 (les filtres F7 sont intégrés aux armoires de climatisation).

36

Il faut aussi :

- Un réseau de soufflage et de reprise, avec registres de soufflage, diffuseurs et grilles, clapets coupe-feu.

- Des sondes de température dans la salle informatique pour le retour de l’information

sur la centrale.

- Un échangeur de chaleur dans le cas où l’air extérieur est impropre : trop humide ou

trop pollué (chargé en particules), dans ce cas on parle de free cooling indirect.

particules), dans ce cas on parle de free cooling indirect. fig 40 : principe du free

fig 40 :

principe du free cooling direct par air

source : www.eco-info.org/spip.php?article140

direct par air source : www.eco-info.org/spip.php?article140 fig 41 : principe du free cooling indirect par air

fig 41 :

principe du free cooling indirect par air

source : www.eco-info.org/spip.php?article140

37

Le free cooling sur l’air permet de ne pas utiliser le système complet de refroidissement :

groupes froids, aéroréfrigérants, pompes évaporateur, pompes condenseur, pompes réseaux. Seules les centrales dédiées au free cooling fonctionnent. Leur consommation est très faible par rapport à la consommation du système de refroidissement complet.

Les coûts d’investissement sont très importants. Selon la zone géographique, le retour sur investissement est très rapide (seulement 1 à 2 ans).

38

Partie 2 :

Méthode de calcul détaillée

La méthode de calcul présentée ne prend en compte que le pôle A.

1. Armoires de climatisation

- Ingerop m’indique le nombre et les puissances frigorifiques théoriques des armoires

de

climatisation des différentes salles pour chaque tranche du projet.

Ci

après le tableau récapitulatif pour le pôle A :

 

salle :

Telecom 1 & 2

Bandothèque

Onduleurs

Info

puissance frigo théorique (kW) :

6

24

45

76

quantité

tranche ferme

4

2

4

6

tranche A2

0

0

0

6

installée:

tranche future

0

0

4

24

quantité

tranche ferme

4

2

4

6

tranche A2

4

2

4

12

utilisée:

tranche future

4

2

8

24

- Par la consultation des fournisseurs, j’obtiens des puissances frigorifiques réelles souvent différentes des théoriques. J‘obtiens aussi pour chaque armoire la puissance électrique absorbée au débit nominal.

-

Ingerop me fournit un calcul de besoins frigorifiques par salle et par tranche :

 

Telecom 1 & 2

Bandothèque

Onduleurs

Info

besoins

tranche ferme

11,671

23,690

26,776

229,948

frigorifiques

tranche A2

11,564

23,690

44,136

456,100

(kW) :

tranche future

11,564

23,690

78,856

904,100

- Les étapes de calcul suivantes sont réalisée par tranche et par salle.

Je calcule le coefficient d’utilisation des armoires de climatisation pour chaque salle :

Coefficient d’utilisation de la salle considérée (décimal) = Besoin frigorifique de la salle (kW) / (Puissance frigorifique fournie par 1 armoire de la salle (kW) x Nombre d’armoires dans la salle)

J’obtiens un coefficient d’utilisation toujours inférieur à 0,50, permettant ainsi d’assurer une redondance des équipements en cas de panne.

- Les moteurs de ventilateurs des armoires de climatisation sont à commutation

électronique (type EC). J’ai réalisé sur excel la courbe représentative de la part de la puissance électrique absorbée

en fonction du coefficient d’utilisation. Cette courbe est établie de manière empirique à l’aide de documents techniques de fournisseurs sur les moteurs EC. Une courbe de tendance sur cette courbe empirique permet d’obtenir une expression mathématique du 2 nd ordre :

Part de la puissance absorbée (Ø) = a x (Coefficient d’utilisation (Ø))² + b x (Coefficient d’utilisation) + c Avec : a = 0,8478

b = 0,1332

c = 0,0182

39

- La courbe d’utilisation me permet de calculer la puissance réellement absorbée au

taux d’utilisation calculé précédemment :

Puissance réellement absorbée par 1 armoire de la salle considérée (kW) = (a x (Coefficient d’utilisation (Ø))² + b x (Coefficient d’utilisation) + c) x Puissance absorbée au débit nominal (kW)

- Je calcule ensuite la puissance électrique absorbée par l’ensemble des armoires de

la salle considérée :

Puissance totale absorbée dans la salle considérée (kW) = Puissance réellement absorbée par 1 armoire de la salle (kW) x Nombre d’armoires dans la salle

- Je viens de calculer la puissance électrique totale absorbée de chaque salle. Pour calculer une consommation il me faut un temps de fonctionnement des armoires de climatisation par salle. Les armoires de climatisation fonctionnent en continue : 7j / 7 et 24h/24 :

Temps de fonctionnement mensuel (h) = Nb jours dans le mois x 24h Par exemple, le temps de fonctionnement en janvier vaut = 31j x 24h = 744 heures.

- La consommation totale mensuelle d’une salle vaut :

Consommation mensuelle de la salle considérée (kWh) = Puissance totale absorbée dans la

salle considérée (kW) x Nombre d’heures de fonctionnement mensuel (h)

- La somme des consommations mensuelles est égale à la consommation annuelle :

Consommation annuelle de la salle considérée (kWh) = Σ (Consommations mensuelles de la salle considérée (kWh))

- La somme des consommations annuelles de chaque salle est égale à la consommation annuelle totale des armoires de climatisation :

Consommation annuelle des armoires de climatisation (kWh) = Σ (Consommations annuelles de chaque salle (kWh))

2. Groupes froids et aéroréfrigérants

1. calcul des performances des groupes froids

- Je souhaite effectuer un calcul de consommation précis. Cegelec me fournit un

fichier météo de Bordeaux. Ce fichier météo est une moyenne sur 10 ans (de 2001 à 2010) du nombre d’heures à une température extérieure donnée (de Ŕ10 à 40°C). Le tableau est

décomposé en 12 mois :

Temp ext

Janvier (h)

Février (h)

Novembre (h)

Décembre (h)

-10

Nb d’heures

       

-9

 

     

   

   

39

     

 

40

       

Nb d’heures

40

- Je cherche à calculer la puissance frigorifique fournie et la puissance électrique absorbée pour différents taux de charges (100%, 75%, 50% et 25%) et selon une température extérieure variant de Ŕ10°C à 40°C :

Puissance frigorifique fournie (kW)

Puissance électrique absorbée (kW)

Temp

extérieure

100%

75%

50%

25%

100%

75%

50%

25%

-10

?

-9

39

40

- J’ai évalué la température de l’eau glacée en sortie de condenseur (en sortie de

l’aéroréfrigérant) selon la température extérieure. J’ai pris comme référence une température

de sortie de 47°C pour une température extérieure de 41°C. La température en sortie de condenseur diminue de la même manière que la température extérieure jusqu’à atteindre 15°C à 21°C extérieur. Pour maintenir les performances frigorifique des groupes froids, de 15°C à Ŕ10°C extérieur, l’eau en sortie de condenseur n’est pas refroidie en dessous de

24°C.

Temp extérieure

Temp sortie

condenseur

-10

21

13

21

14

21

15

21

16

22

17

23

40

46

41

47

A noter que le fichier météo n’indique pas les températures supérieures à 40°C. La ligne de calcul sur 41°C est inutile.

- Je cherche maintenant à obtenir les puissances frigorifiques fournies et électriques

absorbées pour 4 taux de charge et pour une température extérieure variant de Ŕ10 à 40°C,

soit au total :

51 températures x 4 taux de charge x 2 puissances = 408 valeurs Il m’est impossible de demander autant de valeurs à un constructeur.

- Je décide donc de contacter quelques constructeurs et je leur demande 48 valeurs

parmi les 408 nécessaires. Les 48 valeurs demandées correspondent aux puissances frigorifique fournie et électrique absorbée pour les 4 taux de charge et pour une température

extérieure de 15, 20, 25, 30, 35 et 40°C, respectivement équivalent à une température de condenseur à 21, 26, 31, 36, 41 et 46°C :

6 températures x 4 taux de charge x 2 puissances = 48 valeurs.

41

- Pour un constructeur, fournir ces 48 valeurs nécessite un long calcul.

Après consultation de Trane, Ciat, MTA et Swegon, je choisis de demander les 48 valeurs aux deux fournisseurs dont le groupe présente le meilleur EER : il s’agit de Trane et de Ciat. Pour les cas de MTA, et de SWEGON, je préfère extrapoler ces valeurs à partir des performances théoriques d’un groupe froid Carrier fournies par le bureau d’études Ingerop. Pour extrapoler les 48 valeurs, je demande uniquement à MTA et à SWEGON les puissances frigorifiques fournies et électriques absorbées de leur groupe en pleine charge à 41°C extérieur.

- Ces valeurs sont très utiles. Elles montrent que le groupe froid est de plus en pus performant lorsque la température extérieure diminue.

A 41°C, pour fournir 400 kW le groupe Trane fonctionne à pleine charge (100%) et absorbe

129,7 kW : l’EER est de 3,08.

A 30°C, pour fournir 400 kW, il fonctionne à 88% et absorbe 84,7 kW : EER = 4,72

A 15°C, pour fournir 400 kW il fonctionne à 75% et absorbe 59,8 kW :EER = 6,69

- J’ai donc en valeurs fournies ou extrapolées le tableau suivant :

 

T ext

 

15

 

 

40

 
 

T cond

 

21

 

 

46

 

Charge (%)

25

50

75

100

25

50

75

100

P

frigo (kW)

 

48 valeurs fournies ou extrapolées

P

élec (kW)

- A partir de ces 48 valeurs, je trace sur excel deux courbes de puissances (frigorifique et électrique) en fonction de la température de condenseur et selon un taux de charge fixé. J’obtiens au total :

1 courbe (puissance absorbée) fonction (temp condenseur) x 4 taux de charge = 4 courbes

- De ces 4 courbes, j’extrais avec excel des courbes de tendance afin d’obtenir une

équation mathématique pour chaque courbe, soit 4 expressions mathématiques au total. Selon la correspondance de la courbe de tendance par rapport à la courbe empirique, j’obtiens des expressions mathématiques du 2 nd ou du 3 ème ordre :

Puissance frigorifique (kW) = a x (Temp condenseur) 2 + b x (Temp condenseur) + c Puissance frigorifique (kW) = a x (Temp condenseur) 3 + b x (Temp condenseur)² + c x (temp

condenseur) + d

- A partir des expressions mathématiques, je complète le tableau suivant :

 

Puissance frigorifique fournie (kW)

Puissance électrique absorbée (kW)

Temp

Temp sortie

100%

75%

50%

25%

100%

75%

50%

25%

extérieure

condenseur

-10

21

 

408 valeurs calculées à partir des 48 valeurs fournies ou extrapolées et des courbes de tendance associées

39

45

40

46

 

- A partir de ce tableau, je créé une courbe par température extérieure : la puissance

électrique absorbée en fonction de la puissance frigorifique fournie. Par température, j’ai 4 valeurs puissance absorbée et 4 valeurs de puissance frigorifique.

42

Sur chaque courbe j’extrais une courbe de tendance avec son expression mathématique du 3 ème ordre. J’obtiens au final, 51 expressions de ce type :

Pour une température extérieure donnée, Puissance électrique absorbée (kW)= a x (Puissance frigorifique fournie (kW)) 3 + b x (Puissance frigorifique fournie) 2 + c x (Puissance frigorifique fournie) + d

2. calcul de la puissance totale absorbée à une température donnée

- Je réalise ensuite un autre tableau à 51 lignes correspondant à la variation de la température extérieure de Ŕ10 à 40°C.

- A chaque température extérieure, j’associe une certaine déperdition ou apport

extérieur. Ingerop m’indique de faire varier linéairement les apports extérieurs. Les 2 points

de référence sont les suivants : 0 kW d’apport à 20°C, 40 kW à 40°C. Il y a donc 2 kW échangés avec l’extérieur par degré : par exemple le bâtiment déperd 60 kW à Ŕ10°C. La puissance échangée avec l’extérieur est une puissance chaude à combattre au dessus de 20°C, c’est un apport de chaleur pour le datacenter ; et elle est un gain en puissance frigorifique en dessous de 20°c, c’est une perte de chaleur pour le datacenter.

Température

Puissance échangée avec l’extérieur (kW)

extérieure

-10

-60

-9

-58

19

-2

20

0

21

2

39

38

40

40

- L’air extérieur nécessite une déshumidification, donc un refroidissement. Je considère que la batterie à eau glacée de la centrale de traitement d’air fonctionne à partir de 12°C extérieur. Ingerop me fournit la valeur du débit de soufflage de la CTA : 2 800 m 3 /h. Je calcule la puissance frigorifique à fournir à la batterie froide de la CTA. En dessous de 12°C, la puissance est nulle. A partir de 12°C, la puissance vaut :

Puissance frigorifique à fournir à la CTA (kW) = débit de soufflage (m 3 /h) x 0,34 (J/(m 3 .K)) x (température de calcul Ŕ 12°C) x / 1000.

43

J’obtiens le tableau suivant :

Température

Puissance échangée avec l’extérieur (kW)

Puissance frigorifique à fournir à la batterie froide de la CTA (kW)

extérieure

-10

-60

 

0

 

11

-18

 

0

12

-16

2800 x 0,34 x (12-12) x / 1000 = 0

13

-14

2800

x 0,34 x (12-13) x / 1000

 

40

40

2800

x 0,34 x (12-40) x / 1000

- Ingerop me donne la valeur de la puissance frigorifique totale à fournir à l’ensemble

du datacenter à 40°C extérieur : 366,427 kW.

Cette puissance produite varie selon la température extérieure. La puissance à produire intègre la puissance échangée avec l’extérieur et la puissance frigorifique à fournir à la CTA :

Puissance frigorifique à produire = Puissance échangée avec l’extérieur + Puissance

frigorifique à fournir à la CTA + Puissance frigorifique fixe (inconnue) A 40°C, 3 des 4 termes de l’équation sont connus, il est donc possible de calculer le 4 ème terme : la puissance frigorifique fixe.

A 40°C : Puissance frigorifique fixe (inconnue) = Puissance frigorifique à produire -

Puissance échangée avec l’extérieur - Puissance frigorifique à fournir à la CTA = 366,427 Ŕ

40 Ŕ (2800 x 0,34 x (12-40) x / 1000) = 281,112 kW

D’où le tableau suivant :

Temp

Puiss échangée avec l’ext (kW)

 

Puiss frigo à fournir à la CTA (kW)

Puiss frigo à produire (kW)

ext

-10

-60

 

0

 

281,112 + (-60) + 0

 

 

11

-18

 

0

 

281,112 + (-18) + 0

12

-16

2800

x 0,34 x (12-12) x 1,7 / 1000 = 0

 

281,112 + (-16) + 0

13

-14

2800

x 0,34 x (12-13) x 1,7 / 1000

 

281,112 + (-14) +

2800

x 0,34 x (12-13) x / 1000

 

 

       

281,112 + 40 +

40

40

2800

x 0,34 x (12-40) x 1,7 / 1000

2800

x 0,34 x (12-40) x / 1000 = 366,427

- Je calcule ensuite le taux de charge des groupes froids :

Taux de charge (Ø) = Puissance frigorifique à produire (kW) / (Puissance frigorifique produit

à 100% de charge (kW) x Nombre de groupes froids utilisés)

La puissance frigorifique produit à 100% de charge est relevé dans le tableau de la 1 ère étape.

44

Le nombre de groupes froids varie selon la tranche du marché.

 

Tranche ferme

Tranche A2

Tranche future

quantité installée :

2

3

4

quantité utilisée :

1

2

3

- Tous les groupes froids ne sont pas utilisés. Ainsi, la puissance totale installée par

tranche permet d’assurer en cas de panne la couverture des besoins frigorifiques : c’est la redondance. Pour une certaine puissance installée N, il est choisi d’installer 2N fois ou N+1

fois la puissance requise.

 

Tranche ferme

Tranche A2

Tranche future

quantité installée :

2

3

4

quantité utilisée :

1

2

3

redondance

2N

N+1

N+1

Lors d’une redondance d’armoires de climatisation, toutes les armoires sont utilisées à un taux de charge très faible, permettant ainsi des économies d’énergie. Contrairement aux armoires de climatisation, les groupes froids fonctionnent au meilleur de leur rendement à pleine charge. Les groupes sont régulés en cascade, ce qui permet de faire fonctionner le moins de groupes possible. Le ou les premiers groupes froids de la cascade fonctionnent à plein régime.

- Je souhaite calculer la puissance électrique absorbée par les groupes froids. Pour

cela, j’utilise les 51 expressions de la puissance électrique absorbée en fonction de la puissance frigorifique fournie. Pour rappel, ces 51 expressions ont été extraites à partir des

courbes de tendance du tableau de 408 valeurs de l’étape 1 :

Pour une température extérieure donnée, Puissance électrique absorbée par 1 groupe froid (kW)= a x (Puissance frigorifique à produire (kW)) / (Nb de groupes froids utilisés) 3 + b x (Puissance frigorifique à produire / Nb de groupes froids utilisés) 2 + c x (Puissance frigorifique à produire / Nb de groupes froids utilisés) + d

- Ensuite, je souhaite calculer la puissance électrique absorbée par les aéroréfrigérants du même fournisseur que les groupes froids. Les moteurs des ventilateurs des aéroréfrigérants sont à commutation électronique, c’est-à-dire de type EC. Je peux donc utiliser la courbe d’utilisation qui a servi aux calculs de consommation des armoires de climatisation. La puissance électrique absorbée par un aéroréfrigérant vaut :

Puissance électrique absorbée par 1 aéroréfrigérant (kW) = (a x (Taux de charge d’un groupe froid (décimal))² + b x (Taux de charge d’un groupe froid (décimal)) + c) x Puissance absorbée par un ventilateur à débit 100% (kW) x Nombre de ventilateurs

- La puissance électrique totale absorbée à une température extérieure donnée vaut :

Puissance électrique totale absorbée (kW) = Puissance électrique absorbée par un groupe

froid (kW) x Nombre de groupes froids utilisés + Puissance électrique absorbée par un aéroréfrigérant (kW) x Nombre d’aéroréfrigérants

45

Il y a un aéroréfrigérant par groupe froid installé, d’où :

Puissance électrique totale absorbée (kW) = (Puissance électrique absorbée par 1 groupe froid (kW) + Puissance électrique absorbée par 1 aéroréfrigérant (kW)) x Nombre de groupes froids utilisés

J’obtiens le tableau suivant :

Temp

Puiss élec absorbée par 1 groupe froid (kW)

Puiss élec absorbée par 1 aéroréfrigérant (kW)

Puiss élec TOTALE absorbée (kW)

ext

-10

 

à partir de la courbe d’utilisation

somme des deux termes précédents x quantité par tranche

fonction croissance

40

3. calcul de la consommation totale

- Mon but est de calculer la consommation des groupes froids et des aéroréfrigérants. A partir du tableau réalisé à la fin de l’étape 2 et à partir du fichier météo de Bordeaux, je crée un tableau de consommation selon un calcul matriciel. Le tableau ainsi obtenu à donc autant de valeurs que le fichier météo. Il s’agit d’un tableau de consommation pour chaque température extérieure de Ŕ10 à 40°C, mois par mois. Il suffit pour cela de multiplier la puissance électrique totale absorbée avec le nombre d’heures à une température extérieure donnée, pour un mois fixé.

Temp

Puiss élec TOTALE absorbée (kW)

ext

-10

Puiss totale à Ŕ10°C

40

Puiss totale à 40°C

Temp

Janvier

 

Décembre

ext

(h)

(h)

-10

Nb d’h à Ŕ10°C en janvier

   

 

 

40

   

Nb d’h à 40°C en décembre

Temp

Janvier

 

Décembre

ext

(kWh)

(kWh)

-10

Nb d’h à Ŕ10°C en janvier x Puiss totale à Ŕ

   

10°C

     

40

   

Nb d’h à 40°C en décembre x Puiss totale à 40°C

46

- La somme de toutes les valeurs du dernier tableau (en bas à droite) correspond à la consommation annuelle (kWh) des groupes froids et des aéroréfrigérants :

Temp

Janvier

 

Décembre

ext

(kWh)

(kWh)

-10

Consommation à Ŕ10°C en janvier

   

     

40

   

Consommation à 40°C en décembre

Somme = Consommation en janvier (kWh)

 

Somme =

Consommation en décembre (kWh)

Somme mensuelle = Consommation annuelle (kWh)

3.

Pompes

- Cegelec a choisi de sous-traiter la réalisation des plans d’exécution au bureau d’études roumain Clima Project. Après des études plus approfondies que la phase PRO, Clima Project me fournit les débits et les hauteurs manométriques des différentes pompes. Ci après le tableau récapitulatif pour le pôle A :

 

pompe :

Condenseur

Evaporateur

Réseau 1

Réseau 2

débit fourni par Clima Project (m 3 /h) :

95

69

69

69

 

type :

constante

constante

variable

variable

quantité

tranche ferme

2 2

 

2

2

tranche A2

1 1

 

0

0

installée :

tranche future

1 1

 

1

1

quantité

tranche ferme

1 1

 

1

1

tranche A2

2 2

 

1

1

utilisée :

tranche future

3 3

 

2

2

- Par la consultation des fournisseurs, j’obtiens la puissance électrique absorbée de chaque pompe au débit nominal.

1. cas des pompes à débit constant

- Les groupes froids et les aéroréfrigérants fonctionnent en continu toute l’année. Les

pompes associées (condenseur et évaporateur) fonctionnent aussi en continu : 7j/7, 24h/24.

- La consommation mensuelle des pompes à débit constant vaut :

Consommation mensuelle des pompes à débit constant (kWh) = Puissance électrique absorbée au débit nominal (kW) x Nombre de pompes utilisées x Temps de fonctionnement mensuel (h)

47

- La consommation annuelle des pompes à débit constant vaut :

Consommation annuelle des pompes à débit constant (kWh) = Σ (Consommations mensuelles des pompes à débit constant (kWh))

2. cas des pompes à débit variable

- Par les consultations fournisseur, je connais la puissance électrique absorbée au point de fonctionnement des deux types de pompe à débit variable. Le point de fonctionnement correspond au débit maximal atteint lors de la demande maximale en froid, c’est-à-dire à 40°C extérieur.

- Je considère que le débit varie de manière proportionnelle avec la puissance

frigorifique fournie par les groupes froids. Pour exprimer la relation de proportionnalité, je crée un tableau en fonction de la température extérieure : de Ŕ10°C à 40°C.

2.1. Hypothèses de proportionnalité sur la tranche future

- Les besoins frigorifiques maximaux sont atteints à 40°C extérieur : 1 093 kW froid à

produire par les groupes froids, à transporter hydrauliquement par les pompes réseaux, et à fournir aux armoires de climatisation

- La redondance est en N+1 ; cela signifie que sur les 3 pompes installées sur chaque

réseau, 2 pompes fonctionnent et la 3 ème restante est un secours. La pompe en secours est

à l’arrêt lorsque les 2 autres pompes fonctionnent.

2 pompes réseau-1 et 2 pompes réseau-2 fonctionnent pour fournir le débit nécessaire.

- A 40°C extérieur, les besoins frigorifiques sont de 1 093 kW. Ces besoins sont

couverts hydrauliquement par 4 pompes réseau. Chaque pompe couvre les besoins frigorifiques suivant la relation suivante :

Besoins frigorifiques couverts par 1 pompe réseau (kW) = Besoins frigorifiques maximaux (kW) / Nombre de pompes réseau utilisées Besoins frigorifiques couverts par 1 pompe réseau (kW) = 1 093 / 4 = 273,25 kW

1 pompe réseau fonctionnant à 100% de son débit permet le « transport » de 273,25 kW froid.

2.2 Pour la tranche étudiée

- J’ajoute une nouvelle colonne : la puissance frigorifique à fournir pour la tranche étudiée. Cette puissance est reprise du calcul de consommation des groupes froids.

- Pour chaque tranche étudiée, je prends en compte le nombre total de pompes

réseau utilisées. Les besoins frigorifiques sont couverts hydrauliquement par l’ensemble des pompes réseau utilisées. Chaque pompe couvre donc les besoins frigorifiques suivant la relation suivante :

Sur la tranche étudiée, à une température extérieure T, Besoins frigorifiques couverts par 1 pompe réseau à T (kW) = Besoins frigorifiques à T (kW) / Nombre de pompes réseau utilisées

- L’hypothèse principale est de considérer qu’une pompe réseau à 100% de son débit permet le « transport » de 273,25 kW froid.

48

La puissance frigorifique à fournir diminue avec la température extérieure : la puissance à « transporter » varie :

Sur la Tranche étudiée, à une température extérieure T, Coefficient d’utilisation d’1 pompe réseau (%) = Coefficient d’utilisation maximal d’1 pompe réseau (%) x Besoins frigorifiques couverts par 1 pompe réseau à T (kW) / Besoins frigorifiques couverts par 1 pompe réseau à son utilisation maximale (kW) Coefficient d’utilisation d’1 pompe réseau (%) = 100 (%) x Besoins frigorifiques couverts par 1 pompe réseau à T (kW) / 273,25 (kW)

Il faut noter que pour les pompes à débit variable, le coefficient d’utilisation ne peut être inférieur à 25%. Si cela est le cas, la pompe en sous charge ne fonctionne pas.

J’obtiens le tableau suivant :

 

Tranche étudiée : Nb de pompes réseau utilisées

Temp

Puiss frigo à fournir (kW)

Puiss frigo à fournir par 1 pompe réseau (kW)

Coeff d’utilisation d’1 pompe réseau (%)

ext

-10

cf. « consommation des groupes froids »

= Puiss frigo à fournir / Nb de pompes utilisées

= 100 x Puiss frigo à frounir à T / 273,25

40

Tous les coefficients d’utilisation sont supérieurs à 25%.

- Je pose une hypothèse de calcul : la puissance électrique absorbée est affine.

En réalité la courbe est semblable à une courbe puissance dont l’ordonnée à l’origine est

supérieure à zéro. Mais l’approximation d’une variation affine reste très précise.

A partir des données fournisseurs, j’exprime la puissance électrique absorbée en fonction du coefficient d’utilisation de la pompe :

Puissance électrique absorbée par 1 pompe réseau (kW) = a x Coefficient d’utilisation (%) +

b

J’obtiens le tableau suivant :

Temp

Coeff d’utilisation d’1 pompe réseau (%) = U

Puissance électrique absorbée par 1 pompe réseau 1 (kW)

Puissance électrique absorbée par 1 pompe réseau 2 (kW)

ext

-10

= 100 x Puiss frigo à fournir à T / 273,25

   

= a 1 x Coefficient d’utilisation + b 1

= a 2 x Coefficient d’utilisation + b 2

40

- La puissance électrique absorbée varie selon la charge d’utilisation :

Puissance électrique absorbée par les pompes réseau (kW) = Puissance électrique absorbée par 1 pompe réseau 1 (kW) x Nombre de pompes réseau 1 utilisées + Puissance électrique absorbée par 1 pompe réseau 2 (kW) x Nombre de pompes réseau 2 utilisées

D’où le tableau suivant :

Temp

Coeff d’utilisation d’1 pompe réseau (%) = U

Puissance électrique absorbée par les pompes réseau 1 et 2 (kW)

ext

-10

   
 

= 100 x Puiss frigo à

= Puiss élec absorb par 1 pompe réseau 1 x Nb de pompes réseau 1 utilisées

fournir à T / 273,25

+ Puiss élec absorb par 1 pompe réseau 2 x Nb de pompes réseau 2 utilisées

40

49

- De la même manière que le calcul de consommation des groupes froids, je réalise un calcul matriciel à partir du fichier météo :

Temp

Puiss élec absorbée par les pompes réseau 1 et 2 (kW)

ext

-10

Puiss élec absorbée

à

Ŕ10°C

 

40

Puiss élec absorbée

à

40°C

Temp

Janvier

 

Décembre

ext

(h)

(h)

-10

Nb d’h à Ŕ10°C en janvier

   

     

40

   

Nb d’h à 40°C en décembre

Temp

Janvier

 

Décembre

ext

(kWh)

(kWh)

-10

Nb d’h à Ŕ10°C en janvier

   

x Puiss élec absorbée à Ŕ10°C

     

40

   

Nb d’h à 40°C en décembre x Puiss élec absorbée à 40°C

- La somme de toutes les valeurs du dernier tableau (en bas à droite) correspond à la consommation annuelle (kWh) des pompes réseau 1 et 2 :

Temp

Janvier

 

Décembre

ext

(kWh)

(kWh)

-10

Consommation à Ŕ10°C en janvier

   

     

40

   

Consommation à 40°C en décembre

Somme = Consommation en janvier (kWh)

 

Somme =

Consommation en décembre (kWh)

Somme mensuelle = Consommation annuelle (kWh)

4. Centrales de traitement d’air neuf

- Je souhaite effectuer un calcul de consommation mensuel des centrales de traitement d’air fonctionnant en tout air neuf. Je calcule séparément la consommation du ventilateur, de la batterie électrique de chauffage, de la batterie électrique de refroidissement, de l’humidificateur.

1. consommation du ventilateur

- Le ventilateur fonctionne en continu : 7j/7, 24h/24.

50

- Ingerop me fournit le débit de soufflage des centrales de traitement d’air de chaque

pôle :

 

Pôle A

Pôle B

Débit (m 3 /h)

2 800

1 755

- Après consultation des fournisseurs, j’obtiens la puissance électrique absorbée du moteur du ventilateur.

- La consommation mensuelle du ventilateur vaut :

Consommation mensuelle du ventilateur (kWh) = Puissance électrique absorbée par le ventilateur x Temps de fonctionnement mensuel (h)

- La consommation annuelle du ventilateur vaut :

Consommation annuelle du ventilateur (kWh) = Σ (Consommations mensuelles (kWh)) = Σ (Puissance électrique absorbée par le ventilateur (KW) x Temps de fonctionnement mensuel (h))

2. consommation de la batterie de chauffage

- La batterie électrique de chauffage fonctionne uniquement si la température extérieure est inférieure à 18°C.

A partir du fichier météo, je calcule les degrés heures mensuels inférieurs à 18°C :

Degrés heures (h°C) = Température extérieure inférieure à 18°C (°C) x Nombre d’heures où

cette température est effective (h)

- Après consultation des fournisseurs, j’obtiens la puissance électrique absorbée de

la batterie de pré-chauffage et de la batterie terminale.

La puissance électrique totale absorbée par degré vaut :

Puissance électrique totale absorbée par degré (kW/°C) = Puissance batterie de pré- chauffage (kW) / (Température en sortie de batterie de pré-chauffage Ŕ Température extérieure minimale (-15°C)) + Puissance batterie terminale (kW) / (Température en sortie de batterie terminale Ŕ Température en entrée de batterie terminale)

- La consommation annuelle de la batterie électrique de chauffage vaut :

Consommation annuelle de la batterie électrique de chauffage (kWh) = Σ (Consommations

mensuelles (kWh)) = Σ (Puissance électrique totale absorbée par degré (kW/°C) x Degré heures mensuels (h°C))

3. consommation de la batterie de refroidissement

- La batterie électrique de chauffage fonctionne uniquement si la température extérieure est supérieure à 21°C.

A partir du fichier météo, je calcule les degrés heures mensuels supérieurs à 21°C :

Degrés heures (h°C) = Température extérieure supérieure à 21°C (°C) x Nombre d’heures où cette température est effective (h)

- Après consultation des fournisseurs, j’obtiens la puissance électrique absorbée de

la batterie de refroidissement.

La puissance électrique totale absorbée vaut :

Puissance électrique totale absorbée par degré (kW/°C) = Puissance batterie de

refroidissement (kW) / (Température extérieure maximale (41°C) Ŕ Température en sortie de

la batterie de refroidissement)

51

- La consommation annuelle de la batterie électrique de refroidissement vaut :

Consommation annuelle de la batterie électrique de refroidissement (kWh) = Σ (Consommations mensuelles (kWh)) = Σ (Puissance électrique totale absorbée par degré (kW/°C) x Degré heures mensuels (h°C))

4. consommation de l’humidificateur

- L’humidificateur est le dernier élément d’une centrale de traitement d’air, il se situe après la batterie terminale et avant le plénum de soufflage. L’hiver, les conditions de soufflage sont les suivantes :

Conditions de soufflage = Conditions en sortie d’humidificateur

Température T (°C) Humidité relative φ (%) Humidité spécifique r s (kg/kg as)

18

50

r s s = 0,0064

- Les batteries de pré-chauffage et terminale permettent d’augmenter la température

de l’air sans modification de son humidité spécifique : la chaleur apportée à l’air est uniquement sensible. L’air réchauffé devient sec du point de vue de son humidité relative. Dans notre cas, la centrale de traitement d’air fonctionne en tout air neuf : l’humidification s’effectue sur un air chauffé à 18°C dont l’humidité spécifique est égale à celle de l’air extérieur.

Le dimensionnement de l’humidificateur s’effectue aux conditions extrêmes, donc à des conditions où l’humidité spécifique est minimale : pour le data center, il est considéré que l’humidité spécifique minimale est atteinte à Ŕ15°C :

T (°C)

-15

φ (%)

95

r s (kg/kg as)

0,0010

- Après consultation des fournisseurs, j’obtiens les données suivantes :

 

Entrée de l’humidificateur

Sortie de l’humidificateur

Température (°C)

T e fourn

T s fourn

φ fournisseur (%)

φ e fourn

φ s fourn

r s fournisseur (kg/kg as)

r s e fourn

r s s fourn

Δ r s fournisseur (kg/kg as)

Δ r s fourn = r s s fourn - r s e fourn

- Je calcule ensuite le besoin d’humidification à différentes températures extérieures qui constituent des paliers

T (°C)

-15

0

4

8

12

16

18

φ (%)

95

90

90

80

70

60

58

r s (kg/kg as)

r s e = 0,0010

0,0034

0,0045

0,0053

0,0061

0,0064

0,0075

 

Δ r s =

Δ r s

Δ r s

Δ r s

Δ r s

Δ r s

Δ r s

Δ r s (kg/kg as)

r s s - r s e

0,0064-

           

-

0,0010

0,0030

0,0019

0,0011

0,0003

0

0,0011

 

= 0,0054

Humidification

oui

oui

oui

oui

oui

non

non

52

Un calcul par degré n’est pas justifié pour l’humidificateur car il est un poste peu énergivore ne nécessitant pas une grande précision dans les calculs (contrairement aux groupes froids).

- Le coefficient d’utilisation par palier vaut :

Utilisation (%) = Δ r s / Δ r s fourn

T

(°C)

-15

0

4

8

12

16

18

Coefficient

U = Δ r s / Δ r s fourn = 100%

           

d’utilisation (%)

U

U

U

U

0

0

- Les fournisseurs me communiquent le débit de vapeur en kg/h.

lesite.be/energieplus/page_11170.htm afin de calculer la puissance électrique absorbée à plaine utilisation :

Je

pars

sur

le

ratio

de

consommation

du

site

internet

Puissance électrique absorbée maximale (kW) = 0,750 (kW/(kg/h)) x Débit de vapeur (kg/h)

D’où la puissance utilisée par palier :

Puissance électrique absorbée (kW) = Utilisation (%) Puissance électrique absorbée (kW) =

Puissance électrique absorbée maximale (kW) x

15 x Utilisation (%)

T

(°C)

 

-15

0

4

8

12

 

16

18

Coefficient

               

d’utilisation (%)

U = 100%

U

U

U

U

 

0

0

Puiss élec

       

absorbée (kW)

 

P abs maxi x U

 

0

0

-

A partir du fichier météo, j’extrais les valeurs suivantes par palier :

 
 

Janvier

 

Février

Novembre

Décembre

Année

Nombre d'heures < 0°C

(h)

       

somme (h)

0°C ≤ Nb d'h < 4°C

   

     

somme (h)

4°C ≤ Nb d'h < 8°C

   

   

somme (h)

8°C ≤ Nb d'h < 12°C

       

 

somme (h)

12°C ≤ Nb d'h < 16°C

       

(h)

somme