Vous êtes sur la page 1sur 72

Club des Responsables dInfrastructure et de Production

ossier Technique

Access, Terminals, Transmission and Multiplexing (ATTM) Broadband Deployment Efficacit nergtique et indicateurs de performances Partie 2: Datacenters

Spcification technique ETSI traduite par le CRIP

Traduit de langlais par nicolas couraud

Mars 2010

AvantPropos
Le DataCenter est une proccupation majeure pour lensemble des entreprises travers le monde. Les cots financiers engags, les exigences des niveaux de service demands par les lignes Mtiers de lentreprise, les ruptures technologiques, les stratgies de croissance des socits, introduisent une complexit importante dans les choix relatifs au centre de donnes. Au del de ces contraintes, effectives depuis plusieurs annes, les problmatiques lies lefcacit nergtique dans un monde ou tout doit devenir Green , complexifient dautant plus les choix. Comment sy retrouver ? Comment valider les meilleures stratgies pour le prsent et pour lavenir ? Vaste sujet ! Cet ouvrage est une traduction littrale dun document de spcications techniques produit par leTsI. Il permet de rpertorier, structurer et normaliser les diffrentes approches permettant doptimiser lefficacit nergtique de tous les lments constituant un Datacenter. Il prend en compte, lhistorique et les contraintes des entreprises, ainsi que les prconisations environnementales europennes. Dans la ligne des documents produits par lobservatoire des Directeurs dInfrastructure et de Production du CrIP, ce dossier technique sinscrit comme une suite logique (pour les aspects nergtiques), dun ouvrage publi en Juin 2009 par le groupe de travail Datacenter: Analyse et tendance, vers le Datacenter idal . Il est intressant de noter que ce document ralis par leTsI fait de nombreuses rfrences des travaux et des analyses raliss par le CrIP. Force est de constater que les ouvrages raliss par le CrIP (enqutes et Analyses, Livres Blanc, Dossiers techniques, Fiches pratiques,) sont le reflet pragmatiques des meilleures pratiques utilises au sein des productions informatiques des socits franaises (souvent avec un primtre international). Ces documents regroupent tant les aspects techniques, quorganisationnels ou humains. Cette collection grandissante des ouvrages du CrIP devient aujourdhui un ensemble de documents de rfrence sur le plan national, voire europen et mondial. Bonne lecture tous !

nicolas couraud Responsable de la coordination des travaux du CRIP

edito rial
LeTsI (european Telecommunication standard Institue) est une organisation dont le rle est de produire des normes dans le domaine des Technologies de lInformation et des Tlcommunications (ICT). Cette organisation europenne de normalisation est directement lie lorganisation internationale : Union Internationale des Tlcommunications (UIT). Le rayonnement de cet acteur de la normalisation est mondial, le systme de tlcommunication mobile GsM en est un exemple. Base en France, leTsI est officiellement responsable de la normalisation des Technologies de linformation et de la communication (TIC) pour leurope en coopration avec le Comit europen de Normalisation (CeN) et le Comit europen de Normalisation en lectronique et en lectrotechnique (CeNeLeC) qui sont les instances europennes correspondant aux organisations internationales de normalisation : International organization for standardization (Iso) et Commission lectrotechnique Internationale (CeI). LeTsI runit 55 pays dans et hors deurope et se compose de membres incluant des Constructeurs, des oprateurs, des Administrations, des Fournisseurs de services, des Centres de recherche et des Utilisateurs. en 2008 et suite la publication des Codes de Conduite europens, dont celui traitant des centres de donnes, leTsI au travers du Comit de normalisation ATTM (Access, Transmission Terminal & Multiplexing) a charg un groupe de spcialistes mondiaux ICT (specialist Task Force) de rdiger une srie de spcifications Techniques (Ts) sur lefficacit nergtique (ee) dans les rseaux large bande, incluant une spcification destine aux centres de calculs (Datacenter). Il est noter que les aspects de dveloppement durable, les problmes, les contraintes et axes damlioration de lefficacit nergtique dans un centre de calcul ne sont pas propres aux oprateurs Tlcom, mais touchent tous les secteurs et toutes les entreprises qui sont confrontes, dans le quotidien de leur production informatique, linflation des besoins en nergie, et des consquences sur les cots dexploitation. Cette spcification Technique sert de base de travail pour le dveloppement de normes europennes ou mondiales concernant les aspects lis aux amliorations du rendement des chanes de distribution lectriques, des technologies de refroidissement, des plages de tempratures et dhygromtries en salles informatiques, et des quipements eux-mmes. Ces aspects ont t pris en compte pour la ngociation, auprs des Instances europennes, dun Mandat sur lefficacit nergtique dans le domaine ICT qui sera port par lacteur mondial GesI-ee IoCG (Global e-sustainability Initiative energy efficiency Inter oprator Collaboration Group). GesI-ee IoCG sera partie prenante dans la gestion de ce mandat et lien prioritaire avec les organismes de normalisation. Le CrIP, en tant quAssociation regroupant les entreprises, services Publics, Industries, Banques, Assurances, a dcid de porter et de soutenir cette spcification. elle prsente des axes damlioration de lefficacit nergtique des centres de calculs, allant au-del de loptimisation de lenvironnement technique dun centre (climatisation, nergie,), et prenant en compte les aspects lis linfrastructure technique du site jusqu lexploitation des applications pouvant avoir une influence non ngligeable sur la consommation lectrique dun centre.

eric Stern Vice-prsident du CRIP expert auprs de leTsI et responsable du dveloppement de la spcification Technique

Dominique Roche ETSI ATTM Chairman GeSI-EE IOCG Co-chairman Membre du CriP

ETSI TS 105 174-2-2 V1.1.1 (2009-10)


Sp S cification Te T chnique

Access, Terminals, Transmission and Multiplexing (ATTM); Broadband Deployment - Energy Efficiency and Key Performance Indicators; Part 2: Network sites; Sub-part 2: Data centres
Access, Terminals, Transmission and Multiplexing (ATTM) Broadband Deployment Efficacit nergtique et indicateurs de performances Partie 2: Datacenters

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Reference
DTS/ATTM-02005-1-3

Keywords
access, cable, optical, site engineering

ETSI
650 Route des Lucioles F-06921 Sophia Antipolis Cedex - FRANCE Tel.: +33 4 92 94 42 00 Fax: +33 4 93 65 47 16 Siret N 348 623 562 00017 - NAF 742 C Association but non lucratif enregistre la Sous-Prfecture de Grasse (06) N 7803/88

Important notice
Individual copies of the present document can be downloaded from: http://www.etsi.org The present document may be made available in more than one electronic version or in print. In any case of existing or perceived difference in contents between such versions, the reference version is the Portable Document Format (PDF). In case of dispute, the reference shall be the printing on ETSI printers of the PDF version kept on a specific network drive within ETSI Secretariat. Users of the present document should be aware that the document may be subject to revision or change of status. Information on the current status of this and other ETSI documents is available at http://portal.etsi.org/tb/status/status.asp If you find errors in the present document, please send your comment to one of the following services: http://portal.etsi.org/chaircor/ETSI_support.asp

Copyright Notification
No part may be reproduced except as authorized by written permission. The copyright and the foregoing restriction extend to reproduction in all media. European Telecommunications Standards Institute 2009. All rights reserved. DECT, PLUGTESTS, UMTS, TIPHON, the TIPHON logo and the ETSI logo are Trade Marks of ETSI registered for the benefit of its Members. 3GPP is a Trade Mark of ETSI registered for the benefit of its Members and of the 3GPP Organizational Partners. LTE is a Trade Mark of ETSI currently being registered for the benefit of its Members and of the 3GPP Organizational Partners. GSM and the GSM logo are Trade Marks registered and owned by the GSM Association.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

SOMMAIRE
Les droits de proprit intellectuelle Avant-propos Introduction 1 2
2.1 2.2

6 6 6 7 8
8 9

Porte du document Rfrences


Rfrences normatives Rfrences informatives

3
3.1 3.2

Dfinitions et abrviations
Dfinitions Abrviations

9
9 12

4
4.1 4.2

Vue densemble des centres de donnes


Diffrents types de centre de donnes Hirarchisation des Centres de Donnes 4.2.1 Tiers et criticit 4.2.2 ANSI/TIA-942 4.2.3 Uptime Institute 4.2.4 Niveaux de criticit 4.2.5 Tiers et cots Problmes rencontrs par les centres de donnes 4.3.1 Gnral 4.3.2 Les enjeux actuels
4.3.2.1 4.3.2.2 4.3.2.3 Prsentation Questions principales Centres de donnes Oprateur Les exigences lectriques et de refroidissement pour les quipements IT Les nouveaux projets Les programmes de consolidation des centres de donnes Impacts sur lenvironnement

13
13 13 13 13 13 15 15 16 16 16
16 17 18

4.3

4.3.3

Evolution et futures tendances


4.3.3.1 4.3.3.2 4.3.3.3 4.3.3.4

18
18 19 19 19

4.4

Le nouveau contexte 4.4.1 Consommation dnergie et efficacit nergtique 4.4.2 Facteurs impactant lefficacit nergtique 4.4.3 Initiatives en cours

20 20 20 21

5
5.1

Normes et mtriques defficacit nergtique


Examen des activits en dehors de lETSI 5.1.1 Code de conduite europen sur lefficacit nergtique des centres de donnes La consommation dnergie dans les centres de donnes Efficacit nergtique indicateurs de performance - (KPIs) 5.3.1 Power Usage Effectiveness (PUE) ou Data Centre Infrastructure Efficiency (DCIE)
5.3.1.1 5.3.1.2 5.3.1.3 Gnral PUE pour les nouveaux centres de donnes PUE dans les centres de donnes existants

22
22 22 22 23 23
23 24 25

5.2 5.3

5.3.2

Autres KPIs
5.3.2.1 5.3.2.2 5.3.2.3 KPI defficacit nergtique KPI lis la consolidation Data collection

26
26 26 27

6
6.1 6.2 6.3

Accrotre lefficacit nergtique des infrastructures IT


Gnral Modle darchitecture logicielle 3 tier. Solutions defficacit nergtique 6.3.1 Equipement obsolte 6.3.2 Equipement de remplacement 6.3.3 Puissance et gestion de la capacit

27
27 27 28 28 28 28

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

6.3.3.1 6.3.3.2
6.3.3.2.1 6.3.3.2.2 6.3.3.2.3

Gnral Gestion de lalimentation


Lactivation de fonctions basiques de gestion de la puissance de base Lactivation de mode veille Rduction de la consommation nergtique des quipements de contrle de lenvironnement

28 28
28 29 30

6.3.3.3
6.3.3.3.1 6.3.3.3.2 6.3.3.3.3 6.3.3.3.4 6.3.3.3.5

Gestion de la capacit Capacity management


Gnral La gestion de capacit de lenvironnement technique Stockage Serveurs Evolutivit la demande pour le commerce en ligne

30
30 31 31 31 31

6.3.4

Initiatives de consolidation
Consolidation des serveurs Consolidation physique
Le processus Les effets 6.3.4.2.1 6.3.4.2.2

32
32 32
32 32

6.3.4.1 6.3.4.2 6.3.4.3


6.3.4.3.1 6.3.4.3.2 6.3.4.3.3 6.3.4.3.4

Virtualisation
Le processus Les effets Rduction de la consommation nergtique de linfrastructure IT Rduction de la consommation nergtique des quipements de contrle de lenvironnement

32
32 32 33 32

6.3.4.4
6.3.4.4.1 6.3.4.4.2

Consolidation logique
Le processus Les effets

34
34 34

6.3.4.5
6.3.4.5.1 6.3.4.5.2 6.3.4.5.3

Consolidation des applications


Gnral Le processus Les effets

34
34 35 35

7
7.1 7.2

Rduire la demande nergtique des systmes de contrle de lenvironnement


Gnral Solution de rduction dnergie 7.2.1 Mesure du comportement thermique 7.2.2 Amlioration de lefficacit de refroidissement
7.2.2.1
7.2.2.1.1 7.2.2.1.2 7.2.2.1.3 7.2.2.1.4 7.2.2.1.5

35
35 36 36 36
36
36 36 36 37 37

Approche par zones disolement thermique


Gnral Sparation des alles chaudes et alles froides Couverture des alles froides La sparation utilisant des rideaux Zones haute densit

7.2.2.2

Rduction des pertes thermiques dans des armoires / racks Gnral Les rsultats de lexprimentation Priode avant que le systme ne sarrte lectriquement Restrictions sur la mise en uvre Refroidissement libre Free cooling Refroidissement direct par liquide Technologies mergentes (chssis auto refroidi ou le refroidissement au niveau de la puce - chip )
Refroidissement sur la puce Cooling-on-the-chip Chssis auto refroidi - Auto-cooled chassis

38

7.2.3

Modification de la temprature et de lhumidit

39
39 39 40 41

7.2.3.1 7.2.3.2 7.2.3.3 7.2.3.4

7.2.4

Autres mcanismes de refroidissement

41
41 43 43
43 43

7.2.4.1 7.2.4.2 7.2.4.3


7.2.4.3.1 7.2.4.3.2

7.2.5

Amliorations des systmes de refroidissement

44

8 9
9.1 9.2

Exigences des infrastructures pour optimiser lefficacit nergtique Amlioration de lefficacit nergtique des systmes de distribution dnergie
Gnral Onduleurs ASI (UPS) 9.2.1 Efficacit 9.2.2 Onduleurs modulaires Solutions damlioration de lefficacit nergtique 9.3.1 Mesure de lefficacit nergtique des quipements existants 9.3.2 La capacit de gestion de lnergie 9.3.3 Examen de la politique
9.3.3.1 9.3.3.2 Gnral HVDC versus AC

44 44
44 45 45 46 47 47 47 47
47 47

9.3

9.3.4 9.3.5

Les quipements de distribution hautement efficaces Alimentation de secours

48 48

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

10 11
11.1 11.2

Lefficacit nergtique dans les centres de donnes existants Lefficacit nergtique dans les nouveaux centres de donnes
Gnral Approche multidisciplinaire 11.2.1 Localisation 11.2.2 Sources dnergie
11.2.2.1 11.2.2.2 Energie principale Energie secondaire

48 49
49 49 49 50
50 50

11.2.3 11.2.4 11.2.5 11.2.6 11.2.7 11.2.8

Conception du btiment Conception interne Energie et refroidissement Linfrastructure IT Logiciels Processus

50 50 51 51 52 52

12
12.1 12.2

Conformit
Les centres de donnes existants Nouveaux centres de donnes

53
53 53

13
13.1

Recommandations
Les centres de donnes existants 13.1.1 Gnral 13.1.2 Rduction du PUE 13.1.3 Rduction de la consommation dnergie 13.1.4 Lutilisation optimale des ressources existantes 13.1.5 Zones haute densit Nouveaux centres de donnes 13.2.1 Gnral 13.2.2 tude dimplantation 13.2.3 Btiment
13.2.3.1 13.2.3.2 Extrieur Intrieur Systme Contrle de la temprature Architecture et politique Lautomatisation et la capacit de gestion

54
54 54 54 54 54 54 54 54 55 55
55 55

13.2

13.2.4 13.2.5 13.2.6

Refroidissement Infrastructure IT Organisation - processus

56
56 56

13.2.4.1 13.2.4.2 13.2.5.1 13.2.5.2

56
56 56

58

14
14.1 14.2 14.3 14.4 14.5 14.6

Perspectives futures
Gnral Energie Refroidissement Energie du matriel informatique Logiciels, outils et re-engineering Les initiatives de consolidation

58
58 58 58 58 58 59

Annexe A (informative): Effets des actions defficacit nergtique Historique

60 61

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Les droits de proprit intellectuelle


Les droits de proprit intellectuelle (IPR) essentiels ou potentiellement essentiels au prsent document peuvent tre dclars lETSI. Linformation concernant ces IPR, est disponible le cas chant aux membres et aux non membres dETSI, et peut tre trouve dans ETSI SR 000 314: Les droits de proprit intellectuelle (IPR); Essentiel, ou potentiellement essentiel, les IPR notifis ETSI dans le respect des normes ETSI, qui est disponible auprs du secrtariat de lETSI. Les dernires mises jour sont disponibles sur le site Web de lETSI (http://webapp.etsi.org/IPR/home.asp). Conformment la politique des IPR de lETSI, aucune recherche, y compris des recherches dIRP, na t effectue par lETSI. Aucune garantie ne peut tre donne quant lexistence des autres IPR qui ne soient rfrencs dans ETSI SR 000 314 (ou mises jour sur le site Web de lETSI) qui sont, peuvent tre ou peuvent devenir essentiels au prsent document.

Avant-propos
Cette spcification technique a t produite par : ETSI Technical Committee Access, Terminals, Transmission and Multiplexing (ATTM). Le prsent document est la partie 2-2 dun document en multi parties. Les dtails complets de toute la srie se trouve dans la partie 1 [13].

Introduction
Linteraction croissante entre les diffrents lments de la technologie de communication de linformation Information Communication Technology ICT - (matriel, middleware, logiciel et services) entrane le concept de la convergence dans lequel : Des packages multiservices peuvent tre fournis sur une infrastructure commune ; Une varit dinfrastructures est en mesure de fournir ces packages ; Un unique package multiservices peut tre fourni sur diffrentes infrastructures.

En raison de cette convergence, le dveloppement de nouveaux services, dapplications et de contenu a eu comme consquence une demande croissante de bande passante, de fiabilit, de qualit et de performance, avec un accroissement consquent du besoin en puissance lectrique, ce qui a des rpercussions sur les cots et, dans certains cas, sur la disponibilit. Il est donc important de maximiser lefficacit nergtique de tous les lments du rseau ncessaires pour fournir les services demands. De nouvelles technologies et stratgies dinfrastructure sont attendues pour permettre aux oprateurs, pour un niveau de service donn, de rduire la consommation dnergie de leurs infrastructures existantes et futures et ainsi diminuer leurs cots. Cela ncessite une comprhension commune, que seules les normes peuvent apporter, entre les acteurs du march. Le prsent document est la partie 2-2 dun document en plusieurs parties qui a t produit par le Comit Technique de lETSI - Technical Committee Access, Terminals and Transmission, Multiplexing (ATTM) - en troite collaboration avec CENELEC par lintermdiaire du Coordination Group on Installations and Cabling (CGIC). Il offre une contribution au processus de normalisation en tablissant une premire base de travail sur les rseaux ICT et la technologie de transmission, avec la collaboration active dautres organisations techniques de lETSI et du CENELEC. Une fois termin, le document complet contiendra des informations avec une volution commune, pour prsenter les dveloppements dans les installations et limplmentation des transmissions, et de dcrire et suivre leurs progrs en terme defficacit nergtique dans les rseaux de nouvelles gnrations (Next Generation Networks NGN). Afin de mesurer lefficacit nergtique lors de limplmentation et le dploiement de rseaux hauts dbits, le prsent document aborde galement les aspects de Key Performance Indicators (KPI) relatifs lefficacit nergtique et se concentre sur les consquences ventuelles de la normalisation des installations, des techniques de cblage et des quipements. En particulier, cette tude permettra dexaminer les diffrentes possibilits et de suggrer des solutions pour le dveloppement de procds pour loptimisation des techniques dinstallation et la consommation dnergie.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Porte du document

Le prsent document dtaille les mesures qui peuvent tre prises pour amliorer lefficacit nergtique au sein des sites des oprateurs et des centres de donnes. Les articles 2 et 3 contiennent des rfrences, des dfinitions et des abrviations relatives cette partie ; des informations similaires seront incluses dans les clauses correspondantes des autres parties, assurant ainsi que chaque document puisse tre utilis de faon autonome. Dans le prsent document: Le chapitre 4 prsente le concept du centre de donnes (DataCenter), y compris de ceux spcifiquement lis aux oprateurs rseaux; Le chapitre 5 traite des Key Performance Indicators (KPI) , prsent dans TS 105 174-1 [13] pour permettre un suivi constant de lefficacit nergtique; Le chapitre 6 dtaille les approches qui peuvent tre mises en uvre pour amliorer lefficacit nergtique au sein des infrastructures techniques (IT); Le chapitre 7 dtaille les approches qui peuvent tre utilises pour amliorer lefficacit nergtique dans lenvironnement technique du datacenter; Le chapitre 8 dtaille les approches qui peuvent tre utilises pour amliorer lefficacit nergtique par lintermdiaire de linfrastructure physique des btiments; Le chapitre 9 dtaille les approches qui peuvent tre utilises pour amliorer lefficacit nergtique dans le systme de distribution dnergie; Le chapitre 10 fournit un rsum des approches defficacit nergtique dans les centres de donnes existants; Le chapitre 11 fournit un rsum des approches defficacit nergtique dans les nouveaux centres de donnes et aborde des questions plus larges concernant leur emplacement; Le chapitre 12 contient les mcanismes de conformit du prsent document; Le chapitre 13 contient les recommandations du prsent document; Le chapitre 14 introduit des opportunits futures damlioration de lefficacit nergtique; Lannexe A fourni des indications de premier ordre sur leffet de lapplication des approches dcrites dans les chapitres 6, 7 et 9. Ceci permettra limplmentation approprie des services, des applications et du contenu sur une infrastructure nergtiquement efficace, bien que le but de ce livrable ne soit pas de fournir des solutions normalises dtailles pour larchitecture des rseaux. Le prsent document se concentre sur lefficacit nergtique. Lempreinte CO2 nest pas prise en compte dans le prsent document. Deux aspects distincts de lefficacit nergtique sont considrs tels que le montre la figure 1: des actions pour amliorer lefficacit nergtique des centres de donnes existants court ou moyen terme; des actions pour amliorer lefficacit nergtique des nouveaux centres de donnes moyen ou long terme. Les domaines tudis sont: Dans linfrastructure technique (IT): tous les composants dinfrastructure technique dans le centre de donnes, incluant les serveurs, les baies de stockage, les librairies de sauvegarde et les quipements rseau (routeurs, commutateurs, etc.); Dans la stratgie oprationnelle de lIT: toutes les initiatives de consolidations, telle que la virtualisation, les consolidations physiques ou logiques, lutilisation de logiciels ou de processus spcifiques; Dans lenvironnement technique: tous les aspects concernant lutilisation de lnergie, la climatisation et plus gnralement toutes les disciplines impliques dans lenvironnement technique du centre de donnes.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Figure 1: Les aspects considrs dans cette tude

Rfrences
Pour une rfrence spcifique, les rvisions suivantes ne sappliquent pas. La rfrence non spcifique peut tre seulement relative un document complet ou une partie et uniquement dans les cas suivant: si on laccepte quil soit possible dutiliser toutes les modifications futures du document de rfrence aux fins du document de rfrence; pour des rfrences indicatives.

Les rfrences sont soit spcifiques (identifies par date de publication et / ou numro de ldition ou numro de version) soit non spcifiques.

Les documents de rfrence qui ne sont pas disponibles au public lemplacement prvu peuvent tre tlchargs ladresse suivante : http://docbox.etsi.org/Reference. NOTE: Bien que tous les liens hypertextes inclus dans cette clause soient valables au moment de la publication, lETSI ne peut garantir leur validit long terme.

2.1 Rfrences normatives


Les documents de rfrence suivants sont indispensables pour lapplication du prsent document. Pour les rfrences dates, seule ldition cite sapplique. Pour les rfrences non spcifiques, la dernire dition du document rfrenc (y compris les ventuels amendements) sapplique. [1] ANSI/TIA-942: Telecommunications Infrastructure Standard for Data Centres. [2] Uptime Institute: Tier Classifications Define Site Infrastructure Performance. [3] Johannesburg: Datacenter Dynamics Research Key Findings Aot 2008. [4] European Commission: DG-JRC Code of Conduct on Data Centres Energy Efficiency. [5] Best Practices for the EU Code of Conduct on Data Centres.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

[6] CENELEC EN 50173-2: Information technology - Generic cabling systems - Part 2: Office premises. [7] CENELEC EN 50173-5: Information technology - Generic cabling systems - Part 5: Data centres. [8] CENELEC EN 50174-1: Information technology - Cabling installation - Part 1: Installation specification and quality assurance. [9] CENELEC EN 50174-2: Information technology - Cabling installation - Part 2: Installation planning and practices inside buildings. [10] High performance buildings: UPS report (Ecos Consulting-Epri Solutions). [11] ETSI EN 300 019-1-3: Environmental Engineering (EE); Environmental conditions and environmental tests for telecommunications equipment; Part 1-3: Classification of environmental conditions; Stationary use at weatherprotected locations. [12] ETSI EN 300 132-3: Environmental Engineering (EE); Power supply interface at the input to telecommunications equipment; Part 3: Operated by rectified current source, alternating current source or direct current source up to 400 V. [13] ETSI TS 105 174-1: Access, Terminals, Transmission and Multiplexing (ATTM); Broadband Deployment Energy Efficiency and Key Performance Indicators; Part 1: Overview, common and generic aspects.

2.2 Rfrences informatives


Les documents de rfrence suivants ne sont pas essentiels lutilisation du prsent document mais ils aident lutilisateur sur un sujet particulier. Pour les rfrences non spcifiques, la dernire version du document rfrenc (y compris les ventuels amendements) sapplique. [i.1] ETSI TR 102 489: Environmental Engineering (EE); European telecommunications standard for equipment practice; Thermal Management Guidance for equipment and its deployment.

Dfinitions et abrviations

3.1 Dfinitions
Pour le prsent document, les termes et les dfinitions suivants sappliquent: Application: Programme ou ensemble de plusieurs programmes excutant une fonction ou un service. Disponibilit: Temps ou la priode durant laquelle lapplication ou le service doit tre oprationnel. NOTE: La disponibilit est un des critres de la criticit. Serveur blade : server chssis abritant de multiples cartes lectroniques modulaires et minces, connu sous le nom de serveur lame. NOTE: Chaque lame est un serveur part entire, souvent ddi une seule application. Les lames sont littralement des serveurs sur une carte, comprenant des processeurs, de la mmoire, des contrleurs de rseau intgr, un adaptateur optionnel Fiber Channel (HBA) et dautres ports dentres / sorties (IO). Salle informatique: salle ferme, scurise et environnement contrl dans laquelle les quipements informatiques sont en fonctionnement. Criticit: niveau donn une application ou un service, li limpact pour lentreprise en cas de sinistre. NOTE: Plus limpact est fort, plus lapplication ou le service est critique. Centre de donnes: infrastructure centralise pour le stockage, la gestion, et la diffusion des donnes et de linformation.
ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

10

Data Centre Infrastructure Efficiency (DCIE): Indicateur inverse du PUE. On le calcule en divisant le total de lnergie utilise pour alimenter linfrastructure informatique avec le total de lnergie utilise pour alimenter lensemble du centre de donnes. Le DCIE est exprim en pourcentage. NOTE: Le DCIE samliore lorsquil sapproche de 100%. Disaster Recovery Plan (DRP): Tous les processus (technique, organisation, humain) excuter en cas dinterruption de service. Disk array: armoire contenant des disques physiques. Efficacit nergtique: recherche dans les DC existants ou dans les nouveaux DC, de toutes les pistes et toutes les actions permettant de rduire les besoins nergtiques et les cots associs. NOTE: Les principaux facteurs sont dordre conomique pour diminuer la facture nergtique en augmentant lefficacit de tous les quipements et minimiser les pertes de puissance. Centre de donnes vert (Green Data Center) : au del de lefficacit nergtique, lapproche Verte sera axe plutt sur lempreinte carbone. NOTE 1: Lefficacit nergtique est une manire de diminuer lmission de CO2, mais ce nest pas la seule. NOTE 2: Plus objectif de dveloppement durable quconomique, lindicateur principal est lempreinte carbone. Aujourdhui le concept nest pas encore clairement dfini, particulirement si nous savons que les centres de donnes ne sont pas producteurs directs mais indirects de CO2, en raison de leurs besoins nergtiques. Si la source de lnergie vient des nergies renouvelables (hydraulique, solaire, etc.) ou du nuclaire (pas si vert pour la Terre, mais ne produisant pas de CO2) lempreinte carbone du centre de donnes est faible. Mais si lnergie vient du charbon ou de carburant, lmission de CO2 est leve. Equipement technologique informatique: ce sont des quipements tels que les ordinateurs, les serveurs, les mainframes, les calculateurs et tous les priphriques de stockage comme les baies, les librairies de bandes ainsi que les routeurs et les commutateurs dans un rseau local. Equipement nergique informatique: puissance totale ncessaire pour oprer des serveurs, des racks, des baies de disques, des librairies de bandes, des quipements rseau (routeurs, commutateurs), des quipements utiliss pour le monitoring du centre de donnes (PC, ordinateurs portables, terminaux et stations de travail) et des quipements spcifiques du rseau (tels que DSLAM et BTS). Ratio de consolidation logique: nombre dinstances applicatives par image de systme dexploitation. Serveur logique: instance dun systme dexploitation. Mainframe: ordinateur de haute performance utilis pour linformatique de calcul grande chelle qui exige une plus grande disponibilit et scurit quune machine de petite taille peut offrir. Equipement de rseaux de tlcommunications: quipement fournissant la connexion directe pour accder des rseaux, y compris les commutateurs, DSLAM, BTS Site oprateur: locaux pouvant accueillir des quipements rseaux de tlcommunications et fournissant le raccordement direct la base et aux rseaux daccs et qui peuvent galement accueillir des quipements informatiques. Serveur physique: boite contenant une alimentation, une carte mre, une unit centrale de traitement (processeur), de la mmoire et des slots. Power Usage Effectiveness (PUE): mesure utilise pour calculer lefficacit nergtique dun centre de donnes qui est dtermine par la puissance totale consomme dune installation (centre de donnes) divise par la puissance totale consomme par les quipements informatiques. Le PUE est exprim comme un ratio. Il doit sapprocher de 1 pour une bonne efficacit. Recovery Point Objective (RPO): perte de donnes maximale autorise. Recovery Time Objective (RTO): temps dindisponibilit maximal autoris durant lequel lapplication ou le service peut tre arrt.
ETSI

11

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Serveur: ressource physique ou logique qui fournit des services dautres programmes dordinateurs (et aux utilisateurs). Calcul de la charge totale: la puissance de calcul du centre de donnes, peut tre value en tenant compte des spcifications de puissance de calcul du fournisseur pour chaque modle de serveur, multipli par le nombre de serveurs (le nombre de transactions par minute est une mesure de la puissance de calcul totale). Puissance totale de service (total facility power): la puissance totale utilise par tous les composants de distribution de puissance (comme les alimentations avec onduleurs, les commutateurs lectriques, les units de distribution dnergie, les batteries et les transformateurs), le refroidissement des composants systmes (tels que les refroidisseurs, la climatisation des salles informatiques, les pompes, les ventilateurs, les moteurs) et llectricit non destine aux matriels techniques (tel que lclairage du btiment). TPC Benchmark C (TPC-C): On-Line Transaction Processing (OLTP) benchmark mesur en transactions par minute (TPMc) NOTE 1: TPC-C est plus complexe que les benchmarks prcdents dOLTP tels que TPC-A en raison de ses types de transaction multiple, de bases de donnes plus complexes et de la structure globale dexcution. TPC-C implique un mlange de cinq transactions concourantes de diffrents types et complexit, excutes en ligne ou diffres. La base de donnes comporte neuf types de tables avec un large ventail de champs et denregistrements. NOTE 2: TPC-C simule un environnement informatique complet o une population dutilisateurs excute des transactions sur une base de donnes. Le benchmark est centr autour des activits principales (transactions) dun environnement de saisie de commandes. Ces transactions comprennent lentre et la gestion des commandes, lenregistrement des paiements, vrifient ltat des commandes et contrlent le niveau des stocks dans les entrepts. Tandis que le benchmark reprsente lactivit dun grossiste, le TPC-C nest pas limit lactivit dun secteur dactivit particulier, mais reprsente plutt toute industrie qui gre, vend ou distribue un produit ou un service. Utility computing: Modle de service dapprovisionnement (provisioning) dans lequel un automate met la disposition du client des ressources informatiques et une infrastructure de gestion selon ses besoins. NOTE: Comme dautres types dinformatique on-demand (tel que le Grid Computing), le modle dutilit cherche maximiser lutilisation efficace des ressources et / ou minimiser les cots associs. Cette approche devient de plus en plus courante dans linformatique dentreprise et est aussi parfois utilise pour le march des consommateurs, pour les services Internet, les accs web, le partage de fichiers et dautres applications. Machine virtuelle (VM): mulation dun serveur physique dans une infrastructure partage. NOTE: La machine virtuelle inclut le systme dexploitation, des logiciels et des applications spcifiques. Serveur Vrituel: partie ddie dun serveur physique pour faire fonctionner une machine virtuelle. Virtualisation: Technologie base de logiciel qui permet de sparer les applications du matriel physique sur lequel elles fonctionnent, offrant une partie du serveur physique de supporter une application, en lieu et place dun serveur entier. Ratio de virtualisation: nombre de machines virtuelles par serveur physique.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

12

3.2 Abrviations
Pour le prsent document, les abrviations suivantes sappliquent: AC ADSL AS ATTM B2B B2C BTS CPU CRAC CRIP DC DCIE DRP DSLAM HBA HQE HVDC ICT IEC IO IS ISP IT ITIL KPI LEED M2M MVS NGDC NGN OLTP OS PDU POD PUE RISC RPO RTO SAN SLA TCO TPC-C TPM TPMc TV UPS VM VMS VOD VOIP WAS Alternative Current - courant alternatif Asymetric Digital Suscriber Line Application Server serveur applicatif Access Transmission Terminal and Multiplexing Business To Business Business To Customer Base Transceiver Station Central Processing Unit Computer Room Air Conditioning Club des Responsables dInfrastructure et de Production Centre de donnes Data Center Infrastructure Efficiency Efficacit des infrastructures du centre de donnes. Disaster Recovery Plan Plan de reprise dactivits (PRA) Digital Subscriber Line Access Multiplexer Host Bus Adaptor Haute Qualit Energtique High Voltage Direct Current Courant continu haute tension Information Communication Technology International Electrotechnical Commission Input / Output Information Systems Internet Service Provider Information Technology IT Information Library Key Performance Indicator Indicateur cl de performance Leadership in Energy and Environmental Design Machine To Machine Proprietary Operating System for IBM Mainframes servers New Generation Data Centre Centre de donnes de nouvelle gnration Next Generation Network On-Line Transaction Processing Operating System Power Distribution Unit Unit de distribution de puissance lectrique Performance Optimized Datacenter Power Usage Effectiveness Reduced Instruction Set Computer Recovery Point Objective Recovery Time Objective Storage Area Network Rseau de stockage Service Level Agreement Total Cost of Ownership Cot total de possession TPC Benchmark C Transaction Par Minute Transaction Par Minute - comptage Television Uninterruptible Power Supply - Onduleurs Virtual Machine Proprietary Operating System for DEC Mainframe Servers Video On Demand Voice Over IP Web Access Server Serveur daccs WEB

ETSI

13

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Vue densemble des centres de donnes


Le centre de donnes rseau a pour principal objectif la fourniture et la gestion des services large bande passante aux clients de loprateur. Pour garantir leurs fonctionnalits, tous les centres de donnes rseau doivent tre connects au moins un rseau principal de loprateur. Pour des raisons de rsilience du rseau, les centres de donnes doivent toujours tre connects plus dun site dun oprateur et plusieurs autres centres de donnes. Les centres de donnes peuvent servir les rseaux principaux exploits par plusieurs oprateurs de rseaux, permettant ainsi le trafic entre les clients et diffrents oprateurs rseau. Le centre de donnes dentreprise a des fonctions similaires et une connectivit similaire un centre de donnes rseau mais sa fonction premire est la fourniture et la gestion de services pour ses employs et ses clients. Un centre de donnes en colocation est un centre de donnes dans lequel plusieurs clients installent leur propre rseau, leurs serveurs et leurs quipements de stockage sur lesquels ils oprent leurs propres services et applications. Ils ont la capacit de sinterconnecter diffrents oprateurs de tlcommunications et fournisseurs de service rseaux. Linfrastructure de limmeuble (comme la distribution de llectricit, la scurit, le contrle de lenvironnement et lentretien mnager) est fournie sous forme de service par loprateur du centre de donnes. Un centre de donnes co-hbergement est un centre de donnes dans lequel sont fournis plusieurs clients un accs rseau, des serveurs et des quipements de stockage sur lesquels ils utilisent leurs propres services et applications. Les clients ont la capacit de sinterconnecter une varit doprateurs de tlcommunication et de prestataires de fourniture de services rseaux. Les quipements dinfrastructure IT ainsi que le support de linfrastructure du btiment sont fournis sous forme de service par loprateur du centre de donnes (hbergeur).

4.1 Diffrents types de centre de donnes

Cette clause permettra didentifier et dexpliquer les lments du rseau sous-systmes utiliss dans le dploiement du haut dbit.

4.2 Hirarchisation des Centres de Donnes


4.2.1 Tiers et criticit
Plusieurs niveaux (ou Tiers) de centres de donnes ont t dfinis, bass sur la criticit des applications ou du business trait. Ces lments dterminent lchelle globale du Recovery Time Objective (RTO). Plus le RTO est faible, plus le centre de donnes doit faire appel lutilisation dquipements redondants la fois dans lenvironnement technique et dans les domaines de linfrastructure informatique. Un certain nombre de schmas dfinissant les niveaux des centres de donnes ont t dvelopps et sont pris en compte dans les paragraphes suivants.

4.2.2 ANSI/TIA-942
ANSI/TIA-942 [1] dfinit les exigences de fiabilit et de disponibilit des centres de donnes, y compris le support redondants des infrastructures associes, base sur quatre niveaux. Les centres de donnes rseau sont censs satisfaire au moins aux exigences de niveau 3 Tier 3.

4.2.3 Uptime Institute


LUptime Institute [2] dfinit un systme alternatif de Tiering bas sur les exigences des mtiers et les temps darrt acceptables. (CF. : tableau 1 ci-dessous). Le Tier dtermine la redondance de la fourniture lectrique et des quipements de refroidissement, tel que dcrit dans le tableau 1 et montr dans la figure 2. Le Tier a des consquences importantes sur les cots de lnergie.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

14

Tableau 1: Niveaux (Tiers) Uptime Institute

Tier

Impact dune dfaillance Impact interne lentreprise Principalement bas sur le cash Disponibilit en ligne limite Faible dpendance de linformatique Indisponibilit perue comme tolrable Drangement Applications mtiers critiques Multiples serveurs Systme vital de tlphonie Dpendance lie aux e-mails Prsence mondiale La majorit des revenus perus est lie lactivit en ligne Tlphonie par VoIP Forte dpendance linformatique Cot lev de lindisponibilit Stratgique ou business critique Majorit des revenus perus via des transactions lectroniques Modle dactivits entirement dpendant de linformatique

Critres Une seule distribution dlectricit et de refroidissement Pas de redondance des quipements

Indisponibilit (maximum) 28,8 heures/an

Une seule distribution dlectricit et de refroidissement Equipements redondants

22,0 heures/an

Multiples points de distribution dlectricit et 1,6 heures/an de refroidissement mais un seul est actif Equipements redondants; concurremment maintenables

Multiple points actifs de distribution dlectricit et de refroidissement; Equipements redondants; tolrants aux fautes

0,4 heures/an

Figure 2: Uptime Institute Tier chemins et redondances

ETSI

15

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

4.2.4 Niveaux de criticit


Ces niveaux comme indiqu au tableau 2 sont proposs par le Groupe Siska Hennessey et offrent 10 niveaux de criticit, et ce partir de 98% de disponibilit estime (175,2 heures de temps darrt / an) pour un niveau C1 jusquau niveau C10 (99,99999999%, correspondant 0,0031 s de temps darrt annuel). Les niveaux suprieurs C4 ne sont pas considrs comme ralisables avec les technologies actuelles disponibles. En comparaison, lUptime Institute Tiers du paragraphe 4.2.3 se situe entre les niveaux de criticit C2 et C4 proposs par le Groupe Siska Hennessey.
Tableau 2: Niveaux de criticit proposs par le groupe Siska Hennessey

Niveaux C1 C2 C3 C4 C5 C6 C7 C8 C9 C10

% disponibilit 98 99 99,9 99,99 99,999 99,9999 99,99999 99,999999 99,9999999 99.99999999 NOTE:

Arrt annuel 175,2 hours 87,6 hours 8,76 hours 53 minutes 5,3 minutes 31 seconds 3,1 seconds 0,31 seconds 0,031 seconds 0,0031 seconds

Uptime Institute Tier Tiers 1-2 Tiers 3-3+ Tier 4

Statuts Ralisable Ralisable Ralisable Ralisable Non ralisable (voir note) Non ralisable (voir note) Non ralisable (voir note) Non ralisable (voir note) Non ralisable (voir note) Non ralisable (voir note)

Considr comme non ralisable avec les technologies actuelles.

4.2.5 Tiers et cots


Les dpenses en investissement (CAPEX) et les dpenses oprationnelles dexploitation (OPEX) des nouveaux centres de donnes augmentent avec le niveau de Tier . La figure 3 montre les Capex et les Opex en fonction du Tier Uptime Institute (sur une base de 100 pour le Tier 1).

Figure 3: Uptime Institute Tiers et cots associes

Les Capex, qui incluent la construction, la conception, les installations (tel que llectricit, le refroidissement et le systme de dtection incendie) montrent une augmentation la plus significative, entre les niveaux 2 et 3. Cela est d la cration dune redondance complte, dune installation maintenir de faon concourante, comprenant lalimentation et linfrastructure de refroidissement. LUptime Institute suppose que la densit de puissance consomme (W/m) augmente avec chaque niveau de catgorie, comme le montre le tableau 3. Par consquent, les cots oprationnels (OPEX) lies la consommation dnergie devraient en consquence augmenter avec quelques ajustements (par exemple, un montant supplmentaire de 10% 20%) lis une partie inefficace de lquipement superflu dalimentation et des quipements de refroidissement.
ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

16

Tableau 3: Uptime Institute Tiers et rapport de densit de puissance lectrique

Tier Tier 11 22 33 44

Ratio dede densit dede puissance Ratio densit puissance 100 100 170 170 200 200 250 250

Les Opex augmentent galement de manire significative entre les niveaux 2 et 3 ds lors que la distribution dnergie et les infrastructures de refroidissement sont utilises moins de 50%, autorisant ainsi une dfaillance dun composant systme sans impacter le service. Il y aura des cots dOpex supplmentaires associs aux inefficacits dans lquipement superflu dalimentations et les installations de refroidissement. Mais le principal cot dOpex dterminant sera li au volume et la densit des infrastructures IT dployes dans le centre de donnes.

4.3 Problmes rencontrs par les centres de donnes


4.3.1 Gnral
Le chapitre 4.3 passe en revue la situation des centres de donnes existants et les questions auxquelles les entreprises actuelles sont confrontes aujourdhui ou auxquelles elles devront faire face dans le futur (y compris les oprateurs de rseaux). Il existe plusieurs types de centre de donnes, depuis les btiments stratgiques principaux hbergeant des applications dentreprise mission critical pour lesquels une scurit maximale et une garantie de continuit de services sont obligatoires, jusquaux sites techniques ou salles informatiques, pour lesquels le mme niveau dintgrit nest pas ncessaire (voir tableau 4). Cela aura une consquence directe et significative sur les cots de lnergie en raison de la redondance de lenvironnement technique et de linfrastructure IT.
Tableau 4: Uptime Institute Tiers et criticit

Type dede centre Type centre dede donnes donnes Stratgique Stratgique Secondaire Secondaire Local Local

Applications Applications hberges hberges Application Mission critical Application Mission critical Impacts critiques / internes Business Impacts critiques / internes Business

Plan dede Reprise dActivits Plan Reprise dActivits (DRP) (DRP) Campus dual-site Campus dual-site Site Secondaire Site Secondaire

Tier Tier 3+/ 44 3+/ 33 1/2 1/2

Equipements dede proximit ouou contrleurs des quipements Equipements proximit contrleurs Redondance Redondance des quipements

4.3.2 Les enjeux actuels


4.3.2.1
Les informations contenues dans le tableau 5 rsument les rsultats obtenus partir dun exercice de benchmarking interne ralis par les entreprises membres du Club des Responsables dInfrastructure et de Production (CRIP). NOTE: Le CRIP est une association franaise reprsentant les grandes entreprises dans les secteurs des services publics, bancaires, tlcommunications, assurances, automobile et industriels.

Prsentation

ETSI

17

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Tableau 5: Valeur moyenne de la situation actuelle (source CRIP)

Aspects lis au centre Surface au sol totale moyenne du centre de donnes (m2) Consommation lectrique moyenne (W/m 2) Autonomie suite une non fourniture externe dlectricit (jours) Redondance des systmes lectriques Redondance de la climatisation Redondance des rseaux de tlcommunication et salles associes Existence dun Plan de Reprise dActivit en local (PRA) Existence dun PRA en mode campus (double site distance < 10 Km) Existence dun PRA mtropolitain (sites distants - 10 km 100 km) Existence dun PRA continental (sites distants > 100 km) Existence dun PRA efficace Existence dune salle de backup pour la supervision et le contrle Surface au sol pour les quipements IT (m2)

Nbre de serveurs 100-200 139 2 987 86 10 67 91 58 46 22 26 18 51 40 94 91 90 > 200 2 405 4 538 655

4.3.2.2

Questions principales

La situation actuelle des datacenters est peu satisfaisante. Elle rsulte de politiques des annes prcdentes, durant lesquelles chaque application avait sa propre architecture ddie et, de temps en temps, o les versions des systmes dexploitation ne permettaient pas la virtualisation. En consquence, ces serveurs peuvent avoir un taux doccupation de lunit centrale (CPU) de 10 % 20 % seulement, entrainant une sous-utilisation dramatique de la ressource et une trs faible efficacit nergtique. Une des raisons de cette situation, a t le manque dans la gestion de la capacit des serveurs. Une autre des consquences est que les serveurs ne peuvent tre retirs du service mme si ils ne sont plus utiliss. Le rsultat global de tout ceci, est que de nombreux centres de donnes sont actuellement aux limites en termes dnergie, de refroidissement et de disponibilit de surface au sol. Laudit effectu dans des entreprises significatives [3] indique que les problmes les plus marquants pour les centres de donnes sont: Le manque dnergie. Le manque potentiel de refroidissement. Une absence, voire une impossibilit de mise niveau en raison des nouvelles lgislations environnementales et des contraintes administratives. Une nouvelle gnration de matriel, plus efficace mais ncessitant des zones de densit nergtique leve (de lordre de 0,7 kW/m2 20 kW et potentiellement 40 kW par rack en 2010). Un PUE moyen (voir chapitre 5.3.1) variant de 2,5 2,8. Une faible utilisation des serveurs notamment les gammes X86 pour Windows et Linux (10 % 20 %). Cependant, moins quun plan daction de lamlioration de lefficacit nergtique soit mis en uvre, il est clair que les cots nergtiques, en tant que proportion du Cot Total de Possession (TCO), augmentent ce dernier dun niveau de 10% 50%. Cela signifie que les cots de lnergie (Opex) dpasseront le Capex annuel de linfrastructure IT.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

18

4.3.2.3

Centres de donnes Oprateur

Historiquement, les centres de donnes rseaux ont souvent migr dans les sites dexploitation existants des oprateurs qui sont plutt situs dans les zones urbaines. Lalimentation principale en nergie de ces sites ntait souvent pas conue pour supporter des niveaux levs de consommation dnergie requis par les technologies actuelles employes. Ces btiments et leurs infrastructures avaient t conus pour sadapter des quipements des rseaux de tlcommunication qui avaient une consommation nergtique nettement infrieure aux quipements informatiques modernes. Ces derniers ayant remplacs les prcdents, la technologie actuelle utilise pour les constructions modernes permet dobtenir une bien plus grande efficacit tant sur loptimisation de lutilisation de la surface au sol que sur la consommation de lnergie. De fait, il est peu probable que le fonctionnement gnral des btiments hrits soit aussi performant que celui des centres de donnes complexes construits pour cet usage. Il est donc probablement ncessaire de considrer ces derniers comme des cas spcifiques lorsque lon compare la performance nergtique. De plus ces btiments existants ont souvent une pnurie despace au sol et il est difficile de les agrandir en raison de contraintes commerciales, de contraintes de structure et de planification dans les zones urbaines. Une alternative ceci, est de forcer la concentration des possibilits de traitement, en lanant des programmes ambitieux de consolidation des infrastructures. Des facteurs lgislatifs et environnementaux imposent galement des contraintes svres sur lapprovisionnement dquipements de refroidissement supplmentaires ncessaires. Comme les cots nergtiques continuent croitre et que les problmatiques concernant la disponibilit nergtique augmentent, il deviendra plus que ncessaire dutiliser du matriel de nouvelle gnration avec une meilleure efficacit de traitement. Ces facteurs exigent des nouvelles stratgies et pratiques employer dans la conception et dans lexploitation des centres de donnes, en particulier en ce qui concerne lefficacit nergtique.

4.3.3 Evolution et futures tendances


4.3.3.1 Les exigences lectriques et de refroidissement pour les quipements IT

Les feuilles de route technologiques des fournisseurs principaux dquipement IT (serveurs et/ou stockage) montrent que les valeurs lies la densit (exprimes en kW/m) ne sont pas en phase avec les capacits de la majorit des salles informatiques au sein des installations des centres de donnes (tant en terme dapprovisionnement lectrique que de capacit de refroidissement). NOTE 1: La grande majorit des centres de donnes actuels ne sont pas adapts pour rpondre aux besoins en nergie requise par ces nouvelles technologies (Source CRIP benchmark interne sur les tendances relatives aux centres de donnes Fvrier 2008) Les nouvelles technologies de serveurs (telles que les serveurs en lames, les chssis et les mainframes Unix) ont des exigences de puissance qui excdent la capacit des salles informatiques. Exemples dune telle augmentation : passage de (0,5 kW/m 0,7 kW/m) (4 kW/m ou 6 kW/m) au cours des deux prochaines annes, passage 10 kW/m et au del dans les cinq prochaines annes. NOTE 2: En 2006, le Gartner Group a crit 50 % des centres de donnes existants deviendront obsoltes en terme despace au sol, de fourniture lectrique et de capacit de refroidissement fin 2008 . De telles valeurs rendent le concept de kW/m2 comme un critre non pertinent voire en voie dobsolescence et introduit une nouvelle mthode dvaluation base sur le kW par rack. Cet aspect force les architectes prendre en compte la cration de zones forte densit au sein des centres de donnes avec la fourniture en lectricit et en systme de refroidissement ncessaires. Ces zones peuvent tre des zones spcifiques configures dans une salle informatique traditionnelle. (Voir figure 17 et figure 18) permettant lespace restant daccueillir des quipements de faible densit tels que des robotiques, des librairies de bandes, des commutateurs rseau, etc., pour lesquelles le ratio kW / m reste valable. Comme alternative, les conditions requises peuvent tre cres dans des environnements pr-racks clos et scuriss (y compris des dispositifs de gestion lectrique, des systmes de refroidissement liquide ddis et contenant toutes les connectiques ncessaires pour le rseau externe) qui permettent une utilisation en dehors dune salle informatique (voir paragraphe 7.2.2.1.5).

ETSI

19

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

4.3.3.2

Les nouveaux projets

Certains projets ou services, en particulier dans les secteurs des tlcommunications et des fournisseurs daccs internet (FAI) dans le monde, ont besoin dune puissance de calcul considrable, lie la croissance naturelle de leurs activits ou aux initiatives de consolidation globale. De plus, des nouveaux services (VOD, VoIP, TV ADSL, etc), les changes lectroniques avec les clients (B2C) et les fournisseurs ou partenaires (B2B), et dans un avenir proche, entre les machines (M2M), vont imposer de nouvelles contraintes en termes de connectivit, de disponibilit, de scurit et dabsorption de charge de travail alatoire. Une approche globale doit tre mise en uvre dans les centres de donnes IT permettant une politique de partage des ressources afin dtre en mesure de rpondre immdiatement aux besoins applicatifs avec le niveau de service requis et ce, dune manire conomiquement efficace.

4.3.3.3

Les programmes de consolidation des centres de donnes

Une rcente tendance au sein des grandes organisations est la consolidation des centres de donnes existants au sein de centres de donnes critiques moins nombreux. Cette pratique a un impact potentiel sur les cots nergtiques sachant que les centres de donnes critiques sont habituellement construits au niveau Tier 3+ ou Tier 4. Cependant il est possible davoir quelques zones ou salles informatiques dun niveau infrieur (Tier 1 - 2) dans un centre de donnes dun niveau lev (3 - 4). Si le centre de donnes est en Tier 3 ou 4, la redondance globale des alimentations lectriques sera mise en uvre, mais uniquement les salles informatique de Tier 3 ou 4 demanderont une redondance complte pour llectricit et le systme de refroidissement. Les autres quipements peuvent tre installs dans des salles informatiques avec un niveau de Tiering infrieur (voir schma figure 4).

Figure 4: Centre de donnes avec niveaux de tiering mixs

Cette approche permet de rduire la consommation lectrique globale. En outre, il peut tre possible de faire fonctionner les diffrentes salles informatiques des tempratures diffrentes (par exemple, du matriel IT peut tre spar des quipements de rseau tlcom) permettant de nouvelles rductions de consommation dlectricit (voir paragraphe 7.2.3).

4.3.3.4

Impacts sur lenvironnement

Les rglementations exigent souvent une tude prolonge au cas par cas ralise par des autorits qui peuvent introduire des retards importants dans le processus de planification. Ces contraintes font quil est trs difficile, voire impossible, dimplmenter des projets dagrandissement dun centre de donnes existant dans les villes, ce qui augmenterait la dissipation de chaleur ou ncessiterait des besoins nergtiques importants.
ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

20

4.4 Le nouveau contexte


4.4.1 Consommation dnergie et efficacit nergtique
Le modle une application, une architecture physique, chacune ayant ses propres serveurs et son propre stockage devient obsolte. Il est remplac par un nouveau modle bas sur le partage des composants IT et la mutualisation de linfrastructure technique. Dans un futur proche, le centre de donnes sera une vritable usine de production, avec de lautomatisation et de lindustrialisation. Il deviendra totalement virtualis tel que dcrit dans le chapitre 6. Les nouveaux quipements nergtiquement efficaces dans tous les domaines de lIT, les nouvelles technologies de refroidissement (y compris des solutions qui deviennent seulement pertinentes mesure que les densits de puissance augmentent) et dautres solutions pour grer plus efficacement la consommation dnergie agiront afin de permettre une rduction des cots de lnergie pour un niveau de service donn. Nanmoins, les plus grandes conomies ne pourront tre obtenues que si dautres initiatives refltant le concept de lutility computing sont pleinement implmentes (comme la consolidation, le provisionnement automatis des serveurs (rseau ou stockage) et les oprations rcurrentes). La recherche de lefficacit nergtique doit couvrir toutes les disciplines et non pas se concentrer uniquement sur lenvironnement technique.

4.4.2 Facteurs impactant lefficacit nergtique


Les facteurs indiqus dans le tableau 6 contribuent une faible efficacit nergtique et par consquent une consommation dnergie leve.
Tableau 6: Principaux facteurs menant une faible efficacit nergtique

Units de distribution lectrique et/ou transformateurs fonctionnant au dessous de leurs pleines capacits. Systmes de Conceptions redondantes N+1 ou 2N entrainant une sous utilisation des composants. distribution lectrique Diminution de lefficacit des quipements dalimentation de secours in interruptible (UPS) lorsquils fonctionnent faible charges. Augmentation de la consommation lectrique de la climatisation lors de la conduite de lair haute pression sur de longues distances. Systmes de Pompes ayant un dbit ajust automatiquement ce qui diminue leur efficacit. refroidissement Conceptions redondantes N+1 ou 2N entrainant une sous utilisation des composants. Faux plancher "plat de spaghettis" contribuant une inefficacit en forant les dispositifs de refroidissement travailler plus intensment pour rpondre aux exigences en matire dvacuation de charge thermique. Ceci peut conduire des diffrences de temprature. Des zones forte charge thermique pourraient recevoir un refroidissement inadquate. Manque durbanisation de la salle informatique. Faible utilisation des serveurs existants (10 % 20 % du CPU) en particulier pour les x86. Manque de processus de gestion de la capacit pour l'environnement technique et informatique. Serveurs physiques ddis par applications. Pas de consolidation, manque de politique de mutualisation.
Infrastructure informatique

Infrastructure physique

Donnes redondantes gnrant une forte capacit de stockage. Equipements informatiques actifs 24/24, 7/7 mais utiliss qu certaines heures de la journe et/ou certains jours. Anciennes gnrations de serveurs ayant un faible ratio puissance de calcul / consommation lectrique. Manque de cartographie fonctionnelle gnrant beaucoup dapplications, de duplications de donnes, de sauvegardes et de flux dchanges. Cela contribue augmenter considrablement le TCO (nombre de composants physiques, licences logicielles, personnel, espace au sol, etc.) et la consommation lectrique.

ETSI

21

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

La situation actuelle est plus gnralement la consquence dune croissance importante des besoins en terme dquipements informatiques en raison de la croissance naturelle des activits des entreprises et de la cration de nouveaux services. Un autre facteur augmentant la charge IT est que la cartographie fonctionnelle est trs complexe et gnre beaucoup dapplications. Parfois, la meilleure faon de faire le maximum dconomies dnergie est de diminuer le nombre dapplications et de minimiser les duplications de donnes.

4.4.3 Initiatives en cours


De nombreuses organisations ont lanc des initiatives en rponse aux principales proccupations identifies dans le chapitre 4.3.2.2. Celles-ci couvrent les domaines suivants: Linfrastructure informatique (expliqu en dtail au chapitre 6); - La consolidation de leurs actifs existants pour diminuer le nombre de composants physiques dans les salles informatiques comprenant: La consolidation du stockage regroupement des donnes dans une baie partage au lieu dutiliser une capacit de stockage ddie pour les applications spcifiques. Cela demande la mise en uvre dune politique de Storage Area Network (SAN); Des initiatives de consolidation de serveurs sont maintenant en cours dans beaucoup dentreprises, en particulier pour les serveurs X86 fonctionnant sur Windows ou Linux, du fait de leur grand nombre par rapport aux autres systmes dexploitation (Unix, MVS, VMS). Ces serveurs sont ceux du Tier 1 (prsentation) et du Tier 2 (serveurs dapplications) couramment utiliss dans le modle darchitecture logicielle en 3-tier (dcrit dans le chapitre 6.2). La consolidation de ces serveurs est essentiellement implmente avec: - Du matriel de nouvelle gnration tels que les lames ou autres serveurs en rack pour construire une infrastructure technique commune et partage; - un outil de virtualisation pour dplacer une application vers un serveur virtuel. Plusieurs applications peuvent tre consolides sur le mme matriel en utilisant des serveurs virtuels. La charge CPU atteint 60% 80% au lieu de seulement 10% 20% pour un serveur non virtualis. Ces actions limitent non seulement une augmentation considrable des besoins dnergie et des cots, mais rduisent aussi le temps avant que les centres de donnes de nouvelle gnration soient oprationnels. Dans la majorit des cas, cette consolidation est physique (avec ou sans virtualisation) utilisant des technologies de types mainframes, des serveurs racks ou des serveurs en lames, en raison de leur rapport puissance / espace au sol. Les processus dautomatisation plus prcis de provisionnement de ressources ; introduction de nouveaux serveurs virtuels et de la gestion dynamique de leur charge de travail et de leur volutivit; La gestion de la capacit de stockage et de serveurs, pour avoir une meilleure utilisation des ressources existantes; les systmes de refroidissement (examin en dtail le chapitre 7): - augmentation de la temprature ambiante dans les salles; - refroidissement par air libre extrieur (free cooling); - refroidissement par eau; - dsactivation des humidificateurs dair dans les zones qui contiennent uniquement des quipements rpondants aux exigences de la norme ETSI EN 300 019-1-3 [11]; les systmes de distribution dnergie (examins en dtail au chapitre 9); - Fourniture de courant continu haute tension - High Voltage Direct Current (HVDC) - pour le matriel informatique (pour les nouveaux centres de donnes).

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

22

Normes et mtriques defficacit nergtique

5.1 Examen des activits en dehors de lETSI


5.1.1 Code de conduite europen sur lefficacit nergtique des centres de donnes
Le code de conduite de lUnion europenne [4] prvoit la possibilit pour les oprateurs de centres de donnes de mettre en uvre des pratiques visant rduire la consommation nergtique de leurs centres de donnes. Les dtails des meilleures pratiques [5] employes relatives lefficacit nergtique sont dtaills ensemble avec la consommation relle dnergie, mesure en des points spcifiques au sein du centre de donnes.

5.2 La consommation dnergie dans les centres de donnes


De lnergie totale utilise dans un centre de donnes, les principales zones de consommation sont les suivantes (cf. : reprsentation schmatique figure 5): distribution dnergie dans la salle informatique aux quipements IT et aux quipements de rseaux et de tlcommunications; contrle de lenvironnement de la salle informatique (par exemple : refroidissement et humidit); clairage et quipement des bureaux associs au centre de donnes; clairage de la salle informatique.

Figure 5: Schma de la consommation dnergie et des pertes dans un centre de donnes

Se rfrant la figure 5, la proportion de lnergie fournie aux quipements IT est : W - E1 - E2% avec : W (%) = consommation dnergie lentre de londuleur (UPS); E1 (%) = nergie perdue au sein de / par londuleur; E2 (%) = nergie perdue au sein de / par les units de distribution lectrique (PDU).
ETSI

23

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

lnergie consomme par lquipement de contrle de lenvironnement X%. Sauf indication contraire, le modle standard utilis dans le prsent document est le suivant: le % de puissance requise pour lquipement informatique = 45 (bas sur W = 60 et E1 + E2 = 15 dans la figure 5); le % de puissance requise pour les systmes de refroidissement = 37 (qui est X = 37 la figure 5); le % de puissance requise pour lamnagement des locaux = 3 (qui est Y + Z = 3 dans la figure 5).

5.3 Efficacit nergtique indicateurs de performance - (KPIs)


5.3.1 Power Usage Effectiveness (PUE) ou Data Centre Infrastructure Efficiency (DCIE)
5.3.1.1 Gnral

Se rfrant la figure 5, le PUE est dfini ainsi : 100 / (W - E1 - E2). Le code de conduite de lUnion europenne [4] reconnat le DCIE (inverse de la PUE exprime en pourcentage comme indiqu au tableau 7).
Tableau 7: conversion PUE et DCIE

PUE 4,0 3,0 2,5 2,2 2,0 1,8 1,6 1,5 1,4 1,3

DCIE 25 % 33,3 % 40 % 45 % 50 % 56 % 62,5 % 66,7 % 71,4 % 76,9 %

Le modle de rfrence du chapitre 5.2 a un PUE de 2,22 et un DCIE de 45%. La figure 6 indique le PUE et le DCIE pour une efficacit leve, moyenne et faible des centres de donnes. En gnral, les centres de donnes construits au cours des cinq dernires annes ont un PUE oprationnel compris entre 2 et 2,5 (DCIE entre 40% et 50%). Certains centres de donnes plus anciens ont un PUE oprationnel suprieur 3 (DCIE infrieur 33,3%).

Situation moyenne courante

Figure 6: Spectre defficacit nergtique des centres de donnes et valeurs des PUE / DCIE

NOTE: Le mot efficient doit tre remplac par le mot efficacit.


ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

24

Les centres de donnes de tier 3 + ou de tier 4 peuvent avoir des objectifs de PUE aussi faible que 1,4. Des centres de donnes de tier 2, utilisant le refroidissement par free colling ou free water , quips des dernires gnrations dUPS, de P.O.Ds (voir paragraphe 7.2.2.1.5), de racks et serveurs haut rendement, sont capables dobtenir un PUE aussi faibles que 1,2 dans des zones et des conditions spcifiques.

5.3.1.2

PUE pour les nouveaux centres de donnes

Pour un centre de donnes en construction les indicateurs de performance cls (KPIs) PUE (ou DCIE) sont appropris (voir chapitre 12.2). Un centre de donnes en construction peut tre conu pour avoir un PUE spcifi (ou DCIE). Aprs la construction, le PUE rel (ou DCIE) peut tre contrl par rapport la valeur utilise lors de la conception. Cependant, il doit tre not que toute rduction de W (par le biais de lamlioration des quipements IT ou de rseaux de tlcommunications, ou de leurs utilisations et par la rduction des pertes dans le systme de distribution dnergie, E1 ou E2) sans une rduction quivalente dans les paramtres de consommation dnergie primaires, X, Y et Z, conduira une augmentation de PUE, indiquant une dtrioration de lefficacit nergtique plutt quune rduction de consommation dnergie. Les stratgies de conception de nouveaux btiments peuvent tre choisies de faon maximiser leur PUE initial et avec lobjectif de maintenir ce PUE au cours de leur croissance ultrieure, du fonctionnement et de lvolution. Comme dcrit dans le chapitre 7, la dtermination de la localisation du centre, les stratgies dingnierie de construction et de slection des systmes peuvent rduire considrablement la consommation dnergie requise pour le contrle de lenvironnement. Comme dcrit dans le chapitre 8, une planification efficace des voies et des espaces, conformment la norme EN 50174-1 [8] et aux aspects spcifiques aux centres de donnes de la norme EN 501742 [9] peut amliorer lefficacit nergtique des systmes de contrle de lenvironnement. Comme dcrit dans le chapitre 6, les tudes de conception interne peuvent influencer lutilisation des quipements (serveurs, stockage et rseau). En plus, les outils de gestion appropris utiliss en conjonction avec des processus dorganisation et leur automatisation peuvent rduire considrablement la consommation nergtique globale des quipements de technologie de linformation. Lintroduction de composants de distribution dnergie haut rendement telle que dcrite au chapitre 9 peut rduire la valeur de W. En utilisant de faon combine ces approches, le PUE typique de conception des nouveaux btiments rduira au cours des prochaines annes. La valeur actuelle est de 2,0 1,6 (2010-2015) et, avec la mise en uvre des mesures dcrites au chapitre 14, pourrait atteindre 1,3. Il est possible de spcifier des valeurs encore plus basses pour le PUE pour des zones ddies au sein des salles informatiques, mais il est peu probable que, utilisant les mthodes dcrites dans le prsent document, les valeurs de PUE globale du centre de donnes global seront beaucoup plus faibles que les valeurs indiques. Le tableau 8 prsente plusieurs mesures pour tendre vers une meilleure efficacit. Certaines dentre elles sont directement ralisables par le propritaire du centre de donnes ou, celui de lIT. Dautres sont lies aux volutions technologiques.

ETSI

25

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Tableau 8: Amlioration progressive du PUE

Annes Situation 2005-2008 Beaucoup de serveurs autonomes

PUE
2,5 - 2,0

Architecture physique ddie par application Aucune virtualisation sur les systmes ouverts (Open) Operating Systems et technologies obsoltes Provisionnement manuel des ressources Manque d'espace, d'nergie ou de climatisation dans les salles informatiques d'infrastructure (fermes de serveurs, mainframes Unix) Consolidation du stockage - Virtualisation - Tiering Consolidation des serveurs physiques Technologies de virtualisation pour les serveurs et le stockage Provisionnement automatique des serveurs Processus opratoires automatiss Gestion des capacits des serveurs et du stockage Besoin de 2 kW / m 2 4 kW / m 2 du centre de donnes nergtiquement efficaces - Energy Efficient Data Centre Building Normes HQE Propre production d'nergie renouvelable (olienne, solaire, hydraulique, etc.) Nouvelle gnration pour les appareils de refroidissement - Refroidissement free cooling Matriel IT auto refroidi Serveurs nergtiquement efficaces (fermes de lames, mainframes) Logiciels spcifiques pour grer la capacit nergtique Logiciels pour la mesure et la modlisation thermique dans les salles informatiques Consolidations applicatives massives - rationalisation Centre de donnes automatis dans sa globalit

2008-2010 Politiques

1,8 1,6

2010-2015 Btiment

1,6 1,4

5.3.1.3

PUE dans les centres de donnes existants

Dans les btiments existants, il y a peu de possibilits pour rduire la consommation dnergie par le biais de modifications de la structure du btiment ou de modifications substantielles dans les systmes de contrle de lenvironnement et ce, sans encourir des cots importants et des perturbations de fonctionnement. De petites amliorations peuvent tre ralises par des changements limits des systmes de contrle de lenvironnement et par lamlioration gnrale de lefficacit nergtique dans les composants de distribution de lnergie et les services auxiliaires rduisant ainsi les valeurs de E1, E2 et W dans la figure 4. Au lieu de cela, la rduction de la consommation globale dnergie peut tre atteinte par (quand cela est possible) la mise en uvre dune planification efficace des voies et des espaces, conformment la norme EN 50174-1 [8] et la partie relative au centre de donnes de la norme EN 50174-2 [9], afin de maximiser lefficacit nergtique des systmes de contrle de lenvironnement. Lobtention de matriel informatique de plus grande efficacit nergtique, les initiatives de consolidation / virtualisation / automatisation des processus, reprsentent la seule solution raliste pour rduire la consommation dnergie dans les btiments existants pour un niveau de service donn. Cependant, sans une rduction quivalente des paramtres de consommation dnergie primaire, X, Y et Z comme le montre la figure 5, ces actions conduiront une augmentation du PUE indiquant une dtrioration de lefficacit nergtique mme si elle saccompagne dune rduction de la consommation dnergie globale du centre. Le PUE est difficile valuer sans un ensemble doutils gnralement absents dans la majorit des centres de donnes existants. Comme mentionn plus haut, certaines actions primaires mises en uvre sur les infrastructures, telles la virtualisation auront un effet ngatif sur le PUE.
ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

26

Le PUE peut tre lindicateur le plus pertinent pour donner une photo globale de lefficacit, mais ce nest pas le KPI le plus appropri pour la mesure de lamlioration de lefficacit nergtique dans les centres de donnes existants. La conformit au prsent document (voir chaptre 12.1) pour les centres de donnes existants ncessite lutilisation dun KPI autre que le PUE.

5.3.2 Autres KPIs


5.3.2.1 KPI defficacit nergtique

Un certain nombre de ces indicateurs de performance cls existent, incluant: Le ratio de puissance lectrique / espace au sol exprim en kW / m 2. En rgle gnrale, ce KPI est utilis pour les centres de donnes existants et / ou les zones de faible densit dans les salles informatiques; Le ratio de la consommation totale dnergie / charge de calcul totale; Le ration de puissance de calcul / puissance lectrique exprim en TPM-C/kW. Ce KPI donne une densit de calcul potentiel par kW et est utile pour les racks et / ou des zones de haute densit dans les salles informatiques; Lnergie totale ncessaire pour le centre de donnes / heure exprime en MW; La consommation totale dnergie / an exprime en GWh.

5.3.2.2

KPI lis la consolidation

Un certain nombre dindicateurs de performance cls (KPIs) existent pour la consolidation de linfrastructure IT, notamment: Le nombre de serveurs physiques; Le nombre de serveurs virtuels; Le ratio de virtualisation; Le nombre dimages utilises de systmes dexploitation (serveurs logiques) - un serveur physique peut contenir plusieurs serveurs logiques. Ce KPI est la principale mesure dune consolidation logique; Le ratio de consolidation logique; Le nombre dapplications. Cest un KPI utilis seulement pour la consolidation dapplications et de d commissionnement (La relation doit tre faite entre lapplication, les composants physiques et les besoins de lenvironnement technique conomiss par la consolidation); La charge de calcul moyenne par famille (RISC, X86). Ce KPI value lefficacit des serveurs en terme de charge de calcul avec pour objectif dobtenir la plus forte utilisation de la puissance CPU et ce, afin de minimiser le nombre de serveurs; Le nombre de baies de disques. Un certain nombre dindicateurs de performance cls existent pour la consolidation du stockage physique incluant: Le nombre de ports SAN; Le nombre de traoctets / m2; Le ratio despace de stockage occup / m. Ce KPI exprime la densit de stockage; Le ratio moyen dallocation de baie. Ce KPI est similaire la charge moyenne de calcul, fournissant le taux de rpartition de lespace dans la baie.

ETSI

27

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

5.3.2.3

Data collection

La production des indicateurs de performance cls prsents au chapitre 5.3.2.2 exige la collecte et lagrgation dun large ventail de donnes comme le montre le tableau 9.
Tableau 9: Donnes requises pour la fourniture de KPI consolids

Caractristiques fournisseurs de tous les quipements du centre de donnes

Fournisseur Modle, type Nombre de processeurs, de curs Puissance de calcul Consommation lectrique (standby, pleine charge) Dissipation thermique Poids Taille Par centre de donnes Par salle informatique Par processus mtier Par application Par centre de donnes

Base de donnes / inventaire de tous les quipements du centre de donnes

Base de donnes contenant les valeurs mesures au cours des activits commerciales et durant les priodes de non-activit

Consommation lectrique

Par salle informatique Par processus mtier Par application Par utilisateur final Par salle informatique

Besoins de Calcul

Par processus mtier Par application Par utilisateur final Par salle informatique Par processus mtier Par application Par utilisateur final

Les besoins de refroidissement

Accrotre lefficacit nergtique des infrastructures IT

6.1 Gnral
Les indications de limpact de certaines de ces actions dans le domaine de lefficacit nergtique sont prsentes dans lannexe A.

6.2

Modle darchitecture logicielle 3 tier.

La figure 7 montre le modle darchitecture logicielle dit 3-tier qui prvaut ce jour. Ce paragraphe fait rfrence aux tier de ce modle Nb : ces tier ne doivent pas tre confondus avec ceux voqus dans le chapitre 4 relatifs la scurisation des centres de calculs.
ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

28

Figure 7: Architecture typique dun modle dapplications 3-tiers

6.3 Solutions defficacit nergtique


6.3.1 Equipement obsolte
Cela implique lidentification, la mise hors service et lenlvement de tous les quipements sans activit tels que les vieux serveurs, les modems et routeurs. Cela reprsente en gnral un faible pourcentage des quipements installs (peut-tre 5%), mais le d commissionnement de ces quipements offre une rduction immdiate de la consommation dnergie sans aucune rduction des niveaux de service.

6.3.2 Equipement de remplacement


Implique le remplacement dquipements existants de gnrations prcdentes, par des quipements de dernire technologie, plus efficaces nergtiquement. Le choix des serveurs doit tre dict par leur capacit dexcuter plusieurs systmes dexploitation virtualiss. Les fermes de serveurs lame offrent un excellent ratio consommation dnergie / puissance de calcul dans un espace physique limit. Les serveurs haut de gamme ou les mainframes sont et seront, dans un avenir proche, ncessaires pour le traitement de grandes bases de donnes.

6.3.3 Puissance et gestion de la capacit


6.3.3.1 Gnral

On distingue deux solutions spares et rapides par lesquelles les rductions de consommation dnergie peuvent tre ralises en fournissant une utilisation plus efficace des ressources existantes au sein des infrastructures IT existantes sans avoir besoin de modification du matriel. Les solutions sont dcrites comme suit: La gestion de lenvironnement technique (voir chapitre 6.3.3.2); La gestion de la capacit de traitement (voir chapitre 6.3.3.3).

6.3.3.2

Gestion de lalimentation

6.3.3.2.1 Lactivation de fonctions basiques de gestion de la puissance de base


Implique lactivation de toutes les fonctions de gestion dnergie au sein des quipements existants. Lapplication de lallocation dynamique des ressources dquipements (voir chapitre 6.3.3.3.5) apporte des bnfices supplmentaires sur la gestion de lalimentation.
ETSI

29

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

6.3.3.2.2 Lactivation du mode veille


Cela implique lactivation du mode veille (qui nest pas un systme darrt lectrique de lquipement) pour les priodes durant lesquelles lapplication est sans activit. Ces priodes peuvent tre journalires, hebdomadaires ou mensuelles. Ce dispositif peut tre appliqu une varit dquipements en fonction de leur rle dans le modle darchitecture 3-tier du chapitre 6.2. Il est tout fait possible denvisager un arrt total de certains quipements. Ces solutions sont applicables tous les serveurs qui ne sont pas utiliss en service continu (tels que la sauvegarde et les serveurs de dveloppement) ainsi que les serveurs dans le Tier 1 ou le Tier 2 du modle darchitecture logicielle du chapitre 6.2. Typiquement, ces serveurs ou ces applications respectent le calendrier reprsent dans le tableau 10.
Tableau 10: Calendrier typique de lactivit des serveurs pour des applications dites journalires . Exclut de fait toute application en ligne qui doit rester oprationnelle 24 H sur 24 et 7 jours sur 7.
Priodes 08h00 - 20h00 20h00 - 08h00 Week-ends Activits TP Sauvegarde/ batch Aucune Tier 1 Connections utilisateurs Aucune connection Aucune connection Tier 2 Application Inactive Inactive Tier 3 Connections Base de donnes Sauvegarde / activit batch Sauvegarde / batch

Un exemple du potentiel dconomies est montr ci-dessous : EXEMPLE:


Priodes Activit

Nombre de week-ends par an W 52 Un serveur actif dePriodes dernire gnration X86 mono ou bi-processeur a une consommation moyenne typique de 240 W. Le mme Activits Tier 1 Tier 2 Tier 3 serveur en mode veille a une consommation typique de 80 W et de 0 W 11, 200 serveurs de ce Nombre de jours frisConnections par an P lorsquil est teint. 9 Au tableau Connections Application 08h00 Ces - 20h00 TP type ont t identifis. derniers pourraient tre teints ou mis en mode veille: Base de donnes utilisateurs Nombre de jours de travaills D = 365-2W-P 252 Sauvegarde/ Sauvegarde / 20h00 08h00 Aucune connection Inactive 8 heures par -jour; batch activit batch Total dheures en mode R = 8D + 4 730 le week-end et les jours fris. rduction 24(2W+P) Inactive Week-ends Aucune dnergie Aucune connection Sauvegarde / batch

Le tableau 11 montre que les conomies dnergie potentielles en activant le mode veille seraient de 31% et de 46% dans le cas Consommation d'nergie totale 8 760 x 240 W dun arrt des serveurs. 420 480 kWH (sans action) Par server Rduction d'nergie avec 160(8 760-R) 128 960 kWH Tableau 11 le - Exemple de calcul mode veille Par server (30,7 %) Priodes Activit 240(8 760-R) 193 440 kWH Rduction dnergie avec arrt per W server (46 %) Nombre de week-ends par an 52
Nombre de jours fris par an Nombre de jours de travaills Total dheures en mode rduction dnergie Consommation d'nergie totale (sans action) Rduction d'nergie avec le mode veille Rduction dnergie avec arrt P D = 365-2W-P R = 8D + 24(2W+P) 8 760 x 240 W Par server 160(8 760-R) Par server 240(8 760-R) per server 9 252 4 730

420 480 kWH 128 960 kWH (30,7 %) 193 440 kWH (46 %)

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

30

Figure 8: Exemple de schma dconomies

6.3.3.2.3 Rduction de la consommation nergtique des quipements de contrle de lenvironnement


Il est galement possible de rduire la consommation nergtique de lenvironnement climatique mais le niveau dconomie dpend du type de refroidissement employ. Sil nest pas possible dajuster dynamiquement le taux de refroidissement par air, les conomies seront insignifiantes. Cependant, si le taux de refroidissement par air peut tre ajust dynamiquement, lnergie utilise pour refroidir les serveurs pourrait tre rduite jusqu 50%.

6.3.3.3

Gestion de la capacit Capacity management

6.3.3.3.1 Gnral
La gestion de la capacit est le processus oprationnel destimation et de rpartition de lespace de stockage, des besoins environnementaux, du matriel informatique, des logiciels et des ressources de connexion de linfrastructure, pour reflter la nature dynamique des besoins utilisateurs et des interactions avec le centre de donnes. Comme le montre la figure 9, la capacit de gestion adresse les points suivants: Est-ce que le centre de donnes peut accueillir de nouvelles applications, de nouveaux services ou soutenir la croissance de lactivit ? Quelle est la capacit en termes dnergie, despace et de refroidissement ? Quelle est la capacit en termes de stockage, de CPU, de mmoire, dentres / sorties, de ports, etc ? La gestion de la capacit fournit une vue exhaustive des besoins rels en termes de puissance de calcul et / ou de capacits environnementales par une gestion continue, la mesure et la surveillance des serveurs et des activits des applications. Lobjectif de la gestion de la capacit est de sassurer quune nouvelle capacit est ajoute juste temps pour rpondre de faon anticipe aux besoins prvus, sans pour autant que les ressources soient inutilises pendant une longue priode. Une capacit de gestion russie, utilisant des outils danalyse et de modlisation (rpondant aux scnarios quest-ce qui va se passer si ) met en uvre des arbitrages entre les besoins prsents et futurs qui savrent tre le meilleur rapport global cot efficacit. Lmergence de nouvelles technologies combines aux changements des stratgies mtiers business et les prvisions de changement ncessitent une gestion de la capacit en continu. La capacit de gestion efficace sappuie sur lutilisation de produits qui sont modulaires, volutifs, stables et prdictifs en termes de support et de mises jour tout au long de leurs cycles de vie.

ETSI

31

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

La gestion de la capacit a pour objectifs: la prvision et lanticipation des besoins futurs de lentreprise en raison de laccroissement organique et de nouveaux projets; la mise en uvre dactions sur linfrastructure IT ou lenvironnement pour fournir des ressources adquates; lajustement de lutilisation de linfrastructure aux besoins rels de lentreprise pour viter le gaspillage d un surdimensionnement des applications; la dtermination de lutilisation du matriel; la prparation des initiatives de consolidation (voir chapitre 6.3.4).

Figure 9: La gestion de capacit

6.3.3.3.2 La gestion de capacit de lenvironnement technique


Cela ncessite la mesure et la gestion de llectricit, du refroidissement et de lespace disponible. Dans de nombreux cas, ces informations sont obtenues manuellement directement par le personnel du centre de donnes. Toutefois, la meilleure mthode consiste mettre en place des solutions logicielles.

6.3.3.3.3 Stockage
Cela implique lutilisation de stockage partag de donnes en utilisant des solutions actives de compression des donnes et de dduplication, afin de maximiser lutilisation des capacits de stockage. La mise en uvre du thin provisioning permet dutiliser le juste espace disque. Cette fonctionnalit est essentielle pour la gestion de la capacit de stockage.

6.3.3.3.4 Serveurs
Cela implique en priorit lutilisation des quipements dj existants lorsque la demande de ressources serveur supplmentaire est ncessaire. Cette approche est une tape vers les initiatives de consolidation de le chapitre 6.3.4.

6.3.3.3.5 Evolutivit la demande pour le commerce en ligne


Cela ncessite la mise en uvre denvironnements virtuels pr packags, comprenant tous les composants logiques ncessaires pour lexcution des applications, et un outil dautomatisation du provisionnement pour permettre de distribuer les applications travers linfrastructure en tenant compte, par exemple, du nombre de connexions au service (par exemple, un nouveau serveur provisionn toutes les 200 connexions). Un aspect essentiel est que le systme automatis doit tre capable de d-commissionner la capacit supplmentaire ds que le nombre de connexions diminue. Pour cela, la virtualisation est essentielle car chaque nouveau serveur install est une machine virtuelle.
ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

32

6.3.4 Initiatives de consolidation


6.3.4.1 Consolidation des serveurs

La consolidation dans les serveurs existants est la meilleure faon de rduire les cots nergtiques pour un niveau de service donn. Le rsultat de la consolidation est une rduction du nombre de serveurs impactant directement la baisse les besoins en nergie des infrastructures IT, les besoins en refroidissement et lespace au sol. Il existe un certain nombre de types de consolidation couverts dans cette clause: consolidation physique; virtualisation; consolidation logique; application ou rationalisation des systmes dinformation (IS).

6.3.4.2

Consolidation physique

6.3.4.2.1 Le processus
La consolidation physique implique la runion de matriel autonome dans un conteneur physiquement plus puissant, comme le montre la figure 10 et peut tre ralise sans lutilisation de la virtualisation si la technologie de serveurs possde des fonctionnalits de partitionnement.

Figure 10: Consolidation physique - Virtualisation

6.3.4.2.2 Les effets


Un programme de consolidation physique a les effets suivants: rduction du nombre dlments physiques (serveurs, baies de stockage, robotiques); conomies sur la surface au sol utile, sur les cots de maintenance, de refroidissement et dlectricit; Capex pour le nouveau matriel.

6.3.4.3

Virtualisation

6.3.4.3.1 Le processus
La virtualisation est une mthode de consolidation physique. Elle doit tre mise en uvre avec des serveurs de nouvelle gnration et est un pr-requis pour une politique de partage de linfrastructure. La consolidation physique na aucun effet sur le nombre de serveurs logiques (qui est la rduction du nombre de serveurs physiques et na pas deffet sur le nombre dimages de systmes dexploitation (OS) et de licences de logiciels). Leffet sur le cot total de possession (TCO) informatique nest pas significatif, la part des serveurs dans ce dernier tant en gnral infrieure 10%.

6.3.4.3.2 Les effets


Sous certaines conditions, la virtualisation peut offrir des rductions dnergie de 80% sur une slection de serveurs.
ETSI

33

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

6.3.4.3.3 Rduction de la consommation nergtique de linfrastructure IT


Le tableau 12 fournit une mthodologie pour valuer les conomies dnergie pour un ensemble de serveurs virtualiss. Dautres conomies indirectes pourraient tre galement values si la virtualisation influe sur les exigences de refroidissement dans la salle informatique. Dans la majorit des cas, la virtualisation naura pas un effet positif sur le PUE du centre de donnes, mais il contribue une rduction significative de la consommation totale dnergie du centre. NOTE: Les conomies seront acheves lorsque les anciens serveurs auront t teints lectriquement et retirs de la salle.
Tableau 12: profil de virtualisation

Nombre de serveurs virtualiser Consommation moyenne d'nergie par serveur (watt) Total de la consommation en watt (X * W1) Nombre de nouveaux serveurs (nombre de lames ou botes) Consommation moyenne par machine virtuelle (VM) (y compris le stockage) Ratio de virtualisation Nouvelle consommation (X * W2) Economies d'nergie (watts): C1-C2 % dconomies d'nergie (S1 / C1)

X W1 C1

X/R W2 R C2

S1 S2

Les chiffres suivants sont fournis par un organisme majeur de tlcommunications qui a lanc un projet de virtualisation sur des serveurs x86 en production. Les rsultats sont significatifs car en plus de la virtualisation, la consolidation logique (voir article 6.3.4.3.4) a aussi t applique en rduisant ainsi le nombre de systmes dexploitation. En rgle gnrale, les valeurs moyennes pour les conomies dnergie utilisant des environnements virtuels sont de 40% 60% de lnergie consomme par les serveurs avant la mise en uvre de la virtualisation. Dans cet exemple, lobjectif tait de consolider plusieurs serveurs physiques dune application multi-serveur (170) sur des serveurs de nouvelle gnration, associe un outil de virtualisation. Les serveurs existants taient des serveurs X86 racks de gnration prcdente ayant 2 CPU Intel X86 et contenant une image dun systme dexploitation et une instance dapplication. Les nouveaux serveurs sont des serveurs en lame Intel X86 4 CPU dual-core. Un ratio de consolidation de 12 (ce qui signifie quun serveur physique nouvelle gnration contient au moins 12 serveurs virtuels) a t atteint. La figure 11 montre les conomies de consommation dlectricit atteintes.

Figure 11: conomies dlectricit ralise grce la virtualisation

6.3.4.3.4 Rduction de la consommation nergtique des quipements de contrle de lenvironnement


Voir chapitre 6.3.4.3.4.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

34

6.3.4.4

Consolidation logique

6.3.4.4.1 Le processus
La consolidation logique vise diminuer le nombre de serveurs logiques (images du systme dexploitation) comme le montre la figure 12 et ainsi de faire des conomies sur les cots de licences en plus du nombre de serveurs physiques.

Figure 12: Consolidation logique

Cette mthode est recommande pour les serveurs existants et peut, sans aucun investissement matriel fournir une meilleure utilisation des quipements existants. Cependant, la dernire gnration de serveurs est recommande lors de la cration dun nouveau centre de donnes. La virtualisation et la consolidation logique peuvent tre mis en uvre simultanment afin de fournir un avantage cumulatif. Il existe trois mthodes pour parvenir la consolidation logique: Homogne: seuls les serveurs contenant les mmes composants logiques de la mme application (mme les serveurs daccs au Web (WAS), serveur web, etc.) sont consolids sur le mme systme dexploitation. Semi-homogne: seuls les serveurs contenant les mmes composants logiques, mais dapplications diffrentes (mme WAS, serveur web, etc.) sont consolids sur le mme systme dexploitation. Htrogne: diffrents composants logiques de diffrentes applications (cette mthode nest pas la plus rpandue et est mise en uvre que dans certains cas, avec des rgles trs spcifiques). Dans tous les cas, la consolidation logique a pour pr-requis de dfinir les rgles et critres de consolidation qui adressent entre autres les questions: criticit de lapplication; type dapplication; timing quotidien; mesure de lutilisation des ressources (CPU, entres / sorties (IO), mmoire, etc); liens inter applications.

6.3.4.4.2 Les effets


augmentation de la charge de calcul des serveurs existants; rduction du nombre de serveurs logiques (instances OS) par une politique forte de partage rduisant les cots de licences et de la maintenance; score de la consolidation amlior, ce qui veut dire moins de serveurs et tous les effets connexes tels que lnergie, le refroidissement, etc. effet moyen sur le TCO global de lIT grce aux conomies ralises sur les licences.

6.3.4.5

Consolidation des applications

6.3.4.5.1 Gnral
Ce sont les initiatives de consolidation de plus haut niveau. La consolidation sadresse, non pas la couche dinfrastructure, mais la couche du processus mtier. Comme le montre la figure 13, il sagit dune approche de haut en bas (top-down), en opposition avec lapproche du bas vers le haut (bottom-up) de la consolidation physique ou logique. Ce nest pas la consolidation la plus simple, mais elle est plus rentable en termes dconomies dans tous les domaines.
ETSI

35

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

6.3.4.5.2 Le processus
Il y a plusieurs faons de procder la consolidation dapplications, mais dans tous les cas, le processus doit tre men par les responsables des mtiers et les business dveloppeurs .

Figure 13: Approche Top Down de la consolidation applicative

Dans la majorit des cas, la consolidation dapplications nest pas motive uniquement par les conomies dnergie. Nanmoins, elle est le meilleur moyen de parvenir une rduction maximale de la consommation dnergie car elle sattaque aux causes primaires de linflation de la consommation dnergie : applications trop nombreuses, trop de complexit, redondance, duplication des donnes, etc. Un tel programme est plus couramment mis en uvre pour avoir un impact positif sur le TCO, amliorer la qualit de service, rduire le time to market et renforcer la scurit.

6.3.4.5.3 Les effets


Cela ncessite la mise en place dinfrastructures ddies par processus Mtier ou par Service, qui prennent en considration la continuit du service, la disponibilit, lvolutivit, lagilit La consolidation des applications peut tre aborde par la consolidation des applications dun mme fournisseur, dun mme processus mtier, sur une infrastructure ddie. Amliore le rsultat de la consolidation physique et logique en diminuant la complexit et les redondances. Propose une vision unique et consolide des applications relatives un mme processus pour proposer un SLA par processus.

Rduire la demande nergtique des systmes de contrle de lenvironnement

7.1 Gnral
Ce chapitre dcrit les approches qui peuvent tre utilises pour rduire la demande nergtique des systmes de contrle de lenvironnement au sein du centre de donnes qui reprsente habituellement entre 35 - 40% de la consommation totale dnergie dans un centre de donnes de Tier 3 Uptime Institute. Certaines de ces approches sont applicables aux centres de donnes existants tandis que dautres sont plus susceptibles dtre appliques dans de nouveaux centres de donnes. De plus amples dtails sont fournis dans les chapitres 10 et 11.
ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

36

Le prsent document sajoute aux informations fournies dans le document TR 102 489 [I.1]. Les indications de limpact de certaines des actions dans le domaine de lefficacit nergtique sont prsentes dans lannexe A.

7.2 Solution de rduction dnergie


7.2.1 Mesure du comportement thermique
Afin de permettre des rductions de consommation dnergie, il est important de dterminer les modles thermiques dans le centre de donnes en utilisant des outils logiciels de mesures et de modlisation. Ces derniers peuvent tre dploys avec des Capex limits aux cots des licences pour le logiciel et pour linstallation et la personnalisation.

7.2.2 Amlioration de lefficacit de refroidissement


7.2.2.1 Approche par zones disolement thermique

7.2.2.1.1 Gnral
La conception dans la plupart des centres de donnes existants est que les units de traitement dair dans la salle informatique (Computer Room Air Conditioning CRAC) envoient de lair froid pouss sous un plancher surlev, dans les cabinets (racks) par lintermdiaire des dalles perfores, et aspire lair chaud sortant par le haut de ces derniers. Cependant, si lair chaud et lair froid se mlangent, rsultat dune mauvaise gestion de laraulique, des points chauds dans la salle informatique se produisent. Ceci peut tre mis en vidence en prenant des photos en infra-rouge de la salle. Certaines mesures simples et peu coteuses peuvent tre prises pour viter ces points chauds et gnrer une conomie non ngligeable sur le refroidissement et un effet positif sur le PUE.

7.2.2.1.2 Sparation des alles chaudes et alles froides


Cette approche consiste crer des zones dans le centre de donnes qui sont conues comme ddies alles chaudes et alles froides. Les ranges darmoires sont positionnes pour que les faces avants des cabinets soient les uns en face des autres (les alles froides) et que dans la range adjacente, larrire des cabinets soient en face les uns des autres (alles chaude). Cette sparation est montre dans la figure 14. Lair froid est aspir par lavant de larmoire (alles froides) et expuls par larrire des armoires dans les alles chaudes. La conception de linfrastructure, linstallation et les procdures oprationnelles sont essentielles pour maximiser les avantages de la solution alle chaude - alle froide (voir article 8).

7.2.2.1.3 Couverture des alles froides


Une amlioration du concept de lalle chaude alle froide est possible en couvrant les alles froides comme le montre la figure 15. Cette approche rduit la perte dair froid et permet une rduction rapide de la consommation dnergie.

Figure 14: Sparation des alles chaudes et froides

ETSI

37

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Figure 15: Couverture des alles froides

7.2.2.1.4 La sparation utilisant des rideaux


De faible cot, simple et de dploiement rapide face des problmes dcoulement dair, est lemploi de rideaux de plastique suspendus au plafond de la salle informatique afin disoler les zones chaudes des zones froides comme le montre la figure 16. Cette approche a lavantage quil ny a aucun impact sur les infrastructures existantes associes la dtection et lextinction dincendie.

Figure 16: Sparation des alles chaudes / froides par lutilisation de rideaux

7.2.2.1.5 Zones haute densit


Les vendeurs font des prvisions daccroissements considrables de la densit de consommation dnergie (kW / m2) pour les quipements. Ceci est un problme pour de nombreux centres de donnes existants qui ne sont pas conus pour supporter de telles contraintes. A titre dexemple, comment une salle informatique construite avec un taux moyen de 0,7 kW/m2 peut tre adapte pour supporter les nouvelles gnrations de serveurs lame, pour lequel il est ncessaire de refroidir 20 kW sur une surface de 1m2. Sil ny a pas de restrictions en matire de surface au sol (comme dans un centre de donnes suite des initiatives de consolidation), ce problme peut tre rsolu en ne remplissant pas pleinement les cabinets, et en urbanisant les cabinets de telle sorte que le maximum defficacit de refroidissement soit maintenu sans avoir modifier les flux dair. Toutefois, lorsque lutilisation de lespace au sol doit tre optimise, il y aura une pression commerciale pour remplir compltement les armoires. Dans ce cas, les zones trs haute densit sont la rponse approprie, mais ces zones doivent tre considres diffremment des autres zones dquipement IT traditionnels et approvisionnes avec leur propre nergie et besoins de refroidissement. Le concept de pod est propos par un certain nombre de fournisseurs et reprend le concept dalles chaudes, alles froides par la rduction du volume soumis au contrle de lenvironnement dans le centre de donnes. Les Pod sont des zones fermes et scurises contenant un ensemble spcifique de cabinets / racks qui sont fournis avec le niveau requis de contrle de lenvironnement (comme le montre la Figure 17 et Figure 18). Lun des avantages dune telle solution est que ces zones peuvent tre installes lextrieur des salles informatiques, puisquembarquant leur propre environnement technique.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

38

Figure 17: Le concept de pod

Figure 18: Pod lintrieur dune salle informatique

7.2.2.2 Rduction des pertes thermiques dans des armoires / racks


Des amliorations potentielles dans lutilisation dnergie dtailles au paragraphe 7.2.2.1 peuvent tre induites par la mise en place de panneaux occultants (blanking panels) lavant et larrire des baies aux emplacements o des quipements ne sont pas installs ou ont t enlevs - ce qui cre dimportantes pertes dair froid contenu dans le rack et contribue une gestion inefficace du refroidissement, comme indiqu dans la figure 19. Cette approche implique trs peu de dpenses et est capable dobtenir une rduction rapide de la consommation dnergie.

Figure 19: Installation de panneaux occultants

ETSI

39

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

7.2.3 Modification de la temprature et de lhumidit


7.2.3.1 Gnral
Laugmentation de la temprature et lajustement des niveaux dhygromtrie dans les salles informatiques, sans violer les spcifications des fournisseurs, permettent des rductions substantielles dans la consommation dnergie associe au contrle de lenvironnement sans Capex significatif. Le niveau de rduction dpend de certains facteurs fondamentaux tels que la taille de la salle et le ratio doccupation. La norme ETSI EN 300 019 dfinit la classification environnementale pour les quipements de rseaux et de tlcommunications. Le Code de Conduite europen [4] demande aux fournisseurs de changer la fourchette actuelle des tempratures de service applicables aux quipements IT et de fait, de sapprocher ou dadopter les mmes que celles requises pour les quipements de rseaux de tlcommunications dfinis dans la norme EN 300 019-1-3 [11]. Des expriences ont t menes par certains grands oprateurs de tlcommunications afin de dterminer limpact de laugmentation de la temprature moyenne dans les salles informatiques, sans violer les spcifications des fournisseurs.

7.2.3.2 Les rsultats de lexprimentation


Lexprience dcrite ci-dessous a t ralise dans un centre de donnes dun oprateur de tlcommunications Paris. Dtails de lexprience: Le centre de donnes est compos de 1 000 m2 de salle informatique pour lexploitation de systmes non critiques (dveloppement, sauvegarde, etc.) au sein duquel la dissipation de chaleur tait comprise entre 300 W/m2 et 1 500 W/m2. Le matriel informatique comprend des serveurs, des baies de disques, de la robotique et des quipements de rseau dont la plage de temprature de fonctionnement est comprise entre 18 C et 28 C - 30 C (selon les spcifications du fournisseur). Cette plage de temprature de fonctionnement est plus restrictive que la norme EN 300 019-1-3 [11] applique aux quipements de rseaux de tlcommunications. Le refroidissement de la salle informatique a t fourni par air froid (en mode recyclage) via sept units sches (80 kW par unit) et la consommation dnergie pour le refroidissement de lair tait comprise entre 40% et 60% de la consommation totale dnergie. Linstrumentation de mesure comprenait 40 capteurs de temprature et dhygromtrie (mesure toutes les 5 min) couple une mesure de la consommation dnergie pour la fourniture de lair de refroidissement. Le premier changement dans les conditions environnementales est dfini dans le tableau 13. Cela a abouti rduire la consommation dnergie de 12% sans dfaillance oprationnelle depuis 2007. Cest ce que montre la figure 20.
Tableau 13: tape 1 - changements dans les conditions environnementales

Figure 20: Temprature de la salle informatique et conomies dnergie ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

40

La deuxime tape de changement des conditions environnementales est dfini dans le tableau 14. Cela a abouti rduire la consommation dnergie de 20%, sans dfaillance oprationnelle depuis 2007. Cela est galement montr dans la figure 20.
Tableau 14: tape 2 - changements dans les conditions environnementales

7.2.3.3

Priode avant que le systme ne sarrte lectriquement

De nombreux types dquipements de technologie de linformation subissent un arrt automatique lorsque les tempratures dpassent les spcifications dexploitation maximale de la temprature (gnralement 30 C ou 32 C) recommandes par les fournisseurs. Le temps disponible pour rparer et / ou redmarrer les units de refroidissement avant que larrt automatique ne se produise est une proccupation oprationnelle majeure des responsables de Production. Le temps de rparation est dfini comme tant lintervalle entre une dfaillance totale du systme de conditionnement dair (sans redondance) et le moment o la temprature dans la pice atteint la limite fonctionnelle maximale. Elle dpend dun certain nombre de variables dont les plus importantes sont: la superficie et le volume de la salle / espace refroidir; le contenu de lespace / salle; la quantit et le type de matriel informatique (racks, serveurs, etc) et la consommation lectrique globale; le type, le nombre et la capacit des units CRAC; la redondance du systme de climatisation; la temprature de fonctionnement de la salle. Dans les cas o la demande totale de refroidissement des quipements est trs leve, le temps de rparation peut tre court et tre encore rduit si des tempratures de fonctionnement plus leves sont appliques. La figure 21 montre les rsultats des travaux exprimentaux (bas sur le calcul et lobservation des faits rels) dans une salle informatique ayant les caractristiques suivantes: charge thermique: 362 kW; superficie de la salle informatique: 1 080 m2 (charge thermique par unit de surface: 335 W/m2); volume de la salle informatique: 3 240 m3 (charge thermique par unit de volume: 112 W/m3); Units de refroidissement: un systme de climatisation fonctionnant en mode recyclage pur (pas de refroidissement de type air cooling ). Sept units sches froides (chacune avec une puissance frigorifique de 80 kW) sont utilises, associes sept units de traitement dair. Lair froid est souffl travers les dalles perfores du plancher et les sorties dair chaud passent travers le plafond.

ETSI

41

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Figure 21: Exemple montrant les effets de la temprature de fonctionnement sur le time to repair

La figure 21 montre clairement que laugmentation de la temprature de fonctionnement rduit considrablement le temps avant que le systme ne steigne. Il sagit dune proccupation vidente pour les responsables informatiques et les gestionnaires de lexploitation des centres et peut conduire ce que cette approche de la rduction de la consommation dnergie soit ignore. Cependant, une varit dapproches peut tre applique pour fournir de plus faibles rsultats, mais nanmoins significatifs en terme dconomie, notamment: Sparation des quipements stratgiques et mission critical des autres activits moins critiques. Augmentation de la temprature de fonctionnement et diminution de lhumidit uniquement pour ces zones moins critiques; Sparation des quipements du rseau de tlcommunications des quipements IT. Application de laugmentation de la temprature de fonctionnement et de lhumidit uniquement pour les zones contenant les quipements de rseaux de tlcommunications. NOTE: De telles sparations ne seraient pas requises et des conomies plus importantes seraient possibles si les fournisseurs de matriel informatique modifiaient leur cahier des charges dexploitation conformment ceux des quipements rseaux de tlcommunications, tel que demand par le Code de Conduite europen [4].

7.2.3.4

Restrictions sur la mise en oeuvre

Dans un centre de donnes Tier 4 du Uptime Institute, le risque encouru par une dfaillance du systme de refroidissement est rduit par la prsence de systmes redondants de contrle de lenvironnement et des quipements de distribution lectrique. Les risques associs au fonctionnement des quipements IT et des quipements de rseaux de tlcommunications sont galement rduits au minimum. Toutefois, dans les centres de donnes rpondant aux exigences de Tier plus faible du Uptime Institute, ces risques et leurs effets sur les activits supportes par le centre de donnes doivent tre analyss.

7.2.4 Autres mcanismes de refroidissement


7.2.4.1 Refroidissement libre Free cooling
Si lopportunit existe et les conditions extrieures le permettent, la rintroduction dair extrieur froid (free cooling) ou deau refroidie par lair extrieur (tour de refroidissement) est une approche qui doit tre considre pour rduire la consommation dnergie sans Capex lourds. Le free cooling utilise des conditions externes de temprature de lair ou de leau pour le refroidissement des salles informatiques en introduisant lair frais dans la salle informatique par des mthodes traditionnelles. Cela peut produire des rductions significatives de consommation dnergie et a un effet direct sur lamlioration du PUE (car le refroidissement peut reprsenter de 35% 45% de la consommation totale dnergie). Il y a deux approches principales pour le free cooling: A air libre: bas sur les tempratures de lair extrieur du btiment contenant le centre de donnes; A eau, utilisation de sources deau froide existantes: mer, lac, rivire ou autres.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

42

La combinaison idale de climat se situe dans la fourchette de 22,5 C 22,7 C et de 45% 50% dhumidit relative sans cart irrgulier dans lun ou lautre des deux paramtres. Si les fournisseurs de matriel informatique devaient adopter la spcification environnementale oprationnelle applique aux quipements de rseaux de tlcommunications (voir lEN 300 019-1-3 [11]) la priode durant laquelle le refroidissement libre pourrait tre appliqu et lconomie rsultante (voir tableau 16 ) augmenterait de faon gnrale. NOTE: Le contrle de lenvironnement optimal sera ralis en contrlant les conditions environnementales aussi prs que possible de ladmission et de lchappement au niveau du rack. Lefficacit et, par consquent, lutilisation du refroidissement libre sont dtermines par deux facteurs climatiques principaux indpendants des locaux du centre de donnes: la temprature moyenne annuelle de lair (La figure 22 montre les tempratures moyennes dans le monde); lhumidit relative moyenne annuelle.

Figure 22: Tempratures moyennes dans le monde

La rduction totale de la consommation dnergie est directement lie aux conditions climatiques extrieures. La rduction potentielle est proportionnelle la dure totale pendant laquelle les conditions environnementales extrieures correspondent aux conditions idales. Le tableau 15 fournit une mthodologie pour valuer les conomies dnergie par lutilisation de refroidissement libre. NOTE: 100% dadquation des conditions climatiques ne correspondent pas 100% de rduction de la consommation dnergie puisque le reste de linfrastructure de refroidissement tel que les refroidisseurs, les UTA, les pompes et les ventilateurs sont toujours ncessaires et consomment de lnergie (seulement les batteries frigorignes sont inactives). F dans le tableau 15 est typiquement de 0,6 (tel quil est utilis dans la figure 16 et figure 23). Le tableau 16 et la figure 23 montrent le rsultat dune srie dexemples utilisant cette mthodologie.
Tableau 15: Profil des conomies lies au free cooling
Consommation totale d'nergie du systme de contrle de l'environnement Nombre total d'heures par an Nombre d'heures de conditions de concordance durant l'anne Fraction de la consommation d'nergie du systme de contrle de l'environnement rendu inactive pendant les priodes de conditions de concordance % De free cooling potentiel par an Economie % du potentiel de free cooling Economies sur le refroidissement

W 8 760 H F P R P=(H/8760) R=PxWxF

ETSI

43

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Tableau 16: Exemples dconomies par free cooling


Nbre potentiel dheures de free cooling (heures[jours]/an) 1 000 [42] 2 000 [83] 3 000 [125] 4 000 [167] 5 000 [208] 6 000 [250] 7 000 [292] 8 000 [333] 8 760 [365] % de free cooling par an (H/8760) 11,42 % 22,83 % 34,25 % 45,66 % 57,08 % 68,49 % 79,91 % 91,32 % 100,00 % Economie sur la charge de refroidissement (P x W) 4,22 % 8,45 % 12,67 % 16,89 % 21,12 % 25,34 % 29,57 % 33,79 % 37,00 % Economies totales dnergie (R) 2,53 % 5,07 % 7,60 % 10,13 % 12,67 % 15,20 % 17,74 % 20,27 % 22,20 %

Figure 23: Economies potentielles grce au Free cooling

7.2.4.2

Refroidissement direct par liquide

Cette rubrique est inclue dans ce document par souci dexhaustivit mais sera dcrite dans des tudes futures.

7.2.4.3

Technologies mergentes (chssis auto refroidi ou le refroidissement au niveau de la puce - chip )

7.2.4.3.1 Refroidissement sur la puce Cooling-on-the-chip


Cette prochaine gnration de technologie vise appliquer directement le refroidissement au niveau des semi-conducteurs dans des quipements tels que les serveurs. Les fabricants de matriel travaillent sur ces technologies qui permettraient des amliorations significatives de lefficacit nergtique.

7.2.4.3.2 Chssis auto refroidi - Auto-cooled chassis


Ils existent dj des chssis ou des armoires qui contiennent des systmes de refroidissement intgrs par air ou par liquide.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

44

7.2.5 Amliorations des systmes de refroidissement


Les amliorations suivantes des systmes de refroidissement impliquent de forts Capex et Opex et prsentent un risque important en termes de continuit dactivit et de qualit de service durant la phase de mise en uvre: a) installation de gestionnaires haut rendement de la vitesse de lair des ventilateurs et de pompes eau rfrigres b) optimisation de la configuration du flux dair du centre de donnes; c) installation dunits de traitement dair (CRAC) haut rendement; d) calibrage / redimensionnement des systmes de refroidissement et de la configuration de la redondance pour maximiser lefficacit; e) augmentation de la diffrence de temprature entre lapprovisionnement deau rfrigre et le retour afin de permettre une rduction des dbits deau rfrigre.

Exigences des infrastructures pour optimiser lefficacit nergtique

La mise en uvre dune planification efficace des voies et des espaces, conformment la norme EN 50174-1 [8] et aux aspects spcifiques aux centres de donnes de la norme EN 50174-2 [9] vise maximiser lefficacit nergtique des systmes de contrle environnementaux. Les principaux aspects sont: lutilisation de cblage gnrique conduisant une croissance structure et des branchements travers des distributeurs par opposition des liaisons ad hoc directes point point dans la salle informatique (sauf dans des zones localises); lutilisation des approches alles chaudes et froides ou de POD combine avec des exigences dtailles et des recommandations pour garantir que lair froid atteint lemplacement prvu et que les chappements ne soient pas obstrus.

Amlioration de lefficacit nergtique des systmes de distribution dnergie

9.1 Gnral
Ce chapitre dcrit les approches qui peuvent tre employes pour accrotre lefficacit nergtique des systmes de distribution dnergie dans les centres de donnes. Certaines de ces approches sont applicables aux centres de donnes existants tandis que dautres sont plus susceptibles dtre appliques dans de nouveaux centres de donnes. De plus amples dtails sont fournis dans les chapitres 10 et 11. La figure 24 montre les systmes de distribution dnergie dans le centre de donnes depuis larrive lectrique gnrale jusquaux quipements rseaux et IT. Chaque composant du systme de distribution de lalimentation a un rendement prcis et mesurable en terme defficacit nergtique.

ETSI

45

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Figure 24: Systme de distribution lectrique

Les actions visant accrotre lefficacit du systme de distribution dnergie dans un centre de donnes existant, sauf pour des actions telles que le dploiement de solutions logicielles spcifiques pour la gestion de lnergie, exigent dimportants investissements Capex et ne sont pas sans risque pour la continuit des activits. Les indications de limpact de certaines de ces actions dans ce domaine de lefficacit nergtique sont prsentes dans lannexe A.

9.2 Onduleurs ASI (UPS)


9.2.1 Efficacit
Les technologies donduleurs les plus courantes sont de type line interactive et double conversion (voir figure 25). La technologie donduleur tels que delta conversion est reconnue mais est une technologie propritaire dun fournisseur spcifique.

Figure 25: Technologies donduleurs

LIEC dfinit lefficacit dun onduleur comme tant le rapport de la puissance de sortie sur la puissance dentre sous des conditions dexploitation dfinies. Comme le montre la Figure 26: un onduleur est gnralement plus efficace lorsquil est utilis pleine charge; la technologie line-interactive est plus efficace que la double conversion pour des raisons lies la charge dentre.
ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

46

Figure 26: Efficacit des onduleurs

Toutefois, les donnes de la figure 26 sont bases sur la moyenne des valeurs de performance spcifies par les fournisseurs principaux donduleurs et ont t consignes dans un rapport de Ecos Consulting Solutions EPRI [10]. Lefficacit des diffrentes technologies varie considrablement. Par exemple: 50% de charge, la technologie la plus efficace est la technologie ligne interactive (avec une efficacit de 98%); la technologie double conversion est la moins efficace; en gnral, les onduleurs fonctionnant au del dune charge de 50% ont une bonne efficacit. En dessous de 40% lefficacit baisse de faon trs significative (voir figure 26). Dans de nombreux anciens centres de donnes, les onduleurs sont installs avec une capacit maximale anticipant les besoins futurs. Il nest pas rare que cette capacit ne soit jamais atteinte. En outre, les exigences de redondance favorisent aussi le fonctionnement des onduleurs en dessous de leur pleine capacit. Dans le cas dune configuration de redondance 2N (indpendante de la technologie onduleur), il est toujours ncessaire de grer lalimentation de sorte que les systmes soient chargs au-del de 50% de la capacit. De fait, chaque modle 2N fonctionne en dessous de son efficacit maximale. Des systmes donduleurs modulaires (voir paragraphe 9.2.2) permettent dadapter la capacit la demande et damliorer ainsi lefficacit nergtique. Les deux types donduleurs peuvent tre combins, soit dans une mme zone, soit dans des zones diffrentes du centre de donnes. Certains utilisent un onduleur traditionnel pour leur source dnergie principale et utilisent des onduleurs plus petits, modulaires, comme seconde source dnergie pour leurs matriels les plus critiques et apportent une redondance de type 2N sans encourir des cots importants pour lensemble du centre de donnes.

9.2.2 Onduleurs modulaires


Dans les centres de donnes existants, les onduleurs utilisent couramment la technologie double conversion , comme le montre la figure 25. Cela signifie deux conversions (AC-DC et DC-AC) gnrant des pertes dnergie. Rcemment, les fournisseurs ont commenc offrir des modules plus petits ( partir de 10 kVA 50 kVA) pour construire des systmes donduleurs modulaires. Le principal avantage de lapproche modulaire est la facult augmenter les capacits en tenant compte des besoins rels (avec un calibrage initial). Ces modules sont connectables chaud et peuvent tre retirs pour un change ou une maintenance. Les systmes modulaires sont aussi gnralement conus pour recevoir un module de plus que ncessaire que leur capacit nominale, ce qui les rend N +1 prt un cot moindre que les grands systmes donduleurs classiques. Correctement utiliss, les systmes donduleurs modulaires fonctionnent avec une plus grande efficacit car ils peuvent tre utiliss dans des plages proches de leur capacit nominale maximale (voir figure 26). La principale proccupation concernant les onduleurs modulaires est la fiabilit car la probabilit de dfaillance augmente avec le nombre des composants employs.

ETSI

47

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Figure 27: Exemple donduleurs modulaires de technologie ligne interactive

9.3 Solutions damlioration de lefficacit nergtique


9.3.1 Mesure de lefficacit nergtique des quipements existants
Implique une revue en terme defficacit nergtique des quipements de la chaine de distribution dnergie existante. Cela peut tre entrepris sans investissement significatif en terme de Capex.

9.3.2 La capacit de gestion de lnergie


Implique lutilisation doutils de gestion de la capacit lectrique afin doffrir une utilisation plus efficace de la consommation. Ncessite dimportants Capex (pour le matriel de surveillance) et OPEX. La mise en uvre de la gestion de la capacit lectrique peut gnrer des rductions immdiates en termes de consommation, sans aucune modification des composantes de distribution dnergie et sans aucun risque pour la continuit des activits.

9.3.3 Examen de la politique


9.3.3.1 Gnral
La mise en uvre damliorations dans lefficacit nergtique en changeant la politique de distribution (tel que AC vers du HVDC) a une incidence sur le matriel utilis et peut reprsenter des investissements (Capex) significatifs ainsi quun risque pour la continuit des activits. De tels changements ne peuvent tre recommands pour des centres de donnes existants.

9.3.3.2

HVDC versus AC

LETSI a publi un document EN 300 132-3 [12] qui traite de la distribution dnergie en 400 V continu (DC). Des essais de HVDC ont t entrepris au niveau international par un certain nombre dorganisations telles que les constructeurs de matriel de distribution dnergie, les fournisseurs de matriel, des laboratoires, universits et les R&D dentreprises. Ces essais dmontrent clairement quil existe un intrt pour investiguer plus amplement la fourniture de 400 V en continu (DC) directement dans les quipements IT. De nombreux documents, tudes et normes suggrent que la fourniture de courant continu peut gnrer des conomies de 5% 15% selon plusieurs conditions. Techniquement, les serveurs des fournisseurs principaux pourraient accepter directement du 400 V continu.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

48

Lun des problmes principaux concerne les rgles de scurit lies au travail dans un environnement HVDC (ce qui est assez inhabituel dans le monde IT). Raliser la maintenance et les interventions techniques sur une chane dalimentation en courant continu est beaucoup plus coteux que sur une chaine en courant alternatif, en raison dun manque de comptences sur le march. Le prsent document juge quil est trop tt pour prendre une position dfinitive sur lutilisation du HVDC et que les travaux entrepris, les rsultats des essais et les annonces des principaux acteurs (fournisseurs, fabricants) seront examins avant que dautres recommandations soient faites. NOTE: Plusieurs instituts de normalisation travaillent dans des domaines pertinents tels que: HVDC 400 volt, connecteurs et coupes circuits scuriss.

9.3.4 Les quipements de distribution hautement efficaces


Implique linstallation dquipements individuels de distribution dnergie avec des spcifications defficacit nergtique amliore. Des exemples typiques incluent: des units de distribution de puissance hautement efficaces, des moteurs haut rendement dans les ventilateurs et les pompes; des onduleurs montrant une efficacit amliore sur toute la plage de charge, des onduleurs de type rotary-based (roue inertie), un dimensionnement correct de la distribution dnergie et de la conversion pour optimiser lefficacit. Ces solutions constituent dimportants Capex et un risque pour la continuit des activits.

9.3.5 Alimentation de secours


Lutilisation sur site dun gnrateur dnergie (le plus souvent un groupe lectrogne) en secours de la principale source dnergie lectrique namliore pas lefficacit nergtique. Il est destin fonctionner dans des situations de crise o lobjectif est de revenir un fonctionnement normal aussi rapidement que possible. Noter que les infrastructures dalimentation de secours doivent tre conues pour fournir 100% des besoins nergtiques pour une priode dtermine et non ngligeables (par exemple 72 heures minimum).

10 Lefficacit nergtique dans les centres de donnes existants


Le tableau 17 montre les actions court et moyen terme qui peuvent tre mises en uvre pour amliorer lefficacit nergtique dans les centres de donnes existants en rfrence aux numros de clause du prsent document.
Tableau 17: Actions court et moyen terme au sein de centres de donnes existants
Technologies actions court terme 6.3.1 6.3.2 6.3.3.2 6.3.3.3 6.3.4 7.2.1 7.2.2.1 7.2.2.2 7.2.3 7.2.4.1 8 9.3.2 actions moyen terme

Infrastructure IT

Systme de contrle de lenvironnement Infrastructure physique Distribution dnergie

7.2.5

9.3.3 9.3.4

ETSI

49

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

11 Lefficacit nergtique dans les nouveaux centres de donnes


11.1 Gnral
Ce chapitre dtaille les domaines qui ncessitent dtre considrs lors de la conception, linstallation et lexploitation dun centre de donnes afin de maximiser les conomies sur la consommation dnergie et de rduire son empreinte carbone. Bon nombre des solutions dtailles dans les chapitres 6, 7, 8 et 9 sont applicables durant la conception dun nouveau centre de donnes. Toutefois, il est clair que la conception et le fonctionnement de la plupart des centres de donnes hautement efficace nergtiquement requirent une approche multidisciplinaire. Chaque discipline contribue dans son propre domaine rendre lutilisation de lnergie plus efficace plutt quune initiative spcifique concernant un seul domaine. Chaque aspect du centre de donnes requiert une tude dtaille, allant de son emplacement jusquaux actions de consolidation, lutilisation doutils et de processus adapts pour surveiller les aspects oprationnels du centre de donnes. Le processus est dcrit schmatiquement dans la figure 28.

Figure 28: Le chemin vers lefficacit nergtique dans les centres de donnes

11.2 Approche multidisciplinaire


11.2.1 Localisation
La slection dun emplacement est lie en premier par la disponibilit et la qualit dalimentation en nergie. La lgislation nationale ou locale, la rglementation et les contraintes concernant les btiments industriels influencent le choix de lemplacement des nouveaux centres de donnes. Toutefois, les facilits offertes par les autorits locales telles que des rductions fiscales, des subventions, des bonus verts ont aussi une influence. Le choix de lemplacement est fondamental en ce qui concerne les lettres de crance vertes bases sur les critres et impacts suivants: la disponibilit de sources dnergie vertes comme le solaire, lolien ou lhydraulique; NOTE 1: Lnergie solaire ou olienne ne garantit pas la continuit requise pour un centre de donnes mais peut reprsenter une partie non ngligeable de lnergie quand les conditions appropries sont respectes. la nature de lnergie (renouvelable ou non), ses cots, sa qualit et la disponibilit dnergie de secours; le type de matriel utilis pour le btiment (murs, toit, fentres, etc);
ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

50

la proximit dun aroport, dun port, de gares, dautoroutes - qui a des consquences sur les frais de port et sur les missions de CO2 lies aux transports. La slection dun emplacement est importante pour lefficacit nergtique car les conditions climatiques auront une influence sur le refroidissement (rduction du besoin de refroidissement). NOTE 2: En cas de refroidissement par eau libre (free water), la proximit dune rivire, dun lac, dune mer, ou dune autre source deau froide sera un facteur principal. Dans un tel cas, les inondations ou les risques de tsunamis doivent tre pris en compte.

11.2.2

Sources dnergie

11.2.2.1 Energie principale


Dans le cas dun centre de donnes Tier 4 de lUptime Institute, deux sources distinctes dnergie, provenant de deux centrales loignes ou de deux diffrentes sources dnergie sont ncessaires, ce qui limite considrablement les zones potentielles demplacements du monde qui peuvent accueillir de tels centres de donnes.

11.2.2.2 Energie secondaire


Lnergie de secours doit tre dimensionne pour couvrir 100% des besoins du centre de donnes pour une priode dtermine et la fourniture doit tre faite sur place avec des gnrateurs ou dautres solutions dnergie renouvelable.

11.2.3

Conception du btiment

La spcification dun immeuble abritant un centre de donnes est directement influence par son emplacement. Lorientation du btiment ainsi que les proprits disolation thermique des murs, toits, fentres, ont un effet significatif sur la demande de puissance associe un contrle environnemental de lintrieur du btiment. Les normes europennes pour les btiments nergtiquement efficaces sont en prparation. Des approches nationales existent pour les btiments nergtiquement efficaces telles que HQE (Haute Qualit Environnementale) pour la France et LEED (Leadership in Energy and Environmental Design) aux Etats-Unis.

11.2.4

Conception interne

Afin de maximiser le rendement nergtique global, la structure interne et la configuration du centre de donnes doivent tre tudis afin de sassurer que la puissance et les ressources appropries pour le contrle de lenvironnement soient appliques dans les diffrentes zones. Les zones minimales identifiables au sein du centre de donnes sont les suivantes: Les salles informatiques (permettant principalement lhbergement des quipements IT). Les salles de rseaux de tlcommunications (pouvant accueillir des quipements de rseaux de tlcommunications). Les salles techniques (onduleurs, batteries, etc). Chacune delles, ainsi que toutes autres salles et les espaces, doivent tre tudis par rapport aux demandes en terme dnergie lectrique et de refroidissement et ce, en fonction de leur taille et des conditions environnementales oprationnelles. Le processus de conception interne doit galement couvrir limpact sur le systme de refroidissement des servitudes ncessaires dans les espaces. Pour appuyer cette activit, la conception des cblages du centre de donnes est spcifie dans la norme EN 50173-5 [7] et EN 50173-2 [6] et la planification et linstallation du cblage sont spcifies dans la norme EN 50174-1 [8] et EN 50174 -2 [9].

ETSI

51

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Figure 29: Exemple schmatique dun centre de donnes Tier 3 de lUptime Institute

11.2.5

Energie et refroidissement

Lintroduction de systmes haut rendement de distribution dnergie et des composants tels que dcrits dans les chapitres 9.3.3 et 9.3.4 a un effet direct sur la demande dalimentation externe pour supporter les quipements IT et rseaux de tlcommunications, mais na pas deffet automatique sur le PUE moins dtre accompagn par une amlioration de la demande dlectricit des systmes de contrle de lenvironnement. Lutilisation de la rfrigration gratuite telle que dcrite lalina 7.2.4.1 reprsente la principale mthode damlioration de PUE dans les centres de donnes de nouvelle gnration. La rduction de lnergie implique dans le contrle environnemental par le biais de laugmentation de temprature et dhumidit de fonctionnement tels que dcrits lalina 7.2.3 aura galement un effet direct sur le PUE.

11.2.6

Linfrastructure IT

Linfrastructure informatique des nouveaux centres de donnes doit: tre conue pour maximiser lagilit, lvolutivit et tre base sur une infrastructure commune partage; adopter les technologies matrielles les plus efficaces proposes par les fournisseurs (exiger des fournisseurs de prouver lefficacit relle de leurs technologies et leurs impacts sur le centre).

Figure 30: Couches dinfrastructure IT

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

52

Indpendamment du niveau Tier Uptime Institute, un nouveau centre de donnes comprendra une combinaison de: une architecture base sur des racks utilisant des serveurs trs puissants devra tre place dans des zones forte densit en utilisant, au minimum des alles froides couvertes avec planchers surlevs (comme dcrit dans le chapitre 7.2.2.1.3) ou des pods (tels que dcrits dans le chapitre 7.2.2.1.5). Cela signifie que la taille de la salle informatique nest pas un critre principal, mais que la plus grande proccupation est de positionner les bonnes ressources au bon endroit. Pour ces zones, lindicateur le plus appropri est le rapport entre la puissance totale fournie au rack par la puissance totale de calcul (cest dire x kW y TPM-C, prsent en 5.3.2.1); des serveurs ou mainframe Unix, qui ont les mmes problmes que les racks, consommant beaucoup dnergie dans un espace restreint et avec une dissipation de chaleur importante; Dautre type dquipements tels que la robotique, le stockage, les quipements de rseaux de tlcommunications, ou les serveurs non racks qui peuvent tre logs dans des salles informatiques traditionnelles pour lesquels le bon critre est le kW / m 2 (voir clause 5.3.2.1). Il convient de noter que les baies de stockage, en raison dune densit accrue, ont des besoins nergtiques proches de ceux des serveurs. On calcule un besoin moyen de 300 W par traoctet. (Par exemple, la dernire gnration de baie de disques peut avoir plus de 100 To de capacit sur quelques mtres carrs). Une tendance future pour la prochaine gnration du stockage sera le stockage sans disque (stockage SSD), mais les cots rels de ces solutions compars avec la technologie de disques actuelle, ne les rendent pas attractives pour les entreprises.

11.2.7

Logiciels

Les logiciels de gestion dinfrastructure apportent certains avantages dans la manire de grer plus efficacement les besoins nergtiques et davoir une vision claire du potentiel de puissance au sein dune salle informatique, dans un rack ou dans un serveur. Mme constat si certains outils de mesures thermiques sont mis en uvre dans la salle informatique. Cela permet de visualiser les zones chaudes dans la salle ou dans un rack et de proposer des modlisations pour une meilleure conception de la salle informatique. Cela contribue lamlioration de lefficacit de lutilisation de lnergie pour le refroidissement.

11.2.8

Processus

Deux grands types dactions doivent tre lancs. Tout dabord, un programme de consolidation globale visant rduire le nombre de composants techniques et logiques, qui sont la cause principale des dpenses dnergie (voir le sujet sur les mthodes de consolidation). En second lieu, un ensemble doutils dautomatisation pour les oprations dans le centre de donnes. Le centre de calcul de nouvelle gnration doit tre considr comme une Usine Services qui fournit le bon service, avec les bonnes ressources, au bon moment et avec le bon niveau de scurisation. Cela signifie que toutes les tapes oprationnelles doivent tre automatises - de lapprovisionnement des ressources la manire dont les applications sont gres par lExploitant. Les meilleures pratiques ITIL (IT Information Library) sont essentielles pour une bonne gestion de lIT et du centre. Les processus ITIL suivants participent lefficacit nergtique: Asset Management pour savoir ce qui est utilis dans linfrastructure IT; Capacity Management - gestion de la capacit pour mesurer ce qui est utilis et plus prcisment les besoins des applications; Service Level Management pour fournir le bon niveau de service une application.

ETSI

53

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

12 Conformit
12.1 Les centres de donnes existants
Pour se conformer au prsent document, lvaluation qui suit doit tre entreprise: A: Consommation totale dnergie du centre de donnes. B: Charge de calcul totale. KPI = B/A. Pour atteindre la conformit minimale sur une priode de temps, le KPI doit montrer une amlioration de 15% par rapport lindicateur de performance cl (KPI) dorigine. Pour atteindre la conformit de base sur une priode de temps, le KPI doit montrer une amlioration de 25% par rapport lindicateur de performance cl (KPI) dorigine. Pour atteindre la conformit amliore sur une priode de temps, le KPI doit montrer une amlioration de 50% par rapport lindicateur de performance cl (KPI) dorigine.

12.2 Nouveaux centres de donnes


Pour se conformer au prsent document: La cible PUE doit tre calcule conformment au chapitre 5.3.1. Les quipements et les processus doivent tre tablis pour permettre la mesure de la consommation lectrique en diffrents points afin de dterminer le PUE (cest dire de dterminer les valeurs comparatives vues au chapitre 5.3.1). Le PUE initial est peu susceptible de correspondre au PUE cible mais devrait rduire et atteindra le PUE cible lorsque la charge totale de calcul correspondra celle de la cible base sur les hypothses du plan. Sauf sil y a des changements dans les applications ou la performance du centre de donnes qui justifient de recalculer la valeur cible, le PUE rel du centre de donnes bas sur la charge de calcul totale, continuera de respecter ou de dpasser la valeur cible. De nouveaux centres de donnes doivent tre conus avec un objectif de PUE faible, ce qui signifie que chaque aspect de la conception doit tre tudi, depuis la localisation o le centre de donnes doit tre construit jusqu la faon dont les applications seront exploites dans le centre de donnes. Ceci couvre galement les plans futurs des fournisseurs pour amliorer lefficacit nergtique des quipements, comme le refroidissement direct de la source de chaleur au niveau de la puce. Lvaluation des besoins en nergie, en terme dnergie par mtre carr, ne sera plus approprie, en raison des besoins localiss de quelques racks individuels (peut-tre de 40 kW 100 kW en 2012). Quelques zones fermes spcifiques haute densit (pod) devraient tre construites lintrieur du centre. En parallle, un programme de rationalisation du systme dinformation (IS) devrait tre lanc, afin de rduire au minimum le nombre dapplications, de systmes dexploitation et la complexit, car ce sont souvent les causes principales de la consommation excessive dnergie. Un tel travail sur la complexit fonctionnelle est lapproche la plus bnfique pour maximiser lefficacit nergtique.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

54

13 Recommandations
13.1 Les centres de donnes existants
13.1.1 Gnral
Il y a trois conduites dapproches concernant la gestion de lnergie dans un centre de donnes existant: La rduction du PUE (accrotre lefficacit); La rduction de la consommation dnergie (cot effectif); Lutilisation optimale des ressources existantes (environnement et / ou technique). Pour chacune, des approches de certaines actions spcifiques doivent tre entreprises. Il convient de noter que certaines actions auront des effets positifs par des approches multiples.

13.1.2 Rduction du PUE


En plus dtre conforme au chapitre 12.1, il est recommand que les quipements et les processus soient mis en place pour permettre la mesure de la consommation lectrique en diffrents points afin de dterminer le PUE (les valeurs comparatives de larticle 5.3.1). Toutes les actions visant rduire la consommation dnergie des systmes de refroidissement des infrastructures (refroidisseurs, ventilateurs, moteurs, pompes) et augmenter lefficacit nergtique du systme de distribution dalimentation (onduleurs, PDU, transformateurs), auront un effet positif sur le PUE. Il convient de noter que la plupart de ces actions sont coteuses et reprsentent un risque pour la continuit des activits.

13.1.3 Rduction de la consommation dnergie


En plus dtre conforme au chapitre 12.1, il convient de noter que les actions visant rduire la consommation nergtique des quipements IT (telles que la gestion de lalimentation, la gestion des capacits et les initiatives de consolidation) auront un effet positif sur la consommation dnergie et les cots nergtiques, mais pourront avoir un effet ngatif sur le PUE. Ces actions peuvent tre quilibres par les actions dans les salles informatiques telle que la sparation des alles, la hausse des tempratures de fonctionnement et le refroidissement naturel (free cooling).

13.1.4 Lutilisation optimale des ressources existantes


En plus dtre conforme au chapitre 12.1, des actions doivent tre entreprises afin doptimiser lutilisation des ressources existantes, comprenant la gestion de la capacit, la virtualisation et la consolidation logique afin daccrotre la charge de calcul des serveurs.

13.1.5 Zones haute densit


Les zones forte densit ne doivent pas crer de dsquilibre, ce qui aurait une incidence sur lcoulement dair et le refroidissement efficace des zones existantes. Dans les centres de donnes dentreprise, il est recommand de ne pas charger les racks pleinement et dquilibrer lutilisation des quipements de haute et basse densit au sein des lignes.

13.2 Nouveaux centres de donnes


13.2.1 Gnral
Pour un centre de donnes Tier 1 ou Tier 2, lobjectif de PUE devrait tre de lordre de 1,3 1,5 (DCIE 66,7% 76,9%). Pour un centre de donnes Tier 3 ou Tier 4, lobjectif de la PUE devrait tre de lordre de 1,6 2,0 (DCIE 50% 62,5%).

ETSI

55

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

NOTE: Lobjectif reflte lutilisation maximale de free-cooling comme indiqu dans le tableau 16 et les valeurs les plus leves de PUE sont pour les centres de donnes de Tier le plus lev et rpercutant la ncessit de la redondance des systmes de refroidissement et de distribution dnergie.

13.2.2 tude dimplantation


Cela devrait tre le principal facteur dans la planification des centres de donnes futurs. Suite une tude globale portant sur les risques (y compris naturels, politiques, conomiques, etc) le choix de lemplacement du centre de donnes aura un aspect dterminant sur tous les cots (Capex et Opex) comme suit: des lieux o les tempratures annuelles moyennes sont en mesure de fournir le potentiel maximum de free cooling, permettent de gnrer jusqu 60% dconomies dnergie sur le refroidissement; les exigences pour les infrastructures redondantes (alimentations spares utilisant des acheminements spares) imposent des contraintes sur lemplacement possible des centres de donnes de Tier suprieur.

13.2.3 Btiment
13.2.3.1 Extrieur
La nature des lments de la construction a un impact important sur la consommation dnergie. Le btiment devra se comporter ni comme une cocotte minute, ni comme une bouteille thermos. Le btiment devra tre construit selon des standards telles que les normes HQE et LEED.

13.2.3.2 Intrieur
Les centres de donnes devront tre conus avec diffrentes zones qui fourniront non seulement une meilleure efficacit nergtique mais aussi une minimisation des Capex et Opex, en considrant: des zones haute densit, traites sparment des autres zones, dans de petites salles spcifiques; des salles informatiques traditionnelles avec un ratio kW / m 2; la sparation des quipements mission critical et des quipements non stratgiques; des salles avec des conditions climatiques diffrentes relatives la criticit de lquipement et / ou des capacits de free cooling durant lanne. Ceci est illustr schmatiquement dans la figure 31.

Figure 31: Conditions denvironnement ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

56

13.2.4 Refroidissement
13.2.4.1 Systme
Il devrait y avoir un mlange de systmes traditionnels de refroidissement et de free cooling. La climatisation traditionnelle devrait tre rserve: aux zones ayant un besoin de refroidissement important, tels que les zones haute densit, les salles avec les quipements informatiques critiques et stratgiques; lorsque les tempratures ne sont pas compatibles avec le refroidissement gratuit. Dans tous les cas, les quipements de refroidissement devront tre nergtiquement efficace exigeant la dernire gnration de ventilateurs, de pompes et de moteurs.

13.2.4.2 Contrle de la temprature


La temprature moyenne dans les salles informatiques devrait reflter la criticit de lquipement ou des applications. Il nest pas recommand de maintenir les tempratures basses (18 C 20 C) dans les salles contenant le matriel non critique ou les quipements qui sont spcifis pour fonctionner conformment la norme EN 300 019-1-3 [11]. Lintroduction dune exigence de lETSI pour les quipements de technologie de linformation au sein de centres de donnes rseau, afin de se conformer la norme EN 300 019-1-3 [11], est critique pour permettre des rductions substantielles dans la consommation nergtique des systmes de refroidissement.

13.2.5 Infrastructure IT
13.2.5.1 Architecture et politique
La politique doit tre axe sur les composants partags de linfrastructure informatique. Telle que dcrite dans la figure 32, larchitecture devrait tre base sur des serveurs en lames pour les serveurs x86 et des serveurs Unix partitionnables haut de gamme ou des mainframes traditionnels pour le traitement de larges bases de donnes. Pour le stockage, une infrastructure commune partage devrait tre construite autour dune architecture SAN. Une politique de hirarchisation des donnes devrait tre adopte avec les supports physiques appropris (stockage faibles cots pour les donnes non critiques, baies de disques haut de gamme pour les donnes critiques).

13.2.5.2 Lautomatisation et la capacit de gestion


Comme dcrit dans la figure 33 tous les processus de fonctionnement doivent tre automatiss en utilisant des outils spcifiques, notamment: supervision; sauvegarde; haute disponibilit plan de reprise dactivit; inventaire - gestion des actifs; ordonnanceurs; outils de mtrologie (mesure); gestion de la capacit; utility computing outils dautomatisation des processus.

ETSI

57

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

13.2.6 Organisation - processus


Il est recommand que le centre de donnes soit considr comme une composante dun Service, pour laquelle il fournit un environnement technique et un ensemble de fonctionnalits spcifiques pour lexploitation et la surveillance de ces services, comme le montre la figure 32. Notez que les composants de linfrastructure technique et les couches logiques existent seulement parce que la prestation de services repose sur elles. Il est recommand que le centre de donnes soit considr comme une usine, garantissant la fourniture de services, avec un engagement de niveau de service, comme le montre la figure 33.

Figure 32: Architecture future des oprations internes dun centre de donnes

Figure 33: Le centre de donnes en tant que fournisseur de services

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

58

14 Perspectives futures
14.1 Gnral
Les fournisseurs de toutes les rgions envisagent de nouvelles solutions pour rpondre aux nouveaux besoins en matire de consommation dnergie, de refroidissement et de puissance de calcul et proposeront de futurs quipements qui intgrent ces exigences.

14.2 Energie
Produire autant que possible votre propre nergie verte si la lgislation ly autorise. Rutilisation au mieux de la chaleur perdue pour dautres usages. Passer en DC 400V (HVDC) si la diminution importante de consommation dnergie est prouve et teste. Choisir une nouvelle gnration dASI, affichant la meilleure efficacit.

14.3 Refroidissement
La possibilit de refroidissement par air libre ou de refroidissement par eau doivent tre une proccupation majeure pour les nouveaux centres de calculs et auront un grand impact au niveau du PUE. Le refroidissement liquide ou gaz directement dans les serveurs ou les chssis auto refroidis (dj utilis pour les mainframe) est tudier.

14.4 Energie du matriel informatique


Suivre les feuilles de route techniques des fournisseurs, sassurer dans tous les processus dachat et dapprovisionnement de lefficacit relle de lquipement: Serveurs: de nouvelles normes concernant les plages de temprature et lefficacit des composants (transformateurs, serveurs aliments en courant continu, refroidissement sur la puce, ventilateurs efficaces, gestion efficace et dynamique de la puissance, etc); Les baies de stockage, les bibliothques, etc; les commutateurs, les routeurs, les directeurs, les ports, etc

14.5 Logiciels, outils et re-engineering


Les centres de calcul doivent tre quips dun ensemble doutils et de compteurs afin de mesurer facilement et prcisment lefficacit. Ces mesures doivent permettre lidentification et le lancement dune srie dinitiatives concernant les infrastructures existantes, notamment: Les outils de mesure pour surveiller lactivit informatique (CPU, Mmoire, I / O, etc); La capacit de gestion de linfrastructure informatique (la bonne ressource au bon moment); Utility Computing (automatisation pour les processus) - inventaire, approvisionnement des ressources; La gestion de la charge de calcul des serveurs; La virtualisation le grid ; Les initiatives de consolidation.
ETSI

59

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

14.6 Les initiatives de consolidation.


Pensez la consolidation des serveurs, du stockage, et prparez une infrastructure commune partage pour les applications comme le montre la figure 32.

ETSI

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

60

Annexe A (informative): Effets des actions defficacit nergtique


Le tableau A.1 fournit des indications sur la rduction de la consommation dnergie en utilisant certaines des actions dtailles aux chapitres 6, 7 et 9. Les rductions montres sont uniquement de premier ordre. Elles ne montrent pas les changements associs dans un domaine rsultant dune action dans un autre domaine.
Tableau A.1: rductions indicatives dans la consommation dnergie
Actions Description Enlvement du matriel obsolte Gestion de l'alimentation des serveurs activation de mode veille Capacity management Virtualisation Consolidation logique rfrence IT infrastructures 6.2.1, 6.2.2 6.2.3.2.1 6.2.3.2.2 6.2.3.3 6.2.4.3 8 10 30 8 40 3,6 (see note 1) 4,5 (see note 1) 13,5 (see note 1) 3,6 (see note 1) 18,0 (see note 1) Court terme Court terme Court terme Court terme Court terme Court terme Long terme Typical savings (%) Dans le Global domaine Nature de l'action

6.2.4.4 45 20,3 (see note 1) 6.2.4.3, Consolidation fonctionnelle 6.2.4.4 60 27 6.2.4.5 Domaine: Systmes de refroidissement 7.2.2.1.2 Amlioration de l'efficacit de refroidissement 7.2.2.1.3 30 11,1 (see note 2) 7.2.2.1.4 Zones haute densit 7.2.2.1.5 25 9,3 (see note 2) Modification de la temprature et l'humidit Free cooling - airFree cooling - eau Chssis et puces auto-refroidis Accentuer la diffrence de temprature entre l'eau rfrigre et le retour Ventilateurs haute efficacit a vitesse variable Le calibrage / re-dimensionnement de la configuration de redondance HVDC Appareils haut rendement de distribution d'nergie Moteurs haute efficacit dans les ventilateurs et pompes Amlioration de l'efficacit des units UPS ASI base de tambours rotatifs Gestion des capacits electriques 7.2.3 7.2.4.1 7.2.4.1 7.2.4.3 7.2.5 40 50 30 80 3 14,8 (see note 2) 18,5 (see note 2) 11,1 (see note 2) 29,6 (see note 2) 1,1 (see note 2)

Moyen terme Moyen terme Court terme Moyen terme Moyen terme Long terme Court terme

7.2.5

1,1 (see note 2)

Moyen terme

7.2.5

10

3,8 (see note 2)

Court terme

Les systmes de distribution d'alimentation lectrique 9.3.3 9.3.4 9.3.4 9.3.4 9.3.3 9.3.4 7 5 2 10 8 3 1,1 (see note 3) 0,8 (see note 3) 0,3 (see note 3) 1,5 (see note 3) 1,2 (see note 3) 0,5 (see note 3) Long terme Long terme Moyen terme Moyen terme Moyen terme Court terme

NOTE 1: Lhypothse sappuie sur une infrastructure informatique qui est au dpart de 37% de la consommation nergtique globale. NOTE 2: Le refroidissement reprsente initialement 45% de la consommation nergtique globale. NOTE 3: Les pertes dans les chanes de distributions lectriques constituent un premier temps 15% de la consommation nergtique globale. NOTE 4 : Les 3% restants sont llectricit tertiare du centre (lumires, bureaux, ascenseurs, )

ETSI

61

ETSI TS 105 174-2-2 V1.1.1 (2009-10)

Historique
Historique du document
V1.1.1 Octobre 2009 Publication

ETSI

A propos du cRiP
Le cRiP a ft sa deuxime anne dexistence le 16 novembre 2009
Ces deux premires annes ont t riches en contributions diverses : cration et animation de dix groupes de travail, cration dune cellule dintelligence conomique, publication de 4 livres blancs, cration dune Base Projets, organisation des trois plnires annuelles, mise en place du site web www.crip-asso.fr, de la Newsletter et prise en charge des comits de programme, des prsentations, des retours dexpriences, des tables rondes de la Convention annuelle du CRiP aux journes itiForums. Je voudrais remercier les membres du bureau et tous ceux, nombreux, qui ont particip aux groupes de travail. Cet excellent travail, en quipe, a contribu au large dveloppement de notre club utilisateur. Pour lavenir, nous voulons poursuivre et amplifier cette faon de procder au service des responsables dinfrastructure et de production, avec la volont affirme dtre un cercle de confiance rciproque. Nous souhaitons, ainsi, parfaire les matrises, partager les retours dexpriences, analyser et parvenir amliorer les organisations, les ressources humaines, les technologies, les approches financires du sI et les processus de dcision.

Le credo du cRiP : Indpendance par rapport aux fournisseurs et socits de consulting

Nous chercherons galement promouvoir et lgitimer les missions de ces responsables au sein de leur entreprise et dvelopper une approche pragmatique des Infrastructures et de la Production. enfin, nous nous appliquerons dvelopper la notorit du CRiP et faire en sorte que notre association devienne une rfrence vis--vis des fournisseurs du march. Nous devons nous attacher recruter de nouveaux membres tout en amplifiant notre politique volontariste de communication avec itiForums (Confrence, reportages Vidos, Cercle i, i Connect).

Jespre que cet esprit dquipe, construit tout au long de ces deux premires annes, nous conduira dvelopper ce lieu dchanges constructifs concernant nos proccupations quotidiennes, permettant chacun dapprcier le bien-fond de notre association. Nous sommes convaincus que vous serez nombreux nous rejoindre.
Philippe SeRSOT Prsident du cRiP CTO CA-CIB

Le cRiP (Association Loi 1901) compte 80 grandes entreprises ou entits utilisatrices des technologies de linformation, adhrentes ou en cours dadhsion. Il rassemble une communaut de plus de 450 membres, responsables dinfrastructure ou de production. Le cRiP est un cercle de confiance, lieu dchanges et dinformations entre les diffrents membres confronts aux mmes dfis financiers, technologiques et organisationnels.

Objectifs

- Etre plus performant dans les mtiers de linfrastructure et de la production - Partager nos visions et retours dexpriences - Echanger et travailler sur les technologies les ressources humaines les organisations et processus les approches financires des projets les relations avec les offreurs - Promouvoir notre fonction au sein des entreprises - Sappuyer sur les travaux du CRiP pour asseoir une position au sein de notre entreprise - Crer un rseau de communication rapide et efficace entre dirigeants.

Le Bureau excutif
Prsident : Philippe SeRSOT - CA-CIB - CTo Vice-prsidents : Marc LIMODIn LA BANQUe PosTALe Directeur des Techniques et Infrastructures Franois STePhAn - THALes Directeur Technique eric STeRn orANGe-FrANCe TeLeCoM responsable expertise environnement Technique nol cAVALIeRe PsA PeUGeoT-CITroN responsable de lArchitecture Technique Olivier MAuPATe - VALLoUreC IT Director claude cORIAT reNAULT responsable stratgie et Politiques Techniques Jean-Paul AMOROS - GeNerALI Directeur Infrastructures et support Pascal PIcchIOTTInO BoUYGUes TeLeCoM responsable Dpartement Infrastructure sI rseau Frdric DIDIeR CreDIT FoNCIer Directeur Production Informatique Secrtaire : Michel GROSBOST Trsorier : Gilles ALBeRT soCIeTe GeNerALe-PAeN Technology strategy Manager

Le mode de fonctionnement

Actuellement, dix groupes de travail thmatiques se runissent tout au long de lanne. Trois autres groupes sur les thmes Base de Donnes, Rseaux et Orchestration sont en cours de cration. Les travaux de ces groupes sont prsents lensemble des membres deux fois par an lors des plnires et loccasion de la Convention annuelle du CRiP au sein ditiForums.

10 groupes de travail sont actifs ce jour


STOCKAGE Anim par
Jean-Pierre DUMOULIN Directeur Technique Infrastructure PSA PEUGEOT-CITRON Objectifs : Identier et partager les bonnes pratiques dans le domaine du stockage Thmes abords : - Virtualisation du stockage : quelles solutions pour quels besoins ? - Les principaux besoins - Virtualisation du Stockage SAN & blocks, NAS & Fichiers, Tape & Librairies de sauvegarde - Virtualisation dans le SAN o dans la baie, InBand ou Outband - Techniques de rplication du stockage inter-sites dans une optique PRA et DataCenter Virtuel - VTL - Dduplication du stockage primaire Livre Blanc Enqute et Analyse de Tendances du Stockage (dit en novembre 2009)

MTIERS Anim par

Marc LIMODIN Directeur des Techniques et des Infrastructures LA BANQUE POSTALE Objectifs : Traiter - de lvolution des mtiers dinfrastructure et de production - des problmatiques de ressources humaines - des problmatiques dorganisation - Partager pour tre plus performant et anticiper sur : Les bonnes pratiques Les modles dorganisation alignement avec les mtiers Le sourcing / la formation Ladaptabilit des ressources aux processus et technologies Identier des thmes travailler en sous-groupe Thmes abords : - Evolution des mtiers - Facteurs dvolution - Les nouveaux mtiers - Les mtiers en devenir - Les mtiers en retrait - La sous-traitance - Les problmatiques RH

LOW COST Anim par

Frdric DIDIER Directeur Production Informatique CREDIT FONCIER Objectifs : - Inventorier les pratiques dinfrastructures en rupture avec les pratiques usuelles en vue de rduire les cots. - Etre une rfrence permanente des pratiques : pour les responsables dinfrastructure un guide de bonnes pratiques - Inciter les fournisseurs offrir des solutions low-cost Thmes abords : - Limpact des techniques de virtualisation pour les serveurs et pour les postes de travail - Automatisation de la gestion des systmes, - Mesure de la pntration de lOpen source - Utilisation des composants grand public et jetables (mais recyclables !) - Impact de la standardisation des processus de production autour dITIL - Sourcing, externalisation, offshoring - Approches nancires - Mutualisation inter-entreprises - Rduction des services et du support - Abaissement des exigences sur les data centers - Green IT, gestion de lnergie

CMDB Anim par

Frdrick PAQUET Responsable Asset Management Critical Information Systems THALES Objectifs : Rassembler et documenter des bonnes pratiques concernant la mise en place puis lutilisation dune CMDB Thmes abords : - Dans quel ordre et avec quels processus ITIL: CMDB, gestion des congurations, gestion des changements, gestion des mises en production - Quel primtre pour la CMDB, quel niveau de dtail ? - Comment abiliser les informations gres dans la CMDB ? - Les gains attendus - Quel chemin depuis un existant (variable selon les entreprises) : plusieurs scnarii ? - Quels outils ? loption Open Source est-elle viable ? Livre Blanc Comment construire et tirer bnce dune CMDB ? (prvu en juin 2010 loccasion dItiforums)

DATACENTER Anim par


Claude CORIAT Responsables Stratgie et Politiques Techniques RENAULT Objectifs : Mettre en avant les meilleures pratiques en production du DataCenter de demain. Thmes abords : - Processus defcacit nergtique - Qualication et Benchmarking - PUE : Identication des indicateurs de mesure de performance des DataCenters - Outillage pour la mesure et la bonne gestion du Froid - Suivi de la consommation lectrique - Initiatives Green DataCenter : dmarches doptimisation - Liste et caractristiques des diffrents hbergeurs - Comment (r-)urbaniser les salles informatiques ? - Audit des DataCenters - Green datacenter : Automatisation sur les oprations (automatisation et outils), - Retour dexprience sur la mise en uvre des processus ITIL Livre Blanc Analyse et Tendance, vers le Datacenter idal (dit en juin 2009 loccasion dItiforums)

CRIP Thmatique Stockage 13 octobre 2010

CRIP Thmatique Datacenter Facilities 15 septembre 2010

CLOUD COMPUTING Anim par


Franois STEPHAN Directeur IT Transformation THALES

z/OS Anim par

Bruno KOCH Directeur Dlgu Architecture Systme Mainframe CAISSE EPARGNE

ARCHITECTURE TECHNIQUE DENTREPRISE


Anim par Alain BALAGUER Responsable Architecture BOUYGUES TELECOM Objectifs : - Une analyse des modles mergents tourns vers la standardisation et la mise en oeuvre de modules oprationnels pour la construction dun systme dinformation. Thmes abords : - Les composantes de larchitecture classique L architecture des processus mtiers L architecture applicative L architecture des donnes L architecture technique - La modularisation - Les diffrents modles lies : la rsilience serveurs et donnes la virtualisation des applications la virtualisation des serveurs et du stockage les clouds privs la mobilit des accs aux SI lauthentication et lhabilitation

PRA

Anim par Luc VRIGNAUD Responsable Diffusion Support et Scurit MACIF Objectifs : Analyser les architectures des infrastructures de secours et de cohrence applicative, les aspects spciques lis loutsourcing, les critres de validation puis de MCO du PRA, lorganisation et le processus de dclenchement. Thmes abords : - Validation probante dun PRA - Comment ngocier un contrat doutsourcing ? - Architectures de secours et cohrence applicatives dun PRA - Maintien en Condition Oprationnelle dun PRA - Critres de dclenchement dun PRA - Concepts et vocabulaire PRA Livre Blanc Analyse et Tendance, PRA 2010 (prvu en juin 2010 loccasion ditiForums)

VIRTUALISATION SERVEUR & POSTE DE TRAVAIL Anim par


Jean-Paul AMOROS Directeur Infrastructures et Support GENERALI Objectifs : - Recenser des expriences et les solutions maturit, - Analyser les enjeux et le positionnement vis--vis des mtiers, - Dcrire la dmarche projet. Thmes abords : - Les diffrentes solutions de virtualisation - Cartographie des systmes en production - Arguments en faveur de la virtualisation - Les bonnes pratiques, les piges, les limites - Les fournisseurs et loffre - Les impacts projets/homes/ processus - Les gains nanciers et niveaux de services

Objectifs : - Dnir la comprhension et la traduction oprationnelle par les membres du CRIP des modles de Cloud Computing - Identier les composantes cls, selon le CRIP, des solutions de Cloud Computing pour les entreprises/administrations et organisations IT - Dcrire les expriences et stratgies des membres du CRIP sur le Cloud Computing Thmes abords : - Dnition des concepts : Cloud Computing, SaaS, IaaS, etc. - Gains attendus et gains constats - Scurit des solutions de Cloud Computing - Modles Cloud Computing : public, priv, mixte - Retours dexpriences, attentes et roadmaps des membres du CRIP Livre Blanc Analyse et Grandes Tendances du Cloud Computing (prvu en juin 2010 loccasion dItiforums)

Thmes et Objectifs : - Analyser les caractristiques et lorganisation de la plate forme z chez les utilisateurs - Elaborer la cartographie matrielle et logicielle chez les utilisateurs - Identier les volutions majeures chez les utilisateurs - Comprendre le positionnement de la plate forme z au sein des SI et les orientations court et moyen terme - Identier les acteurs du march - Analyser les tendances du march

CRIP Thmatique z/OS 17 novembre 2010

CRIP Thmatique Virtualisation Serve urs 6 mai 2010

En association avec

A propos du cRiP

La Cellule Intelligence economique du CriP


Une des principales valeurs cultives par le CRiP est sa capacit produire des livrables de qualit en runissant les intelligences et les expriences de ses membres. Le CRiP veut offrir plus, en compltant le dispositif et en dveloppant sa force dattraction. La mission de la cellule intelligence conomique est dorganiser des rendez-vous exceptionnels (tables rondes, visites) lattention des responsables dInfrastructures et Directeurs de Production (CTos) autour de thmes sortant de notre quotidien. Quelques exemples : de la gestion des changements et de lindustrialisation dans le monde du nuclaire en passant par lanalyse de la pertinence des rseaux sociaux Nous aurons ainsi 5 6 occasions, peut-tre plus, de rflchir entre CTos au long de lanne 2009-2010.

Les livrables du CriP


Lobservatoire des Directeurs dInfrastructure et de Production est une initiative du CRiP. Cet observatoire regroupe lensemble des documents produits par les groupes de travail. A lusage des membres du CRiP, ces documents sont de plusieurs types : enqute et Analyse des tendances Livre Blanc : les meilleurs pratiques Dossier danalyse des innovations technologiques et daide la rdaction dappel doffre Fiches pratiques Les enqutes et Analyses de tendances sont issues de questionnaires renseigns par les membres du CRiP. Lanalyse des rsultats recueillis permet de mesurer et dobserver lvolution des enjeux des CTos et de leurs infrastructures. en outre, elle met en relief les grandes tendances lies aux principaux challenges des productions informatiques. Dans le cadre de lobservatoire des Directeurs dInfrastructure et de Production, chaque groupe de travail actif apporte une contribution importante dans llaboration de documents de rfrence. Actuellement, dix groupes de travail CRiP sont actifs : DataCenter, stockage, Could Computing, Low Cost, z/os, Mtiers, CMDB, PrA, Architecture Technique, Virtualisation serveur & Poste de Travail. Dans les prochains mois, le CRiP prvoit le dmarrage de groupes de travail supplmentaires: les rseaux, les bases de donnes, le Green IT, lorchestration. Depuis deux ans, bon nombre de documents ont t publis.

Olivier MAuPATe VALLOuRec IT Director

Parmi les plus significatifs, on mentionnera : - Livre Blanc enqute et Analyse des Tendances Serveurs - enqute et Analyse des Oprations informatiques - enqute et Analyse des tendances lies au Datacenter - Livre Blanc Meilleures Pratiques du Datacenter - enqute et Analyse des Tendances du Stockage Tous ces ouvrages produits ou en cours de production deviennent inluctablement une rfrence importante pour les CTos. Ils permettent de saffranchir dtudes parfois longues et coteuses et de se benchmarker par rapport aux grandes tendances actuelles. Plus gnralement, ils sont des outils reconnus pour lamlioration de la productivit.

nicolas cOuRAuD Responsable de la coordination des travaux du cRiP

charte dethique et dengagement du cRiP


Le club des Responsables dInfrastructure et de Production est constitu sur la base de valeurs et de principes daction et de comportement, fonds sur des rapports de confiance permanents entre ses membres. Les membres sont les reprsentants des socits adhrentes du cRiP. - participer activement dans la mesure de leurs comptences, de leurs moyens, et de leurs autorisations internes aux confrences CRiP/ itiForums, soit en tant que membre dun comit de programme, travers un tmoignage, une table ronde ou en aidant la production de contenu.

Principes daction

Respect de la loyaut Les membres du CRiP ont pour principe la loyaut lgard des autres participants afin dinstaurer et de maintenir des relations de confiance durables. Participation active Les socits adhrentes au CRiP et leurs reprsentants membres du CRiP sengagent contribuer activement la vie du Club en apportant leur exprience et leur savoir faire aux travaux collectifs. Les socits adhrentes sengagent - rpondre dans un dlai convenable aux diffrents questionnaires qui pourraient leur tre envoys - faire participer au moins un de ses reprsentants au moins un groupe de travail ou une cellule - favoriser la participation de ses reprsentants aux plnires du CRiP - promouvoir le CRiP au sein de leur organisation Les membres reprsentants sengagent - se comporter en ambassadeur du CRiP et promouvoir le CRiP auprs de leurs pairs et des fournisseurs

Principes de comportement

confidentialit Chaque membre du CRiP sengage ne pas divulguer des tiers les informations professionnelles prsentes, sans accord explicite des membres metteurs et du bureau excutif du Club. Chacun des participants, membre permanent ou occasionnel, sinterdit dutiliser directement ou indirectement, des fins personnelles, des informations sensibles quil pourrait dtenir dans le cadre du Club. conflits dintrts Chaque membre du CRiP se doit dviter toute situation de conflit entre les intrts du Club et ses intrts personnels ou ceux de ses proches. Le Club est un club dutilisateurs. Cependant certains de ses membres peuvent appartenir des socits adhrentes qui peuvent avoir dans leurs missions une offre de service pour les autres adhrents. Il est impratif dans ce cas que les reprsentants membres de ces dites socits aient un comportement irrprochable et nutilisent pas ce cercle de confiance pour promouvoir les offres de services de la socit qui les emploie.

Ltat de lArt et la Traduction Oprationnelle des Services et Technologies dans la vraie vie de lentreprise
Thmatiques

Lambition des CRiP Thmatiques est de fournir en une demi-journe : - les cls de comprhension des technologies et solutions des fournisseurs - et leurs traductions oprationnelles dans la vraie vie de lentreprise.
Le format choisi permet lauditeur : - de se forger une opinion en toute indpendance travers la restitution des travaux du CRiP, Club utilisateur des responsables dInfrastructure et de Production dont le crdo est lindpendance vis--vis des fournisseurs - de dcouvrir travers des tmoignages utilisateurs limplmentation oprationnelle des technologies et solutions avec leurs composantes cls, leurs business case, leurs bnfices: promesses et ralits, leurs cueils et freins - de bnficier de lclairage sur les grandes tendances et le panorama de loffre par un cabinet danalyste de renomme internationale Forrester research qui est le partenaire stratgique du CRiP - de rencontrer les acteurs majeurs du march loccasion des pauses et du cocktail qui clture ces sessions

Les cRiP Thmatiques programmes en 2010 sont :

cloud computing 31 mars 2010 Virtualisation Serveurs 6 mai 2010 Data center Facilities 15 septembre 2010 Stockage 13 octobre 2010 z/OS 17 novembre 2010

convention annuelle du cRIP Infrastructure et Production 2010


powered by Forrester Research
17 & 18 Juin 2010 - htel Mridien Porte Maillot, Paris
Cette confrence, organise pour les utilisateurs et programme par le CRIP, prsente :

etat de lart des services et technologies des infrastructures & Leurs traductions oprationnelles dans la vraie vie de lentreprise
Un Programme Unique sur deux jours
- 16 grands thmes dinfrastructure traits par les groupes de travail du CRIP (Cloud, Virtualisation, Low Cost, Industrialisation, Stockage, CMDB, PRA, etc...) - 80 Retours dexpriences utilisateurs - Ltat de lArt et la Prospective par Forrester Research - Une session Innovation Technologique - Un espace Affaires avec plus de 50 fournisseurs - Un Espace VIP pour les 500 responsables dInfrastructure et de Production du CRIP - Le support et la contribution des clubs utilisateurs associs de lArchivage et de la Continuit dactivit Partenaires Stratgiques :
organis par :

Programmes & Inscription : www.itiforums.com

A propos du cRiP

Plus de 80 grandes entreprises franaises adhrent ou sont en cours dadhsion au CRiP :


TOTAL CASINO MAAF LOREAL GROUPAMA SI DARVA CREDIT AGRICOLE SA SYSTME U ADP GSI AEROPORTS DE PARIS ERDF GIE ALLIANZ INFORMATIQUE EIFFAGE AIR LIQUIDE ALCATEL-LUCENT MINISTERE DES FINANCES RENAULT CREDIT AGRICOLE ASSET MANAGEMENT GE MONEY BANK FRANCE AREVA LA FRANCAISE DES JEUX SWISS LIFE AUCHAN INTERNATIONAL TECHNOLOGY AVIVA GAZ DE FRANCE SOCIETE GENERALE PAEN AXA TECH SOCIETE GENERALE SGCIB BOUYGUES TELECOM CA SILCA CAISSE DES DEPOTS LA BANQUE POSTALE CAISSE EPARGNE CREDIT AGRICOLE CIB CANAL + CASINO THALES GROUP VALLOUREC MANPOWER FRANCE RTE FRANCE CHOREGIE CNAV GROUPAMA SYSTEMES DINFORMATION CNP ASSURANCES CPSIAT CREDIT FONCIER EDF ESSILOR INTERNATIONAL FM LOGISTIC GENERALI I-BP AIR FRANCE MACIF MINISTERE DE LINTERIEUR CARREFOUR GROUPE NATIXIS OECD ORANGE FT GROUPE PMU PSA PEUGEOT-CITROEN RATP SCOR STIME POLE EMPLOI Etc

Contacts

club des Responsables dInfrastructure et de Production contact@crip-asso.fr www.crip-asso.fr


En application de la loi du 11 mars 1957, il est interdit de reproduire intgralement ou partiellement le prsent ouvrage, sur quelque support que ce soit, sans autorisation du CRIP.

www.crip-asso.fr

15 rue vignon 75008 paris

Cration : fred.lameche - www.anousdejouer.fr

Vous aimerez peut-être aussi