Académique Documents
Professionnel Documents
Culture Documents
ossier Technique
Access, Terminals, Transmission and Multiplexing (ATTM) Broadband Deployment Efficacit nergtique et indicateurs de performances Partie 2: Datacenters
Mars 2010
AvantPropos
Le DataCenter est une proccupation majeure pour lensemble des entreprises travers le monde. Les cots financiers engags, les exigences des niveaux de service demands par les lignes Mtiers de lentreprise, les ruptures technologiques, les stratgies de croissance des socits, introduisent une complexit importante dans les choix relatifs au centre de donnes. Au del de ces contraintes, effectives depuis plusieurs annes, les problmatiques lies lefcacit nergtique dans un monde ou tout doit devenir Green , complexifient dautant plus les choix. Comment sy retrouver ? Comment valider les meilleures stratgies pour le prsent et pour lavenir ? Vaste sujet ! Cet ouvrage est une traduction littrale dun document de spcications techniques produit par leTsI. Il permet de rpertorier, structurer et normaliser les diffrentes approches permettant doptimiser lefficacit nergtique de tous les lments constituant un Datacenter. Il prend en compte, lhistorique et les contraintes des entreprises, ainsi que les prconisations environnementales europennes. Dans la ligne des documents produits par lobservatoire des Directeurs dInfrastructure et de Production du CrIP, ce dossier technique sinscrit comme une suite logique (pour les aspects nergtiques), dun ouvrage publi en Juin 2009 par le groupe de travail Datacenter: Analyse et tendance, vers le Datacenter idal . Il est intressant de noter que ce document ralis par leTsI fait de nombreuses rfrences des travaux et des analyses raliss par le CrIP. Force est de constater que les ouvrages raliss par le CrIP (enqutes et Analyses, Livres Blanc, Dossiers techniques, Fiches pratiques,) sont le reflet pragmatiques des meilleures pratiques utilises au sein des productions informatiques des socits franaises (souvent avec un primtre international). Ces documents regroupent tant les aspects techniques, quorganisationnels ou humains. Cette collection grandissante des ouvrages du CrIP devient aujourdhui un ensemble de documents de rfrence sur le plan national, voire europen et mondial. Bonne lecture tous !
edito rial
LeTsI (european Telecommunication standard Institue) est une organisation dont le rle est de produire des normes dans le domaine des Technologies de lInformation et des Tlcommunications (ICT). Cette organisation europenne de normalisation est directement lie lorganisation internationale : Union Internationale des Tlcommunications (UIT). Le rayonnement de cet acteur de la normalisation est mondial, le systme de tlcommunication mobile GsM en est un exemple. Base en France, leTsI est officiellement responsable de la normalisation des Technologies de linformation et de la communication (TIC) pour leurope en coopration avec le Comit europen de Normalisation (CeN) et le Comit europen de Normalisation en lectronique et en lectrotechnique (CeNeLeC) qui sont les instances europennes correspondant aux organisations internationales de normalisation : International organization for standardization (Iso) et Commission lectrotechnique Internationale (CeI). LeTsI runit 55 pays dans et hors deurope et se compose de membres incluant des Constructeurs, des oprateurs, des Administrations, des Fournisseurs de services, des Centres de recherche et des Utilisateurs. en 2008 et suite la publication des Codes de Conduite europens, dont celui traitant des centres de donnes, leTsI au travers du Comit de normalisation ATTM (Access, Transmission Terminal & Multiplexing) a charg un groupe de spcialistes mondiaux ICT (specialist Task Force) de rdiger une srie de spcifications Techniques (Ts) sur lefficacit nergtique (ee) dans les rseaux large bande, incluant une spcification destine aux centres de calculs (Datacenter). Il est noter que les aspects de dveloppement durable, les problmes, les contraintes et axes damlioration de lefficacit nergtique dans un centre de calcul ne sont pas propres aux oprateurs Tlcom, mais touchent tous les secteurs et toutes les entreprises qui sont confrontes, dans le quotidien de leur production informatique, linflation des besoins en nergie, et des consquences sur les cots dexploitation. Cette spcification Technique sert de base de travail pour le dveloppement de normes europennes ou mondiales concernant les aspects lis aux amliorations du rendement des chanes de distribution lectriques, des technologies de refroidissement, des plages de tempratures et dhygromtries en salles informatiques, et des quipements eux-mmes. Ces aspects ont t pris en compte pour la ngociation, auprs des Instances europennes, dun Mandat sur lefficacit nergtique dans le domaine ICT qui sera port par lacteur mondial GesI-ee IoCG (Global e-sustainability Initiative energy efficiency Inter oprator Collaboration Group). GesI-ee IoCG sera partie prenante dans la gestion de ce mandat et lien prioritaire avec les organismes de normalisation. Le CrIP, en tant quAssociation regroupant les entreprises, services Publics, Industries, Banques, Assurances, a dcid de porter et de soutenir cette spcification. elle prsente des axes damlioration de lefficacit nergtique des centres de calculs, allant au-del de loptimisation de lenvironnement technique dun centre (climatisation, nergie,), et prenant en compte les aspects lis linfrastructure technique du site jusqu lexploitation des applications pouvant avoir une influence non ngligeable sur la consommation lectrique dun centre.
eric Stern Vice-prsident du CRIP expert auprs de leTsI et responsable du dveloppement de la spcification Technique
Dominique Roche ETSI ATTM Chairman GeSI-EE IOCG Co-chairman Membre du CriP
Access, Terminals, Transmission and Multiplexing (ATTM); Broadband Deployment - Energy Efficiency and Key Performance Indicators; Part 2: Network sites; Sub-part 2: Data centres
Access, Terminals, Transmission and Multiplexing (ATTM) Broadband Deployment Efficacit nergtique et indicateurs de performances Partie 2: Datacenters
Reference
DTS/ATTM-02005-1-3
Keywords
access, cable, optical, site engineering
ETSI
650 Route des Lucioles F-06921 Sophia Antipolis Cedex - FRANCE Tel.: +33 4 92 94 42 00 Fax: +33 4 93 65 47 16 Siret N 348 623 562 00017 - NAF 742 C Association but non lucratif enregistre la Sous-Prfecture de Grasse (06) N 7803/88
Important notice
Individual copies of the present document can be downloaded from: http://www.etsi.org The present document may be made available in more than one electronic version or in print. In any case of existing or perceived difference in contents between such versions, the reference version is the Portable Document Format (PDF). In case of dispute, the reference shall be the printing on ETSI printers of the PDF version kept on a specific network drive within ETSI Secretariat. Users of the present document should be aware that the document may be subject to revision or change of status. Information on the current status of this and other ETSI documents is available at http://portal.etsi.org/tb/status/status.asp If you find errors in the present document, please send your comment to one of the following services: http://portal.etsi.org/chaircor/ETSI_support.asp
Copyright Notification
No part may be reproduced except as authorized by written permission. The copyright and the foregoing restriction extend to reproduction in all media. European Telecommunications Standards Institute 2009. All rights reserved. DECT, PLUGTESTS, UMTS, TIPHON, the TIPHON logo and the ETSI logo are Trade Marks of ETSI registered for the benefit of its Members. 3GPP is a Trade Mark of ETSI registered for the benefit of its Members and of the 3GPP Organizational Partners. LTE is a Trade Mark of ETSI currently being registered for the benefit of its Members and of the 3GPP Organizational Partners. GSM and the GSM logo are Trade Marks registered and owned by the GSM Association.
ETSI
SOMMAIRE
Les droits de proprit intellectuelle Avant-propos Introduction 1 2
2.1 2.2
6 6 6 7 8
8 9
3
3.1 3.2
Dfinitions et abrviations
Dfinitions Abrviations
9
9 12
4
4.1 4.2
13
13 13 13 13 13 15 15 16 16 16
16 17 18
4.3
4.3.3
18
18 19 19 19
4.4
Le nouveau contexte 4.4.1 Consommation dnergie et efficacit nergtique 4.4.2 Facteurs impactant lefficacit nergtique 4.4.3 Initiatives en cours
20 20 20 21
5
5.1
22
22 22 22 23 23
23 24 25
5.2 5.3
5.3.2
Autres KPIs
5.3.2.1 5.3.2.2 5.3.2.3 KPI defficacit nergtique KPI lis la consolidation Data collection
26
26 26 27
6
6.1 6.2 6.3
27
27 27 28 28 28 28
ETSI
6.3.3.1 6.3.3.2
6.3.3.2.1 6.3.3.2.2 6.3.3.2.3
28 28
28 29 30
6.3.3.3
6.3.3.3.1 6.3.3.3.2 6.3.3.3.3 6.3.3.3.4 6.3.3.3.5
30
30 31 31 31 31
6.3.4
Initiatives de consolidation
Consolidation des serveurs Consolidation physique
Le processus Les effets 6.3.4.2.1 6.3.4.2.2
32
32 32
32 32
Virtualisation
Le processus Les effets Rduction de la consommation nergtique de linfrastructure IT Rduction de la consommation nergtique des quipements de contrle de lenvironnement
32
32 32 33 32
6.3.4.4
6.3.4.4.1 6.3.4.4.2
Consolidation logique
Le processus Les effets
34
34 34
6.3.4.5
6.3.4.5.1 6.3.4.5.2 6.3.4.5.3
34
34 35 35
7
7.1 7.2
35
35 36 36 36
36
36 36 36 37 37
7.2.2.2
Rduction des pertes thermiques dans des armoires / racks Gnral Les rsultats de lexprimentation Priode avant que le systme ne sarrte lectriquement Restrictions sur la mise en uvre Refroidissement libre Free cooling Refroidissement direct par liquide Technologies mergentes (chssis auto refroidi ou le refroidissement au niveau de la puce - chip )
Refroidissement sur la puce Cooling-on-the-chip Chssis auto refroidi - Auto-cooled chassis
38
7.2.3
39
39 39 40 41
7.2.4
41
41 43 43
43 43
7.2.5
44
8 9
9.1 9.2
Exigences des infrastructures pour optimiser lefficacit nergtique Amlioration de lefficacit nergtique des systmes de distribution dnergie
Gnral Onduleurs ASI (UPS) 9.2.1 Efficacit 9.2.2 Onduleurs modulaires Solutions damlioration de lefficacit nergtique 9.3.1 Mesure de lefficacit nergtique des quipements existants 9.3.2 La capacit de gestion de lnergie 9.3.3 Examen de la politique
9.3.3.1 9.3.3.2 Gnral HVDC versus AC
44 44
44 45 45 46 47 47 47 47
47 47
9.3
9.3.4 9.3.5
48 48
ETSI
10 11
11.1 11.2
Lefficacit nergtique dans les centres de donnes existants Lefficacit nergtique dans les nouveaux centres de donnes
Gnral Approche multidisciplinaire 11.2.1 Localisation 11.2.2 Sources dnergie
11.2.2.1 11.2.2.2 Energie principale Energie secondaire
48 49
49 49 49 50
50 50
50 50 51 51 52 52
12
12.1 12.2
Conformit
Les centres de donnes existants Nouveaux centres de donnes
53
53 53
13
13.1
Recommandations
Les centres de donnes existants 13.1.1 Gnral 13.1.2 Rduction du PUE 13.1.3 Rduction de la consommation dnergie 13.1.4 Lutilisation optimale des ressources existantes 13.1.5 Zones haute densit Nouveaux centres de donnes 13.2.1 Gnral 13.2.2 tude dimplantation 13.2.3 Btiment
13.2.3.1 13.2.3.2 Extrieur Intrieur Systme Contrle de la temprature Architecture et politique Lautomatisation et la capacit de gestion
54
54 54 54 54 54 54 54 54 55 55
55 55
13.2
56
56 56
56
56 56
58
14
14.1 14.2 14.3 14.4 14.5 14.6
Perspectives futures
Gnral Energie Refroidissement Energie du matriel informatique Logiciels, outils et re-engineering Les initiatives de consolidation
58
58 58 58 58 58 59
60 61
ETSI
Avant-propos
Cette spcification technique a t produite par : ETSI Technical Committee Access, Terminals, Transmission and Multiplexing (ATTM). Le prsent document est la partie 2-2 dun document en multi parties. Les dtails complets de toute la srie se trouve dans la partie 1 [13].
Introduction
Linteraction croissante entre les diffrents lments de la technologie de communication de linformation Information Communication Technology ICT - (matriel, middleware, logiciel et services) entrane le concept de la convergence dans lequel : Des packages multiservices peuvent tre fournis sur une infrastructure commune ; Une varit dinfrastructures est en mesure de fournir ces packages ; Un unique package multiservices peut tre fourni sur diffrentes infrastructures.
En raison de cette convergence, le dveloppement de nouveaux services, dapplications et de contenu a eu comme consquence une demande croissante de bande passante, de fiabilit, de qualit et de performance, avec un accroissement consquent du besoin en puissance lectrique, ce qui a des rpercussions sur les cots et, dans certains cas, sur la disponibilit. Il est donc important de maximiser lefficacit nergtique de tous les lments du rseau ncessaires pour fournir les services demands. De nouvelles technologies et stratgies dinfrastructure sont attendues pour permettre aux oprateurs, pour un niveau de service donn, de rduire la consommation dnergie de leurs infrastructures existantes et futures et ainsi diminuer leurs cots. Cela ncessite une comprhension commune, que seules les normes peuvent apporter, entre les acteurs du march. Le prsent document est la partie 2-2 dun document en plusieurs parties qui a t produit par le Comit Technique de lETSI - Technical Committee Access, Terminals and Transmission, Multiplexing (ATTM) - en troite collaboration avec CENELEC par lintermdiaire du Coordination Group on Installations and Cabling (CGIC). Il offre une contribution au processus de normalisation en tablissant une premire base de travail sur les rseaux ICT et la technologie de transmission, avec la collaboration active dautres organisations techniques de lETSI et du CENELEC. Une fois termin, le document complet contiendra des informations avec une volution commune, pour prsenter les dveloppements dans les installations et limplmentation des transmissions, et de dcrire et suivre leurs progrs en terme defficacit nergtique dans les rseaux de nouvelles gnrations (Next Generation Networks NGN). Afin de mesurer lefficacit nergtique lors de limplmentation et le dploiement de rseaux hauts dbits, le prsent document aborde galement les aspects de Key Performance Indicators (KPI) relatifs lefficacit nergtique et se concentre sur les consquences ventuelles de la normalisation des installations, des techniques de cblage et des quipements. En particulier, cette tude permettra dexaminer les diffrentes possibilits et de suggrer des solutions pour le dveloppement de procds pour loptimisation des techniques dinstallation et la consommation dnergie.
ETSI
Porte du document
Le prsent document dtaille les mesures qui peuvent tre prises pour amliorer lefficacit nergtique au sein des sites des oprateurs et des centres de donnes. Les articles 2 et 3 contiennent des rfrences, des dfinitions et des abrviations relatives cette partie ; des informations similaires seront incluses dans les clauses correspondantes des autres parties, assurant ainsi que chaque document puisse tre utilis de faon autonome. Dans le prsent document: Le chapitre 4 prsente le concept du centre de donnes (DataCenter), y compris de ceux spcifiquement lis aux oprateurs rseaux; Le chapitre 5 traite des Key Performance Indicators (KPI) , prsent dans TS 105 174-1 [13] pour permettre un suivi constant de lefficacit nergtique; Le chapitre 6 dtaille les approches qui peuvent tre mises en uvre pour amliorer lefficacit nergtique au sein des infrastructures techniques (IT); Le chapitre 7 dtaille les approches qui peuvent tre utilises pour amliorer lefficacit nergtique dans lenvironnement technique du datacenter; Le chapitre 8 dtaille les approches qui peuvent tre utilises pour amliorer lefficacit nergtique par lintermdiaire de linfrastructure physique des btiments; Le chapitre 9 dtaille les approches qui peuvent tre utilises pour amliorer lefficacit nergtique dans le systme de distribution dnergie; Le chapitre 10 fournit un rsum des approches defficacit nergtique dans les centres de donnes existants; Le chapitre 11 fournit un rsum des approches defficacit nergtique dans les nouveaux centres de donnes et aborde des questions plus larges concernant leur emplacement; Le chapitre 12 contient les mcanismes de conformit du prsent document; Le chapitre 13 contient les recommandations du prsent document; Le chapitre 14 introduit des opportunits futures damlioration de lefficacit nergtique; Lannexe A fourni des indications de premier ordre sur leffet de lapplication des approches dcrites dans les chapitres 6, 7 et 9. Ceci permettra limplmentation approprie des services, des applications et du contenu sur une infrastructure nergtiquement efficace, bien que le but de ce livrable ne soit pas de fournir des solutions normalises dtailles pour larchitecture des rseaux. Le prsent document se concentre sur lefficacit nergtique. Lempreinte CO2 nest pas prise en compte dans le prsent document. Deux aspects distincts de lefficacit nergtique sont considrs tels que le montre la figure 1: des actions pour amliorer lefficacit nergtique des centres de donnes existants court ou moyen terme; des actions pour amliorer lefficacit nergtique des nouveaux centres de donnes moyen ou long terme. Les domaines tudis sont: Dans linfrastructure technique (IT): tous les composants dinfrastructure technique dans le centre de donnes, incluant les serveurs, les baies de stockage, les librairies de sauvegarde et les quipements rseau (routeurs, commutateurs, etc.); Dans la stratgie oprationnelle de lIT: toutes les initiatives de consolidations, telle que la virtualisation, les consolidations physiques ou logiques, lutilisation de logiciels ou de processus spcifiques; Dans lenvironnement technique: tous les aspects concernant lutilisation de lnergie, la climatisation et plus gnralement toutes les disciplines impliques dans lenvironnement technique du centre de donnes.
ETSI
Rfrences
Pour une rfrence spcifique, les rvisions suivantes ne sappliquent pas. La rfrence non spcifique peut tre seulement relative un document complet ou une partie et uniquement dans les cas suivant: si on laccepte quil soit possible dutiliser toutes les modifications futures du document de rfrence aux fins du document de rfrence; pour des rfrences indicatives.
Les rfrences sont soit spcifiques (identifies par date de publication et / ou numro de ldition ou numro de version) soit non spcifiques.
Les documents de rfrence qui ne sont pas disponibles au public lemplacement prvu peuvent tre tlchargs ladresse suivante : http://docbox.etsi.org/Reference. NOTE: Bien que tous les liens hypertextes inclus dans cette clause soient valables au moment de la publication, lETSI ne peut garantir leur validit long terme.
ETSI
[6] CENELEC EN 50173-2: Information technology - Generic cabling systems - Part 2: Office premises. [7] CENELEC EN 50173-5: Information technology - Generic cabling systems - Part 5: Data centres. [8] CENELEC EN 50174-1: Information technology - Cabling installation - Part 1: Installation specification and quality assurance. [9] CENELEC EN 50174-2: Information technology - Cabling installation - Part 2: Installation planning and practices inside buildings. [10] High performance buildings: UPS report (Ecos Consulting-Epri Solutions). [11] ETSI EN 300 019-1-3: Environmental Engineering (EE); Environmental conditions and environmental tests for telecommunications equipment; Part 1-3: Classification of environmental conditions; Stationary use at weatherprotected locations. [12] ETSI EN 300 132-3: Environmental Engineering (EE); Power supply interface at the input to telecommunications equipment; Part 3: Operated by rectified current source, alternating current source or direct current source up to 400 V. [13] ETSI TS 105 174-1: Access, Terminals, Transmission and Multiplexing (ATTM); Broadband Deployment Energy Efficiency and Key Performance Indicators; Part 1: Overview, common and generic aspects.
Dfinitions et abrviations
3.1 Dfinitions
Pour le prsent document, les termes et les dfinitions suivants sappliquent: Application: Programme ou ensemble de plusieurs programmes excutant une fonction ou un service. Disponibilit: Temps ou la priode durant laquelle lapplication ou le service doit tre oprationnel. NOTE: La disponibilit est un des critres de la criticit. Serveur blade : server chssis abritant de multiples cartes lectroniques modulaires et minces, connu sous le nom de serveur lame. NOTE: Chaque lame est un serveur part entire, souvent ddi une seule application. Les lames sont littralement des serveurs sur une carte, comprenant des processeurs, de la mmoire, des contrleurs de rseau intgr, un adaptateur optionnel Fiber Channel (HBA) et dautres ports dentres / sorties (IO). Salle informatique: salle ferme, scurise et environnement contrl dans laquelle les quipements informatiques sont en fonctionnement. Criticit: niveau donn une application ou un service, li limpact pour lentreprise en cas de sinistre. NOTE: Plus limpact est fort, plus lapplication ou le service est critique. Centre de donnes: infrastructure centralise pour le stockage, la gestion, et la diffusion des donnes et de linformation.
ETSI
10
Data Centre Infrastructure Efficiency (DCIE): Indicateur inverse du PUE. On le calcule en divisant le total de lnergie utilise pour alimenter linfrastructure informatique avec le total de lnergie utilise pour alimenter lensemble du centre de donnes. Le DCIE est exprim en pourcentage. NOTE: Le DCIE samliore lorsquil sapproche de 100%. Disaster Recovery Plan (DRP): Tous les processus (technique, organisation, humain) excuter en cas dinterruption de service. Disk array: armoire contenant des disques physiques. Efficacit nergtique: recherche dans les DC existants ou dans les nouveaux DC, de toutes les pistes et toutes les actions permettant de rduire les besoins nergtiques et les cots associs. NOTE: Les principaux facteurs sont dordre conomique pour diminuer la facture nergtique en augmentant lefficacit de tous les quipements et minimiser les pertes de puissance. Centre de donnes vert (Green Data Center) : au del de lefficacit nergtique, lapproche Verte sera axe plutt sur lempreinte carbone. NOTE 1: Lefficacit nergtique est une manire de diminuer lmission de CO2, mais ce nest pas la seule. NOTE 2: Plus objectif de dveloppement durable quconomique, lindicateur principal est lempreinte carbone. Aujourdhui le concept nest pas encore clairement dfini, particulirement si nous savons que les centres de donnes ne sont pas producteurs directs mais indirects de CO2, en raison de leurs besoins nergtiques. Si la source de lnergie vient des nergies renouvelables (hydraulique, solaire, etc.) ou du nuclaire (pas si vert pour la Terre, mais ne produisant pas de CO2) lempreinte carbone du centre de donnes est faible. Mais si lnergie vient du charbon ou de carburant, lmission de CO2 est leve. Equipement technologique informatique: ce sont des quipements tels que les ordinateurs, les serveurs, les mainframes, les calculateurs et tous les priphriques de stockage comme les baies, les librairies de bandes ainsi que les routeurs et les commutateurs dans un rseau local. Equipement nergique informatique: puissance totale ncessaire pour oprer des serveurs, des racks, des baies de disques, des librairies de bandes, des quipements rseau (routeurs, commutateurs), des quipements utiliss pour le monitoring du centre de donnes (PC, ordinateurs portables, terminaux et stations de travail) et des quipements spcifiques du rseau (tels que DSLAM et BTS). Ratio de consolidation logique: nombre dinstances applicatives par image de systme dexploitation. Serveur logique: instance dun systme dexploitation. Mainframe: ordinateur de haute performance utilis pour linformatique de calcul grande chelle qui exige une plus grande disponibilit et scurit quune machine de petite taille peut offrir. Equipement de rseaux de tlcommunications: quipement fournissant la connexion directe pour accder des rseaux, y compris les commutateurs, DSLAM, BTS Site oprateur: locaux pouvant accueillir des quipements rseaux de tlcommunications et fournissant le raccordement direct la base et aux rseaux daccs et qui peuvent galement accueillir des quipements informatiques. Serveur physique: boite contenant une alimentation, une carte mre, une unit centrale de traitement (processeur), de la mmoire et des slots. Power Usage Effectiveness (PUE): mesure utilise pour calculer lefficacit nergtique dun centre de donnes qui est dtermine par la puissance totale consomme dune installation (centre de donnes) divise par la puissance totale consomme par les quipements informatiques. Le PUE est exprim comme un ratio. Il doit sapprocher de 1 pour une bonne efficacit. Recovery Point Objective (RPO): perte de donnes maximale autorise. Recovery Time Objective (RTO): temps dindisponibilit maximal autoris durant lequel lapplication ou le service peut tre arrt.
ETSI
11
Serveur: ressource physique ou logique qui fournit des services dautres programmes dordinateurs (et aux utilisateurs). Calcul de la charge totale: la puissance de calcul du centre de donnes, peut tre value en tenant compte des spcifications de puissance de calcul du fournisseur pour chaque modle de serveur, multipli par le nombre de serveurs (le nombre de transactions par minute est une mesure de la puissance de calcul totale). Puissance totale de service (total facility power): la puissance totale utilise par tous les composants de distribution de puissance (comme les alimentations avec onduleurs, les commutateurs lectriques, les units de distribution dnergie, les batteries et les transformateurs), le refroidissement des composants systmes (tels que les refroidisseurs, la climatisation des salles informatiques, les pompes, les ventilateurs, les moteurs) et llectricit non destine aux matriels techniques (tel que lclairage du btiment). TPC Benchmark C (TPC-C): On-Line Transaction Processing (OLTP) benchmark mesur en transactions par minute (TPMc) NOTE 1: TPC-C est plus complexe que les benchmarks prcdents dOLTP tels que TPC-A en raison de ses types de transaction multiple, de bases de donnes plus complexes et de la structure globale dexcution. TPC-C implique un mlange de cinq transactions concourantes de diffrents types et complexit, excutes en ligne ou diffres. La base de donnes comporte neuf types de tables avec un large ventail de champs et denregistrements. NOTE 2: TPC-C simule un environnement informatique complet o une population dutilisateurs excute des transactions sur une base de donnes. Le benchmark est centr autour des activits principales (transactions) dun environnement de saisie de commandes. Ces transactions comprennent lentre et la gestion des commandes, lenregistrement des paiements, vrifient ltat des commandes et contrlent le niveau des stocks dans les entrepts. Tandis que le benchmark reprsente lactivit dun grossiste, le TPC-C nest pas limit lactivit dun secteur dactivit particulier, mais reprsente plutt toute industrie qui gre, vend ou distribue un produit ou un service. Utility computing: Modle de service dapprovisionnement (provisioning) dans lequel un automate met la disposition du client des ressources informatiques et une infrastructure de gestion selon ses besoins. NOTE: Comme dautres types dinformatique on-demand (tel que le Grid Computing), le modle dutilit cherche maximiser lutilisation efficace des ressources et / ou minimiser les cots associs. Cette approche devient de plus en plus courante dans linformatique dentreprise et est aussi parfois utilise pour le march des consommateurs, pour les services Internet, les accs web, le partage de fichiers et dautres applications. Machine virtuelle (VM): mulation dun serveur physique dans une infrastructure partage. NOTE: La machine virtuelle inclut le systme dexploitation, des logiciels et des applications spcifiques. Serveur Vrituel: partie ddie dun serveur physique pour faire fonctionner une machine virtuelle. Virtualisation: Technologie base de logiciel qui permet de sparer les applications du matriel physique sur lequel elles fonctionnent, offrant une partie du serveur physique de supporter une application, en lieu et place dun serveur entier. Ratio de virtualisation: nombre de machines virtuelles par serveur physique.
ETSI
12
3.2 Abrviations
Pour le prsent document, les abrviations suivantes sappliquent: AC ADSL AS ATTM B2B B2C BTS CPU CRAC CRIP DC DCIE DRP DSLAM HBA HQE HVDC ICT IEC IO IS ISP IT ITIL KPI LEED M2M MVS NGDC NGN OLTP OS PDU POD PUE RISC RPO RTO SAN SLA TCO TPC-C TPM TPMc TV UPS VM VMS VOD VOIP WAS Alternative Current - courant alternatif Asymetric Digital Suscriber Line Application Server serveur applicatif Access Transmission Terminal and Multiplexing Business To Business Business To Customer Base Transceiver Station Central Processing Unit Computer Room Air Conditioning Club des Responsables dInfrastructure et de Production Centre de donnes Data Center Infrastructure Efficiency Efficacit des infrastructures du centre de donnes. Disaster Recovery Plan Plan de reprise dactivits (PRA) Digital Subscriber Line Access Multiplexer Host Bus Adaptor Haute Qualit Energtique High Voltage Direct Current Courant continu haute tension Information Communication Technology International Electrotechnical Commission Input / Output Information Systems Internet Service Provider Information Technology IT Information Library Key Performance Indicator Indicateur cl de performance Leadership in Energy and Environmental Design Machine To Machine Proprietary Operating System for IBM Mainframes servers New Generation Data Centre Centre de donnes de nouvelle gnration Next Generation Network On-Line Transaction Processing Operating System Power Distribution Unit Unit de distribution de puissance lectrique Performance Optimized Datacenter Power Usage Effectiveness Reduced Instruction Set Computer Recovery Point Objective Recovery Time Objective Storage Area Network Rseau de stockage Service Level Agreement Total Cost of Ownership Cot total de possession TPC Benchmark C Transaction Par Minute Transaction Par Minute - comptage Television Uninterruptible Power Supply - Onduleurs Virtual Machine Proprietary Operating System for DEC Mainframe Servers Video On Demand Voice Over IP Web Access Server Serveur daccs WEB
ETSI
13
Cette clause permettra didentifier et dexpliquer les lments du rseau sous-systmes utiliss dans le dploiement du haut dbit.
4.2.2 ANSI/TIA-942
ANSI/TIA-942 [1] dfinit les exigences de fiabilit et de disponibilit des centres de donnes, y compris le support redondants des infrastructures associes, base sur quatre niveaux. Les centres de donnes rseau sont censs satisfaire au moins aux exigences de niveau 3 Tier 3.
ETSI
14
Tier
Impact dune dfaillance Impact interne lentreprise Principalement bas sur le cash Disponibilit en ligne limite Faible dpendance de linformatique Indisponibilit perue comme tolrable Drangement Applications mtiers critiques Multiples serveurs Systme vital de tlphonie Dpendance lie aux e-mails Prsence mondiale La majorit des revenus perus est lie lactivit en ligne Tlphonie par VoIP Forte dpendance linformatique Cot lev de lindisponibilit Stratgique ou business critique Majorit des revenus perus via des transactions lectroniques Modle dactivits entirement dpendant de linformatique
Critres Une seule distribution dlectricit et de refroidissement Pas de redondance des quipements
22,0 heures/an
Multiples points de distribution dlectricit et 1,6 heures/an de refroidissement mais un seul est actif Equipements redondants; concurremment maintenables
Multiple points actifs de distribution dlectricit et de refroidissement; Equipements redondants; tolrants aux fautes
0,4 heures/an
ETSI
15
Niveaux C1 C2 C3 C4 C5 C6 C7 C8 C9 C10
% disponibilit 98 99 99,9 99,99 99,999 99,9999 99,99999 99,999999 99,9999999 99.99999999 NOTE:
Arrt annuel 175,2 hours 87,6 hours 8,76 hours 53 minutes 5,3 minutes 31 seconds 3,1 seconds 0,31 seconds 0,031 seconds 0,0031 seconds
Statuts Ralisable Ralisable Ralisable Ralisable Non ralisable (voir note) Non ralisable (voir note) Non ralisable (voir note) Non ralisable (voir note) Non ralisable (voir note) Non ralisable (voir note)
Les Capex, qui incluent la construction, la conception, les installations (tel que llectricit, le refroidissement et le systme de dtection incendie) montrent une augmentation la plus significative, entre les niveaux 2 et 3. Cela est d la cration dune redondance complte, dune installation maintenir de faon concourante, comprenant lalimentation et linfrastructure de refroidissement. LUptime Institute suppose que la densit de puissance consomme (W/m) augmente avec chaque niveau de catgorie, comme le montre le tableau 3. Par consquent, les cots oprationnels (OPEX) lies la consommation dnergie devraient en consquence augmenter avec quelques ajustements (par exemple, un montant supplmentaire de 10% 20%) lis une partie inefficace de lquipement superflu dalimentation et des quipements de refroidissement.
ETSI
16
Tier Tier 11 22 33 44
Ratio dede densit dede puissance Ratio densit puissance 100 100 170 170 200 200 250 250
Les Opex augmentent galement de manire significative entre les niveaux 2 et 3 ds lors que la distribution dnergie et les infrastructures de refroidissement sont utilises moins de 50%, autorisant ainsi une dfaillance dun composant systme sans impacter le service. Il y aura des cots dOpex supplmentaires associs aux inefficacits dans lquipement superflu dalimentations et les installations de refroidissement. Mais le principal cot dOpex dterminant sera li au volume et la densit des infrastructures IT dployes dans le centre de donnes.
Type dede centre Type centre dede donnes donnes Stratgique Stratgique Secondaire Secondaire Local Local
Applications Applications hberges hberges Application Mission critical Application Mission critical Impacts critiques / internes Business Impacts critiques / internes Business
Plan dede Reprise dActivits Plan Reprise dActivits (DRP) (DRP) Campus dual-site Campus dual-site Site Secondaire Site Secondaire
Equipements dede proximit ouou contrleurs des quipements Equipements proximit contrleurs Redondance Redondance des quipements
Prsentation
ETSI
17
Aspects lis au centre Surface au sol totale moyenne du centre de donnes (m2) Consommation lectrique moyenne (W/m 2) Autonomie suite une non fourniture externe dlectricit (jours) Redondance des systmes lectriques Redondance de la climatisation Redondance des rseaux de tlcommunication et salles associes Existence dun Plan de Reprise dActivit en local (PRA) Existence dun PRA en mode campus (double site distance < 10 Km) Existence dun PRA mtropolitain (sites distants - 10 km 100 km) Existence dun PRA continental (sites distants > 100 km) Existence dun PRA efficace Existence dune salle de backup pour la supervision et le contrle Surface au sol pour les quipements IT (m2)
Nbre de serveurs 100-200 139 2 987 86 10 67 91 58 46 22 26 18 51 40 94 91 90 > 200 2 405 4 538 655
4.3.2.2
Questions principales
La situation actuelle des datacenters est peu satisfaisante. Elle rsulte de politiques des annes prcdentes, durant lesquelles chaque application avait sa propre architecture ddie et, de temps en temps, o les versions des systmes dexploitation ne permettaient pas la virtualisation. En consquence, ces serveurs peuvent avoir un taux doccupation de lunit centrale (CPU) de 10 % 20 % seulement, entrainant une sous-utilisation dramatique de la ressource et une trs faible efficacit nergtique. Une des raisons de cette situation, a t le manque dans la gestion de la capacit des serveurs. Une autre des consquences est que les serveurs ne peuvent tre retirs du service mme si ils ne sont plus utiliss. Le rsultat global de tout ceci, est que de nombreux centres de donnes sont actuellement aux limites en termes dnergie, de refroidissement et de disponibilit de surface au sol. Laudit effectu dans des entreprises significatives [3] indique que les problmes les plus marquants pour les centres de donnes sont: Le manque dnergie. Le manque potentiel de refroidissement. Une absence, voire une impossibilit de mise niveau en raison des nouvelles lgislations environnementales et des contraintes administratives. Une nouvelle gnration de matriel, plus efficace mais ncessitant des zones de densit nergtique leve (de lordre de 0,7 kW/m2 20 kW et potentiellement 40 kW par rack en 2010). Un PUE moyen (voir chapitre 5.3.1) variant de 2,5 2,8. Une faible utilisation des serveurs notamment les gammes X86 pour Windows et Linux (10 % 20 %). Cependant, moins quun plan daction de lamlioration de lefficacit nergtique soit mis en uvre, il est clair que les cots nergtiques, en tant que proportion du Cot Total de Possession (TCO), augmentent ce dernier dun niveau de 10% 50%. Cela signifie que les cots de lnergie (Opex) dpasseront le Capex annuel de linfrastructure IT.
ETSI
18
4.3.2.3
Historiquement, les centres de donnes rseaux ont souvent migr dans les sites dexploitation existants des oprateurs qui sont plutt situs dans les zones urbaines. Lalimentation principale en nergie de ces sites ntait souvent pas conue pour supporter des niveaux levs de consommation dnergie requis par les technologies actuelles employes. Ces btiments et leurs infrastructures avaient t conus pour sadapter des quipements des rseaux de tlcommunication qui avaient une consommation nergtique nettement infrieure aux quipements informatiques modernes. Ces derniers ayant remplacs les prcdents, la technologie actuelle utilise pour les constructions modernes permet dobtenir une bien plus grande efficacit tant sur loptimisation de lutilisation de la surface au sol que sur la consommation de lnergie. De fait, il est peu probable que le fonctionnement gnral des btiments hrits soit aussi performant que celui des centres de donnes complexes construits pour cet usage. Il est donc probablement ncessaire de considrer ces derniers comme des cas spcifiques lorsque lon compare la performance nergtique. De plus ces btiments existants ont souvent une pnurie despace au sol et il est difficile de les agrandir en raison de contraintes commerciales, de contraintes de structure et de planification dans les zones urbaines. Une alternative ceci, est de forcer la concentration des possibilits de traitement, en lanant des programmes ambitieux de consolidation des infrastructures. Des facteurs lgislatifs et environnementaux imposent galement des contraintes svres sur lapprovisionnement dquipements de refroidissement supplmentaires ncessaires. Comme les cots nergtiques continuent croitre et que les problmatiques concernant la disponibilit nergtique augmentent, il deviendra plus que ncessaire dutiliser du matriel de nouvelle gnration avec une meilleure efficacit de traitement. Ces facteurs exigent des nouvelles stratgies et pratiques employer dans la conception et dans lexploitation des centres de donnes, en particulier en ce qui concerne lefficacit nergtique.
Les feuilles de route technologiques des fournisseurs principaux dquipement IT (serveurs et/ou stockage) montrent que les valeurs lies la densit (exprimes en kW/m) ne sont pas en phase avec les capacits de la majorit des salles informatiques au sein des installations des centres de donnes (tant en terme dapprovisionnement lectrique que de capacit de refroidissement). NOTE 1: La grande majorit des centres de donnes actuels ne sont pas adapts pour rpondre aux besoins en nergie requise par ces nouvelles technologies (Source CRIP benchmark interne sur les tendances relatives aux centres de donnes Fvrier 2008) Les nouvelles technologies de serveurs (telles que les serveurs en lames, les chssis et les mainframes Unix) ont des exigences de puissance qui excdent la capacit des salles informatiques. Exemples dune telle augmentation : passage de (0,5 kW/m 0,7 kW/m) (4 kW/m ou 6 kW/m) au cours des deux prochaines annes, passage 10 kW/m et au del dans les cinq prochaines annes. NOTE 2: En 2006, le Gartner Group a crit 50 % des centres de donnes existants deviendront obsoltes en terme despace au sol, de fourniture lectrique et de capacit de refroidissement fin 2008 . De telles valeurs rendent le concept de kW/m2 comme un critre non pertinent voire en voie dobsolescence et introduit une nouvelle mthode dvaluation base sur le kW par rack. Cet aspect force les architectes prendre en compte la cration de zones forte densit au sein des centres de donnes avec la fourniture en lectricit et en systme de refroidissement ncessaires. Ces zones peuvent tre des zones spcifiques configures dans une salle informatique traditionnelle. (Voir figure 17 et figure 18) permettant lespace restant daccueillir des quipements de faible densit tels que des robotiques, des librairies de bandes, des commutateurs rseau, etc., pour lesquelles le ratio kW / m reste valable. Comme alternative, les conditions requises peuvent tre cres dans des environnements pr-racks clos et scuriss (y compris des dispositifs de gestion lectrique, des systmes de refroidissement liquide ddis et contenant toutes les connectiques ncessaires pour le rseau externe) qui permettent une utilisation en dehors dune salle informatique (voir paragraphe 7.2.2.1.5).
ETSI
19
4.3.3.2
Certains projets ou services, en particulier dans les secteurs des tlcommunications et des fournisseurs daccs internet (FAI) dans le monde, ont besoin dune puissance de calcul considrable, lie la croissance naturelle de leurs activits ou aux initiatives de consolidation globale. De plus, des nouveaux services (VOD, VoIP, TV ADSL, etc), les changes lectroniques avec les clients (B2C) et les fournisseurs ou partenaires (B2B), et dans un avenir proche, entre les machines (M2M), vont imposer de nouvelles contraintes en termes de connectivit, de disponibilit, de scurit et dabsorption de charge de travail alatoire. Une approche globale doit tre mise en uvre dans les centres de donnes IT permettant une politique de partage des ressources afin dtre en mesure de rpondre immdiatement aux besoins applicatifs avec le niveau de service requis et ce, dune manire conomiquement efficace.
4.3.3.3
Une rcente tendance au sein des grandes organisations est la consolidation des centres de donnes existants au sein de centres de donnes critiques moins nombreux. Cette pratique a un impact potentiel sur les cots nergtiques sachant que les centres de donnes critiques sont habituellement construits au niveau Tier 3+ ou Tier 4. Cependant il est possible davoir quelques zones ou salles informatiques dun niveau infrieur (Tier 1 - 2) dans un centre de donnes dun niveau lev (3 - 4). Si le centre de donnes est en Tier 3 ou 4, la redondance globale des alimentations lectriques sera mise en uvre, mais uniquement les salles informatique de Tier 3 ou 4 demanderont une redondance complte pour llectricit et le systme de refroidissement. Les autres quipements peuvent tre installs dans des salles informatiques avec un niveau de Tiering infrieur (voir schma figure 4).
Cette approche permet de rduire la consommation lectrique globale. En outre, il peut tre possible de faire fonctionner les diffrentes salles informatiques des tempratures diffrentes (par exemple, du matriel IT peut tre spar des quipements de rseau tlcom) permettant de nouvelles rductions de consommation dlectricit (voir paragraphe 7.2.3).
4.3.3.4
Les rglementations exigent souvent une tude prolonge au cas par cas ralise par des autorits qui peuvent introduire des retards importants dans le processus de planification. Ces contraintes font quil est trs difficile, voire impossible, dimplmenter des projets dagrandissement dun centre de donnes existant dans les villes, ce qui augmenterait la dissipation de chaleur ou ncessiterait des besoins nergtiques importants.
ETSI
20
Units de distribution lectrique et/ou transformateurs fonctionnant au dessous de leurs pleines capacits. Systmes de Conceptions redondantes N+1 ou 2N entrainant une sous utilisation des composants. distribution lectrique Diminution de lefficacit des quipements dalimentation de secours in interruptible (UPS) lorsquils fonctionnent faible charges. Augmentation de la consommation lectrique de la climatisation lors de la conduite de lair haute pression sur de longues distances. Systmes de Pompes ayant un dbit ajust automatiquement ce qui diminue leur efficacit. refroidissement Conceptions redondantes N+1 ou 2N entrainant une sous utilisation des composants. Faux plancher "plat de spaghettis" contribuant une inefficacit en forant les dispositifs de refroidissement travailler plus intensment pour rpondre aux exigences en matire dvacuation de charge thermique. Ceci peut conduire des diffrences de temprature. Des zones forte charge thermique pourraient recevoir un refroidissement inadquate. Manque durbanisation de la salle informatique. Faible utilisation des serveurs existants (10 % 20 % du CPU) en particulier pour les x86. Manque de processus de gestion de la capacit pour l'environnement technique et informatique. Serveurs physiques ddis par applications. Pas de consolidation, manque de politique de mutualisation.
Infrastructure informatique
Infrastructure physique
Donnes redondantes gnrant une forte capacit de stockage. Equipements informatiques actifs 24/24, 7/7 mais utiliss qu certaines heures de la journe et/ou certains jours. Anciennes gnrations de serveurs ayant un faible ratio puissance de calcul / consommation lectrique. Manque de cartographie fonctionnelle gnrant beaucoup dapplications, de duplications de donnes, de sauvegardes et de flux dchanges. Cela contribue augmenter considrablement le TCO (nombre de composants physiques, licences logicielles, personnel, espace au sol, etc.) et la consommation lectrique.
ETSI
21
La situation actuelle est plus gnralement la consquence dune croissance importante des besoins en terme dquipements informatiques en raison de la croissance naturelle des activits des entreprises et de la cration de nouveaux services. Un autre facteur augmentant la charge IT est que la cartographie fonctionnelle est trs complexe et gnre beaucoup dapplications. Parfois, la meilleure faon de faire le maximum dconomies dnergie est de diminuer le nombre dapplications et de minimiser les duplications de donnes.
ETSI
22
Se rfrant la figure 5, la proportion de lnergie fournie aux quipements IT est : W - E1 - E2% avec : W (%) = consommation dnergie lentre de londuleur (UPS); E1 (%) = nergie perdue au sein de / par londuleur; E2 (%) = nergie perdue au sein de / par les units de distribution lectrique (PDU).
ETSI
23
lnergie consomme par lquipement de contrle de lenvironnement X%. Sauf indication contraire, le modle standard utilis dans le prsent document est le suivant: le % de puissance requise pour lquipement informatique = 45 (bas sur W = 60 et E1 + E2 = 15 dans la figure 5); le % de puissance requise pour les systmes de refroidissement = 37 (qui est X = 37 la figure 5); le % de puissance requise pour lamnagement des locaux = 3 (qui est Y + Z = 3 dans la figure 5).
Se rfrant la figure 5, le PUE est dfini ainsi : 100 / (W - E1 - E2). Le code de conduite de lUnion europenne [4] reconnat le DCIE (inverse de la PUE exprime en pourcentage comme indiqu au tableau 7).
Tableau 7: conversion PUE et DCIE
PUE 4,0 3,0 2,5 2,2 2,0 1,8 1,6 1,5 1,4 1,3
Le modle de rfrence du chapitre 5.2 a un PUE de 2,22 et un DCIE de 45%. La figure 6 indique le PUE et le DCIE pour une efficacit leve, moyenne et faible des centres de donnes. En gnral, les centres de donnes construits au cours des cinq dernires annes ont un PUE oprationnel compris entre 2 et 2,5 (DCIE entre 40% et 50%). Certains centres de donnes plus anciens ont un PUE oprationnel suprieur 3 (DCIE infrieur 33,3%).
Figure 6: Spectre defficacit nergtique des centres de donnes et valeurs des PUE / DCIE
24
Les centres de donnes de tier 3 + ou de tier 4 peuvent avoir des objectifs de PUE aussi faible que 1,4. Des centres de donnes de tier 2, utilisant le refroidissement par free colling ou free water , quips des dernires gnrations dUPS, de P.O.Ds (voir paragraphe 7.2.2.1.5), de racks et serveurs haut rendement, sont capables dobtenir un PUE aussi faibles que 1,2 dans des zones et des conditions spcifiques.
5.3.1.2
Pour un centre de donnes en construction les indicateurs de performance cls (KPIs) PUE (ou DCIE) sont appropris (voir chapitre 12.2). Un centre de donnes en construction peut tre conu pour avoir un PUE spcifi (ou DCIE). Aprs la construction, le PUE rel (ou DCIE) peut tre contrl par rapport la valeur utilise lors de la conception. Cependant, il doit tre not que toute rduction de W (par le biais de lamlioration des quipements IT ou de rseaux de tlcommunications, ou de leurs utilisations et par la rduction des pertes dans le systme de distribution dnergie, E1 ou E2) sans une rduction quivalente dans les paramtres de consommation dnergie primaires, X, Y et Z, conduira une augmentation de PUE, indiquant une dtrioration de lefficacit nergtique plutt quune rduction de consommation dnergie. Les stratgies de conception de nouveaux btiments peuvent tre choisies de faon maximiser leur PUE initial et avec lobjectif de maintenir ce PUE au cours de leur croissance ultrieure, du fonctionnement et de lvolution. Comme dcrit dans le chapitre 7, la dtermination de la localisation du centre, les stratgies dingnierie de construction et de slection des systmes peuvent rduire considrablement la consommation dnergie requise pour le contrle de lenvironnement. Comme dcrit dans le chapitre 8, une planification efficace des voies et des espaces, conformment la norme EN 50174-1 [8] et aux aspects spcifiques aux centres de donnes de la norme EN 501742 [9] peut amliorer lefficacit nergtique des systmes de contrle de lenvironnement. Comme dcrit dans le chapitre 6, les tudes de conception interne peuvent influencer lutilisation des quipements (serveurs, stockage et rseau). En plus, les outils de gestion appropris utiliss en conjonction avec des processus dorganisation et leur automatisation peuvent rduire considrablement la consommation nergtique globale des quipements de technologie de linformation. Lintroduction de composants de distribution dnergie haut rendement telle que dcrite au chapitre 9 peut rduire la valeur de W. En utilisant de faon combine ces approches, le PUE typique de conception des nouveaux btiments rduira au cours des prochaines annes. La valeur actuelle est de 2,0 1,6 (2010-2015) et, avec la mise en uvre des mesures dcrites au chapitre 14, pourrait atteindre 1,3. Il est possible de spcifier des valeurs encore plus basses pour le PUE pour des zones ddies au sein des salles informatiques, mais il est peu probable que, utilisant les mthodes dcrites dans le prsent document, les valeurs de PUE globale du centre de donnes global seront beaucoup plus faibles que les valeurs indiques. Le tableau 8 prsente plusieurs mesures pour tendre vers une meilleure efficacit. Certaines dentre elles sont directement ralisables par le propritaire du centre de donnes ou, celui de lIT. Dautres sont lies aux volutions technologiques.
ETSI
25
PUE
2,5 - 2,0
Architecture physique ddie par application Aucune virtualisation sur les systmes ouverts (Open) Operating Systems et technologies obsoltes Provisionnement manuel des ressources Manque d'espace, d'nergie ou de climatisation dans les salles informatiques d'infrastructure (fermes de serveurs, mainframes Unix) Consolidation du stockage - Virtualisation - Tiering Consolidation des serveurs physiques Technologies de virtualisation pour les serveurs et le stockage Provisionnement automatique des serveurs Processus opratoires automatiss Gestion des capacits des serveurs et du stockage Besoin de 2 kW / m 2 4 kW / m 2 du centre de donnes nergtiquement efficaces - Energy Efficient Data Centre Building Normes HQE Propre production d'nergie renouvelable (olienne, solaire, hydraulique, etc.) Nouvelle gnration pour les appareils de refroidissement - Refroidissement free cooling Matriel IT auto refroidi Serveurs nergtiquement efficaces (fermes de lames, mainframes) Logiciels spcifiques pour grer la capacit nergtique Logiciels pour la mesure et la modlisation thermique dans les salles informatiques Consolidations applicatives massives - rationalisation Centre de donnes automatis dans sa globalit
2008-2010 Politiques
1,8 1,6
2010-2015 Btiment
1,6 1,4
5.3.1.3
Dans les btiments existants, il y a peu de possibilits pour rduire la consommation dnergie par le biais de modifications de la structure du btiment ou de modifications substantielles dans les systmes de contrle de lenvironnement et ce, sans encourir des cots importants et des perturbations de fonctionnement. De petites amliorations peuvent tre ralises par des changements limits des systmes de contrle de lenvironnement et par lamlioration gnrale de lefficacit nergtique dans les composants de distribution de lnergie et les services auxiliaires rduisant ainsi les valeurs de E1, E2 et W dans la figure 4. Au lieu de cela, la rduction de la consommation globale dnergie peut tre atteinte par (quand cela est possible) la mise en uvre dune planification efficace des voies et des espaces, conformment la norme EN 50174-1 [8] et la partie relative au centre de donnes de la norme EN 50174-2 [9], afin de maximiser lefficacit nergtique des systmes de contrle de lenvironnement. Lobtention de matriel informatique de plus grande efficacit nergtique, les initiatives de consolidation / virtualisation / automatisation des processus, reprsentent la seule solution raliste pour rduire la consommation dnergie dans les btiments existants pour un niveau de service donn. Cependant, sans une rduction quivalente des paramtres de consommation dnergie primaire, X, Y et Z comme le montre la figure 5, ces actions conduiront une augmentation du PUE indiquant une dtrioration de lefficacit nergtique mme si elle saccompagne dune rduction de la consommation dnergie globale du centre. Le PUE est difficile valuer sans un ensemble doutils gnralement absents dans la majorit des centres de donnes existants. Comme mentionn plus haut, certaines actions primaires mises en uvre sur les infrastructures, telles la virtualisation auront un effet ngatif sur le PUE.
ETSI
26
Le PUE peut tre lindicateur le plus pertinent pour donner une photo globale de lefficacit, mais ce nest pas le KPI le plus appropri pour la mesure de lamlioration de lefficacit nergtique dans les centres de donnes existants. La conformit au prsent document (voir chaptre 12.1) pour les centres de donnes existants ncessite lutilisation dun KPI autre que le PUE.
Un certain nombre de ces indicateurs de performance cls existent, incluant: Le ratio de puissance lectrique / espace au sol exprim en kW / m 2. En rgle gnrale, ce KPI est utilis pour les centres de donnes existants et / ou les zones de faible densit dans les salles informatiques; Le ratio de la consommation totale dnergie / charge de calcul totale; Le ration de puissance de calcul / puissance lectrique exprim en TPM-C/kW. Ce KPI donne une densit de calcul potentiel par kW et est utile pour les racks et / ou des zones de haute densit dans les salles informatiques; Lnergie totale ncessaire pour le centre de donnes / heure exprime en MW; La consommation totale dnergie / an exprime en GWh.
5.3.2.2
Un certain nombre dindicateurs de performance cls (KPIs) existent pour la consolidation de linfrastructure IT, notamment: Le nombre de serveurs physiques; Le nombre de serveurs virtuels; Le ratio de virtualisation; Le nombre dimages utilises de systmes dexploitation (serveurs logiques) - un serveur physique peut contenir plusieurs serveurs logiques. Ce KPI est la principale mesure dune consolidation logique; Le ratio de consolidation logique; Le nombre dapplications. Cest un KPI utilis seulement pour la consolidation dapplications et de d commissionnement (La relation doit tre faite entre lapplication, les composants physiques et les besoins de lenvironnement technique conomiss par la consolidation); La charge de calcul moyenne par famille (RISC, X86). Ce KPI value lefficacit des serveurs en terme de charge de calcul avec pour objectif dobtenir la plus forte utilisation de la puissance CPU et ce, afin de minimiser le nombre de serveurs; Le nombre de baies de disques. Un certain nombre dindicateurs de performance cls existent pour la consolidation du stockage physique incluant: Le nombre de ports SAN; Le nombre de traoctets / m2; Le ratio despace de stockage occup / m. Ce KPI exprime la densit de stockage; Le ratio moyen dallocation de baie. Ce KPI est similaire la charge moyenne de calcul, fournissant le taux de rpartition de lespace dans la baie.
ETSI
27
5.3.2.3
Data collection
La production des indicateurs de performance cls prsents au chapitre 5.3.2.2 exige la collecte et lagrgation dun large ventail de donnes comme le montre le tableau 9.
Tableau 9: Donnes requises pour la fourniture de KPI consolids
Fournisseur Modle, type Nombre de processeurs, de curs Puissance de calcul Consommation lectrique (standby, pleine charge) Dissipation thermique Poids Taille Par centre de donnes Par salle informatique Par processus mtier Par application Par centre de donnes
Base de donnes contenant les valeurs mesures au cours des activits commerciales et durant les priodes de non-activit
Consommation lectrique
Par salle informatique Par processus mtier Par application Par utilisateur final Par salle informatique
Besoins de Calcul
Par processus mtier Par application Par utilisateur final Par salle informatique Par processus mtier Par application Par utilisateur final
6.1 Gnral
Les indications de limpact de certaines de ces actions dans le domaine de lefficacit nergtique sont prsentes dans lannexe A.
6.2
La figure 7 montre le modle darchitecture logicielle dit 3-tier qui prvaut ce jour. Ce paragraphe fait rfrence aux tier de ce modle Nb : ces tier ne doivent pas tre confondus avec ceux voqus dans le chapitre 4 relatifs la scurisation des centres de calculs.
ETSI
28
On distingue deux solutions spares et rapides par lesquelles les rductions de consommation dnergie peuvent tre ralises en fournissant une utilisation plus efficace des ressources existantes au sein des infrastructures IT existantes sans avoir besoin de modification du matriel. Les solutions sont dcrites comme suit: La gestion de lenvironnement technique (voir chapitre 6.3.3.2); La gestion de la capacit de traitement (voir chapitre 6.3.3.3).
6.3.3.2
Gestion de lalimentation
29
Nombre de week-ends par an W 52 Un serveur actif dePriodes dernire gnration X86 mono ou bi-processeur a une consommation moyenne typique de 240 W. Le mme Activits Tier 1 Tier 2 Tier 3 serveur en mode veille a une consommation typique de 80 W et de 0 W 11, 200 serveurs de ce Nombre de jours frisConnections par an P lorsquil est teint. 9 Au tableau Connections Application 08h00 Ces - 20h00 TP type ont t identifis. derniers pourraient tre teints ou mis en mode veille: Base de donnes utilisateurs Nombre de jours de travaills D = 365-2W-P 252 Sauvegarde/ Sauvegarde / 20h00 08h00 Aucune connection Inactive 8 heures par -jour; batch activit batch Total dheures en mode R = 8D + 4 730 le week-end et les jours fris. rduction 24(2W+P) Inactive Week-ends Aucune dnergie Aucune connection Sauvegarde / batch
Le tableau 11 montre que les conomies dnergie potentielles en activant le mode veille seraient de 31% et de 46% dans le cas Consommation d'nergie totale 8 760 x 240 W dun arrt des serveurs. 420 480 kWH (sans action) Par server Rduction d'nergie avec 160(8 760-R) 128 960 kWH Tableau 11 le - Exemple de calcul mode veille Par server (30,7 %) Priodes Activit 240(8 760-R) 193 440 kWH Rduction dnergie avec arrt per W server (46 %) Nombre de week-ends par an 52
Nombre de jours fris par an Nombre de jours de travaills Total dheures en mode rduction dnergie Consommation d'nergie totale (sans action) Rduction d'nergie avec le mode veille Rduction dnergie avec arrt P D = 365-2W-P R = 8D + 24(2W+P) 8 760 x 240 W Par server 160(8 760-R) Par server 240(8 760-R) per server 9 252 4 730
420 480 kWH 128 960 kWH (30,7 %) 193 440 kWH (46 %)
ETSI
30
6.3.3.3
6.3.3.3.1 Gnral
La gestion de la capacit est le processus oprationnel destimation et de rpartition de lespace de stockage, des besoins environnementaux, du matriel informatique, des logiciels et des ressources de connexion de linfrastructure, pour reflter la nature dynamique des besoins utilisateurs et des interactions avec le centre de donnes. Comme le montre la figure 9, la capacit de gestion adresse les points suivants: Est-ce que le centre de donnes peut accueillir de nouvelles applications, de nouveaux services ou soutenir la croissance de lactivit ? Quelle est la capacit en termes dnergie, despace et de refroidissement ? Quelle est la capacit en termes de stockage, de CPU, de mmoire, dentres / sorties, de ports, etc ? La gestion de la capacit fournit une vue exhaustive des besoins rels en termes de puissance de calcul et / ou de capacits environnementales par une gestion continue, la mesure et la surveillance des serveurs et des activits des applications. Lobjectif de la gestion de la capacit est de sassurer quune nouvelle capacit est ajoute juste temps pour rpondre de faon anticipe aux besoins prvus, sans pour autant que les ressources soient inutilises pendant une longue priode. Une capacit de gestion russie, utilisant des outils danalyse et de modlisation (rpondant aux scnarios quest-ce qui va se passer si ) met en uvre des arbitrages entre les besoins prsents et futurs qui savrent tre le meilleur rapport global cot efficacit. Lmergence de nouvelles technologies combines aux changements des stratgies mtiers business et les prvisions de changement ncessitent une gestion de la capacit en continu. La capacit de gestion efficace sappuie sur lutilisation de produits qui sont modulaires, volutifs, stables et prdictifs en termes de support et de mises jour tout au long de leurs cycles de vie.
ETSI
31
La gestion de la capacit a pour objectifs: la prvision et lanticipation des besoins futurs de lentreprise en raison de laccroissement organique et de nouveaux projets; la mise en uvre dactions sur linfrastructure IT ou lenvironnement pour fournir des ressources adquates; lajustement de lutilisation de linfrastructure aux besoins rels de lentreprise pour viter le gaspillage d un surdimensionnement des applications; la dtermination de lutilisation du matriel; la prparation des initiatives de consolidation (voir chapitre 6.3.4).
6.3.3.3.3 Stockage
Cela implique lutilisation de stockage partag de donnes en utilisant des solutions actives de compression des donnes et de dduplication, afin de maximiser lutilisation des capacits de stockage. La mise en uvre du thin provisioning permet dutiliser le juste espace disque. Cette fonctionnalit est essentielle pour la gestion de la capacit de stockage.
6.3.3.3.4 Serveurs
Cela implique en priorit lutilisation des quipements dj existants lorsque la demande de ressources serveur supplmentaire est ncessaire. Cette approche est une tape vers les initiatives de consolidation de le chapitre 6.3.4.
32
La consolidation dans les serveurs existants est la meilleure faon de rduire les cots nergtiques pour un niveau de service donn. Le rsultat de la consolidation est une rduction du nombre de serveurs impactant directement la baisse les besoins en nergie des infrastructures IT, les besoins en refroidissement et lespace au sol. Il existe un certain nombre de types de consolidation couverts dans cette clause: consolidation physique; virtualisation; consolidation logique; application ou rationalisation des systmes dinformation (IS).
6.3.4.2
Consolidation physique
6.3.4.2.1 Le processus
La consolidation physique implique la runion de matriel autonome dans un conteneur physiquement plus puissant, comme le montre la figure 10 et peut tre ralise sans lutilisation de la virtualisation si la technologie de serveurs possde des fonctionnalits de partitionnement.
6.3.4.3
Virtualisation
6.3.4.3.1 Le processus
La virtualisation est une mthode de consolidation physique. Elle doit tre mise en uvre avec des serveurs de nouvelle gnration et est un pr-requis pour une politique de partage de linfrastructure. La consolidation physique na aucun effet sur le nombre de serveurs logiques (qui est la rduction du nombre de serveurs physiques et na pas deffet sur le nombre dimages de systmes dexploitation (OS) et de licences de logiciels). Leffet sur le cot total de possession (TCO) informatique nest pas significatif, la part des serveurs dans ce dernier tant en gnral infrieure 10%.
33
Nombre de serveurs virtualiser Consommation moyenne d'nergie par serveur (watt) Total de la consommation en watt (X * W1) Nombre de nouveaux serveurs (nombre de lames ou botes) Consommation moyenne par machine virtuelle (VM) (y compris le stockage) Ratio de virtualisation Nouvelle consommation (X * W2) Economies d'nergie (watts): C1-C2 % dconomies d'nergie (S1 / C1)
X W1 C1
X/R W2 R C2
S1 S2
Les chiffres suivants sont fournis par un organisme majeur de tlcommunications qui a lanc un projet de virtualisation sur des serveurs x86 en production. Les rsultats sont significatifs car en plus de la virtualisation, la consolidation logique (voir article 6.3.4.3.4) a aussi t applique en rduisant ainsi le nombre de systmes dexploitation. En rgle gnrale, les valeurs moyennes pour les conomies dnergie utilisant des environnements virtuels sont de 40% 60% de lnergie consomme par les serveurs avant la mise en uvre de la virtualisation. Dans cet exemple, lobjectif tait de consolider plusieurs serveurs physiques dune application multi-serveur (170) sur des serveurs de nouvelle gnration, associe un outil de virtualisation. Les serveurs existants taient des serveurs X86 racks de gnration prcdente ayant 2 CPU Intel X86 et contenant une image dun systme dexploitation et une instance dapplication. Les nouveaux serveurs sont des serveurs en lame Intel X86 4 CPU dual-core. Un ratio de consolidation de 12 (ce qui signifie quun serveur physique nouvelle gnration contient au moins 12 serveurs virtuels) a t atteint. La figure 11 montre les conomies de consommation dlectricit atteintes.
ETSI
34
6.3.4.4
Consolidation logique
6.3.4.4.1 Le processus
La consolidation logique vise diminuer le nombre de serveurs logiques (images du systme dexploitation) comme le montre la figure 12 et ainsi de faire des conomies sur les cots de licences en plus du nombre de serveurs physiques.
Cette mthode est recommande pour les serveurs existants et peut, sans aucun investissement matriel fournir une meilleure utilisation des quipements existants. Cependant, la dernire gnration de serveurs est recommande lors de la cration dun nouveau centre de donnes. La virtualisation et la consolidation logique peuvent tre mis en uvre simultanment afin de fournir un avantage cumulatif. Il existe trois mthodes pour parvenir la consolidation logique: Homogne: seuls les serveurs contenant les mmes composants logiques de la mme application (mme les serveurs daccs au Web (WAS), serveur web, etc.) sont consolids sur le mme systme dexploitation. Semi-homogne: seuls les serveurs contenant les mmes composants logiques, mais dapplications diffrentes (mme WAS, serveur web, etc.) sont consolids sur le mme systme dexploitation. Htrogne: diffrents composants logiques de diffrentes applications (cette mthode nest pas la plus rpandue et est mise en uvre que dans certains cas, avec des rgles trs spcifiques). Dans tous les cas, la consolidation logique a pour pr-requis de dfinir les rgles et critres de consolidation qui adressent entre autres les questions: criticit de lapplication; type dapplication; timing quotidien; mesure de lutilisation des ressources (CPU, entres / sorties (IO), mmoire, etc); liens inter applications.
6.3.4.5
6.3.4.5.1 Gnral
Ce sont les initiatives de consolidation de plus haut niveau. La consolidation sadresse, non pas la couche dinfrastructure, mais la couche du processus mtier. Comme le montre la figure 13, il sagit dune approche de haut en bas (top-down), en opposition avec lapproche du bas vers le haut (bottom-up) de la consolidation physique ou logique. Ce nest pas la consolidation la plus simple, mais elle est plus rentable en termes dconomies dans tous les domaines.
ETSI
35
6.3.4.5.2 Le processus
Il y a plusieurs faons de procder la consolidation dapplications, mais dans tous les cas, le processus doit tre men par les responsables des mtiers et les business dveloppeurs .
Dans la majorit des cas, la consolidation dapplications nest pas motive uniquement par les conomies dnergie. Nanmoins, elle est le meilleur moyen de parvenir une rduction maximale de la consommation dnergie car elle sattaque aux causes primaires de linflation de la consommation dnergie : applications trop nombreuses, trop de complexit, redondance, duplication des donnes, etc. Un tel programme est plus couramment mis en uvre pour avoir un impact positif sur le TCO, amliorer la qualit de service, rduire le time to market et renforcer la scurit.
7.1 Gnral
Ce chapitre dcrit les approches qui peuvent tre utilises pour rduire la demande nergtique des systmes de contrle de lenvironnement au sein du centre de donnes qui reprsente habituellement entre 35 - 40% de la consommation totale dnergie dans un centre de donnes de Tier 3 Uptime Institute. Certaines de ces approches sont applicables aux centres de donnes existants tandis que dautres sont plus susceptibles dtre appliques dans de nouveaux centres de donnes. De plus amples dtails sont fournis dans les chapitres 10 et 11.
ETSI
36
Le prsent document sajoute aux informations fournies dans le document TR 102 489 [I.1]. Les indications de limpact de certaines des actions dans le domaine de lefficacit nergtique sont prsentes dans lannexe A.
7.2.2.1.1 Gnral
La conception dans la plupart des centres de donnes existants est que les units de traitement dair dans la salle informatique (Computer Room Air Conditioning CRAC) envoient de lair froid pouss sous un plancher surlev, dans les cabinets (racks) par lintermdiaire des dalles perfores, et aspire lair chaud sortant par le haut de ces derniers. Cependant, si lair chaud et lair froid se mlangent, rsultat dune mauvaise gestion de laraulique, des points chauds dans la salle informatique se produisent. Ceci peut tre mis en vidence en prenant des photos en infra-rouge de la salle. Certaines mesures simples et peu coteuses peuvent tre prises pour viter ces points chauds et gnrer une conomie non ngligeable sur le refroidissement et un effet positif sur le PUE.
ETSI
37
Figure 16: Sparation des alles chaudes / froides par lutilisation de rideaux
ETSI
38
ETSI
39
40
La deuxime tape de changement des conditions environnementales est dfini dans le tableau 14. Cela a abouti rduire la consommation dnergie de 20%, sans dfaillance oprationnelle depuis 2007. Cela est galement montr dans la figure 20.
Tableau 14: tape 2 - changements dans les conditions environnementales
7.2.3.3
De nombreux types dquipements de technologie de linformation subissent un arrt automatique lorsque les tempratures dpassent les spcifications dexploitation maximale de la temprature (gnralement 30 C ou 32 C) recommandes par les fournisseurs. Le temps disponible pour rparer et / ou redmarrer les units de refroidissement avant que larrt automatique ne se produise est une proccupation oprationnelle majeure des responsables de Production. Le temps de rparation est dfini comme tant lintervalle entre une dfaillance totale du systme de conditionnement dair (sans redondance) et le moment o la temprature dans la pice atteint la limite fonctionnelle maximale. Elle dpend dun certain nombre de variables dont les plus importantes sont: la superficie et le volume de la salle / espace refroidir; le contenu de lespace / salle; la quantit et le type de matriel informatique (racks, serveurs, etc) et la consommation lectrique globale; le type, le nombre et la capacit des units CRAC; la redondance du systme de climatisation; la temprature de fonctionnement de la salle. Dans les cas o la demande totale de refroidissement des quipements est trs leve, le temps de rparation peut tre court et tre encore rduit si des tempratures de fonctionnement plus leves sont appliques. La figure 21 montre les rsultats des travaux exprimentaux (bas sur le calcul et lobservation des faits rels) dans une salle informatique ayant les caractristiques suivantes: charge thermique: 362 kW; superficie de la salle informatique: 1 080 m2 (charge thermique par unit de surface: 335 W/m2); volume de la salle informatique: 3 240 m3 (charge thermique par unit de volume: 112 W/m3); Units de refroidissement: un systme de climatisation fonctionnant en mode recyclage pur (pas de refroidissement de type air cooling ). Sept units sches froides (chacune avec une puissance frigorifique de 80 kW) sont utilises, associes sept units de traitement dair. Lair froid est souffl travers les dalles perfores du plancher et les sorties dair chaud passent travers le plafond.
ETSI
41
Figure 21: Exemple montrant les effets de la temprature de fonctionnement sur le time to repair
La figure 21 montre clairement que laugmentation de la temprature de fonctionnement rduit considrablement le temps avant que le systme ne steigne. Il sagit dune proccupation vidente pour les responsables informatiques et les gestionnaires de lexploitation des centres et peut conduire ce que cette approche de la rduction de la consommation dnergie soit ignore. Cependant, une varit dapproches peut tre applique pour fournir de plus faibles rsultats, mais nanmoins significatifs en terme dconomie, notamment: Sparation des quipements stratgiques et mission critical des autres activits moins critiques. Augmentation de la temprature de fonctionnement et diminution de lhumidit uniquement pour ces zones moins critiques; Sparation des quipements du rseau de tlcommunications des quipements IT. Application de laugmentation de la temprature de fonctionnement et de lhumidit uniquement pour les zones contenant les quipements de rseaux de tlcommunications. NOTE: De telles sparations ne seraient pas requises et des conomies plus importantes seraient possibles si les fournisseurs de matriel informatique modifiaient leur cahier des charges dexploitation conformment ceux des quipements rseaux de tlcommunications, tel que demand par le Code de Conduite europen [4].
7.2.3.4
Dans un centre de donnes Tier 4 du Uptime Institute, le risque encouru par une dfaillance du systme de refroidissement est rduit par la prsence de systmes redondants de contrle de lenvironnement et des quipements de distribution lectrique. Les risques associs au fonctionnement des quipements IT et des quipements de rseaux de tlcommunications sont galement rduits au minimum. Toutefois, dans les centres de donnes rpondant aux exigences de Tier plus faible du Uptime Institute, ces risques et leurs effets sur les activits supportes par le centre de donnes doivent tre analyss.
ETSI
42
La combinaison idale de climat se situe dans la fourchette de 22,5 C 22,7 C et de 45% 50% dhumidit relative sans cart irrgulier dans lun ou lautre des deux paramtres. Si les fournisseurs de matriel informatique devaient adopter la spcification environnementale oprationnelle applique aux quipements de rseaux de tlcommunications (voir lEN 300 019-1-3 [11]) la priode durant laquelle le refroidissement libre pourrait tre appliqu et lconomie rsultante (voir tableau 16 ) augmenterait de faon gnrale. NOTE: Le contrle de lenvironnement optimal sera ralis en contrlant les conditions environnementales aussi prs que possible de ladmission et de lchappement au niveau du rack. Lefficacit et, par consquent, lutilisation du refroidissement libre sont dtermines par deux facteurs climatiques principaux indpendants des locaux du centre de donnes: la temprature moyenne annuelle de lair (La figure 22 montre les tempratures moyennes dans le monde); lhumidit relative moyenne annuelle.
La rduction totale de la consommation dnergie est directement lie aux conditions climatiques extrieures. La rduction potentielle est proportionnelle la dure totale pendant laquelle les conditions environnementales extrieures correspondent aux conditions idales. Le tableau 15 fournit une mthodologie pour valuer les conomies dnergie par lutilisation de refroidissement libre. NOTE: 100% dadquation des conditions climatiques ne correspondent pas 100% de rduction de la consommation dnergie puisque le reste de linfrastructure de refroidissement tel que les refroidisseurs, les UTA, les pompes et les ventilateurs sont toujours ncessaires et consomment de lnergie (seulement les batteries frigorignes sont inactives). F dans le tableau 15 est typiquement de 0,6 (tel quil est utilis dans la figure 16 et figure 23). Le tableau 16 et la figure 23 montrent le rsultat dune srie dexemples utilisant cette mthodologie.
Tableau 15: Profil des conomies lies au free cooling
Consommation totale d'nergie du systme de contrle de l'environnement Nombre total d'heures par an Nombre d'heures de conditions de concordance durant l'anne Fraction de la consommation d'nergie du systme de contrle de l'environnement rendu inactive pendant les priodes de conditions de concordance % De free cooling potentiel par an Economie % du potentiel de free cooling Economies sur le refroidissement
ETSI
43
7.2.4.2
Cette rubrique est inclue dans ce document par souci dexhaustivit mais sera dcrite dans des tudes futures.
7.2.4.3
ETSI
44
La mise en uvre dune planification efficace des voies et des espaces, conformment la norme EN 50174-1 [8] et aux aspects spcifiques aux centres de donnes de la norme EN 50174-2 [9] vise maximiser lefficacit nergtique des systmes de contrle environnementaux. Les principaux aspects sont: lutilisation de cblage gnrique conduisant une croissance structure et des branchements travers des distributeurs par opposition des liaisons ad hoc directes point point dans la salle informatique (sauf dans des zones localises); lutilisation des approches alles chaudes et froides ou de POD combine avec des exigences dtailles et des recommandations pour garantir que lair froid atteint lemplacement prvu et que les chappements ne soient pas obstrus.
9.1 Gnral
Ce chapitre dcrit les approches qui peuvent tre employes pour accrotre lefficacit nergtique des systmes de distribution dnergie dans les centres de donnes. Certaines de ces approches sont applicables aux centres de donnes existants tandis que dautres sont plus susceptibles dtre appliques dans de nouveaux centres de donnes. De plus amples dtails sont fournis dans les chapitres 10 et 11. La figure 24 montre les systmes de distribution dnergie dans le centre de donnes depuis larrive lectrique gnrale jusquaux quipements rseaux et IT. Chaque composant du systme de distribution de lalimentation a un rendement prcis et mesurable en terme defficacit nergtique.
ETSI
45
Les actions visant accrotre lefficacit du systme de distribution dnergie dans un centre de donnes existant, sauf pour des actions telles que le dploiement de solutions logicielles spcifiques pour la gestion de lnergie, exigent dimportants investissements Capex et ne sont pas sans risque pour la continuit des activits. Les indications de limpact de certaines de ces actions dans ce domaine de lefficacit nergtique sont prsentes dans lannexe A.
LIEC dfinit lefficacit dun onduleur comme tant le rapport de la puissance de sortie sur la puissance dentre sous des conditions dexploitation dfinies. Comme le montre la Figure 26: un onduleur est gnralement plus efficace lorsquil est utilis pleine charge; la technologie line-interactive est plus efficace que la double conversion pour des raisons lies la charge dentre.
ETSI
46
Toutefois, les donnes de la figure 26 sont bases sur la moyenne des valeurs de performance spcifies par les fournisseurs principaux donduleurs et ont t consignes dans un rapport de Ecos Consulting Solutions EPRI [10]. Lefficacit des diffrentes technologies varie considrablement. Par exemple: 50% de charge, la technologie la plus efficace est la technologie ligne interactive (avec une efficacit de 98%); la technologie double conversion est la moins efficace; en gnral, les onduleurs fonctionnant au del dune charge de 50% ont une bonne efficacit. En dessous de 40% lefficacit baisse de faon trs significative (voir figure 26). Dans de nombreux anciens centres de donnes, les onduleurs sont installs avec une capacit maximale anticipant les besoins futurs. Il nest pas rare que cette capacit ne soit jamais atteinte. En outre, les exigences de redondance favorisent aussi le fonctionnement des onduleurs en dessous de leur pleine capacit. Dans le cas dune configuration de redondance 2N (indpendante de la technologie onduleur), il est toujours ncessaire de grer lalimentation de sorte que les systmes soient chargs au-del de 50% de la capacit. De fait, chaque modle 2N fonctionne en dessous de son efficacit maximale. Des systmes donduleurs modulaires (voir paragraphe 9.2.2) permettent dadapter la capacit la demande et damliorer ainsi lefficacit nergtique. Les deux types donduleurs peuvent tre combins, soit dans une mme zone, soit dans des zones diffrentes du centre de donnes. Certains utilisent un onduleur traditionnel pour leur source dnergie principale et utilisent des onduleurs plus petits, modulaires, comme seconde source dnergie pour leurs matriels les plus critiques et apportent une redondance de type 2N sans encourir des cots importants pour lensemble du centre de donnes.
ETSI
47
9.3.3.2
HVDC versus AC
LETSI a publi un document EN 300 132-3 [12] qui traite de la distribution dnergie en 400 V continu (DC). Des essais de HVDC ont t entrepris au niveau international par un certain nombre dorganisations telles que les constructeurs de matriel de distribution dnergie, les fournisseurs de matriel, des laboratoires, universits et les R&D dentreprises. Ces essais dmontrent clairement quil existe un intrt pour investiguer plus amplement la fourniture de 400 V en continu (DC) directement dans les quipements IT. De nombreux documents, tudes et normes suggrent que la fourniture de courant continu peut gnrer des conomies de 5% 15% selon plusieurs conditions. Techniquement, les serveurs des fournisseurs principaux pourraient accepter directement du 400 V continu.
ETSI
48
Lun des problmes principaux concerne les rgles de scurit lies au travail dans un environnement HVDC (ce qui est assez inhabituel dans le monde IT). Raliser la maintenance et les interventions techniques sur une chane dalimentation en courant continu est beaucoup plus coteux que sur une chaine en courant alternatif, en raison dun manque de comptences sur le march. Le prsent document juge quil est trop tt pour prendre une position dfinitive sur lutilisation du HVDC et que les travaux entrepris, les rsultats des essais et les annonces des principaux acteurs (fournisseurs, fabricants) seront examins avant que dautres recommandations soient faites. NOTE: Plusieurs instituts de normalisation travaillent dans des domaines pertinents tels que: HVDC 400 volt, connecteurs et coupes circuits scuriss.
Infrastructure IT
7.2.5
9.3.3 9.3.4
ETSI
49
Figure 28: Le chemin vers lefficacit nergtique dans les centres de donnes
50
la proximit dun aroport, dun port, de gares, dautoroutes - qui a des consquences sur les frais de port et sur les missions de CO2 lies aux transports. La slection dun emplacement est importante pour lefficacit nergtique car les conditions climatiques auront une influence sur le refroidissement (rduction du besoin de refroidissement). NOTE 2: En cas de refroidissement par eau libre (free water), la proximit dune rivire, dun lac, dune mer, ou dune autre source deau froide sera un facteur principal. Dans un tel cas, les inondations ou les risques de tsunamis doivent tre pris en compte.
11.2.2
Sources dnergie
11.2.3
Conception du btiment
La spcification dun immeuble abritant un centre de donnes est directement influence par son emplacement. Lorientation du btiment ainsi que les proprits disolation thermique des murs, toits, fentres, ont un effet significatif sur la demande de puissance associe un contrle environnemental de lintrieur du btiment. Les normes europennes pour les btiments nergtiquement efficaces sont en prparation. Des approches nationales existent pour les btiments nergtiquement efficaces telles que HQE (Haute Qualit Environnementale) pour la France et LEED (Leadership in Energy and Environmental Design) aux Etats-Unis.
11.2.4
Conception interne
Afin de maximiser le rendement nergtique global, la structure interne et la configuration du centre de donnes doivent tre tudis afin de sassurer que la puissance et les ressources appropries pour le contrle de lenvironnement soient appliques dans les diffrentes zones. Les zones minimales identifiables au sein du centre de donnes sont les suivantes: Les salles informatiques (permettant principalement lhbergement des quipements IT). Les salles de rseaux de tlcommunications (pouvant accueillir des quipements de rseaux de tlcommunications). Les salles techniques (onduleurs, batteries, etc). Chacune delles, ainsi que toutes autres salles et les espaces, doivent tre tudis par rapport aux demandes en terme dnergie lectrique et de refroidissement et ce, en fonction de leur taille et des conditions environnementales oprationnelles. Le processus de conception interne doit galement couvrir limpact sur le systme de refroidissement des servitudes ncessaires dans les espaces. Pour appuyer cette activit, la conception des cblages du centre de donnes est spcifie dans la norme EN 50173-5 [7] et EN 50173-2 [6] et la planification et linstallation du cblage sont spcifies dans la norme EN 50174-1 [8] et EN 50174 -2 [9].
ETSI
51
Figure 29: Exemple schmatique dun centre de donnes Tier 3 de lUptime Institute
11.2.5
Energie et refroidissement
Lintroduction de systmes haut rendement de distribution dnergie et des composants tels que dcrits dans les chapitres 9.3.3 et 9.3.4 a un effet direct sur la demande dalimentation externe pour supporter les quipements IT et rseaux de tlcommunications, mais na pas deffet automatique sur le PUE moins dtre accompagn par une amlioration de la demande dlectricit des systmes de contrle de lenvironnement. Lutilisation de la rfrigration gratuite telle que dcrite lalina 7.2.4.1 reprsente la principale mthode damlioration de PUE dans les centres de donnes de nouvelle gnration. La rduction de lnergie implique dans le contrle environnemental par le biais de laugmentation de temprature et dhumidit de fonctionnement tels que dcrits lalina 7.2.3 aura galement un effet direct sur le PUE.
11.2.6
Linfrastructure IT
Linfrastructure informatique des nouveaux centres de donnes doit: tre conue pour maximiser lagilit, lvolutivit et tre base sur une infrastructure commune partage; adopter les technologies matrielles les plus efficaces proposes par les fournisseurs (exiger des fournisseurs de prouver lefficacit relle de leurs technologies et leurs impacts sur le centre).
ETSI
52
Indpendamment du niveau Tier Uptime Institute, un nouveau centre de donnes comprendra une combinaison de: une architecture base sur des racks utilisant des serveurs trs puissants devra tre place dans des zones forte densit en utilisant, au minimum des alles froides couvertes avec planchers surlevs (comme dcrit dans le chapitre 7.2.2.1.3) ou des pods (tels que dcrits dans le chapitre 7.2.2.1.5). Cela signifie que la taille de la salle informatique nest pas un critre principal, mais que la plus grande proccupation est de positionner les bonnes ressources au bon endroit. Pour ces zones, lindicateur le plus appropri est le rapport entre la puissance totale fournie au rack par la puissance totale de calcul (cest dire x kW y TPM-C, prsent en 5.3.2.1); des serveurs ou mainframe Unix, qui ont les mmes problmes que les racks, consommant beaucoup dnergie dans un espace restreint et avec une dissipation de chaleur importante; Dautre type dquipements tels que la robotique, le stockage, les quipements de rseaux de tlcommunications, ou les serveurs non racks qui peuvent tre logs dans des salles informatiques traditionnelles pour lesquels le bon critre est le kW / m 2 (voir clause 5.3.2.1). Il convient de noter que les baies de stockage, en raison dune densit accrue, ont des besoins nergtiques proches de ceux des serveurs. On calcule un besoin moyen de 300 W par traoctet. (Par exemple, la dernire gnration de baie de disques peut avoir plus de 100 To de capacit sur quelques mtres carrs). Une tendance future pour la prochaine gnration du stockage sera le stockage sans disque (stockage SSD), mais les cots rels de ces solutions compars avec la technologie de disques actuelle, ne les rendent pas attractives pour les entreprises.
11.2.7
Logiciels
Les logiciels de gestion dinfrastructure apportent certains avantages dans la manire de grer plus efficacement les besoins nergtiques et davoir une vision claire du potentiel de puissance au sein dune salle informatique, dans un rack ou dans un serveur. Mme constat si certains outils de mesures thermiques sont mis en uvre dans la salle informatique. Cela permet de visualiser les zones chaudes dans la salle ou dans un rack et de proposer des modlisations pour une meilleure conception de la salle informatique. Cela contribue lamlioration de lefficacit de lutilisation de lnergie pour le refroidissement.
11.2.8
Processus
Deux grands types dactions doivent tre lancs. Tout dabord, un programme de consolidation globale visant rduire le nombre de composants techniques et logiques, qui sont la cause principale des dpenses dnergie (voir le sujet sur les mthodes de consolidation). En second lieu, un ensemble doutils dautomatisation pour les oprations dans le centre de donnes. Le centre de calcul de nouvelle gnration doit tre considr comme une Usine Services qui fournit le bon service, avec les bonnes ressources, au bon moment et avec le bon niveau de scurisation. Cela signifie que toutes les tapes oprationnelles doivent tre automatises - de lapprovisionnement des ressources la manire dont les applications sont gres par lExploitant. Les meilleures pratiques ITIL (IT Information Library) sont essentielles pour une bonne gestion de lIT et du centre. Les processus ITIL suivants participent lefficacit nergtique: Asset Management pour savoir ce qui est utilis dans linfrastructure IT; Capacity Management - gestion de la capacit pour mesurer ce qui est utilis et plus prcisment les besoins des applications; Service Level Management pour fournir le bon niveau de service une application.
ETSI
53
12 Conformit
12.1 Les centres de donnes existants
Pour se conformer au prsent document, lvaluation qui suit doit tre entreprise: A: Consommation totale dnergie du centre de donnes. B: Charge de calcul totale. KPI = B/A. Pour atteindre la conformit minimale sur une priode de temps, le KPI doit montrer une amlioration de 15% par rapport lindicateur de performance cl (KPI) dorigine. Pour atteindre la conformit de base sur une priode de temps, le KPI doit montrer une amlioration de 25% par rapport lindicateur de performance cl (KPI) dorigine. Pour atteindre la conformit amliore sur une priode de temps, le KPI doit montrer une amlioration de 50% par rapport lindicateur de performance cl (KPI) dorigine.
ETSI
54
13 Recommandations
13.1 Les centres de donnes existants
13.1.1 Gnral
Il y a trois conduites dapproches concernant la gestion de lnergie dans un centre de donnes existant: La rduction du PUE (accrotre lefficacit); La rduction de la consommation dnergie (cot effectif); Lutilisation optimale des ressources existantes (environnement et / ou technique). Pour chacune, des approches de certaines actions spcifiques doivent tre entreprises. Il convient de noter que certaines actions auront des effets positifs par des approches multiples.
ETSI
55
NOTE: Lobjectif reflte lutilisation maximale de free-cooling comme indiqu dans le tableau 16 et les valeurs les plus leves de PUE sont pour les centres de donnes de Tier le plus lev et rpercutant la ncessit de la redondance des systmes de refroidissement et de distribution dnergie.
13.2.3 Btiment
13.2.3.1 Extrieur
La nature des lments de la construction a un impact important sur la consommation dnergie. Le btiment devra se comporter ni comme une cocotte minute, ni comme une bouteille thermos. Le btiment devra tre construit selon des standards telles que les normes HQE et LEED.
13.2.3.2 Intrieur
Les centres de donnes devront tre conus avec diffrentes zones qui fourniront non seulement une meilleure efficacit nergtique mais aussi une minimisation des Capex et Opex, en considrant: des zones haute densit, traites sparment des autres zones, dans de petites salles spcifiques; des salles informatiques traditionnelles avec un ratio kW / m 2; la sparation des quipements mission critical et des quipements non stratgiques; des salles avec des conditions climatiques diffrentes relatives la criticit de lquipement et / ou des capacits de free cooling durant lanne. Ceci est illustr schmatiquement dans la figure 31.
56
13.2.4 Refroidissement
13.2.4.1 Systme
Il devrait y avoir un mlange de systmes traditionnels de refroidissement et de free cooling. La climatisation traditionnelle devrait tre rserve: aux zones ayant un besoin de refroidissement important, tels que les zones haute densit, les salles avec les quipements informatiques critiques et stratgiques; lorsque les tempratures ne sont pas compatibles avec le refroidissement gratuit. Dans tous les cas, les quipements de refroidissement devront tre nergtiquement efficace exigeant la dernire gnration de ventilateurs, de pompes et de moteurs.
13.2.5 Infrastructure IT
13.2.5.1 Architecture et politique
La politique doit tre axe sur les composants partags de linfrastructure informatique. Telle que dcrite dans la figure 32, larchitecture devrait tre base sur des serveurs en lames pour les serveurs x86 et des serveurs Unix partitionnables haut de gamme ou des mainframes traditionnels pour le traitement de larges bases de donnes. Pour le stockage, une infrastructure commune partage devrait tre construite autour dune architecture SAN. Une politique de hirarchisation des donnes devrait tre adopte avec les supports physiques appropris (stockage faibles cots pour les donnes non critiques, baies de disques haut de gamme pour les donnes critiques).
ETSI
57
Figure 32: Architecture future des oprations internes dun centre de donnes
ETSI
58
14 Perspectives futures
14.1 Gnral
Les fournisseurs de toutes les rgions envisagent de nouvelles solutions pour rpondre aux nouveaux besoins en matire de consommation dnergie, de refroidissement et de puissance de calcul et proposeront de futurs quipements qui intgrent ces exigences.
14.2 Energie
Produire autant que possible votre propre nergie verte si la lgislation ly autorise. Rutilisation au mieux de la chaleur perdue pour dautres usages. Passer en DC 400V (HVDC) si la diminution importante de consommation dnergie est prouve et teste. Choisir une nouvelle gnration dASI, affichant la meilleure efficacit.
14.3 Refroidissement
La possibilit de refroidissement par air libre ou de refroidissement par eau doivent tre une proccupation majeure pour les nouveaux centres de calculs et auront un grand impact au niveau du PUE. Le refroidissement liquide ou gaz directement dans les serveurs ou les chssis auto refroidis (dj utilis pour les mainframe) est tudier.
59
ETSI
60
6.2.4.4 45 20,3 (see note 1) 6.2.4.3, Consolidation fonctionnelle 6.2.4.4 60 27 6.2.4.5 Domaine: Systmes de refroidissement 7.2.2.1.2 Amlioration de l'efficacit de refroidissement 7.2.2.1.3 30 11,1 (see note 2) 7.2.2.1.4 Zones haute densit 7.2.2.1.5 25 9,3 (see note 2) Modification de la temprature et l'humidit Free cooling - airFree cooling - eau Chssis et puces auto-refroidis Accentuer la diffrence de temprature entre l'eau rfrigre et le retour Ventilateurs haute efficacit a vitesse variable Le calibrage / re-dimensionnement de la configuration de redondance HVDC Appareils haut rendement de distribution d'nergie Moteurs haute efficacit dans les ventilateurs et pompes Amlioration de l'efficacit des units UPS ASI base de tambours rotatifs Gestion des capacits electriques 7.2.3 7.2.4.1 7.2.4.1 7.2.4.3 7.2.5 40 50 30 80 3 14,8 (see note 2) 18,5 (see note 2) 11,1 (see note 2) 29,6 (see note 2) 1,1 (see note 2)
Moyen terme Moyen terme Court terme Moyen terme Moyen terme Long terme Court terme
7.2.5
Moyen terme
7.2.5
10
Court terme
Les systmes de distribution d'alimentation lectrique 9.3.3 9.3.4 9.3.4 9.3.4 9.3.3 9.3.4 7 5 2 10 8 3 1,1 (see note 3) 0,8 (see note 3) 0,3 (see note 3) 1,5 (see note 3) 1,2 (see note 3) 0,5 (see note 3) Long terme Long terme Moyen terme Moyen terme Moyen terme Court terme
NOTE 1: Lhypothse sappuie sur une infrastructure informatique qui est au dpart de 37% de la consommation nergtique globale. NOTE 2: Le refroidissement reprsente initialement 45% de la consommation nergtique globale. NOTE 3: Les pertes dans les chanes de distributions lectriques constituent un premier temps 15% de la consommation nergtique globale. NOTE 4 : Les 3% restants sont llectricit tertiare du centre (lumires, bureaux, ascenseurs, )
ETSI
61
Historique
Historique du document
V1.1.1 Octobre 2009 Publication
ETSI
A propos du cRiP
Le cRiP a ft sa deuxime anne dexistence le 16 novembre 2009
Ces deux premires annes ont t riches en contributions diverses : cration et animation de dix groupes de travail, cration dune cellule dintelligence conomique, publication de 4 livres blancs, cration dune Base Projets, organisation des trois plnires annuelles, mise en place du site web www.crip-asso.fr, de la Newsletter et prise en charge des comits de programme, des prsentations, des retours dexpriences, des tables rondes de la Convention annuelle du CRiP aux journes itiForums. Je voudrais remercier les membres du bureau et tous ceux, nombreux, qui ont particip aux groupes de travail. Cet excellent travail, en quipe, a contribu au large dveloppement de notre club utilisateur. Pour lavenir, nous voulons poursuivre et amplifier cette faon de procder au service des responsables dinfrastructure et de production, avec la volont affirme dtre un cercle de confiance rciproque. Nous souhaitons, ainsi, parfaire les matrises, partager les retours dexpriences, analyser et parvenir amliorer les organisations, les ressources humaines, les technologies, les approches financires du sI et les processus de dcision.
Nous chercherons galement promouvoir et lgitimer les missions de ces responsables au sein de leur entreprise et dvelopper une approche pragmatique des Infrastructures et de la Production. enfin, nous nous appliquerons dvelopper la notorit du CRiP et faire en sorte que notre association devienne une rfrence vis--vis des fournisseurs du march. Nous devons nous attacher recruter de nouveaux membres tout en amplifiant notre politique volontariste de communication avec itiForums (Confrence, reportages Vidos, Cercle i, i Connect).
Jespre que cet esprit dquipe, construit tout au long de ces deux premires annes, nous conduira dvelopper ce lieu dchanges constructifs concernant nos proccupations quotidiennes, permettant chacun dapprcier le bien-fond de notre association. Nous sommes convaincus que vous serez nombreux nous rejoindre.
Philippe SeRSOT Prsident du cRiP CTO CA-CIB
Le cRiP (Association Loi 1901) compte 80 grandes entreprises ou entits utilisatrices des technologies de linformation, adhrentes ou en cours dadhsion. Il rassemble une communaut de plus de 450 membres, responsables dinfrastructure ou de production. Le cRiP est un cercle de confiance, lieu dchanges et dinformations entre les diffrents membres confronts aux mmes dfis financiers, technologiques et organisationnels.
Objectifs
- Etre plus performant dans les mtiers de linfrastructure et de la production - Partager nos visions et retours dexpriences - Echanger et travailler sur les technologies les ressources humaines les organisations et processus les approches financires des projets les relations avec les offreurs - Promouvoir notre fonction au sein des entreprises - Sappuyer sur les travaux du CRiP pour asseoir une position au sein de notre entreprise - Crer un rseau de communication rapide et efficace entre dirigeants.
Le Bureau excutif
Prsident : Philippe SeRSOT - CA-CIB - CTo Vice-prsidents : Marc LIMODIn LA BANQUe PosTALe Directeur des Techniques et Infrastructures Franois STePhAn - THALes Directeur Technique eric STeRn orANGe-FrANCe TeLeCoM responsable expertise environnement Technique nol cAVALIeRe PsA PeUGeoT-CITroN responsable de lArchitecture Technique Olivier MAuPATe - VALLoUreC IT Director claude cORIAT reNAULT responsable stratgie et Politiques Techniques Jean-Paul AMOROS - GeNerALI Directeur Infrastructures et support Pascal PIcchIOTTInO BoUYGUes TeLeCoM responsable Dpartement Infrastructure sI rseau Frdric DIDIeR CreDIT FoNCIer Directeur Production Informatique Secrtaire : Michel GROSBOST Trsorier : Gilles ALBeRT soCIeTe GeNerALe-PAeN Technology strategy Manager
Le mode de fonctionnement
Actuellement, dix groupes de travail thmatiques se runissent tout au long de lanne. Trois autres groupes sur les thmes Base de Donnes, Rseaux et Orchestration sont en cours de cration. Les travaux de ces groupes sont prsents lensemble des membres deux fois par an lors des plnires et loccasion de la Convention annuelle du CRiP au sein ditiForums.
Marc LIMODIN Directeur des Techniques et des Infrastructures LA BANQUE POSTALE Objectifs : Traiter - de lvolution des mtiers dinfrastructure et de production - des problmatiques de ressources humaines - des problmatiques dorganisation - Partager pour tre plus performant et anticiper sur : Les bonnes pratiques Les modles dorganisation alignement avec les mtiers Le sourcing / la formation Ladaptabilit des ressources aux processus et technologies Identier des thmes travailler en sous-groupe Thmes abords : - Evolution des mtiers - Facteurs dvolution - Les nouveaux mtiers - Les mtiers en devenir - Les mtiers en retrait - La sous-traitance - Les problmatiques RH
Frdric DIDIER Directeur Production Informatique CREDIT FONCIER Objectifs : - Inventorier les pratiques dinfrastructures en rupture avec les pratiques usuelles en vue de rduire les cots. - Etre une rfrence permanente des pratiques : pour les responsables dinfrastructure un guide de bonnes pratiques - Inciter les fournisseurs offrir des solutions low-cost Thmes abords : - Limpact des techniques de virtualisation pour les serveurs et pour les postes de travail - Automatisation de la gestion des systmes, - Mesure de la pntration de lOpen source - Utilisation des composants grand public et jetables (mais recyclables !) - Impact de la standardisation des processus de production autour dITIL - Sourcing, externalisation, offshoring - Approches nancires - Mutualisation inter-entreprises - Rduction des services et du support - Abaissement des exigences sur les data centers - Green IT, gestion de lnergie
Frdrick PAQUET Responsable Asset Management Critical Information Systems THALES Objectifs : Rassembler et documenter des bonnes pratiques concernant la mise en place puis lutilisation dune CMDB Thmes abords : - Dans quel ordre et avec quels processus ITIL: CMDB, gestion des congurations, gestion des changements, gestion des mises en production - Quel primtre pour la CMDB, quel niveau de dtail ? - Comment abiliser les informations gres dans la CMDB ? - Les gains attendus - Quel chemin depuis un existant (variable selon les entreprises) : plusieurs scnarii ? - Quels outils ? loption Open Source est-elle viable ? Livre Blanc Comment construire et tirer bnce dune CMDB ? (prvu en juin 2010 loccasion dItiforums)
PRA
Anim par Luc VRIGNAUD Responsable Diffusion Support et Scurit MACIF Objectifs : Analyser les architectures des infrastructures de secours et de cohrence applicative, les aspects spciques lis loutsourcing, les critres de validation puis de MCO du PRA, lorganisation et le processus de dclenchement. Thmes abords : - Validation probante dun PRA - Comment ngocier un contrat doutsourcing ? - Architectures de secours et cohrence applicatives dun PRA - Maintien en Condition Oprationnelle dun PRA - Critres de dclenchement dun PRA - Concepts et vocabulaire PRA Livre Blanc Analyse et Tendance, PRA 2010 (prvu en juin 2010 loccasion ditiForums)
Objectifs : - Dnir la comprhension et la traduction oprationnelle par les membres du CRIP des modles de Cloud Computing - Identier les composantes cls, selon le CRIP, des solutions de Cloud Computing pour les entreprises/administrations et organisations IT - Dcrire les expriences et stratgies des membres du CRIP sur le Cloud Computing Thmes abords : - Dnition des concepts : Cloud Computing, SaaS, IaaS, etc. - Gains attendus et gains constats - Scurit des solutions de Cloud Computing - Modles Cloud Computing : public, priv, mixte - Retours dexpriences, attentes et roadmaps des membres du CRIP Livre Blanc Analyse et Grandes Tendances du Cloud Computing (prvu en juin 2010 loccasion dItiforums)
Thmes et Objectifs : - Analyser les caractristiques et lorganisation de la plate forme z chez les utilisateurs - Elaborer la cartographie matrielle et logicielle chez les utilisateurs - Identier les volutions majeures chez les utilisateurs - Comprendre le positionnement de la plate forme z au sein des SI et les orientations court et moyen terme - Identier les acteurs du march - Analyser les tendances du march
En association avec
A propos du cRiP
Parmi les plus significatifs, on mentionnera : - Livre Blanc enqute et Analyse des Tendances Serveurs - enqute et Analyse des Oprations informatiques - enqute et Analyse des tendances lies au Datacenter - Livre Blanc Meilleures Pratiques du Datacenter - enqute et Analyse des Tendances du Stockage Tous ces ouvrages produits ou en cours de production deviennent inluctablement une rfrence importante pour les CTos. Ils permettent de saffranchir dtudes parfois longues et coteuses et de se benchmarker par rapport aux grandes tendances actuelles. Plus gnralement, ils sont des outils reconnus pour lamlioration de la productivit.
Principes daction
Respect de la loyaut Les membres du CRiP ont pour principe la loyaut lgard des autres participants afin dinstaurer et de maintenir des relations de confiance durables. Participation active Les socits adhrentes au CRiP et leurs reprsentants membres du CRiP sengagent contribuer activement la vie du Club en apportant leur exprience et leur savoir faire aux travaux collectifs. Les socits adhrentes sengagent - rpondre dans un dlai convenable aux diffrents questionnaires qui pourraient leur tre envoys - faire participer au moins un de ses reprsentants au moins un groupe de travail ou une cellule - favoriser la participation de ses reprsentants aux plnires du CRiP - promouvoir le CRiP au sein de leur organisation Les membres reprsentants sengagent - se comporter en ambassadeur du CRiP et promouvoir le CRiP auprs de leurs pairs et des fournisseurs
Principes de comportement
confidentialit Chaque membre du CRiP sengage ne pas divulguer des tiers les informations professionnelles prsentes, sans accord explicite des membres metteurs et du bureau excutif du Club. Chacun des participants, membre permanent ou occasionnel, sinterdit dutiliser directement ou indirectement, des fins personnelles, des informations sensibles quil pourrait dtenir dans le cadre du Club. conflits dintrts Chaque membre du CRiP se doit dviter toute situation de conflit entre les intrts du Club et ses intrts personnels ou ceux de ses proches. Le Club est un club dutilisateurs. Cependant certains de ses membres peuvent appartenir des socits adhrentes qui peuvent avoir dans leurs missions une offre de service pour les autres adhrents. Il est impratif dans ce cas que les reprsentants membres de ces dites socits aient un comportement irrprochable et nutilisent pas ce cercle de confiance pour promouvoir les offres de services de la socit qui les emploie.
Ltat de lArt et la Traduction Oprationnelle des Services et Technologies dans la vraie vie de lentreprise
Thmatiques
Lambition des CRiP Thmatiques est de fournir en une demi-journe : - les cls de comprhension des technologies et solutions des fournisseurs - et leurs traductions oprationnelles dans la vraie vie de lentreprise.
Le format choisi permet lauditeur : - de se forger une opinion en toute indpendance travers la restitution des travaux du CRiP, Club utilisateur des responsables dInfrastructure et de Production dont le crdo est lindpendance vis--vis des fournisseurs - de dcouvrir travers des tmoignages utilisateurs limplmentation oprationnelle des technologies et solutions avec leurs composantes cls, leurs business case, leurs bnfices: promesses et ralits, leurs cueils et freins - de bnficier de lclairage sur les grandes tendances et le panorama de loffre par un cabinet danalyste de renomme internationale Forrester research qui est le partenaire stratgique du CRiP - de rencontrer les acteurs majeurs du march loccasion des pauses et du cocktail qui clture ces sessions
cloud computing 31 mars 2010 Virtualisation Serveurs 6 mai 2010 Data center Facilities 15 septembre 2010 Stockage 13 octobre 2010 z/OS 17 novembre 2010
etat de lart des services et technologies des infrastructures & Leurs traductions oprationnelles dans la vraie vie de lentreprise
Un Programme Unique sur deux jours
- 16 grands thmes dinfrastructure traits par les groupes de travail du CRIP (Cloud, Virtualisation, Low Cost, Industrialisation, Stockage, CMDB, PRA, etc...) - 80 Retours dexpriences utilisateurs - Ltat de lArt et la Prospective par Forrester Research - Une session Innovation Technologique - Un espace Affaires avec plus de 50 fournisseurs - Un Espace VIP pour les 500 responsables dInfrastructure et de Production du CRIP - Le support et la contribution des clubs utilisateurs associs de lArchivage et de la Continuit dactivit Partenaires Stratgiques :
organis par :
A propos du cRiP
Contacts
www.crip-asso.fr