Conférence Green Grid à San José : la consommations des centres de données, un enjeu planétaire

, Partager

Pour sa seconde édition le 4 février dernier, le Green Grid a annoncé par l’intermédiaire de Rob Bernard, Chief Sustainability Strategist à Microsoft, le lancement de nouveaux programmes, outils et guides afin d’améliorer l’efficacité des centres de donnée (data center) à l’échelle mondiale.

Fondée en 2007, "The Green Grid" est un consortium dédié à promouvoir la nécessité de réduire la consommation énergétique au sein des centres de données et des grands complexes informatiques. L’année dernière le consortium avait introduit les paramètres PUE (Power Usage Effectiveness) et DCE (Data Center Effenciency) qui permettent de comparer et de mesurer l’énergie nécessaire pour stocker et acheminer une information en fonction de l’énergie totale nécessaire pour le fonctionnement des centres de données, comme les circuits de refroidissement, les systèmes de sécurité et de surveillance, ou l’alimentation des serveurs [1]. Cette année, les membres de Green Grid et les industriels présents se sont penchés sur les différents moyens de mesurer la productivité des centres de données et la création d’un nouveau paramètre, le DCP pour Data Center Productivity.

Depuis ces paramètres ont été repris. A titre d’information, en 2007, une étude réalisée par l’U.S. Environmental Protection Agency (EPA) montre qu’en moyenne une entreprise possède un PUE de 2,0 ou plus. Ceci signifie que pour chaque Watt utilisé par les serveurs, le stockage ou les réseaux Internet, un autre Watt est consommé par les systèmes de refroidissement et de distribution de l’énergie. L’étude montre également que d’ici 2011 la plupart des centres de données pourraient atteindre un PUE de 1.7 voire 1,3 pour les plus performants. Curieusement Google revendique déjà y être parvenu pour 6 de ses grands centres avec un PUE moyen de 1,21. Cependant les moyens entrepris pour obtenir ce résultat sont précieusement gardés secret et donc invérifiables. L’enjeu est grand car selon certaines études si rien n’est fait, dans 25 ans, Internet consommera autant d’énergie que l’humanité tout entière en 2008. Un constat contre lequel tentent de lutter les poids lourds du secteur (AMD, Google, HP, Intel, Yahoo, Ebay, Fujitsu, Microsoft, Sun, VMWare…) réunis à la conférence qui a eu lieu dans la Silicon Valley.

Parmi les initiatives énoncées, on peut citer le programme Data Center 2.0. Son objectif est de fournir à l’industrie un guide sur plusieurs années destiné aux concepteurs et aux utilisateurs des centres de données afin de construire des infrastructures à haute efficacité énergétique. A cela sera ajouté un programme de reconnaissance dans lequel les utilisateurs finaux pourront reporter leurs mesures de PUE et DCE. Selon Jim Pappas, directeur de The Green Grid "Les centres de données sont composés de systèmes hautement complexes. Un grand nombre d’informations techniques et les meilleurs documents pratiques existent dans l’industrie mais il n’existe pas une seule autorité ayant une approche holistique du design des centres de données, ce qui permettrait d’aller de l’avant".

La consommation des centres de données est en ce moment au coeur de l’actualité. Aujourd’hui, le secteur de l’informatique génèrerait déjà près de 2% des émissions de CO2 liées à l’activité humaine, contre 12% pour le trafic aérien. Une recherche Google équivaut par exemple à l’énergie consommée pendant une heure par une ampoule à économie d’énergie. Un centre de données moyen consomme en effet près de 4 mégawatts par heure, soit l’équivalent énergétique de près de 3000 foyers.

Les géants de l’Internet semblent être conscients de ce problème. Aux Etats-Unis, la bataille fait rage. Dans le secteur de Columbia River dans le Nord Ouest, Google, Microsoft, Amazon et Yahoo ont construits certains des plus grands et des plus avancés centres de donnés au monde capables de contenir des dizaines de milliers de serveurs. Ces serveurs fourniront les prochaines générations d’applications d’Internet. L’objectif est de tenter par tous les moyens de réduire les consommations énergétiques de ces centres qui sont faramineuses. En exemple, le centre construit par Microsoft dans le Quincy consomme 48 mégawatts l’équivalant de la puissance utilisée par 40.000 maisons. Une étude récente de la firme IDC a estimé que d’ici 6 ans, le coût énergétique annuel des centres de données sera plus élevé que celui nécessaire à l’équipement et la maintenance.

La firme de conseil McKinsey &amp ont rapporté que les 44 millions de serveurs dans le monde consomme 0.5% de l’électricité mondiale et produit 0.2% des émissions de carbone soit 80 mégatonnes par an l’équivalent de ce que rejette l’Argentine ou les Pays Bas. On comprend alors l’inquiétude des principaux acteurs du secteur qui tentent par tous les moyens de sensibiliser les utilisateurs, d’optimiser les outils et les processus, afin de réduire à la fois leur empreinte écologique, mais aussi le coût de leurs consommations énergétiques. Les principales conclusions présentées lors de cette seconde édition du Green Grid concernent autant les comportements que les solutions techniques. Ainsi, près de 60% des utilisateurs reconnaîtraient ne pas éteindre leur poste de travail tous les soirs. Pourtant, selon l’édition 2007 du PC Energy Report, le simple fait d’éteindre les ordinateurs chaque nuit pourrait permettre à une entreprise disposant d’un parc de 10.000 PC d’économiser plus de 165.000$ par an.

Du côté des solutions techniques plusieurs pistes sont envisagées. La première est le concept de virtualisation qui permettrait de faire passer le taux d’utilisation des serveurs de 20% en moyenne aujourd’hui à près de 90%. Grâce à ce concept, un serveur peut faire tourner différents systèmes d’exploitation ou différents logiciels, en faisant abstraction de ses particularités "physiques" et donc en optimisant ses capacités "logiques". Cela signifie également qu’un centre de données peut réduire le nombre de ses machines. Chaque serveur virtualisé permettrait ainsi d’économiser environ 4 tonnes de CO2, selon des chiffres VMware cités par Dotgreen, spécialisé dans ce domaine. D’ici à la fin 2010, les grandes entreprises devraient avoir virtualisé au moins 35% de leur infrastructure serveur et stockage et 20% de leurs postes de travail.

Une autre voie de recherche est l’amélioration de la gestion de la puissance fournie. La puissance fournie est en effet calibrée sur la somme des pics maximum de consommation de chaque serveur. Mais pour le cas d’un grand nombre de serveurs, il pourrait être astucieux de calibrer sur la moyenne de consommation totale des serveurs car il est peu probable que le pic de maximum soit atteint pour chaque serveur en même temps. Ceci selon Microsoft pourrait permettre d’ajouter 30 à 50% de serveurs supplémentaires pour la même consommation d’énergie. Ceci implique en contre partie des coûts de surveillance supplémentaires en cas de trop forte demande en énergie.

D’autres directions de recherche ne portent pas sur l’amélioration du fonctionnement des serveurs mais sur les systèmes de maintenance. Par exemple l’énergie consommée par les systèmes de refroidissements actuels pourraient être réduits de 25 à 40% en utilisant de nouveaux systèmes appelés par Hewlett Pachard’s "smart cooling" (refroidissement intelligent). Ils permettraient de laisser les centres de données tourner à l’air ambiant soit 27°C en injectant directement de l’air frais dans les serveurs au lieu d’entretenir une climatisation globale du centre à une température de 13°C .

Toujours dans l’idée d’optimiser les systèmes extérieurs aux serveurs, IBM, HP, Sun Microsystems, Rackable Systems, and Verari Systems projettent de créer des modules incluant chacun un système de refroidissement, une alimentation et une série de serveurs. Ces modules seraient capables de supporter 3000 serveurs. Outre le gain en espace, ces modules permettent une grande flexibilité d’une part car il suffirait de les déployer selon le besoin et d’autre part car il serait très facile de les déplacer afin de les réparer ou les améliorer.

Enfin d’autres projets plus ambitieux proposés notamment par Google consisteraient à construire des centres de données dans des lieux naturellement froids. Il serait ainsi question de construire un centre de donnée en mer au large de la Californie, auto alimenté par l’énergie des vagues ou bien alors en Sibérie ; Mais pour le moment ces projets sont encore dans les cartons.

Les autres programmes lancés par le Green Grid portent sur des nouveaux outils d’éducation et la publication d’articles d’information. Pour ses membres le Green Grid lancera "The Green Grid Academy" un ensemble de documents de formation qui pourra aider les utilisateurs à mieux comprendre comment déployer les standards industriels de mesure comme le PUE, DCE, DCP. Le contenu est attendu pour être disponible à partir de mi 2009. Quant aux publications d’articles elles sont déjà disponibles et traitent par exemple de 8 méthodes pour mesurer l’efficacité des opérations dans les centres données, l’objectif étant de récupérer les avis sur la méthode la plus appropriée. Les articles sont disponibles à l’adresse :
http://www.thegreengrid.org/library-and-tools.aspx

Source :


- Le rapport de la conference de "Green Grid" du 4 février 2009 - http://www.thegreengrid.org/ /media/press%20releases/TGG%20Technical%20Forum%20Release%202009-02-04.ashx
- "Centres de données, le Green Grid veut alléger la facture" : Matthieu Dailly - 02/09/2009 - http://www.neteco.com/256396-centres-donnees-green-grid-alleger-facture.html
- "Google, Microsoft, and other Internet giants race to build the mega data centers that will power cloud computing" : Randy H. Katz - publié début février - http://www.spectrum.ieee.org/feb09/7327

Pour en savoir plus, contacts :


- [1] Précision sur la méthode de calcul : http://www.nysforum.org/documents/html/2007/execcommittee/may/inteldatacenterdesign_files/textonly/slide12.html
- Le rapport du forum technique de la conférence de "Green Grid" du 4 février 2009 - http://www.thegreengrid.org/ /media/2009TechForumPresentations/Data%20Center%2020%20Design%20Guide.ashx?lang=en
Code brève
ADIT : 57732

Rédacteur :

Arnaud Souillé ; deputy-stic.mst@consulfrance-sanfrancisco.org

Voir en ligne : http://www.bulletins-electroniques….