Visite au coeur d’un Data Center

Avec la progression actuelle du Cloud computing, les data centers sont amenés à se développer.

Ces espaces, abritant des milliers de serveurs, hébergeant eux même les services informatiques de milliers de clients, impliquent une gestion rigoureuse des différents risques (sécurité, environnement, etc.) et des dépenses énergétiques.

Raphaëlle Besse Desmoulières nous emmène dans un article de son blog (bilancarbone.blog.lemonde.fr) au coeur du Data Center d’Illiad.

Morceaux choisis :

Le bruit. C’est ce qui frappe d’emblée quand on franchit le portail du centre de données d’Iliad à Vitry-sur-Seine. Un ronron continu accueille le visiteur. Ce dernier trouvera même un distributeur de bouchons d’oreille à l’intérieur du bâtiment pour son ouïe délicate. En revanche, inutile de chercher l’enseigne sur l’édifice de verre, ni le nom sur la boîte aux lettres, on n’y trouvera rien. Iliad est ici incognito. “Question de sécurité”, répond Arnaud Bermingham, responsable de l’hébergement de la maison mère de Free.

securite.1269607227.jpgUn centre de données – datacenter – est un endroit effectivement extrêmement protégé : le jour, des gardiens surveillent le site, la nuit, des chiens prennent le relais. Les caméras de vidéosurveillance, elles, filment en permanence. Pour pénétrer à l’intérieur, le visiteur doit fournir une pièce d’identité et passer au travers d’un sas. Les 17 employés, eux, doivent présenter leur doigt et un badge sur lequel leur réseau veineux a été scanné. Dans le dédale du site, tout ou presque est sous clef, de la porte d’entrée des salles aux compteurs électriques. La sécurité est au cœur des métiers d’un datacenter. Le site et ses 40 000 serveurs abritent en effet des données sensibles : celles de milliers d’internautes ou de sociétés qui n’aimeraient pas voir leurs données piratées.“Nous avons un devoir de confidentialité”, confirme Arnaud Bermingham.

“Notre métier, c’est de fournir des m2 à des professionnels de l’Internet mais aussi à des banques ou des sociétés d’assurance, ajoute-t-il. On va leur fournir de l’énergie 24 h / 24 h quelque soit la situation et repousser au maximum le risque d’interruption de service.” Pour cela, selon le “principe de redondance”, tout ou presque (armoires de climatisation, pompes à eau…) est présent en double sur le site. Sept groupes électrogènes, alimentés au fioul, peuvent également prendre le relais en cas de panne EDF. “Avec ça, on peut fonctionner pendant 40 heures à 100 %”, affirme le responsable.

Alimenter ces serveurs et faire en sorte que ça tourne : si le défi est technologique, il est surtout d’ordre énergétique. Le bâtiment de 5 800 m2 et ses 4 500 m2 de salles machines consomment en effet 10 mégawatts par an, soit la consommation moyenne d’une ville de 15 000 habitants. Car il faut non seulement alimenter en électricité les serveurs, climatiser les pièces où ils se trouvent pour éviter la surchauffe mais aussi améliorer la qualité du courant qui arrive de chez EDF. Résultat : une facture annuelle de 7 millions d’euros !

Le datacenter est flambant neuf. Après douze mois de travaux et un investissement de plus de 10 millions d’euros, le datacenter a rouvert il y a trois mois. Le principal changement concerne l’amélioration de la performance énergétique du bâtiment et de ses installations. “Avant d’être écologique, notre démarche est avant tout économique, indique Arnaud Bermingham. La moindre petite innovation est intéressante en terme de coûts.”

alleefroide.1269608055.jpgL’effort a surtout porté sur la production de froid qui, en représentant un tiers de l’énergie totale consommée, constitue un véritable défi. Traditionnellement, les datacenters utilisent une technique de climatisation qui consiste à rafraîchir toute la pièce pour maintenir les machines à environ 20°C. Ici, deux systèmes cohabitent. Celui du “cold corridor”, basé sur la séparation des flux d’air entre des allées chaudes et des allées froides, vise à optimiser la distribution d’air froid. Deux baies (des armoires qui abritent les serveurs) sont regroupées au sein d’armoires géantes où seule l’allée centrale (la froide) est climatisée. L’air chaud est rejeté par l’arrière des machines dans le reste de la pièce. “Ainsi, on ne refroidit que les machines et pas le plafond”, explique Arnaud Bermingham. Autre concept : l’utilisation du “free-cooling”, qui consiste à récupérer, quand les températures le permettent (à partir de – 5 °C), l’air extérieur via des échangeurs placés sur le toit pour refroidir le système de climatisation.

Autre innovation : chaque baie est reliée à son propre compteur électrique. Il y en a plus de 2 000 sur le site. “On ne peut pas faire des économies d’énergie si on ne connaît pas la consommation d’énergie, explique Arnaud Bermingham. Avec ce système, nous avons une visibilité en temps réel de la consommation électrique de chaque client afin de réguler la climatisation en fonction de cette consommation.”

mecano.1269607686.jpg

Désormais, Iliad espère économiser jusqu’à 20 % sur sa facture EDF par an et amortir son investissement sur dix ans. Pour l’instant, le client, lui, ne verra pas la différence sur sa facture même si le jeune responsable de chez Iliad affiche ostensiblement le PUE du datacenter. Le Power Usage Effectiveness, mis au point par le consortium The Green Grid, est un indicateur d’efficacité énergétique. Il est calculé en divisant le total de l’énergie consommée par le datacenter par l’énergie utilisée par l’ensemble de l’équipement informatique (serveur, stockage, réseau). Plus ce chiffre est proche de 1, meilleure est l’efficacité énergétique. “Un datacenter traditionnel a un PUE compris entre 1,8 et 2,2. Nous, nous avons un PUE de 1,23″, affirme Arnaud Bermingham. Ce chiffre, invérifiable, est stratégique pour les acteurs du secteur qui se livrent une âpre concurrence.

A Vitry, certaines salles du datacenter sont encore vides, mais Arnaud Bermingham n’est pas inquiet. “C’est devenu très complexe de gérer cette partie en interne, assure le responsable hébergement d’Iliad. De plus en plus d’entreprises choisissent d’externaliser ce service. En seulement trois mois, nous avons rempli le centre à 65 %. Il sera à 100 % dès avril. Il y a plus de demande que d’offre.” Demande croissante du Net, cloud-computing (utilisation de logiciels et services hébergés à distance, comme ceux de Google document), smartphones… le marché a en effet de beaux jours devant lui.

source : http://bilancarbone.blog.lemonde.fr/2010/04/01/au-coeur-dun-datacenter/


One Comment

  1. Carbone 11 04|04|2010 at 9:12 - Reply

    Merci pour la reprise de cet article fort intéressant.

Leave A Comment