Nous suivre Industrie Techno

Il est impératif de traquer les pannes

HUGO LEROUX redaction@industrie-technologies.com

Sujets relatifs :

,
L'informatique migre dans les nuages. Mais ses points névralgiques que sont les datacenters restent bien terre à terre. Avec le développement du cloud computing, ils voient leurs sollicitations exploser. Avec pour conséquence deux grands défis : la fiabilité et la maîtrise énergétique. Pour les relever, constructeurs, équipementiers et opérateurs des centres de données s'organisent. Plongée au coeur des usines de l'information.

Des centaines de boîtes noires empilées, rangées en couloirs. Ces baies de serveurs à lames, ultraperformants, s'étendent sur des centaines de mètres carrés. Par-dessus, le vrombissement continu des climatiseurs pour garantir une ambiance autour de 24 °C. D'autres centaines de mètres carrés abritent les infrastructures qui assurent la perfusion en énergie et froid de cet écosystème informatique : distribution, câblage, onduleurs, pompes, compresseurs, échangeurs de chaleur, tuyauterie... Cette scène n'est pas futuriste : c'est le portrait-robot d'un datacenter actuel.

Depuis quelques années, les datacenters font face à une demande exponentielle. En cause : l'externalisation progressive des services informatiques à destination des entreprises, et l'importance croissante des sites de partage de contenus. Conséquence directe : leur taille explose. Désormais, elle se chiffre en millier de mètres carrés. Ces monstres informatiques réclament des infrastructures performantes et une organisation sans faille. Qu'on en juge : un datacenter de 14 000 m2 peut consommer 32 MW d'électricité, l'équivalent de la consommation d'une ville de 25 000 habitants ! Le cloud computing accroît ces contraintes, car il ne tolère pas d'avaries. Pour les clients, pas question de voir interrompu l'accès à leurs données.

Pour les datacenters, le défi est donc triple. D'abord, assurer une disponibilité ininterrompue (always on). Garantir ensuite une réactivité sans faille par rapport aux demandes d'hébergement, éminemment évolutives (pay as you grow). Enfin, maîtriser la consommation énergétique. Ces défis, les constructeurs et exploitants doivent les prendre à bras le corps. Comme l'explique Fabrice Coquio, directeur général de l'hébergeur Interxion : « Les datacenters ne sont plus des salles blanches abritant des serveurs. Ce sont de véritables centrales de l'information, qui requièrent des savoir-faire en génie informatique, électrique et climatique. »

1. Garantir la sécurité des données

Pour traquer la moindre interruption du service, les gestionnaires recourent à la redondance des équipements. « Ceci consiste à doubler chaque élément, résume Fabrice Coquio. Au niveau des d'infrastructures : distribution, onduleurs, groupes froid... comme au niveau des circuits d'alimentation électrique. En cas de défaillance, on peut alors rapidement basculer sur l'équipement secondaire. »

Depuis 2007, les professionnels se réfèrent à la classification des « tiers » établie par l'Uptime Institute, qui définit quatre niveaux de redondance. Plus les données hébergées sont critiques, plus la redondance du système est poussée. « Aujourd'hui, les nouveaux datacenters se positionnent entre le troisième et le dernier tiers », analyse Jean-Marc Arlot, directeur développement d'ETDE, qui intervient dans l'ingénierie des datacenters. « Concrètement, on assure une double alimentation, branchée sur deux secteurs différents du fournisseur d'électricité (voir tableau). Le basculement d'une ligne à l'autre peut être automatique si les deux sont actives. Il en va de même pour les équipements d'infrastructures. » À titre d'exemple, le « tiers 3 » correspond à une disponibilité théorique de 99,982 %, soit 1 heure et 36 minutes d'arrêt dans l'année. Le passage au « tiers 4 » fait chuter l'indisponibilité à 24 minutes.

Également en ligne de mire : la qualité du courant. « Bien que la production électrique soit relativement stable en France, le courant délivré par les énergéticiens est parfois trop « sale », c'est-à-dire trop fluctuant pour la capacité des onduleurs », explique Gilles Pecqueron, responsable du développement commercial de l'hébergeur Telehouse. Un événement rare - une dizaine de fois par an - mais à prendre en compte. Pour pallier ce problème, les datacenters sont équipés de groupes électrogènes. Des générateurs thermiques au fioul avec des réserves pour une autonomie de quelques heures à quelques jours. Les réserves de combustible valent d'ailleurs l'inscription des datacenters au registre des installations classées pour l'environnement (ICPE), avec les études de risques exigeantes que cela implique.

2. Optimiser les flux au sein des installations

Les demandes d'hébergement évoluent rapidement, de même que les critères d'obsolescence du matériel informatique. Deux facteurs qui impliquent un renouvellement du matériel toujours plus soutenu. Face à ces changements, les opérateurs déploient des formules plug and play, où les équipements sont prédimensionnés. Il ne reste alors plus qu'à connecter ces « boîtes noires » sur l'infrastructure existence pour remplacer une baie de serveurs obsolètes ou augmenter la capacité.

« Mais attention, prévient Philippe Diez, vice-président France d'APC by Schneider Electric, spécialisée dans l'ingénierie des datacenters. Le plug and play nécessite d'avoir bien dimensionné l'installation au préalable. Il faut donc disposer d'une distribution et des onduleurs capables d'absorber la montée en puissance ». Planifier et optimiser le changement devient donc un véritable casse-tête logistique dans des installations de plus en plus vastes. Pour la gestion des datacenters au jour le jour, le concept des DCIM (datacenter information management) s'est imposé. Cette approche intégrée se base sur un haut niveau de monitoring, pour suivre au plus près la consommation et les besoins du système. Elle réunit une cartographie rigoureuse des équipements avec les méthodes de conduite au changement.

La société Star-Apic s'est lancée dans les logiciels de cartographie dédiés aux datacenters. « Dans beaucoup de datacenters, les gestionnaires se basent encore sur des plans physiques des installations. Le suivi des équipements est ensuite répertorié sur des tableaux type Excel. Or ce modèle peu flexible est de moins en moins en phase avec les changements à conduire quotidiennement », estime Bruno Brottier, directeur de l'activité DCIM chez Star-Apic. Résultat : trop d'interventions menées dans l'urgence, et un développement parfois anarchique. Selon Bruno Brottier, entre 2 et 10 % des équipements de datacenters restent branchés mais ne sont plus utilisés.

Embryonnaires il y a trois ans, les logiciels de cartographie et de DCIM sont de plus en plus utilisés pour la conduite des centres (voir encadré p.33). Ils proposent des cartes évolutives pour optimiser les flux au sein des locaux. « Longueurs de câble, noeuds de connexion, disponibilité électrique... Grâce à ces éléments, le gestionnaire peut déterminer facilement l'emplacement le plus judicieux pour ajouter ou remplacer un serveur », résume Bruno Brottier. Les logiciels de conduite au changement prennent alors le relais pour le suivi des opérations entre le décideur et les équipes de maintenance.

3. Combattre la boulimie électrique

Avec l'augmentation de la puissance des serveurs, la densité électrique des datacenters peut atteindre 2 000 à 2 500 W/m2. « Au-delà de 3 000 W/m2, on se heurtera à une limite physique au refroidissement par l'air », souligne Fabrice Coquio. Le développement des datacenters doit donc rimer avec maîtrise énergétique. L'enjeu : diminuer la facture pour le client, dont un quart est lié à la dépense électrique, et minimiser l'impact environnemental. Indicateur phare des performances énergétiques, le PUE (Power usage effectiveness) mesure le rapport entre l'énergie consommée par le centre et l'énergie réellement fournie aux serveurs. « Actuellement, le PUE moyen tourne autour de 2, relève Philippe Diez. En clair, la moitié de l'électricité consommée est absorbée par les infrastructures. Dont 80 % pour la seule climatisation. »

Certes, les fournisseurs améliorent constamment le rendement de leurs matériels. Mais cette amélioration ne suffit pas à compenser l'augmentation constante de la demande. Fin 2008, l'Union européenne a donc émis un code de conduite qui définit un panel de bonnes pratiques à mettre en oeuvre, sur une base de volontariat. « Mais les réglementations pourraient rapidement évoluer vers des mesures plus coercitives », analyse Bruno Brottier. Le message est clair : des méthodes existent pour ramener la consommation électrique à des niveaux acceptables. Il faut les appliquer.

Parmi ces outils, le free cooling tend à se démocratiser. Cette technique met à profit l'air extérieur pour refroidir l'ambiance intérieure via des échangeurs de chaleur. Un complément peu énergivore au refroidissement traditionnel, basé sur l'utilisation de cycles thermodynamiques au sein des groupes de froid. « Le free cooling peut réduire la facture électrique de 30 %, estime Gilles Pecqueron de Datahouse. C'est un apport bienvenu, mais pas encore suffisant », nuance Jean-Marc Arlot d'ETDE, qui lui préfère la ventilation directe. Cette variante du free cooling fait l'économie des échangeurs thermiques, pour injecter directement l'air extérieur dans les salles informatiques. Son potentiel est actuellement à l'étude dans une poignée de datacenters. Reste à développer un filtrage performant pour des salles blanches où la teneur en particules demeure restrictive.

Ces méthodes témoignent d'une meilleure intégration des datacenters dans leur environnement dès la phase de conception. Certains constructeurs poussent cette logique jusqu'au bout en utilisant l'eau des nappes phréatiques ou des lacs comme milieu de refroidissement (voir encadré). En Finlande, la chaleur dégagée par le datacenter de l'opérateur télécom Academica doit être récupérée et revendue pour alimenter le circuit d'eau chaude de la ville d'Helsinki.

La chasse au gâchis s'étend jusqu'à l'aménagement des baies. Certains datacenters déploient une urbanisation en couloirs chauds et froids pour minimiser les mélanges thermiques. L'air chaud recircule entre les baies de serveurs tandis que l'air froid est injecté à l'intérieur des baies, au plus près des faces de serveurs. « La mise en place des bonnes pratiques et l'urbanisation intégrée des datacenters devrait baisser le PUE à 1,5 ou 1,3 », estime Philippe Diez. À défaut de rupture technologique, les professionnels des datacenters devront privilégier une ingénierie et une urbanisation intégrées. Les nouveaux datacenters se mettent à la page. Les chantiers sur le parc existant restent considérables.

FIABILITÉ

La disponibilité d'un datacenter de dernière génération est de 99,995 %, ce qui correspond à une indisponibilité de 24 minutes par an.

Les logiciels d'urbanisation à la rescousse

Optimiser la répartition de 450 serveurs sur deux datacenters est un exercice complexe. Pour assurer la cartographie et l'urbanisation de ses deux nouveaux datacenters, Système U a déployé le logiciel Datacenter One, de la société Star-Apic. « Nous sommes passés d'un simple référencement des équipements avec des feuilles Excel à un véritable outil d'aide à la décision », assure Patrick Henry, responsable informatique chez Systeme U. À tout moment, l'urbaniste du datacenter dispose d'une photographie précise des salles et des câblages. Le logiciel détermine alors l'affectation des machines en fonction des contraintes répertoriées : empilement des serveurs, alimentation électrique, capacités de refroidissement, etc. Le logiciel d'urbanisation permet aussi plus de réactivité en cas de problème technique : « Si nous constatons un problème réseau sur l'un des serveurs, on peut immédiatement identifier les fibres qui y sont connectées », précise Patrick Henry.

FABRICE COQUIO Directeur général d'Interxion

« LES DATACENTERS SONT DEVENUS DE VÉRITABLES CENTRALES ÉLECTRIQUES »

Les serveurs rafraîchis à l'eau des nappes phréatiques

Mieux intégrer l'environnement pour maîtriser la dépense énergétique. C'est l'idée du datacenter de la société de conseil Business&Decision, inauguré en avril 2011 à Grenoble, qui utilise l'eau d'une nappe phréatique comme milieu de refroidissement. L'eau est pompée à trente mètres sous terre pour refroidir un circuit fermé avant d'être rejetée dans la nappe. Le circuit fermé est relié à un climatiseur qui maintient l'ambiance du datacenter à 23 °C par ventilation d'air. Les études de forage et d'impact environnemental ont nécessité une attention particulière de la part du concepteur APC, filiale de Schneider Electric. À terme, ce système devrait couvrir la totalité des besoins en climatisation des salles en été. Le système est optimisé en utilisant aussi en hiver le free cooling. Objectif annoncé du centre : atteindre un PUE de 1,3.

32MW

C'est la consommation électrique du datacenter haute densité d'Interxion qui s'étale sur 16 000 m2 à Saint-Denis. Soit l'équivalent des besoins d'une ville de 25 000 habitants !

vous lisez un article d'Industries & Technologies N°0936

Découvrir les articles de ce numéro Consultez les archives 2011 d'Industries & Technologies

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

[Pas à pas] Comment tirer parti de la réalité augmentée dans votre usine

[Pas à pas] Comment tirer parti de la réalité augmentée dans votre usine

Profitant des formidables progrès de l'informatique embarquée et de l'essor de l'usine 4.0, les exemples d'applications[…]

Bâtiments intelligents : des économies du sol au plafond

Bâtiments intelligents : des économies du sol au plafond

INNOVATION À TOUS LES ÉTAGES

Dossiers

INNOVATION À TOUS LES ÉTAGES

« Bâtiments intelligents : il faut placer l'utilisateur au centre », Olivier Cottet, Schneider Electric

Interview

« Bâtiments intelligents : il faut placer l'utilisateur au centre », Olivier Cottet, Schneider Electric

Plus d'articles