Nous suivre Les Cahiers Techniques du bâtiment

Un data center vertical ventilé de bas en haut

Sujets relatifs :

Un data center vertical ventilé de bas en haut

Zone froide. L’intérieur est câblé de fibre avec des nourrices à chaque étage pour la connexion aux serveurs. Les serveurs informatiques fonctionnent parfaitement jusqu’à 30 °C, comme c’est le cas dans les centres de Google, en Californie. Les dommages ne sont réellement perceptibles qu’à partir de 50 °C. Zone chaude. L’alimentation électrique est individualisée avec des compteurs radio relevés à distance (barrettes en bas) et les utilisateurs ont accès à leur consommation en temps réel via Internet. En cas d’incendie, des détecteurs de fumées (au plafond sur le caillebotis) actionnent la diffusion d’un brouillard d’eau < à 100 microns. Ce brouillard ne détruit pas les serveurs.

Taillé sur cinq niveaux aux mesures de l’informatique, ventilé sur le principe du free cooling, ce centre informatique est conçu par des architectes et un opérateur exploitant. Sa consommation en énergie est réduite de 30 % et son rejet carbone allégé de 250 tonnes/an, en comparaison d’une solution de plain-pied.

Contexte Un centre informatique qui respecte l’environnement

Énergivores, consommateurs d’espaces, pas assez fiables : les data centers sont souvent montrés du doigt. D’abord parce qu’un bâtiment conçu pour héberger 200 baies d’ordinateurs consommera à plein régime environ 15 GWh par an d’électricité, soit l’équivalent de 4 000 logements. Ensuite, parce que l’occupation au sol d’une baie nécessite environ 20 m² de bâti et 40 m² de foncier. Enfin, parce que la fiabilité n’est pas toujours au rendez-vous.

La plupart des centres informatiques sont construits selon le même modèle : un bâtiment de plain-pied, doté de faux planchers dans lesquels cohabitent l’alimentation électrique, les courants faibles, l’eau glacée pour la climatisation. Un modèle qui ne tient pas compte de la dimension environnementale, ni de la consommation électrique. Les pannes les plus fréquentes sont des coupures de courant sans reprise automatique, des arrêts de climatisation, voire des faux contacts provoqués par le dépôt de poussières. L’idée de concevoir un data center compact moins énergivore, bien ventilé et produisant de la chaleur domestique à bon rendement est née de ce constat.
Nicolas Aubé, P.-d.g. de Céleste, opérateur de fibre optique et fournisseur d’accès Internet, imaginait un bâtiment taillé autour des baies informatiques, sans faux planchers, avec des salles modulaires et superposables. De son côté, Enia Architectes avait déjà livré plusieurs centres informatiques et planchait sur un équipement vertical. Leur rencontre aboutit à un projet novateur, Marylin. La conception verticale réduit jusqu’à cinq fois le foncier, et assure une ventilation selon le principe du free cooling pour refroidir les zones informatiques, profitant du tirage thermique pour améliorer les rendements. L’air frais est puisé à température ambiante et circule à travers les serveurs pour les refroidir avant d’être récupéré, voire réutilisé. Un système breveté en commun par Céleste et Enia.

Exploitation Limiter à 20 % du temps l’usage des climatiseurs

Céleste a installé son projet en 2010, en bordure de l’autoroute A4, à Marne-la-Vallée (Seine-et-Marne), en Région parisienne.

Il est composé d’un bâtiment de bureaux et de deux tours Marylin verticales A et B, identiques et symétriques, desservies par un escalier et un ascenseur commun. Leurs fondations reposent sur des pieux, les murs sont en béton banché, avec deux traverses à chaque niveau pour porter les baies informatiques. Les planchers de circulation sont en caillebotis d’acier pour assurer la circulation de l’air froid, de bas en haut, en périphérie, et de l’air chaud en sens inverse, au centre. Les murs sont isolés par l’extérieur avec de la laine de roche couverte d’un bardage bois ou métal selon les faces.
Chaque data center repose sur une base carrée de 8 m de côté et 16 m de hauteur, correspondant à deux rangées de 10 baies installées dos à dos sur 5 niveaux. Soit 100 baies par tour pour une capacité de stockage de 100 pétaoctets (Po) de données (1 Po équivaut à 1 million de Go).
La ventilation est conçue pour miter à 20 % du temps annuel (73 jours calendaires) le recours aux climatiseurs, ce qui allège d’autant la facture énergétique par rapport à un refroidissement à eau glacée.
En période froide, les gaines d’air soufflent l’air chaud dans les bureaux. Au-dessus de 27 °C, ou en cas de pollution atmosphérique, le système fonctionne en circuit fermé (sans apport d’air extérieur), et les calories sont évacuées en toiture (18 jours/an). Le tout est piloté par un centre serveur.

Résultats Une consommation réduite de 6 GWh par an

Le data center Marylin A est déjà rempli aux deux tiers de serveurs. Marylin B, actuellement vide, sera progressivement équipé à partir de la fin de cette année. La consommation réelle observée sur deux années d’exploitation (2012 et 2013) montre des gains. Le dispositif de free cooling réduit de 30 % la consommation électrique globale. L’économie est de 6 GWh par an, équivalente à la consommation de 150 000 m² bureaux classiques, et d’environ 250 tonnes/an de carbone. Le processus qui alimente en calories la ventilation d’air des bureaux avoisinants augmente ces performances. « Cela prouve aussi que les gros data centers sont plus efficaces que les petites salles informatiques des entreprises, indique Brice Piechaczyk. La mutualisation et la concentration des équipements informatiques conduisent à d’importantes économies d’énergie ».

Reste enfin à mieux gérer les onduleurs qui fonctionnent en permanence, afin d’assurer une alimentation électrique continue, de bonne qualité sans microcoupures. Les modèles statiques à batteries sont moins coûteux, mais peu durables. Leur rendement est faible et les batteries polluantes. Les onduleurs dynamiques sont plus onéreux, mais durent plus longtemps. Leur rendement est plus élevé et les roues à inertie sont écologiques.
« Il reste une autre source importante d’économie d’énergie qui n’est pas encore mise en œuvre, estime Nicolas Aubé. Il s’agit d’éteindre automatiquement les serveurs inutilisés, notamment la nuit, et de les redémarrer automatiquement le matin. Ce serait radical pour économiser jusqu’à un tiers de la consommation énergétique d’un data center. »

N°333

vous lisez un article des Cahiers Techniques du Bâtiment N°333

Découvrir les articles de ce numéro Consultez les archives 2014 des Cahiers Techniques du Bâtiment

Nous vous recommandons

Perspective, l'immeuble tertiaire en structure bois le plus haut de France

Perspective, l'immeuble tertiaire en structure bois le plus haut de France

31 mètres, c'est la hauteur du bâtiment Perspective récemment inauguré à Bordeaux. Un édifice de 7 niveaux conçu en structure bois poteau-poutre qui met à l'honneur le bois massif,[…]

12/11/2018 | ActualitéChantier
Des joints creux réalisés dans l'épaisseur d'un système d'ITE

Des joints creux réalisés dans l'épaisseur d'un système d'ITE

Une réhabilitation respectueuse des matériaux anciens

Une réhabilitation respectueuse des matériaux anciens

Le dôme géant du ZooParc de Beauval sort de terre

Le dôme géant du ZooParc de Beauval sort de terre

Plus d'articles