Brice Piechaczyk, Enia Architectes : pour les datacenters, « la course est sur l’énergie »

Le cabinet dont il est associé a collaboré à la conception d’un grand nombre de centres de calcul français de nouvelle génération : Noé d’EDF, celui du Crédit Agricole près de Chartres, et Marilyn de Celeste, pour ne citer que quelques uns de ceux pour lesquels il a, à ce jour, obtenu l’autorisation de communiquer. Avec nous, Brice Piechaczyk, architecte ingénieur, revient sur les tendances qu’il observe sur ce marché.

LeMagIT: Vous avez travaillé à la conception du futur centre de calcul de Celeste à Champs-sur-Marne, Marilyn. Quelles sont ses spécificités ?

Brice Piechaczyk : Il y en a au moins deux de vraiment significatives. La première, c’est clairement l’utilisation d’un freecooling direct et total [environ 80 % du temps, aucun système de climatisation n’est utilisé; aucun fluide caloporteur n’est employé pour apporter les frigories aux baies ou pour en extraire les calories, NDLR]. Jusqu’ici, aucun donneur d’ordre n’avait accepté de prendre le risque d’une telle innovation. Telecity, pour son nouveau centre de calcul Condorcet a bien recours à du freecooling direct, mais uniquement pour les locaux techniques, par pour les salles d’hébergement. Après cela, d’autres suivront. 

La seconde véritable spécificité de Marilyn, c’est la disposition spatiale : une organisation verticale. Celle-ci présente trois intérêts majeurs : l’optimisation de l’efficacité du freecooling direct - le bâtiment se comporte comme une simple cheminée thermique - et un foncier réduit - le bâtiment est très compact et coûte beaucoup moins cher. Grosso modo et à titre d’illustration, il faut compter de 15 à 20 k€ le m2 de salle informatique «classique». Avec Marilyn, on tombe à moins de 10 k€. Au-delà, bien sûr, il faut comparer des choses comparables : tout dépend du niveau de redondance recherché, ...etc. Mais voilà les ordres de grandeurs. 

Dans cette configuration verticale, un bâtiment enterré n’aurait-il pas été plus efficace ?

Un peu plus, oui. Mais il aurait été beaucoup, beaucoup plus cher. Nous avons déjà fait des études sur le sujet en travaillant sur nouveau centre de calcul du Crédit Agricole, près de Chartres - il s’agit de bâtiments qui s’implantent dans les champs sur un terrain complètement vierge; les édifices sont semi-enterrés avec des talus qui reviennent en façade pour ne laisser apparaître qu’un frontal minimum. La difficulté, c’est qu’il faut de grandes surface d’échange et les débits générés par les échanges convectifs avec l’enveloppe du bâtiment sont minimes. En outre, d’autres difficultés viennent s’ajouter à cela : les contraintes du code du travail, celles de la sécurité avec notamment la nécessité d’avoir des issues de secours, les risques d’infiltration, etc.

Il faut dire que, durant deux à trois mois, avec le Crédit Agricole, nous avons exploré un peu tous azimuts les pistes d’optimisation possibles. A vrai dire, la plupart de nos clients ont envie d’être les meilleurs sur le sujet. Du moins en début de projet. Car peu décident, in fine, d’aller jusqu’au bout. Nicolas Aubet, de Celeste, fait un peu figure d’exception en la matière. C’est peut-être d’ailleurs ce qui explique qu’il y ait aussi peu d’architectes sur ce domaine.

Justement, quelles tendances observez-vous dans les demandes de vos clients ?

La course est clairement sur l’énergie. Il commence à être étalé sur la place publique que les centres de calcul ont une empreinte environnementale gigantesque. Les ordres de grandeur sont énormes. Marilyn, c’est tout de même la consommation électrique nécessaire pour chauffer une centaine de milliers de mètres carrés de bureaux... Noé d’EDF, c’est la consommation d’une ville de 5/6000 habitants. 

Alors, bien sûr, il ne s’agit pas de remettre en cause l’existence des datacenters. C’est probablement beaucoup plus efficace de concentrer plutôt que de disperser. Mais on assiste à une course au PUE. Ce n’est pas forcément le meilleur indicateur mais il a le mérite d’exister et d’être assez simple. Sur Noé, on oscille entre 1,5 et 1,7; mais sans la moindre concession sur la continuité de l’activité et la sécurité. 

Cela dit, derrière le terme de centre de calcul, il y a des produits très différents, d’un client à l’autre. Les choses évoluent beaucoup avec les services informatiques des grands comptes, qui ont des besoins bien identifiés. Mais les hébergeurs ont d’autres contraintes... ils n’ont pas forcément la possibilité d’anticiper l’organisation à terme de leurs salles de production. Par exemple, le CNRS a une approche optimisée qui est assez jusqu’au boutiste avec refroidissement par eau directement dans les baies. 

Ce qui me semble de plus en plus systématique, c’est l’organisation en allées chaudes et froides. Après, que l’on apporte l’air frais par le haut ou par le bas, ça importe finalement assez peu. Mais de plus en plus, on nous demande de prévoir la possibilité d’alimenter directement les baies en eau froide. Au-delà, même si l’on fait un gros travail sur la consommation énergétique des bâtiments, c’est sur l’informatique d’il y a une capacité d’optimisation énorme.

Ce qui est intéressant avec les centres de calcul, c’est que plusieurs mondes technologiques se rencontrent avec des logiques de R&D et des visions de l’avenir assez déconnectées. Ils se rencontrent et essaient de se rapprocher.

Au-delà, nous avons quelques études de faisabilité en cours sur des échangeurs eau-eau. Mais c’est encore ultra-confidentiel. Il faut noter qu’il y a de vrais risques de réchauffement des rivières ou des nappes pour des échangeurs en eau douce. Mais l’eau de mer, c’est un vrai sujet. 

La question du cycle de vie des datacenters - jusqu’à considérer le changement de destination des bâtiments - est-elle prise en compte ?

Ça commence, principalement pour des raisons de responsabilité sociale ou suite à des initiatives d’architectes et d’élus. Du point de vue des flux financiers, pour le donneur d’ordre, la possibilité de changer la destination d’un datacenter n’est une question cruciale. Ce qui fait avancer dans ce sens, c’est plutôt l’incitation d’élus ou une forme de devoir moral de la maîtrise d’ouvrage - et puis, en interne, les datacenters sont des bâtiments très importants, porteur d’une image novatrice. Pour les élus, la crainte, c’est celle de voir apparaître de nouvelles friches industrielles.

Bailly-Romainvilliers, par exemple, en est à son quatrième datacenter; le Maire se demande légitimement ce que seront devenus ces bâtiments dans 15 ans. Nicolas Aubet, comme d’autres, s’est clairement posé la question : les bâtiments doivent pouvoir avoir une seconde vie. C’est là que nous, architectes, avons quelque chose à apporter. Nous avons l’habitude de manier ces notions et d’apporter des réponses à ces problématiques de durée de vie du bâti. 

Dans notre approche, nous avons l’habitude de regarder l’essence programmatique d’un projet. Nous appliquons des méthodes de projet générales à du bâtiment d’industrie un peu lourde. Les erreurs sur certains datacenters qui existent sont souvent liées à l’absence d’architecte ou à une ingénierie qui se limite à une vision techniciste. Ces bâtiments sont gros, se voient, et s’implantent durablement.

Pour approfondir sur Gestion et administration du Datacenter

Close