Cet article fait partie de notre guide: In-Memory : quels sont les usages

Le CERN cherche à gagner en disponibilité avec BigMemory

Pour sonder la structure de l’univers, le CERN a déployé la solution In-Memory de Software AG, BigMemory, pour doubler la capacité de ses systèmes.

Les scientifiques du CERN ont redémarré un programme de maintenance et de mises à jour pour presque doubler ses capacités. Selon le centre, cela devrait permettre aux scientifiques de sonder la structure de l’univers, à la recherche de composants basiques de la matière et de gagner en visibilité dans les lois fondamentales de la nature.

C'est dans ce cadre que les ingénieurs et scientifiques de l’Organisation Européenne pour la Recherche Nucléaire utilisent Terracotta BigMemory pour monitorer le système de support de l’accélérateur de particules (LHC - Large Hadron Collider) et pour s’assurer de sa disponibilité permanente, précise Software AG.

« Au CERN, il y a très peu de place pour les erreurs, et la disponibilité du système est un élément critique, à la base de la réussite ou de l’échec, explique Matthias Bräger, ingénieur logiciel au CERN. Donner aux ingénieurs et opérateurs des informations à jour, en temps réel et sans interruption signifie que même dans le cas d’un petit incident, ils peuvent agir immédiatement et éviter toutes formes de conséquences inattendues. »

Garantir un environnement optimal

BigMemory a pour vocation de fournir une disponibilité maximale du système de support. Sa mise en place est coordonnée à une plateforme appelée Control and Monitoring Platform (C2MON) qui fournit des informations en temps réel sur les nombreux systèmes de support. Ceux-ci permettent de maintenir un environnement optimal pour l’accélérateur de particules, dixit Software AG.

Le LHC dispose de 94 000 capteurs créant ainsi plus 1,5 million d’événements non redondants par jour. Les ingénieurs du CERN obtiennent, analysent et manipulent en temps réel des données collectées par ces capteurs via la solution Terracota (la société rachetée en 2011 par Software AG). Ces capteurs donnent des informations sur l’alimentation, les niveaux de températures, l’état des vannes, la ventilation, etc. Le CERN avait déjà entamé une stratégie Big Data pour ses données scientifiques. Stratégie qui repose concrètement, elle, sur MongoDB.

Philippe La Fornara, directeur opérationnel, pour l’Europe du Sud et l’Amérique Latine chez Software AG, affirme « qu’outre des rendus haute-performance, Big Memory propose un système de tolérance aux pannes automatique pour C2MON, et la capacité à mettre à jour le système sans interrompre les services de monitoring ».

« Avec cela, les ingénieurs peuvent analyser les systèmes sans temps d’interruption », se félicite-t-il.

Pour approfondir sur Outils décisionnels et analytiques

Close