Cet article fait partie de notre guide: OpenStack : le Cloud a trouvé son socle standard

Le CERN met en place un cloud privé OpenStack

Pour augmenter sa puissance de calcul et accélérer le traitement des données de son grand accélérateur de particules, le CERN a mis en place une infrastructure de Cloud privé Open Source bâti sur OpenStack.

Le grand accélérateur de hadrons (Large Hadron Collider - LHC), qui vise notamment à répondre aux questions fondamentales de l’existence de l’univers, est l’un des projets les plus importants du CERN. Alors que le LHC produit quelque 1 petabyte de données chaque seconde, la gestion des Big Data et le manque de ressources de calculs sont devenus les deux plus gros enjeux de l’organisation européenne pour la recherche nucléaire.

L’équipe informatique s’est reposée sur un environnement de Cloud privé bâti sur OpenStack dans les phases de tests et de développement. Le CERN a commencé à utiliser ce Cloud il y a environ 12 mois en environnement de test et le faisant, plus récemment, évolué vers la 5e version d’OpenStack - Essex.

Le centre de recherche espère passer l’environnement en production et utiliser son infrastructure de Cloud privé en février 2013, a expliqué Tim Bell, en charge de la gestion de l’infrastructure, à nos confrères de Computerweekly. « En janvier, nous passerons à la 6e version d’OpenStack, Flosom. Nous le testerons pendant un mois, avant de démarrer en production en février. »

Migrer vers une infrastructure Iaas à grande échelle basée sur OpenStack permettra ainsi au CERN d’augmenter ses ressources de calculs et de soutenir plus de 10 000 scientifiques dans le monde.

Migrer vers une infrastructure de Cloud privé Open Source

L’équipe informatique a commencé à concevoir puis à développer l’infrastructure IT du LCH en 1999 et 2000, avant même l’avènement des services logiciels évolutifs. Elle refond aujourd’hui ses outils ainsi que ses processus afin d’utiliser des outils Open Source standards.

Mais pourquoi donc a-t-elle choisi pour le CERN un Cloud privé Open Source plutôt qu’un Cloud public et ses possibilités de scalabilité optimisée et de réduction des coûts plus importante ?

« Nous avons fait un comparatif de nombreux fournisseurs de Cloud privés et de Cloud publics. Nous étions ouverts à l’idée d’utiliser un Cloud public et n’avions aucun problème à stocker nos données dans un Cloud public, nos données sont générées par la communauté et peuvent être utilisées librement », souligne-t-il. Mais lorsque le CERN a fait ses premiers calculs de coûts, il s’est avéré que le Cloud privé était meilleur marché. « Lorsque nous avons additionné les coûts liés au réseau, le Cloud public s’est avéré être trois à cinq fois plus cher », résume Tim Bell.

Déjà utilisatrice de technologies Open Source, l’équipe informatique du CERN a alors opté pour un Cloud privé basé sur les logiciels ouverts. « Cela semblait une évolution naturelle pour notre infrastructure IT », se souvient Tim Bell.

Mais il y avait également d’autres raisons. « Nous ne voulions pas juste de simples services Cloud - nous souhaitions également des fonctions supplémentaires, comme le load balancing ou encore un base de données à la demande (database as a service - DbaaS). OpenStack répondait ainsi à nos exigences. »

Cette infrastructure de Cloud privé Open Source a été rentable pour le CERN car aucun coût logiciel ou liés à la formation des équipes n’a été nécessaire. « Nous avons juste pris le code de la communauté et nous l’avons utilisé. Puisque notre équipe d’ingénieurs connaissait déjà l’infrastructure Open Source, aucune formation n’a été mise en place. »

Un des plus gros avantages du Cloud Computing est que le IT du CERN a gagné énormément en efficacité. En s'appuyant sur ce qui avait  été réalisé pendant les phases de tests, Tim Bell affirme qu’en production, cette infrastructure permettra au CERN d’optimiser ses processus. « Les kiosques en self-service sont capables de créer des machines virtuelles en quelques minutes alors qu’une installation et une allocation de serveur physique demande des jours ».

Un Cloud pour le Big Data

Mais comment le Cloud aide-t-il le CERN à résoudre ses problèmes de Big Data ? Car d’un point de vue IT, il était impossible de stocker toutes les données créées par le LHC. « Même si nous les avions stockées, nous ne disposions pas des ressources de calculs nécessaires pour analyser ces données », affirme-t-il.

L’équipe informatique a alors décidé d’affiner les données. Toutes les données liées à la collision qui proviennent du LHC sont classées en trois sous-parties : une qui répertorie les cas classiques ainsi que leurs impacts déjà connus par les scientifiques, une seconde où les données sont trop complexes à analyser, et une troisième pour les données importantes à stocker et à analyser.

« Les données sont finalement condensé à 6 Go par seconde en moyenne », explie Tim Bell. Les ressources de calculs élevées que permet l’infrastructure de Cloud ont, d'après lui, grandement facilité le stockage de ces données et leur extraction. « Des opérations simples, comme remplacer un composant mémoire prenait deux semaines avec l’ancienne infrastructure, désormais cela est beaucoup plus rapide », ajoute-t-il.

Tim Bell souhaite qu'à terme l’infrastructure de Cloud privé du CERN soit capable d’héberger jusqu’à 15 000 hyperviseurs d’ici à 2015, pour supporter 100 000 à 300 000 machines virtuelles. « Ce projet Cloud est destiné à répondre aux exigences informatiques des physiciens, de façon la plus rapide et la plus efficace », conclut-il.

 

Traduit et adapté par la Rédaction.

Pour approfondir sur Administration et supervision du Cloud

- ANNONCES GOOGLE

Close