Teractec est aussi le salon des infrastructures alternatives

Au salon Teratec, les participants se sont accordés à dire que les infrastructures hautement performantes adresseraient de plus en plus les besoins du tout venant d'entreprises en pleine transformation.

Du supercalcul mais pas seulement. Lors du récent salon Teratec qui se tenait fin juin à l’école Polytechnique de Palaiseau (91), les industriels réunis en plénière se sont accordés à dire que leurs infrastructures hautement performantes adresseraient de plus en plus les besoins du tout venant des entreprises en pleine transformation digitale.

« Le champs usuel des applications HPC va désormais s’étendre à la santé, à l’urbanisme, à l’agroalimentaire, au multimédia, à l’analyse marketing, à celle des risque, à la cosmétique ou encore à la sociologie », a ainsi déclaré Gérard Roucairol, le président de Teratec,

En clair, les technologies de pointe présentées en avance de phase lors de ce salon annuel ne seront plus réservées aux seuls chercheurs des bureaux d’étude et autres laboratoires mathématiques. Tant mieux : car LeMagIT y a trouvé de quoi transformer radicalement le visage plan-plan des datacenters.

Des stockages fichier et objet plus rapides, avec plus d’utilisateurs

En matière de stockage, des marques aussi peu connues que DDN et Panasas ambitionnent de reléguer aux oubliettes les NAS Isilon d’EMC.

Teratc

« Les NAS traditionnels ont évolué vers un Scale-out qui ne fonctionnera pas. Ils sont conçus pour apporter plus de capacité sans faire chuter les performances, mais on a oublié que si la donnée augmente, le nombre d’utilisateurs aussi. C’est le sens du marché : avec les fonctions de vidéo à la demande, par exemple, une entreprise de médias doit désormais pouvoir diffuser autant de flux qu’elle a d’abonnés. Les baies de stockage DDN EXAScaler, qui ont été conçues pour être interrogées par trois millions de calculateurs simultanément sont bien plus adaptées pour répondre aux défis modernes des entreprises », argumente Jeronimo Munoz, le directeur des opérations de San Sentinel, un intégrateur français qui compte vendre des baies DDN aux diffuseurs de données, à commencer par les hébergeurs.

Les NAS EXAScaler de DDN et ActiveStor de Panasas reposent sur un système de fichiers parallèle. Plutôt que d’envoyer des requêtes de lecture/écriture à une baie NAS qui se charge de répondre à tout le monde, les serveurs sont ici tous reliés directement, d’une part, aux baies de disque qui contiennent les fichiers - comme en mode bloc - et d’autre part à une appliance qui maintient l’index des fichiers sur ces baies. Chaque requête est envoyée à l’appliance, laquelle indique à chaque serveur sur quels blocs de quelle baie se trouve le document demandé, afin qu’il aille le chercher directement. Le goulet d’étranglement du switch interne des NAS traditionnels est ainsi évité et il suffit de multiplier les appliances pour supporter plus de requêtes simultanées. Si l’EXAscaler repose sur le système de fichiers Lustre du monde Linux, le NAS ActiveStor emploie quant à lui un PanFS propriétaire compatible avec tous types de serveurs.

DDN a même décliné le concept dans le domaine du stockage objet. Alors que les solutions traditionnelles consistent à mettre, derrière un portail et un nom de domaine uniques, plusieurs serveurs de fichiers autonomes, la solution WOS repose sur une appliance (ou un cluster d’appliances) qui formate elle-même les disques contenus dans les nœuds en aval. DDN revendique que son dispositif, dit NoFS, permet de lire et d’écrire en respectivement une et deux opérations, alors que le passage de requêtes entre le portail et l’OS des serveurs de fichiers conduit habituellement à exécuter 8 à 10 opérations.

« Nous avons également introduit des fonctions qui accélèrent les accès, comme des tailles de blocs qui varient selon la nature du disque et un RAID dans lequel on ne reconstruit pas un disque défectueux - ce qui rend habituellement un nœud de stockage indisponible pendant plusieurs heures. A la place, nous reconstruisons les données sur ce disque à la volée, lorsqu’elles sont lues depuis d’autres disques », détaille Jeronimo Munoz.

L’optimisation, qui rend ces NAS dix fois plus performants que ceux des constructeurs traditionnels, porte ici essentiellement sur la logique de connexion entre les serveurs et le stockage.

« Nous planchons cependant sur des appliances contenant du cache sur SSD. Chez nos concurrents, les baies SSD servent à accélérer des bases de données ou des machines virtuelles sur potentiellement plusieurs dizaines de To. Nous, nous voulons accélérer l’accès aux fichiers dans un espace qui peut peser plusieurs Po, soit cent fois plus », lance Jeronimo Munoz.

Des minis serveurs physiques plus efficaces que les machines virtuelles

Teratec est aussi l’une des rares occasions d’approcher les serveurs Moonshot de HP.

« La conception de Moonshot part dans une direction opposée à celle de tous les serveurs actuels. Ici, on ne virtualise rien. Chaque serveur est une petite cartouche physique, conçue expressément pour une application donnée. Par conséquent, les serveurs sont tellement optimisés qu’une étagère rack peut en contenir autant que des machines virtuelles, que cela ne coûte pas plus cher et qu’il n’est même pas nécessaire de les refroidir », explique Patrick Marques, architecte Infrastructure chez HP.

Si Moonshot connaît en ce moment un vif succès dans le domaine du supercalcul auprès des acteurs de la Formule 1 et de la prospection d’énergie fossiles, c’est dans le domaine du VDI qu’il devrait séduire les entreprises conventionnelles.

« On ne va pas se mentir : les projets de postes virtuels ont jusqu’ici globalement échoué pour une raison simple : malgré le bénéfice en terme d’administration que suppose l’exécution centralisée des PC sur des serveurs, les utilisateurs ne supportent pas de voir leur affichage ralentir. Mais ce que l’on ignore, c’est que ces ralentissements ne sont pas dus à la latence du réseau. Ce sont bien les machines virtuelles qui sont en cause. Car non seulement leur CPU virtuel doit simuler le GPU qui sert à l’affichage, mais en plus les performances varient constamment, à chaque fois qu’un autre utilisateur a besoin de grignoter un peu plus de puissance de calcul que la moyenne prévue. Nous proposons une alternative au VDI, le HDI (Host Desktop Infrastructure). A savoir une cartouche Moonshot qui contient physiquement l’électronique de quatre postes de travail, avec un CPU et un GPU 100% dédiés à un utilisateur », détaille Patrick Marques.

Un premier déploiement de Moonshot en tant que serveur de VDI vient d’être effectué chez un média japonais. Les 4000 postes de travail occupent en tout deux étagères rack.

Pour l’heure, cinq modèles de cartouche existent, allant des serveurs physiques en ARM capables d’héberger des sites et d’exécuter des applications Web avec des performances garanties, à ceux qui disposent de Xeon E3 et de GPU dédiés pour servir autant de gros calculateurs que de stations de travail distantes.

Les PC bureautiques sont quant à eux incarnés par des Opteron X intégrant le GPU dans leur circuit. En général, chaque cartouche Moonshot contient l’électronique de quatre nœuds (postes, serveurs, etc.).

Philippe Trautmann, le directeur HPC pour l’Europe du Sud chez HP, affirme que d’autres modèles de cartouches Moonshot arriveront rapidement. « Contrairement à ce que l’on pourrait penser, le développement des cartouches Moonshot est beaucoup plus simple que celui des serveurs classiques. Nous partons d’un cahier des charges clair, nous n’avons pas à réinventer toute l’infrastructure qui se trouve dans le châssis. En définitive nous sommes capable de livrer un nouveau modèle en trois mois, là où il nous faut 12 à 18 mois pour nos autres serveurs », dit-il.

Mais pas question d’attendre de Moonshot qu’il serve un jour à faire du Big Data.

« Moonshot est conçu pour rationaliser une ferme de nœuds de calcul indépendants. Il n’y a pas de baie de stockage à partager - chaque cartouche a son propre disque - et la connectique interne n’est que du réseau Ethernet simple », fait remarquer Philippe Trautmann.

En revanche, il indique que son tout nouveau nœud de calcul Apollo 4000 (nouvelle version du Proliant SL4500), qui permet de mettre dans un tiroir de 4U - soit beaucoup de puissance et beaucoup de disques - est tout indiqué pour incarner très bientôt une sorte de solution clé en main pour Hadoop.

Des bases NoSQL plus fonctionnelles et plus performantes qu’Hadoop

En terme de Big Data, justement, plusieurs acteurs ont profité de Teratec pour montrer que leurs portails d’administration des jobs sur une ferme de calcul peuvent très bien se décliner en console d’administration pour lancer des recherches sur un cluster Hadoop (Fujitsu Gateway) ou en chapeauter les ressources disponibles dans des grappes de cloud public (ActiveEon).

« Le supercalcul est à présent le segment de marché des serveurs x86 qui se développe le plus. En soit c’est incroyable si l’on regarde quelques années en arrière. Et il se développe en l’occurrence dans la direction du Big Data. Donc, nous n’allons pas réinventer la roue : les outils du HPC sont efficaces et nettement plus matures que tout ce que l’on pourrait inventer à postériori pour accompagner le déploiement du Big Data en entreprises », indique Jean-Luc Dupon, le directeur marketing de Fujitsu.

Mais, surprise, on trouve même une solution de base de données NoSQL, conçue pour les supercalculateurs bancaires, qui entend répondre mieux qu’Hadoop aux problématiques Big Data des entreprises : QuasarDB.

« Notre solution a été conçue pour produire de la performance dans des environnements critiques. Elle a été développée en C++ pour optimiser le fonctionnement de la mémoire au point de pouvoir déporter une partie des traitements directement dans le petit espace RAM d’un objet connecté , là où les bases NoSQL conventionnelles ont été écrites avec des langages de haut niveau pour être opérationnelles rapidement », indique Jean-Claude Tagger, le DG de Quasardb.

« L’erreur fondamentale d’Hadoop est que l’on envoie des batchs fouiller dans toutes les données et pour regarder ce que l’on trouve. Dans Quasardb, nous avons pensé à étiqueté les données au moment où elles entrent, ce qui optimise grandement les recherches ensuite », assure Edouard Alligand, le directeur technique de Quasardb et concepteur du moteur du logiciel.

Et d’ajouter que la solution Quasardb est livrée avec tous les connecteurs nécessaires pour que les utilisateurs d’Hadoop puissent s’en servir à la place de la l’algorithme MapReduce d’origine.

Société française, Quasardb a, en plus des banques, compte plusieurs gros clients en Suisse, en Norvège et en Argentine dans les domaines de la publicité en ligne et des objets industriels connectés.

 

Approfondir

Soyez le premier à commenter

M'envoyer une notification dès qu'un autre membre commente.

Merci de créer un identifiant pour pouvoir poster votre commentaire.

- ANNONCES GOOGLE

Close