DXfoto.com - Fotolia

HPE refait parler du futuriste The Machine

Le projet de super ordinateur de HPE refait surface. Il n’a plus les mêmes caractéristiques mais celles-ci profiteraient aux autres serveurs du constructeur.

The Machine, le projet de super ordinateur d’analyse de données de HPE, à base de puces memristors jamais vues et de connexions photoniques inédites, est de retour. Au début de l’été, la CEO Meg Withman annonçait que les HPE Labs, en charge de ce projet, passaient sous la tutelle de la division Entreprise, laquelle ne cache pas sa volonté de commercialiser au plus vite un concurrent du super ordinateur Watson d’IBM.

Dans la foulée, les HPE Labs publiaient sur GitHub les codes sources de quatre des modules logiciels censés animer The Machine : un moteur de base de données, un modèle de programmation des mémoires non volatiles, un émulateur de baie de stockage à base de RAM et un simulateur de latences et de bandes passantes censées être du niveau de The Machine.

« The Machine n’est encore qu’à l’état de prototype. Mais nous voulons que ses trouvailles technologiques puissent être implémentées tout de suite dans les serveurs de HPE et c’est pourquoi nous proposons à la communauté des développeurs Open source les outils qui leur permettront d’adapter leurs logiciels à cette nouvelle architecture », a confié au MagIT Kirk Bresniker, l’architecte en chef des HPE Labs. Jusque-là, HPE Labs a déjà développé une version de Linux pour The Machine.

La RAM à la place du stockage

A l’heure actuelle, la particularité annoncée de The Machine est de raccorder la mémoire aux processeurs à l’aide de liaisons en verre qui font circuler des signaux lumineux plutôt qu’électriques. Cela permet de ne pas faire chuter la vitesse d’accès à la mémoire quand les composants de DRAM sont éloignés des processeurs et, donc, de pouvoir construire des grandes cartes mères remplies de mémoire jusqu’à ras bord, voire des cartes mémoire qui s’enchaînent dans un rack via des liaisons optiques.

« Les processeurs ont atteint un plafond limite de 4 GHz en 2005. Nous ne pouvons pas les rendre plus rapides et même la multiplication des cœurs n’accélère pas les threads. Mais nous pouvons mieux les utiliser. Nous proposons ainsi de faire sauter tous les goulets d’étranglement. Nous remplaçons ainsi les baies de stockage ou les nœuds additionnels d’un cluster en réseau par de la RAM qui fonctionne aussi vite que les processeurs. Dans notre prototype, nous avons 100 To de RAM dans une étagère Rack. Nous comptons bientôt grimper à 1 Po de RAM », explique Kirk Bresniker. Il ajoute qu’une telle configuration est par ailleurs bien moins énergivore que des serveurs accompagnés de disques.

15 fois plus rapide qu’un serveur

L’architecte en chef des HPE Labs précise que la solution habituelle - visant à morceler l’exécution d’une application entre plusieurs serveurs parallèles pour l’accélérer - ne convient pas à toutes les applications et à fortiori pas aux logiciels d’analyse de données. « Nous avons comparé l’exécution d’une base de données en graphe de 24 To (recherches de valeurs de proche en proche) avec Apache Spark sur un serveur et sur The Machine, avec les mêmes processeurs Xeon de chaque côté. Les traitements s’exécutaient 15 fois plus vite sur The Machine ! », se félicite Kirk Bresniker. A noter que la version d’Apache Spark utilisée ici avait été spécialement recompilée pour The Machine, car le logiciel ne permet pas normalement d’ouvrir une aussi grande base dans la RAM d’un seul serveur.

Parmi les autres bénéfices de The Machine, Kirk Bresniker évoque l’analyse prédictive basée sur la reconnaissance de motifs avant-coureurs. Là où il faudrait six semaines à un serveur classique pour s’entraîner à reconnaître ces motifs en simulant tous les enchaînements possibles à partir de données déjà enregistrées, The Machine ne mettrait que six heures. Selon l’architecte en chef, les applications dans ce domaine iraient de l’interprétation d’ordres vocaux (comme Watson, popularisé par sa participation face à des humains au jeu Jeopardy) à la détection de cyber-attaques inédites, en passant par la maintenance prédictive pour l’industrie aérienne et l’intelligence boursière.

Il cite aussi le traitement des relevés des objets connectés.  « D’ici à la fin de la décennie, les objets connectés généreront tellement de données à traiter vite, qu’il ne sera plus possible de les acheminer des datacenters vers des cloud publics à travers le monde. Il faudra les traiter de manière locale et seule The Machine aura la puissance nécessaire », lance Kirk Bresniker. Ce n’est pas la première fois que HPE évoque l’idée originale de serveurs de traitement au plus proche des objets connectés. Au mois de juin, il lançait déjà les EL1000 et EL4000.

Des NVDIMM à défaut de memristors

Il n’empêche, le projet The Machine est très controversé. Initialement annoncé en 2014,  il aurait dû être opérationnel dès cette année et avoir une logithèque complète dès 2018. Kirk Bresniker estime que ce calendrier est toujours tenable pour des serveurs HPE intégrant beaucoup de mémoire connectée par liaisons photoniques. Il précise que la mémoire ne sera en l’occurrence pas de la DRAM, mais de la « NVM » (Non-Volatile-Memory), de la mémoire Flash qui ne perd pas ses données à chaque coupure de courant et qui se montre quasiment aussi rapide que la DRAM.

A priori, ce type de mémoire prend la forme de barrettes NVDIMM, à savoir une combinaison de vrais composants DRAM accolés à des puces de Flash NAND. Cette mémoire est accessible par un processeur en 125 nanosecondes, contre 100 ns pour des barrettes DDR classiques. En pratique, la Flash NAND sauvegarde ici le contenu de la DRAM à chaque fois que celle-ci est écrite. A titre de comparaison, un serveur standard stocke au mieux le gros de ses données sur des unités NVMe (de la Flash NAND montée sur bus PCIe, avec un peu de DRAM en tampon) accessibles en 10 microsecondes (80 fois plus lentes), ou alors sur des disques SSD en 100 microsecondes (800 fois plus lents). Il n’est pas exclu qu’un serveur classique utilise de la NVDIMM, mais sans liaison photonique - le nombre de barrettes sera limité à l’espace classique sur une carte mère. Il n’est pas non plus exclu que HPE lance des serveurs avec des NVDIMM sans liaison photonique et qu’il se vante d’intégrer ainsi la technologie de The Machine dans le catalogue existant.

Sauf que, à la base, la mémoire de The Machine devait être faite de memristors, des composants mis au point par HPE Labs dès 2008, capables de conserver leurs données comme la Flash, mais gravés bien plus finement que des DRAM classiques. Ils auraient évité au prototype actuel de The Machine d’occuper a priori beaucoup de place pour une capacité de stockage très inférieure à celle d’une baie de disques. « C’est vrai, nous avons eu des problèmes d’implémentation avec les memristors. Mais ils sont derrière nous. Leur mise au point est repartie sur de nouvelles idées de conception que nous développons à présent avec SanDisk. Je pense que nous pourrons les implémenter dans The Machine d’ici à la fin de la décennie », estime Kirk Bresniker.

En l’occurrence, le composant mémoire mis au point par HPE Labs/SanDisk ressemblerait peu ou prou au composant 3D XPoint sur lequel planchent actuellement Intel et Micron, à savoir de la DRAM dont le circuit est assemblé en plusieurs couches superposées pour gagner en densité et dont le contenu est sauvegardé par une couche de Flash NAND interne. Selon Micron, les composants 3D XPoint seraient accessibles en 500 ns.

L’objectif d’impressionner le marché

Le marché, qui observe la réorganisation récente du constructeur, ne croît pas beaucoup aux promesses de l’arlésienne The Machine, ni au fait que des serveurs HPE pourraient bientôt arriver avec des NVDIMM sur liaisons photoniques. « Pourquoi dépenser des millions de dollars à promouvoir la future version d’un produit qui n’existera même pas sous la forme d’un prototype avant la fin de la décennie ? Pour la bonne et simple raison que le produit qu’ils nous vendent ici n’est rien d’autre que le cours de l’action HPE. HPE veut juste montrer un futur positif aux investisseurs. HPE dépense des millions de dollars, non pas pour créer de la demande pour ses produits, mais pour créer de la demande pour ses actions en bourse », vilipende par exemple l’analyste Rob Enderle, spécialiste des technologies émergeantes.

Toujours considéré comme le meilleur vendeur de serveurs (environ 25% du marché mondial selon IDC), HPE voit cependant ses résultats menacés par Dell (numéro 2, environ 17 % du marché selon IDC), toujours en instance de fusion avec EMC et dont on sait depuis peu qu’il a étonnamment bien réussi à assainir sa situation financière. Dans ce contexte, il se pourrait bien que HPE veuille suivre l’exemple d’IBM. Bien que ce dernier ait revendu sa division serveurs x86 à Lenovo, il reste le troisième vendeur de serveurs au monde (14% de parts de marché) avec des machines POWER et des mainframes dont les ventes ont connu un bond depuis l’arrivée de Watson... le super ordinateur que The Machine est justement censé concurrencer.

 

Approfondir

Soyez le premier à commenter

M'envoyer une notification dès qu'un autre membre commente.

Merci de créer un identifiant pour pouvoir poster votre commentaire.

- ANNONCES GOOGLE

Close