Comment l’équipe d’Oxeva a réussi à proposer du Big Data peu cher

Pour le prestataire de service, les cabinets de conseil se sont trompés en recommandant aux entreprises des architectures prévues pour les géants du web. La solution était de prendre des NAS rapides.

Cet article est extrait d'un de nos magazines. Téléchargez gratuitement ce numéro de : STORAGE: Storage 23 : NAS ou objet : quelle solution choisir pour stocker vos données ?

L’infogéreur Oxeva a réussi à se lancer dans l’hébergement d’infrastructures Big Data peu chères, grâce à l’utilisation de baies de stockage FlashBlade de Pure Storage. À la base, ces machines ne sont pas prévues pour un tel usage, mais elles permettent au prestataire de proposer des solutions à seulement 150 000 € là où les cabinets de conseil prévoyaient plutôt des tickets d’entrée à plusieurs millions d’euros.

« Les FlashBlade sont des NAS qui partagent des fichiers en NFS vers des serveurs. Cela ne correspond pas du tout au modèle classique d’infrastructure pour du Big Data, où les données sont directement stockées sur les disques des serveurs via un protocole HDFS. Mais, en même temps, force est de constater que l’infrastructure de référence du Big Data est un échec », lance Gabriel Barazer, le directeur technique et co-fondateur d’Oxeva.

Prestataire informatique parisien, Oxeva propose aux entreprises d’héberger leurs serveurs depuis 15 ans. Son credo est de s’adresser à des clients qui utilisent des solutions standards et de leur proposer de prendre à sa charge toute l’administration système. S’il s’agissait au départ de maintenir en activité les serveurs physiques de sites web, l’activité a évolué au fil des ans vers des serveurs virtuels exécutés sur les propres machines d’Oxeva.

« Une entreprise vient nous voir en exprimant un besoin, nous estimons les ressources nécessaires en calcul, stockage et bande passante à l’aide de tests de performance. Puis nous mettons en production et faisons en sorte que tout fonctionne au fil du temps », explique notre témoin.

Des demandes d’architectures Big Data inadaptées aux besoins

Les demandes pour de l’hébergement de solutions Big Data débutent en 2017. Mais les cahiers des charges sont intenables. « Les entreprises sont venues nous solliciter avec des idées préconçues qui étaient en rupture totale avec ce que nous savions faire. Nous proposions de fiabiliser les traitements en stockant les données en dehors des serveurs. Leur modèle était de mettre tous les disques dans les serveurs pour un maximum de performance et même de multiplier les serveurs pour avoir au moins trois copies des données », raconte Gabriel Barazer.

Selon lui, ces exigences étaient biaisées. « Ce modèle d’architecture avait été promu dès 2015 par les cabinets de conseil, lesquels s’étaient inspirés des expérimentations menées depuis 2011 chez les géants du web. Sauf que les architectures de ces derniers – des dizaines de milliers de disques sur des milliers de serveurs – ne sont pas adaptées aux entreprises. Ces dernières avaient au mieux besoin de 50 To pour mener leurs projets de valorisation de la donnée. »

Il faut dire qu’Oxeva revendique d’être un spécialiste à taille humaine. Ses 17 collaborateurs s’investissent dans la mise au point de solutions sur mesure, souvent à partir de logiciels Open source. L’équipe en tire des convictions techniques. L’une d’elles est de toujours séparer les serveurs du stockage.

« Pour améliorer la fiabilité de nos offres, nous avons développé en interne un système qui nous permet de démarrer des serveurs physiques sans disque interne […]. »
Gabriel BarazerOxeva

« Pour améliorer la fiabilité de nos offres, nous avons développé en interne un système qui nous permet de démarrer des serveurs physiques sans disque interne, en allant chercher les images de boot préconfigurées sur le réseau, dans un cluster de stockage. Cela nous rend très efficaces pour déployer en quelques secondes de nouvelles machines en cas de défaillance ou de montée en charge. Et c’est sur cette valeur que repose tout notre chiffre d’affaires. »

Il explique que l’intérêt principal de cette conception est de pouvoir faire évoluer indépendamment le calcul et le stockage. « Par expérience, la capacité de calcul ne varie jamais sur un projet, car les applications sont conçues dès le départ pour s’exécuter sur un nombre de nœuds fini. En revanche, il est impossible de savoir au début d’un projet combien de place prendront les données. »

FlashBlade pour les performances sans devoir équiper les serveurs de disques

Face aux exigences techniques du Big data, l’équipe d’Oxeva ne se sent pas le courage de réinventer un système de stockage qui atteigne les performances attendues, mais fonctionne tout de même en dehors des serveurs. Durant le premier semestre 2017, le sentiment qu’il faudra faire l’impasse sur l’offre d’hébergement Big Data s’installe.

Puis, tout bascule au moment de l’été. « Je suis allé en rendez-vous chez Pure Storage sans grande conviction, juste pour faire de la veille technique. Ils me parlent de FlashBlade : une baie 100 % Flash qui distribue son stockage sur plusieurs liens réseau, sans point de contention. La machine est à la fois très rapide et en mode fichiers, exactement comme l’exigent les serveurs Big Data, mais aussi sans devoir mettre du stockage dans les nœuds de calcul. Ils avaient en somme déjà créé ce que nous aurions voulu faire », lance Gabriel Barazer.

Les FlashBlade sont des châssis 4U dans lesquels on peut insérer jusqu’à 15 unités de stockage Flash qui prennent la forme de lames. À l’arrière, deux contrôleurs Ethernet offrent un total de 8 connexions 40 Gbit/s. Il est possible d’enchaîner quatre châssis en un seul pool de stockage.

Faire du Hadoop en mode NAS

Problème, les FlashBlade n’ont jamais été vendus pour le Big Data. Ce sont des NAS en NFS qui apportent les performances d’une baie SAN aux applications critiques préférant travailler en mode fichiers (supercalcul, traitements vidéo, etc.). De leur côté, les suites de Big Data – à l’époque essentiellement des déclinaisons d’Hadoop comme Cloudera et Hortonworks – reposent sur le système de fichiers distribué HDFS.

« HDFS est important à partir du moment où chaque nœud du cluster doit pouvoir aller chercher ses données sur un autre nœud. […] »
Gabriel BarazerOxeva

« HDFS est important à partir du moment où chaque nœud du cluster doit pouvoir aller chercher ses données sur un autre nœud. Mais les suites Hadoop sont aussi prévues pour fonctionner avec des fichiers sur les disques locaux. Encore une fois, nous ne voulons pas mettre de disque dans les serveurs, mais lorsqu’un NAS partage son contenu en NFS à des serveurs, cela revient du point de vue des applications à des fichiers accessibles localement », explique Gabriel Barazer.

Mais il y a une subtilité : le connecteur du mode fichiers d’Hadoop n’est conçu que pour accéder à une portion des données. Plus leur quantité est importante, plus les performances se dégradent. « Il s’agit en effet du comportement par défaut. Mais nous avons découvert qu’il suffisait de reparamétrer ce connecteur, ainsi que la pile réseau des serveurs, selon la taille-type des données pour ne plus avoir de problèmes de performances. » Et d’ajouter que, dans chaque projet, les données ont toujours une taille-type.  

Une configuration meilleure que celle promue par les cabinets de conseil

Entre octobre 2017 et février 2018, Oxeva se fait livrer deux châssis dotés de 8 lames de 17 To chacune, l’un pour faire les maquettes des projets et l’autre pour la production.

« Nous avons été impressionnés par la vitesse, chaque lame délivrant entre 4 et 5 Go/s vers les serveurs, là où nous stagnions à 100 Mo/s par serveur précédemment. Nous avons exécuté dessus des protocoles de test TeraSort, typiques des traitements Big Data et avons obtenu des résultats en centaines de milliers d’IOPS qui étaient supérieurs aux performances des plateformes préconisées en Big Data. »

Le premier client Big Data signe dès le début de l’année 2018. C’est un succès immédiat : « non seulement la plateforme fonctionne exactement comme il l’attendait, mais elle lui coûte aussi moins cher. Et, surtout, travailler avec nous lui a permis de se débarrasser du cabinet de conseil avec lequel il travaillait », indique Gabriel Barazer.

Selon lui, l’élan des projets Big Data aurait en effet viré au psychodrame entre 2015 et 2017. Après leur avoir fait investir lourdement dans les infrastructures, les cabinets de conseil auraient surtout cherché à vendre aux entreprises des missions sans jamais transférer les compétences à la fin. « Cela a créé beaucoup de rancœur », ajoute-t-il.

Des machines qui fonctionnent toutes seules 

En plus de l’hébergement et de l’administration système, Oxeva vend à ses clients des services complémentaires, comme le temps réel ou les sauvegardes. « Pour l’heure, notre activité autour du Big Data sert encore à éponger l’achat des baies FlashBlade. Mais nous ne considérons pas cela comme un départ timide : les projets Big Data sont toujours lents à se mettre en place. Je pense que cette activité va véritablement devenir rentable à partir de cette année. »

« Pour l’heure, notre activité autour du Big Data sert encore à éponger l’achat des baies FlashBlade. »
Gabriel BarazerOxeva

Gabriel Barazer témoigne qu’en deux ans les Flashblade n’ont jamais posé aucun problème. « Ce sont des machines qui fonctionnent toutes seules. Pure Storage s’occupe de les mettre à jour à distance. Et lorsque nous avons eu un incident à cause d’un problème réseau lors d’une mise à jour, les équipes du constructeur ont immédiatement su quoi faire ; nous n’avons subi qu’une interruption de 30 secondes. Ce sont véritablement des gens de confiance, qui travaillent à échelle humaine. »

Pour la suite, Oxeva augmentera le nombre de lames Flash dans les baies au fur et à mesure que ses clients auront besoin de stockage plus important. « Nous sommes sereins. Les Flashblade compressant en temps réel leurs contenus, et les demandes évoluant doucement côté clients, nous n’anticipons pas d’urgence. »

« Au final, le bénéfice très pratique des Flashblade aura été de nous éviter d’investir dans une nouvelle R&D stockage pour nous permettre de développer une véritable expertise en Big Data, bien plus intéressante pour notre activité », conclut-il.

Pour approfondir sur Architectures de Datacenters

Close