Storage 33 : spécial innovations

Parce que l’informatique de proximité se développe pour traiter les informations au plus près de la production, des startups réfléchissent à réinventer le stockage. Intelligence artificielle, SSD intelligents, cartes accélératrices pour infrastructures d’appoint, et même archivage en poudre sont au menu de nouveau numéro de Storage.

Cet article est extrait d'un de nos magazines. Téléchargez gratuitement ce numéro de : STORAGE: Storage 33 – Le stockage renoue avec l’innovation

Le stockage évolue : il sort du datacenter pour aller s’installer en cloud et, c’est encore plus nouveau, en edge. Edge est le terme anglais consacré pour désigner tous les sites de production d’une entreprise qui ne sont pas son siège. Jusqu’à récemment, il s’agissait d’installer des NAS ou des infrastructures hyperconvergées prêts à l’emploi dans les bureaux des succursales dépourvues d’informaticiens. Aujourd’hui, il s’agit plutôt d’installer du stockage local pour emmagasiner les vidéos de surveillances des boutiques, les données de production des usines, les relevés des équipements connectés sur un campus, dans une ville ou dans un véhicule.

Pour alléger la charge des réseaux, ces données sont filtrées et préanalysées avant d’être envoyées à des moteurs d’analyse plus poussés en cloud. Car, oui, les entreprises n’utilisent plus uniquement les services de stockage en cloud pour leurs seules sauvegardes. Elles y mettent désormais des données de production.

L’enjeu de décomplexifier le stockage pour le Edge

Edge et production en cloud posent le risque de complexifier dramatiquement le stockage. On part d’un datacenter où les DSI installent d’imposantes baies SAN dont elles configurent au quart de poil de cheveu les performances, pour aller dans un cloud où il n’y a pas de chronomètre et sur des sites de production où il n’y a pas de place.

Se pose aussi le problème du modèle économique. Dans le datacenter, on investit une bonne fois pour toutes sur un équipement qu’on espère rentabiliser le plus longtemps possible. En cloud, on paie à chaque fois qu’on utilise quelque chose, y compris quand ce quelque chose n’était pas prévu et que personne ne l’avait budgétisé. En Edge, on se rend compte que les capacités de stockage nécessaires ne sont plus proportionnelles à la petite équipe d’une succursale. Les flux d’une petite flotte locale de caméras de vidéo-surveillance, par exemple, demandent autant de performances que le partage de documents au siège.

Pour résoudre ces difficultés, les fournisseurs doivent faire preuve d’inventivité. Et c’est justement le thème de ce nouveau numéro de Storage.

Dans ce trente-troisième numéro, nous faisons tout d’abord un point sur le stockage en edge. De quoi parle-t-on au juste ? Quelles sont les technologies en œuvre ? Par ailleurs, la solution la plus documentée actuellement pour éviter les problèmes serait de finalement de laisser faire l’intelligence artificielle.

En informatique, on parle d’AIOps, à savoir l’intelligence artificielle au service des opérations informatiques. Le principe est de laisser tourner un moteur de Machine Learning pendant un certain temps pour qu’il se renseigne tout seul sur la manière dont fonctionne l’informatique – qui communique quoi, avec qui, à quelle vitesse et à quelle fréquence ? Ensuite, le moteur envoie des alertes quand les métriques observées se mettent à dévier du modèle initial. Ce principe a vu le jour dans le domaine de la cybersécurité, il s’est étendu au fonctionnement des serveurs et, cela nous intéresse, il concerne à présent le stockage.

Des produits au fonctionnement véritablement innovant

Cela dit, l’AIOps est une assistance pour diagnostiquer les problèmes, mais ce n’est pas la solution pour les éviter. C’est pourquoi, après avoir posé les bases de l’edge et de l’AIOps, ce numéro de Storage s’intéresse aux produits de stockage véritablement innovants dans leur fonctionnement.

Par exemple, les solutions de stockage bénéficient aujourd’hui de disques absolument extraordinaires : les SSD NVMe. Parce qu’ils sont constitués de mémoire Flash et qu’ils se connectent sur un bus PCIe comme s’ils étaient des cartes extensions, les SSD NVMe sont des centaines de fois plus performants que les bons vieux disques durs. On peut en condenser un minimum dans des équipements d’appoint, là où il fallait des rayonnages entiers d’étagères et d’ondulateurs électriques pour mettre des disques durs en production. Néanmoins, pour tirer parti de cette performance, encore faut-il avoir des serveurs et des réseaux qui supportent les débits des SSD NVMe.

C’est là que sont les innovations. Nous parlons de la startup GRAID. Elle sait constituer un pool de stockage de 32 SSD NVMe en RAID en utilisant… une carte graphique Nvidia de série, qui coûte moins de 600 € dans le commerce. D’ordinaire, il aurait fallu assembler plusieurs contrôleurs en parallèle pour plus d’une dizaine de milliers d’euros.

Toujours pour économiser sur la partie serveurs, ScaleFlux propose des SSD qui embarquent eux-mêmes des cœurs de processeurs. Alors, bien entendu, l’idée initiale de cette startup était de faire exécuter toute une variété de fonctions applicatives dans les SSDs. Par exemple, ne retenir que les images d’une vidéosurveillance où il se passe quelque chose à l’écran, recadrer les images sur les seules plaques minéralogiques dans un système de sécurité d’un parking, etc. L’enjeu était de réduire la taille des serveurs et des réseaux à mettre sur un site.

Mais il s’avère que le projet était un peu trop avant-gardiste : aucune entreprise ne sait développer les fonctions à mettre dans un SSD. Par conséquent, les SSD de ScaleFlux se limitent à présent à exécuter une fonction clé en main : ils compressent à la volée les données. On obtient deux fois plus de capacité sans devoir faire appel à deux fois plus de processeurs.

Liquid et Lightbits réinventent de leur côté l’architecture du SAN. Le premier propose de remplacer les baies de stockage partagées par des baies d’extensions PCie partagées, dans lesquelles on mettrait aussi bien des SSD NVMe que des cartes accélératrices. L’intérêt est de pouvoir composer des installations beaucoup plus modulaires, bien plus adaptées aux contraintes des sites de production. C’est d’ailleurs que va tendre le marché. Demain, la technologie CXL, extension du PCIe, va permettre d’assembler des clusters à partir de modules bien plus fonctionnels simplement reliés en réseau.

Le second, Lightbits, s’intéresse plus à la composante économique. En utilisant des cartes réseau Intel, il devient possible grâce à son système de mettre en production des SAN aussi rapides que les SANs les plus rapides des datacenters, mais à partir d’un simple réseau Ethernet.

Archiver pour encore moins cher

Voilà pour l’edge. Concernant l’archivage des données, le Français Biomemory et l’Allemand PoINT mettent au point des systèmes dont le coût d’exploitation se révèle en définitive bien moins cher que le cloud. Le défaut du cloud est que, même si le stockage inerte vaut très peu cher, chaque consultation d’une donnée dans les archives est facturée au tarif maximal.

La solution de Biomemory n’est pas encore au point, mais elle est prometteuse : elle consiste à stocker des To d’archives dans une capsule de poudre, plus exactement sur l’ADN de bactéries transformées en grains de poudre. Celle de PoINT hérite au contraire du long savoir-faire des gens qui ont inventé le CD-R chez Philips. Il s’agit ici de stocker les archives dans un volume en mode objet, lequel est constitué… des bibliothèques de bandes. En conjuguant les deux techniques, PoINT parvient à proposer une solution à la fois aussi aussi riche en métadonnées que le cloud et aussi pérenne qu’un coffre-fort sur site.

Un numéro de Storage riche en idées, à la veille d’une évolution majeure des infrastructures de stockage !

Téléchargez gratuitement le numéro 33 de Storage.Image de la couverture du magazine Storage 33

Pour approfondir sur Administration du stockage

Close