Scanrail - Fotolia

NetApp : « 4 projets conditionnent désormais la transformation de l’IT »

Selon le fournisseur, après avoir essuyé une année de crise pandémique, les entreprises vont en 2021 accélérer la transformation de leurs infrastructures autour du VDI, de Kubernetes, du stockage objet en Flash et d’une optimisation des coûts en cloud.

En 2021, les entreprises vont accélérer leur transformation digitale. Avant la fin de l’année, il faudra avoir mis les postes des salariés en VDI, basculé les applications sur Kubernetes, déployé plus de stockage objet dans les datacenters et mis en cloud toujours plus d’applications critiques pour l’activité.

Suite de l'article ci-dessous

Respectivement, les bénéfices de ces quatre stratégies technologiques seront d’être prêt pour le télétravail, pour le cloud hybride, pour l’intelligence artificielle et pour le commerce de services en ligne, à défaut de pouvoir encore mener des activités de proximité. Telles sont les quatre prédictions que le fournisseur d’infrastructure NetApp, spécialisé dans les baies de stockage, a partagées avec LeMagIT.

« Quelle que soit sa durée encore, la crise sanitaire a commencé à redistribuer de nombreuses cartes dans les relations professionnelles et personnelles, entraînant par là même une croissance et une pression accrues dans les volumes de données traités par les infrastructures informatiques », commente Mathias Robichon, le directeur technique de NetApp en France.

« À notre niveau, le fait le plus marquant est très certainement une croissance spectaculaire de nos services cloud : au début de l’année 2020, les experts imaginaient qu’ils nous rapporteraient 130 millions de dollars sur l’année. À peine six mois plus tard, nous étions déjà à un CA de 250 M$ de dollars sur cette seule activité », ajoute-t-il.

Évidemment, ces quatre prévisions collent à l’actualité la plus récente du fournisseur, qui se targue d’avoir su transformer son portefeuille tout au long de l’année 2020, surtout durant les derniers mois, pour répondre à des demandes de plus en plus saillantes de la part des entreprises.

Télétravail : déployer et, surtout, administrer des postes virtuels distants

« Ce qui tire l’essentiel de nos services cloud, ce sont les fonctions dédiées au stockage que […] nous apportons et qui, concernant le VDI en ligne, n’existent pas spécialement chez la concurrence. »
Mathias RobichonDirecteur technique France, NetApp

Concernant le télétravail, NetApp a ainsi su transformer son offre de poste de travail distant (VDI) en véritable environnement de bureau en ligne avec le rachat en mai de CloudJumper, une console SaaS qui permet à une DSI d’avoir autant de fonctions sur des postes virtuels que sur les postes physiques. L’offre, désormais appelée VDS (Virtual Desktop Service), permet notamment de provisionner des espaces de stockage plus simplement selon les besoins intempestifs des collaborateurs, et d’effectuer des sauvegardes afin de prévenir tout risque de destruction par ransomware.

« Ce qui tire l’essentiel de nos services cloud, ce sont les fonctions dédiées au stockage que – en tant que spécialiste – nous apportons et qui, concernant le VDI en ligne, n’existent pas spécialement chez la concurrence », commente Mathias Robichon.

Et de préciser que ces fonctions vont bien au-delà de la protection du poste virtuel contre les cyberattaques : « Il faut véritablement penser en termes de cloud hybride. Pour des questions de vitesses d’accès aux documents, nous avons racheté l’entreprise Talon et sa solution Global File Cache qui permet de stocker au plus près des utilisateurs les informations les plus chaudes, afin que l’ouverture des documents, par exemple, soit immédiate. »

« À l’inverse, nous avons développé un service en ligne, Active IQ, qui permet d’identifier les données froides et celles qui sont le plus souvent accédées, de sorte à aider les DSI dans le choix économique de stocker quelles données sur quelles ressources, en cloud ou sur site », ajoute-t-il. Et de préciser que ce service est idéalement commercialisé avec les logiciels de Varonis, qui consistent à dresser un inventaire du contenu des données, afin de respecter les contraintes réglementaires quant au stockage en ligne de fichiers pouvant contenir des informations privées.

Kubernetes : l’enjeu de pouvoir exécuter les applications depuis n’importe où

Au sujet du cloud hybride, la priorité est surtout devenue de pouvoir exécuter les applications depuis n’importe quelle infrastructure – datacenter sur site, ou cloud d’un hébergeur – pour passer automatiquement de l’une à l’autre en cas de problème. Ces problèmes comprennent les cyberattaques contre l’un des réseaux, des mesures de confinement qui coupent l’accès physique aux équipes de maintenance, ou encore une simple évolution tarifaire qui rend préférable le déménagement de la production sur d’autres machines.

La clé technique de cette universalité est le système Kubernetes, qui exécute – qui orchestre plutôt – des applications encapsulées dans des containers génériques et se charge lui-même d’adapter à la volée leurs lectures/écritures aux caractéristiques des machines physiques sous-jacentes.

« C’est un cycle qui ne cesse de se répéter. Dans les années 90, nous intégrions les disques aux serveurs parce que cela était plus adapté aux bases de données. Dans les années 2000, les entreprises ont multiplié les applications et ont donc préféré déplacer les données des différents serveurs d’exécution sur des baies de disques centralisées. Dans les années 2010, nous avons remis le stockage dans les serveurs pour limiter la latence des machines virtuelles. Enfin, à l’aube des années 2020, on a imaginé séparer à nouveau le stockage des applications pour pouvoir démultiplier les instances applicatives au gré des pics d’activité sans devoir répliquer en même temps leurs données », dit Mathias Robichon.

« À l’aube des années 2020, on a imaginé séparer à nouveau le stockage des applications pour pouvoir démultiplier les instances applicatives, au gré des pics d’activité, sans devoir répliquer en même temps leurs données. »
Mathias RobichonDirecteur technique France, NetApp

« Au départ, Kubernetes avait été conçu pour orchestrer ainsi des frontaux web, parce qu’ils doivent plus que toute autre application gérer un nombre très variable de requêtes. Mais les entreprises se sont récemment rendu compte que cette élasticité était tout autant pertinente pour toutes leurs applications historiques. Le défi devient donc celui de savoir adapter les fonctions traditionnelles de stockage direct, en particulier celles des bases de données comme MySQL, aux containers. Et c’est là tout l’enjeu de notre stratégie autour de Kubernetes. »

Dans ce domaine, NetApp a pris en 2020 une décision à contre-courant de la tendance du marché : le fournisseur a stoppé la carrière de NKS, son implémentation maison de Kubernetes, alors que ses concurrents ont plutôt tendance à se targuer d’avoir enfin une version qui leur est propre. Citons VMware avec Tanzu, ou Nutanix avec Karbon. « NKS avait vocation à être un Kubernetes prêt à l’emploi, que nos clients pouvaient déployer très simplement, pour exécuter leurs applications en containers que ce soit sur site, comme en cloud. Mais, certains nous ont suspectés de vouloir noyauter la technologie », dit Mathias Robichon.

« Nous avons donc radicalement réorienté notre stratégie : désormais, nous concentrons notre offre sur des services applicatifs autour de Kubernetes. C’est le but de notre famille de services Astra. »

En pratique, NetApp a conservé de NKS son pilote CSI, Trident, qui ajoute à toutes les versions de Kubernetes la possibilité d’enregistrer les données des applications sur une baie de disques traditionnelle. Mais les fonctions de Trident sont basiques : outre le « montage » des disques dans les applications en container, il se contente de sauvegarder ou de cloner les volumes virtuels. Astra ajoute des fonctions qui communiquent directement avec les applications, ce qui lui permet de manipuler des données en cours de traitement et le rend typiquement capable de sauvegarder le flux continu d’une base de données, en évitant d’enregistrer des informations périmées avant la fin de l’opération.

« Nous concentrons notre offre sur des services applicatifs autour de Kubernetes. C’est le but de notre famille de services Astra. »
Mathias RobichonDirecteur technique France, NetApp

Mathias Robichon observe cependant que les entreprises ne sont pas toutes égales dans leur approche de Kubernetes. « En France, les entreprises qui passent à Kubernetes sont encore majoritairement celles qui doivent souvent mettre à jour les applications qu’elles développent elles-mêmes. Leur besoin n’est pas encore d’avoir des containers universels, mais juste de tester du code sur des infrastructures d’appoint, sans la contrainte d’un stockage accroché à des serveurs virtuels. »

Cette subtilité n’est pas anecdotique, car elle ancre une certaine culture dans l’organisation des équipes : « on notera que ces entreprises ont associé les containers aux développeurs, les gratifiant au passage de la qualification de DevOps, alors que, à la base, les containers sont des composants d’infrastructure qui n’ont rien à voir avec les outils de développement », ponctue le directeur technique de NetApp qui voit plus les containers comme une version moderne des machines virtuelles.

Du stockage objet sur disques Flash pour l’intelligence artificielle

Le stockage objet a connu une évolution récente tout aussi curieuse chez NetApp : non seulement le fournisseur le propose à présent sous deux formes qui n’ont pas les mêmes objectifs, mais, surtout, il le commercialise éventuellement sur des baies 100 % Flash qui n’ont plus rien à voir avec la promesse de départ.

« Notre solution de stockage objet historique est StorageGrid. Nous l’avons développée pour pouvoir entreposer de très gros volumes de données, de plusieurs Po, à cheval entre les différents nœuds d’un cluster. Les besoins initiaux étaient d’avoir un espace suffisamment important pour stocker toutes les archives, mais aussi pour réunir toutes les données au repos dans un lac de données avec la possibilité de les étudier via des systèmes de Big Data. Mais, à notre grande surprise, les entreprises ont été très nombreuses à nous demander que ce stockage soit un stockage très rapide », raconte Mathias Robichon.

« Les cas d’usage sont les nouveaux algorithmes de Machine Learning, d’intelligence artificielle, qui se nourrissent de toutes ces données froides, mais qui sont d’autant plus utiles qu’ils peuvent livrer rapidement leurs conclusions. »

Pour proposer du stockage objet rapide, NetApp vient d’implémenter StorageGrid sur ses baies SAN Full Flash de la série E, celles qui ne fonctionnent pas avec son système OnTap historique, mais avec SANtricity. Le modèle le plus récent est le nœud SGF6024. « L’intérêt de ces machines est qu’elles ont deux contrôleurs. L’un sert au pilotage des SSD en NVMe, tandis que l’autre est dédié à l’exécution de StorageGrid, notamment l’indexation des contenus en métadonnées et la réponse aux requêtes d’accès au protocole S3. »

On notera toutefois que NetApp n’est pas le premier à opérer cette transformation. Ses concurrents Cloudian et Scality ont dès septembre dernier lancé des appliances de stockage objet basées sur des SSD.

« Avec OnTap, nous restons dans la logique du NAS centralisé, mais qui devient désormais compatible avec les applications communiquant en S3. »
Mathias RobichonNetApp

L’autre stockage objet de NetApp est évidemment l’enrichissement du système OnTap historique avec l’ajout d’un protocole d’accès en mode objet. « Dans StorageGrid nous couvrons la fonction d’un stockage géodistribué. Avec OnTap, nous restons dans la logique du NAS centralisé, mais qui devient désormais compatible avec les applications communiquant en S3. »

Recentrer les activités sur des services distants : cloud local et coûts optimisés

Enfin concernant l’évolution des modèles commerciaux des entreprises vers plus de services à distance, NetApp observe une explosion des offres en « click-and-collect » et prédit une déclinaison de ce modèle à toutes les formes d’activité. « Dans cette dynamique, le secteur de la santé est certainement celui qui a déjà le plus changé en 2020, avec une utilisation accrue de la télémédecine dans les cas de contrôles ou de soins basiques », illustre Mathias Robichon.

Pour implémenter ces services à distance en remplacement des officines qui accueillent du public, il faut recourir à leur hébergement sur du cloud public, car ces infrastructures sont bien plus adaptées que les datacenters privés aux accès depuis Internet. L’enjeu devient dès lors de parvenir à conjuguer des offres de cloud public avec les exigences réglementaires qui s’appliquent aux données privées des consommateurs.

Dans ce domaine, l’année 2021 devrait être le théâtre de nouvelles annonces de partenariat entre NetApp et des hébergeurs de cloud locaux. OVHcloud avait récemment révélé au MagIT qu’il planchait avec le fournisseur sur des offres qui permettraient aux entreprises de gérer leur infrastructure sur site et en datacenter, de manière uniforme.

Mathias Robichon se refuse à entrer déjà dans les détails : « Nos équipements sont en effet déjà installés chez OVHcloud, ainsi que chez Outscale, les deux fournisseurs de cloud français à avoir obtenu la certification SecNumCloud. Pour l’heure, OVHcloud propose juste notre offre NAS en tant que service. Le portefeuille de nos services chez ces hébergeurs sera négocié avec eux durant le cours de cette année. »

Il concède néanmoins à donner des pistes sur les fonctions dont les entreprises pourraient bénéficier : « Au-delà des simples services d’infrastructure, nous observons surtout que les entreprises qui consomment beaucoup de cloud public, basculent plus ou moins rapidement sur des projets de réduction des factures. Notre nouvelle approche consiste donc à proposer un arsenal d’outils pour réduire les coûts du cloud. Cela correspond à notre offre Spot.io. »

« L’intérêt de Spot.io est de prendre en compte l’évolution des besoins en temps réel. »
Mathias RobichonNetApp

Spot.io, racheté durant l’été 2020, correspond à des services en ligne, pour l’heure utilisables sur AWS, qui basculent automatiquement les applications des entreprises sur les ressources les moins chères. La fonction Spot Elastic Group pioche des machines virtuelles parmi celles commercialisées en lot ; Spot Ocean va chercher les ressources qui présentent le meilleur rapport performance/prix pour exécuter un certain type de containers Kubernetes ; et Spot Storage prend en compte les règles de SLA (exigences de rapidité) de chaque application, pour ne mettre les données sur les ressources de stockage les plus chères que lorsque cela est nécessaire.

« L’intérêt de Spot.io est de prendre en compte l’évolution des besoins en temps réel ; par exemple, une application peut nécessiter beaucoup de performances pendant seulement deux jours, mais si elle continue d’utiliser les ressources les plus coûteuses le reste du temps, cela se traduit par une perte financière. Étonnamment, les fournisseurs de cloud sont les premiers à nous soutenir dans ces efforts d’optimisation, car nos outils leur servent à démontrer aux entreprises que leurs tarifs peuvent rester attrayants ».

Pour approfondir sur Architectures de Datacenters

Close