Sergej Khackimullin - Fotolia

HoD Combinations : HPE pousse le concept du ML-as-a-service

Combinations expose les API de Machine Learning et de services cognitifs de Haven On Demand dans une interface graphique pour en faciliter l’utilisation, le chainage et enfin l’intégration.

HPE a décidé lui-aussi de jouer des coudes sur le marché du Machine Learning. A l’occasion d’une conférence Big Data, au cours de laquelle la version 8.0 de Vertica a été présentée, le groupe a montré son intention de démocratiser l’intégration de fonctions de Machine Learning aux applications avec la présentation de Haven OnDemand Combinations. 

En gros, HoD Combinations (disponible à la fin 2016) est une couche qui se loge au dessus de la plateforme Haven On Demand , une déclinaison Saas de la plateforme Haven de HPE, destinée à la gestion globale des données et de leur analyse. Celle-ci est disponible dans le Cloud depuis mars 2016.  Cette plateforme embarque un catalogue de plus de 70 APIs pré-définies que les développeurs peuvent exploiter dans leurs applications. On y trouve par exemple des APIs liées à l’analyse d’image, de graphes et de textes, d’autres liées à la conversion de formats ou aux modèles prédictifs. 

Combinations a justement pour vocation d’exposer ses APIs, de les mettre à disposition dans un catalogue et de proposer une interface graphique permettant de les manipuler plus simplement – donc. L’outil, hébergé sur la plateforme Azure, propose pour cela une mécanique de glisser- déposer pour accélérer et fluidifier la consommation des ses APIs. Bref, HPE présente ici à ce que l’on pourrait baptisé un ML-as-a-service.

Mais ce n’est pas tout. Car HPE laisse aussi entendre que Combinations est un outil qui vient faciliter à la fois le chainage des APIs, mais surtout leur intégration dans les applications et dans divers environnements auxquels celles-ci doivent se connecter. L’interface graphique permet de les assembler et de les composer en les déplaçant à la main, et de copier leur code résultant pour les intégrer.  HPE fournit des templates pré-définis liés à des usages identifiés au préalable. Le développeurs, ou le data scientist – cités comme les deux cibles de la solution – peuvent y associer leur propre jeu d’APIs, modifier les comportements et de republier l’ensemble dans un catalogue, afin de favoriser leur ré-utilisation. 

Centraliser les APIs, pour ne disposer que d’un unique appel

Mais l’autre point clé est l’intégration. Si Combination permet de modéliser et de chaîner des APIs pour faciliter le comportement logique du ML dans l’application, elle permet aussi de créer un unique point d’entrée à cette logique, via un simple appel. Au final, une seule API et un seul appel.  Pour HPE, cela facilite certes l’intégration – un point clé lorsque l’on dispose d’une kyrielle d’APIs avec lesquelles jongler - , mais évite aussi les problèmes de latence.

Cette tendance à vouloir simplifier l’intégration de fonctions de Machine Learning dans les applications est aussi liée au fait qu’aujourd’hui, il faut toujours en expliquer l’intérêt. Chez les métiers par exemple, les gains apportés par le Machine Learning nécessitent encore un long apprentissage. Les cas d’usages dans les entreprises pourraient encore bien se faire attendre, sauf si on en facilite l’appropriation.

Pour approfondir sur Architectures logicielles et SOA

Close