LeMagIT

Big Data Paris : « le Big Data est mort, vive le Big Data ! »

L'édition 2017 du salon montre que le marché veut une simplification des outils, que la fille du Big Data qu'est l'AI est l'apanage de quelques géants et que l'IoT industrielle rebat déjà les cartes de l'analytique Big Data.

Le salon parisien du Big Data s'est tenu cette semaine au Palais des Congrès. Tous les acteurs du secteur y étaient présents - de IBM à Talend, de Cloudera à MarkLogic, de Google à SAP, en passant par Orange, Oracle ou les ESN. Sans oublier une fourmilière fournie de start-ups. Seul Microsoft semblait absent (l'éditeur était en fait là mais dans une salle annexe, via un partenaire intégrateur, Umanis).

Que retenir de cette édition 2017 ?

Que le « Big Data est mort », mais pas enterré.

Que son application métier la plus en vogue est les bots, mais que l'AI qui les motorise est l'apanage des MAFA au sens large.

Et que l'IoT industriel est la prochaine vague du Big Data. Et qu'elle aussi appelle la simplification.

Vers une simplification des Big Data

« Le Big Data est mort, vive le Smart Data », affichait, un brun provocatrice, la société 4C spécialiste de la gestion des risques et du GRC.

Cette phrase aurait clairement pu être un des devises de cette édition 2017 du Salon. Car si l'intérêt de l'enregistrement, du traitement et de l'analyse de grandes quantités de données - structurées ou non, en temps réel ou quasi temps réel - est aujourd'hui bien identifié par les entreprises, les difficultés liées à ce Big Data sont toujours aussi importantes. Et redoutées.

La « simplification » sous toutes ses formes est donc devenue « tendance ».

Chez Cloudera, ce n'est pas nouveau, on propose du Hadoop en distribution utilisable « out of the box »... ce qui ne résout pas tous les problèmes d’un coup de baguette magique.

Chez Qlik et Tableau, on fait la promotion au chaland de l'intégration de multiples sources à la souris, du croisement des données hétérogènes par glisser-déposer, et du drill down à base de double clique.

Plus question de réserver l'analytique Big Data aux seuls Data Scientistes. Il faut la dé-mo-cra-ti-ser.

C'est ce qui ressort également du témoignage utilisateur de Marc Rousseau, Head of Data, chez Auchan. Le responsable de la donnée du distributeur a mis en place un Datalake à la place de son Data warehouse, mais - surtout - il a déployé du Qlik pour que les métiers s'approprient le Big Data au travers de différents cockpits (Dashboard).

« Si vos données sont gérées par des Data Scientists, alors vous n'êtes pas Data Driven », lance au MagIT Thibault de Broissia, du jeune éditeur Reeport, émanation du tout aussi jeune cabinet de conseils Uptilab spécialiste de la conversion marketing.

DataStax promet de son côté des coûts plus réduits pour les déploiements Big Data (là encore grâce à la simplification des projets). Quant à l'ESN Micropole, elle invite purement et simplement à « briser le mur du Big Data » pour devenir « Data Addict » (sic). Ce qui indique bien que le Big Data, pour beaucoup de clients, est encore un mur particulièrement solide qui leur bouche l'horizon.

Vers un Big Data IoT

Cette tendance à la simplification quasi généralisée intervient alors qu'une nouvelle avalanche de données s'annonce avec l'Internet des Objets. L'autre gros sujet de cette édition.

Oracle était exclusivement présent sur cette problématique (et pas avec ses appliances Big Data). Orange également, avec des solutions pour l'industrie, pour les distributeurs et bien sûr pour les Smart City.

De son côté, Google se constitue un Cloud (back-end et services analytiques intégrés) dédié et taillé pour ce que l'on ne va pas tarder à appeler le Big Data IoT.

Sur ce sujet des appareils connectés, le Big Data se mélange désormais au réseau, pose des questions d'infrastructure et débouche, paradoxalement, sur une conception « Small Data ». Le Big Data est mort, on vous dit.

Ce mouvement de diminution des données en transit s'appuie sur le constat que toutes les données générées par des capteurs n'ont pas besoin d'être remontées à un back-end. Et que celles qui le méritent n'ont pas toutes besoin de l'être en temps réel (vive le batch !).

Et surtout que l'infrastructure, du fait qu'elle est composée à tous ces échelons de hardware qui embarquent du logiciel, peut traiter la donnée à chaud à son niveau.

En appuie du Cloud Computing - qui reste un réceptacle privilégié des données - on parle donc désormais de plus en plus de Fog Computing (donnée traitée par des serveurs / appliances / routeurs / smartphones locaux, au plus près du capteur) et de Edge Computing (donnée traitée directement dans les appareils / capteurs avec des algorithmes embarqués).

TellMePlus, une (grosse) pépite à la croisée de l'IoT et de l'analytique Big Data

Cette intégration de l'analytique Big Data dans les différentes couches est la spécialité de TellMePlus. Cette vraie société aux fausses allures de start-up a été fondée par Jean-Michel Cambot, un des créateurs de Business Object - racheté depuis par SAP.

Son offre, baptisée Predictive Object, permet d'automatiser le choix des algorithmes prédictifs à intégrer aux objets pour, là encore, simplifier.

En résumé, Predictive Object travaille en amont sur un historique Big Data, repère les outils statistiques les mieux adaptés, teste les prédictions de pannes ou autre (en arrêtant par exemple l'apprentissage à une date T, en faisant prédire à l’algorithme personnalisé les pannes à T+1 et à T+2, puis en comparant ces résultats aux pannes réellement avérées en T+1 et T+2) et affine son modèle.

Les algorithmes sont ensuite embarqués directement dans les objets (qui deviennent prédictifs, d’où le nom). Ils sont ensuite mis à jour grâce au Machine Learning au fil du temps.

Predictive Object met ainsi de l'analytique aussi bien dans des routeurs que directement dans des puces (FPGA). Avec un double intérêt : soulager le réseau et s'en affranchir en gardant la décision localement même en cas de mauvaise couverture.

TellMePlus est symptomatique de ce mouvement de simplification de mathématiques complexes et d’adaptabilité de déploiement en fonction du contexte (avion, pipeline, voitures connectés, etc.). Résultat, ses outils sont d'ores et déjà intégrés aux routeurs de Cisco, en couche analytique au-dessus de Predix de GE Digitals et s'intègre avec Google Cloud. Trois grands noms intéressés par la nouvelle intuition de Jean-Michel Cambot et sde es équipes - et avec lesquels Predictive Objects a des partenariats avancés.

AI : le bruit de bots des GAFA

Qui dit Big Data dit aussi aujourd'hui Intelligence Artificielle. Car l'AI, dans sa phase d'apprentissage, se nourrit de Big Data.

Et qui dit AI dit, aujourd'hui, « Bot ». Les robots conversationnels en sont même le premier visage concret dans les usages d'entreprises.

Nombreuses sont les sociétés qui lancent des projets de ce type : Voyages SNCF, Meetic, Accor, Direct Energie, PMU pour n'en citer que quelques-unes. Et pour cause, les bots - ces assistants de plus en plus pertinents - ont une réelle valeur ajoutée : meilleure gestion des flux entrant dans les call centers, amélioration de l'utilisation d'outils complexes (comme les ERP), augmentation du taux de conversion en marketing numérique, ou support de l'expertise métier dans le conseil bancaire ou dans l’hôtellerie par exemple.

« L'AI c'est comme un exosquelette pour le cerveau » résume joliment Emmanuel Mogenet, Directeur Google Research Europe.

Problème, créer une AI « from scratch » demande des moyens pharaoniques que très peu d'entreprises dans le monde possèdent.

Le salon Big Data Paris a confirmé en creux que quasiment tous ces développements s'appuient sur les services des géants de l'IT : Google (Google Assistant, ex-Google Now), AWS (Alexa), IBM (Watson), Microsoft (Cortana) voire Apple (Siri) ou Salesforce (Einstein). Et demain Facebook (projet Facebook M).

Il existe certes des alternatives open-sources (le Stanford Parser) et/ou de concurrents locaux (Holmes de Wipro par exemple). Mais elles sont encore peu matures ou encore trop complexes pour des entreprises aux moyens par définition limitées.

Les GAFA au sens large sont donc déjà en position ultra-dominante. Ceci dit, « si on compare au développement d'Internet, l'Intelligence Artificielle n'en est qu'à son année 1997 », constate Emmanuel Vignon, Watson Practice Leader, chez IBM France.

Tout n'est donc pas encore perdu. D'où l'intérêt d'une initiative comme France IA. Si elle est bien menée.

Pour approfondir sur Big Data et Data lake

Close