francis bonami - Fotolia

Salon AI Paris : des usages qui se dessinent, des chercheurs et des start-ups

Cette première édition d’AI Paris a permis de montrer qu’un écosystème de l’intelligence artificielle se construisait en France, attendant la déferlante tant promise.

En matière d’Intelligence Artificielle (IA), « on sort de l’hiver ». C’est ainsi que Nathanaël Ackerman, conseiller Innovation et Intelligence Artificielle au sein de France IA, le programme gouvernemental pour la promotion de l’IA dans l’Hexagone, a illustré la situation de ce très précieux mouvement à l’occasion de la première édition d’AI Paris, qui se tient les 6 et 7 juin à la Cité Universitaire de Paris.

Livrant quelques chiffres du rapport publié en mars dernier, Nathanaël Ackerman a peint un tableau plutôt positif de l’IA en France, un secteur où évoluait désormais quelque 340 start-ups et travaillaient 5 500 chercheurs. Un tissu qui se met en place, après une longue période de disette – le concept de l’IA remonte aux années 70 – dont la progression et les avancées doivent assurer une place de choix à la France sur l’échiquier européen sinon mondial – le rôle de France IA est aussi de pérenniser une filière.  L’IA se relève, en témoigne sa courbe de croissance prévisionnelle dans le monde : de 643 millions d’euros en 2016, le marché devrait atteindre 36 milliards d’euros en 2025 (source Tractica).

Si la recherche progresse à Vitesse grand V, laissant ainsi entrevoir d’autres usages jusqu’alors inexplorés, il apparait que les grandes entreprises françaises ont même commencé à se frotter à ces technologies. Se frotter seulement car « si la qualité de la R&D est très bonne, il existe encore des difficultés d’appropriation par les entreprises », note David Sadek, directeur de la recherche de l’Institut Mines-Telecoms, également membre de France IA.  Même si certaines ont initié des projets en interne, qui parfois, se sont transformés en production.

L’IA fait son entrée dans les entreprises, attirées par les économies de coûts

Si le Crédit Mutuel avait certes montré ses usages de tri automatiques d’emails ou d’assistant virtuel auprès des conseillers bâtis sur IBM Watson, BNP Paribas investit dans des chatbots, la Société Générale dans des assistants auprès des conseillers ou encore Axa qui finance une équipe de chercheurs qui travaillent sur le sujet. Les secteurs de l’aéronautique, avec Airbus, de l’énergie, avec Engie (dans le développement de Smart Grid), Veolia (tri des déchets), la distribution, le luxe et le tourisme (AccordHotels utilise le Machine Learning dans le cadre d’un programme de Revenue Management), la Santé (Sanofi pour lutter contre le diabète et dans le cadre du traitement contre le cancer) ou encore dans le transport (Renault pour les véhicules autonomes ou encore la SNCF dans le diagnostic de pannes et de maintenance prédictive) étudient la question.

Les projets couvent donc dans les grandes entreprises…et, par effet mécanique, les start-ups suivent. Actuellement, 80% des start-ups du secteur cible le secteur du B2B, résume Jamal Labed, Venture Partner au sein de Serena Capital, également COO d’EasyVista, un spécialiste de l’ITSM. Avec des secteurs privilégiés : à commercer par celui des technologies liées à la publicité en ligne (AdTech) en 1er place, devant la finance, la sécurité et la santé, liste-t-il.

A l’occasion d’AI Paris, nous avons pu noter la mise en place par Natixis Assurances de projets de traitement et de réponses intelligents aux emails ou encore d’assistance aux conseillers. Voyage-sncf.com a montré comment il avait utilisé les principes conversationnels d’un bot  pour ses ventes de voyages.  

Pourtant, aussi frileuses soient encore les entreprises, l’IA a de quoi les séduire. Si les frontières de l’IA peinent – si l’on en juge l’étendue sémantique du concept chez les fournisseurs technologiques (un effet de mode, juge-t-on d’ailleurs chez certains acteurs présents sur le salon) – à se dessiner franchement, il existe une constante : l’automatisation qui conduit à la réduction des coûts. Jean-David Benichou, fondateur et président de Via.io, investisseur dans plusieurs start-ups du domaine, explique même qu’il s’agit là du moteur d’adoption principal de l’IA en France. « L’IA est un domaine portant sur l’économie de coûts. Chaque interaction traitée par un agent virtuel est autant d’interaction que ne traitera pas un agent physique », explique-t-il – sa société développe et commercialise un chatbot conversationnel qui justement assure ces fonctions. Il compare l’IA à « une déferlante plus grande que celle des micro-processeurs ».

Si l’automatisation revient régulièrement dans les discours comme traduction de l’IA, pas question de parler de remplacement d’humains. Il s’agit plutôt de les « re-attribuer à des tâches à valeur », comme le précise Eric Carré, le DSI de Natixis – Assurances.

Pousser la technologie vers des terres en friche

Reste que tout n’est pas rose, comme il est de coutume dans les technologies émergentes. Comme par exemple, l’ombre d’une règlementation RGPD qui pourrait minimiser l’impact de cette déferlante promise en taillant dans les capacités d’exploitation des données personnelles – LE carburant de l’IA. A cette question, on reste volontairement vague. « C’est un vrai sujet. Mais cela apporte un caractère contraignant d’accès aux données dont il faut tirer parti », note David Sadek (Mines-Telecoms et France IA). Moins nuancé chez Nathanaël Ackerman : « il faut éviter de tout faire pour ne pas brider l’innovation (sic) ».

Mais ce n’est pas tout. Si certains, comme Jean-David Benichou, juge les technologies de l’IA « mûres », il reste encore une parcelle à défricher, notamment en matière de Machine Learning. Un point que développe Alexandre Lebrun, en charge de l’ingénierie dans la division AI Research chez Facebook : «ce qui marche aujourd’hui porte sur l’apprentissage supervisé », constate-t-il. Comprendre, les algorithmes sont nourris avec des données ayant un objectif de prédiction défini. Cela est valable pour les voitures autonomes, la reconnaissance vocale et d’écriture manuelle ou encore les chatbots – «  à condition que le contexte est très défini ».

Mais lorsque cela nécessite un apprentissage non supervisé – quand l’objectif de prédiction est cette fois-ci non défini –, on est encore loin du compte. C’est le cas du sens commun, des émotions, de la traduction automatique, des prises d’initiatives où Alexandre Lebrun estime « qu’on ne sait pas faire du tout. Nous avons encore très peu d’éléments sur le non supervisé ». Une terre à conquérir donc pour les quelques 5 500 chercheurs français travaillant sur l’IA.

 

 

Pour approfondir sur Big Data et Data lake

Close