En 2021, l'industrialisation de l'IA en marche

En face de la démocratisation et la gouvernance de l’IA vantées par les éditeurs, les grandes entreprises françaises (ou les plus affûtées) ont vu la concrétisation de leurs premiers projets de machine learning, tandis que les enjeux de recrutement et de confiance resteront d’actualité en 2022.

De l’IA partout. Partout. Les éditeurs, les équipementiers et les fournisseurs cloud n’ont cessé de multiplier les annonces. Tous les produits embarquent ou supportent l’IA. Tous ? Presque. L’on ne s’amusera pas ici à compter les irréductibles : quelle que soit la forme qu’elle prend, les experts du marché jugent utile l’apport de l’intelligence artificielle, quitte à la confondre avec l’automatisation.

Au-delà, de cette notion d’infusion de l’IA, une thématique à part entière, il est bon de se pencher sur les offres des éditeurs, censés refléter les besoins des entreprises.

Quand le MLOps croise la démocratisation de la data science

Ainsi en 2021, Dataiku, AWS, Snowflake, Databricks, Microsoft Azure ou encore Google Cloud se positionnent sur les notions de gouvernance des données et des modèles de machine learning et de deep learning. Il faut toutefois différencier les approches. Des acteurs tels GCP, Dataiku, Databricks et AWS avec Amazon SageMaker entendent proposer un espace central par-dessus des puits ou des lacs de données pour administrer les données d’entraînement et les modèles afin d’en assurer l’auditabilité, mais aussi surveiller les potentielles dérives. Cette approche basée sur le MLOps prend forme parce que, selon les éditeurs, les grands groupes cherchent des solutions pour maintenir leurs algorithmes en production, tandis que d’autres n’ont pas encore les méthodes – et parfois les outils – pour les déployer.

Cela va de pair avec une « démocratisation de l’IA » : l’ouverture des plateformes de data science à davantage de rôles différents. Il ne s’agit plus de laisser les data scientists et les data engineers de leur côté, mais de les faire interagir avec les data analysts et les directions des métiers. Si Dataiku, AWS, H20, GCP, Microsoft, DataRobot et d’autres encore souhaiteraient que tous les usagers puissent manipuler les outils de data science à l’aide d’interface en glisser-déposer ou à partir d’environnement low-code/no-code, il s’agit moins de les laisser créer des modèles de machine learning que de leur donner accès à des outils d’analytique avancée. Cette démocratisation est à la fois perçue comme un moyen de mettre le pied à l’étrier des débutants en matière d’IA, mais également d’étendre la data science à des fonctions plus métiers.

Snowflake et AWS, soutenus par leurs partenaires et certains de leurs clients, entendent partager les données, les leurs, des jeux de données ouverts puis enrichis et aussi ceux de leurs partenaires afin que les entreprises puissent lancer réellement des projets de data science. Il est accepté que le travail de data science réclame beaucoup de données, plus précisément beaucoup de données qualifiées. Pour AWS, Snowflake, mais aussi GCP, cette approche est aussi (surtout ?) un moyen de cibler des verticaux spécifiques, en premier lieu les services financiers.

Mais cette vision apparaît parfois faussée par les velléités des acteurs du marché enclins à favoriser le traitement des données non structurées. Les géants du cloud ont les moyens d’entraîner et d’inférer de gros réseaux de neurones spécialisés dans la vision par ordinateur et le traitement du langage naturel. En 2021, ces acteurs ont poursuivi la conversion de ces acquis technologiques en services, d’autres se sont lancés dans l’aventure, à l’instar d’Oracle. Les nombreux services sur étagère d’AWS, Azure, GCP et maintenant Oracle sont pensés comme des briques de conception de projets IA. L’exemple le plus parlant est sans doute celui de l’agent conversationnel, plus communément nommé chatbot. Les fournisseurs et les éditeurs tendent bien à faciliter leurs déploiements, mais leur mise en production à l’échelle requiert un certain niveau d’expertise et une organisation spécifique, comme l’explique Éric Charton, directeur AI Science pour la Banque Nationale du Canada. 

La réalité du terrain

Certains projets d’IA arrivent pourtant à maturité. LeMagIT s’est fait l’écho de plusieurs cas d’usage déployés en production dans les entreprises françaises et francophones telles la SNCF, France Télévisions, Vade, Nestlé ou encore Intersport. Les usages sont importants, voire critiques : la classification et la catégorisation des produits chez Intersport, la détection d’amiantes chez la SNCF, ou encore l’identification du phishing chez Vade. Pour autant, ces groupes sont en phase d’industrialisation : en 2021, l’IA n’est pas généralisée à toutes les fonctions de l’entreprise. Selon une étude d’EY Parthenon, « Seules 10 à 15 % des entreprises ont réussi à industrialiser des solutions à base d’IA ».

Le cas de la Société Générale reflète bien cette tendance : elle a déployé 330 cas d’usage d’intelligence artificielle en production, mais seulement 15 à l’échelle du groupe. Bouygues Telecom a de son côté réussi à mettre en œuvre les moyens nécessaires aux déploiements des projets de machine learning et deep learning, mais doit faire face à différents enjeux d’intégration dans les processus métier et de recrutement.

Ces groupes n’y vont pas seuls. Les cabinets de conseils et les ESN sont souvent venus en renfort pour concrétiser ses projets entre 2020 et 2021. Capgemini, IBM, Ekimetrics, mais aussi Datategy sont quelques-uns des noms associés à ces projets. L’intervention de ces acteurs est conditionnée par différentes problématiques, résumées en début d’année par Joffrey Martinez, AI practice leader chez IBM France.

« Le point bloquant provient très rarement du modèle ou de la technologie [d’IA]. Nous observons un triptyque. Peu importe le secteur, les trois thèmes qui posent des difficultés tournent autour des talents – plus particulièrement des sujets des compétences et du changement, de la confiance en l’IA et des silos de données », affirmait-il auprès du MagIT.

Les efforts financiers de l’État français

Justement, l’État français entend cibler les deux premiers thèmes avec la deuxième phase de la stratégie nationale dédiée à l’intelligence artificielle présentée en novembre 2021. Le gouvernement a présenté un plan d’investissement de 2,14 milliards d’ici 2024, dont 781 millions d’euros consacrés à un programme pour l’instant flou, mais « ambitieux pour faire émerger un réseau d’établissements d’excellence et d’envergure mondiale et un plan de formation massif à l’IA ». Le gouvernement entend aussi injecter 226 millions d’euros dans l’IA de confiance, en partie à travers le programme Confiance.ai, soutenu par les instituts de recherche (CEA, SystemX, INRIA, etc.) et les industriels (Airbus, Safran, Air Liquide, Thales, Renault ou encore Valeo). Ici, il s’agit de se pencher sur les enjeux techniques, métiers et légaux posés par les systèmes d’IA dans les environnements industriels. Il faut également rappeler la date du 21 avril 2021, le jour où la Commission européenne a publié sa première proposition de réglementation de l’IA.

Certaines entreprises n’ont pas attendu les recommandations de la CE ou du gouvernement français pour se pencher sur les notions d’explicabilité et de responsabilité du machine learning. En 2021, la Banque Postale explore les technologies avec Telecom Paris Sud et La MAIF développe SHAPASH, une librairie open source pour expliquer ses algorithmes de recommandation de produits à ses métiers. Mais pour les experts, l’élaboration du cahier des charges de la confiance et de la responsabilité reste encore à établir. C’est ce que cherche à faire Numeum, le promoteur du projet Ethical AI, porté par un manifeste « pour formaliser l’engagement des acteurs de l’écosystème numérique français ». Ce document est déjà signé par Accenture, Keyrus, Linagora, Sage, Orange Business Services ou Quantmetry.

Pour approfondir sur Intelligence Artificielle et Data Science

Close