IA industrielle : Confiance.AI livre ses outils pour une IA responsable

Le projet de recherche français, mené par des acteurs académiques et des grands groupes industriels, touche à sa fin. Au ministère de l’Économie, le collectif a rendu publics les outils techniques et une méthodologie, fruits de trois ans de travail, et a évoqué l’avenir.

« Une journée particulière ». Le titre du chef-d’œuvre d’Ettore Scola pourrait résumer l’évènement du projet français de recherche Confiance.AI, organisée jeudi 7 mars 2024 par son coordinateur, IRT SystemX.

« Particulière », d’abord parce que la journée a officialisé les fruits de trois années – et bientôt quatre – de travail, avec la sortie d’une « méthodologie outillée de bout en bout », pour créer de la confiance autour de l’intelligence artificielle dans le milieu industriel.

« Particulière » ensuite, parce que le programme se termine en septembre. Il n’y aura donc pas – a priori – d’autres Confiance.AI Day.

Sans confiance, pas d’IA dans l’industrie

Pour mémoire, le but du programme Confiance.AI est de créer les conditions pour que les entreprises industrielles françaises déploient l’IA. Un objectif fixé par l’État (qui finance le projet dans le cadre de France 2030) qui a bien conscience que sans IA, l’industrie nationale perdrait en compétitivité.

Or « sans IA responsable et sans confiance, il n’y a pas de projets d’IA possibles [dans des contextes critiques] », ont insisté de consort Bernhard Quendt, CTO de Thalès, Mohammed Sijelmassi, CTO de Sopra Steria, et Baladji Soussilane, VP Digital et IT Group d’Air Liquide lors d’une table ronde.

Emmanuelle Escorihuela, Artificial Intelligence Transformation Leader for Systems chez Airbus, a clairement illustré ce point avec l’exemple théorique d’un modèle de ML (de reconnaissance d’image) embarqué dans un avion, qui identifie les pistes d’atterrissage. Si ses résultats ne sont pas auditables et explicables, son industrialisation est, évidemment, inenvisageable (même si l’IA fait atterrir l’avion correctement).

Confiance.AI regroupe donc depuis trois ans de grands groupes industriels (Airbus, Renault, Thalès, Air Liquide, etc.), des intégrateurs (Sopra Steria, Atos) et des organismes académiques et de recherche (CEA, IRT SystemX, etc.). Sa durée avait été fixée à 4 ans. Mais, promettent ses participants, il y aura un « après » 2024.

Photo du tableau des membres et soutiens du collectif Confiance.AI – ©P.Ducellier-LeMagIT
Les membres et soutiens du collectif Confiance.AI

Un projet de recherche soutenu par l’État, interconnecté à l’international

« Particulière », enfin, parce que la journée s’est tenue dans les murs du ministère de l’Économie et des Finances, avec la présence de plusieurs personnalités clefs de l’IA en France : Guillaume Avrin (coordinateur du programme national pour l’IA) en ouverture, Anne Bouverot (co-présidente du Comité de l’IA générative du Gouvernement), et en clôture un message appuyé de remerciement de Bruno Bonnell (Secrétaire général pour l’investissement). Signe de l’importance du projet pour la politique publique.

Cette importance a été confirmée par deux autres éléments.

D’abord, par le nombre de personnes (plus de 350, alors que pour la première, et la dernière fois donc, l’évènement était payant) dans une salle pleine. Ensuite, par le témoignage de nombreux autres projets internationaux qui interagissent avec Confiance.AI. Un des buts de Confiance.AI étant de devenir une des références mondiales pour intégrer l’IA responsable dans les systèmes industriels.

Se sont ainsi succédé Data61 du CSIRO (l’équivalent australien du CNRS), Fraunhofer Institute for Intelligent Analysis & Information Systems, Fraunhofer IKS, SafeTrAIn (Siemens Mobility), Responsable AI UK (consortium piloté par l’Université de Southampton), CERTAIN du DFKI (un institut historique de recherche sur l’IA), ainsi que des professeurs de Polytechniques Montréal, de l’université de Notthigham (avec un jeu de cartes pour aborder différents thèmes de la « responsabilité » dans la recherche en IA) et de Berkeley UC.

Sans oublier Confiance IA, l’alter ego québécois de Confiance.AI, avec qui le projet français entretient des relations proches.

Des composants et une méthodologie

Après quatre ans de travaux entre entités publiques et privées, Confiance.AI a donc livré ses fruits. Un catalogue de 126 composants qui ont été regroupés en ensembles fonctionnels. On y trouve, par exemple, des briques technologiques pour la robustesse, le monitoring, la gestion du cycle de vie de la donnée, l’explicabilité, la quantification de l’incertitude, ou encore les données synthétiques.

« La confiance, ce n’est pas juste un outil et une méthode, mais un continuum d’outils et de méthodes. »
Loïc CantatConfiance.ai et IRT SystemX

La méthodologie mise au point par Confiance.AI est une sorte de guide, pas à pas, qui explique comment utiliser et intégrer ces briques technologiques. « La méthodologie est générique, ce sont les mises en œuvre [secteur par secteur] qui diffèrent », explique Juliette Mattioli, présidente du comité de pilotage du programme en conférence de presse.

Cette « méthodologie outillée » s’inspire d’autres méthodologies, en dehors du monde l’IA, par exemple de l’ingénierie des systèmes critiques dans l’aéronautique, illustre Fabien Mangeant, président du Codir de Confiance.ai, et Digital Scientific Director chez Air Liquide. Quant aux développements des éléments techniques, ils ont été faits en binôme, avec un acteur d’une industrie qui tire le développement lui-même d’un élément, et un acteur d’une autre industrie qui le teste.

Mais les experts insistent sur l’usage de cette « méthodologie outillée ». Il ne s’agit pas d’un mode d’emploi, mais bien le cadre d’une approche globale et systémique. « La confiance, ce n’est pas juste un outil et une méthode, mais un continuum d’outils et de méthodes », justifie Loïc Cantat, de IRT SystemX Technical Program Manager de Confiance.ai.

« Concevoir un système d’IA nécessite de revisiter toutes les ingénieries », prévient-il

Vers une Fondation européenne pour l’IA de confiance dans l’industrie

Si, d’après ses participants, le projet a déjà beaucoup fait, il reste encore beaucoup à faire. Les technologies d’IA évoluent plus vite que jamais et les défis ne manquent pas. Lors de l’évènement, Confiance.AI en a listé une dizaine, sur lesquels ses travaux n’ont porté que partiellement et qui marqueront donc « l’après » : domaine d’emploi des systèmes, embarqué (performance, consommation, temps de réponse), IA hybride, IA génératives ou encore empreinte carbone (liste non exhaustive).

Un autre défi est (actuellement) sur la table : celui de diffuser ces résultats – ces « biens communs numériques » (sic) – et les faire connaître pour qu’ils soient, réellement, utilisés et déployés dans l’industrie.

« La partie n’est pas terminée », confirme Fabien Mangeant. La partie, non. Mais le programme de recherche, si. Quelle suite ses membres donneront-ils à Confiance.AI ? Comment continueront-ils à faire évoluer « les biens communs » pour qu’ils ne deviennent pas caducs ? D’autres projets de recherche pourraient-ils prendre le relais ? Une association pourrait-elle être créée pour pérenniser le projet actuel ?

Autant de questions qui devraient avoir une réponse d’ici septembre.

Une seule certitude aujourd’hui : une fondation au niveau européen est envisagée, révèle Paul Labrogère, directeur général de l’IRT SystemX. Son but sera de fédérer le plus d’acteurs industriels internationaux possible, pour partager une feuille de route commune. Une stratégie d’IA de confiance qui se cantonnerait à la France n’aurait que peu de sens.

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire

Close