Trustworthy AI Association : une association pour unifier l’Europe de l’IA de confiance est née

Le premier sommet 100 % dédié à l’IA de confiance vient d’avoir lieu sur le plateau de Saclay. Un « Summit » qui a été marqué par l’annonce de la création de la European Trustworthy AI Association, un regroupement d’industriels et d’académiques qui s’inscrit dans la continuité des travaux du programme Confiance.ai.

La première édition du « Trustworthy AI Summit », évènement dédié à l’IA de confiance, a eu lieu cette semaine au sein des EDF Labs à Paris-Saclay.

Officiellement ouvert par Stéphane Dupré-La Tour, directeur innovation avancée et technologies numériques d’EDF R&D, le Summit a reçu ensuite Guillaume Poupard (directeur général adjoint de Docapost depuis janvier 2023), qui a montré le soutien des pouvoirs publics à cette initiative par sa présence en tant que co-président du Conseil de l’intelligence artificielle et du numérique (depuis cet été).

Stéphane Dupré-La Tour a rappelé qu’au-delà du succès de l’IA générative auprès du public, l’Intelligence artificielle devait se confronter à la réalité : l’industrie à besoin d’IA fiables, interprétables et sûres. Guillaume Poupard a ajouté que dans ce contexte l’Europe devait se doter de solutions conformes à ses valeurs.

Déjà des cas d’usages pour l’IA de confiance

La première table ronde, consacrée aux enjeux de l’IA responsable, est venue confirmer ce postulat tout en montrant que la « trustworthy AI » était déjà en production dans plusieurs grands groupes.

Thomas Waschulzik, R&D Manager chez Siemens Mobility a ainsi évoqué le rôle de l’IA dans l’automatisation des trains et en particulier dans le projet d’automatisation du consortium safe. trAIn.

« La confiance ne se déclare pas, elle doit être prouvée. »
Nozha BoujemaaGlobal VP AI Innovation and Trust de Decathlon

« Nous avons besoin de sûreté, mais aussi de confiance. Or ces deux dimensions n’évoluent pas toujours de pair », prévient-il. « Il faut d’une part protéger les passagers du train, notamment en détectant d’éventuels obstacles sur les voies. D’autre part, il faut protéger les gens qui pourraient se trouver sur les voies. Il faut combler le gap qui existe entre l’IA et le domaine de la sûreté de fonctionnement. »

La Deutsche Bahn avait dans un premier temps interdit l’usage de l’IA dans son projet d’automatisation des trains, avant de revenir sur cette décision. Et Siemens Mobility a finalement pu embarquer des IA dans son train automatisé Mireo en cours de test au centre de tests de Wegberg-Wildenrath (PCW).

L’ingénierie de l’IA vs le « Quick and Dirty »

Même constat chez Thales, l’industriel de la défense pour qui l’IA de confiance est la seule option.

« Nous ne pouvons pas laisser la moindre place à l’approximation, qu’il s’agisse des systèmes de reconnaissance biométrique ou dans la défense avec les systèmes de désignation de cibles. Une erreur peut avoir des conséquences dramatiques », résume David Sadek, VP Research, Technology & Innovation de Thales « Il est impossible pour nous d’être dans une approche “Quick and Dirty” dans le déploiement des IA. Nous devons avancer pas à pas, nous appuyer sur des process, disposer d’outils pour aller vers des IA de confiance, passer par des phases de qualification et de certification ».

« Nous devons avancer pas à pas, nous appuyer sur des process et disposer d'outils pour aller vers des IA de confiance. »
David SadekVP Research, Technology & Innovation de Thales

« La confiance ne se déclare pas, elle doit être prouvée. », ajoute Nozha Boujemaa, Global VP AI Innovation and Trust de Decathlon.

Le vendeur d’articles de sport n’évolue pas dans un milieu aussi critique que les trainq ou l’aérospatial et la défense, mais ce besoin de confiance dans les algorithmes se manifeste tout de même, non pas seulement vis-à-vis des clients et des autorités, mais aussi en interne, auprès des métiers.

« Nous avions un projet lié au pricing dynamique des produits embarquant de l’IA, mais ce projet a été mis en pause tout simplement parce qu’il n’était pas interprétable », raconte-t-elle. « Et même si les services centraux avaient développé un algorithme efficace, les pays qui devaient déployer l’outil ne comprenaient pas les résultats et ils n’ont pas adopté la solution. »

Quatrième témoin de cette table ronde, Shalina Misra, Strategic Digital Transformation Leader chez Sopra Steria a pointé un autre facteur à prendre en compte : l’écart considérable entre les attentes des métiers vis-à-vis de l’IA et ce qu’elle peut réellement délivrer.

« Cet écart est un gros problème, car il reste de nombreux problèmes à régler vis-à-vis de l’agentique, de la cybersécurité des modèles, de l’effet domino lié aux IA multimodales », liste-t-elle. « Ce sont des problèmes qui perdurent aujourd’hui et qui doivent être réglés. »

Face à des acteurs américains dominants dans l’IA générative – et plutôt adeptes de cette approche « Quick and Dirty » évoquée par David Sadek – la France et l’Europe misent sur l’IA de confiance pour à la fois assurer sa souveraineté technologique et une différentiation. Mais aussi pour affirmer ses valeurs éthiques.

Une association européenne dédiée aux IA de confiance

Mais comment faire ? En agissant, semble être un bon début de réponse. Et le point d’orgue du sommet fut, de fait, l’annonce de la création de la « European Trustworthy AI Association » pour aider à atteindre ces objectifs.

Nicolas Rebierre, responsable recherche et développement à l’IRT SystemX (un des membres fondateurs) en assurera la présidence. Et si les statuts viennent d’être officiellement déposés à Bruxelles, ses membres travaillent sur son organisation depuis près d’un an.

« La mission de l’association est de créer les conditions de la confiance pour les entreprises […] en fournissant les méthodologies et les outils nécessaires. »
Nicolas RebierrePrésident de la European Trustworthy AI Association

Il s’agit essentiellement de membres du programme Confiance.ai qui s’était achevé, comme prévu, fin 2024. On retrouve de nombreux industriels français, à commencer par Air Liquide, Airbusn Naval Group, Safran, Sopra Steria, Thales, et des organismes publics de recherche comme SystemX. Ils sont une trentaine en tout au niveau européen.

Et l’association souhaite croître rapidement.

« La mission de l’association est de créer les conditions de la confiance pour les entreprises », a expliqué Nicolas Rebierre. « Nous devons le faire en fournissant les méthodologies et les outils nécessaires à la construction d’IA de confiance, et en gagnant la confiance de toutes les parties prenantes, qu’il s’agisse des équipes internes d’ingénierie, de conformité ou des responsables. Il y a aussi les parties prenantes externes, à commencer par les clients et les partenaires. »

L’association ne part pas d’une page blanche. Elle reprend les actifs livrés lors du programme Confiance.ai (programme financé dans le cadre de France 2030) et s’engage à les maintenir et à les développer.

« Confiance.ai a produit de la technologie à l’état de l’art et pas uniquement pour l’IA. Il a produit une méthodologie d’ingénierie système dans laquelle l’IA est l’un des composants » vante le président de l’association qui annonce une centaine d’assets qui seront mis à disposition, notamment 25 outils Open Source et sept qui seront supportés en production par l’association.

Divers groupes de travail ont été mis en place sur la communication, la formation, la standardisation, l’animation scientifique et sur les usages industriels de l’IA. Enfin, un groupe de travail va être créé pour les acteurs de la défense dont les défis vis-à-vis de l’IA sont très spécifiques.

Un écosystème européen déjà très riche

L’association va devoir – ou pouvoir ? – inscrire son action dans les différents dispositifs mis en place par l’Europe ces dernières années.

Ces dispositifs, nombreux, ont d’ailleurs été détaillés par Cécile Huet, chef d’unité Robotique et intelligence artificielle, Innovation et Excellence à la Commission européenne, invitée à ce Summit.

« Il reste de nombreux problèmes à régler vis-à-vis de l’agentique, de la cybersécurité des modèles, de l’effet domino lié aux IA multimodales. »
Shalina MisraStrategic Digital Transformation Leader chez Sopra Steria

« Ces dernières années, nous avons mis en place une stratégie IA qui repose sur 2 piliers. D’une part, il faut une régulation sur comment développer et déployer des IA. D’autre part, il faut de la technologie pour construire cette confiance », résume-t-elle. « Nous supportons aussi un écosystème d’excellence, depuis les phases de recherche jusqu’au développement. »

En pratique, les aides de l’Union européenne sont multiples. De l’action de l’ADRA (AI, Data and Robotics Association), au support de la plateforme AI-on-Demand ; des hubs d’innovation digitale EDIH aux centres de test TEFs ; de l’initiative GENAI4EU pour créer des applications verticales aux cinq AI Gigafactories du plan d’équipement en supercalculateurs en passant OpenEuroLLM par des modèles de fondation open source (et pas juste open weight), l’Europe ne ménage pas ses efforts. Certains développements réalisés par Confiance.ai seront d’ailleurs disponibles sur la plateforme européenne AI-on-Demand.

Avec l’IA de confiance, l’IA européenne cherche en tout cas à se différencier de ses rivaux américains et chinois, en misant notamment sur ses valeurs éthiques, mais aussi sur les cas d’usage les plus critiques.

Le positionnement est certes moins médiatique que les annonces des GAFAM et d’OpenAI. Mais il pourrait devenir un atout pour l’industrie européenne. À condition que les outils et les méthodologies de l’association soient réellement mis en production, insistent de concert trois des promoteurs de sa création, Yves Nicolas, AI Group Director de Sopra Steria, Michel Morvan, Président d’IRT SystemX et David Sadek (de gauche à droite sur la photo en ouverture de cet article).

Pour approfondir sur Réglementations et Souveraineté