mehaniq41 - stock.adobe.com

Confiance.ai : industriels et chercheurs français se mobilisent pour fiabiliser l’IA

Le 1er juillet, neuf partenaires industriels et quatre centres de recherche ont présenté le programme de Confiance.ai, lancé par l’État français. L’ambition est de fédérer chercheurs et industriels dans le but de caractériser l’IA de confiance et favoriser la maîtrise des systèmes critiques propulsés au machine learning, dans un délai de quatre ans.

L’Institut de Recherche Technologique SystemX est à la tête d’un programme lancé en catimini en 2020. Cette initiative, issue du collectif Manifeste IA – née après la publication d’une tribune en 2019 –, vise à fédérer les acteurs industriels et les chercheurs français autour de l’industrialisation de l’IA en milieu… industriel.

Suite de l'article ci-dessous

Nommé Confiance.ai, le programme est engagé par l’État français qui lui accorde un budget de 30 millions d’euros entre 2021 et 2024. Ce montant est complété par les membres de ce collectif afin de rassembler une enveloppe totale de 45 millions d’euros. Plus directement, 300 équivalents temps plein développeront sept projets différents depuis les plateaux de Saclay et à Toulouse.  « Jusqu’à 20 % du budget du programme Confiance.ai est destiné aux contributions académiques », précisait SystemX en janvier dernier.

Confiance.ai rassemble d’un côté Valeo, Renault (aussi membre de la Software République), Naval Group, Airbus, Safran, Atos, Air Liquide, Sopra Steria et Thales. De l’autre côté de la barrière, les IRT SystemX et Saint Exupéry, l’INRIA ainsi que le CEA mèneront tambour battant les projets scientifiques.

Au vu de la thématique industrielle, l’enjeu de confiance va au-delà des préoccupations de la Commission européenne, à l’origine d’une proposition de loi pour réguler l’utilisation de l’IA dans les sphères publiques, industrielles et militaires. Comme ce collectif réunit à la fois des membres des filières de l’énergie, de l’automobile, de l’aéronautique, de la santé, de l’informatique et de la défense, il faut pouvoir définir ce que la confiance en l’intelligence artificielle signifie.

Une confiance qui va bien au-delà de l’explicabilité

Le programme s’articule autour de cinq axes : « la caractérisation de l’IA, l’IA de confiance by design, l’ingénierie de la donnée et des connaissances, la maîtrise de l’ingénierie système fondée sur l’IA et l’IA de confiance pour l’embarqué », peut-on lire sur la page web dédiée à Confiance.ia.

Ces axes lèvent la présence de « verrous scientifiques » que les partenaires du programme (les membres fondateurs, les laboratoires de recherche ainsi que des PME et startups appelées à participer) s’évertueront à crocheter. Pour l’instant, les responsables évoquent la nécessité de concevoir de composants, principalement des puces embarquées, à « confiance maîtrisée », de former de données et des connaissances pour s’assurer de la fiabilité des modèles d’apprentissage et de se pencher sur des interfaces homme-machine capables de démontrer que l’on peut faire confiance aux systèmes propulsés à l’IA.

« L’explicabilité et la démystification des systèmes critiques alimentés à l’intelligence artificielle sont nécessaires », affirme Emmanuelle Escorihuela, Présidente du comité de pilotage de Confiance.ai/Artificial Intelligence Transformation Leader for Systems, chez Airbus. « Au départ, les réseaux de neurones dépendent d’opérations mathématiques comme les autres. L’on ne peut pas se satisfaire que ce soit un miracle dans nos processus », tranche-t-elle.

Airbus expose le fait que ces équipes exploitent depuis 2005 des réseaux de neurones pour optimiser le fonctionnement des pales de ses hélicoptères. De plus, le groupe aéronautique a lancé des expérimentations de décollage et d’atterrissage automatisées à partir d’un modèle de vision par ordinateur couplé à un système de guidage installé sur un A350.

De son côté, David Sadek, VP, Recherche, Technologie & Innovation chez Thales, évoque un « certain nombre de critères à respecter » dont la sûreté, l’explicabilité et la responsabilité pour ces systèmes critiques. Il faut, selon le dirigeant, valider, qualifier, « voire certifier » les projets d’IA industrielle qui peuvent influer sur les vies humaines ou sur les activités les plus sensibles d’une organisation. « La validité est un concept absolument central. Les systèmes d’IA doivent faire ce que l’on attend d’eux », déclare-t-il.

Des forces qui sont aussi des faiblesses

Lors de l’événement, les partenaires ont partagé indirectement leurs attentes concernant Confiance.ia. Les organisateurs ont diffusé de courtes vidéos où les responsables des projets de data science issus des entreprises membres du collectif exposaient chacun leurs problématiques en la matière. David Sadek résume leurs espoirs en évoquant le développement « d’outils, de processus et de méthodes industriels pour vérifier l’IA ».

Emmanuelle Escorihuela estime que la force du consortium tient dans l’association d’enjeux scientifiques, techniques et industriels. « Tous les ingrédients sont réunis pour que la mayonnaise prenne », assure David Sadek. Il mise notamment sur la participation des instituts de recherche et des appels à manifestation organisés dans le cadre de programme auprès des startups et des laboratoires.

Mais cette force peut aussi représenter sa faiblesse, malgré des intérêts communs. Confiance.ai déroule une initiative qui tente de fédérer divers projets pilotés par des entreprises et des scientifiques capables de proposer des outils, des cadres de développement et un possible « un cadre technique pour la réglementation de l’IA ». L’INRIA, le CEA, SystemX, et Saint-Exupéry ont vu les projets de recherche en IA pulluler au sein de leurs laboratoires, mais peu d’entre eux concernaient ces enjeux de confiance.

Le sujet plus spécifique de l’explicabilité a réellement décollé à partir de 2017, si l’on en croit les déclarations de Gregory Flandin, directeur de programme Intelligence Artificielle pour les systèmes critiques à l’IRT Saint-Exupéry. C’est cette même année que l’institut a lancé son programme dédié à l’IA de confiance en collaboration avec un centre de recherches au Québec. La communauté scientifique n’était encore « pas très structurée ».

« Les équipes de chercheurs IA qui cherchaient uniquement la performance commencent à comprendre et à accepter les contraintes d’explicabilité et de sécurité », témoigne de son côté François Terrier, vice-président programme intelligence artificielle au CEA.

« Il faut arrêter l’apprentissage brutal : il convient de développer une approche constructive en fonction de preuves, de spécifications et en utilisant des modèles mathématiques dont les abstractions sont maîtrisées [par les scientifiques] », ajoute-t-il.

Des enjeux légaux et économiques pour l’État français

En outre, les fondations légales sont encore fragiles et Cédric O, secrétaire d’État chargé de la transition numérique, en est conscient.

« Il faut maintenant avancer sur l’innovation et la certification », affirme-t-il dans son discours d’introduction du programme Confiance.AI

« Nous avons besoin d’un cadre réglementaire », insiste Jean-Baptiste Djebbari, ministre délégué aux transports, qui évoque la complétion du décret consacré au cadre réservé à la conduite autonome qui permettra de faire rouler les premiers véhicules équipés en 2022 sur les routes françaises.

Grégory Flandin estime que s’il est possible de valider les systèmes avant leur déploiement, la certification s’appuiera sur « un faisceau de preuves ». Bref, malgré l’expertise des membres du collectif, les contraintes du deep learning et du machine learning demeurent.

Le ministre délégué aux transports rappelle une autre priorité, celle poussée par les membres du collectif « Manifeste IA » qui ont rejoint l’association France Industrie en 2019.

« Nous comptons sur vous pour porter un projet technique et éthique français. Nous voulons que la France soit au rendez-vous de cette deuxième révolution industrielle de l’IA », affirme-t-il.

Marko Erman, directeur scientifique chez Thales et porte-voix de France Industrie lors de cet événement, va plus loin en déclarant que l’Europe et la France a raté le coche de l’IA adressée au marché BtoC, les industriels européens ont en revanche la possibilité de se démarquer au sujet de l’IA industrielle.

Concernant les systèmes critiques, le directeur scientifique revendique la nécessité d’employer des outils souverains. Marko Erman laisse à penser le temps d’un slide que les frameworks de machine learning les plus populaires – TensorFlow, Pytorch, Scikit-Learn – sont à proscrire dans le développement de systèmes critiques. S’il est vrai qu’ils sont principalement mis à jour par les GAFAM, Scikit-Learn est né dans les laboratoires de l’INRIA.

Pour approfondir sur Intelligence Artificielle et Data Science

Close