mehaniq41 - stock.adobe.com

Évaluation des risques de l’IA : l’INESIA précise ses missions

Un an après sa création tardive en février 2025, l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle dévoile sa feuille de route 2026-2027. Elle dotera la France de capacités pour assister la mise en œuvre locale de l’AI Act, entre autres.

Cet organisme piloté par la direction générale des Entreprises (DGE) et du secrétariat général de la défense et de la sécurité nationale (SGDSN) a une double casquette. Sa création s’inscrit dans un projet de collaboration mondiale consacré aux risques de l’IA. Il a également pour rôle d’apporter un accompagnement scientifique à la mise en œuvre des réglementations sur l’IA, dont l’AI Act européen. 

Les membres de l’INESIA – l’ANSSI, l’INRIA, le LNE et le PeReN – ne se sont pas tourné les pouces en 2025. Ils n’avaient toutefois pas tracé les grands points de leur feuille de route.

Onze projets sont donc au programme des années 2026 et 2027. Ils sont répartis entre trois pôles thématiques et un axe transverse.

Un premier pôle, « Appui à la régulation », doit ainsi mener quatre projets. Premièrement, il doit mettre des outils d’évaluation à la disposition des régulateurs nationaux (16 à minima) désignés en septembre dernier pour faire respecter l’AI Act.

Deuxièmement, la DGE se chargera d’organiser des réunions trimestrielles pour tenir informés les membres de l’INESIA sur les éventuelles évolutions de l’implémentation de l’AI Act.

Troisièmement, l’ANSSI, le PeReN aidé de Viginum devront « renforcer les capacités d’évaluation des détecteurs de contenus générés artificiellement (texte, image, audio, vidéo) par le développement d’une bibliothèque de référence » open source. Des évaluations seront menées à partir de contenus publics, probablement extraits des réseaux sociaux.

Se doter de capacités d’évaluation souveraine de l’IA

Quatrième point, l’ANSSI, l’INRIA et LNE font appel à un nombre d’appels réunis au sein du CESTI et de l’AMIAD (Agence ministérielle pour l’intelligence artificielle de défense), afin de développer des méthodes pour évaluer la cybersécurité des systèmes et des produits cyber propulsés à l’IA. C’est le projet SEPIA (SEcurité des Produits IA) dirigé par l’ANSSI depuis 2025. Il s’agit de recenser les attaques connues (ce qui est déjà en cours), et les remédiations ou mécanismes d’atténuation.

SEPIA implique par ailleurs développer des évaluations et des tests de pénétration qui seront réalisés par les auditeurs tiers, probablement certifiés par l’agence dirigée par Vincent Strubel.

Le deuxième pôle doit « approfondir l’expertise nationale sur les risques systémiques liés aux IA ». Trois projets sont listés : « objectiver les risques systémiques », évaluer « les systèmes d’agents » et « affirmer la place de la France dans le réseau des AI Safety Institutes » (AISI).

L’objectivation des risques systémiques vise à apporter à un véritable contrepoids aux analyses effectuées par les fournisseurs LLM. Pour l’heure, des acteurs comme OpenAI et Anthropic ont mis au point leurs propres méthodologies. Des acteurs tiers, dont des chercheurs et le Français Giskard, tentent d’apporter un éclairage plus neutre sur certains des risques comme la manipulation d’informations. Pour les plus importants (cybersécurité offensive, menaces nucléaires, radiologiques, biologiques et chimiques), il faut généralement s’en tenir aux avis des fournisseurs de LLM eux-mêmes. Les membres de l’INESIA veulent identifier les projets de recherche les plus pertinents, lister et évaluer les méthodes d’atténuation des risques et constituer des jeux de données tests.

La même approche sera reproduite pour l’évaluation des risques des systèmes d’agents IA. Le tout pourra être partagé auprès des autres instituts, en fonction de la feuille de route du réseau AISI. Ses représentants considèrent d’ailleurs que si l’évaluation scientifique des LLM a progressé, le test des systèmes d’IA agentique et générative représente un enjeu de taille.

Le troisième pôle, « Performance et fiabilité », lui, aura la charge d’organiser des défis ouverts à tous les membres de l’écosystème IA, locaux et internationaux. Il s’agit de cibler des « tâches d’évaluation spécifiques », mais les détails sont à éclaircir.

Enfin, le groupe de travail responsable de l’axe transverse devra cadrer les activités de veille académique et méthodologique des trois pôles. Il assurera l’animation scientifique autour de l’INESIA en organisant des journées scientifiques annuelles. Surtout, il doit « concevoir, développer et déployer une infrastructure logicielle et matérielle adaptée à l’évaluation des systèmes d’IA ». Cela implique la conception et la mise à jour de jeux de données, de scripts et d’outils de tests en sus de classements des modèles et des agents IA. Ces briques seront recensées dans la sphère open source.

Une feuille de route temporellement floue

« Avec l’adoption de cette feuille de route 2026-2027, l’Institut national pour l’évaluation et la sécurité de l’IA se dote d’un cap clair et ambitieux », déclare Anne Le Hénanff, ministre déléguée chargée de l’intelligence artificielle et du Numérique, dans un communiqué de presse. « La France fait le choix d’une intelligence artificielle à la fois innovante, sûre et digne de confiance, en se donnant les moyens d’évaluer et de sécuriser les systèmes les plus avancés ».

Si la feuille de route éclaircit le rôle de soutien de l’INESIA, notamment pour la mise en œuvre de l’AI Act, il n’en reste pas moins qu’aucune date n’a publiquement posée devant les livrables les plus importants.

« Les normes ne seront pas prêtes. Les structures d’application sont incomplètes. […] Les entreprises ne peuvent pas se conformer à la loi sans les pièces manquantes. »
Porte-paroleAssociation Digital Europe

La Commission européenne a de facto reporté l’application complète du texte européen au nom de la compétitivité et de la simplification administrative. Certains États membres de l’UE ont défendu le fait que le règlement sur l’IA est, en l’état, trop complexe à déployer. La France a elle-même tardé à sélectionner les autorités compétentes. L’institut n’est donc plus réellement en retard.

Toutefois, les obligations concernant les systèmes à haut risque et la date d’application du 2 août 2026 sont inchangées. Pour mémoire, les dispositions concernant les systèmes présentant des risques inacceptables et les modèles d’IA à usage général sont déjà entrées en vigueur.

« Il est urgent de retarder les obligations de la loi sur l’IA en matière de risques élevés », défend l’association Digital Europe. Elle rassemble Amazon, AMD, Apple, Capgemini, Dassault Systèmes, Google, SAP ou encore Meta. « Les normes ne seront pas prêtes. Les structures d’application sont incomplètes », poursuivent les porte-parole de l’association. « Les entreprises ne peuvent pas se conformer à la loi sans les pièces manquantes. Mais utiliser l’urgence pour faire passer en force un texte qui n’a été que légèrement modifié serait une erreur historique ».

Pour approfondir sur IA appliquée, GenAI, IA infusée