mehaniq41 - stock.adobe.com

INESIA : la France a (enfin) son institut scientifique pour évaluer les risques de l’IA

La France a lancé l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle. L’INESIA est une fédération de conseils scientifiques inscrits dans un programme de coopération internationale, mais ne fait pas office d’autorité.

S’il ne tient pas un rôle aussi crucial que le laisse entendre la communication du gouvernement, la création de l’INESIA répond à un engagement de la France.

En mai 2024, l’État a signé, avec l’Australie, le Canada, l’UE, l’Allemagne, l’Italie, le Japon, la Corée du Sud, Singapour, le Royaume-Uni et les États-Unis, la déclaration de Séoul « pour une IA sûre, novatrice et inclusive ». Une déclaration effectuée lors du Seoul AI Summit du 21 mai.

Ce programme implique la création d’un réseau d’instituts nationaux d’évaluation techniques et scientifiques de la sûreté de l’IA. Ils sont amenés à coopérer, afin « d’évaluer les risques de l’IA et de suggérer des solutions pour les mitiger ». Une initiative lancée par le Royaume-Uni et les États-Unis.

Un outil de représentation de la France à l’international

Alors que six des 10 pays signataires avaient déjà nommé un « AI Safety Institute » (AISI), la France, l’Italie, l’Allemagne et l’Australie n’avaient pas, en juillet dernier, d’organisme similaire.

À noter que l’EU AI Office, l’organisme chargé de l’implémentation de l’AI Act, est le représentant de l’Union européenne dans le réseau des AISI.

Or, le premier rendez-vous de ce réseau a eu lieu à San Francisco les 20 et 21 novembre derniers. Selon son agenda, Clara Chappaz, ministre déléguée chargée de l’intelligence artificielle et du numérique, a participé à la soirée de bienvenue de l’événement avant d’enchaîner les rendez-vous avec les startups (Anthropic, Scale AI) et les fournisseurs américains (Nvidia, Adobe, Microsoft, Meta, Databricks, etc.). D’après ses dires, elle a évoqué avec eux leurs pratiques en matière de sûreté de l’IA.

C’est donc avec un certain retard et à la faveur de la communication sur le sommet international de l’IA, qui débute officiellement le 10 février prochain à Paris, que la France a lancé son « AISI » le 31 janvier 2025.

INESIA : quatre organisations, deux directions, trois missions

D’autres pays ont choisi de confier sa création à une agence étatique ; par exemple, les États-Unis ont confié sa création au NIST (avant l’arrivée de Donald Trump au pouvoir) et le Royaume-Uni au département des sciences, de l’innovation et des technologies.

L’État a préféré s’appuyer sur une fédération d’entités, à savoir l’Agence nationale de la sécurité des systèmes d’information (ANSSI), l’Institut national de recherche en sciences et technologies du numérique (Inria), le Laboratoire National de Métrologie et d’Essais (LNE) et le Pôle d’expertise de la régulation numérique (PEReN). Ainsi, l’INESIA n’a pas de statut juridique et délivrera principalement des avis consultatifs.

Cette fédération symbolise les strates de l’Administration française, mais elle est somme toute logique.

L’INESIA est sous la double direction du secrétariat général de la défense et de la sécurité nationale (SGDN) et de la Direction générale des Entreprises (DGE).

De fait, l’organisation mère de l’ANSSI est le SGDN. Or, le PeReN s’est dernièrement illustré dans l’évaluation des risques de l’IA.

Le PeReN est un service interministériel « placé sous l’autorité conjointe des ministres chargés de l’économie, de la culture et du numérique ». Sa gestion administrative et financière a été confiée à la DGE.

Quelques jours après la signature de la déclaration de Séoul, le LNE a passé un accord-cadre avec l’Inria. L’objectif ? Mettre en place un programme « Évaluation de l’IA ». Celui-ci vise à orienter la recherche en matière d’évaluation des risques de l’IA. Il implique la création de tests et le déploiement d’infrastructures nécessaires à leur exécution. Les deux entités veulent également mettre sur pied des benchmarks pour évaluer les performances des modèles d’IA dans l’accomplissement des tâches génériques et spécifiques.

De fait, ces parangonnages sont menés par les fournisseurs de LLM, des laboratoires de recherche américains, publics ou privés.

Ainsi, des chercheurs issus de l’ANSSI, du LNE, du PeReN et d’Inria devront collaborer afin de mener trois missions principales.

Lesquelles ? « L’analyse des risques systémiques dans le champ de la sécurité nationale », le soutien à la mise en œuvre de la régulation sur l’IA et l’évaluation de la performance et la fiabilité des modèles. La première mission semble être du ressort de l’ANSSI, tandis que la troisième peut incomber au duo LNE – Inria. Le LNE rappelle qu’il a réalisé plus de 1 500 évaluations de modèles de traitements d’image, du langage et liés à la robotique.

Le PeREN – au vu de son intitulé, et bien qu’il n’ait pas été officiellement désigné pour ce faire – aura logiquement en main les enjeux techniques en matière de régulation. Évidemment, les chercheurs et intervenants des trois entités pourront participer aux parties transverses de ces missions.

Il reste encore à définir les manières dont l’INESIA interagira avec d’autres agences en France, comme la CNIL, à l’international avec les autres instituts nationaux, ainsi qu’avec la société civile (par exemple à travers des consortiums comme Confiance.ai). D’autant que seuls neuf pays et l’UE ont pour l’instant rejoint ce réseau. Aussi, Donald Trump a ordonné la suppression du décret Biden sur l’IA qui donnait au NIST sa mission en la matière.

Mise à jour du 4 février 2025 : Selon un porte-parole du ministère de l'Économie, auquel est rattaché Clara Chappaz, « l’architecture pour la mise en œuvre de l’AI Act au niveau national sera arrêtée dans les prochains jours. L’Institut n’interviendra pas dans cette mise en place, mais aura un rôle à jouer en appui des régulateurs qui seront désignés ».

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire