adamparent - Fotolia

Donald Trump supprime le décret de Joe Biden sur les risques de l’IA

Comme promis, le président des États-Unis a abrogé l’Executive Order consacré à la mitigation des risques de l’IA, signé par son prédécesseur. En l’absence d’annonces claires, la décision du dirigeant de la première puissance mondiale laisse entrapercevoir une fragmentation légale à même le sol américain en matière d’IA.

Erreur 404. Le célèbre message officialise l’abrogation de l’Executive Order 14110, promulgué par l’ancien président Joe Biden. Les pages Web qui accompagnaient le décret présidentiel sur l’utilisation sûre, sécurisée, et digne de confiance de l’intelligence artificielle ne sont plus accessibles. En cliquant sur « Go Home », l’internaute tombe sur une vidéo promotionnelle à l’avantage de Donald Trump. Cela est également vrai pour la plupart des décrets disponibles en ligne.  

Le 47e président des États-Unis a passé une partie de sa soirée d’investiture du 20 janvier à signer l’abrogation de décisions prises par Joe Biden.

L’EO 14110 est l’un des 69 décrets recensés dans le communiqué de presse « premières annulations de décrets et d’actions préjudiciables », publié hier dans la soirée du 20 janvier.

Pour rappel, le décret promulgué par Joe Biden en 2023 visait à appliquer des règles d’usage de l’IA par l’Administration et les agences, tout en assurant la protection des libertés civiles, des consommateurs, des travailleurs et en promouvant l’innovation et le secteur de l’IA.

Le texte confiait à l’institut national des normes et de la technologie (NIST) le soin de renforcer un cadre normatif concernant l’identification et le contrôle des risques de l’intelligence artificielle. À terme, les développeurs de systèmes d’IA devaient partager avec les agences gouvernementales les risques qu’ils posaient en matière de sécurité, de santé publique ou d’économie.

Le NIST avait réalisé quatre publications, dont la dernière est datée du 20 novembre 2024. Elle est consacrée à « la réduction des risques posés par les contenus synthétiques ». Le bureau de la gestion et du budget avait, lui, réalisé des mémos adressés aux agences américaines. Ces documents décrivaient la manière de suivre, gérer et contrôler les projets d’IA dans le cadre de la sécurité nationale.

En 2024, le parti Républicain avait demandé la suppression de l’EO 14110. Certains de ses membres assuraient que le texte freinait l’innovation.

Favoriser le développement de grands projets d’IA

Dans un même temps, comme Reuters le signale, Donald Trump et ses partisans n’ont pas annoncé sa volonté de se débarrasser du cadre légal concernant la restriction des exports des puces et des modèles d’IA. Le président nouvellement élu n’a pas non plus abrogé le décret passé par Joe Biden le 14 janvier. Celui-ci promet un soutien fédéral à la filiale énergétique en vue d’alimenter des data centers « câblés » pour l’IA. En 2019, le président Trump avait signé l’Executive Order 13859 en vue de promouvoir l’investissement dans la recherche en IA. Celui-ci avait donné naissance au National AI Initiative Act en 2020.  

Une fragmentation législative aux États-Unis potentiellement contre-productive

Donald Trump acte donc une opposition forte au modèle légal européen, et plus particulièrement à l’EU AI Act. De fait, les dispositions de la réglementation européenne sur l’IA concernant les systèmes posant des risques inacceptables entrent en vigueur le mois prochain. Mais le président étasunien s’oppose également en substance aux mesures prises en Californie, dans l’Illinois, à New York, au Colorado, au Connecticut et en cours d’étude au Texas. Pour l’heure, une fragmentation des législations sur l’IA se profile à l’horizon.

Pour Ceren Ünal, consultante spécialiste du droit informatique installée à Ankara, cette fragmentation « affecte de manière disproportionnée les startups et les petites entreprises ». L’absence d’un cadre légal fédéral aux États-Unis pourrait affecter la compétitivité des sociétés locales au moment de cibler des marchés appliquant des régulations strictes en la matière. Primeur aux « Big Techs ».

« Ce décalage pourrait isoler les entreprises américaines, compliquer la collaboration internationale et réduire l’influence du pays dans la définition de l’avenir de la gouvernance de l’IA », ajoute-t-elle. « À mesure que cette dynamique se déploie, le fossé mondial en matière de réglementation de l’IA risque de s’approfondir, ce qui aura des répercussions importantes sur le développement technologique et l’innovation transfrontalière ».

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire