
Rawf8 - stock.adobe.com
Les États-Unis pourraient difficilement éviter les effets de l’AI Act
La loi européenne sur l’IA oblige les grands développeurs américains d’IA à se conformer à des réglementations qui auront inévitablement une incidence sur leurs modèles.
Vu des États-Unis. Bien que le plan d’action américain en matière d’IA s’éloigne des réglementations considérées comme contraignantes en faveur de l’innovation dans ce domaine, l’Union européenne ne ralentit pas la mise en œuvre de l’AI Act. En conséquence, les États-Unis pourraient encore ressentir les effets de la réglementation de l’IA.
Plusieurs développeurs de modèles d’IA, dont OpenAI, Microsoft, Cohere, Amazon, Google, Anthropic et Mistral AI, ont signé le Code de bonnes pratiques pour l’IA à usage général (GPAI), publié au début du mois de juillet. En signant ce document, ces fournisseurs attestent de leur volonté de se mettre en conformité avec la loi européenne sur l’IA. Il vise à réduire les charges administratives des entreprises et à offrir une plus grande sécurité juridique.
« L’AI Act impose de nombreuses contraintes ou exigences aux entreprises », déclare Mia Hoffman, chercheuse au Centre pour la sécurité et les technologies émergentes de l’université de Georgetown. « Par exemple, pour mettre en œuvre des évaluations de modèles ou effectuer une évaluation des risques pour l’IA à usage général. Mais il y a très peu de détails sur ce que cela signifie concrètement ». Mia Hoffman estime que le Code consacré aux GPAI aide les fournisseurs de modèles à savoir ce que l’on attend d’eux en vertu de la loi européenne sur l’IA.
Différencier les modèles selon les marchés, un pari coûteux
Pour rappel, l’AI Act régule des produits – ici des systèmes d’IA – dès lors qu’ils sont lancés sur le marché européen. Au regard de ce texte, les modèles d’intelligence artificielle sont considérés comme des produits.
Alors que les entreprises se conforment à l’AI Act afin de préserver leurs activités commerciales sur le marché européen, Mia Hoffman considère que les protections offertes par la réglementation européenne s’appliqueront également aux consommateurs américains. Selon elle, il est probable que les mêmes modèles seront commercialisés sur les deux marchés.
Les développeurs d’IA pourraient créer différentes versions de leurs systèmes d’IA pour différents marchés. Cependant, Mia Hoffman estime que cette éventualité est peu probable en raison des coûts élevés liés à l’entraînement des modèles les plus grands et les plus avancés, tels que GPT-5 d’OpenAI et Grok 4 de xAI.
« Même s’ils tentent de mettre en œuvre ce programme de déréglementation aux États-Unis, cela n’empêche pas les entreprises américaines spécialisées dans l’IA de se conformer aux règles de l’Union européenne », signale-t-elle.
La déréglementation fédérale ne ralentit pas les autres lois sur l’IA
Meta est l’un des principaux opposants à la signature du Code de bonnes pratiques relatifs aux modèles à usage général. Joel Kaplan, directeur des affaires internationales de Meta, a déclaré dans un communiqué que le GPAICP (General-Purpose AI Code of Practice) introduisait des incertitudes juridiques pour les entreprises et des mesures qui allaient au-delà du champ d’application de la loi européenne sur l’IA.
Ce n’est qu’une approche parmi d’autres pour se conformer à la loi européenne sur l’IA, selon Ayesha Bhatti, responsable de la politique numérique pour le Royaume-Uni et l’UE au Centre pour l’innovation des données de la Fondation pour les technologies de l’information et l’innovation. xAI, la société d’Elon Musk, a par exemple signé le chapitre sur la sûreté et la sécurité du Code, mais doit démontrer sa conformité aux exigences de transparence et de droit d’auteur de l’AI Act par d’autres moyens.
« Le fait que Meta et d’autres n’aient pas adhéré au Code signifie qu’il ne fonctionne pas pour tout le monde », affirme Ayesah Bhatti. « Cela ne signifie pas qu’ils ne vont pas se conformer à la loi sur l’IA, mais simplement qu’ils adopteront une approche différente pour s’y conformer. »
La loi européenne sur l’IA pourrait avoir des conséquences imprévues, telles que dissuader les entreprises d’explorer de nouveaux modèles commerciaux basés sur l’IA en raison du coût élevé de la mise en conformité qui en découle, ajoute-t-elle.
Ces inquiétudes en regard d’un potentiel frein à l’innovation causée par les réglementations européennes ont été amplifiées de l’autre côté de l’Atlantique après la publication du rapport Draghi, en septembre 2024, rappelle Mia Hoffman. Mario Draghi s’est prononcé pour un assouplissement de la réglementation afin d’améliorer la compétitivité européenne. Selon Mia Hoffman, ce document a provoqué un changement d’attitude au sein de l’UE en faveur de la compétitivité et la promotion d’un écosystème numérique et IA européen. D’où l’abandon de certaines dispositions plus contraignantes.
Ce revirement et cette volonté d’alléger les contraintes réglementaires n’ont toutefois pas eu d’effet sur le calendrier d’entrée en vigueur de textes tels que l’AI Act.
« Il existe toujours un engagement très fort au niveau de l’UE pour que cette réglementation soit mise en place, qu’elle soit appliquée et que tous ceux qui souhaitent entrer sur le marché européen s’y conforment », souligne Mia Hoffman.
En parallèle, des divergences au sein des États de l’Union et le fait qu’il n’y ait pas une seule autorité de référence dans chaque pays pourraient ralentir l’application réelle de l’AI Act.
Cependant, les entreprises ne doivent pas seulement se conformer aux réglementations mondiales en matière d’IA. Elles doivent également respecter plusieurs lois étatiques américaines ciblant l’IA, ce qui peut perturber l’approche fédérale de déréglementation.
OpenAI a envoyé une lettre au gouverneur de Californie, Gavin Newsom, afin d’aligner les réglementations de l’État sur les modèles d’IA de pointe avec le Code de bonnes pratiques relatif aux GPAI afin de rendre la conformité moins contraignante. Les entreprises américaines sont confrontées à un défi croissant : se conformer aux différentes versions des lois sur l’IA adoptées par les États américains, chacun adoptant ses propres règles en la matière.
Les décideurs politiques ont inclus une proposition visant à suspendre les lois étatiques sur l’IA dans le projet de loi de finances américain récemment adopté. Cependant, cette mesure n’a pas été retenue.