adamparent - Fotolia

Les plans « no limit » des Américains pour dominer le monde de l’IA

La demande de commentaires de l’Administration Trump afin de mener à bien son plan d’action pour l’IA a suscité de la part de Google, d’OpenAI et d’Anthropic un ensemble de suggestions visant à pousser – sans trop de limites – leurs avantages en matière d’IA.

Le 25 février 2025, la Maison-Blanche a lancé une demande de commentaires publics afin d’orienter son plan d’action pour l’intelligence artificielle. Un appel ouvert jusqu’au 15 mars dernier.

OpenAI, Anthropic, Google, Palantir, les associations SIA (Semiconductor Industry Association) et Digital Europe ou encore Andresseen Horowitz sont quelques-uns des acteurs ayant répondu à la demande formulée par Lynne Parker, directrice adjointe principale du Bureau de la politique scientifique et technologique (OSTP).

« L’Administration Trump s’est engagée à faire en sorte que les États-Unis soient le leader incontestable de l’IA. Ce plan d’action pour l’IA est la première étape pour assurer et faire progresser la domination américaine en matière d’IA », présente-t-elle.

Outre ce « maintien du leadership américain », l’Administration entend favoriser « l’épanouissement humain, la compétitivité économique et la sécurité nationale », tout en réduisant les « exigences inutilement lourdes » qui entraveraient l’innovation dans le secteur privé. Pour rappel, le président Donald Trump avait supprimé rapidement le décret Biden visant à réguler les risques de l’IA au niveau fédéral.

Une quête de puissance électrique

La majorité des commentaires ne sont pas différents de ceux effectués par les entreprises européennes en direction de leur gouvernement respectif : favoriser la commande publique, l’adoption de l’IA par le gouvernement, faciliter l’accès des startups aux programmes d’agences fédérales, investir dans les compétences et dans les projets technologiques.

En revanche, les principaux fournisseurs de LLM sont plus incisifs et partagent peu ou prou les mêmes avis. Ils alignent leurs demandes en faveur d’une dérégulation et d’un soutien sans faille à l’industrie américaine de l’IA.

En premier lieu, OpenAI, Google et Anthropic s’entendent sur la nécessité de développer l’infrastructure énergétique américaine afin de répondre aux besoins de l’entraînement des « modèles d’IA frontière » (10^26 FLOPS de puissance de calcul). Ceux-là n’existent pas encore.

« Le gouvernement fédéral devrait envisager de fixer un objectif national ambitieux : construire 50 gigawatts de puissance supplémentaire dédiés à l’industrie de l’IA d’ici à 2027 ».
AnthropicRéponse à la demande de commentaires formulées par l'OSTP, 6 mars 2025

« Le gouvernement fédéral devrait envisager de fixer un objectif national ambitieux : construire 50 gigawatts de puissance supplémentaire dédiés à l’industrie de l’IA d’ici à 2027 », recommande Anthropic. Un seul modèle frontière réclamerait 5 gigawatts de puissance, d’après le développeur de Claude.

Et à OpenAI de suggérer l’équivalent de « l’Interstate Highway Act » pour la fibre optique et les gazoducs. Cette loi de 1956 avait favorisé la construction d’autoroutes inter-états aux États-Unis.

Les trois acteurs proposent les mêmes mesures, c’est-à-dire une simplification réglementaire afin d’accéder à l’énergie nécessaire pour alimenter les supercalculateurs d’IA et favoriser leur construction.

« Les autorités fédérales et locales devraient collaborer à des réformes politiques visant à répondre aux besoins énergétiques croissants, un élément essentiel de l’expansion de l’infrastructure de l’IA », résume Kent Walker, président des affaires mondiales chez Google et Alphabet.

Puces IA : OpenAI, Google et Anthropic veulent encore restreindre leur accès

Dans un même temps, ces acteurs prônent un durcissement du contrôle des exports des puces et de l’IA mis en place par l’Administration Biden en toute fin de mandat. Ces mesures visaient essentiellement à interdire la vente de puces Nvidia et AMD en Chine, en Russie, en Iran, en Biélorussie et dans tous les pays soumis à des embargos sur l’armement.

Anthropic suggère très précisément d’inclure les GPU Nvidia H20 – des variantes des H100 conçus pour l’export – dans la liste des produits interdits à la vente dans les pays ciblés.

« Bien que ces puces soient moins performantes que les H100 pour l’entraînement initial, elles excellent dans la génération de texte (“sampling”), un élément fondamental des méthodologies avancées d’apprentissage par renforcement », explique la startup. Cette étape est présentée comme étant « essentielle aux progrès des modèles de pointe actuels. L’Administration Trump a l’opportunité de combler cette faille », écrit-elle. Pour rappel, DeepSeek fait usage des puces H20 et H800 et est mentionné comme l’ennemi numéro 1 par OpenAI et Anthropic.

OpenAI veut bannir les modèles chinois, y compris dans les pays alliés

OpenAI et Anthropic recommandent par ailleurs d’imposer des mesures pour empêcher la revente des puces par des entreprises des pays intermédiaires à d’autres présentes dans les pays ciblés par l’embargo. OpenAI suggère par ailleurs à l’Administration Trump de bannir les puces chinoises, dont celles de Huawei, et les modèles d’IA chinois. Et demander aux pays alliés de prendre les mêmes mesures.

Cela jure avec les commentaires de DigitalEurope qui évoque l’inégalité qu’entraînent les mesures de contrôle d’export. Certains états de l’UE sont inclus dans la liste des pays intermédiaires. « Plutôt que d’introduire des mesures restrictives, l’accent devrait être mis sur la promotion de la collaboration sur les priorités mutuelles. L’UE et les États-Unis dépendent l’un de l’autre pour leur sécurité et pour rester compétitifs », affirment les membres de l’association.

La SIA, elle, appelle à une forme de prudence. « Les mesures qui limitent la diffusion des technologies américaines en matière de semi-conducteurs et d’intelligence artificielle doivent être élaborées avec soin et selon des procédures d’octroi de licences transparentes – en consultation avec les leaders de l’industrie qui connaissent le mieux les technologies et les réalités du marché – afin de garantir qu’elles soient aussi peu perturbatrices que possible », écrit l’association défendant les intérêts d’Intel, Micron, AMD, ou encore Nvidia.  

Il ne faudrait pas que ces contraintes à l’export « accélèrent par inadvertance le développement d’alternatives à ces technologies américaines ». La SIA ne veut pas que les entreprises américaines perdent « la confiance des clients internationaux, et qu’elles ne soient plus considérées comme des partenaires fiables et à long terme ».

Derrière l’évaluation des menaces, jauger la concurrence

En outre, Anthropic plaide pour la mise en place de mesures d’évaluation de la sûreté et la cybersécurité de l’IA. Celles-ci s’accompagneraient de « l’établissement de canaux de communication classifiés et non classifiés entre les laboratoires américains d’IA et la communauté du renseignement pour l’échange d’informations sur les menaces ». Il s’agirait, entre autres, « d’entraver de manière significative la capacité des acteurs malveillants à détourner la technologie américaine de pointe et à l’utiliser comme arme contre les intérêts américains ».

Sans fard, OpenAI insiste sur le fait qu’il faut « évaluer l’état de la technologie américaine en matière d’IA par rapport à la technologie des concurrents et des adversaires ». Dans un même temps, l’entreprise dirigée par Sam Altman souhaite des procédures accélérées pour obtenir les autorisations FedRAMP. Ces normes impliquent des exigences de cybersécurité et de résidentialité des données.

Droit d’auteur : OpenAI prône un « fair use » international

Quant à l’accès aux données, « le gouvernement fédéral devrait adopter des cadres législatifs qui préservent l’accès aux données en vue d’un apprentissage équitable », écrit Kent Walker de Google. 

Si Anthropic ne s’étend pas sur ce sujet, OpenAI est sans doute le plus agressif en la matière. Il défend pleinement le principe du « fair use » et aimerait que le gouvernement américain « façonne les discussions politiques internationales autour du droit d’auteur et de l’IA, et travaille à empêcher les pays moins innovants d’imposer leurs régimes juridiques aux entreprises américaines d’IA ». La licorne désigne, entre autres, le Royaume-Uni et les États de l’Union européenne. De même, OpenAI prône une forme de relaxe quand les startups américaines seraient sous le coup d’un litige en matière de droit d’auteur. Tout en sollicitant le gouvernement américain pour qu’il facilite l’accès aux données publiques qu’il détient.

Préempter les lois sur l’IA des États américains et lutter contre les « barrières étrangères restrictives »

Et OpenAI, avec Google, de demander la préemption des réglementations des états américains en faveur d’un point de contact unique. Il y aurait plus de 781 projets de loi en discussion dans les différents États américains. Cette fragmentation réglementaire était un point régulièrement pointé du doigt par les éditeurs américains l’année dernière.

« L’Administration peut soutenir le leadership américain en luttant contre les barrières étrangères restrictives en matière d’IA ».
Kent WalkerPrésident, global affairs, Google & Alphabet

OpenAI souhaiterait davantage un cadre de collaboration volontaire avec le gouvernement afin d’évaluer les risques de l’IA. Google, lui, recommande, « une approche fondée sur les risques et basée sur les réglementations existantes ». Deux suggestions partagées par Andreessen Horowitz. Les deux fournisseurs avaient déjà effectué des demandes similaires auprès de l’Administration Biden.

Il y a toutefois des demandes plus claires qu’auparavant. Selon Google, les lois extra-étatsuniennes sur l’IA freineraient l’innovation et devraient être combattues. « L’Administration peut soutenir le leadership américain en luttant contre les barrières étrangères restrictives en matière d’IA », signe Kent Walker.

 

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire