robsonphoto - stock.adobe.com

L’IA générative, possible angle mort du Digital Markets Act

L’application du Digital Markets Act pourrait minimiser les pratiques anticoncurrentielles des « gatekeepers » en matière d’IA générative. Est-ce suffisant ? L’Allemagne en doute et propose de cibler spécifiquement les applications d’IA. La proposition est critiquée, mais souligne la vulnérabilité des startups d’IA face aux géants du cloud.

Face aux pratiques des acteurs américains (jugées anti-compétitives), à leur contrôle de l’accès aux modèles et aux applications d’IA ainsi qu’à la montée en puissance des acteurs chinois, les responsables des autorités de la concurrence et les politiques européens s’entendent sur une solution.

« Il faut désormais appliquer le Digital Markets Act (DMA) », affirme Stéphanie Yon-Courtin, députée européenne membre du groupe Renew Europe, lors d’une table ronde du Business Day, un événement satellite du sommet sur l’IA.

Le règlement sur les marchés numériques est entré en vigueur le 6 mars 2024. Celui-ci impose au GAFAM des obligations concernant l’interopérabilité et le respect de la concurrence de leurs plateformes. Cela s’applique aux places de marché, aux moteurs de recherche, aux navigateurs Web, aux réseaux sociaux, aux plateformes de partage de vidéo, aux systèmes d’exploitation, aux services en cloud, aux services publicitaires et aux assistants virtuels.

C’est la raison pour laquelle Google Maps n’est plus l’outil d’itinéraire par défaut sur Google ou que Samsung demande aux usagers de ses smartphones de choisir un moteur de recherche par défaut, entre autres.

Benoît Coeuré, président de l’Autorité française de la concurrence, se dit également en faveur de l’application du DMA. Bernhard Kluttig, secrétaire d’État au ministère fédéral allemand de l’Économie et de la Protection du Climat, se veut plus ferme. 

L’Allemagne se prononce en faveur du renforcement du Digital Markets Act

« La Commission européenne devrait maintenant lancer une enquête pour s’assurer que le DMA peut réaliser son potentiel sur les marchés du cloud », ajoute le secrétaire d’État allemand, lors d’une allocution. Le responsable politique est ainsi favorable à un durcissement du DMA ciblant les acteurs de l’IA.

« La Commission européenne devrait maintenant lancer une enquête pour s’assurer que le DMA peut réaliser son potentiel sur les marchés du cloud ».
Bernhard KluttigSecrétaire d'État, ministère fédéral Allemand de l'Économie et de la Protection du Climat

« Les modifications futures pourraient inclure l’ajout de nouveaux services ou obligations spécifiques à l’IA. Cela pourrait permettre à de nouveaux acteurs d’entrer en concurrence », envisage-t-il.

Suivant cette idée, OpenAI, Mistral AI et Microsoft devraient proposer une multitude de modèles d’IA et d’outils à travers leurs assistants. C’est ce que font déjà en partie Perplexity et AnythingLLM.

Bernhard Kluttig s’est dit également en faveur de dispositions antitrust supplémentaires pour protéger les startups européennes d’opérations d’achats hostiles.

Pour Benoît Coeuré, il faut d’abord appliquer la version existante du DMA aux « gatekeepers ». C’est le nom trouvé par la Commission pour désigner les fournisseurs de moteurs de recherche, des réseaux sociaux ou des applications largement utilisées par plus de 45 millions d’utilisateurs mensuels. « Le DMA s’applique aux fournisseurs de plateformes “bifaces” [aux acteurs porteurs de solutions d’intermédiation entre des entreprises et des consommateurs, N.D.L.R.], ce qui ne concerne pas tous les acteurs de l’IA », juge-t-il.

« Je pense que le DMA est un instrument très intéressant, surtout si l’on considère que le cloud se trouve aux deux extrémités de la chaîne de valeur dans ce domaine, pour entraîner les modèles et les utiliser », estime Blanche Savary de Beauregard, conseillère générale et secrétaire du conseil d’administration de Mistral AI. En revanche, « concernant la question suivante : “le DMA doit-il spécifiquement cibler l’IA ?”. Je n’en suis pas sûr, car je pense que le texte existant, en ciblant le cloud, fait déjà probablement le travail ».

Un vide juridique concernant les chatbots d’IA générative

C’est pourtant ce que recommandent des experts de la faculté de droit de la London School of Economics dans un article publié en mars 2024. Cela permettrait d’éviter une forme de vide juridique.

Bien qu’une application comme ChatGPT ou Le Chat peut être présentée comme un outil de recherche sur le Web ou un assistant virtuel donnant l’accès à des services tiers, cette désignation est, légalement, contestable. D’un côté, un chatbot propulsé par un LLM n’a pas fondamentalement besoin d’un accès au Web pour fournir une réponse cohérente. Si recherche il y a, elle est effectuée à travers une extension : un plug-in ou une API.

De l’autre, le DMA désigne un assistant virtuel comme « un logiciel capable de traiter des demandes, des tâches ou des questions, y compris celles basées sur des entrées audio, visuelles, écrites, des gestes ou des mouvements, et qui (sur la base de ces demandes, tâches ou questions) fournit un accès à d’autres services ou qui contrôle des dispositifs physiques connectés ».

Un chatbot d’IA générative n’est pas explicitement conçu pour donner accès à un service tiers ni contrôler des appareils (ce qu’imaginent pourtant faire des acteurs comme Anthropic et OpenAI). Son rôle premier n’est autre que de générer des réponses à des questions, évaluent les chercheurs de la faculté de droit de la London School of Economics.

Les auteurs expliquent que les rédacteurs du DMA ciblaient en priorité les assistants vocaux, comme Amazon Alexa ou Google Assistant. L’appareil légal de l’UE n’aurait pas anticipé l’émergence des chatbots basés sur l’IA générative. « Il existe un certain argument pour considérer qu’un chatbot d’IA générative conçu pour orienter les utilisateurs vers d’autres services pourrait entrer dans la définition d’un assistant virtuel », notent les experts en droit. « Cependant, dans la mesure où ces applications d’IA générative servent d’infrastructure pour développer d’autres applications d’IA générative, elles échappent au champ d’application des “assistants virtuels” ».

« Nous consacrons beaucoup de temps et de ressources au respect du DMA, et nous sommes l’une des rares entreprises à ne faire l’objet d’aucune enquête pour non-conformité ».
Nicholas BanasevicDirecteur de la compétition et de la régulation, EMEA, Microsoft

Selon cette analyse, malgré plus de 300 millions d’utilisateurs mensuels de ChatGPT, OpenAI pourrait contester une décision de la Commission qui le présenterait comme un gardien d’accès. Et Microsoft tenterait d’écarter Copilot de l’application du DMA, ce qui lui éviterait une charge supplémentaire en tant qu’actuel gatekeeper.

« Nous consacrons beaucoup de temps et de ressources au respect du DMA, et nous sommes l’une des rares entreprises à ne faire l’objet d’aucune enquête pour non-conformité », affirme Nicholas Banasevic, directeur de la compétition et de la régulation en EMEA chez Microsoft. « Concernant l’IA, le DMA couvre déjà les services de plateformes essentielles intégrés et désignés », poursuit-il. « La question qui se pose est donc la suivante : quelles nouvelles obligations devraient être enregistrées ? Et pour quel produit ? Si un débat doit avoir lieu sur ce sujet, nous y participerons volontiers ».

La conformité réglementaire, un des enjeux de la course à l’IA

Les porte-parole d’OpenAI et de Mistral AI, eux, s’entendent sur le fait que des obligations supplémentaires nuiraient à leur compétitivité. Non pas seulement parce qu’ils devraient proposer d’autres modèles d’IA ou un plus grand nombre d’intégrations, mais également parce qu’ils n’auraient pas les moyens pour analyser et appliquer les nouvelles réglementations.

« Je tiens à souligner que, lorsque nous cherchons à faciliter l’entrée de nouveaux acteurs et à examiner les conditions d’émergence de nouvelles entreprises dans cet écosystème, ces règles et exigences de conformité peuvent représenter des obstacles », déclare Adam Cohen, Head of Economic Impact chez OpenAI. « Il est important de prendre en compte les coûts qu’elles engendrent lors de l’évaluation de ces différents facteurs ».

« Pour donner un point de comparaison, OpenAI compte actuellement environ 2 000 employés, soit moins que certaines équipes juridiques d’autres grandes entreprises », poursuit-il.

« Nous avons une équipe juridique composée de seulement cinq personnes, ce qui est déjà beaucoup par rapport aux 200 employés de l’entreprise », indique de son côté Blanche Savary de Beauregard. « Nous devons nous conformer aux mêmes règles très complexes que les géants de notre secteur, qui disposent d’équipes juridiques bien plus importantes que la nôtre ».

« Nous devons nous conformer aux mêmes règles très complexes que les géants de notre secteur, qui disposent d’équipes juridiques bien plus importantes que la nôtre ».
Blanche Savary de BeauregardConseillère générale et secrétaire du conseil d'administration, Mistral AI

« Chaque réunion sur la mise en œuvre de ces réglementations, nous voyons des interlocuteurs différents du côté des grandes entreprises concurrentes, alors que de notre côté, c’est toujours la même personne qui représente notre société », poursuit-elle. « Cela illustre très concrètement ce que signifie pour nous la concurrence, y compris en matière de conformité réglementaire ».

À titre de comparaison, en 2021, Microsoft était réputée pour disposer d’une équipe légale (Microsoft Corporate, External, and Legal Affairs ou CELA) composée de 1 800 personnes.

Stéphanie Yon-Courtin, elle, semble partisane d’un allègement des obligations incombant aux startups d’IA. « Il ne s’agit pas seulement du DMA, il y a aussi le Digital Service Act, la loi sur l’intelligence artificielle (AI Act). Toutes ces lois devraient être articulées ensemble […] et de manière digeste », insiste-t-elle.

Ce « mille-feuilles » légal avait été identifié par Microsoft dès 2021. Cette même année, Brad Smith, président de Microsoft, a réorganisé les entités pour planifier l’entrée en vigueur des réglementations affectant la firme de ce côté de l’Atlantique et de l’autre. Ce plan était nommé en interne « CELA 2025 ».

La Commission européenne veut « réduire les fardeaux administratifs »

Outre la mise en application des textes, Raphaël Auphan, directeur des opérations de Proton, craint les effets du lobbying sur l’application du DMA.

« Je dirais que la DMA est un bon pas, mais que l’application de la DMA qui nous attend est encore plus importante. Et c’est probablement là que les différents États européens doivent soutenir la Commission européenne dans sa lutte, car nous devons être conscients qu’à Bruxelles, il y a des armées de lobbyistes et d’avocats pour défendre les intérêts des gatekeepers », affirme-t-il.

« Les gatekeepers débauchent les plus grands talents à Bruxelles pour lutter contre la Commission européenne », lance-t-il, en se tournant vers Nicholas Banasevic.

« Les gatekeepers débauchent les plus grands talents à Bruxelles pour lutter contre la Commission européenne ».
Raphaël AuphanCOO, Proton

Le directeur de la compétition et de la régulation en EMEA chez Microsoft a travaillé pendant 25 ans au sein de la Commission européenne. Avant de rejoindre son employeur actuel, Nicholas Banasevic était le directeur chargé des activités antitrust dans le secteur de l’informatique et des télécommunications pour la CE.

« Les ministères des différents États doivent fournir des ressources à la Commission européenne pour que le DMA soit appliqué. Au niveau national, les autorités de la concurrence ont également besoin de ressources supplémentaires », plaide Raphaël Auphan.

En sus des potentiels effets du lobbying, il semble que l’attractivité économique européenne pèse dans la balance. Lors du sommet pour l’action sur l’intelligence artificielle, les dirigeants de la Commission européenne se sont exprimés en vue de ne pas « imposer d’obstacles supplémentaires à l’innovation ». Il s’agit de réduire « les fardeaux administratifs et de simplifier les règles de l’UE ». Dont acte.

Le 12 février, lors de la présentation de son programme de travail, la Commission européenne a annoncé l’abandon de 37 projets de réglementations, dont ceux consacrés à la confidentialité des communications, aux brevets essentiels standards technologiques et à la responsabilité des dommages liés à l’IA.

Pour approfondir sur Réglementations et Souveraineté