Compétition et IA : les hyperscalers ont-ils pipé les dés ?

En nouant des partenariats avec les startups, les hyperscalers américains auraient déjà pris les rênes du marché de l’IA, s’alarment les ONG AI Now et Open Market Institute. Les autorités de la concurrence sont plus mesurées, mais vigilantes.

Voilà un sujet qui a parcouru deux tables rondes menées lors du Business Day, un des événements satellites du sommet pour l’action sur l’intelligence artificielle.

Lors de ces panels, des représentants du parlement européen, des fournisseurs de LLM comme OpenAI et Mistral AI, mais également des fournisseurs cloud dont Google, Microsoft et OVHcloud ont échangé avec les porte-parole d’ONG.

La grande crainte exprimée par les acteurs européens n’est autre que la prise de contrôle sur le marché de l’IA par les trois fournisseurs cloud américains.

« En tant que fournisseur de cloud, nous savons que le marché du cloud souffre déjà de problèmes liés à la concurrence et à certaines pratiques abusives », déclare Solange Viegas Dos Reis, directrice juridique chez OVHcloud. « Ce n’est pas seulement un constat d’OVHcloud : sept pays à travers le monde – le Japon, la Corée, les Pays-Bas, la France, le Royaume-Uni et les États-Unis – ont documenté ces pratiques via leurs autorités de régulation de la concurrence », poursuit-elle. « Ce que nous observons aujourd’hui à l’échelle mondiale, c’est que ces pratiques abusives, déjà présentes sur le marché du cloud, sont en train de contaminer le marché de l’IA ».

« Ce que nous observons aujourd’hui à l’échelle mondiale, c’est que ces pratiques abusives, déjà présentes sur le marché du cloud, sont en train de contaminer le marché de l’IA ».
Solange Viegas Dos ReisDirectrice juridique, OVHcloud

La partie visible de cette domination serait les montants investis dans les startups et les sociétés spécialisées en IA. Microsoft a investi près de 13 milliards de dollars dans OpenAI. Anthropic a levé près de 8 milliards auprès d’Amazon, deux milliards auprès du fonds d’investissement de Google et serait en train d’en lever un troisième, selon le Financial Times.

Les hyperscalers concentrent les pouvoirs, selon Open Market Institute et AI Now

« Nous constatons que les grandes entreprises technologiques évincent désormais les sociétés de capital-risque en tant que principaux investisseurs dans l’IA, et je pense qu’il s’agit d’une situation assez dangereuse », signale Max von Thun, directeur des partenariats européens et transatlantiques, à l’Open Market Institute.

« Nous constatons que les grandes entreprises technologiques évincent désormais les sociétés de capital-risque en tant que principaux investisseurs dans l’IA, et je pense qu’il s’agit d’une situation assez dangereuse ».
Max von ThunDirecteur des partenariats européens et transatlantiques, Open Market Institute

Les fournisseurs cloud sont les principaux détenteurs des capacités de calcul nécessaires à l’entraînement puis à l’inférence des grands modèles de langage. « Les fournisseurs cloud peuvent choisir les “champions” de l’IA en décidant qui aura accès à la puissance de calcul », affirme-t-il.

Pour Amba Kak, co-directrice de l’institut AI Now, une ONG qui s’intéresse aux impacts sociétaux de l’IA, c’est plus vicieux que cela. « Je vais dire les choses telles que je les vois. Je pense que le dynamisme de l’écosystème de startups d’IA dépeint en ce moment est une fiction. Je pense que si l’on sort de cette fiction, ce que l’on trouve, ce sont des relations de dépendance et de contrôle bien ancrées », assène-t-elle.

« Les startups lèvent des capitaux, mais selon certaines estimations, 80 à 90 % de ces capitaux reviennent aux fournisseurs cloud et à Nvidia », lance-t-elle. « D’autre part, 75 % des capitaux levés par les startups IA en 2023 proviennent en fait de grandes entreprises technologiques. C’est ce que la FTC appelle la “logique circulaire des dépenses” ».

« Les startups lèvent des capitaux, mais selon certaines estimations, 80 à 90 % de ces capitaux reviennent aux fournisseurs cloud et à Nvidia ».
Amba KakCodirectrice, AI Now

La Federal Trade Commission américaine a lancé une étude sur les « partenariats » entre les startups d’IA et les géants du cloud. Amba Kak appuie ses propos sur le document de 43 pages de l’agence indépendante.

Ainsi, l’exclusivité de certains modèles ou solutions d’IA à travers les services des fournisseurs cloud ne serait que l’arbre qui cache la forêt.

« L’étude de la FTC met en évidence d’autres types de relations d’interdépendance », poursuit-elle. « Il y a par exemple le fait que les fournisseurs cloud aient accès à des informations commerciales et techniques sensibles qui les aident à élaborer de meilleurs modèles », illustre-t-elle.

La FTC évoque des informations contractuelles que les startups sont tenues de confier aux fournisseurs, mais aussi celles résultant de l’analyse des métriques des infrastructures. Les exclusivités commerciales permettent potentiellement aux fournisseurs d’appliquer des méthodes d’entraînement interdites à d’autres usagers, comme l’a documenté LeMagIT au sujet du projet Phi-4 de Microsoft.

« Il y a aussi le fait qu’il y ait un potentiel phénomène “d’acqui-hiring”, d’acquisitions de talents sans rachat formel », note Amba Kak. « Ce qu’a fait Microsoft avec Inflection AI en est le parfait exemple ». En mars 2024, deux des trois cofondateurs de cette startup américaine spécialisée dans l’IA générative ont rejoint le géant du cloud pour prendre la direction d’une nouvelle entité, Microsoft AI. Ils ont été suivis par la majorité des employés de la startup. Microsoft avait également obtenu un accord de licence pour utiliser les produits d’Inflection AI, en contrepartie de 650 millions de dollars.

Ce mouvement avait suscité des enquêtes de la part des régulateurs américains, britanniques et de sept pays européens. Des investigations abandonnées en Europe au mois de septembre. De fait, la cour de justice de l’UE a jugé que « la Commission n’est pas autorisée à encourager ou à accepter le renvoi de projets de concentration sans dimension européenne par les autorités nationales de la concurrence, lorsque celles-ci ne sont pas compétentes pour examiner ces projets de concentration en vertu de leur propre droit national ».

Mais Microsoft n’est pas le seul concerné. « Lorsque vous co-développez des infrastructures informatiques avec une startup d’IA particulière, cela les rend moins fongibles et cela signifie qu’il ne sera peut-être pas aussi facile pour une autre entreprise d’IA d’utiliser la même chose », avance Amba Kak.

La codirectrice de l’institut AI Now fait ici référence au partenariat entre Anthropic et Amazon qui collaborent au développement des piles matérielles et logicielles des puces Trainium et d’Inferentia d’AWS.

À cela s’ajoute la position quasi monopolistique de Nvidia. « Nvidia a un monopole de 90 % en ce qui concerne la conception de ces supercalculateurs en cloud », affirme Max Von Thun.

Selon la FTC, un monopole est légal aux États-Unis tant qu’il ne résulte pas « d’actes d’exclusion ou de prédation ».

Oui, les fournisseurs cloud et d’autres équipements proposent des puces IA spécifiques pour l’entraînement et l’inférence. Mais Nvidia a développé depuis près de 20 ans une librairie propriétaire nommée CUDA sur laquelle repose en premier lieu la plupart des projets d’IA, « fermés » ou non. D’autres frameworks ont vu le jour, mais cela lui donnerait un avantage considérable sur les hyperscalers et leurs clients, selon Amba Kak.

« L’expertise spécifique nécessaire pour développer la couche logicielle au-dessus de ces puces, afin de les rendre efficaces, constitue en soi une forme particulière de savoir-faire. Or, cette expertise est largement concentrée entre les mains des ingénieurs de Nvidia, ce qui rend sa diffusion difficile, même si, en théorie, des entreprises concurrentes existent ».

Les géants du cloud prônent leur ouverture et leur contribution à l’innovation ouverte

Astri Van Dyke, directrice de la politique de concurrence chez Google, ne croit pas à la volonté de contrôle dépeinte par la codirectrice de l’ONG AI Now.

« Nos investissements en R&D s’élèvent à 150 milliards de dollars et sont ouverts à de nombreux autres utilisateurs », défend-elle. « Nous investissons également dans notre infrastructure cloud, qui permet à beaucoup d’autres d’entraîner leurs modèles d’IA et de créer un produit sans avoir à faire de même ». Et d’assurer que des anciens de Google ont pu créer des startups particulièrement rentables.

Enfin, poursuit-elle « grâce à son approche open source, Google a rendu publics plus de 1 000 articles sur l’IA », dont ceux consacrés à Alphafold et au Transformer. « D’autres peuvent s’appuyer sur ses recherches, comme c’est déjà le cas. Cela favorise la concurrence, ce qui est bénéfique pour les consommateurs ».

« Nous détenons environ 20 % du marché du cloud, tandis que les trois premiers acteurs en possèdent environ 60 %, et de nouveaux acteurs émergent et se développent. Cela ne semble pas correspondre à une concentration extrême du marché ».
Nicholas BanasevicDirecteur de la compétition et de la régulation EMEA, Microsoft

« Nous détenons environ 20 % du marché du cloud, tandis que les trois premiers acteurs en possèdent environ 60 %, et de nouveaux acteurs émergent et se développent. Cela ne semble pas correspondre à une concentration extrême du marché », considère lors d’un second panel Nicholas Banasevic, directeur de la compétition et de la régulation en EMEA chez Microsoft. « Je comprends qu’il puisse y avoir des inquiétudes générales, mais il est essentiel d’examiner les spécificités du marché, le degré d’ouverture des acteurs et leur stratégie. Pour notre part, nous avons tout intérêt à favoriser l’ouverture et la fluidité du cloud, car cela soutient notre activité sur ces 20 % de marché ».

Des autorités de la concurrence vigilantes, mais pas alarmistes

Mais c’est aussi l’accès au modèle qui est en jeu, notent les panélistes. Pour la France et l’Union européenne, ces géants du cloud sont aussi les détenteurs des canaux de distribution permettant d’accéder aux modèles et aux applications IA.

« Il existe d’importants risques d’intégration verticale et d’abus de position dominante entre l’amont (le développement de LLM) et l’aval (leur usage) », note Benoît Coeuré, président de l’Autorité de la concurrence en France. « Ce que nous avons constaté, c’est que certaines pratiques présentent un risque, notamment celles où de grands acteurs exploitent leur pouvoir de marché pour verrouiller les utilisateurs et les clients dans leurs écosystèmes. Ce phénomène n’est pas nouveau : nous l’avons déjà observé, nous savons comment cela fonctionne ».

L’Autorité a en effet mené une étude sur le marché du cloud en 2023 où elle constatait que « les contrats sont souvent difficiles, voire impossibles, à négocier ou à modifier, avec une faible transparence sur les coûts, et ainsi de suite », note Benoît Coeuré.

Pour autant, le président de l’Autorité estime « que le marché [de l’IA] est ouvert à la concurrence ». Pour preuve, Benoît Coeuré mentionne l’effet de la disponibilité des modèles V3 et R1 de DeepSeek sur les cours des bourses aux États-Unis.Bottom of Form

« Nous en sommes témoins, car nous hébergeons un grand nombre de modèles sur notre plateforme », affirme Nicholas Banasevic de Microsoft.

« Beaucoup de gens ont dit que DeepSeek montrait qu’il y avait de la concurrence dans l’IA et que nous pouvions être moins inquiets », commente Max von Thun. « Je pense que c’est vrai, dans une certaine mesure. […] Nous savons qu’ils ont utilisé les résultats des modèles d’OpenAI et de Meta pour entraîner des LLM distillés. DeepSeek dépend toujours des mêmes canaux de distribution pour atteindre les consommateurs. Et même si nous rendons les modèles d’IA plus efficaces, nous avons toujours cette concentration dans l’informatique en cloud. Je pense donc qu’il faut être prudent ».

Dans son rapport, la FTC rappelle son rôle d’information du public américain et s’invite elle-même à une « vigilance accrue » concernant les partenariats entre les géants technologiques et les startups.

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire