« Fair use » : Anthropic échappe à une injonction des majors musicales
La décision d’un juge fédéral californien montre la complexité d’intenter une action en justice contre les fournisseurs de modèles et la nécessité de clarifier la notion d’usage loyal à l’ère de l’IA générative.
Les procès intentés contre les fournisseurs de grands modèles de langage tels qu’Anthropic et OpenAI commencent à évoluer. Selon certains, cela signifie que les tribunaux sont en train de clarifier ce qui constitue un usage équitable des données (fair use) lors de l’apprentissage de modèles d’IA générative.
Le 25 mars, un juge fédéral californien a rejeté la demande d’un groupe d’éditeurs de musique, incluant Universal Music Group. Ils avaient intenté un procès à Anthropic en 2023. Dans leur injonction, UMG et les plaignants voulaient empêcher Anthropic d’utiliser sa musique pour entraîner le chatbot Claude, alimenté par l’IA, tant que le procès était en cours. Le juge a déclaré que cette demande était trop large.
« Bien que les éditeurs aient tenté de clarifier la portée de l’injonction proposée, les détails restent flous et mal définis », tranche la juge Eumi K. Lee du tribunal du district nord de la Californie, dans sa décision. La plainte incorpore et mentionne 500 chansons énumérées dans la pièce à conviction A, mais cette liste est « illustrative et non exhaustive ».
Des plaintes trop vagues
Les éditeurs de musique ont d’abord accusé Anthropic de violer le droit d’auteur en utilisant les paroles d’environ 500 de leurs chansons pour entraîner son modèle. Ils ont déclaré que Claude était capable de générer des copies exactes des paroles de chansons telles que « Uptown Funk » de Bruno Mars et « Halo » de Beyoncé.
Selon Michael Bennett, vice-chancelier associé chargé de la data science et de la stratégie en matière d’intelligence artificielle à l’université de l’Illinois à Chicago, le manque de spécificité de l’injonction l’a probablement rendu irrecevable par le tribunal.
La demande des plaignants était également trop vague sur la question de savoir si UMG et les autres ayants droit musicaux souhaitaient qu’Anthropic réentraîne ses modèles sans inclure leur musique ou s’il fallait que le fournisseur exclue certaines œuvres de ses jeux de données d’entraînement.
« Une injonction contraignant Anthropic à réentraîner des modèles déjà lancés ou à reconstruire le corpus d’entraînement pour les modèles en développement pourrait imposer des coûts imprévisibles à Anthropic », a déclaré la juge Lee, lors de sa conclusion.
« Si vous cherchez à convaincre un tribunal d’ordonner une injonction contre Anthropic ou OpenAI [...], alors votre demande doit être aussi précise que possible. »
Michael BennettVice-chancelier associé chargé de la data science & stratégie en matière d’IA, université de l’Illinois à Chicago
Bien que cette décision concerne spécifiquement Anthropic, elle donne un aperçu des attentes des juges envers ceux qui intentent des actions en justice pour atteinte au droit d’auteur contre les fournisseurs de modèles d’IA.
« Si vous cherchez à convaincre un tribunal d’ordonner une injonction contre Anthropic ou OpenAI parce que vous êtes persuadé qu’ils ont utilisé votre contenu protégé par le droit d’auteur pour entraîner leur modèle, alors votre demande doit être aussi précise que possible », prévient Michael Bennett. « Si elle ne l’est pas, si elle reste vague, elle sera rejetée ».
Un exemple à l’avantage du plaignant semble prouver ce point. En février 2025, le tribunal du district du Delaware a rejeté l’argument du « fair use » brandi par Ross Intelligence en réponse à la plainte de Thomson Reuters. Ross a développé un assistant légal en entraînant ses modèles à partir des notes d’en tête de la base de données légale Westlaw, appartenant au plaignant.
Selon le juge, « “l’utilisation de Ross n’est pas transformatrice parce qu’elle n’a pas un objectif supplémentaire ou un caractère différent de celui de Thomson Reuters”. Cela signifie que la Cour considère que l’utilisation par Ross des notes d’en-tête pour former son IA sert exactement le même objectif que Thomson Reuters : fournir un outil de recherche juridique efficace », explique Vincent Fauchoux, avocat spécialisé en propriété intellectuelle et nouvelles technologies au sein du cabinet Deprez Guignot & Associés, dans un billet de blog.
Une décision qui semble résulter d’une analyse préalable du texte définissant le « fair use » par les avocats de Thomson Reuters.
Un besoin d’éclaircir le « fair use »
Bien que la décision du juge fédéral californien ne soit qu’une première étape de la procédure judiciaire et qu’elle n’ait pas favorisé UMG et les autres éditeurs de musique, elle était importante pour Anthropic.
« Si Anthropic avait perdu à ce stade, cela signifiait qu’il lui aurait fallu surmonter un obstacle presque infranchissable plus tard dans le procès pour annuler les effets de cette injonction », comprend Aaron Rubin, associé du cabinet d’avocats Gunderson Dettmer. « Cette décision fait passer les choses à une phase plus substantielle où nous verrons l’argument de l’usage loyal se déployer ».
La décision du juge a également suggéré que l’argument du « fair use » devait être développé avant qu’une telle injonction puisse être prononcée, selon Michael Bennett.
« Le tribunal a indiqué que la question de l’usage loyal est plus fondamentale […] en ce sens qu’il est très probable qu’il faille y répondre avant qu’un argument ou une demande d’injonction puisse être accordé dans ce type de situation », avance-t-il.
L’action en justice intentée contre Anthropic n’a pas été la seule à évoluer cette semaine.
Le 26 mars, un juge fédéral de New York a refusé la demande d’OpenAI de classer l’affaire de violation des droits d’auteur qui l’oppose au New York Times. Le juge de district Sidney Stein a écarté certaines demandes, mais a également ouvert la voie à un procès. Le procès du New York Times est suivi de près, car le fournisseur d’intelligence artificielle est confronté à un grand éditeur de presse dont le modèle économique repose sur l’abonnement.
Dans un même temps, un arrêt rendu par une cour d’appel fédérale à Washington D.C., a statué que le contenu généré sans intervention humaine n’est pas protégeable par le droit d’auteur.
L’ensemble de ces précédents pourraient signifier qu’une résolution relative au « fair use » et à l’IA générative sera bientôt rendue. Pour rappel, OpenAI plaide pour un assouplissement de l’application de cette loi et sa diffusion dans le reste du monde.
« Je parierais qu’avant la fin du mois de janvier 2026, nous verrons quelque chose d’important du côté de l’usage équitable », anticipe M. Bennett. Et cette décision sera attendue dans le reste du monde.
Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire