Corgarashu - stock.adobe.com

IA et droits d’auteur : victoires fragiles pour Meta et Anthropic dans la guerre du « fair use »

Bien que les juges aient accepté l’argument de l’usage loyal de la part des fournisseurs dans leur affaire respective qui les confrontaient à des auteurs, cela ne signifie pas que d’autres procès auront la même décision. Il est également probable que la Cour suprême sera l’ultime instance de décision.

Les victoires limitées d’Anthropic et de Meta dans leurs procès sur l’IA cette semaine nous éclairent pour déterminer si l’utilisation de matériel protégé par droit d’auteur afin d’entraîner des systèmes d’IA générative relève, effectivement, d’un « usage loyal » (fair use).

Aux États-Unis, le « fair use » est un argument juridique utilisé dans les affaires de violation des droits d’auteur. En vertu de ce droit, une partie peut utiliser une œuvre protégée par des droits d’auteur sans l’autorisation du propriétaire à des fins de reportage, d’enseignement ou de recherche, généralement si l’utilisation de matériel protégé par des droits d’auteur sert l’intérêt public.

Pas de fair use en France, mais une transposition du droit européen qui favorise « l’intérêt général »

Le concept n’existe pas à part entière en droit français. Il y a bien une forme de droit de citation permis pour les journalistes, les caricaturistes, les scientifiques et le corps enseignant. Le droit européen a ajouté des exceptions à travers la directive DAMUN qui permet la fouille de données protégées tant que son propriétaire ne s’y est pas opposé. « En définitive, l’on assiste à l’émergence d’un droit d’auteur, qui, dans la vision européenne, s’adapte à l’intérêt général », résume le cabinet d’avocats Haas.

En termes juridiques, il s’agit d’un test à quatre facteurs : l’effet de l’utilisation sur le marché potentiel ; la quantité de matériel utilisé ; la nature de l’œuvre protégée par le droit d’auteur ; et le but et le caractère de l’utilisation, qui examine également l’utilisation transformative, c’est-à-dire les cas où la nouvelle œuvre dérivée du contenu protégé par le droit d’auteur ajoute une signification ou une expression substantiellement nouvelle. Par exemple, en février 2025, Ross Intelligence a perdu son procès face à Thomson Reuters et sa filiale Westlaw parce qu’il avait utilisé des notes associées à la base de données légale appartenant au groupe canadien. Un juge du tribunal de district du Delaware avait considéré que l’usage des données par Ross n’était pas « transformatif ».

Meta et Anthropic ont eu plus de chance.

Deux types de fair use

Dans les procès de Meta et d’Anthropic, les juges ont décidé que les fournisseurs d’intelligence artificielle pouvaient prétendre à une utilisation équitable, sur la base de deux facteurs distincts.

Dans le cas de Meta, des auteurs, dont Sarah Silverman et Ta-Nehisi Coates, ont poursuivi le géant des réseaux sociaux en 2023 pour avoir violé les règles du droit d’auteur et utilisé leurs livres pour entraîner le modèle Llama de Meta sans autorisation.

Le juge de district américain Vince Chhabria a statué jeudi 26 juin que l’utilisation équitable s’appliquait dans ce cas en raison de l’absence d’impact potentiel sur le marché. Cela signifie que les auteurs n’ont subi aucune perte financière du fait de l’utilisation de leur œuvre par Meta pour entraîner son système.

La veille, le juge de district américain William Alsup a conclu que l’argument du faire use d’Anthropic dans le procès intenté au fournisseur par les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson était également valable. Les auteurs avaient accusé le fournisseur d’IA d’utiliser leurs livres protégés par le droit d’auteur pour entraîner son chatbot d’IA, Claude.

Le juge a estimé qu’en raison du pouvoir de transformation de l’IA générative (GenAI), l’usage loyal pouvait être pris en compte dans l’affaire Anthropic. Toutefois, le juge a également décidé que l’affaire serait jugée pour l’utilisation par Anthropic de livres piratés. On parle de piratage numérique lorsque du matériel protégé par des droits d’auteur est utilisé, reproduit ou distribué sans autorisation.

« Les affaires Anthropic et Meta représentent les deux premières décisions concernant le faire use et l’IA générative », note Michael Graif, associé en propriété intellectuelle chez Brown Rudnick. « Il existe désormais un précédent différent, mais connexe, que les autres tribunaux pourront suivre : l’entraînement de modèles d’IA générative sur des œuvres protégées par le droit d’auteur constitue un usage loyal ».

Une victoire limitée

Bien que ces premières conclusions semblent favorables aux fournisseurs de GenAI, les mêmes facteurs d’utilisation équitable pourraient ne pas être retenus dans d’autres procès relatifs à l’IA. Il ne s’agit donc pas d’une victoire totale.

« Il ne s’agit pas de victoires retentissantes, notamment dans le cas de la décision Meta », nuance Tamlin Bason, analyste chez Bloomberg Intelligence. « Il est possible que ce facteur de préjudice commercial complique à l’avenir l’analyse du fair use ».

L’affaire Anthropic fera bien l’objet d’un autre procès. La startup est accusée d’avoir téléchargé sept millions de livres à partir de sites web qui diffusent des œuvres piratées.

« Le juge a conclu qu’il ne s’agissait pas d’un usage loyal », Tamlin Bason. « Cela va plus loin. Il estime que nous ne voulons pas encourager ce comportement en utilisant ces données piratées pour entraîner un grand modèle de langage [LLM] ».

En outre, si ces deux juges se sont prononcés en faveur de l’utilisation équitable, cela ne signifie pas que d’autres juges feront de même.

« L’usage loyal est une détermination au cas par cas, très spécifique aux faits reprochés », souligne Tamlin Bason. « C’est important : les deux affaires ne portaient que sur les entrées ».

Cela signifie que les affaires n’ont pris en compte que ce qui entrait dans les LLM et non ce qui en sortait.

« Si vous lisez les deux décisions, il est très clair qu’elles auraient été rejetées s’il s’était agi de produits en infraction », poursuit l’analyste. D’où la décision en faveur de Thomson Reuters en février 2025.

Il ajoute que l’affaire du New York Times contre OpenAI et son principal bailleur de fonds, Microsoft, est une affaire traitant des entrées et des sorties de LLM qui n’a pas encore été jugée.

En outre, Tamlin Bason informe que de nombreux auteurs et créateurs de contenu continueront probablement à poursuivre les entreprises d’IA générative.

« Nous allons assister à plusieurs essais et erreurs concernant la manière de rédiger au mieux les plaintes pour violation du droit d’auteur afin de les faire avancer dans le litige », anticipe-t-il.

En fin de compte, ces deux affaires ne sont que le début d’une longue série de décisions attendues dans de nombreux procès relatifs à l’IA qui ont été intentés ou qui pourraient l’être prochainement.

« Il ne s’agit que de décisions de tribunaux de district », signale Michael Graif. « Il reste à voir si ces décisions relatives au fair use seront confirmées en appel. En fin de compte, c’est la Cour suprême qui tranchera cette question, mais pour l’instant, nous disposons de deux décisions sur l’entraînement d’un modèle d’IA générative ».

D’autant que Google et OpenAI prônent une plus grande souplesse en matière d’accès et d’usage des œuvres protégées auprès de la Maison-Blanche.

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire