Anthropic case: fair use or not fair use ?

Avocat en intelligence artificielle : le cas Anthropic et la question du fair use

Auteur : Prof. Philippe Gilliéron, avocat chez BMG Avocats, expert en droit des technologies et de l’intelligence artificielle en Suisse

La constitution d’un set de données pour entraîner un modèle d’IA constitue-t-elle un cas de “fair use” ? Une réponse à Thomson Reuters ?

Les faits

Le 19 août 2024, trois auteurs ont engagé une action en justice contre Anthropic, le développeur de Claude, pour violation de leurs droits d’auteur devant la United States District Court for the Northern District of California. Selon les demandeurs, leurs livres auraient été reproduits intégralement dans le corpus d’entraînement utilisé pour former ce modèle d’intelligence artificielle.

Le 27 mars 2025, Anthropic a déposé une requête devant le Tribunal afin d’obtenir un jugement sommaire en sa faveur.

Entraîner un modèle d’IA : un usage loyal ?

La stratégie juridique d’Anthropic consiste à soutenir que l’on est en présence d’un cas de fair use (ou “usage loyal”) selon la section 107 du Copyright Act. Anthropic reconnaît avoir utilisé les œuvres (ce qui a pour conséquence que la question de la qualité pour agir, souvent mise en cause, ne se pose pas ici), mais soutient que cette utilisation répond aux critères du fair use, dès lors que les quatre conditions suivantes feraient pencher la balance en faveur d’Anthropic :

  1. Le but et le caractère de l’utilisation ;
  2. La nature de l’œuvre protégée ;
  3. La quantité et la substantialité de l’extrait utilisé ;
  4. L’effet sur le marché potentiel ou la valeur de l’œuvre.

Sont en réalité déterminants les facteurs (1) et (4). Or, selon Anthropic, la reproduction des livres à des fins d’entraînement de son modèle serait clairement clairement transformative, puisqu’elle ne poursuit pas du tout le même but et n’a pas pour finalité de mettre sur le marché un produit concurrent. A ce titre, le modèle Claude n’entrave en rien la vente des livres. De plus, il n’existerait pas de véritable marché pour accorder des licences d’utilisation d’œuvres dans le cadre de l’entraînement d’IA, en raison des coûts de transaction trop élevés. Le nombre extrêmement élevé de tokens requis pour entraîner le modèle a pour conséquence qu’il est irréaliste de demander aux fournisseurs d’obtenir l’accord de chaque titulaire d’oeuvres qui seraient exploitées à des fins d’entraînement.

Analyse critique

L’argument principal d’Anthropic repose sur la notion d’utilisation non expressive (non expressive use) : l’exploitation d’une œuvre qui n’a pas pour objectif de permettre l’exploitation des contenus expressifs, mais uniquement à des fins techniques, doit être admise sous l’angle du fair use.

L’argument suivant lequel cet usage serait transformatif est à notre sens dans la droite ligne de l’opinion Authors Guild v. Google et Warhol v. Goldsmith rendue en 2023 par la Cour Suprême. Anthropic ne manque du reste pas de relever que la situation est différente de l’affaire Thomson Reuters v. Ross Intelligence, où le fair use a été refusé en raison du caractère concurrentiel du produit final par rapport aux oeuvres exploitées, ce qui n’est pas le cas en l’espèce (voir notre analyse de cette décision ici).

Et si le droit d’auteur devenait un obstacle à l’innovation ?

L’enjeu est profond : permettre l’émergence d’une IA de qualité tout en respectant les droits fondamentaux des créateurs. Peut-on cependant ignorer le régime d’opt-in du droit d’auteur au nom de la difficulté à obtenir des licences ? L’affirmer comme le fait Anthropic semble un peu court, sauf à vouloir écarter l’application du droit lorsqu’il nous paraît inefficient. La balle est surtout dans le camp des législateurs. Des solutions comme les licences collectives étendues ou obligatoires soumise à l’application d’un tarif (modèle usuel dans les pays de tradition germanique) devraient être explorées, comme le suggère le rapport de la présidence du Conseil de l’Union européenne (décembre 2024) analysé ici).

Conclusion

Le cas Anthropic met en lumière l’un des dilemmes juridiques les plus actuels : comment concilier intelligence artificielle, droit d’auteur et innovation technologique ? La décision à venir d’ici quelques mois pourrait faire jurisprudence et définir les contours du fair use appliqué à l’entraînement des IA.