Avocat en propriété intellectuelle : IA, droit d’auteur et LLM – analyse CJUE

Droit d’auteur et intelligence artificielle : questions préjudicielles sur les modèles de langage devant la CJUE | Avocat spécialisé en propriété intellectuelle

L’émergence des modèles de langage de grande taille (LLM) s’accompagne de nombreuses incertitudes juridiques, notamment en matière de droit d’auteur. Ces systèmes, qui reposent sur l’analyse massive de contenus disponibles en ligne, soulèvent la question de la licéité de leur entraînement et de la reproduction partielle de contenus protégés.

En tant qu’avocat suisse spécialisé en propriété intellectuelle, en droit du numérique et en intelligence artificielle, j’évoque ici la première demande préjudicielle portée le 3 avril 2025 devant la Cour de justice de l’Union européenne (CJUE) par un tribunal hongrois dans l’affaire C-250/25.

Enjeux du droit d’auteur à l’ère de l’intelligence artificielle

Les questions sur lesquelles la CJUE aura à se prononcer sont les suivantes:

  1. Faut-il interpréter l’article 15, paragraphe 1, de la directive (UE) 2019/790 du Parlement européen et du Conseil, du 17 avril 2019, sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE (ci-après la « directive 2019/790 »), ainsi que l’article 3, paragraphe 2, de la directive 2001/29/CE du Parlement européen et du Conseil, du 22 mai 2001, sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information (ci-après la « directive 2001/29 ») en ce sens que l’affichage, dans les réponses d’un agent conversationnel (chatbot) alimenté par un grand modèle de langage (LLM), d’un texte partiellement identique à des contenus que l’on peut trouver sur les sites Web d’éditeurs de publications de presse, est un acte de communication au public dans une mesure qui, déjà, relève de la protection l’article 15 de la directive 2019/790 ?
  2. Dans l’affirmative, le fait que cela résulte seulement d’un processus par lequel l’agent conversationnel prédit le mot suivant sur la base des modèles observés a-t-il une importance?
  3. L’article 15, paragraphe 1, de la directive 2019/790 et l’article 2 de la directive 2001/29 doivent-ils être interprétés en ce sens que le processus d’entraînement d’un agent conversationnel alimenté par un grand modèle de langage, lequel processus est fondé sur l’observation et le filtrage par motif, permettant ainsi au modèle d’apprendre à reconnaître des modèles linguistiques, est une reproduction ?
  4. Si la réponse à la deuxième question est positive, la reproduction, de cette manière, d’œuvres accessibles de manière licite relève-t-elle de l’exception de libre utilisation pour la fouille de textes et de données prévue à l’article 4 de la directive 2019/790 ?
  5. L’article 15, paragraphe 1, de la directive 2019/790 et l’article 2 de la directive 2001/29 doivent-ils être interprétés en ce sens que, lorsqu’un utilisateur donne à un agent conversationnel alimenté par un grand modèle de langage une instruction qui est identique à un texte que l’on peut trouver dans le contenu d’une publication de presse ou qui fait référence à un tel texte, et que l’agent conversationnel génère ensuite, sur la base de l’instruction donnée par l’utilisateur, une réponse dans laquelle le contenu de la publication est reproduit en tout ou en partie, cette réponse constitue une reproduction par le fournisseur de l’agent conversationnel ?

Inutile de souligner l’importance de l’arrêt à venir de la CJUE, dont on peut espérer qu’elle apportera des réponses aussi claires que possibles à ces questions, fondamentales pour guider les entreprises. En simplifiant, les réponses apportées devraient permettre de répondre aux questions suivantes au coeur des débats actuels:

Modèles de langage (LLM) et reproduction illicite de contenus protégés

L’une des questions porte sur le fait de savoir si l’affichage par un chatbot, dans ses réponses, d’un texte partiellement identique à celui d’un éditeur de presse constitue une “communication au public” au sens de l’article 15(1) de la directive 2019/790. Le caractère automatique et probabiliste de la génération textuelle a-t-il une incidence juridique sur cette qualification ?

Communication au public ou simple prédiction algorithmique ?

Pour ce faire, la CJUE devra trancher si le simple fait qu’un LLM “prédit” un mot sur la base de modèles statistiques suffit à exclure la responsabilité du fournisseur. Une analyse fine de la distinction entre reproduction volontaire et résultat algorithmique s’impose.

Le rôle de l’exception de text and data mining (TDM)

L’exception de fouille de textes et de données, prévue à l’article 4 de la directive 2019/790, pourrait-elle être invoquée pour l’entraînement des LLM ? La CJUE devra préciser si cette exception s’applique aux modèles ayant ingurgité des contenus protégés de façon massive.

Quelle responsabilité pour les fournisseurs de services IA ?

Si la réponse de l’IA reproduit fidèlement un contenu journalistique, l’utilisateur est-il responsable ? Ou bien le fournisseur du service (OpenAI, Anthropic, etc.) doit-il assumer la charge de la preuve ou du filtrage ?

À propos de l’auteur
Me Philippe Gilliéron est avocat à Genève au sein du bureau BMG Avocats (www.bmglaw.ch), spécialisé en droit de la propriété intellectuelle, en particulier dans les domaines des marques, designs, brevets et droits d’auteur, ainsi que les droits des technologies, en particulier l’intelligence artificielle, et la protection des données. Il conseille des entreprises suisses et internationales dans leurs stratégies de protection des actifs immatériels et représente ses clients devant les juridictions suisses ainsi que l’Institut Fédéral de la Propriété Intellectuelle (IPI).

Pour toute question liée à la propriété intellectuelle, au numérique, à l’intelligence artificielle ou encore la protection des données, contactez Me Philippe Gilliéron, avocat en propriété intellectuelle à Genève à l’adresse suivante:
 philippe.gillieron@bmglaw.ch.