Le jugement rendu le 11 novembre 2025 par la 42ᵉ chambre civile du Tribunal régional de Munich, dans l’affaire GEMA c/ OpenAI : Pour la première fois avec une telle netteté, une juridiction européenne qualifie la mémorisation interne de contenus protégés au sein des paramètres d’un modèle d’IA de reproduction au sens de la directive 2001/29/CE.

Cette position tranche avec l’approche retenue au Royaume-Uni dans l’affaire Getty Images c/ Stability AI, où la reproduction n’est appréhendée qu’au stade des sorties du modèle. La divergence révèle une tension désormais centrale du droit d’auteur contemporain : comment permettre l’entraînement de modèles d’IA fondés sur des masses de données sans neutraliser, dans le même mouvement, l’effectivité du droit exclusif des auteurs et ayants droit ? La décision munichoise dépasse ainsi le cadre d’un litige isolé. Elle s’inscrit dans une recomposition plus large, à l’intersection du droit de l’Union, des régulations sectorielles émergentes et des pratiques contractuelles du marché.

Le Tribunal de Munich identifie deux atteintes distinctes. D’une part, la fixation interne des paroles de chansons dans les paramètres du réseau de neurones, qualifiée de reproduction autonome. D’autre part, la reproduction et la mise à disposition du public susceptibles de résulter des outputs générés par le modèle. Le raisonnement repose sur un principe classique, mais ici appliqué à un objet technologique inédit : la neutralité technologique du droit de reproduction. Peu importe la forme prise par la fixation — support matériel, copie numérique, vectorisation ou corrélation mathématique — dès lors que l’œuvre est stabilisée d’une manière permettant sa restitution, même indirecte ou probabiliste.

Faute d’accès au corpus d’entraînement du modèle, le Tribunal adopte une approche pragmatique. Il déduit l’existence d’une mémorisation interne de la capacité du modèle à générer de manière répétée des séquences substantiellement identiques aux œuvres protégées, en s’appuyant également sur la littérature scientifique relative à la rétention d’informations dans les réseaux neuronaux profonds. Cette démarche probatoire marque une inflexion notable : l’atteinte au droit d’auteur peut être caractérisée sans démonstration exhaustive du contenu du corpus, dès lors qu’un faisceau d’indices techniques et empiriques converge.

Trois conséquences majeures découlent de cette qualification. En premier lieu, le droit d’auteur est mobilisable dès la phase d’apprentissage du modèle. L’entraînement d’un LLM n’est plus juridiquement neutre : l’encodage et l’ajustement des poids sont assimilés à une fixation, indépendamment de toute diffusion ultérieure. En deuxième lieu, la charge probatoire pesant sur les titulaires de droits s’en trouve allégée. La production d’outputs substantiellement similaires, combinée à des indices statistiques ou techniques, peut suffire à établir l’atteinte. Enfin, l’exception européenne de fouille de textes et de données (text and data mining) est interprétée de manière restrictive. Dans la lignée de l’affaire LAION, le Tribunal distingue la phase de collecte et de préparation des données, couverte par l’article 4 de la directive 2019/790, de la phase d’entraînement proprement dite, considérée comme excédant ce qui est strictement nécessaire à l’analyse. Les usages par prompts relèvent quant à eux du régime général des droits patrimoniaux. Une telle lecture prive la majorité des modèles d’IA à usage général de la possibilité d’invoquer l’exception TDM pour justifier leur entraînement.

Cette décision s’insère dans un paysage normatif en rapide recomposition. Depuis le 2 août 2025, les dispositions du règlement européen sur l’intelligence artificielle relatives aux modèles d’IA à usage général sont applicables. Sans modifier formellement le droit d’auteur, le RIA en devient un vecteur indirect mais puissant, en imposant des obligations accrues de transparence sur les données d’entraînement, de documentation technique et d’évaluation des risques. Pour les ayants droit, ces exigences constituent un levier inédit d’accès à l’information, condition préalable à toute action effective.

La proposition de règlement dite « Digital Omnibus », présentée le 19 novembre 2025, ambitionne quant à elle de mieux articuler RGPD, Data Act et RIA. Si de nombreuses attentes portaient sur une réforme des mécanismes d’opt-out en matière de droit d’auteur, le texte déposé demeure silencieux sur ce point. En parallèle, les travaux du Parlement européen, notamment le rapport porté par Axel Voss, relancent le débat autour d’un registre centralisé des opt-out, de mécanismes de présomption d’utilisation en cas de défaut de transparence et même d’une gestion collective obligatoire. Ces pistes, encore non normatives, témoignent néanmoins d’une volonté politique de reprendre la main sur les usages massifs d’œuvres protégées par les systèmes d’IA.

Au niveau national, les approches divergent. En France, le rapport du Sénat n° 842 du 9 juillet 2025 plaide pour une transparence intégrale des corpus, un droit à rémunération effectif des créateurs et, à défaut d’accords sectoriels, l’instauration d’une présomption d’utilisation, voire d’un mécanisme de taxation des fournisseurs d’IA. Une initiative législative en 2026 est évoquée. Le Royaume-Uni explore, de son côté, une exception TDM élargie aux usages commerciaux, conditionnée à la mise en place d’un standard d’opt-out interopérable et lisible par machine. Aux États-Unis, le règlement transactionnel conclu avec Anthropic en septembre 2025, pour un montant de 1,5 milliard de dollars, illustre une autre trajectoire : celle d’une monétisation contractuelle directe des données d’entraînement, en marge de toute refonte structurelle du droit d’auteur.

Dans ce contexte d’incertitude normative, la pratique contractuelle joue un rôle structurant croissant. Le secteur musical ouvre la voie avec des accords de licence d’entraînement conclus fin 2025, intégrant des clauses relatives à l’intégrité vocale, à l’encadrement des usages et à une rémunération proportionnée au volume de données exploitées. L’audiovisuel s’inspire des standards issus des négociations du SAG-AFTRA pour encadrer les images de synthèse et les « répliques numériques », en imposant consentement explicite et rémunération dédiée. Ces initiatives restent toutefois inégalement diffusées hors des États-Unis, au risque d’une fragmentation accrue des pratiques et des niveaux de protection.

Les perspectives ouvertes par la décision munichoise sont ambivalentes. La divergence entre les jurisprudences allemande et britannique fait peser un risque réel de contentieux européens conflictuels et de forum shopping, appelant à terme une clarification par la Cour de justice de l’Union européenne. La transparence des jeux de données s’impose comme un enjeu central, mais soulève des questions sensibles de secret des affaires et de faisabilité technique pour des corpus composés de milliards d’éléments. Enfin, les propositions de présomption d’utilisation, de registres européens ou de gestion collective obligatoire traduisent une tentation de réintroduire des mécanismes centralisés afin de sécuriser juridiquement l’entraînement des modèles.

Pour les entreprises, les agences de communication, les acteurs culturels et les utilisateurs de modèles d’IA à usage général, les implications sont immédiates : cartographie des usages intégrant des contenus protégés, insertion de clauses spécifiques dans les contrats de production et de communication, vigilance accrue sur les garanties offertes par les fournisseurs de modèles, et exposition renforcée au risque de responsabilité en cas d’entraînement illicite. Pour les créateurs, la période ouvre simultanément un champ de contraintes et d’opportunités, entre revendication de transparence, exigence de rémunération et développement de licences d’entraînement dédiées.

L’affaire GEMA c/ OpenAI s’inscrit ainsi dans un mouvement global de recomposition du droit d’auteur face à l’IA générative, où s’entremêlent normes européennes, initiatives nationales, arbitrages jurisprudentiels divergents et solutions contractuelles pragmatiques. Dans cet environnement instable, la structuration d’un régime hybride, fondé sur la transparence, la responsabilité et la contractualisation, apparaît désormais comme l’horizon le plus probable.