Aperçu de la décision de Munich concernant l'IA

Le 11 novembre 2025, le tribunal régional de Munich I a rendu une décision dans l'affaire GEMA contre OpenAI. Un résumé. 

Le 11 novembre 2025, le tribunal régional de Munich I a rendu une décision dans l'affaire GEMA contre OpenAI. Ce jugement aura un impact considérable sur le débat autour de l'IA et de la musique. Même s’il ne s'applique pas directement à la Suisse, il montre très bien comment les tribunaux européens pourraient évaluer l'utilisation des systèmes d'IA dans le domaine de la musique. Le jugement n'est pas encore définitif et sera probablement encore examiné par d'autres instances.

De quoi parle-t-on ?
La GEMA a constaté que ChatGPT était capable de restituer les paroles complètes de chansons connues (notamment « Männer » de Herbert Grönemeyer) à partir de saisies très simples. Certaines paroles étaient reproduites mot pour mot, sans qu’il existe de licence. Du point de vue de la GEMA, cela indiquait que les œuvres concernées avaient été utilisées pour l'entraînement des modèles et qu'elles avaient non seulement été analysées dans le système, mais aussi stockées de manière permanente. La GEMA a donc exigé la cessation de ces activités, ainsi que des dommages-intérêts. Elle a également déposé une plainte auprès du tribunal régional de Munich.

OpenAI a confirmé que des répétitions involontaires du matériel d'entraînement pouvaient se produire, mais a expliqué que les modèles étaient en principe conçus pour n'apprendre que des modèles et des corrélations statistiques. Dans le même temps, l'entreprise a fait valoir que les résultats dépendaient des entrées des utilisateurs et ne reposaient pas directement sur les données d'entraînement stockées.

Décision du tribunal
OpenAI n'a pas le droit de conserver les paroles de chansons protégées dans son modèle ni de les reproduire dans les réponses de ChatGPT. En outre, l'entreprise doit indemniser la GEMA pour le préjudice subi, divulguer les données utilisées lors de l'entraînement et le chiffre d'affaires réalisé avec le modèle. La GEMA a également invoqué une violation des droits de la personnalité, argument que le tribunal a toutefois rejeté.

Pourquoi le stockage dans le modèle est-il déterminant ?
Un point essentiel de la décision est la constatation que les modèles d'IA peuvent effectivement conserver certaines parties des données d'entraînement. Les paroles de chansons ne disparaissent donc pas simplement au cours du processus d'apprentissage, mais peuvent rester stockées dans le système et réapparaître plus tard. Le tribunal considère cette mémorisation comme une utilisation de contenus protégés. Que la technique sous-jacente soit pleinement comprise ou non n'a aucune importance. Ce qui est déterminant, c'est que les contenus soient présents dans le modèle.

Pourquoi la réglementation TDM n'est-elle pas applicable ?
Il existe dans l'UE une exception pour ce qu'on appelle le text and data mining. Celle-ci vise à permettre l'analyse de grandes quantités de données. La Cour précise toutefois clairement que cette réglementation ne s'applique qu'à la compilation du matériel d'analyse, et non au stockage permanent de parties d'œuvres dans le modèle entraîné. La mémorisation des paroles de chansons ne sert plus à l'analyse et n'est donc pas couverte par cette restriction.

Qu’en est-il du consentement ?
Le tribunal souligne que les auteurs ne doivent pas automatiquement s'attendre à ce que leurs œuvres soient utilisées pour l'entraînement de grands modèles d'IA, car il ne s'agit pas d'un type d'utilisation habituel et prévisible. L'idée selon laquelle l'entraînement de l'IA est désormais courant dans le secteur ne suffit pas non plus à justifier une telle utilisation. En outre, le tribunal souligne que même les exploitants de ces systèmes tentent en réalité d'éviter le stockage indésirable.

Qui est responsable ?
Le jugement précise qu'OpenAI reste responsable des résultats liés au modèle, car les exploitants sont responsables de l'architecture des modèles et de la mémorisation des données d'entraînement. Les personnes qui saisissent des prompts simples déclenchent certes une réponse, mais n’en déterminent pas le contenu. Celui-ci provient du modèle lui-même, et c'est le fournisseur qui est responsable de son comportement.

Que reste-t-il ?
Cette affaire montre que la question du stockage du contenu des œuvres dans les modèles d'IA reste centrale. Si les modèles peuvent conserver et restituer du matériel d'entraînement, cela est de plus en plus considéré comme une utilisation pertinente. Si des instances supérieures et, le cas échéant, la Cour de justice européenne confirment qu'un tel stockage à l'intérieur d'un modèle est considéré comme une utilisation, cela pourrait atténuer le problème posé par le fait que la plupart des modèles sont entraînés à l'étranger. 
Pour la Suisse, cela rend notamment plus importante la transparence des données d'entraînement. C'est en effet le seul moyen de déterminer si de la musique protégée est concernée et si une licence serait nécessaire. Même sans effet direct, cet arrêt donne une indication sur la manière dont les tribunaux pourraient traiter ce type d'affaires à l'avenir.