Panoramica sulla sentenza di Monaco di Baviera sull'IA

L'11 novembre 2025, il Tribunale regionale di Monaco di Baviera I ha emesso una decisione nella causa GEMA contro OpenAI, destinata a influenzare fortemente il dibattito sull’intelligenza artificiale e la musica. Un riassunto.

L'11 novembre 2025, il Tribunale regionale di Monaco di Baviera I ha emesso una decisione nella causa GEMA contro OpenAI, destinata a influenzare fortemente il dibattito sull’intelligenza artificiale e la musica. Anche se la sentenza non è direttamente applicabile in Svizzera, mostra chiaramente come i tribunali nello spazio europeo potrebbero valutare il trattamento delle opere musicali da parte dei sistemi di IA. La decisione non è ancora passata in giudicato e verosimilmente sarà oggetto di ulteriori ricorsi.

Di cosa si trattava
La GEMA aveva constatato che ChatGPT era in grado di restituire testi completi di canzoni famose (tra cui «Männer» di Herbert Grönemeyer) sulla base di input molto semplici. I testi venivano in parte riprodotti parola per parola, senza che esistesse una licenza. Dal punto di vista della GEMA, ciò indicava che le opere in questione erano state utilizzate per l’addestramento dei modelli e che nel sistema non erano solo analizzate, ma anche memorizzate in modo permanente. La GEMA ha quindi chiesto la cessazione e il risarcimento dei danni e ha presentato una causa dinanzi al tribunale regionale di Monaco di Baviera. 

OpenAI ha confermato che possono verificarsi ripetizioni involontarie del materiale di addestramento, ma ha spiegato che i modelli sono fondamentalmente concepiti per apprendere solo schemi e correlazioni statistiche. Allo stesso tempo, l'azienda ha sostenuto che i risultati dipendevano dagli input degli utenti e non si basavano direttamente sui dati di addestramento memorizzati.

Come ha deciso il tribunale
OpenAI non può né conservare nel modello testi di canzoni protetti, né farli comparire nelle risposte di ChatGPT. Inoltre, l’azienda deve risarcire la GEMA per i danni subiti e rendere pubblici i dati utilizzati per l’addestramento e i ricavi generati con il modello. La GEMA aveva inoltre invocato una violazione dei diritti della personalità, ma il tribunale ha respinto questa parte della domanda.

Perché la memorizzazione nel modello è fondamentale
Un punto centrale della decisione è la constatazione che i modelli di IA possono effettivamente conservare parti dei dati di addestramento. I testi delle canzoni non scompaiono semplicemente durante il processo di apprendimento, ma possono rimanere memorizzati nel sistema e riemergere in seguito. Il tribunale considera questa memorizzazione come un utilizzo di contenuti protetti. Non importa se la tecnologia alla base sia completamente compresa o meno. Ciò che conta è che i contenuti siano presenti nel modello.

Perché la normativa TDM non è d'aiuto
Nell'UE esiste un'eccezione per il cosiddetto Text and Data Mining (TDM) che dovrebbe consentire l'analisi di grandi quantità di dati. Tuttavia, il tribunale afferma chiaramente che questa normativa si applica solo alla compilazione del materiale di analisi, non alla memorizzazione permanente di parti di opere nel modello addestrato. La conservazione dei testi delle canzoni non serve più all'analisi e quindi non rientra in questa eccezione.

Cosa vale come consenso
Il tribunale sottolinea che gli autori/le autrici non devono automaticamente aspettarsi che le loro opere vengano utilizzate per l’addestramento di grandi modelli di IA, poiché non si tratta di un uso abituale e prevedibile. Nemmeno l’idea che l’addestramento di IA sia ormai una pratica diffusa nel settore costituisce una giustificazione. Inoltre, il tribunale osserva che anche i gestori di tali sistemi cercano, di fatto, di evitare la memorizzazione indesiderata.

Chi è responsabile
La sentenza chiarisce che OpenAI rimane responsabile per le risposte del modello, poiché i gestori sono responsabili sia dell’architettura dei modelli sia della memorizzazione dei dati di addestramento. Le persone che inseriscono semplici prompt avviano sì la risposta, ma non ne determinano il contenuto. Il contenuto proviene dal modello stesso, e per questo comportamento risponde il fornitore.

Cosa rimane
Il caso dimostra che la questione della memorizzazione dei contenuti delle opere nel modello di IA rimane centrale. Se i modelli sono in grado di conservare e riprodurre il materiale di addestramento, ciò viene sempre più considerato un utilizzo rilevante. Se le istanze superiori e, se del caso, anche la Corte di giustizia europea confermeranno che una tale memorizzazione all'interno di un modello costituisce un utilizzo, ciò potrebbe attenuare il problema legato al fatto che la maggior parte dei modelli viene addestrata all’estero.
Per la Svizzera, ciò rende ancora più importante la trasparenza sui dati di addestramento. Solo così si può valutare se la musica protetta è coinvolta e se è necessaria una licenza. Anche senza un effetto diretto, la sentenza invia un segnale su come i tribunali potrebbero classificare casi simili in futuro.