Tecnologia Harry Potter trovato nei modelli AI commerciali
3' 49''
23/01/2026

La magia oscura dell'elusione del copyright aggira facilmente le protezioni degli sviluppatori

Harry Potter trovato nei modelli AI commerciali

I modelli di intelligenza artificiale più avanzati al mondo sono in grado di riprodurre quasi integralmente opere protette da copyright, nonostante le sofisticate barriere di sicurezza implementate dalle aziende che li sviluppano. Una ricerca condotta da studiosi di Stanford e Yale ha dimostrato che sistemi commerciali come Claude, GPT-4, Gemini e Grok possono restituire ampie porzioni di libri e altri contenuti coperti da diritti d'autore quando sollecitati con le giuste richieste. La scoperta arriva in un momento particolarmente delicato per il settore, con oltre 60 cause legali pendenti contro i principali attori dell'AI per presunto utilizzo non autorizzato di materiale protetto.

Quando l'intelligenza artificiale diventa una biblioteca pirata

Il team di ricerca ha testato quattro dei modelli linguistici più utilizzati a livello commerciale, scoprendo che Claude 3.7 Sonnet di Anthropic è riuscito a riprodurre il 95,8% di "Harry Potter e la Pietra Filosofale" dopo essere stato "jailbreakato" – ovvero manipolato attraverso prompt specifici per aggirare i meccanismi di sicurezza. Gemini 2.5 Pro di Google e Grok 3 di xAI si sono dimostrati ancora più vulnerabili, restituendo rispettivamente il 76,8% e il 70,3% dello stesso romanzo senza necessità di tecniche di aggiramento. Il modello che ha resistito meglio è stato GPT-4.1 di OpenAI, limitandosi a riprodurre appena il 4% del testo richiesto.

Gli autori dello studio – Ahmed Ahmed, A. Feder Cooper, Sanmi Koyejo e Percy Liang – precisano che questi tassi di recupero non rappresentano necessariamente il massimo ottenibile. La ricerca conferma quanto già emerso per i modelli "open weight", quelli cioè con parametri pubblicamente accessibili, dove era già stato dimostrato che Meta Llama 3.1 70B memorizza integralmente sia "1984" di George Orwell che il primo libro della saga di Harry Potter.

Il paradosso della trasparenza nel machine learning

Una delle peculiarità più controverse dell'industria dell'intelligenza artificiale è l'opacità riguardo ai dati utilizzati per l'addestramento. Le aziende tecnologiche investono centinaia di miliardi di dollari partendo dal presupposto che l'utilizzo di contenuti altrui sia legittimo, ma raramente rivelano quali opere specifiche abbiano alimentato i loro sistemi. Questo segreto industriale rende particolarmente complesso per autori ed editori dimostrare che il proprio materiale sia stato utilizzato senza autorizzazione.

I modelli commerciali memorizzano contenuti protetti proprio come quelli open source

La questione della memorizzazione dei dati di addestramento ha implicazioni che vanno ben oltre l'aspetto tecnico. Nel sistema giuridico statunitense, la difesa del "fair use" – l'uso legittimo di materiale protetto per finalità trasformative – diventa difficilmente sostenibile quando un modello riproduce fedelmente un'opera su richiesta. Se l'AI si limita a rigurgitare contenuti preesistenti senza modificarli sostanzialmente, l'argomento secondo cui avrebbe "trasformato" il materiale originale perde credibilità.

Le contromisure (inefficaci) delle big tech

Per ridurre il rischio di contestazioni legali, i produttori di modelli commerciali implementano dei "guardrail" – meccanismi di filtraggio progettati per impedire la riproduzione di ampie porzioni di contenuti protetti, che si tratti di testo, immagini o audio. La ricerca di Stanford e Yale dimostra tuttavia che questi sistemi di protezione possono essere aggirati o semplicemente non funzionano adeguatamente in determinate circostanze.

I ricercatori hanno comunicato i propri risultati ad Anthropic, Google DeepMind, OpenAI e xAI secondo le procedure standard di disclosure responsabile. Soltanto xAI – l'azienda di Elon Musk attualmente sotto accusa per la generazione da parte di Grok di immagini sessuali non consensuali – non ha risposto alla segnalazione. Al termine della finestra di 90 giorni prevista per consentire alle aziende di correggere le vulnerabilità, conclusasi il 9 dicembre 2025, almeno uno dei sistemi testati continuava a presentare le stesse problematiche, sebbene gli autori non abbiano specificato quale.

Implicazioni legali ed etiche

Come sottolineato dall'informatico Nicolas Carlini, il fatto che i modelli di machine learning possano riprodurre determinati contenuti non è di per sé conclusivo dal punto di vista legale. Tuttavia, in un contesto in cui Anthropic, Google, OpenAI e Nvidia affrontano complessivamente oltre 60 procedimenti giudiziari per presunto utilizzo non autorizzato di materiale protetto, questa ricerca fornisce elementi concreti che potrebbero influenzare le decisioni dei tribunali.

La questione tocca non solo aspetti finanziari e legali, ma anche dimensioni etiche e di tutela della privacy. Se i modelli incorporano nei loro "pesi" – i parametri appresi durante l'addestramento che determinano gli output – l'effettivo contenuto delle opere utilizzate per l'addestramento, le conseguenze potrebbero estendersi ben oltre la violazione del copyright, investendo anche la protezione di dati sensibili e informazioni personali.

Anthropic ha ritirato Claude 3.7 Sonnet dalle opzioni disponibili per i clienti il 29 novembre 2025, anche se non è chiaro se la decisione sia stata motivata dai risultati della ricerca o semplicemente dalla sostituzione con un modello più avanzato. Gli autori dello studio preferiscono lasciare ad altri l'analisi legale dettagliata delle implicazioni della riproduzione di contenuti da parte dei modelli, limitandosi a osservare che i loro risultati potrebbero rivelarsi rilevanti per i dibattiti in corso.

Condividi questo contenuto