L’avvento dei sistemi di intelligenza artificiale generativa ha acceso un conflitto senza precedenti nel mondo del copyright.
Da un lato, le aziende tecnologiche che hanno addestrato i propri modelli su vastissime quantità di dati disponibili online. Dall’altro, autori, editori, fotografi e creativi che temono l’utilizzo non autorizzato delle proprie opere. La sfida più nota, anche se non unica, è quella che vede contrapposti il New York Times e OpenAI.
È interessante ricostruire la vicenda dalla sua origine fino ad oggi, accennando a casi simili, con una panoramica sui diversi approcci normativi negli Stati Uniti, in Europa e in Asia.
Indice degli argomenti
L’origine del caso New York Times vs OpenAI
La controversia ha avuto inizio nel 2023, quando il New York Times ha modificato i propri termini d’uso e impedito a GPTBot[1], il crawler di OpenAI, di accedere ai contenuti del sito. A dicembre 2023, dopo mesi di trattative infruttuose, il Times ha avviato una causa contro OpenAI e Microsoft, accusandole di aver utilizzato milioni di articoli protetti da copyright per addestrare i modelli linguistici di ChatGPT e Copilot senza alcuna autorizzazione o compensazione.
Essere DPO nel 2025: quali sono le competenze e i requisiti necessari
OpenAI si è difesa invocando il principio del fair use, tipico del diritto statunitense, sostenendo che l’utilizzo fosse trasformativo e non lesivo per il mercato di riferimento del Times. Inoltre, ha accusato il giornale di aver costruito prove ad arte, forzando il sistema a restituire testi identici agli articoli originali.
Sviluppi legali: la decisione del 2025
Il 26 marzo 2025, la battaglia legale tra il New York Times e OpenAI ha compiuto un passo decisivo. Il giudice federale Sidney Stein, della Corte Distrettuale di Manhattan, ha respinto la richiesta di archiviazione avanzata da OpenAI e Microsoft, ritenendo che le accuse centrali di violazione del copyright fossero sufficientemente fondate da meritare un esame completo in sede giudiziaria.
Il giudice ha riconosciuto che si tratta di una questione nuova e complessa, che solleva interrogativi fondamentali sul rapporto tra IA e diritti d’autore, e che non può essere liquidata nella fase preliminare del procedimento. La decisione apre così la strada a una fase istruttoria ed eventualmente a un processo vero e proprio. Salvo che le parti si accordino per una transazione extragiudiziale, la causa potrebbe trasformarsi nel primo grande caso statunitense a definire se e in che misura l’utilizzo di contenuti protetti per l’addestramento di modelli IA costituisca una violazione del copyright.
Il copyright in altri casi simili nel mondo
La causa del New York Times contro OpenAI si inserisce in un contesto globale di crescente conflittualità tra creatori di contenuti e sviluppatori di intelligenza artificiale. Dal 2023, numerosi attori in diversi settori – dai media tradizionali agli autori, artisti visivi, fotografi e community online – hanno intrapreso azioni legali contro altre importanti aziende che operano nel settore IA, accusandole di aver utilizzato opere protette da copyright senza autorizzazione per l’addestramento dei propri modelli. Dalle testate giornalistiche statunitensi, canadesi e indiane fino a Getty Images, emerge un fronte comune che denuncia una sistematica appropriazione di contenuti creativi, chiedendo tutele giuridiche più chiare e compensazioni adeguate.
Accordi extragiudiziali: quando l’IA paga per i contenuti
Accanto alle battaglie legali, molte aziende dell’IA generativa stanno optando per accordi extragiudiziali con editori e creatori di contenuti, nel tentativo di legittimare l’uso dei dati e rafforzare la propria reputazione. OpenAI ha siglato intese con realtà come Associated Press, The Guardian, AFP e altri gruppi media, offrendo compensi e visibilità in cambio dell’accesso ai contenuti.
Anche altre big tech che operano nel settore hanno avviato collaborazioni con importanti agenzie di stampa, mentre startup IA emergenti stanno sperimentando modelli di revenue sharing con editori europei e statunitensi. Questi accordi delineano la nascita di un vero e proprio mercato dei dati editoriali, sempre più centrale per lo sviluppo dei modelli di intelligenza artificiale.
Il quadro normativo negli Stati Uniti
Negli Stati Uniti, l’utilizzo di opere protette per addestrare modelli di intelligenza artificiale è generalmente giustificato attraverso il principio del fair use, che consente alcuni usi non autorizzati a fini trasformativi, educativi o di ricerca. Tuttavia, l’applicazione di questo principio all’addestramento IA è ancora oggetto di dibattito. I tribunali devono infatti valutare caso per caso, considerando elementi come la natura trasformativa dell’uso, l’impatto sul mercato dell’opera originale e la quantità di materiale utilizzato. La giurisprudenza americana non ha ancora fornito indicazioni chiare, ma la causa attualmente in corso tra New York Times e OpenAI potrebbe definire i primi orientamenti concreti.
L’approccio europeo al copyright nell’era dell’IA generativa
L’Europa ha adottato un approccio più strutturato nel tentativo di bilanciare lo sviluppo dell’intelligenza artificiale con la tutela dei diritti dei creatori. Da un lato, vengono previste eccezioni che permettono l’utilizzo dei contenuti per finalità di ricerca; dall’altro, si riconosce ai titolari dei diritti la possibilità di escludere esplicitamente l’uso delle proprie opere a fini commerciali. Inoltre, le aziende che sviluppano modelli generativi sono chiamate a garantire maggiore trasparenza sull’origine dei dati utilizzati. L’obiettivo è costruire un ecosistema in cui l’innovazione tecnologica possa avanzare nel rispetto dei contenuti originali, offrendo ai creatori strumenti concreti per monitorare e tutelare le proprie opere.
Tra apertura e restrizioni, l’approccio asiatico all’intelligenza artificiale
In Asia, l’approccio all’intelligenza artificiale e alla questione del copyright varia notevolmente da paese a paese. Il Giappone e Singapore si mostrano particolarmente favorevoli allo sviluppo dell’IA, consentendo l’utilizzo di opere protette per l’addestramento dei modelli senza particolari restrizioni.
La Cina, invece, pur non avendo regole chiare sull’addestramento, esercita un controllo rigido sugli output generati e sulla responsabilità delle piattaforme, soprattutto per finalità di ordine pubblico. In generale, molti paesi asiatici puntano a favorire la crescita tecnologica, riservando per ora un’attenzione più contenuta alla protezione dei diritti degli autori.
Il futuro del copyright nell’era dell’IA generativa
Il caso New York Times vs OpenAI è destinato a segnare uno spartiacque. Per la prima volta un tribunale potrebbe stabilire se l’addestramento IA su opere protette sia una violazione del diritto d’autore. Il risultato avrà impatti enormi non solo per OpenAI, ma per l’intero settore della IA generativa.
Nel frattempo, la tendenza sembra chiara: sempre più aziende IA preferiscono concludere accordi volontari con editori e creatori. Parallelamente, cresce l’interesse dei legislatori e giurisprudenziale per stabilire regole certe e sostenibili.
La sfida sarà trovare un equilibrio tra la promozione dell’innovazione e il sacrificio dei diritti di chi crea contenuti.
Note
[1] Definito da OpenAI (https://platform.openai.com/docs/bots) come seuge: “GPTBot viene utilizzato per rendere i nostri modelli di base di IA generativa più utili e sicuri. Viene utilizzato per eseguire la scansione dei contenuti che possono essere utilizzati per addestrare i nostri modelli di base di IA generativa. Impedire l’utilizzo di GPTBot indica che il contenuto di un sito non deve essere utilizzato per addestrare i modelli di base di IA generativa.”.