Dopo anni di inerzia nei confronti del potere delle aziende tecnologiche, gli Usa potrebbero essere a una svolta: il senatore repubblicano Josh Hawley e il senatore democratico Richard Blumenthal hanno avanzato una proposta di modifica della sezione 230 del Communications Decency Act, affinché le aziende possano essere ritenute responsabili per la generazione di contenuti dannosi creati con l’intelligenza artificiale generativa.
La proposta ha riacceso il dibattito sia sul ruolo delle aziende tecnologiche nell’affrontare i contenuti dannosi generati dall’intelligenza artificiale sia sul futuro della Section 230. Ma cosa prevede e quale potrebbe essere il suo impatto sul settore tecnologico?
Analizziamo da vicino la questione e il contesto in cui si inserisce.
Il Communications Decency Act e la sezione 230
Si racconta che in California, nel 1956, un librario vendette un libretto erotico a due agenti sotto copertura. Denunciato per diffusione di materiale osceno, e portato in giudizio, la sua difesa fu quella di non conoscere né il libro né il suo contenuto, poiché nel suo negozio aveva centinaia di libri ed era ignaro del contenuto di molti di essi, ma di essere unicamente responsabile della vendita. La sua assoluzione sancì di fatto un principio: chi distribuisce contenuti, non è responsabile dei contenuti stessi, perché in questo caso si sarebbe violato il primo emendamento della Costituzione americana, che stabilisce la libertà di parola e di stampa, oltre ad arrecare un grave danno all’indotto dell’editoria.
Il Communications Decency Act (Legge sulla decenza delle Comunicazioni), noto anche come Titolo V del Telecommunications Act del 1996, emanato dagli Stati Uniti per limitare “oscenità, indecenza o nudità” su tutti i metodi di trasmissione, compreso il mondo Internet, riafferma di fatto questo principio nella sua sezione 230. Tale sezione, nota come “porto sicuro”, prevede che “nessun fornitore e nessun utilizzatore di servizi Internet può essere considerato responsabile, come editore o autore, di una qualsiasi informazione fornita da terzi”. Pertanto, un ISP non può essere considerato legalmente responsabile per danni causati da coloro che utilizzano tale servizio, e quindi piattaforme quali Twitter, Meta o WhatsApp non possono essere ad esempio considerate responsabili della pubblicazione, di materiale diffamatorio da parte di utenti che utilizzano i loro servizi.
Sono in molti a concordare che la sezione 230 è stato “il regalo dell’America alle Big Tech” (“le 26 parole che hanno creato internet”, secondo un libro di Jeff Kosseff) e su di essa molte di loro hanno costruito la propria fortuna. Oltre alla non responsabilità degli ISP, la sezione attribuisce loro anche ampia discrezionalità su come moderare post e contenuti.
Il disegno di legge di Hawley e Blumenthal
Il “No Section 230 Immunity for AI Act” proposto dai due senatori americani prevede di privare le aziende di AI generativa dell’immunità introdotta dalla disposizione 230 in caso di cause civili o azioni penali legate all’uso dell’AI generativa, e la possibilità per i cittadini di citare in giudizio tali aziende per presunti danni causati dagli algoritmi di AI.
Del resto il 16 maggio, lo stesso Samuel Altman, CEO di OpenAI, la società che ha sviluppato ChaptGPT, in una audizione al Senato per discutere la governance dell’ AI generativa, ha ribadito come allo sviluppo di una nuova tecnologia debba corrispondere la nascita di una nuova regolamentazione, e pertanto la necessità di regole certe per il suo settore, e si è detto disponibile a collaborare con i legislatori, sostenendo che “le norme saranno fondamentali per mitigare i rischi di modelli sempre più potenti contro minacce alla società”, quali la disinformazione, le fake news o la manipolazione degli utenti.
Il senatore Hawley ha descritto la proposta di legge come un atto che “costringe gli sviluppatori di algoritmi di AI ad assumersi la responsabilità delle decisioni” quando sviluppano tali prodotti, e ha definito l’iniziativa come “un primo passo” nella direzione di definire regole chiare per l’AI e per la sua governance.
Il senatore Blumenthal ha dichiarato che “quando queste nuove tecnologie danneggiano persone innocenti, le aziende devono essere ritenute responsabili. Le vittime meritano un giorno in tribunale e questa proposta bipartisan lo renderà possibile”.
Il futuro della sezione 230
La domanda su cui si gioca il futuro della sezione 230, questione del resto affrontata non solo negli Stati Uniti ma dibattuta anche in molti altri paesi, tra cui l’Italia, è se gli Internet Provider e le piattaforme in genere siano da considerarsi dei semplici aggregatori di contenuti oppure degli editori. Nel primo caso, esse sarebbero considerate alla stregua del libraio californiano, ovvero dei semplici venditori che non possono essere ritenuti legalmente responsabili dei contenuti, a meno che il contenuto illecito non si deduca in maniera esplicita; nel secondo caso, sono invece considerati responsabili dei contenuti stessi e sottoposti alle norme applicabili.
Ottenere la cancellazione o la modifica della sezione 230 non sarà facile. Da tempo la questione è in discussione negli Stati Uniti: Donald Trump ne aveva chiesto più volte l’abrogazione, ma il suo ultimo tentativo, poco prima di lasciare la presidenza degli Stati Uniti, non ha trovato l’approvazione del Congresso. L’attuale presidente americano Joe Biden, prima ancora di essere eletto, si era pronunciato a favore di una modifica. Negli ultimi anni sono stati presentati molti disegni di legge per modificare o abrogare la sezione 230, ma senza successo.
Conclusioni
Alcuni esperti ritengono che abrogare la 230, e considerare responsabili gli sviluppatori di algoritmi di intelligenza artificiale provocherà di una serie infinita di cause legali (ad esempio se una persone ritiene di aver subito un danno come conseguenza di una risposta di un chatbot), il che avrebbe un impatto devastante sul business dell’AI. È difficile pensare che le grandi Big Tech, quasi tutte americane, accettino di buon grado una tale modifica, con il rischio di ritrovarsi invischiate in un numero indefinito di cause legali dagli esiti incerti.
L’ attuale supporto bipartisan alla proposta indica però una potenziale svolta dopo anni di stallo degli sforzi legislativi statunitensi che hanno coinvolto il settore tecnologico.