Nel 2024 la parola d’ordine sarà responsabilità. E verrebbe da dire finalmente. La responsabilità è lo spartiacque che segnerà l’abisso tra un cittadino consapevole e un consumatore passivo.
Il monito, parlando di intelligenza artificiale, è arrivato sia dal Presidente della Repubblica, Sergio Mattarella, nel discorso a reti unificate di fine anno, sia da Papa Francesco. E chi frequenta le chiese di provincia, sa benissimo che anche il parroco del più piccolo e disabitato borgo è stato invitato a fare lo stesso durante le omelie di fine anno.
Responsabilità di chi produce contenuti, responsabilità di chi li diffonde, responsabilità di chi li ospita, responsabilità di chi li viola o contraffà, ma anche responsabilità di chi li utilizza o semplicemente ne viene in contatto.
AI, spunti di riflessione
Come sottolineato dal Presidente Mattarella, e riportato tra gli altri anche dal Corriere della Sera, “l’intelligenza artificiale che si autoalimenta, sta generando un progresso inarrestabile. Destinato a modificare profondamente le nostre abitudini professionali, sociali, relazionali. Ci troviamo nel mezzo di quello che verrà ricordato come il grande balzo storico dell’inizio del terzo millennio. Dobbiamo fare in modo che la rivoluzione che stiamo vivendo resti umana”. Il Papa dal canto suo, come si legge tra gli altri anche sul Sole 24 Ore, ha invitato a pregare insieme affinché “queste nuove tecnologie siano al servizio della famiglia umana e aiutino a costruire percorsi di fraternità”.
Per dirla alla Umberto Eco, potremmo trovarci ancora una volta di fronte allo spartiacque generazionale tra apocalittici e integrati. Ma non è così. Questa volta nessuno mette in dubbio l’utilità della tecnologia in campo scientifico, medico, nel settore dell’automotive, nel campo della sicurezza nazionale e infrastrutturale e così via.
Anzi, il Presidente Mattarella e Papa Francesco fanno bene a sottolineare l’indiscutibile centralità che le tecnologie hanno nelle nostre vite. Il loro monito ci spinge a riflettere su tre caratteristiche che lo sviluppo, ma soprattutto l’uso delle tecnologie, dovrebbe sempre tenere presente; si tratta di tre parole chiave che, a mio avviso, racchiudono anzitutto un imperativo morale: antropocentrismo, autenticità e responsabilità.
Fa bene il Presidente della Repubblica a richiamare l’attenzione sul grande balzo storico del terzo millennio, e quindi non è più rinviabile una presa di coscienza collettiva. Sono temi che, personalmente, ho sempre ritenuto essenziali anche per la tenuta democratica del Paese: nel 2018, facendomi promotore della proposta di legge per la reintroduzione dell’educazione civica obbligatoria e curricolare a scuola (poi legge 92/2019), condivisi con i colleghi parlamentari di tutti gli schieramenti la necessità che, nelle linee guida, insieme allo studio della Costituzione e all’educazione ambientale, ci fosse proprio l’educazione alla cittadinanza digitale, nel segno della conoscenza, consapevolezza e responsabilità. Fin da bambini.
Obiettivo: concretezza
La stessa Unione europea, con l’adozione di Regolamenti e Direttive sempre più incentrate sulla tutela dell’utente anche online, ha avvertito l’urgenza di una revisione sistemica delle regole che disciplinano lo sviluppo dell’ecosistema digitale.
Il tanto ricercato “level playing field”, quelle sempre auspicate pari condizioni in grado di ridurre l’asimmetria normativa e regolamentare fra vecchi e nuovi media, si sta facendo strada ed è anche questo un processo, fortunatamente, non più arrestabile o procrastinabile. Il vero nodo, ora, è la messa a terra delle disposizioni, la loro concreta attuazione, ossia l’enforcement.
Il ruolo di Agcom
Su questo versante l’Agcom rappresenta un presidio consolidato e in continuo aggiornamento sull’effettivo rispetto delle regole, anche nel digitale. Regolamentazione, vigilanza e monitoraggio, infatti, sono i tre capisaldi dell’attività dell’Autorità per le Garanzie nelle Comunicazioni che si occupa al tempo stesso di assicurare la corretta competizione degli operatori sul mercato e tutelare le libertà fondamentali degli utenti.
Con la recente designazione a Digital Services Coordinator (avvenuta il 13 novembre 2023 con la legge 159/23 di conversione del decreto legge 123/23 “Dl Caivano”), ossia il soggetto responsabile di tutte le questioni relative alla vigilanza e all’applicazione del regolamento sui servizi digitali (DSA), all’Autorità è stato conferito uno strumento in più per la regolazione delle piattaforme digitali sia quale coordinatore delle Autorità nazionali (a vario titolo competenti), sia per quanto attiene i rapporti con i DSC degli altri Paesi membri e la Commissione europea. Proprio su quest’ultimo aspetto è interessante sottolineare che il DSA, pur avendo tenuto fermo il principio del “Paese di stabilimento” ossia il paese in cui la piattaforma è stabilita e alla cui giurisdizione debba rifarsi in termini di vigilanza e applicazione del Regolamento stesso, abbia consolidato il ruolo dello stato membro di destinazione dei servizi offerti dalla piattaforma, aumentando considerevolmente le tutele per l’utente che fruisce del servizio in base alle normative dello stato in cui lui stesso è ubicato.
Si tratta di un preciso e prezioso rafforzamento di competenze esercitate nei confronti dell’ecosistema digitale che si pongono, per certi versi, sulla scia di attività già poste in essere dall’Autorità, quali la tutela del diritto d’autore e dei diritti connessi, il divieto di pubblicità di gioco d’azzardo, gli indici di ascolto, la rimozione di contenuti nocivi sulle piattaforme di condivisione video e, non da ultimo, il secondary ticketing.
Il secondary ticketing e l’esenzione di responsabilità
Proprio quest’ultimo ambito di intervento dell’Autorità è utile a mio avviso per fare chiarezza su quello che mi auguro possa rappresentare il vero e proprio cambio di paradigma di cui accennavo all’inizio dell’articolo, circa la responsabilità delle piattaforme. Mi riferisco in particolar modo alla sentenza n. 10510/23 adottata dal Consiglio di Stato il 5 dicembre 2023, sul ricorso in appello proposto da una nota società interessata dalle sanzioni dell’Autorità in tema di secondary ticketing, quale esempio virtuoso dell’enforcement delle disposizioni regolamentari.
Con questa sentenza, infatti, il Consiglio di Stato ha accertato la legittimità della sanzione di Agcom da 3,7 milioni di euro a una delle maggiori piattaforme di secondary ticketing, ossia l’attività con finalità commerciali consistente nella vendita, a prezzi maggiorati, di biglietti per eventi dal vivo effettuata su canali non autorizzati, da parte di soggetti diversi da quelli autorizzati. Tale attività è vietata in Italia ai sensi dell’articolo 1, comma 545, della legge 11 dicembre 2016, n. 232.
La figura dell’hosting: cosa dicono le norme
La sentenza, infatti, ha puntualmente spiegato che la società non si limita a effettuare una mera intermediazione tra domanda e offerta, ma sussistono piuttosto tutti gli elementi per qualificare il soggetto come “hosting attivo”.
Infatti, la giurisprudenza europea, in relazione alla figura dell’hosting, nel corso del tempo, ha affinato la distinzione tra “hosting provider passivo” ossia un soggetto che non conosce né controlla le informazioni trasmesse o memorizzate dagli utenti che si servono dei loro servizi e “hosting provider attivo” che, come in questo caso, prestano attività non solo di mera fornitura del servizio di memorizzazione in modo tecnico e automatico, ma piuttosto riguardano servizi che hanno ad oggetto anche i contenuti.
Per definire tali differenze di inquadramento della figura dell’hosting la Corte di Giustizia ha individuato i c.d. “indici di interferenza” al ricorrere dei quali l’hosting è dunque da considerarsi attivo. In questo caso, la presenza di attività finalizzate all’indicizzazione dei contenuti, all’organizzazione degli stessi e alla relativa aggregazione da parte della piattaforma ha portato il Collegio a confermare quanto sostenuto da Agcom ossia che la società (a differenza di quanto affermato dalla stessa) non poteva godere dell’esenzione di responsabilità sui contenuti che viene invece riconosciuta agli hosting passivi.
La Corte ha confermato quanto rilevato dall’Autorità ossia che la società svolgeva un ruolo attivo e finalizzato alla vendita, non limitandosi a porre in connessione venditori e acquirenti, ma intervenendo in tutte le fasi della transazione commerciale, contribuendo anche alla definizione del prezzo.
Si tratta di una sentenza che, da un lato, spiana la strada alla conferma di tutte le altre sanzioni comminate alla stessa società negli ultimi 4 anni e, dall’altro, conferma la bontà dell’operato dell’Agcom nella vigilanza sui servizi digitali, che viene si rafforzata dalla nomina a DSC ma che, come evidente, vede l’Autorità giocare un ruolo da protagonista oramai da diversi anni.
L’intelligenza artificiale e il diritto d’autore
Il concetto di responsabilità chiama in causa tutti. La causa intentata dal New York Times a Open AI e a Microsoft per violazione del diritto d’autore, evidenzia come l’editore lamenti come i propri contenuti sarebbero stati utilizzati per fornire risposte errate, generando quelle “allucinazioni” che rappresentano l’attuale problema di affidabilità dei sistemi di AI generativa.
Sono quindi in gioco due aspetti cardine del copyright: il diritto morale e il diritto patrimoniale del titolare delle opere. Sul primo punto, la recente proposta di Regolamento europeo sulla AI cerca di dare una risposta ponendo obblighi di trasparenza ai sistemi di AI generativa tra i quali rivelare che il contenuto è stato generato da un’AI, progettare il modello in modo da impedire la creazione di contenuti illegali e, infine, pubblicare riepiloghi dei dati con diritti d’autore utilizzati per l’addestramento. Trasparenza e responsabilità.
Il caso Balocco: la responsabilità di comunicare, ma anche di saper leggere
Uno dei casi mediatici del 2023 (con strascichi pesanti sul 2024) è la sanzione di oltre un milione alle società riconducibili a Chiara Ferragni e di 420 mila euro a Balocco per pratica commerciale scorretta. La scorrettezza del messaggio, in contrasto col Codice del consumo, consisterebbe nella correlazione, dimostratasi non veritiera, tra la vendita del prodotto sponsorizzato dall’influencer e l’ammontare della donazione benefica. La multa fa notizia, indigna, rivela il trucco ma è una toppa.
L’importanza di distinguere contenuti e pubblicità
Il problema è a monte: il cittadino/consumatore è stato indotto a un acquisto che altrimenti non avrebbe fatto perché il messaggio pubblicitario – nell’era dei social media e degli influencer – ha subito sempre più un’ibridazione. Distinguere efficacemente cosa sia un contenuto da cosa sia una pubblicità è quasi impossibile anche perché, rispetto a quanto avviene nella Tv tradizionale, non ci sono regole puntuali che disciplinano la comunicazione commerciale.
È per questo motivo che Agcom, il 13 luglio scorso ha avviato la Consultazione pubblica (delibera 178/23/CONS) per disciplinare il comportamento dei creator che si rivolgono al pubblico italiano. E questo tutelerà in primo luogo gli stessi influencer. Secondo l’Autorità questi soggetti devono seguire le regole previste dal Testo unico sui media audiovisivi in materia, oltre che di comunicazioni commerciali, anche di informazione, tutela del diritto d’autore, tutela dei diritti fondamentali della persona, dei minori e dei valori dello sport. Un bit di responsabilità, si spera, questa vicenda dovrebbe portarla anche in carico ai cittadini: bisogna imparare a sapere “leggere la Rete”, dove non è tutto oro quel che luccica e dove servono strumenti per decriptare i messaggi che ci vengono proposti, siano essi vere e proprie truffe o semplicemente informazioni imparziali o fuorvianti.
La responsabilità delle piattaforme
Il 2023 ci consegna alcune sentenze sui cui riflettere e da cui partire per nuove regolamentazioni. Agcom recentemente ha sanzionato Google Ireland Ltd. Per 2.250.000 euro, Twitch Interactive Germany GmbH per 900.000 euro e Meta Platforms Ireland Limited Ltd. per 5.850.000 euro, per la violazione del divieto di pubblicità del gioco d’azzardo ai sensi dell’articolo 9 del decreto-legge n. 87 del 12 luglio 2018 convertito in legge 96 del 9 agosto 2018 (“Decreto Dignità”). Le decisioni sono state assunte con le delibere nn. 317/23/CONS e 318/23/CONS.
A seguito delle numerose segnalazioni pervenute all’Autorità, sono stati avviati procedimenti che hanno accertato la presenza di oltre 80 canali YouTube e Twitch contenenti più di 20.000 video, nonché di 18 account (5 su Instagram e 13 su Facebook) e 32 contenuti “sponsorizzati” che pubblicizzavano slot-machine, gioco d’azzardo, scommesse sportive e gratta e vinci.
In tutti i procedimenti, le società sono state ritenute responsabili in quanto titolari del mezzo di diffusione dei video pubblicati da soggetti terzi e con i quali avevano specifici contratti di partnership commerciale. Sulla base dell’intervento dell’Autorità, i contenuti illeciti sono stati rimossi; inoltre, è stato ordinato alle piattaforme di rimuovere e impedire il caricamento da parte di quei soggetti di analoghi video violativi, in attuazione dell’articolo 6, comma 1, lett. b) del Regolamento per i Servizi Digitali (DSA).
Con la Delibera n. 316/23/CONS l’Autorità ha, invece, archiviato il procedimento neiconfronti di TikTok Technology Ltd., avendo rilevato l’assenza di un rapportocontrattuale con i 30 content creator che hanno effettuato il caricamento dei contenuticontestati.
Conclusioni
La panoramica, estremamente stringata, presentata in questo articolo ci permette di affermare che, rispetto al 2000, anno di adozione della direttiva e-commerce, i soggetti su cui ricade oggi il DSA sono profondamente mutati.
La pervasività dei servizi digitali nella società contemporanea, la loro spiccata connotazione sovranazionale e, non da ultimo, la loro capacità di competere sui più disparati settori, dall’informazione, al commercio, dall’intrattenimento, all’educazione, senza dimenticare la componente relazionale e comunicativa, impongono una presa di coscienza collettiva che rimetta al centro l’uomo e una sua formazione civica e digitale all’utilizzo critico e consapevole delle tecnologie e che al tempo stesso responsabilizzi le piattaforme indirizzandole con regole certe a comportamenti responsabili e diligenti al fine di realizzare un ambiente online sicuro, prevedibile e affidabile.
È necessario che le regole evolvano in coerenza con le tecnologie come affermato dalla Cassazione nella sentenza n. 39763 del 2021 infatti “l’evoluzione tecnologica e la capacità di elaborare in modo automatizzato quelle informazioni e quei dati, che prima erano solo “ospitati”, temporaneamente o definitivamente sui server, comporta che oggi essi siano “elaborati” per trarre ulteriori profitti e, quindi, risulta oggi non più predicabile alcuna presunzione di “ignoranza” sui contenuti ospitati per conto terzi”.