Quali saranno nei prossimi anni i risvolti applicativi di ChatGPT è oggi difficile saperlo con prevedibile certezza rispetto alle possibili congetture futuristiche che sta generando una così dirompente tecnologia emergente nella prassi. Sta di fatto che l’innegabile rapidità evolutiva riscontrabile nel progressivo perfezionamento di tale bot conversazionale – in grado, tra l’altro, di saper elaborare “testi convincenti simili a quelli umani”, scrivere saggi e opere letterarie su qualsiasi tema, creare stringe di codice, effettuare analisi e previsioni, esprimere consigli personalizzati, ecc. – comincia ad alimentare un crescente interesse sulle prospettive concretamente configurabili nel lungo termine, alla ricerca di efficaci soluzioni regolatorie funzionali all’auto-conservazione di un solido approccio umano-centrico nell’implementazione dei relativi sistemi di IA generativa.
L’IA generativa è ora alla portata di tutti: impariamo a usarla con giudizio
Le linee guida della Partnership on AI (PAI)
In questo senso può essere, ad esempio, interpretata la recente iniziativa (resa nota anche da un articolo a cura del MIT – Technology Review) promossa dalla Partnership on AI (PAI) – alla quale hanno aderito un gruppo di 10 aziende del settore ICT (Adobe, BBC, Bumble, CBC/Radio Canada, D-ID, Respeecher, Synthesia, TikTok e Witness, oltre alla stessa OpenAI, creatrice del modello linguistico ottimizzato ChatGPT) – per sensibilizzare – in un’ottica di spontanea auto-regolamentazione – il volontario recepimento di una serie di nuove linee guida (“Responsible Practices for Synthetic Media”) sull’uso responsabile dei contenuti generati dall’Intelligenza Artificiale, nell’ambito di una cornice valoriale di principi comuni sinergicamente adottati mediante la condivisione di buone pratiche, suscettibili di costante monitoraggio e periodico aggiornamento – con revisione almeno annuale del documento, tenuto conto della celere mutevolezza del settore tecnologico – come richiesto dal comitato direttivo per l’integrità dei media e dell’IA costituito in seno alla predetta organizzazione.
Si tratta di mere raccomandazioni non vincolanti (che presentano un esteso ambito di applicazione riferibile a qualsivoglia possibile impatto applicativo delle tecnologie emergenti sulla vita delle persone), rivolte alla generalità dei creatori, sviluppatori, editori, distributori di cd. “media sintetici” (comprensivi di produttori B2B, artisti, influencer, attivisti, ecc.), con l’intento di minimizzare il rischio di danni cagionati agli utenti.
L’IA da prototipo elitario a strumento di massa
Nel merito delle ragioni sottese all’opportunità di formalizzare il citato catalogo di linee guida, l’ente promotore evidenzia, infatti, a sostegno di una simile scelta, la crescita esponenziale di contenuti generati dall’Intelligenza Artificiale che, da prototipo elitario di sperimentazione progettuale in uno stato embrionale di iniziale ricerca scientifica, si è presto trasformato in strumento generalista di massa pervasivamente diffuso su scala planetaria, divenendo una tecnologia sempre più “accessibile” e “sofistica”, al punto da giustificare la necessità di una regolamentazione adeguata per consentire la fruizione effettiva degli innegabili benefici offerti ma, al contempo, contenere, appunto, i possibili pregiudizi ivi causati.
Le linee guida elaborate dalla Partnership on AI (PAI) rappresentano il risultato finale di un processo di implementazione “multistakeholder” attivato nel corso degli ultimi anni a livello globale che ha coinvolto rappresentanti della società civile, dell’industria, dei media e del settore accademico, nell’ottica di promuovere la contaminazione sinergica di eterogenei interessi e variegati contributi con l’intento di facilitare la comprensione dei “media sintetici” in modo consapevole e responsabile, ricercando, in via preventiva, un consenso trasversale sulle migliori pratiche esistenti anche come stimolo proattivo alla concreta elaborazione di efficaci politiche pubbliche adottate in materia soprattutto nell’ambito di un’auspicabile armonizzazione internazionale di graduale convergenza regolatoria.
Un comportamento etico e responsabile contro gli abusi dei media “sintetici”
In particolare, le linee guida PAI sollecitano l’adozione di un comportamento etico e responsabile diretto a ridurre i potenziali danni derivanti dagli abusi dei “media sintetici”, aumentando la trasparenza e l’accessibilità per migliorare la percezione generale degli utenti sull’esistenza di pericoli rilevabili nello sviluppo delle nuove tecnologie, anche mediante la corretta e completa indicazione di apposite “etichette di metadati” incorporate nella codificazione tracciabile delle relative applicazioni, senza alimentare il rischio di ingannevoli manipolazioni e/o lesioni alla privacy individuale.
La nozione di “media sintetici” contemplata dalle menzionate linee guida comprende, indistintamente, l’insieme dei “contenuti visivi, uditivi o multimodali che sono stati generati o modificati tramite l’intelligenza artificiale”, da cui, pertanto, discendono significative insidie per le persone, non sempre in grado di riconoscerne la natura “artefatta” che si nasconde dietro la sembianza iperrealistica delle risorse create, sebbene provenienti all’apparenza da fonte autentiche.
Per tale ragione, si rende necessario salvaguardare un uso etico e responsabile dei “media sintetici”, grazie alla realizzazione di soluzioni tecniche avanzate progettate, unitamente alla pianificazione di “iniziative di alfabetizzazione mediatica”, senz’altro utili per “contrastare gli usi dannosi dei media sintetici”, quando, ben oltre gli ambiti applicativi inoffensivi ammessi nel settore dell’arte, del divertimento, della formazione e della ricerca, vengono in rilievo “aree grigie”, da cui possono derivare una serie di danni rientranti nel complessivo elenco, meramente esemplificato e non tassativo, all’uopo indicato dall’Appendice B.
Più precisamente, nel novero dei “potenziali danni dei media sintetici” che le linee guida si prefiggono di ridurre e contrastare rientrano, ad esempio, i casi di accesso a informazioni non autorizzate, comunicazioni ingannevoli e moleste, frodi, disinformazione, bullismo, abusi sessuali e su minori, spionaggio, manipolazione politica ed elettorale dell’opinione pubblica, diffamazione reputazionale, estorsione e ricatto.
La self regulation prova a colmare il gap normativo
Pur in considerazione del complesso e oltremodo problematico scenario delineato, le soluzioni però tardano a concretizzarsi, al netto dei primi timidi tentativi di “self regulation” evidenziati.
Nel settore pubblico, infatti, si continua a riscontrare una preoccupante “stasi” a causa di un prolungato vuoto normativo che impedisce (o comunque rallenta) l’emanazione di una regolamentazione innovativa di natura cogente, nonché coerente con la rapida evoluzione dell’IA generativa: emblematica, in tal senso, la ridondante “Carta dei diritti dell’IA” recentemente adottata dalla Casa Bianca con l’ennesimo – discutibile – approccio “soft”, come mero documento programmatico “doppione” nella riproduzione dei principi ivi formalizzati; per non parlare del profondo “impasse” in cui si trova la riforma euro-unitaria in materia di Intelligenza Artificiale tra criticità e ritardi che potrebbero vanificare gli obiettivi enunciati “sulla carta” dal legislatore europeo nella proposta di “AI Act”, rendendoli obsolescenti e superati già nel momento stesso della formale entrata in vigore del definitivo testo normativo approvato, il cui iter procedurale è ancora destinato a perdurare nel tempo.
In controtendenza al prospettato deficit pubblico, si registra, invece, un proficuo fermento di autodeterminazione regolatoria nel settore privato per cercare di governare con maggiore efficacia lo sviluppo evolutivo dell’IA generativa.
Conclusioni
Provando a colmare (invano?) l’inerzia dei decisori politici, con un apprezzabile spirito di intraprendenza congiuntamente manifestato – talvolta – in via diretta dalle aziende tecnologiche e dalla società civile, si intende, così, salvaguardare l’approccio umano-centrico nella gestione delle relative applicazioni e, al contempo, prevenire il rischio di utilizzi lesivi, dannosi e illeciti derivanti dalla diffusione delle tecnologie emergenti (si pensi, ad esempio, alle implicazioni negative sulla violazione del copyright, sempre più eroso dalla crescita esponenziale del fenomeno di “AIgiarismo” o “plagio assistito dall’IA”).
In realtà, al netto delle buone intenzioni comunque apprezzabili, sembra davvero difficile pensare di poter risolvere i problemi regolatori esistenti mediante il semplice ricorso a linee guida non vincolanti adottate su base volontaria dal settore privato.