Guardando a questo 2022, il mondo dell’Intelligenza Artificiale (IA) ha occupato una figura centrale nel dibattito pubblico di governi e paese, e nell’agenda di organizzazioni internazionali.
Non c’è dubbio cha la definizione del rapporto tra umanità e tecnologia continui ad essere un imperativo, e il 2022 ha visto il dibattito riscaldarsi ulteriormente con il caso Lemoine, che ha portato alla ribalta il tema (e l’ossessione) per l’antropomorfizzazione dell’IA.
Se fosse vero che c’è una intelligenza artificiale senziente
Antropomorfizzazione dell’IA: il caso Lemoine
A giugno, Blake Lemoine, ex ingegnere di Google, ha annunciato che il modello linguistico sviluppato dall’azienda, chiamato LaMDa (Language Model for dialogue Applications), fosse senziente, cioè dotato di sensibilità. Lemoine inizia ad interagire con il modello per testare che il chatbot non usasse linguaggio offensivo e/o discriminatorio; tuttavia, nel corso dell’esperimento, Lemoine comincia ad avere conversazioni con LaMDa nelle quali il modello è in grado di definirsi ‘consapevole della [propria] esistenza’ e del mondo che lo circonda. LaMDa afferma di apprezzare ‘le tematiche della giustizia e dell’ingiustizia, la compassione e Dio, la redenzione e lo spirito di sacrificio per una causa superiore’ e di riuscire a provare felicità e tristezza, auto caratterizzandosi come senziente, e dunque umano.[1] In quanto tale, Lemoine ha chiesto che LaMDa fosse rappresentato da un avvocato e che dunque ottenesse tutti i diritti che ogni persona ha. Il caso ha subito suscitato un ulteriore indagine condotta dalla squadra Google, formata da entrambi eticisti e ingegneri, i quali hanno confermato che LaMDa non è una tecnologia senziente ma bensí un prodotto sofisticato in grado di produrre risultati accattivanti in quanto in grado di imitare il discorso e la creatività umana grazie al volume dei dati, l’architettura e le tecniche che sono state adottate.
Riteniamo che sia importante analizzare questo caso perché in molti modi è emblematico dello sviluppo del discorso che circonda l’intelligenza artificiale e in particolare il tema della sua cornice etica. Sistemi di AI che ´parrot´ quel che gli umani danno loro in pasto possono, ovviamente, rispondere con terminologia simile a quella degli umani. Ma il parroting, ovvero il ripetere simile ad un pappagallo, non è di certo umano di per sé ed è pertanto essenziale che i programmatori e coloro che usano questi programmi – a partire dai chatbots – comunichino agli utenti che si tratta di macchine e non di esseri umani in ‘colloquio’ con loro.
Il caos di Blake Lemoine ha poi mostrato il paradigma IA degli ultimi anni e come ci siamo mossi da concettualizzare IA come automazione, a come tecnologia in grado di risolvere e semplificare molti dei problemi che enti ed organizzazioni hanno, sia in termini di efficienza che di accuratezza, fino a giungere al discorso per la quale l’intelligenza artificiale riuscirà a prendere totale controllo sulla vita degli individui e, in puro spirito da Terminator o iRobot, annientare la vita come percepita finora.
Intelligenza artificiale, ecco l’etica che serve all’innovazione
Definire in modo costruttivo la relazione tra umanità e tecnologia: le iniziative che andranno a frutto nel 2023
Vedere questa evoluzione è ai nostri occhi preoccupante, in quanto distoglie l’attenzione da quello che secondo noi è il vero prossimo passo da affrontare, cioè l’opportunità unica e irripetibile di definire in modo costruttivo la relazione tra umanità e tecnologia e il ruolo che l’etica ha nel mondo digitale.
Disturbati dal rumore cacofonico del dibattito distopico, rischiamo di dimenticarci di alcune delle iniziative che sono state già messe in moto e che procederanno nel corso del 2023.
Tra queste notiamo naturalmente l’iniziativa del Consiglio dell’Unione Europea sull’Intelligenza Artificiale che ha connesso policy makers ed esperti di varie discipline, l’AI Coordination Group, per discutere e proporre raccomandazioni sull’intersezione tra IA e protezione dei dati, privacy, diritti umani, democrazia e il principio della legalità nel suo insieme. L’iniziativa ha già emesso studi in grado di aiutare cittadini ed enti verso un’adozione più responsabile della tecnologia, così come a definire in modo chiaro e profondo come l’IA si può collocare all’interno delle nostre relazioni sociali.[2]
A livello internazionale, le Nazioni Unite nel settembre 2020 hanno pubblicato ‘Our Common Agenda’[3] il quale propone un Global Digital Compact entro il settembre 2024. Il Global Digital Compact delineerà principi comuni per il raggiungimento di uno futuro digitale aperto, libero, e sicuro. Tra le dimensioni di studio che il documento andrà a snocciolare, problemi relativi alla connessione digitale, la frammentazione dell’internet, la libertà e scelta relativa al trattamento dei dati personali, così come l’applicazione dei diritti umanitari nel mondo digitale, e il problema della disinformazione sono al centro della discussione.
In aggiunta, notiamo iniziative alternative a quelle di stampo istituzionale, quali l’Alliance for Universal Digital Rights (AUDRi)[4], nata dalla collaborazione di due organizzazioni internazionali, Equality Now e Women Leading in AI, che esplora modi per creare un futuro nel quale tutti possano beneficiare in egual modo al diritto alla sicurezza, libertà, e dignità nel mondo digitale. L’iniziativa ha i meriti di aver distillato una prima dichiarazione dei diritti digitali, i cui principi fondamentali sono: l’uguaglianza, sicurezza e privacy, il diritto all’autodeterminazione digitale, accesso al mondo digitale, libertà di espressione e associazione, accesso a network e tecnologie resilienti e sicure, diversità linguistica e culturale, diritto al beneficiare di normative e standard per governare in modo responsabile le tecnologie, e il diritto ad una governance multilaterale e democratica.
Le difficoltà a regolamentare il mondo digitale
Queste sono alcune delle iniziative precursorie volte a risolvere la sfida che ad oggi ci troviamo a fronteggiare, cioè la difficoltà a regolamentare il mondo digitale e il mondo dell’Intelligenza Artificiale. Mentre queste normative proseguono nel loro iter, vediamo un approccio inconsistente e inefficiente che rischia di aumentare l’impatto su gruppi e comunità meno privilegiate, andando dunque ad avere un impatto profondo sulla salvaguardia dei diritti umani. La salvaguardia di questi rimane azione centrale per molte istituzioni, basti pensare al Summit del 29 Settembre 2021, nel quale l’Unione Europea e gli Stati Uniti hanno confermato la loro innegabile opposizione all’uso dell’intelligenza artificiale per scopi che possano in qualsiasi modo infringere ai diritti umani, incluso l’uso della tecnologia a scopi di ‘social scoring’, che può essere in grado di limitare i diritti fondamentali alla libertà. Entrambi i Paesi si riferiscono all’approccio della Cina che rimane diametralmente opposto agli sforzi Europei e Americani di disegnare e applicare un approccio orizzontale all’AI governance, volto per l’appunto a sviluppare un panorama sostenibile per il futuro dell’umanità.[5]
Sia la proposta dell’IA dell’Unione Europea che quella americana centrata sull´algorithmic accountability, vanno in questa direzione e hanno come focus l’aderenza ai valori fondamentali delle nostre società.
Per un’IA etica ed ecologica serve l’impegno di tutti: la strada per una leadership Ue
Conclusioni
Guardando avanti a questo 2023, fiduciose delle iniziative che già sono state improntate, ricordiamo le parole del Presidente dello Stato, Sergio Mattarella, a dicembre del 2021, “le regole non possono essere dettate dalle tecnologie: è imperativo lavorare per applicazioni che abbiano ben chiaro che è la persona – con i suoi inalienabili diritti e le imprescindibile tutele di questi diritti – a essere il punto di riferimento centrale”.[6]
Per ottenere questo approccio più costruttivo e antropocentrico riteniamo che il 2023 deve vedere cambiamenti su 3 fronti principali:
- Mediatico: fonti di informazioni comuni e accessibili devono cambiare il discorso relativo al mondo digitale, incluso l’intersezione tra umanità e intelligenza artificiale, al fine di proiettare una visione più costruttiva e veritiera sullo sviluppo tecnologico e il ruolo che il digitale ha nelle nostre vite.
- Educativo: forum ed enti in grado di insegnare che cosa si intenda per interagire con il mondo digitale, specialmente quando siamo di fronte ad un artefatto in grado di mimare il linguaggio umano. Di conseguenza, educarci a vivere nella comunità, definendo le responsabilità politiche e sociali che abbiamo verso il digitale.
- Normativo: Istituzioni nazionali, regionali, e internazionali che regolamentino il mondo digitale al fine di istituire un circuito di responsabilità, accountability, doveri e diritti.
Ora più che mai il 2023 può essere l’anno dove questo nuovo approccio può essere instaurato, dove queste iniziative possono avere il tempo e lo spazio di crescere e, insieme – nella collettività digitale che rappresentiamo – riuscire a cogliere con determinazione e coscienza l’opportunità di maturare un rapporto etico, sicuro, e sostenibile con il mondo digitale.
Note
- https://www.corriere.it/tecnologia/22_giugno_14/lamda-google-italiano-medium-1baf7b5c-eb42-11ec-b89b-6b199698064a.shtml?refresh_ce ↑
- https://www.coe.int/en/web/artificial-intelligence/work-in-progress#05EN ↑
- https://www.un.org/en/content/common-agenda-report/assets/pdf/Common_Agenda_Report_English.pdf ↑
- https://audri.org/ ↑
- https://www-brookings-edu.cdn.ampproject.org/c/s/www.brookings.edu/research/the-geopolitics-of-ai-and-the-rise-of-digital-sovereignty/?amp ↑
- https://it.notizie.yahoo.com/mattarella-svolta-digitale-cambia-volto-144525096.html?guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAAAMxAwZoRt7jcIIpeDOfJxpMEGoB82zjNIUrKM_0j-cujgngw_6CrbeZkLlOUkkTdL0BWz0IiaVXaYIEZT7bmXouGk9siZYg1oEbUx82xQ6tN36A1o21M6u0nrIpmoqRZBP4PAqKXdXC9mX_1z-MFPm03z7dWGlvOF_dG9QbmHEN ↑