intelligenza artificiale

Non lasciamo l’AI nelle mani di big tech e tecnocrati

Una lunga lista di nomi noti, tra cui Elon Musk e Steve Wozniak (uno dei fondatori Apple), chiedono di sospendere per sei mesi gli ulteriori sviluppi dei sistemi di intelligenza artificiale del tipo di ChatGpt. Ma la chiave di volta sarebbe un impegno pubblico più chiaro e più forte in merito

Pubblicato il 30 Mar 2023

Vittorio Bertola

Research & Innovation Engineer presso Open-Xchange

intelligenza artificiale

Nel mondo dei tecnologi e dei futurologi, sta facendo molto discutere la lettera aperta con cui una lunga lista di nomi noti, tra cui Elon Musk e Steve Wozniak (uno dei fondatori Apple), chiedono di sospendere per sei mesi gli ulteriori sviluppi dei sistemi di intelligenza artificiale (IA) basati su “large language models”, per definirne le regole e le condizioni.

Alcuni sostengono da tempo che lo sviluppo dei modelli di IA sia fuori controllo e dunque pericoloso; altri invece vedono queste preoccupazioni come paranoia, come il risultato di una mentalità conservatrice o come un tentativo di fermare la concorrenza da parte di chi è rimasto indietro.

Intelligenza artificiale - Unomattina - 27/03/2023

Intelligenza artificiale - Unomattina - 27/03/2023

Guarda questo video su YouTube

Urgente una discussione pubblica su AI

Da parte nostra, abbiamo una certezza: è perlomeno urgente una discussione pubblica e collettiva di questo problema, tale da generare successivamente azioni ai massimi livelli politici e industriali. Esistono effettivamente alcuni aspetti dell’intelligenza artificiale il cui futuro sviluppo è ignoto e imprevedibile; possiamo discutere all’infinito se la capacità di questi sistemi di sviluppare quello che sembra un pensiero indipendente sia reale o finta, sia comparabile a quella umana o ne sia soltanto una brutta presa in giro, ma resta il fatto che un sistema del genere, se collegato ad apparati con capacità di agire e persino offendere nel mondo reale, potrebbe compiere azioni pericolose o comunque inaccettabili.

Già oggi esistono robot dalla forza e dalla velocità ben superiore a quella degli esseri umani; armi sofisticate e completamente automatiche che decidono da sole quando sparare e a chi; ma anche, più semplicemente, sistemi informatici che decidono delle vite degli esseri umani su argomenti fondamentali come ricevere o meno un prestito, venire assunti o meno, ricevere un trattamento sanitario oppure no. Nel momento in cui questi sistemi dovessero venire pilotati da un’entità di IA, senza che siano state adottate le opportune precauzioni, il rischio di risultati imprevisti e dannosi è molto alto.

I modelli di IA, infatti, presentano attualmente un grave problema di trasparenza. Per costruzione, essi rappresentano una “scatola nera” il cui funzionamento ci è sconosciuto e, allo stato della tecnologia, non è spiegabile. Se un agente di polizia decide di arrestare qualcuno in flagrante ritenendolo colpevole di un reato, egli è in grado di spiegare su che basi abbia preso questa decisione; un eventuale agente di polizia automatizzato, in questo momento, non sarebbe in grado di dire altro che “secondo i miei calcoli è giusto arrestarlo”. Il ragionamento con cui l’IA arriva alla decisione è potenzialmente simile a quello umano, in quanto appreso studiando il comportamento degli umani stessi; ma, a differenza dell’umano, l’IA non dispone di una serie di concetti morali, legali e sociali che le permettano di descrivere a parole i passi di quel ragionamento.

Inoltre, l’essere umano dispone di idee astratte che lo spingono talvolta ad adottare comportamenti non logici e non direttamente coerenti con le premesse; concetti come pietà, empatia, etica. L’IA come oggi costruita non ha pietà, non ha empatia e non ha etica; compie sempre l’azione matematicamente più logica e più simile ai comportamenti passati, anche qualora questa azione fosse spietata, indifferente e immorale.

L’IA riproduce infatti nel modo migliore i comportamenti e le mentalità dei casi e dei testi utilizzati per creare il suo modello. Per questo, il corpus da cui l’IA ha imparato ne determinerà la visione del mondo, senza però la capacità di adeguarla, migliorarla e cambiarla che hanno gli esseri umani. Una IA “cresciuta” in una società razzista sarà razzista; più sottilmente, una IA cresciuta in una società in cui le donne a parità di mansione guadagnano meno degli uomini continuerà a riprodurre quella caratteristica, assegnando regolarmente alle donne uno stipendio più basso. Non disponiamo attualmente di metodi chiari e provati per far evolvere una IA, spiegandole che certe cose che ha imparato vanno disimparate e sostituite con altre; rischiamo dunque di propagare all’infinito le mancanze della società da cui veniamo.

La privatizzazione della conoscenza

Le IA portano poi alla nostra società una minaccia di tipo completamente diverso: la centralizzazione e la privatizzazione della conoscenza umana, necessaria per qualsiasi tipo di attività lavorativa e ricreativa. È ormai chiaro a tutti il rischio che le IA pongono alla sopravvivenza di tutte le professioni, anche quelle artistiche o di concetto: già ora, e se no a breve, le IA saranno migliori degli esseri umani in quasi qualunque attività che richieda un pensiero.

Persino le professioni creative sono a rischio, a maggior ragione in un contesto storico in cui esse sono spesso state già “algoritmizzate” e ridotte a una pura ottimizzazione del risultato commerciale a svantaggio dell’originalità; nell’ottimizzazione tramite la ripetizione di un modello, nulla può battere una IA.

Il rischio è dunque che l’intera umanità dipenda per tutto da una manciata di società private, quelle che hanno avuto la capacità e la fortuna di essere le prime a sviluppare modelli avanzati. C’è una possibile analogia: per quasi tutte le attività umane, specialmente produttive, ormai è necessaria l’elettricità. Alcune attività si possono anche svolgere senza di essa, ma in tal caso risulteranno generalmente meno efficienti e meno competitive in termini economici. Per questo motivo, la produzione e la fornitura di elettricità è supervisionata dai governi e regolata in modo stretto, e in molte nazioni essa è direttamente gestita dalla collettività.

La stessa cosa accade con il pensiero e con la conoscenza da cui esso parte; anche essi sono materie prime fondamentali per quasi qualunque attività. Dunque, se un privato dispone di un sistema che è capace di imparare, processare e pensare mille o un milione di volte meglio di qualunque umano, sarà difficile farne a meno; e questo privato, specialmente in assenza di concorrenza, disporrà di un potere di vita o di morte sulle attività di tutto il mondo. In parte, abbiamo già visto questo fenomeno con le grandi big tech, che hanno preso il controllo quasi insostituibile di molti servizi digitali su scala globale, realizzando un oligopolio che le ha portate a raggiungere dimensioni e ricchezza mai viste prima; l’IA potrebbe replicare questa centralizzazione su scala ancora più grande.

Quali soluzioni

Esistono soluzioni per questi problemi, e quali? Certamente c’è molto da discutere; eppure, alcuni principi di base sono già chiari. Abbiamo bisogno di trasparenza, per poterci accertare che le IA non manipolino e non danneggino la società e gli esseri umani, e per poter pretendere che eventuali modi di comportamento non in linea con i valori e con le leggi vengano immediatamente modificati. Abbiamo bisogno di accessibilità; servono garanzie sul fatto che chiunque possa accedere ai modelli IA a condizioni ragionevoli o meglio ancora gratuitamente, magari perché si riconosce che queste risorse avranno un peso talmente fondamentale nella società del futuro che non possono che essere gestite nell’ottica dell’interesse collettivo, o addirittura di proprietà pubblica.

Del resto, i vari ChatGPT, Bard, Midjourney, DALL-E e simili non potrebbero esistere senza l’enorme quantità di conoscenze e di opere umane che i loro produttori gli hanno dato in pasto come materiale di apprendimento, generalmente senza riconoscere alcun diritto d’autore e alcun compenso a chi originariamente le ha prodotte.

Ma allora, è davvero eticamente giusto che queste aziende possano prendere il sapere e l’arte di tutta l’umanità, inserirlo nei loro sistemi e poi marchiare come proprietà privata il risultato? Non sarebbe più corretto che il modello neurale risultante fosse interamente pubblico, liberamente utilizzabile da chiunque per qualunque scopo lecito, eventualmente riconoscendo a queste aziende soltanto un equo compenso per l’utilizzo delle capacità computazionali?

Abbiamo già sottomano un modello di successo: il software libero, o open source, è stato sviluppato in modo collaborativo senza essere controllato da nessuno, e questo non ha affatto distrutto l’industria dell’informatica, ma ha anzi permesso lo sviluppo di Internet come la conosciamo oggi. Adattare i principi del software e dei contenuti liberi ai modelli di intelligenza artificiale sarebbe rapido e si baserebbe su una esperienza ormai trentennale e di successo.

E’ possibile farlo. Ad esempio l’anno scorso più di mille ricercatori internazionali hanno collaborato a un modello linguistico di grandi dimensioni chiamato Bloom, in grado di creare testi in lingue come il francese, lo spagnolo e l’arabo.

Tuttavia, è necessario fare presto; se permetteremo la nascita di nuovi oligopoli basati sul controllo della conoscenza e dell’intelligenza su scala globale, il rischio è che il resto dell’umanità ne diventi dipendente per sempre.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3