l’approfondimento

Come gestire i rischi dell’IA? Viene ora la sfida più grande



Indirizzo copiato

L’intelligenza artificiale sfida i metodi di valutazione tradizionali e solleva questioni complesse sulla regolamentazione. Mentre l’innovazione accelera, è fondamentale trovare un equilibrio che promuova la sicurezza e il benessere sociale senza soffocare il progresso

Pubblicato il 22 mag 2024

Barbara Calderini

Legal Specialist – Data Protection Officer



L’intelligenza artificiale ci deve una spiegazione

L’avvento dei più recenti sistemi di intelligenza artificiale sta mettendo alla prova i tradizionali metodi di valutazione, costringendo ricercatori, imprese ed enti pubblici a confrontarsi con la sfida di avvalersi di questa tecnologia in continua evoluzione.

What if Dario Amodei Is Right About A.I.?

Regolamentare e gestire l’IA, una sfida difficile ma necessaria

Anche la questione della regolamentazione dell’IA è al centro di un dibattito acceso e complesso. Da un lato, una regolamentazione eccessiva potrebbe soffocare l’innovazione e ostacolare il progresso tecnologico. Dall’altro lato, meccanismi di mera auto-regolamentazione potrebbero non essere sufficienti a garantire la tutela dei diritti e la sicurezza delle persone, data la natura pervasiva e il potenziale impatto dell’IA.

Regolamentare e gestire l’IA è una sfida difficile ma necessaria.

È importante trovare quel punto di equilibrio in grado di promuovere l’innovazione e proteggere i diritti e il benessere delle persone.

Le leggi e i regolamenti devono essere sufficientemente flessibili da adattarsi al rapido cambiamento tecnologico, ma anche sufficientemente robusti da garantire che l’IA sia utilizzata in modo sicuro e socialmente sostenibile. Così come i metodi di valutazione dei modelli di IA necessitano di essere progettati e implementati per intercettare e prevenire i rischi estremi derivanti dall’uso improprio delle applicazioni tecnologiche di ultima generazione.

In questo approfondimento esploreremo la stretta interconnessione tra la crescente diffusione dell’IA, la necessità di sviluppare standard di valutazione più robusti e universalmente accettati e l’aumento delle normative riguardanti l’intelligenza artificiale.

Favorire una governance efficace e flessibile che promuova l’innovazione responsabile dell’IA diventa la sfida chiave. Allo stesso modo la definizione di standard di valutazione solidi sarà cruciale per sfruttare appieno il potenziale dell’IA a beneficio dell’intera società.

Navigare le complessità della governance e della responsabilità dell’intelligenza artificiale

Nel periodo compreso tra il 2016 e il 2023, oltre 33 nazioni hanno adottato almeno una legge. La maggior parte di queste azioni legislative si sono verificate negli Stati Uniti e in Europa, con un totale di 148 leggi relative all’IA adottate durante questo intervallo di tempo.

Leggi espansive, volte a migliorare le capacità di intelligenza artificiale di un paese, e leggi invece restrittive, che pongono vincoli sull’applicazione e sull’utilizzo dell’IA.

La tendenza globale spinge senza dubbio verso il tipo di legislazione più restrittiva.

Canada, Cina, Unione Europea, Giappone, Corea, Singapore, Regno Unito e Stati Uniti, le giurisdizioni stanno affrontando la regolamentazione dell’IA con approcci diversi: leggi complete, legislazioni mirate per specifici casi d’uso, strategie nazionali sull’IA e l’adozione di linee guida e standard volontari. Non esiste un modello standard per regolare l’IA, sebbene emergano diverse aree di coesione nel tentativo di mitigare i potenziali danni dell’IA: dai principi definiti dall’OCSE e dal G20, alla scelta di un approccio basato sul rischio. Dall’integrazione con altre politiche digitali come la sicurezza informatica e la privacy dei dati, all’utilizzo di specifici sandbox normativi per favorire la partecipazione attiva del settore privato nello sviluppo di regole per un’IA sicura e responsabile; fino agli impegni di collaborazione Internazionale per affrontare i rischi della nuova IA generativa e promuovere interoperabilità e standard condivisi.

L’urgenza di nuovi sistemi di verifica e validazione

Proprio l’emergere di nuovi modelli di IA, alimentati da investimenti massicci da parte di aziende come Microsoft, Google e Amazon, ha reso obsoleti molti parametri di valutazione precedentemente utilizzati. Le difficoltà nel valutare l’efficacia, la precisione e la sicurezza di questi modelli stanno spingendo sia il mondo accademico che quello aziendale a sviluppare nuovi sistemi di verifica e validazione.

Affrontare le sfide imposte da queste metodologie richiede un impegno continuo nella ricerca e nello sviluppo di criteri più efficaci, oltre alla collaborazione tra la comunità scientifica, le organizzazioni e i regolatori per garantire l’adozione di pratiche di valutazione dei rischi solide e affidabili.

  • La mancanza di accesso ai dati e alle informazioni,
  • la difficile comprensione dei processi in base ai quali viene assunta una determinata “decisione” e dunque un certo “comportamento”, specie per i sistemi avanzati come le reti neurali profonde,
  • gli aspetti etici e valutativi soggettivi che possono variare tra diverse culture e contesti,
  • la manutenzione e l’aggiornamento dei sistemi,
  • l‘opacità, l’imprevedibilità, la vulnerabilità e la fallacia degli algoritmi,

sono tutte caratteristiche dei sistemi di apprendimento automatico che continueranno a rendere complessa la mappatura, la misurazione e la mitigazione dei nuovi rischi.

Ed è peraltro palpabile la tensione a cui sono sottoposti gli attuali modelli di responsabilità, con particolare riferimento all’IA, specie generativa.

La dottrina rimane ancora divisa tra chi accoglie la possibilità di ridefinire lo status privatistico degli agenti digitali capaci di elaborare decisioni autonome e chi lo esclude tassativamente.

“Il successo nella creazione di un’IA efficace potrebbe essere il più grande evento nella storia della nostra civiltà. O il peggio. Semplicemente non lo sappiamo. Quindi non possiamo sapere se saremo infinitamente aiutati dall’intelligenza artificiale, o ignorati da essa e messi da parte, o plausibilmente distrutti da essa”. Stephen Hawking

La sfida che si presenta sarà a dir poco complessa, ardua.

La materia è in costante evoluzione e la frontiera che si pone dinanzi a ricercatori e istituzioni è mobile, proiettata costantemente in avanti. Metodologie e norme eccessivamente dettagliate o prescrittive saranno destinate ad essere velocemente obsolete.

Un po’ come scrivere sulla sabbia.

E allora?

Dubbi e timori nella conversazione pubblica sull’intelligenza artificiale

È evidente che lo sviluppo di strumenti con un potenziale così vasto non può affidarsi esclusivamente all’etica e alla responsabilità degli attori individuali nel campo dell’intelligenza artificiale.

La conversazione pubblica sull’intelligenza artificiale è, non a caso, attraversata da forte preoccupazione, a tratti paura isterica e paranoia.

Peraltro il dubbio che la tecnologia si ribelli è profondamente codificato nella nostra cultura, da tempo. Dal Mito di Prometeo, al potente computer Alpha 60 del film Agente Lemmy Caution: missione Alphaville, ai film di James Cameron, passando ovviamente per Mary Shelley e il suo romanzo Frankenstein.

Realizzare la promessa di un’IA responsabile si conferma una sfida di governance aperta a causa di numerosi fattori: molti sono culturali, altri socio-tecnici, giuridici ed organizzativi.

Il percorso che, dalla definizione di norme e quadri regolatori conduce all’allineamento degli obiettivi per un’ IA responsabile con altri incentivi organizzativi, è lungo e complesso; l’introduzione di strutture di governance e team di revisione, unitamente allo sviluppo di strumenti e processi per rendere operativi e attendibili gli obiettivi di IA responsabile ne costituiscono passaggi fondamentali.

Anticipare i rischi e i potenziali danni dell’IA sono i punti di mira da centrare.

Prospettive e sfide nella valutazione dell’IA: dai benchmark classici alle nuove frontiere

Gli sforzi per sviluppare criteri di valutazione adeguati non sono limitati solo al mondo accademico, ma coinvolgono anche governi e aziende private. Gli Stati Uniti e il Regno Unito hanno recentemente firmato un accordo bilaterale sulla sicurezza dell’intelligenza artificiale, riconoscendo la necessità di gestire i rischi derivanti dai rapidi progressi dell’IA.

A livello aziendale, ci si interroga su quali modelli utilizzare e quali siano i criteri migliori per la selezione di tali modelli.

Modelli di base: aperti o chiusi?

Attualmente, uno dei dibattiti più animati nel campo dell’intelligenza artificiale riguarda la questione se i modelli di base debbano essere aperti o chiusi. Alcuni sostengono con fervore che i modelli aperti siano pericolosi, mentre altri argomentano che tali modelli favoriscano l’innovazione. Un dato significativo è che nel 2023, i modelli di base aperti si sono dimostrati significativamente superiori rispetto a quelli con accesso parziale tramite API e quelli chiusi.

Ciò malgrado i modelli chiusi spesso si rivelino più performanti rispetto a quelli aperti su vari benchmark comunemente utilizzati.

L’auditing come meccanismo di governance

Diversi studi hanno indicato l’auditing come un promettente meccanismo di governance per garantire che i sistemi di intelligenza artificiale siano progettati e implementati in modi che si rivelino etici, compliant e tecnicamente solidi. Tuttavia, le attuali procedure e i migliori benchmark di valutazione per identificare comportamenti indesiderati si rivelano fortemente limitati, se non proprio inefficaci, qualora applicati in modo particolare ai sistemi di intelligenza artificiale generativa e dunque ai modelli di linguaggio di grandi dimensioni – LLM. Ovvero algoritmi di machine learning che generano dati sintetici che possono essere utilizzati in diversi contesti, come la generazione di immagini, testi o suoni.

Nonostante gli sforzi per sviluppare nuovi parametri di valutazione, persistono dunque sfide significative.

Benchmark pubblici e valutazione umana

La contaminazione dei dati di addestramento e dei test è una preoccupazione crescente, i benchmark pubblici sono spesso considerati troppo monolitici[1] per catturare appieno le esigenze delle aziende, mentre la manipolazione dei benchmark rimane un grosso problema: alcune aziende possono ottimizzare i propri modelli per ottenere risultati migliori nei benchmark pubblici, non riflettendo le prestazioni reali del modello in scenari del mondo reale.

La valutazione umana continua a essere considerata uno dei metodi più significativi per giudicare le prestazioni dei modelli di IA, soprattutto per compiti complessi che richiedono ragionamento, memorizzazione e comprensione delle sfumature del linguaggio.

I sistemi di valutazione olistica dei modelli linguistici (HLM)

Tra le nuove soluzioni progettate per la migliore valutazione dell’IA rientrano i sistemi di valutazione olistica dei modelli linguistici (HLM).

Questo approccio valuta una serie di criteri, tra cui il ragionamento, la memorizzazione e la suscettibilità alla disinformazione, per fornire una valutazione più completa delle capacità di un modello di intelligenza artificiale.

Altri metodi di valutazione

Altri metodi prendono in considerazione il cosiddetto Benchmark Massive Multitask Language Understanding (MM-LU), ovvero un benchmark che valuta i modelli su domande provenienti da 57 aree tematiche, fornendo aree di indagine più ampie e rappresentative.

A cui si aggiungono HumanEva, il benchmark che analizza l’abilità di codifica di un modello di intelligenza artificiale su 164 problemi di programmazione e Classifica LMSys, la classifica che consente agli utenti di personalizzare i test in base alle proprie esigenze specifiche, fornendo una valutazione più mirata delle capacità di un modello di intelligenza artificiale.

Alcune start-up, come Hugging Face, stanno cercando di affrontare le sfide legate alle applicazioni di IA fornendo classifiche che si basano sulle esigenze specifiche degli utenti anziché su un set fisso di domande.

La selezione dei modelli rimane un’arte che fonde scienza, design e conformità legale, richiedendo spesso lo sviluppo di metriche di valutazione più avanzate, la promozione della trasparenza e della collaborazione tra le parti interessate. Queste caratteristiche insieme a un approccio continuo e adattivo, saranno essenziali per garantire che l’analisi dell’intelligenza artificiale mantenga la sua utilità, significato e affidabilità nel tempo.

Rivoluzione AI: proiezioni esponenziali e punti di rottura nell’intervista di Dario Amodei

Nell’era dell’intelligenza artificiale, un discorso su tempo e potenza ci proietta in un mondo di continua accelerazione e cambiamento. È questa la sensazione che emerge dalla lunga intervista di Dario Amodei condotta da Ezra Klein del New York Times.

Amodei, ex capo del team di OpenAI, ora alla guida di Anthropic, altra società leader nel settore dell’intelligenza artificiale, descrive la sua visione del futuro come una corsa inarrestabile verso la potenza delle macchine intelligenti.

Questa crescita segue una curva esponenziale, di cui Claude 3 (con il rilascio di Claude 3 Opus, Anthropic sembrerebbe aver conquistato il titolo di primo sviluppatore di modelli AI a superare GPT-4), potrebbe rappresentare la fase più evoluta.

Amodei anticipa sviluppi nel prossimo futuro che potrebbero sembrare fantascientifici, ma che sarebbero in grado di avverarsi entro due anni, esortando ad affrontare le sfide che questa rapida evoluzione comporterà, compreso il modo in cui le società si adatteranno al cambiamento e i governi reagiranno al ritmo accelerato della tecnologia.

Il cuore del dibattito ruota attorno al concetto espresso dalle leggi di scala stando alle quali, all’aumentare della potenza di calcolo e dei dati utilizzati nei sistemi di intelligenza artificiale, aumenta in modo esponenziale la loro capacità e potenza. Questo fenomeno segue una sorta di crescita accelerata: inizialmente, i miglioramenti possono sembrare modesti, ma poi si verificano rapidamente progressi significativi.

Amodei suggerisce che questa crescita esponenziale continuerà nel prossimo futuro, portando a modelli di intelligenza artificiale sempre più potenti e avanzati. Proprio richiamandosi alle leggi di scala prevede un rapido aumento anche dei costi per l’addestramento dei grandi modelli linguistici nei prossimi anni. Attualmente, riferisce, questi modelli costano circa 100 milioni di dollari, ma presto il costo raggiungerà il miliardo di dollari: entro il 2025 e il 2026, i costi potrebbero salire fino a 5 o 10 miliardi di dollari.

Amodei crede che, se le previsioni sulle leggi di scala sono accurate, tra due o cinque anni i modelli di IA potrebbero diventare così potenti da non aver più bisogno del controllo umano. Egli non vede il rallentamento dello sviluppo dell’IA come una soluzione, ma piuttosto sottolinea l’importanza di ampliare la ricerca per garantire la sicurezza dei sistemi.

Allo stesso tempo evidenzia la responsabilità delle aziende di IA nel democratizzare il controllo sui sistemi centrali.

Per illustrare la sua prospettiva usa un’analogia efficace: i livelli di sicurezza biologica (ASL) nei laboratori di virologia. Attualmente, secondo il CEO di Anthropic, ci troviamo al livello ASL 2 (Artificial Superintelligence Level 2) nello sviluppo dell’IA. Tuttavia, il livello ASL 4, che sarebbe in grado di indicare un ipotetico livello di intelligenza artificiale che supera significativamente le capacità umane in tutte le aree cognitive e includerebbe “autonomia” e “persuasione“, potrebbe essere prossimo; molto più vicino di quanto si pensi.

Le previsioni allarmanti sulla autonomia dell’IA

E proprio riguardo all'”autonomia”, le previsioni di Amodei diventano allarmanti.

Diverse versioni dei modelli esistenti sono già molto vicine alla capacità di replicarsi e sopravvivere autonomamente.

La previsione di Amodei è audace: il futuro fantascientifico dell’IA potrebbe essere molto più vicino di quanto immaginiamo. Cita potenziali rischi, come l’uso dell’IA per sviluppare armi biologiche o per campagne di disinformazione statale, che potrebbero verificarsi già quest’anno o il prossimo.

Quando Klein gli chiede quanto tempo ci vorrà per raggiungere i maggiori livelli di minaccia, egli, continuando a pensare in modo esponenziale, conferma che il livello 4 di sviluppo dell’IA, caratterizzato dalla capacità dei sistemi di replicarsi ed auto-evolversi, potrebbe essere raggiunto tra il 2025 e il 2028, sollevando nuovi dilemmi di controllo e potenziali rischi esistenziali.

Nonostante le sfide, Amodei ritiene comunque che le opportunità offerte dall’IA superino ancora i rischi, soprattutto nel campo della medicina, dell’istruzione e dell’energia.

Oltre alla crescita tecnologica c’è inoltre una seconda frontiera da esplorare, non meno impegnativa: l’adozione sociale dell’IA.

L’adozione sociale dell’IA

Siamo pronti per la rivoluzione dell’IA? O dobbiamo prepararci a una corsa contro il tempo per adattarci supinamente a un mondo in rapida evoluzione?

Il CEO di Anthropic riflette sull’apparente divario tra l’accelerazione tecnologica e la lenta accettazione sociale di queste innovazioni.

Nel mondo dell’intelligenza artificiale, si delineano due prospettive: le capacità emergenti delle macchine e la loro integrazione nella vita quotidiana.

Dario Amodei offre un’analisi approfondita di entrambi gli scenari e delle sfide ad essi correlate.

La prima visione riguarda la creazione di “agenti” artificiali, capaci di svolgere compiti complessi come un ingegnere informatico junior o di gestire situazioni del mondo reale, come organizzare una festa di compleanno. Tuttavia, l’implementazione pratica di tali agenti è una sfida significativa. Sebbene i modelli di IA possano fornire risposte accurate a richieste testuali, trasformare queste risposte in azioni concrete nel mondo reale richiede ulteriori progressi tecnologici.

Inoltre, sorgono preoccupazioni sulla sicurezza e sulla controllabilità di tali sistemi, data la loro crescente potenza. Proprio la capacità di garantire la sicurezza e la responsabilità di questi agenti si rivela sin d’ora basilare per la loro accettazione e adozione su larga scala.

Inoltre, altre domande critiche emergono dagli scenari descritti e riguardano l’accessibilità dei sistemi di intelligenza artificiale.

Sebbene Amodei continui a vedere un’opportunità importante per la comunità open source e le startup nel trovare soluzioni economiche e flessibili, comprende altresì che l’aumento dei costi per addestrare i modelli di intelligenza artificiale potrebbe rendere l’accesso limitato alle sole grandi aziende o ai governi.

La formazione di un grande modello richiede risorse finanziarie considerevoli. Ma quanto esattamente? Le aziende di intelligenza artificiale di solito mantengono riservate le spese coinvolte nell’addestramento dei loro modelli.

Le frontiere dell’intelligenza artificiale: farmaceutica, persuasione e regolamentazione secondo Dario Amodei

Nel campo della ricerca farmaceutica, l’intelligenza artificiale promette di accelerare l’innovazione.

Dario Amodei, esortato da Klein, condivide la sua visione sull’impatto potenziale dell’IA in questo settore, evidenziando vantaggi e sfide. Egli riconosce la complessità e la durata del processo di scoperta dei farmaci, che richiede tempo e risorse considerevoli. Tuttavia, individua opportunità per l’IA nell’ottimizzazione di alcune fasi di questo processo. Ad esempio, l’IA potrebbe migliorare la selezione dei partecipanti agli studi clinici e supportare la progettazione e l’esecuzione degli stessi, riducendo tempi e costi.

Sottolinea che, malgrado queste prospettive richiedano tempo per essere pienamente realizzate, c’è un crescente interesse da parte delle aziende farmaceutiche nell’applicare l’IA a questi problemi.

L’entusiasmo però cala quando la conversazione tra Ezra Klein e Dario Amodei delinea un panorama inquietante e complesso dell’uso dell’intelligenza artificiale per la persuasione e la manipolazione delle opinioni. Amodei rivela i risultati di uno studio condotto da Anthropic che confronta l’efficacia persuasiva dell’IA rispetto agli esseri umani. L’obiettivo della ricerca era valutare se tali modelli potessero essere utilizzati per scopi di persuasione e analizzare le conseguenti implicazioni etiche e sociali.

Per condurre lo studio, riferisce Amodei, sono stati selezionati argomenti controversi ma non eccessivamente delicati, come la regolamentazione della colonizzazione spaziale. Sono state raccolte opinioni preliminari da parte dei partecipanti su tali temi. Successivamente, sia un essere umano che l’intelligenza artificiale sono stati incaricati di scrivere un articolo persuasivo di 250 parole su ciascun argomento. Infine, è stata valutata l’efficacia dell’IA e degli esseri umani nel cambiare le opinioni delle persone.

IA, persuasione e propaganda

I risultati hanno dimostrato che i modelli su larga scala, come Claude 3 Opus, sono stati potenti quasi quanto i team umani nell’influenzare le opinioni delle persone. Tuttavia, è emerso un problema significativo riguardo alla persuasione basata su menzogne: l’IA è risultata più persuasiva di quella umana quando gli è stato chiesto di mentire deliberatamente, suggerendo una potenziale preoccupazione riguardo all’etica e alla veridicità delle informazioni trasmesse.

La possibilità che l’IA possa essere utilizzata per cambiare le percezioni delle persone solleva quindi questioni profonde riguardo all’uso etico e responsabile di tali tecnologie. Mentre ci sono applicazioni positive, come il coaching o la terapia assistita, il rischio di abusi, in particolare nella propaganda politica e nella pubblicità ingannevole, è una preoccupazione reale e significativa. Inoltre, la capacità dell’IA di manipolare la verità solleva interrogativi sulla capacità degli individui di distinguere l’autenticità dalle menzogne e sulla protezione dai possibili danni.

Amodei riflettendo sulle sfide etiche poste dall’uso dell’IA per la persuasione e l’inganno, si spinge fino al punto di suggerire l’idea di utilizzare l’IA per contrastare l’effetto persuasivo della stessa e per rafforzare le capacità di ragionamento critico e di scetticismo delle persone.

La discussione tra Ezra Klein e Dario Amodei esplora anche la complessa questione dell’interpretabilità dei modelli di intelligenza artificiale, evidenziando ancora una volta le implicazioni etiche e competitive.

Amodei riconosce i notevoli progressi nell’interpretabilità dei modelli di IA. Sottolinea che, nonostante le sfide, esistono vie valide per affrontarle. Il suo lavoro su un Piano di Scaling Responsabile (RSP) si propone di stabilire linee guida per la sicurezza dei sistemi di IA, fornendo un quadro per una ricerca e uno sviluppo responsabili.

Quando Klein solleva la questione del coinvolgimento del governo nella regolamentazione e nel controllo dell’IA, discutendo opzioni come una regolamentazione più stretta, la supervisione governativa o persino la nazionalizzazione parziale delle tecnologie più pericolose, compreso lo sviluppo di modelli di base governativi, per un maggiore coinvolgimento nella definizione delle norme e dei protocolli, Amodei ammette la necessità di una maggiore partecipazione governativa nell’uso e nella messa a punto dei modelli di IA. Tuttavia, riconosce che la risposta su come affrontare tali rischi rimane ancora in gran parte un territorio inesplorato.

Dalla discussione emerge netta la necessità di un approccio multifattoriale che coinvolga sia il settore privato che quello pubblico, oltre alla società nel suo complesso.

Solo una ricerca e uno sviluppo responsabili, uniti a una regolamentazione equilibrata, potranno contribuire a plasmare un futuro in cui l’IA sia un motore di progresso e beneficio per l’umanità.

Preoccupa in tal senso la corsa globale verso l’IA nei confronti della quale Amodei richiama l’importanza di approcci proattivi orientati ai rischi specifici legati all’abuso dell’IA, come la manipolazione biologica e la creazione di armi, sollecitando il coinvolgimento attivo di coalizioni critiche e democratiche.

Ciò in modo particolare, con riferimento alla vulnerabilità della catena di approvvigionamento di chip e data center, che evidenziano la crescente dipendenza da tecnologie complesse e risorse limitate. Le implicazioni geopolitiche di questa dipendenza sono infatti significative, con Amodei che sottolinea l’importanza di garantire che le democrazie mantengano il controllo su tali tecnologie anziché consentire a regimi autoritari di dominare il settore.

La crisi potenziale nell’offerta di chip e potenza di calcolo nei prossimi anni rappresenterà un confronto significativo per l’industria e per i governi che, presto, potrebbero dover affrontare la necessità di regolamentare o coordinare la distribuzione di risorse cruciali per l’IA.

Il dialogo tra Ezra Klein e Dario Amodei incalza infine su tematiche di sostenibilità e impatto energetico e ambientale[2], oltre che sui temi relativi all’occupazione, all’efficienza e distribuzione delle risorse. Non solo, si estende invero anche a questioni legate alla proprietà intellettuale e ai dati di addestramento evidenziando pesanti dubbi sulla responsabilità, sulla giustizia e sulla distribuzione equa dei benefici derivanti dall’uso dell’IA.

Le raccomandazioni di lettura fornite in chiusura da Amodei: La realizzazione della bomba atomica di Richard Rhodes, La Distesa (serie) di James SA Corey e I cannoni di agosto di Barbara W. Tuchman, riflettono la necessaria consapevolezza dei precedenti storici e delle possibili implicazioni future dell’IA, sottolineando l’importanza di comprendere il contesto storico, sociale ed economico in cui questa tecnologia è destinata a svilupparsi.

Rapporto AI Index 2024: evoluzioni dell’IA

Molte delle questioni affrontate da Dario Amodei si ritrovano all’interno del nuovo rapporto Artificial Intelligence Index Report 2024 dell’Institute for Human-Centered Artificial Intelligence dell’Università di Stanford in California.

LAI Index di quest’anno, tracciando l’ascesa fulminea degli strumenti di intelligenza artificiale, testimonia l’importante crescita dell’intelligenza artificiale nel 2023. Il rapporto, lungo 393 pagine, offre un ampio spettro di informazioni sull’IA, includendo un capitolo ampliato sull‘intelligenza artificiale responsabile e nuovi capitoli su IA nella scienza e nella medicina, oltre alle consuete raccolte di ricerca e sviluppo, prestazioni tecniche, economia , istruzione, politica e governance, diversità e opinione pubblica.

Pubblicato il 15 aprile lo studio presenta una panoramica dettagliata dei recenti progressi e delle sfide emergenti nel campo dell’IA.

Secondo il rapporto, nel 2014 i migliori sistemi di IA non riuscivano a classificare le immagini a livello umano, avevano difficoltà con la comprensione del linguaggio e il ragionamento visivo, e non superavano i test di comprensione della lettura più elementari. Oggi, grazie a modelli avanzati come Gemini, GPT-4 e Claude-3, i computer sono diventati straordinariamente multimodali, capaci di elaborare testo, immagini e audio con un livello di precisione e comprensione che supera spesso quello umano.

“L’IA sta compiendo passi da gigante nel combinare diverse modalità di input e output, aprendo nuovi orizzonti nel campo della robotica e degli agenti autonomi”, ha dichiarato Vanessa Parli, direttrice dei programmi di ricerca HAI di Stanford.

Non è solo il mondo accademico a farne le spese, ma anche l’industria.

Infatti, anche se il rapporto afferma che fino al 2014 il mondo accademico ha dominato il mondo dei modelli di machine learning, chiaramente oggi non è più così. Nel 2023, almeno 51 importanti modelli di machine learning sono stati prodotti dall’industria privata.

Gli investimenti privati nell’IA generativa sono schizzati alle stelle, passando da circa 3 miliardi di dollari nel 2022 a 25 miliardi di dollari nel 2023. Questo aumento vertiginoso riflette l’attenzione sempre maggiore che i leader aziendali stanno dedicando all’IA, con quasi l’80% delle chiamate sugli utili di Fortune 500 che menzionano l’intelligenza artificiale nel 2023.

I crescenti costi per la formazione dei modelli di IA

Ma non è tutto rose e fiori.

I costi di formazione dei modelli di IA continuano a salire, con alcune stime che indicano cifre fino a 191 milioni di dollari per modelli all’avanguardia come Google Gemini. Inoltre, mentre gli Stati Uniti rimangono leader nel settore dell’IA, la Cina emerge come un concorrente formidabile, dominando le installazioni robotiche e detenendo la maggior parte dei brevetti mondiali sull’IA.

Fonte Immagini: https://aiindex.stanford.edu/report/

Più della metà degli intervistati nel sondaggio globale parte dello studio ha espresso preoccupazione per l’IA, con i timori maggiori concentrati nei paesi occidentali; mentre in alcune regioni come Indonesia e Thailandia, prevale l’ottimismo sui benefici futuri dell’IA.

Nonostante le sfide, il rapporto AI Index 2024 è chiaro: l’intelligenza artificiale sta trasformando radicalmente il modo in cui lavoriamo, viviamo e interagiamo con il mondo intorno a noi.

E il mondo, dagli imprenditori ai politici al grande pubblico, sta iniziando a prendere atto.

Le normative sull’IA nel mondo

Tra il 2016 e il 2023, 33 paesi hanno approvato leggi relative all’IA, con un aumento di quelle restrittive che limitano l’utilizzo di questa tecnologia.

Il numero di normative sull’intelligenza artificiale emesse dalle agenzie federali statunitensi è esploso, passando da solo 1 nel 2016 a 25 nel 2023. A livello legislativo, l’IA è chiaramente una priorità, con oltre 800 menzioni nei documenti del Congresso degli Stati Uniti dal 2016 al 2023.

Mentre in UE il Parlamento europeo, in trilogo con il Consiglio e la Commissione europea, ha votato a favore con ampia maggioranza (523 voti favorevoli, 46 contrari e 49 astensioni), l’AI Act, la prima legislazione volta a regolare l’impiego dell’intelligenza artificiale, mirando a garantire maggiore sicurezza e a promuovere l’innovazione.

Il testo approvato stabilisce chiaramente le restrizioni per le applicazioni dell’IA al fine di tutelare i diritti fondamentali dei cittadini. Vietate sono le pratiche come la classificazione biometrica, l’estrazione indiscriminata di immagini facciali da fonti come internet o registrazioni di telecamere di sorveglianza per la creazione di banche dati di riconoscimento facciale. Questo, con l’intento di escludere sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone. Eccezioni sono previste per le forze dell’ordine in situazioni come la ricerca di persone scomparse o la prevenzione di attacchi terroristici.

Il regolamento, al momento oggetto di un’ultima verifica da parte dei giuristi-linguisti dovrebbe essere definitivamente adottato prima della fine della legislatura. Una volta pubblicato nella Gazzetta Ufficiale dell’UE, entrerà in vigore dopo 20 giorni e diventerà applicabile 24 mesi dopo la sua entrata in vigore.

I ricercatori di Stanford sottolineano più volte la stretta correlazione tra l’integrazione sempre più diffusa dell’intelligenza artificiale nella vita quotidiana e la crescente richiesta di responsabilità e affidabilità nella tecnologia. Uno dei principali risultati del rapporto è proprio l’emergere di nuove modalità di valutazione dell’IA, considerando le sue crescenti capacità in compiti complessi come l’astrazione e il ragionamento.

Il rapporto evidenzia diversi benchmark responsabili, tra cui TruthfulQA, RealToxicityPrompts, ToxiGen, BOLD e BBQ, tracciandone le citazioni nel corso degli anni. Sebbene tali citazioni non riflettano completamente l’effettivo utilizzo dei benchmark, fungono da indicatore generale dell’interesse del settore nei confronti di questi strumenti. Nel 2023, tutte le citazioni per ciascun benchmark sono aumentate rispetto al 2022, suggerendo un’impegno in aumento delle organizzazioni verso l’IA responsabile.

Tuttavia permane anche la mancanza di un benchmark standardizzato per la rendicontazione dell’IA responsabile. Non esiste un insieme universalmente accettato di parametri di riferimento per valutare l’IA responsabile. TruthfulQA sembrerebbe essere stato adottato da tre dei cinque sviluppatori selezionati, mentre RealToxicityPrompts, ToxiGen, BOLD e BBQ sono stati utilizzati solo da uno dei cinque sviluppatori coinvolto nelle analisi dello studio.

Nestor Maslej, scienziato a Stanford e redattore capo dell’AI Index, sottolinea quanto il ritmo dei progressi nell’IA sia stato sorprendentemente rapido, con i parametri di riferimento che spesso diventano irrilevanti in pochi anni anziché decenni.

L’espansione dell’uso dell’IA nel campo scientifico

Un altro sviluppo significativo evidenziato nel rapporto è l’espansione dell’uso dell’IA nel campo scientifico, con un intero capitolo dedicato a questa tematica. Numerose applicazioni di intelligenza artificiale legate alla scienza hanno fatto notevoli progressi nel corso dell’anno:

AlphaDev di Google DeepMind ha reso più efficienti gli algoritmi di ordinamento.

FlexiCubes, uno strumento di ottimizzazione della mesh 3D, ha migliorato una vasta gamma di settori, inclusi i videogiochi e l’imaging medico, grazie all’uso dell’intelligenza artificiale.

Synbot ha permesso lo sviluppo autonomo di ricette di sintesi chimica ad alto rendimento, integrando la pianificazione dell’IA e il controllo robotico.

GraphCast ha fornito previsioni meteorologiche altamente accurate in meno di un minuto.

GNoME ha facilitato il processo di scoperta dei materiali.

Nel settore medico, alcune delle applicazioni più rilevanti includono:

SynthSR, uno strumento AI che converte scansioni cerebrali cliniche in immagini ad alta risoluzione. Sensori a infrarossi plasmonici accoppiati, che possono rilevare malattie neurodegenerative come il Parkinson e l’Alzheimer.

EVEscape, un’applicazione AI in grado di prevedere l’evoluzione virale per migliorare la preparazione alle pandemie.

AlphaMIssence, che consente una migliore classificazione delle mutazioni tramite l’AI. Riferimento al pangenoma umano, uno strumento AI per aiutare a mappare il genoma umano.

Il rapporto ha evidenziato i significativi progressi emersi nell’ambito dell’intelligenza artificiale medica. Ad esempio, il modello GPT-4 Medprompt ha raggiunto un tasso di precisione del 90,2% nel test MedQA, evidenziando un notevole miglioramento rispetto agli anni precedenti.

Inoltre, la FDA ha approvato un numero sempre crescente di dispositivi medici legati all’intelligenza artificiale, con un aumento del 12,9% nel 2022 rispetto all’anno precedente. Questo sottolinea ulteriormente l’ampia applicazione dell’intelligenza artificiale in ambito medico e il suo impatto positivo sulla pratica clinica.

L’importanza di stabilire regole condivise da tutti

Sappiamo bene che i principi morali della vita personale possono divergere dai principi politici che governano la società. Nonostante i divergenti valori morali, i membri della società hanno però un interesse comune nel mantenere la cooperazione sociale poiché essa appare vantaggiosa per tutti. Tanto costituisce la base comune su cui negoziare e stabilire regole condivise da tutti.

L’intelligenza artificiale non può mantenere le sue promesse senza una gestione adeguata dei rischi associati alle tecnologie, agli artefatti, ai sistemi e applicazioni ad essa connessi.

Tuttavia, per garantire un accordo stabile, le regole devono essere il risultato di procedure decisionali percepite come legittime ed equamente applicate.

Richard Brautigan, scrittore appartenente al movimento hippy americano degli anni Sessanta è l’autore di una poesia[3] che dipinge un’armoniosa convivenza tra natura e tecnologia:

“I like to think (and the sooner the better!) of a cybernetic meadow where mammals and computers live together in mutually programming harmony like pure water touching clear sky.

I like to think (right now, please!) of a cybernetic forest filled with pines and electronics where deer stroll peacefully past computers as if they were flowers with spinning blossoms.

I like to think (it has to be!) of a cybernetic ecology where we are free of our labors and joined back to nature, returned to our mammal brothers and sisters, and all watched overby machines of loving grace.”

(“Mi piace pensare (e prima è, meglio è!) a un prato cibernetico dove mammiferi e computer convivono in un’armonia di programmazione reciproca come l’acqua pura che tocca il cielo limpido.

Mi piace pensare (subito, per favore!) a una foresta cibernetica piena di pini e di elettronica, dove i cervi passeggiano pacificamente accanto ai computer come se fossero fiori dai boccioli rotanti.

Mi piace pensare (deve essere così!) a un’ecologia cibernetica in cui siamo liberi dalle nostre fatiche e torniamo alla natura, torniamo ai nostri fratelli e sorelle mammiferi, e tutti sorvegliati da macchine dalla grazia amorevole”.)

Brautigan immagina un giardino dell’Eden cibernetico in equilibrio, libero dall’interferenza umana. Il tono cinico ed ingenuo è ancora oggi lo specchio del paradosso della società del XXI secolo: armonia e sorveglianza.

Conclusioni

“L’idea di creare macchine capaci di superare la nostra intelligenza rappresenterebbe l’evento più significativo della storia umana, ma potrebbe anche essere il suo epilogo”, avverte Stuart Russell[4] in Human Compatible: Artificial Intelligence and the Problem of Control.

Il modo in cui decidiamo di gestire l’intelligenza artificiale è senza dubbio la questione più cruciale che l’umanità è chiamata ad affrontare.

Note

  1. Queste le metriche per la valutazione dei modelli di intelligenza artificiale in uso:1. Precisione: Misura la correttezza delle previsioni del modello rispetto ai dati di input.2. Velocità: Indica la rapidità con cui il modello elabora le informazioni e fornisce le risposte.3. Conoscenza: Valuta l’ampiezza e la profondità della conoscenza incorporata nel modello.4. Capacità di ragionamento: Misura la capacità del modello di elaborare logiche e deduzioni.5. Memorizzazione: Esamina la capacità del modello di memorizzare e recuperare informazioni.6. Potenziali pregiudizi: Analizza la presenza di bias o discriminazioni nel processo decisionale del modello.7. Allucinazioni: Valuta la propensione del modello a generare output non veritieri o incoerenti.8. Equità: Esamina se il modello produce risultati equi e non discriminanti per diversi gruppi.9. Sicurezza: Valuta la robustezza del modello contro attacchi e manipolazioni esterne.10. Suscettibilità alla disinformazione: Indica quanto il modello sia vulnerabile alla propagazione di informazioni errate o ingannevoli.11. Allineamento con gli obiettivi previsti: Valuta se il modello raggiunge gli obiettivi prefissati dall’implementazione iniziale.
  2. Il team dell’AI Index ha calcolato l’impronta di carbonio di alcuni dei più grandi modelli linguistici. Il rapporto evidenzia che le differenze tra i modelli dipendono da vari fattori, tra cui le dimensioni del modello, l’efficienza energetica del data center e l’intensità di carbonio delle reti energetiche. Un grafico nel rapporto fornisce una stima preliminare sulle emissioni associate all’inferenza – quando un modello esegue le operazioni per cui è stato addestrato – e sollecita ulteriori approfondimenti su questo tema. Come evidenziato nel rapporto: “Sebbene le emissioni legate all’inferenza per query possano essere relativamente basse, l’impatto complessivo può superare quello della fase di addestramento quando i modelli vengono interrogati migliaia, se non milioni, di volte al giorno” Crf https://aiindex.stanford.edu/report/
  3. All Watched Over By Machines Of Loving Grace di Richard Brautigan. Nel 1967, l’autore americano Richard Brautigan disseminò per le strade di San Francisco copie di una breve poesia intitolata “All Watched Over by Machines of Loving Grace”, la quale descriveva un’armonia di programmazione reciproca tra macchine, animali ed esseri umani.
  4. Stuart Russell è uno dei principali scienziati dell’intelligenza artificiale presso l’Università della California a Berkeley

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3