le proposte

Aiutare l’AI a crescere senza danneggiare l’umanità: cinque strategie

Come può l’intelligenza artificiale continuare a innovare e innovarsi e al tempo stesso ridurre i rischi di discriminazione ed errore che spesso comporta? Dal mondo della ricerca dell’AI emergono cinque idee

Pubblicato il 11 Feb 2021

Danilo Benedetti

Docente di tecnologie avanzate presso LUMSA

renAIssance - intelligenza artificiale

Possiamo proporre cinque strategie per aiutare l’Intelligenza Artificiale a crescere senza mettere in pericolo i diritti dei cittadini. Alcune idee che traiamo dal dibattito in corso negli Usa, in particolare quello promosso dal Mit Technology Review.

Ridurre l’influenza delle grandi aziende sulla ricerca

La ricerca nel settore dell’intelligenza artificiale è al momento guidata dai “giganti” di Internet, che la indirizzano verso quegli usi che ottimizzano i propri modelli di business e incrementano i profitti, privilegiando quegli algoritmi che meglio sanno mettere a frutto le grandi moli di dati di cui dispongono, realizzando modelli sempre più grandi, complessi e costosi. Questo lascia poche risorse disponibili per esplorare altri usi possibili e limita la possibilità di indagare sulle conseguenze che i risultati di tali ricerche possono avere.

Questa influenza è principalmente di natura finanziaria: la grande disponibilità economica di questi attori gli permette di attrarre i maggiori talenti nel settore e di finanziare i progetti più ambiziosi.

Per garantire che la ricerca possa muoversi anche su altre direttrici, è opportuno che i Paesi si dotino di proprie strategie relative all’intelligenza artificiale, finanziando la ricerca indipendente nel settore.

L’intelligenza artificiale influenza la nostra vita: gli esempi 2020-2021

Rifocalizzare la ricerca verso la comprensione piuttosto che limitarsi al riconoscimento di pattern.

La ricerca è stata recentemente indirizzata principalmente verso i sistemi in grado di riconoscere e/o replicare i pattern: i sistemi di IA di maggior successo, anche commerciale, sono sistemi capaci di identificare immagini, volti, linguaggio, utilizzando insiemi di apprendimento sempre più estesi.

Questo orientamento, anche grazie ai risultati spesso straordinari sin qui ottenuti, ha messo in ombra uno degli obiettivi originali degli studi di intelligenza artificiale, la comprensione. È vero che non è escluso che la crescita dimensionale dei modelli possa produrre capacità “emergenti” di comprensione simili al “buon senso”, ma ci sono altre direttrici di ricerca che provano ad inserire la comprensione fin nelle fasi di progettazione degli algoritmi, che meritano una maggiore attenzione.

Un esempio sono le ricerche sull’IA neurosimbolica[1], che tenta di fondere il deep learning con l’uso di sistemi di simbolici della conoscenza. In altri casi, si sta sperimentando la possibilità di utilizzare tecniche probabilistiche per effettuare il training utilizzando un volume minore di dati, traendo ispirazione dalla capacità dei bambini di imparare sfruttando pochissimi esempi.

La speranza è che queste ricerche possano produrre sistemi più robusti dal punto di vista tecnico ed anche meno suscettibili ad attacchi sferrati con tecniche di adversarial machine learning.

Creare gruppi di lavoro meno omogenei (più inclusivi)

Alcuni hanno fatto notare che la polarizzazione in alcuni casi presente nei sistemi di Intelligenza Artificiale può dipendere dalla mancanza di diversità negli stessi team di ricerca e sviluppo, spesso omogenei per sesso, estrazione sociale ed etnia. Questa omogeneità influisce negativamente sulla capacità dei ricercatori di identificare le scelte, spesso anche inconsce, che per loro natura possono portare allo sviluppo di un sistema intrinsecamente polarizzato. Un caso classico è il riconoscimento dei volti, che funziona con meno errori sui volti caucasici, mentre il tasso di errore cresce, a volte molto significativamente, nel caso del riconoscimento dei volti delle persone di colore[2].

Promuovere la presenza di ricercatori e specialisti di diversa estrazione può essere la strada corretta per identificare sin dalle fasi iniziali dello sviluppo, quelle “assunzioni nascoste” che inevitabilmente porteranno allo sviluppo di sistemi non adeguatamente bilanciati.

Riflettere sugli impatti che le tecnologie possono avere sulla comunità

Con obiettivi simili a quelli posti nel precedente punto, un’altra proposta recentemente avanzata è quella del cosiddetto machine learning partecipativo. L’obiettivo di questa iniziativa è ridisegnare il processo di sviluppo dell’IA per includere anche coloro che saranno i soggetti su cui gli algoritmi saranno applicati. La volontà di procedere in tal senso nasce dalla constatazione dell’asimmetria decisionale tra i progettisti degli algoritmi di machine learning (ML) rispetto agli individui che invece saranno influenzati dal sistema e dalle sue “decisioni”.

A luglio si è tenuta la prima conferenza dedicata a questo approccio[3], che ha raccolto un’ampia gamma di idee su come potrebbe configurarsi il machine learning partecipativo. I suggerimenti includono nuove procedure di governance per sollecitare il feedback della comunità, nuovi metodi di controllo dei modelli per informare e coinvolgere il pubblico e proposte di riprogettazioni dei sistemi di intelligenza artificiale per dare agli utenti un maggiore controllo delle loro impostazioni.

Introdurre leggi che regolamentino il settore

I tentativi di regolamentazione del settore sono, ad oggi, principalmente rappresentati da interventi ex-post tesi a limitare i danni causati da sistemi di IA impropriamente attivati senza adeguati controlli preventivi. L’obiettivo futuro è per le autorità nazionali e internazionali, l’introduzione di limiti e regolamenti più stringenti e, soprattutto, preventivi. Questa esigenza si è già fatta strada nella politica di molti paesi, che infatti promuovono ricerche e studi per garantire uno sviluppo armonico dell’Intelligenza Artificiale. Nel 2019 gli Stati Uniti hanno rilasciato una linea guida per la regolamentazione delle applicazioni di Intelligenza Artificiale, mentre l’Unione Europea attraverso il suo High-Level Expert Group on AI (AI HLEG) ha rilasciato due documenti, le linee guida etiche per una Intelligenza Artificiale affidabile[4] e, sempre nel 2019, il documento di raccomandazioni circa le policy e gli investimenti per un’Intelligenza Artificiale affidabile[5].

BIBLIOGRAFIA

  1. Ananthaswamy, A. “AI’s next big leap”, Knowable Magazine, Ottobre 2020
  2. Si veda, dello stesso Autore “Riconoscimento automatico del volto: i rischi della tecnologia”, pubblicato su Agenda Digitale ad aprile 2019
  3. Si veda il sito web dell’iniziativa: https://participatoryml.github.io/
  4. “Ethics guidelines for trustworthy AI”, Commisione Europea, Aprile 2019
  5. “Policy and investment recommendations for trustworthy Artificial Intelligence” , Commissione Europea, Giugno 2019

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati