la proposta

Per l’AI vanno usate norme simili a quelle dei farmaci: ecco perché

Anche per l’AI, come per l’industria farmaceutica, serve un’infrastruttura normativa che consenta di valutare la responsabilità delle aziende non per l’incidente singolo ma per l’effetto complessivo. Un’interpretazione, già trasposta in proposta di legge, che darebbe un vantaggio competitivo al paese. Vediamo perché

Pubblicato il 16 Ott 2018

Stefano Quintarelli

Partner Fondo Rialto

intelligenza artificiale

Per lo sviluppo e una migliore accettazione sociale dell’intelligenza artificiale, occorrerebbe costruire un’infrastruttura normativa come quella realizzata per l’industria farmaceutica, con le stesse fasi ed i vincoli e magari mutuando proprio dalla regolamentazione dei farmaci.

Facciamo due esempi per inquadrare e comprendere meglio la questione.

Industria farmaceutica

Pensiamo alle medicine. Sappiamo che, in alcuni casi e se usate in modo inappropriato, possono avere effetti collaterali e persino causare morti. Ma normalmente funzionano.

Lo sviluppo dell’industria farmaceutica si è basato su un solido impianto normativo che obbliga le  società farmaceutiche a:

  • dichiarare a cosa servono le medicine,
  • dichiarare come dovrebbero essere usate,
  • dichiarare gli eventuali effetti collaterali negativi,
  • eseguire test con animali e, in caso di successo,
  • richiede l’autorizzazione per i test con umani (con un organismo di autorizzazione e controllo)
  • eseguire vari test sull’uomo,
  • monitorare l’utilizzo successivo,
  • in alcuni casi (più rischiosi) tracciare ogni fase di utilizzo,
  • notificare possibili problemi,
  • rilasciare l’IPR dopo un certo numero di anni,
  • ritirarli immediatamente dal mercato in caso di problemi.

E abbiamo regolamenti per tutto questo.

Consideriamo ora una patologia mortale: se non fai niente, hai 10.000 vittime. Se fornisci un farmaco, hai 100 vittime. È un guadagno meraviglioso per la società.

Intelligenza artificiale

Ora veniamo all’AI.

Facciamo l’esempio della guida in auto: sei il CEO di una casa automobilistica e vendi i tuoi prodotti agli utenti sapendo che 10.000 di loro moriranno per una serie di motivi.

I prodotti sono ok, il problema è la guida umana. Non è una tua responsabilità, è dell’utente

Poi introduci una tecnologia di guida che permette di abbassare il numero di vittime a 100. È un guadagno meraviglioso per la società, ma le famiglie delle vittime ti faranno causa perché sei responsabile per il prodotto.

Potresti essere stato preparato ed evitare la bancarotta della società per danni e responsabilità, ma potresti comunque affrontare la prigione in varie giurisdizioni per avere immesso sul mercato un prodotto che ha causato un decesso, almeno in termini colposi.

Come società, nell’esempio farmaceutico consideriamo l’output complessivo per benefici e responsabilità; in altri prodotti si guarda la responsabilità per ogni singolo prodotto.

Farmaci, AI e responsabilità delle aziende

Per questo, a mio avviso, per l’intelligenza artificiale dovremmo costruire un’infrastruttura normativa come quella che abbiamo per l’industria farmaceutica. Un’infrastruttura normativa che consenta di valutare la responsabilità delle aziende non per l’incidente singolo ma per l’effetto complessivo che hanno, imponendo l’obbligo di fare test appropriati e dichiarare ciò che viene ottimizzato e considerarli responsabili per questo.

So che in molti storceranno il naso e che un approccio che preveda una sorta di “spiegabilità algoritmica” sarebbe preferibile in linea di principio. Ed è una linea che condivido, ma fino ad un certo punto perché può determinare costi che di fatto impediscono l’uso di un sistema che produrrebbe benefici.

Come noto, non sono un fedele singolaritariano, ma penso che andando avanti il costo della spiegabilità aumenterà comunque a livello esponenziale e potrebbe privarci di benefici.

Penso anche che questa interpretazione sia inevitabile e che ci si arriverà, allora penso sarebbe meglio anticiparla e cercare di farne un vantaggio competitivo per il paese. Questo è il senso della proposta di legge che presentai un anno fa.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati