Per lo sviluppo e una migliore accettazione sociale dell’intelligenza artificiale, occorrerebbe costruire un’infrastruttura normativa come quella realizzata per l’industria farmaceutica, con le stesse fasi ed i vincoli e magari mutuando proprio dalla regolamentazione dei farmaci.
Facciamo due esempi per inquadrare e comprendere meglio la questione.
Industria farmaceutica
Pensiamo alle medicine. Sappiamo che, in alcuni casi e se usate in modo inappropriato, possono avere effetti collaterali e persino causare morti. Ma normalmente funzionano.
Lo sviluppo dell’industria farmaceutica si è basato su un solido impianto normativo che obbliga le società farmaceutiche a:
- dichiarare a cosa servono le medicine,
- dichiarare come dovrebbero essere usate,
- dichiarare gli eventuali effetti collaterali negativi,
- eseguire test con animali e, in caso di successo,
- richiede l’autorizzazione per i test con umani (con un organismo di autorizzazione e controllo)
- eseguire vari test sull’uomo,
- monitorare l’utilizzo successivo,
- in alcuni casi (più rischiosi) tracciare ogni fase di utilizzo,
- notificare possibili problemi,
- rilasciare l’IPR dopo un certo numero di anni,
- ritirarli immediatamente dal mercato in caso di problemi.
E abbiamo regolamenti per tutto questo.
Consideriamo ora una patologia mortale: se non fai niente, hai 10.000 vittime. Se fornisci un farmaco, hai 100 vittime. È un guadagno meraviglioso per la società.
Intelligenza artificiale
Ora veniamo all’AI.
Facciamo l’esempio della guida in auto: sei il CEO di una casa automobilistica e vendi i tuoi prodotti agli utenti sapendo che 10.000 di loro moriranno per una serie di motivi.
I prodotti sono ok, il problema è la guida umana. Non è una tua responsabilità, è dell’utente
Poi introduci una tecnologia di guida che permette di abbassare il numero di vittime a 100. È un guadagno meraviglioso per la società, ma le famiglie delle vittime ti faranno causa perché sei responsabile per il prodotto.
Potresti essere stato preparato ed evitare la bancarotta della società per danni e responsabilità, ma potresti comunque affrontare la prigione in varie giurisdizioni per avere immesso sul mercato un prodotto che ha causato un decesso, almeno in termini colposi.
Come società, nell’esempio farmaceutico consideriamo l’output complessivo per benefici e responsabilità; in altri prodotti si guarda la responsabilità per ogni singolo prodotto.
Farmaci, AI e responsabilità delle aziende
Per questo, a mio avviso, per l’intelligenza artificiale dovremmo costruire un’infrastruttura normativa come quella che abbiamo per l’industria farmaceutica. Un’infrastruttura normativa che consenta di valutare la responsabilità delle aziende non per l’incidente singolo ma per l’effetto complessivo che hanno, imponendo l’obbligo di fare test appropriati e dichiarare ciò che viene ottimizzato e considerarli responsabili per questo.
So che in molti storceranno il naso e che un approccio che preveda una sorta di “spiegabilità algoritmica” sarebbe preferibile in linea di principio. Ed è una linea che condivido, ma fino ad un certo punto perché può determinare costi che di fatto impediscono l’uso di un sistema che produrrebbe benefici.
Come noto, non sono un fedele singolaritariano, ma penso che andando avanti il costo della spiegabilità aumenterà comunque a livello esponenziale e potrebbe privarci di benefici.
Penso anche che questa interpretazione sia inevitabile e che ci si arriverà, allora penso sarebbe meglio anticiparla e cercare di farne un vantaggio competitivo per il paese. Questo è il senso della proposta di legge che presentai un anno fa.