Tutto lascia indicare che in futuro delegheremo alle macchine sempre più parti delle nostre attività. È necessario quindi chiedersi quali sono gli aspetti positivi e negativi di questa tendenza. E quale può essere il ruolo del legislatore: nell’Unione europea è un tema in discussione a livello di Commissione e Parlamento. La domanda in questo caso da porsi è come sostenere gli investimenti in intelligenza artificiale e come allo stesso tempo guidare il fenomeno nel giusto framework normativo.
Di questi temi parlerò il 5 giugno all’IBM Think di Milano, ma il tema dell’intelligenza artificiale caratterizzerà tutti i giorni di questa manifestazione.
Gli aspetti positivi dell’AI
Iniziando dai punti positivi, c’è da evidenziare certo l’incrementata efficienza ottenibile grazie all’intelligenza artificiale. Questa ci permetterà di fare molte più cose a costi molto più bassi. Aspetto spesso sottovalutato, dato che si tende a parlare di sostituzione delle persone con le macchine. Invece più rilevante è il tema del supporto dell’Ai all’attività umana, riducendo i costi. È il caso per esempio, dei consumi energetici.
Il secondo punto positivo è la gestione della complessità. Andiamo verso sistemi ad altissima complessità, per esempio la gestione dei rifiuti urbani nelle grandi città. Così complesso che infatti le amministrazioni non riescono a farlo in efficienza. L’AI sarà di supporto, mettendo intelligenza aggiuntiva per la gestione ottimale delle risorse, con un migliore rispetto dell’ambiente.
Terzo punto positivo: le applicazioni per il benessere. La medicina sta vivendo una stagione nuova grazie all’AI, che permette analisi dettagliate, basate su big data, non invasive e altissimo livello di personalizzazione (nella diagnosi e soprattutto nella terapia).
Gli aspetti negativi dell’AI
Non è che i rischi siano poco trattati. Il punto è che sono mistificati. I mass media stanno presentando tanti “pseudo problemi” connessi all’AI, del tipo “le macchine conquisteranno il mondo”. Ma è come preoccuparsi dell’arrivo degli zombie. I problemi veri sono ben altri.
Primo problema: c’è il rischio della delega delle decisioni umane agli algoritmi. Una forte tentazione: la deresponsabilizzazione degli esseri umani e delle aziende attribuendo responsabilità etiche e legali alle macchine. È il caso delle auto che si guidano da sole.
Un problema collegato è la difficoltà a individuare le responsabilità, nel momento in cui i sistemi artificiali affiancano (sempre di più) le nostre azioni.
Terzo problema è la manipolazione degli esseri umani da parte degli algoritmi. Soffermiamoci su questo, credo il meno trattato ma anche potenzialmente il più grave.
Manipolati dall’intelligenza artificiale fin dalla nascita
Immaginiamo Mario, nascerà tra cinque anni. Crescerà in un mondo popolato di algoritmi. Da quando è nato è sempre stato a contatto con loro. Gli hanno sempre consigliato cosa comprare, dove andare in vacanza, cosa scegliere al ristorante. Il rischio è che Mario sarà plasmato dagli algoritmi.
Questo problema dell’influenzabilità di massa è moto serio e ben poco trattato finora.
Da sempre l’essere umano ha ben presente la differenza tra ciò che vuole e ciò che è bene. Non posso mangiare pizza ogni giorno, anche se mi piacerebbe. Ma se l’algoritmo ci spinge a persistere su ciò che ci piace – ci fa uno sconto sulla pizza e noi quindi ne ordiniamo di più – allora è finita. La svolta epocale nel marketing è avvenuta negli anni ’80, quando i negozi hanno cominciato a offrire ai clienti i prodotti che piacevano loro, con uno sconto. I manager dell’epoca non capivano. Dicevano: i clienti l’avrebbero già comprato quel prodotto, perché scontarlo per loro?
Ma il trucco funziona e ora è ovunque: perché insistendo su ciò che le persone amano si riesce a vendere ancora di più quel prodotto. Le persone in effetti comprano più pizza. Dal punto di vista etico però è mostruoso: si finisce per ingessare scelte che all’inizio erano aperte. Forse avrei preso pizza, ma forse no – anche se mi piace tanto la pizza.
E così si ossifica anche l’identità delle persone. Che è l’ideale per il marketing: avere persone fisse, prevedibili. Una clientela che cambia costantemente è più difficile da gestire. Ma è in questa fluidità il proprio dell’essere umano.
Algoritmi e negazione del “non essere”
Stiamo soffocando una caratteristica dell’umano. L’apertura all’indecisione, all’incertezza. Al “non lo so che mangerò oggi al ristorante”. È quel modo di essere “non determinato” – il “nulla” direbbe il filosofo Jean Paul Sarte – che poi permette la scelta. Ogni scelta. Ed è in fondo la nostra libertà esistenziale.
Il profilo generato per noi dall’algoritmo è insomma, in termini filosofici, la negazione del nostro “non essere” (della nostra libertà). È la spilla conficcata sulla farfalla.
Se questa manipolazione avviene a fini marketing è male. Ma è peggio ed è molto più pericoloso se avviene per discriminazione sociale; per eliminare o ghettizzare il diverso che c’è nelle nostre società.
Il problema è anche che non possiamo tracciare un limite su ciò che possono fare manipolandoci. Gli stessi strumenti tecnologici, le stesse impostazioni, permettono entrambi i tipi di manipolazione, come consumatori e come cittadini.
Quali normative per gestire l’intelligenza artificiale
Se questo è lo scenario, la normativa dovrebbe essere di appoggio verso i punti positivi e di contrasto verso quelli negativi. Per esempio, rimuovere gli ostacoli all’uso dell’AI nel campo della medicina, del benessere, dell’efficienza della PA.
Nel caso della manipolazione, la normativa dovrebbe invece porre paletti, vincoli.
Il problema è complicato perché gli strumenti dei legislatori sono spesso poco raffinati. Toccano entrambi gli aspetti assieme, nel bene e nel male. La soluzione? Non è facile, ma certo un punto assodato è che servono le competenze giuste, tra i legislatori e in chi detiene le leve decisionali nella macchina pubblica.
La legislazione sulla AI va fatta da persone che ne conoscono bene le prerogative e i rischi. Altrimenti i danni saranno enormi, in entrambi i campi -i lati positivi e negativi.