Per l’intelligenza artificiale, il momento è topico.
Ci sono almeno cinque fattori principali che lo rendono tale:
- l’aumento del rapporto performance/costo dei processori che abilita la possibilità di soluzione di problemi di algebra lineare con una velocità senza precedenti,
- la disponibilità di computer “on demand” grazie al cloud e alla rete,
- la disponibilità di dati raccolti capillarmente,
- la condivisione della ricerca su scala globale
- le ingenti risorse disponibili per finanziarla e per finanziare la sua applicazione in startup (vedi ultima Legge di Bilancio).
Dall’algoritmo alla statistica
Da un punto di vista intuitivo, con l’AI si passa da procedure che descrivono algoritmicamente dei modelli, caratteristica della normale programmazione, alla modellizzazione di fenomeni, iterando sperimentalmente affinamenti di milioni di variabili, finché il fenomeno è descritto in modo soddisfacente.
Non è una differenza di poco conto, anzi. Ci si allontana dal determinismo dell’algoritmo a favore di modelli statistici. Si passa da risultati computati a risultati ipotizzati.
Proprio grazie al fatto che si tratta di modelli statistici, si possono modellizzare fenomeni non deterministici che altrimenti potrebbero essere descritti solo assai grossolanamente. E possono essere trattate enormi quantità di dati che altrimenti potrebbero essere esaminate solo in coorti più limitate.
Qualità delle predizioni e possibilità di errore
Bisogna tenere sempre a mente questo fatto: i modelli sono statistici, è previsto che sbaglino.
La qualità delle predizioni dipende da numerosi fattori tra cui, in misura rilevante, i dati utilizzati per iterativamente affinare i milioni di variabili che definiscono l’ipotesi del nostro modello.
Gli errori di classificazione si soppesano con due misure chiamate precisione e recupero, talvolta combinate in un unico indicatore sintetico chiamato F-Score.
Consideriamo ad esempio i sistemi di rating usati da forze dell’ordine o nei procedimenti giudiziari. I falsi positivi sono i casi di errore in cui un innocente viene erroneamente classificato come presunto colpevole. I falsi negativi sono i casi di errore in cui un colpevole viene erroneamente ritenuto innocente.
La coperta è corta: ridurre i falsi negativi ci porta pressoché inevitabilmente ad aumentare i falsi positivi. È bene saperlo e ricordarlo.
AI e censura
L’AI sarà sempre più presente nelle nostre vite, anche senza che noi ce ne accorgiamo.
Grazie al fatto che questi modelli “funzionano” e complice una errata percezione di facoltà taumaturgiche della tecnologia, la politica – rectius: la pressione dell’opinione pubblica – tenderà a farne espandere l’adozione per limitare la diffusione di contenuti che destino allarme o rifiuto sociale.
Quando la stampa svolgeva una funzione dominante nella pubblicazione di contenuti, il direttore responsabile svolgeva una funzione di moderazione. Eliminate le barriere di potenziale alla diffusione dei contenuti, la moderazione verrà demandata all’AI.
Si inizierà dalla rimozione di contenuti che violano il copyright, per passare a quelli a sfondo terroristico, alla pedopornografia, all’incitamento all’odio, ai disordini alimentari, ecc.
Molto più di un upgrade tecnologico
E’ importante capire che passare dall’uso di sistemi algoritmici su scala limitata a sistemi statistici su scala estesissima non è un semplice upgrade tecnologico. Muta la natura della questione.
La differenza di scala forse ci è più evidente se riflettiamo in altri contesti: intercettare una persona sospettata di un illecito non è come intercettare tutti alla ricerca di un illecito.
Il passare da un algoritmo ad un modello statistico implica che sappiamo a priori che avverranno errori e che saranno prodotti dei falsi positivi.
I fattori culturali
La rilevanza che diamo agli errori dipende da fattori culturali.
In paesi a “democrazia guidata” (termine di cui mi fu raccomandato l’uso quando dovetti fare una conferenza all’OSCE) la sensibilità verso i falsi positivi è ridotta, prevale l’interesse a limitare i falsi negativi: basta prendere qualche cattivo in più. Peccato se ci va di mezzo qualche innocente in più. Ci dispiace per lui, ma non troppo.
In un paese come il nostro, dove vale la presunzione di innocenza, l’attenzione si deve concentrare sulla precisione, ovvero sull’evitare il più possibile dei falsi positivi e sulle procedure di garanzia per accertare gli errori e darne un pronto rimedio, possibilmente istantaneo.
Procedure di garanzia
La ricerca si sta impegnando nella ideazione di sistemi in grado di offrire una certa “spiegabilità” delle motivazioni delle predizioni fatte con un sistema di AI ma, salvo casi assai circoscritti, siamo ancora molto lontani dall’obiettivo.
In assenza di un sistema preciso che consenta la spiegazione, le garanzie di rimedio devono essere ricercate a livello di procedura, consentendo di effettuarlo in tempo quasi reale (pena la sua inefficacia) e riconducendolo nel massimo grado possibile alle normali pratiche giudiziarie frutto di secoli di evoluzione.
Appare poco coerente con la nostra tradizione giuridica delegare ad aziende private il primo scrutinio su contenuti che possano o meno essere pubblicati, sapendo che non hanno incentivi per una equità delle loro determinazioni (anzi, rischiando sanzioni per i casi di Falsi negativi) e che, per costruzione, sbaglieranno.
Lo accetteremmo se fossero aziende russe o cinesi?