Una delle più ataviche dispute filosofiche riguardo la nostra mente contrappone il razionalismo, secondo cui è una dotazione naturale di strumenti di ragionamento a renderci intelligenti, e l’empirismo per cui lo siamo grazie ad una sofisticata capacità di apprendere dall’esperienza. Questa polarizzazione filosofica potrebbe essere ravveduta anche nelle attitudini degli amministratori pubblici. Per esempio, nell’istituzione di aree a traffico limitato, un assessore razionalista potrebbe analizzare tutti i fattori che ritiene influenti e dedurne la soluzione in base a principi di urbanistica e trasporti, mentre un collega empirista si cercherebbe casi di successo nel mondo per città più simili possibile a quella da lui gestita.
Nel tentare di imitare la mente, l’intelligenza artificiale non ha mancato di recepire una simile contrapposizione, per cui esiste una sua anima razionalista, che ha puntato sul costruire software dotati di apparati logici, in grado di operare inferenze tra strutture concettuali, e quella empirista che ha scommesso sui sistemi di apprendimento. Dopo anni di alterne prevalenze, è il grande momento di quest’ultima, che nella sua versione “profonda” ha prodotto successi che pochi avrebbero immaginato. Non dispiace certamente agli inventori del deep learning che la parola “deep” possa essere intesa come “perspicace”, in realtà l’attributo ha origine prettamente tecnica. Fin dagli anni ’80 esistevano reti neurali artificiali, semplici unità di calcolo disposte a strati, con connessioni solamente tra uno strato e l’altro. Una sorta di dogma prescriveva che, in aggiunta ai due strati di ingresso e di uscita dei dati, ci volesse un solo stato intermedio, al massimo due. Questa limitazione era in realtà dovuta al particolare procedimento matematico impiegato per l’apprendimento, ma una decina di anni fa Geoffrey Hinton ha escogitato delle varianti semplici ma efficaci, che hanno aperto la strada a reti con decine di strati intermedi, le cui capacità di apprendimento sono impareggiabili.
Tornando all’esempio di sopra, l’assessore empirista avrebbe non pochi problemi a decifrare quali siano le caratteristiche delle città nel mondo di cui ha ammirato la felice scelta delle aree a traffico limitato, che gli consentono di mettere a frutto ciò che ha imparato per la città che lui amministra. È uno scenario in cui il deep learning potrebbe fare la sua parte, scovando interazioni complesse tra dati eterogenei, difficilmente individuabili manualmente, capaci di fare la differenza sul risultato atteso, le felicità della scelta delle aree.
Nel novero dei successi più eclatanti del deep learning spiccano quelli di primo interesse dei giganti che ne finanziano la ricerca, da Google ad Amazon, come sistemi di riconoscimento di immagini, del linguaggio parlato, risponditori automatici e traduttori, mentre l’ambito delle pubbliche amministrazioni rimane ancora sostanzialmente inesplorato. Tuttavia non è difficile verificare come, per non poche problematiche nella pubblica amministrazione, sussista il presupposto fondamentale per una strategia empirista: la disponibilità di casi concreti da cui imparare. Esisteranno senz’altro iniziative di gestione pubblica estemporanee o talmente innovative da non avere nessuno o pochi casi storici di riferimento, in tal caso il deep learning deve lasciare il campo ad una buona intelligenza razionalista, naturale o anche artificiale, tramite strumenti come sistemi di decisione o simulatori ad agenti. Ma ragionevolmente una buona parte di iniziative della pubblica amministrazione aspirano a migliorare servizi e pratiche che hanno già un’ampia storia pregressa, non certo povera di dati. Se pensiamo alla caratterizzazione della cittadinanza, la pubblica amministrazione possiede l’insieme di dati più ampi sotto il profilo dello stato sociale, la composizione familiare, l’istruzione e la salute, analogamente per quanto riguarda aspetti urbanistici e dei trasporti.
Sicuramente non sarebbe immediato esercitare applicazioni di deep learning su questo genere di dati, anzitutto per questioni di integrazione tra i vari archivi in cui sono distribuiti, e poi di riservatezza, ma non si tratta certo di ostacoli invalicabili. Nel settore sanitario, sicuramente il più sensibile alla riservatezza, c’è già l’esempio di DeepMind, una delle aziende leader nelle applicazioni basate sul deep learning, che ha in corso una collaborazione con il servizio sanitario inglese per l’analisi delle cartelle cliniche dei pazienti, ai fini di migliorare l’accuratezza delle diagnosi.
I dati interni della pubblica amministrazione non sono le uniche fonti di apprendimento per sistemi empiristi: da anni vi sono diverse iniziative che puntano a sfruttare informazioni rese facilmente disponibili dalle tecnologie, soprattutto nella gestione delle città. Sono dati con un potenziale elevato, ma che sollevano nuove problematiche, anzitutto perché mancano dell’organizzazione e della semplicità semantica degli ordinari archivi di un’amministrazione pubblica. Illuminante è al proposito il caso dell’applicazione Street Bump, concepita dal centro di ricerca New Urban Mechanics del comune di Boston, che consente a un qualunque smartphone di rilevare automaticamente lo scossone provocato da buche nella strada percorsa in automobile, e solertemente inviare la posizione all’ufficio preposto del comune. A prima vista pare una problematica esclusivamente di comunicazione digitale, e che i dati in questione, segnale dell’accelerometro in dotazione a tutti gli smartphone, e posizione tramite GPS, non richiedano grande intelligenza, naturale o artificiale, per essere interpretati. La prima versione di Street Bump, lanciata nel 2012, si rivelò inutilizzabile perché ben poche segnalazioni corrispondevano a buche, venivano presi per buoni scossoni che avevano tutt’altra origine, magari alterchi tra i passeggeri, o uno sportello chiuso con esuberanza.
Questa incerta partenza non fermò il progetto, mediante tecniche di intelligenza artificiale si arrivò a discriminare in maniera fine se la sequenza di segnali registrata dell’accelerometro era veramente conseguenza dell’asfalto da riparare oppure no. La tecnica fu precisamente di apprendimento, come il deep learning, resa possibile proprio grazie ai dati forniti dalla prima fase di utilizzo.
Così come perseguire nella pubblica amministrazione le strategie empiriste vincenti dell’IA richiede anzitutto adeguate quantità di dati, a loro volta i nuovi tipi di dati, generosamente generati dai dispositivi tecnologici personali, grazie nell’IA riescono a diventare veramente utili.