Di pochi giorni fa la notizia dell’algoritmo che “predice” il reato, “ideato” alla questura di Napoli basandosi su anni di esperienza in strada a combattere piccoli e grandi reati. Il sistema, che prende il nome di “X-LAW”, è una soluzione euristica che recentemente era stata installata anche dalla Polizia di Venezia, con i primi risultati positivi richiamati dai giornali (parafrasando il famoso film “minority report”).
E altri casi verranno. Ecco perché negli ultimi tempi, non solo tra gli addetti ai lavori, ci si interroga sul ruolo dell’Intelligenza artificiale (o meglio, reti neurali) per migliorare efficacia ed efficienza cognitiva in ambito sicurezza, antifrode, intelligence e indagini. Si ipotizzano scenari futuristici molto particolari e di un certo interesse non solo per gli appassionati, in cui l’intelligenza artificiale potrà sostituire (e superare) le abilità cognitive dell’uomo.
L’intelligenza artificiale in ambito giuridico e aziendale
Oltre quanto già indicato sull’algoritmo di X-Law, si registra sempre più spesso il richiamo (prettamente giornalistico, come già accennato) all’utilizzo di intelligenza artificiale (e dintorni) per esperimenti in ambito giuridico/legale ovvero per “sostituire” l’avvocato o il magistrato. Non poche critiche avevano accompagnato l’uscita di ROSS, il robot avvocato sviluppato grazie a Watson di IBM, del canadese Kyra, per arrivare infine a Luminance, una tecnologia sviluppata dai matematici dell’Università di Cambridge premiata come Best Artificial Intelligence Product in Legal durante il convegno londinese CogX.
Analogamente, anche in ambito aziendale, da alcuni anni, si utilizzano tecniche di predictive analytics, a supporto di talune attività quali il rischio frodi e/o credito, misure di «good propensity», rischio di abbandono dei clienti (churn analysis), per la previsione della domanda e il controllo qualità, per sistemi di supporto alla diagnosi delle malattie, per sistemi di previsione finanziaria, per il riconoscimento del viso e delle impronte digitali, per la human computer interaction (HCI) (riconoscimento del parlato e della calligrafia) et similia.
L’approccio cartesiano e l’analisi dei dati
Secondo l’approccio cartesiano, la conoscenza passa da una analisi che tende a dividere il problema conoscitivo nei suoi componenti più semplici, con l’avvertenza di non procedere troppo con la scomposizione per non perdere il senso complessivo del problema (il che accadrebbe se lo si frantumasse in parti troppo piccole); la sintesi consiste nel rimettere assieme le parti analizzate, identificando in questo modo la giusta struttura e composizione del problema da risolvere.
Secondo tale approccio, quindi, l’analisi dei dati – ad esempio nel campo antifrode – tende ad individuare gli schemi tipici dell’illecito (cosiddetti “pattern”) e segnalare/bloccare le attività sospette. Il limite di tale modalità di contrasto è legato ad alcuni fattori tipici della competenza “umana” (e dei suoi limiti). In altre parole, il contrasto all’illecito è legato ad un’esperienza negativa già registrata (o meglio ad un illecito già subito) e quindi frutto dell’esperienza dell’esperto di dominio, che da un lato tende a guardare quello che conosce, dall’altro può commettere errori, in termini cognitivi/percettivi o di pregiudizio. Da non sottovalutare, inoltre, l’abilità del frodatore (anche lui umano, ovviamente) a adeguare il proprio comportamento per eludere i controlli, come di seguito commenteremo.
Ad oggi, i sistemi esperti a supporto dell’identificazione di illeciti tendono – nella maggior parte dei casi– ad aiutare gli analisti con una intelligenza di velocità o collettiva, ovvero legata alla mole di dati e quindi alla possibilità di velocizzare l’analisi, automatizzando quanto più possibile l’analisi e l’identificazione dei pattern illeciti. In tale approccio, i parametri possono essere statici (non variano nel tempo) o dinamici (sottoposti cioè ad un continuo adattamento).
La “super intelligenza”È bene precisare che la “super intelligenza” è un argomento oggetto di studi ed applicazioni fin dagli anni ’50, in molteplici forme. Ad esempio, nel 1955 venne sviluppata, tra le prime applicazioni documentate, una versione di gioco della Dama con apprendimento automatico. Tale tecnologia ha poi portato la macchina a superare il creatore nel 1994 (mentre nel 1997, come si ricorderà, l’intelligenza artificiale vinse contro Gasparov agli Scacchi). Ma quali sono le tipologie di super intelligenza? Prima di tutto, secondo Bostrom, per super intelligenza si intende – sul piano teorico – una particolare abilità cognitiva, che può superare quella umana, in quasi tutti i domini di conoscenza. In termini di classificazione, invece, ne vengono descritte almeno 3 tipologie:
|
Reti neurali e sicurezza
Le reti neurali (e l’intelligenza artificiale in generale) possono essere utili per “riprodurre” le prestazioni e le decisioni di un esperto di dominio (es. esperto in frodi) e, in altri casi (in parte più recenti), stanno iniziando a contribuire all’individuazione di modelli e pattern di frode/illecito, ancora sconosciuti. In tal caso, il modello si baserà su entità matematiche complesse e funzioni non lineari, ovvero su un metodo non parametrico (come precedentemente indicato). A seconda della configurazione, tali modelli possono operare in presenza di supervisione o meno.
Uno dei punti di attenzione di tale approccio è la cosiddetta opacità del modello delle reti neurali: esse mancano di una precisa formalizzazione della soluzione ottenuta in termini dei tradizionali algoritmi. La rete è un’entità “black box”: sebbene la “decisione” prodotta sia osservabile, risulta difficile capirne i motivi e/o estrarli sotto forma di semplici regole. Per tale motivo, risulta complicato “cristallizzare” ed esportare la conoscenza della rete in regole/policy e/o comprendere le cause del fenomeno.
Spostare il pagliaio per trovare l’ago
Ad avviso di chi scrive, un approccio corretto a tali tecnologie è quello di tipo “ibrido”, che si ottiene mixando pattern noti e machine learning, con dati di input di intelligence esterna e con la supervisione/addestramento di un esperto di dominio. A volte, con la quantità e complessità delle informazioni digitali e del rumore, è già molto utile ridurre il set di dati da analizzare, ovvero più che cercare il famoso ago nel pagliaio, può risultare più efficace spostare il 95% del pagliaio e ridurre la zona di ricerca (in particolare avendo risorse finite e poco tempo).
Ed è anche con questo approccio che si sono nel tempo attivati vari progetti basati sulle reti neurali nel settore della sicurezza, anche “fisica” e non solo cyber. Questo non vuol dire, come sembrerebbe dai titoli di alcuni commentatori, che ci stiamo dirigendo verso un minority report (o almeno, non siamo ancora pronti sul piano tecnologico e forse ancora di più su quello culturale), ma che partendo da una distribuzione di eventi, generati dallo stesso processo, in uno spazio multidimensionale, la tecnologia può aiutarci ad identificare qualcosa di nascosto per ottimizzare le risorse verso obiettivi più a rischio.
A mero titolo di esempio, in Italia il Centro Ricerche Semeion ha inventato alcuni anni or sono un modello chiamato “Topological Weighted Centroid (TWC)”, utilizzato efficacemente per alcune indagini a Denver (2011), ed in Italia per il famoso caso di Unabomber e gli incendi tossici nelle province di Napoli e Caserta (2013).
Più che il “chi” in senso stretto, questo modello (ed altri con differenti approcci statistici), è finalizzato a trovare il “dove” e/o il “quando”, riducendo di fatto il succitato “pagliaio”.
In alcuni contesti, comunque, tale approccio necessita di maggiori complessità matematiche, perché le caratteristiche delle transazioni o eventi leciti sono soggette a mutare nel tempo (es: introduzione di nuovi servizi/prodotti, cambiamenti nei paradigmi di fruizione, ecc.). Inoltre, i frodatori “contrastano” l’evoluzione dei modelli predittivi, introducendo costantemente pattern di frode innovativi.
Di contro, come già accennato, la capacità di “generalizzare” delle reti neurali le rende un candidato ideale per l’utilizzo in contesti in cui occorra discriminare anche situazioni mai osservate prima, ad esempio per comprendere se vi siano eventuali “anomalie” rispetto alla maggioranza del totale (questo è ottenibile anche nel caso di apprendimento non supervisionato).
Reti neurali, meglio procedere con cautela
Al di là delle evoluzioni del settore (sono purtroppo pochi o quasi nulli, in Italia, gli investimenti in tal senso, nonostante le competenze che restano poco industrializzate), appare fondamentale la cautela scientifica.
Come noto, il protocollo per la ricerca scientifica si basa sull’approccio galileiano, ovvero ricerca, esperimento, simulazione. Non bastano i risultati “one shot” o artigianali, anche perché si tende a pubblicare i successi di un caso e non si affrontano gli insuccessi dell’algoritmo, che in casi complessi potrebbero condurre ad incriminare persone errate e non solo non identificare i colpevoli, per questo appare fondamentale il giusto rigore. Eventuali algoritmi nel settore investigativo, legale et similia non potranno quindi non passare dal vaglio tecnico-scientifico, anche per evitare “derive tecnocentriche” che possono – in caso di errori frutto della fretta e della pressione mediatica – far perdere fiducia in un percorso che invece – se ben supervisionato – può essere molto utile al sistema giustizia nella sua interezza, creando anche nuove competenze e professionalità.