L’utilizzo dell’intelligenza artificiale apre rischi, non solo importanti opportunità, in campo medico. Alcuni di questi rischi sono associati al fenomeno noto come “adversarial example (o attack)”: input fatti apposta per ingannare le reti neurali e quindi portare a esiti, dell’intelligenza artificiale, lesivi per il paziente o altri soggetti del sistema sanitario.
Già oggi, le reti neurali, così definite, sono massivamente utilizzate nel riconoscimento e nell’elaborazione di immagini e del parlato e nella diagnosi medica, come assistenti alla diagnosi nelle forme più diffuse della radiologia, anatomia patologica, dermatologia ed oftalmologia.
Ovvio quindi che l’affidabilità e l’efficacia siano elementi imprescindibili per l’applicazione sempre più diffusa e differenziata di tali algoritmi.
Esaminiamo di seguito alcuni casi che ci fanno comprendere meglio perché, per quanto entusiasmante possano essere le applicazioni dell’informatica, è tuttavia necessario muoversi con estrema cautela partendo dalla ricerca.
Come ingannare le reti neurali
Nel 2014, però, un gruppo di ricercatori di Google e della New York University ha scoperto che era fin troppo facile ingannare le reti neurali convoluzionali – i cui pattern di connettività sono ispirati alla corteccia visiva animale – inducendo delle impercettibili, ma attentamente programmate, modifiche alle informazioni d’ingresso date “in pasto” al sistema.
Gli adversarial example (o attack), così definiti gli input che permettono di ingannare le reti neurali, sono stati studiati dei ricercatori negli anni successivi ed esemplificati in una serie di test.
Tra i primi studi, uno pubblicato nel 2015 descrive una rete neurale addestrata per riconoscere l’immagine di una serie di animali. Quest’ultima, presenta un’accuratezza del 57.7% nel riconoscere una qualsivoglia immagine di panda quando ed essere somministrata come input è proprio un’immagine inerente tale animale. Diversamente, nel momento in cui i ricercatori hanno aggiunto alla stessa immagine un rumore di fondo, impercettibile all’occhio umano, la rete neurale ha dimostrato di riconoscerla un “gibbone” con una fiducia del 99.3%.
Adversarial example e attacchi black box
Questi, sono solo alcuni dei recenti esempi che fanno intuire come gli adversarial example possono divenire veri e propri attacchi all’architettura delle reti neurali. Ancor più interessante il fatto che gli adversarial example non sono specifici per una singola rete neurale bensì possono essere trasferiti verso reti neurali che svolgono lo stesso compito, ingannando gli algoritmi in quelli che sono noti come “attacchi black-box”, in cui non si ha accesso all’architettura del modello, ai parametri o persino ai dati di allenamento utilizzati per addestrare la rete.
Qual è il nesso di tutto ciò con la medicina? Potreste domandarvi.
Essendo in prossimità di una diffusione massiva dell’uso di reti neurali come strumenti di assistenza alla diagnosi, la presenza di facili ed efficaci metodiche capaci di eludere gli algoritmi o divergere il risultato decisionale da quello corretto dovrebbe farci pensare, poiché queste ultime potrebbero essere estremamente pericolose.
Gli adversarial example in medicina
Ad analizzare la tematica degli adversarial example in medicina è uno studio pubblicato lo scorso 22 marzo su Science, il quale descrive con alcune reali circostanze il pericolo di tali fenomeni per pazienti e medici.
Come mostrato in figura, l’immagine originale del nevo è stata contrassegnata come “benigna” con una confidenza del 99%. Ad essa, successivamente, è stato aggiunto un rumore di fondo impercettibile ma studiato per fornire il massimo “danno”. Il risultato che emerge è un’analisi sulla nuova immagine contrassegnata come “maligna” con una confidenza del 100%.
È importante sottolineare che il disturbo aggiunto all’immagine non è casuale e ha probabilità quasi zero di verificarsi casualmente. Pertanto, tali adversarial example non riflettono il fatto che i modelli di apprendimento automatico sono di per sé imprecisi o inaffidabili, ma piuttosto che anche i modelli altrimenti efficaci sono suscettibili di manipolazione da input esplicitamente progettati per ingannarli.
Ciò che lo studio ha fatto emergere è che questi input manipolativi possono essere maggiormente casuali e probabili rispetto a quanto rappresentato precedentemente. Come mostra la parte bassa della figura, è stato dimostrato che modifiche minime, ma precise, come le rotazione dell’immagine ad un angolo specifico, equivalgono ad efficaci attacchi anche contro le più moderne reti neurali.
Immaginiamo quindi come la casualità con cui un medico impugna la fotocamera possa muovere l’algoritmo dal definire un nevo cutaneo da benigno a maligno.
E’ facile comprendere come l’attenzione che i programmatori ed i regolatori che analizzeranno tali tecnologie prima dell’immissione sul mercato dovrà essere quanto mai elevata. La probabilità che gli algoritmi possano essere ingannati da hacker dediti alla manipolazione di diagnosi e documenti medici è presente ma remota.
Manomissioni e assicurazioni sanitarie
Diversamente, Samuel Finlayson, ricercatore presso la Harvard Medical School e MIT nonché uno degli autori del studio, lancia l’allarme sulle possibili manomissioni da parte di operatori a vantaggio del sistema assicurativo. E’ doveroso ricordare che il problema è maggiormente percepito negli Stati Uniti, dove il Sistema Sanitario si fonda su criteri di natura essenzialmente privatistica.
Gli elementi di difesa nei confronti di questi esempi di vulnerabilità degli algoritmi genetici sono stati studiati e sono principalmente ad appannaggio dell’accuratezza con la quale gli sviluppatori creano e allenano gli algoritmi. In primo luogo, le informazioni date in pasto al sistema per migliorarne le abilità, immagini dermatologiche nell’esempio precedentemente citato, devono essere sempre accuratamente selezionate e non acquisite online da fonti non sicure che potrebbero rendere tali informazioni ingannevoli.
Secondo gli esperti, è anche possibile sviluppare algoritmi evoluti in grado di rispondere correttamente agli attacchi ingannevoli addestrandoli appositamente con esempi di tale tipo, ai quali non vi è possibilità di fronteggiarli a priori. Nel caso in cui il training della rete non sia sufficiente per difenderla da attacchi attacchi ingannevoli è sarà necessario migliorare la configurazione della rete, perché evidentemente passibile di miglioramento.
L’aggiunta di “rumore”, inoltre, è uno dei metodi standard per migliorare la pattern recognition. Quindi una rete che risponde male all’aggiunta di rumore è evidentemente una rete non ottimizzata.
Per quanto scontato, è necessario pensare agli algoritmi di intelligenza artificiale come funzioni paragonabili a quelle umane o superiori, nonostante ciò non si avrà mai un algoritmo perfetto ma sarà necessario puntare a percentuali di successo che siano le massime possibili, tale da sostenere l’intervento medico umano, assistere il personale medico e favorire il rapporto medico-paziente.
In conclusione, possiamo tranquillamente affermare ma anche rassicurare i pazienti che, seppur con a disposizione potenti mezzi, l’arte medica rimarrà frutto dell’intelletto umano.