Le rivoluzioni, quelle vere non si fanno annunciare; arrivano, decadono, si impongono con nuove soluzioni e nuovi problemi. Sta così accadendo con l’applicazione sempre più estensiva dei meccanismi di intelligenza artificiale (IA) nei più svariati ambiti in cui si articolano le dinamiche socioeconomiche e relazionali ovvero profondamente impattando modificando discipline e professioni quali quelle inerenti la medicina, la giustizia, l’ingegneria, il commercio e la finanza.
Responsabilità dei danni nell’era dell’intelligenza artificiale
Giova subito premettere che la rivoluzione della IA non può essere considerata nell’ambito dell’evoluzione più avanzata della rivoluzione tecnologica. Queste considerazioni rilevano soprattutto quando si pone il problema della responsabilità dei danni che potranno derivare dall’uso di algoritmi, segnatamente laddove, per allocare il corretto risarcimento, occorra individuare specifiche e personali responsabilità.
In altri termini, la responsabilità professionale nell’era della tecnologia si profilava bipartita, cadendo in capo al professionista o al produttore dello strumento tecnologico ovvero, in più rari casi, venendo condivisa da entrambi.
Questo sistema binario non soddisfa nello scenario di responsabilità professionale derivante dall’utilizzo di strumenti dotati di intelligenza artificiale.
L’autonoma elaborazione dei dati da parte dell’algoritmo potrebbe rendere arduo individuare le principali coordinate dell’errore con conseguente difficoltà nella fase di imputazione della responsabilità.
Implicazioni di responsabilità dall’uso di IA in ambito medico
Questo è particolarmente rilevante in ambito medico, dove l’IA è utilizzata per analisi cliniche, diagnosi e raccomandazioni terapeutiche; dalla robotica alla realtà aumentata fino al metaverso. La tecnologia digitale prende sempre più spazio in sala operatoria portando con sé implicazioni importati, in primo luogo la tutela dei diritti del cittadino in termini di salute e sicurezza nei luoghi di cura. Ad esempio, chi è responsabile se un sistema di IA diagnostica erroneamente una malattia? Il medico che si è affidato al software; il produttore del software; il programmatore che ha sviluppato l’algoritmo o chi ha formato i dati per l’elaborazione dell’algoritmo?
L’applicazione dell’IA in sanità è un’area di sviluppo molto rilevante, in qualche modo trasversale a ogni tematica che riguardi i nuovi modelli di organizzazione sanitaria. L’OMS ha tracciato le Strategie Globali della Sanità Digitale 2020 – 2025 e ha approvato a fine novembre 2023 il documento che elenca le principali considerazioni normative sull’IA, volte a promuovere un uso sicuro, efficace e responsabile della stessa in ambito sanitario.
Autonomia decisionale dell’IA: questioni morali
Un ulteriore tema di riflessione riguarda l’autonomia decisionale dell’IA. In settori come la giustizia e la finanza, sistemi IA sono già utilizzati per prendere decisioni cruciali, come la concessione di prestiti o la determinazione delle pene. Tuttavia, delegare tali decisioni a un algoritmo solleva questioni morali: è giusto affidare a una macchina decisioni che hanno un impatto diretto sulla vita delle persone? Come possiamo garantire che queste decisioni siano prive di pregiudizi nascosti nei dati di addestramento? L’uso di IA in queste situazioni richiede un controllo rigoroso per evitare discriminazioni e ingiustizie.
Inoltre, questi sistemi spesso non offrono trasparenza su come arrivano a determinate conclusioni. Questo problema, noto come “opacità algoritmica”, è uno degli ostacoli principali alla fiducia pubblica nei confronti dell’IA. Se non possiamo spiegare perché un algoritmo ha preso una certa decisione, diventa difficile giustificarla e, soprattutto, correggerla.
IA, nuove sfide in termini di cybersecurity
Oltre agli aspetti etici e legali, l’implementazione dell’IA introduce anche nuove sfide in termini di cybersecurity. L’integrazione dell’intelligenza artificiale nei sistemi sanitari solleva preoccupazioni sul fronte della sicurezza dei dati sensibili. La sanità, in particolare, è un settore che si affida sempre di più alla tecnologia digitale per raccogliere, analizzare e condividere dati medici. Tuttavia, ciò la rende anche un bersaglio sempre più attraente per gli attacchi informatici.
In questo contesto, l’IA ha un doppio ruolo: da un lato, può contribuire a rafforzare la sicurezza informatica attraverso sistemi avanzati di rilevamento delle minacce e prevenzione degli attacchi. Dall’altro, se non adeguatamente protetta, può diventare un ulteriore punto debole, soprattutto se i modelli di apprendimento automatico vengono manipolati da attori malintenzionati. La manipolazione dei dati di input per ingannare i sistemi IA, conosciuta come “adversarial attack”, rappresenta un rischio reale, soprattutto in un settore delicato come quello sanitario.
La normativa sull’IA: verso un quadro regolatorio europeo
Il panorama normativo sta evolvendo rapidamente per affrontare le nuove sfide legate all’intelligenza artificiale: il regolamento europeo 1689/2024, approvato lo scorso 13 giugno (noto come AI Act) rappresenta il primo quadro giuridico globale specifico sull’AI e avrà un impatto diretto su come le aziende potranno sviluppare e utilizzare queste tecnologie in modo sicuro e conforme alle leggi.
Guardando al futuro, sono fondamentali investimenti in soluzioni di AI che non solo migliorino l’efficienza e l’accuratezza, ma che siano anche eticamente solide e giuridicamente ineccepibili.
Soprattutto in ambito sanitario, la collaborazione tra settore privato, istituzioni e comunità scientifica sarà cruciale per garantire che le innovazioni in campo medico siano al servizio della salute pubblica senza compromettere la sicurezza e i diritti dei pazienti.
Prospettive future
La responsabilità professionale nell’era dell’intelligenza artificiale è un argomento complesso che richiede un’analisi multidisciplinare, coinvolgendo giuristi, tecnologi e studiosi dell’etica. Mentre l’IA continua a trasformare numerosi settori, è fondamentale sviluppare nuove leggi e regolamenti che riflettano la natura unica di queste tecnologie. Al contempo, devono essere messe in atto misure robuste per proteggere i sistemi IA da attacchi esterni e garantirne un utilizzo trasparente e sicuro. La collaborazione internazionale e il dialogo tra pubblico e privato saranno essenziali per affrontare queste sfide e sfruttare appieno le potenzialità dell’intelligenza artificiale in modo collettivamente vantaggioso, etico e sicuro.