I Chatbot GPT sono strumenti che ormai rendono possibile il dialogo fra l’uomo e la macchina in maniera quasi sovrapponibile al dialogo fra esseri umani ed è quindi naturale che si pensi di impiegarli in campo medico per gestire una prima interazione fra il paziente e il sistema sanitario o per avere informazione di natura medica.
Data la delicatezza di questo rapporto, è un bene che la Commissione europea, per mezzo dell’AI Act, abbia fissato un serie di principi etici volti a promuovere un utilizzo responsabile e etico dell’IA.
Gli impieghi di ChatGPT nel settore sanitario
ChatGPT, in quanto modello linguistico, ha un’ampia gamma di potenziali applicazioni nel settore sanitario, compresa la telemedicina. Ecco alcuni modi in cui ChatGPT può essere utilizzato in questi settori:
- Chatbot: ChatGPT può essere utilizzato per sviluppare chatbot in grado di fornire ai pazienti informazioni e assistenza sanitaria di base. Questi chatbot possono contribuire a ridurre l’onere per gli operatori sanitari, a migliorare il coinvolgimento dei pazienti e a fornire loro un accesso immediato ai consigli sanitari.
- Diagnosi: ChatGPT può essere addestrato su dati medici e utilizzato per assistere nella diagnosi di condizioni mediche. Analizzando i sintomi e l’anamnesi, ChatGPT può fornire spunti che aiutano i medici a formulare diagnosi più accurate.
- Raccomandazioni di trattamento: ChatGPT può anche essere utilizzato per fornire raccomandazioni terapeutiche personalizzate basate sulla storia clinica del paziente, sui sintomi e su altre informazioni rilevanti.
- Monitoraggio: ChatGPT può essere utilizzato per monitorare i pazienti a distanza, inviando avvisi agli operatori sanitari in caso di cambiamenti nelle condizioni del paziente o se alcuni parametri di salute non rientrano in un intervallo di sicurezza.
- Educazione del paziente: ChatGPT può essere utilizzato per fornire ai pazienti risorse educative su diversi argomenti di salute. I pazienti possono porre domande e il ChatGPT può fornire risposte informative e accurate basate sulla ricerca medica attuale.
- Supporto alla salute mentale: ChatGPT può essere utilizzato anche per fornire supporto ai pazienti in materia di salute mentale. I pazienti possono discutere con il ChatGPT dei loro sentimenti e delle loro emozioni in un ambiente sicuro e riservato e il ChatGPT può fornire strategie di coping e altri consigli utili.
La chatbot Watson
La chatbot Watson, ad esempio, è utilizzata da Anthem che è uno dei più grandi produttori di servizi assicurativi in campo sanitario degli Stati Uniti. La chatbot viene utilizzata sia per dare informazioni amministrative sulle polizze, sia per dispensare consigli sanitari.
Chatbot evolute nell’assistenza sanitaria devono esser in grado di:
- monitorare il comportamento e gli stati d’animo del paziente,
- garantire la privacy, dare consigli personalizzati,
- essere in grado di acquisire dati da applicazioni di monitoraggio da sensori mobili,
- utilizzare, se necessario il riconoscimento facciale e interagire sia istantaneamente con risposte immediate, sia in seguito con notifiche e promemoria.
Watson è perfettamente in grado di svolgere in maniera efficiente tutte queste funzioni.
Le potenzialità dei chatbot GPT
I Chatbot GPT sono modelli di intelligenza artificiale per l’elaborazione del linguaggio. Open AI, azienda leader nel settore nei mesi scorsi ha rilasciato una chatbot realizzato con la tecnologia GPT-3. L’acronimo sta per Generative Pretrained Transformer 3 ed è un modello AI di elaborazione linguistica all’avanguardia che è in grado di generare dei testi quasi indistinguibili da quelli elaborati dagli umani e ha un’ampia gamma di applicazioni, tra cui la traduzione linguistica, la modellazione linguistica e la generazione di testo per applicazioni come le chatbots.
Con 175 miliardi di parametri, è uno dei più grandi e potenti modelli di intelligenza artificiale per l’elaborazione del linguaggio. Quello delle chatbot per il servizio clienti è un mercato in rapida crescita e si prevede un tasso di aumento del 15% e un valore complessivo prossimo ai 10 miliardi di dollari nel 2023.
La chatbot chiamata Nanci all’inizio era in grado di risolvere meno del 10 per cento delle richieste dei clienti, ma dopo due mesi il tasso di successo è salito al 50 per cento, per attestarsi a regime al 60 per cento. Come effetto di questi miglioramenti, il suo utilizzatore, General Motors, ha potuto dismettere il suo Call Center che impiegava 700 persone, costruendo, con un numero inferiore di addetti, un servizio call avanzato che doveva trattare solo i casi difficili.
L’impatto dell’AI Act
L’AI Act, un regolamento dell’Unione europea sull’IA approvato il 14 giugno 2023, comprende disposizioni etiche rilevanti che promuovono un utilizzo responsabile e etico dell’IA impatterà fortemente sullo sviluppo di queste tecnologie di Intelligenza artificiale applicate alla sanità.
Dietro questo regolamento c’è la consapevolezza dell’importanza di affrontare le questioni etiche associate all’aumento dell’adozione dell’IA in vari settori, inclusa la sanità.
Il Regolamento riconosce che l’IA deve essere sviluppata e utilizzata nel rispetto dei valori fondamentali, dei diritti umani e delle libertà fondamentali. L’obiettivo è prevenire un utilizzo dannoso o discriminatorio dell’IA e promuovere un approccio basato sull’etica e sui principi di fiducia, trasparenza e responsabilità. Un aspetto cruciale dell’etica nell’AI Act riguarda l’obbligo di conformità a norme etiche specifiche, che le organizzazioni che sviluppano, commercializzano o utilizzano sistemi di IA, compresi quelli nel settore sanitario, devono rispettare.
Questo comporta l’adozione di misure adeguate per garantire l’etica dell’IA durante le fasi di progettazione, sviluppo e utilizzo dei sistemi, includendo anche l’adozione di meccanismi indipendenti di controllo e supervisione per garantire il rispetto delle norme etiche mediante l’istituzione di organi o autorità indipendenti.
Le disposizioni etiche presenti nel regolamento
Le disposizioni etiche presenti nel regolamento mirano pertanto a promuovere un utilizzo responsabile, trasparente ed equo dei sistemi di IA, salvaguardando i valori fondamentali e i diritti umani, e pongono grande enfasi sull’importanza dell’etica nell’utilizzo dei sistemi di IA in diversi settori con la consapevolezza che l’IA può avere un impatto significativo sulla società e che, quindi, è necessario ed opportuno assicurare che sia utilizzata in modo responsabile, trasparente ed equo.
L”AI Act si concentra sull’introduzione di principi etici e norme che guidino lo sviluppo, l’implementazione e l’uso dei sistemi di IA, includendo la progettazione e l’adozione di tutte quelle misure necessarie per prevenire delle applicazioni dannose e/o discriminatorie dell’IA, ivi comprese quelle di tipo etnico, di genere, di età o riguardanti la disabilità e per promuovere valori come la fiducia, la trasparenza e la responsabilità. In questa luce il regolamento opera per prevenire che l’IA perpetui o amplifichi le disuguaglianze esistenti nella società. Infine, l’AI Act richiede la trasparenza degli algoritmi utilizzati nei sistemi di IA. Ciò significa che gli operatori e gli sviluppatori devono essere in grado di spiegare come i sistemi di IA prendono decisioni e di fornire spiegazioni comprensibili agli utenti. Questa trasparenza favorisce la comprensione e la fiducia nell’IA, consentendo un controllo adeguato e l’assunzione di responsabilità.
Conclusioni
Più le tecnologie sono potenti, più devono essere maneggiate con cura e, soprattutto, si deve evitare di fare gli apprendisti stregoni e utilizzare irresponsabilmente strumenti che possono, poi, rivelare lati oscuri. Si tratta quindi di vigilare affinché le tecnologie dell’intelligenza artificiale siano benevolenti e dal loro uso non possa derivare nessun danno alla società. È questa la sfida che l’umanità dovrà affrontare nei prossimi anni.
L’Ai Act dell’Unione Europea è un primo, ma molto importante passo in questo senso.