“Google indossa il camice bianco. Affidabile quasi quanto un medico vero”, recitava un recente articolo dell’agenzia stampa AGI. Sgombriamo subito il campo: a parte il titolo, che spesso serve per “acchiappare” i click, il testo, che non riporta una firma di un autore non sembra scritto da una intelligenza artificiale. Infatti, ZeroGPT, il tool online che permette di distinguere i testi scritti dalle IA da quelli umani, conferma che il testo è umano al 100%.
Se il chatbot vuol sostituirsi al medico
Parlo, allora, all’umano che ha scritto il seguente testo: “A dirlo, sono i ricercatori della Google Research che hanno appena diffuso i risultati di un nuovo benchmark. Un bot che sbaglia quanto un medico vero. Med-PaLM nasce dall’ottimizzazione di PaLM e della sua variante Flan-PaLM. Dai risultati emerge che un gruppo di medici ha giudicato solo il 61,9% delle risposte in formato lungo Flan-PaLM scientificamente valide, rispetto al 92,6% delle risposte Med-PaLM, alla pari con le risposte generate dai medici (92,9%). Allo stesso modo, il 29,7% delle risposte Flan-PaLM è stato valutato come potenzialmente in grado di portare a esiti dannosi, in contrasto con il 5,8% per Med-PaLM, paragonabile alle risposte generate dal medico (6,5%).”
Amico umano, che dici, sei mai andato da un medico? Magari no ma almeno un parente, una volta. lo avrai accompagnato da un medico. Il medico fa la diagnosi e prescrive la terapia e lo fa con una anamnesi, (in medicina è la raccolta particolareggiata delle notizie che riguardano il paziente), un esame obbiettivo (lo tocca, lo palpa, lo ascolta, lo guarda negli occhi valuta il tono della voce, i movimenti) e valutando ulteriori accertamenti, che prescrive.
Inoltre, come diceva sempre il mio maestro, l’ultimo medico che arriva su un caso è sempre il più bravo perché si appoggia ed evita gli errori che hanno fatto gli altri suo colleghi prima di lui.
Lo fa non solo con l’anamnesi, come fa una intelligenza artificiale odierna. Quindi l’articolo corretto dovrebbe intitolarsi: “Utilizzando solo l’anamnesi, raccolta in chat, l’AI ha risultati simili ad un medico che a sua volta usi solo l’anamnesi raccolta in chat. Ti fideresti, amico giornalista, di una diagnosi, per te o per tua mamma, fatta da un medico solo in chat Whatsapp o SMS, senza neppure aver sentito la tua voce, come almeno sentirebbe al telefono, senza neppure vederti, come farebbe con una televisita e senza valutare esami attuali e pregressi? Probabilmente se facesse così cambieresti medico in pochi click.
Superare i quiz non vuol dire essere un bravo medico
Diciamo che nei quiz l’IA è brava almeno come un medico, benissimo, la useremo per superare i quiz ECM alla fine dei corsi per l’aggiornamento obbligatorio e scopriremo se è davvero così ma affermare che sbaglia quanto un medico vero non lo farei, anzi, caro amico giornalista, mi sento scherzosamente offeso anche solo dall’idea che tu possa pensare di paragonarmi, dopo 42 anni di esperienza ad un simpatico chatbot esperto di customer care. Infatti, l’IA risponde sempre “mi dispiace che tu abbia un dolore al xxxx, vediamo cosa posso suggerirti.” Anche in un articolo su Jama i pazienti preferivano nelle chat le risposte delle IA! Accidenti, io non lo faccio mai, però quando entra un paziente nell’ambulatorio mi alzo dalla sedia, gli stringo la mano, mi presento, “sono il dott. Pillon, che succede? Come mai è venuto a trovare un Angiologo?” Noi medici la chiamiamo empatia, non customer care!
IA e medicina, una valutazione scientifica delle tecnologie correnti
A parte la logica, che spesso serve, parliamo anche di scienza. Il GAO (U.S. Government Accountability Office) è il dipartimento del governo USA che si occupa di accountability (da Oxford Dictionary: responsabilità, affidabilità; il fatto o la condizione di essere responsabile, affidabile) ha condotto uno studio nel settembre 2022, sull’intelligenza artificiale nella salute.
Perché al GAO è stato chiesto di realizzare questo studio? Lo spiegano nell’incipit: “Gli errori diagnostici interessano più di 12 milioni di americani ogni anno, con costi aggregati probabilmente superiori a 100 miliardi di dollari, secondo un rapporto della “Society to Improve Diagnosis in Medicine”. Il Machine Learning, ML, un sottocampo della IA, è emerso come un possibile, potente strumento per risolvere problemi complessi in diversi domini, tra cui la diagnostica medica.
Tuttavia, le sfide per lo sviluppo e l’uso delle tecnologie di apprendimento automatico sono in aumento, in particolare nelle tecnologie di diagnostica medica, presentano anche aspetti economici e questioni normative. Al GAO è stato chiesto di condurre una valutazione delle tecnologie correnti e gli usi emergenti dell’apprendimento automatico nella diagnostica medica, così come le sfide e implicazioni politiche di queste tecnologie. “Abbiamo valutato le tecnologie disponibili ed emergenti di ML; intervistato stakeholder del governo, industria e università; convocato attorno ad un tavolo esperti in collaborazione con la National Accademy of Medicine ed esaminato la letteratura scientifica”.
Un lavoro poderoso, di oltre 100 pagine, che si conclude con tre livelli di policy che potrebbero aiutare ad affrontare queste sfide per cogliere i vantaggi delle tecnologie diagnostiche di ML. Identificano possibili azioni da parte dei responsabili delle policy, che includono il Congresso, le agenzie federali, statali e locali, il Governo, le istituzioni accademiche, di ricerca e l’industria.
Di seguito è riportato un riepilogo delle opzioni strategiche e delle opzioni pertinenti, le opportunità e le considerazioni su tre assi centrali: gli strumenti di valutazione, l’accesso ai dati e la collaborazione, tutti assi indispensabili per lo sviluppo del machine learning
Strumenti di valutazione
I policymakers dovrebbero creare incentivi, orientamenti e politiche per incoraggiare a richiedere la valutazione del ML, nelle Tecnologie diagnostiche, in uno spettro di condizioni di implementazione e con una demografia rappresentativa della destinazione d’uso. Queste azioni potrebbero aiutare a risolvere il problema della dimostrazione dell’efficacia delle tecnologie di ML applicate al mondo reale (Real World Evidence).
Accesso ai dati
I policymakers debbono sviluppare o estendere l’accesso per prodotti di qualità selezionati, ai dati clinici per sviluppare e testare il ML nelle tecnologie diagnostiche mediche. Gli esempi includono standard per raccolta e condivisione di dati, creazione data commons, o utilizzando incentivi per incoraggiare la condivisione dei dati. Anche in questo caso queste azioni potrebbero aiutare a risolvere il problema della dimostrazione dell’efficacia delle tecnologie di ML applicate al mondo reale (Real World Evidence)
Collaborazione
I policymakers dovrebbero promuovere la collaborazione tra sviluppatori, fornitori e autorità di regolamentazione nello sviluppo e adozione di Tecnologie diagnostiche con ML. Ad esempio, i policymakers potrebbero coinvolgere esperti multidisciplinari nella progettazione e lo sviluppo di queste tecnologie attraverso workshop e conferenze. Questa opzione politica potrebbe aiutare ad affrontare le sfide di soddisfare le esigenze mediche e colmare le lacune normative.
Non si cita spesso nel rapporto il termine IA ma più correttamente l’apprendimento automatico, non si parla si sostituzione del clinico con chatbot ma di integrazione con le tecnologie diagnostiche, insomma ben lontano da quelli che sono gli “hype” della comunicazione generalista ed approssimativa. Il riconoscimento automatico di un tumore presunto alla colonscopia, la diagnosi presunta su una TAC od una risonanza, fino al digital twin, il gemello digitale, per ora futuribile, del paziente ma gia presente come gemello digitale preoperatorio di un organo, ad esempio prima dell’impianto endovascolare di una valvola cardiaca.
Conclusioni
Speriamo che la FNOMCEO (Federazione Nazionale degli Ordini dei Medici Chirurghi e degli Odontoiatri) almeno ogni tanto, prenda posizione sugli articoli di confronto tra IA e medici, spesso offensivi, che si accompagnano poi a commenti sui social del tipo “certo, almeno l’IA ti risponde, il mio medico non lo trovo mai”. Vogliamo un FSE potenziato dal ML, ma solo se fatto bene
La parola chiave è “Real World Evidence”, evidenze basate sui dati del mondo reale e non sulle chiacchiere di qualche studio pseudoscientifico, anche qui troviamo gli acchiappaclick, non solo sulla rete. I medici che usano l’IA sostituiranno quelli che non la usano ma dubito molto che l’IA sostituirà con una chatbot il medico. A proposito, sappiate che tutto questo testo l’ho scritto di mio pugno ma Zero GPT dice che un paragrafo, per essere precisi il 4% del testo è stato scritto da una IA. Persino il riassunto della tesi di laurea magistrale in ingegneria elettronica di mio figlio, scritta otto anni fa, ben prima dell’arrivo della IA è stata scritta per il 45% da una IA secondo zero GPT.