ChatGPT, il noto sistema di intelligenza artificiale generativa basato sul large language model (LLM), ha stravolto numerose attività e promette di avere importanti applicazioni in numerosi altri ambiti. Uno nei quali il dibattito è più serrato è quello della ricerca medica e biomedica e in particolare quello della comunicazione dei risultati. I ricercatori hanno iniziato a sperimentarne le potenzialità come supporto alla preparazione di revisioni sistematiche, per completare ricerche bibliografiche, per riassumere articoli e discutere i risultati sperimentali.
La presa di posizione di Jama
Un recente articolo di JAMA (Journal of Medical Association) prende posizione sull’uso di ChatGPT e strumenti simili su tre aspetti fondamentali del processo della comunicazione della ricerca:
- quello dell’accreditamento di tali strumenti come co-autori di un articolo scientifico,
- quello del loro impiego nella revisione tra pari (cioè quel processo in base al quale gli esperti ai quali i manoscritti vengono inviati decidono se questi siano meritevoli o meno di essere pubblicati da una rivista scientifica),
- quello del loro uso da parte delle case editrici e degli editor delle riviste per agevolare alcuni processi.
Tale articolo arriva a stilare delle vere proprie linee guida a cui autori, revisori tra pari (i peer reviewer) ed editor devono attenersi per garantire un uso responsabile di tali strumenti da parte loro e, in definitiva, l’affidabilità dell’intero processo di selezione, valutazione e pubblicazione degli articoli che appaiono sulle pagine delle riviste JAMA e JAMA Network.
AI generativa e authorship
Il dibattito sulla opportunità di riconoscere o meno ChatGPT come (co)autore di un articolo scientifico ha avuto inizio dopo che la rivista Nurse Education in Practice a gennaio di quest’anno aveva ospitato sulle sue pagine un articolo in cui compariva ChatGPT come coautore.
Immediate sono state le reazioni di importanti gruppi editoriali come Science, Elsevier e Nature, i quali, aggiornando le rispettive politiche editoriali e di pubblicazione, hanno fin da subito sostenuto fermamente la loro contrarietà all’ipotesi che ChatGPT possa comparire come autore in un articolo scientifico pubblicato sulle loro riviste. Nature si è spinta oltre, descrivendo ChatGPT come un pericolo per la trasparenza della scienza.
JAMA invece lascia un certo margine di manovra per l’uso di ChatGPT come assistente per la scrittura. Le sue linee guida infatti, seppur precludono l’inclusione di strumenti di intelligenza artificiale come autori di un articolo, richiedono agli autori la segnalazione dell’uso di tali strumenti nella preparazione di un manoscritto e di altri contenuti o quando essi sono utilizzati nell’ambito della metodologia impiegata nella ricerca in pubblicazione. Inoltre, è disincentivato l’invio e la pubblicazione di immagini cliniche create da strumenti di intelligenza artificiale, a meno che esse stesse non siano l’oggetto della ricerca o facciano parte formalmente della metodologia per condurla. In ogni caso, per quanto riguarda l’authorship, le linee guida richiedono agli autori l’assunzione della responsabilità per l’integrità e la veridicità del contenuto generato da questi strumenti, quando usati.
Infine, in base a tali linee guida, la dichiarazione dell’uso di strumenti generativi o di modelli linguistici per l’apprendimento automatico per scrivere (o supportare la scrittura di) testi, tabelle, figure o creare (o supportare la creazione di) video, deve essere indicata nella sezione “Metodi” o nella sezione dei “Ringraziamenti” dell’articolo, specificando il nome dello strumento utilizzato, la versione e il produttore.
Da tale dichiarazione rimangono invece esclusi gi strumenti di base per il controllo grammaticale e ortografico (come quelli di Word), quelli per la gestione dei riferimenti bibliografici (come per esempio EndNote), e altri strumenti di uso comune tra i ricercatori che facilitano la creazione di manoscritti scientifici.
Su questo punto molti ricercatori e sostenitori dell’uso degli strumenti di intelligenza artificiale nella costruzione di manoscritti scientifici si interrogano sulla reale efficacia di queste regole.
Provocatoriamente sostengono che andrebbe valutata l’opportunità di far dichiarare agli autori anche altre forme di assistenza alla scrittura basate sull’intelligenza artificiale che essi utilizzano. Strumenti come Grammarly e Writeful sono molto utilizzati dagli autori e dai ricercatori. Perché non rendere esplicito anche il loro uso?).
A ciò si aggiunge il fatto che ChatGPT è già stato integrato in Bing Chat e presto lo sarà anche in Microsoft Word. Vietare questo strumento non significherebbe vietare l’uso dei programmi di ricerca e di videoscrittura?
AI generativa e peer review
Esistono molte esperienze di uso di chatbot generativi e di altri strumenti di intelligenza artificiale nel processo di peer review (revisione tra pari), con alcune esperienze imbarazzanti. Ad esempio, un autore ha inserito il suo manoscritto in un chatbot per creare una revisione tra pari. Il chatbot ha generato un buon riassunto del lavoro e ha fornito dei suggerimenti standard sullo stile di scrittura e sulla leggibilità. Tuttavia, quando è stato chiesto di suggerire miglioramenti più specifici, il chatbot ha fornito commenti che non avevano alcuna relazione con il testo. Inoltre, ha erroneamente suggerito che i test statistici non erano appropriati per la tipologia di dati e, quando sono stati richiesti ulteriori riferimenti bibliografici, il chatbot ha fornito citazioni di articoli inesistenti.
Altri autori hanno analizzato i potenziali vantaggi di questi strumenti per migliorare l’efficienza e la produttività nel processo editoriale e nella revisione tra pari e per supportare il lavoro del revisore. Pur sottolineando i vantaggi, hanno concluso che “la fondamentale opacità dei dati di formazione, dei meccanismi interni, della gestione dei dati e dei processi di sviluppo di tali sistemi sollevano preoccupazioni in riferimento ai possibili bias, alla riservatezza e alla riproducibilità delle revisioni”.
Le riviste JAMA e JAMA Network hanno regolamentato l’uso degli strumenti di intelligenza artificiale da parte dei revisori, raccomandando loro un uso responsabile che sia aderente alle regole di riservatezza dei manoscritti (che non possono essere diffusi in nessuna forma prima della loro effettiva pubblicazione). Per esempio, le istruzioni fornite ai revisori tra pari dopo che hanno accettato un invito a rivedere un manoscritto ora includono quanto segue: “L’inserimento di qualsiasi parte del manoscritto o del suo riassunto o di una revisione in un chatbot, modello linguistico o strumento simile costituisce una violazione dell’accordo di riservatezza. Se hai utilizzato uno strumento di intelligenza artificiale come risorsa per la tua revisione in un modo che non viola la politica di riservatezza della rivista, devi fornire il nome dello strumento, la sua versione e il nome del produttore, e devi indicare come è stato utilizzato.”
Nel ricordare che il revisore è il responsabile ultimo dell’intero contenuto prodotto nell’ambito della revisione, le linee guida sottolineano che, per questioni di riservatezza, è caldamente sconsigliato l’inserimento di qualsiasi parte del manoscritto o della revisione in un chatbot generativo o in sistemi di intelligenza artificiale basati su modelli linguistici.
AI generativa e processi editoriali
Molte riviste mediche già da diverso tempo utilizzano strumenti simili a quelli forniti dall’intelligenza artificiale per la presentazione dei manoscritti, la revisione tra pari e nei processi di pubblicazione. Tra le funzioni che essi esplicano, si possono ricordare il controllo dei manoscritti rispetto alle duplicazioni, ai plagi o ai falsi, l’analisi dei metadati dei manoscritti ricevuti, l’identificazione delle parole chiave per supportare il processo editoriale e per migliorare la reperibilità dei contenuti pubblicati, l’identificazione di revisori sulla base di parole chiave o altri metadati, la verifica della formattazione e dei contenuti dei manoscritti in fase di invio e durante la fase di editing, la validazione dei riferimenti bibliografici, la creazione di traduzioni, riassunti e di trascrizioni di contenuti multimediali.
Sebbene ciascuno di questi processi richieda contestualmente un certo livello di revisione e supervisione umana, è comune tra le case editrici e gli editor delle riviste scientifiche l’idea che strumenti di intelligenza artificiale generativa possano fornire un valido supporto in ciascuna delle fasi del processo di pubblicazione di un articolo scientifico.
In particolare, JAMA e JAMA Network riconoscono che queste tecnologie in evoluzione stanno cambiando il processo di creazione, generazione, revisione e valutazione dei contenuti delle riviste e probabilmente faciliteranno il lavoro degli autori, dei revisori, degli editori e dei direttori delle riviste e continueranno a trasformare il campo della editoria scientifica. Le stesse riviste mirano a utilizzare queste tecnologie in modo responsabile e continueranno a fornire agli autori e ai revisori una guida sull’uso responsabile e trasparente di tali strumenti.
Detto ciò, JAMA e JAMA Network auspicano che siano affrontate compiutamente le molte questioni irrisolte, comprese le preoccupazioni su potenziali bias, le questioni etiche e i diritti di proprietà intellettuale dei contenuti generati da questi strumenti.