La scoperta di farmaci ha spesso avuto una componente fortuita: dalla penicillina, trovata per caso da Alexander Fleming, all’aspirina, il cui effetto analgesico era noto sin dall’antichità.
Oggi, l’intelligenza artificiale (AI) sta rivoluzionando questo processo, sostituendo gran parte dell’elemento casuale con modelli computazionali avanzati. Questa transizione solleva interrogativi fondamentali: la scienza farmaceutica sta diventando troppo direzionata? Stiamo sacrificando l’innovazione imprevedibile a favore di un’efficienza algoritmica?
Indice degli argomenti
Razionalità computazionale e il suo impatto sulla scoperta farmaceutica
La razionalità computazionale si riferisce all’approccio basato su modelli matematici e algoritmici per prendere decisioni ottimali a partire dai dati disponibili. A differenza della razionalità classica, che presuppone un accesso perfetto alle informazioni e capacità di calcolo illimitate, la razionalità computazionale considera le limitazioni computazionali e i vincoli informativi.
Nel contesto della scoperta farmaceutica, questo significa che gli algoritmi di intelligenza artificiale (AI) ottimizzano le decisioni sulla base dei dati esistenti, riducendo il ruolo della casualità e della serendipità. Questo approccio migliora l’efficienza, ma potrebbe anche limitare la scoperta di composti innovativi e imprevedibili, fondamentali per nuove soluzioni terapeutiche.
Un gigante che rischia di essere di creta
L’efficacia dei modelli di AI dipende dalla qualità dei dati di training. L’applicazione efficace dell’intelligenza artificiale dipende dalla disponibilità di dati solidi e di alta qualità. Mentre l’intelligenza artificiale ha fatto passi da gigante nella progettazione di piccole molecole che prendono di mira in modo efficace proteine specifiche, questo successo è in gran parte attribuibile all’esistenza di un set di dati meticolosamente curato: il Protein Data Bank (PDB).
Per decenni, abbracciando generazioni di scienziati a partire dagli anni ’50, il PDB ha svolto la funzione di archivio centrale per le strutture proteiche. Questa dedizione all’accuratezza e alla completezza ha prodotto un database di eccezionale profondità e utilità. Il valore del PDB non risiede solo nel suo enorme volume di dati, ma anche nella sua rigorosa curatela. Ogni voce viene sottoposta a un’attenta convalida, garantendo l’affidabilità delle informazioni in essa contenute.
Questo elevato livello di qualità è fondamentale per l’addestramento dei modelli di intelligenza artificiale, poiché riduce al minimo l’introduzione di errori e distorsioni che potrebbero compromettere l’accuratezza delle previsioni. Di conseguenza, gli sforzi di scoperta di farmaci guidati dall’intelligenza artificiale che sfruttano il PDB hanno ottenuto notevoli progressi, in particolare nell’identificazione di potenziali candidati farmaci che interagiscono con specifici target proteici. Questa storia di successo sottolinea un principio fondamentale: le prestazioni dell’IA sono direttamente proporzionali alla qualità e alla quantità dei dati su cui viene addestrata.
Mentre l’IA eccelle in domini in cui esistono set di dati ben curati, come la previsione della struttura proteica, il suo progresso in altre aree è spesso ostacolato dalla mancanza di dati comparabili. Il PDB funge da potente esempio di come un database completo e attentamente curato possa accelerare il progresso scientifico e sbloccare il potenziale dell’IA in campi critici come la scoperta di farmaci. Per realizzare appieno il potenziale trasformativo dell’IA in diverse discipline scientifiche, dobbiamo dare priorità allo sviluppo e alla manutenzione di set di dati simili di alta qualità.
Il superamento della ricerca tradizionale
Tradizionalmente, la ricerca di nuovi farmaci comportava un lungo processo di screening sperimentale. Con l’avvento della chemioinformatica[1] e della farmacologia computazionale, le molecole possono ora essere progettate digitalmente, testate in simulazioni “in silico”[2] e ottimizzate prima ancora di essere sintetizzate. Le potenzialità della chemioinformatica sono oggetto di una notevole accelerazione grazie all’uso di modelli linguistici multimodali, capaci di interpretare enormi set di dati biochimici e genomici e di ridurre il bisogno di esperimenti empirici.
Il rischio di un’innovazione direzionata
Se l’AI si basa esclusivamente su dati esistenti, rischia di trascurare composti non convenzionali o meccanismi d’azione atipici. Questo fenomeno potrebbe portare a una convergenza dell’industria farmaceutica su soluzioni simili, riducendo la diversità terapeutica. La contropartita di questa tendenza è rappresentata dalla capacità dell’AI di generare farmaci in grado di garantire un elevato grado di personalizzazione delle terapie.
L’analisi genomica avanzata permette di sviluppare farmaci su misura per sottogruppi genetici specifici, aprendo la strada a trattamenti più efficaci e con meno effetti collaterali. La prevedibilità algoritmica potrebbe soffocare l’elemento di serendipità[3], che in passato ha portato a scoperte rivoluzionarie. Il peso della casualità nel processo di scoperta dei farmaci è tutt’altro che trascurabile. Molti farmaci di largo consumo sono, infatti, frutto di serendipità. La penicillina è stata scoperta da Alexander Fleming nel 1928 osservando che una muffa aveva ucciso i batteri in una piastra di Petri. Il Viagra (Sildenafil), inizialmente sviluppato per trattare l’angina, si è scoperto che aveva effetti collaterali inaspettati che lo hanno reso famoso come trattamento per la disfunzione erettile. La lista dei farmaci e delle molecole scoperte in modo fortuito è lunga e impone una riflessione in merito al rischio a cui si potrebbe andare incontro investendo nella sola direzione della produzione in silico a scapito del numero di farmaci “universali” con i quali si potrebbero garantire trattamenti farmacologici mano costosi e più accessibili per alcune popolazioni.
Il ruolo della Explainable AI (xAI) nella scoperta di farmaci
Se da un lato la prevedibilità algoritmica riduce l’incertezza, dall’altro rischia di escludere percorsi di scoperta non convenzionali. Per mitigare questo effetto, un ruolo chiave può essere giocato dalla Explainable AI (xAI). La capacità di spiegare il processo decisionale dei modelli AI potrebbe permettere ai ricercatori di identificare pattern di selezione troppo rigidi o bias sistematici, favorendo una maggiore diversità nelle strategie di sviluppo farmaceutico. La xAI può quindi rappresentare un ponte tra efficienza computazionale e creatività scientifica, garantendo un equilibrio tra automazione e intuizione umana.
L’Explainable AI (xAI) ha il compito di rendere trasparente e interpretabile il processo decisionale dei modelli AI, un aspetto cruciale nella scoperta di nuovi farmaci. La xAI permette di comprendere le ragioni dietro la selezione di una specifica molecola, identificando potenziali bias nei dati di training. Questo è particolarmente importante per garantire la sicurezza e l’affidabilità dei farmaci sviluppati con AI, evitando che decisioni algoritmiche opache portino a risultati clinici imprevedibili o a discriminazioni tra diverse popolazioni di pazienti. L’integrazione della xAI nelle pipeline di ricerca farmaceutica è dunque essenziale per bilanciare innovazione ed equità nel settore.
Il rapporto tra serendipità e xAI
La serendipità è legata all’imprevedibilità e all’intuizione umana (e non solo) e ha portato a scoperte scientifiche importanti. Dal lato opposto, la spiegabilità incarna l’ideale della razionalità, del bisogno di chiarezza, trasparenza e prevedibilità di decisioni che potrebbero mostrare una natura solo intuitiva. Si crea dunque una dicotomia: può la natura razionale, sistematica e trasparente della xAI coesistere con l’imprevedibile creatività della serendipità? Rendendo il processo decisionale dei modelli spiegabile, la xAI restituisce all’uomo la capacità di riconoscere il valore nei risultati imprevisti, in modo che le scoperte accidentali non vengano respinte come semplici anomalie ma affrontate come terreni inesplorati.
Verso una serendipità programmata?
Un approccio finalizzato alla conservazione di una componente aleatoria nel processo di scoperta di nuovi farmaci potrebbe essere raggiunto integrando elementi di casualità nelle strutture molecolari proposte dai modelli AI. Un modello deliberatamente “disturbato” nei percorsi algoritmici potrebbe simulare in modo molto verosimile i salti intuitivi tipici del pensiero umano. Aldilà degli aspetti tecnici attraverso i quali configurare un simile modello AI, restiamo comunque perplessi sul piano filosofico dal momento che non siamo certi che un simile approccio renderebbe l’AI più “creativa” o vicina al pensiero umano.
La casualità nell’IA
Le soluzioni basate su AI che hanno avuto impatto maggiore nel mondo della scoperta di nuovi farmaci e, in generale, nell’area delle scienze della vita, sfruttano modelli di deep learning; alcuni esempi sono: AlphaFold di DeepMind ha ottenuto risultati sorprendenti nella scoperta della struttura delle proteine, sulla previsione del livello di interazione tra farmaco e proteina target (Drug-Target Interaction (o DTI) Prediction) architetture per la previsione di sequenze come i Language Model e reti neurali per grafihanno dimostrato grande efficacia; infine, i modelli di deep learning si sono dimostrati gli strumenti principali per l’analisi di immagini mediche per diverse sfide e tipologie di immagine.
Tutti questi modelli di deep learning fanno largo uso di casualità, questo è un elemento cardine e, anzi, è imprescindibile per far sì che i modelli generalizzino, e dunque si adattino oltre i dati su cui sono stati addestrati. Questo non ci avvicina, come già accennato, a riprodurre quei salti intuitivi che sono propri dell’umano, ma sono una conferma ulteriore di quanto la casualità e l’imprevedibilità siano propulsori per lo sviluppo dell’AI.
Disuguaglianze sociali
L’uso di dataset non rappresentativi sia perché non tracciano una parte della popolazione di riferimento sia perché tracciano in modo non corretto la popolazione di riferimento, potrebbe indurre i modelli AI a produrre farmaci meno efficaci per determinate popolazioni. Questo problema può esacerbare le disuguaglianze sanitarie, che sono già un tema critico in molti paesi, inclusa l’Italia. Le disuguaglianze sanitarie in Italia sono ben documentate, con differenze significative nell’accesso ai servizi sanitari e nell’uso dei farmaci tra diverse regioni e gruppi socioeconomici. Ad esempio, l’Atlante delle disuguaglianze sociali nell’uso dei farmaci pubblicato dall’AIFA mostra che il consumo di farmaci è più elevato nelle aree più svantaggiate, spesso a causa di un peggior stato di salute e di una mancanza di prevenzione primaria. In altre parole, l’introduzione di farmaci sviluppati con AI potrebbe amplificare le disuguaglianze esistenti se i modelli sono addestrati principalmente su dati provenienti da popolazioni urbane o di alto status socioeconomico. Inoltre, l’interpretazione delle interazioni biochimiche da parte dell’AI potrebbe essere influenzata da bias intrinseci nei dati, portando a errori sistematici difficili da individuare. La regolamentazione in questo campo è ancora in evoluzione, e il rischio di disuguaglianze sanitarie è un problema concreto.
Ibridazioni industriali
Una prospettiva di office replacement nella quale i laboratori sono sostituiti dai data center mi inquieta perché disegna uno scenario ai limiti del distopico in cui l’AI smette di essere considerato uno strumento di supporto e sostituisce del tutto il metodo sperimentale scoprendo farmaci in modo autonomo e riducendo al minimo l’intervento umano. Tuttavia, l’evoluzione tecnologica ha sempre portato a nuove forme di collaborazione tra uomo e macchina. In questa prospettiva siamo certi che anche l’AI, come le tecnologie che l’hanno preceduta o generata, è destinata ad essere uno strumento a supporto dei biologi computazionali. I biologi computazionali e gli scienziati continueranno a svolgere un ruolo cruciale nella interpretazione dei dati forniti da una AI, nella verifica dell’efficacia e della sicurezza dei farmaci.
I laboratori del futuro
La trasformazione dei laboratori farmaceutici rappresenta una delle evoluzioni più significative nella ricerca e sviluppo di nuovi farmaci. Secondo recenti report, le aziende farmaceutiche stanno investendo in laboratori connessi, digitalizzati e sostenibili, con l’obiettivo di accelerare il time-to-market, ottimizzare i costi e migliorare i tassi di approvazione dei farmaci. L’AI gioca un ruolo chiave, permettendo di automatizzare processi complessi e ridurre gli errori sperimentali. Tuttavia, le sfide non mancano: la gestione dei dati, la crescente complessità dei processi e la difficoltà nel reperire professionisti con competenze trasversali sono ostacoli concreti da superare. La direzione è chiara: i laboratori del futuro saranno ambienti altamente tecnologici, dove l’AI e l’intervento umano collaboreranno per trasformare radicalmente la scoperta di nuovi farmaci.
L’equilibrio tra efficienza e creatività nella scienza
L’AI ha reso il processo di scoperta farmaceutica più veloce ed efficiente, ma è necessario bilanciare questi vantaggi con la necessità di mantenere un certo grado di imprevedibilità e innovazione. La sfida per il futuro sarà quella di integrare l’intelligenza artificiale nel processo di ricerca senza perdere il valore della creatività scientifica, trovando un equilibrio tra efficienza computazionale e intuizione umana.
Bibliografia
Nuovi farmaci grazie all’AI: ecco le svolte attese nel 2025 – Remco Jan Geukes Foppen, Vincenzo Gioia, Alessio Zoccoli
Liu S, Liu Y, Xu H, Xia J, Li SZ. SP-DTI: subpocket-informed transformer for drug-target interaction prediction. Bioinformatics. 2025 Mar 4;41(3):btaf011. doi: 10.1093/bioinformatics/btaf011. PMID: 39798127; PMCID: PMC11886779. https://pmc.ncbi.nlm.nih.gov/articles/PMC11886779/
Kuş, Z., Aydin, M. MedSegBench: A comprehensive benchmark for medical image segmentation in diverse data modalities. Sci Data 11, 1283 (2024). https://doi.org/10.1038/s41597-024-04159-2 https://rdcu.be/edG1e
Rolling the dice for better deep learning performance: A study of randomness techniques in deep neural networks – Mohammed Ghaith Altarabichi, Sławomir Nowaczyk, Sepideh Pashami, Peyman Sheikholharam Mashhadi, Julia Handl https://arxiv.org/abs/2404.03992 https://doi.org/10.48550/arXiv.2404.03992
‘Explainambiguity:’ When What You Think Is Not What You Get. In Life Science Leader by Vincenzo Gioia and Remco Jan Geukes Foppen (2024)
Methodology for Safe and Secure AI in Diabetes Management in Journal of Diabetes Science and Technology (2024) – Geukes Foppen, Remco Jan; Gioia, Vincenzo; Gupta, Shreya; Johnson, Curtis; Giantsidis, John; Papademetris, Maria – https://doi.org/10.1177/19322968241304434
[1] La chemioinformatica è l’uso del computer e delle tecniche dell’informazione, applicate ad una serie di problemi nel campo della chimica. Queste tecniche in silico sono usate dalle compagnie farmaceutiche nel processo di scoperta dei nuovi farmaci.
[2] La locuzione in silico è usata per indicare fenomeni di natura chimico-biologica riprodotti in una simulazione matematica al computer, invece che in provetta o in un essere vivente.
[3] La serendipità è la capacità di fare scoperte fortunate in modo imprevisto, spesso mentre si sta cercando qualcos’altro.