L’intelligenza artificiale (IA) è al centro di una narrazione mediatica e commerciale che tende a enfatizzarne le capacità, spesso e volentieri oltrepassando i confini tra realtà e fantascienza.
Il recente libro AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference” di Arvind Narayanan e Sayash Kapoor [8], collegato ad un blog con lo stesso nome[1], offre una lucida analisi di questo fenomeno, evidenziando come la spettacolarizzazione dell’IA possa portare a conseguenze dannose per la società.
Snake Oil: la spettacolarizzazione dell’IA
Il curioso titolo è ispirato ai miracolosi linimenti a base di olio di serpente pubblicizzati negli Stati Uniti e altrove tra il diciannovesimo e il ventesimo secolo che promettevano innumerevoli benefici di salute senza alcuna base scientifica.
La tendenza a presentare l’intelligenza artificiale come una tecnologia magica, capace di risolvere qualsiasi problema attraverso l’apprendimento di grandi quantità di dati, ricorda proprio l’olio di serpente, e ha radici nella storia dell’informatica e della cultura popolare [7]. Tuttavia, nell’ultimo decennio questa tendenza ha raggiunto livelli senza precedenti, alimentata da interessi commerciali, da una copertura mediatica sensazionalistica e una generale fascinazione per le potenzialità delle nuove tecnologie.
Come si manifesta la spettacolarizzazione dell’IA
La spettacolarizzazione dell’IA si manifesta in diversi modi. Da un lato, abbiamo le promesse delle aziende tecnologiche che presentano i loro prodotti come rivoluzionari, capaci di superare il giudizio umano in compiti complessi come la selezione del personale, la valutazione del rischio criminale o la diagnosi medica [10]. Dall’altro, i media tendono a riprendere acriticamente questi messaggi, amplificandoli e contribuendo a creare un’immagine distorta delle reali capacità dell’IA.
La narrativa intorno all’IA predittiva e l’impatto nel campo della ricerca scientifica
Particolarmente problematica è la narrativa intorno all’IA predittiva, presentata come capace di anticipare con precisione comportamenti umani ed eventi futuri. Questa visione non solo è tecnicamente infondata, come dimostrato da numerosi studi empirici [5], ma può avere conseguenze negative quando viene utilizzata per prendere decisioni che impattano sulla vita delle persone.
La spettacolarizzazione ha anche un effetto significativo nel mondo della ricerca scientifica. La pressione a produrre risultati sensazionali può portare a pratiche di ricerca discutibili e alla pubblicazione di studi che sovrastimano le capacità dei sistemi di IA [3]. Questo fenomeno è evidente nel campo dell’IA predittiva, dove molti risultati pubblicati si rivelano difficili da replicare o basati su metodologie problematiche.
Implicazioni economiche e sociali della spettacolarizzazione dell’IA
La spettacolarizzazione dell’IA ha anche importanti implicazioni economiche e sociali. Le organizzazioni, spinte dalla paura di rimanere indietro rispetto ai loro competitori, investono ingenti risorse in sistemi di IA predittiva la cui efficacia non è stata adeguatamente dimostrata [13]. Questo può portare a uno spreco di risorse, oltre a creare potenziali danni quando questi sistemi vengono utilizzati per prendere decisioni importanti.
La spettacolarizzazione dell’IA nel settore pubblico
Nel settore pubblico, la spettacolarizzazione dell’IA si manifesta attraverso promesse di efficienza e modernizzazione che rischiano di tradursi in investimenti poco mirati. Un caso significativo riguarda l’implementazione di sistemi di IA predittiva per la manutenzione urbana in diverse città italiane. Nonostante le promesse iniziali di ottimizzazione radicale degli interventi, molte amministrazioni si sono trovate alle prese con sistemi costosi e difficili da integrare nei processi esistenti, con benefici reali inferiori alle aspettative.
Questioni etiche e sociali dell’IA predittiva
Inoltre, la narrazione dominante tende a minimizzare o ignorare completamente le questioni etiche e sociali sollevate dall’uso dell’IA predittiva. Problemi come la privacy, la discriminazione algoritmica e la responsabilità delle decisioni basate su IA vengono spesso trattati come dettagli tecnici secondari, mentre dovrebbero essere al centro del dibattito sulla diffusione di queste tecnologie [11].
Infine, la spettacolarizzazione contribuisce anche a creare una visione binaria dell’IA, divisa tra entusiasti acritici e oppositori totali. Questa polarizzazione rende difficile sviluppare un dibattito pubblico equilibrato e costruttivo sulle reali opportunità e sfide poste dall’intelligenza artificiale. È necessario quindi promuovere una comprensione più realistica di queste tecnologie, che ne riconosca sia le potenzialità che i limiti.
Il mito della prevedibilità
Uno degli aspetti più problematici della spettacolarizzazione dell’IA riguarda la capacità di prevedere il futuro. Le aziende che sviluppano sistemi di IA predittiva promettono di poter anticipare comportamenti umani, risultati economici, rischi criminali e persino successi professionali. Questa narrativa si basa su una fondamentale incomprensione della complessità dei fenomeni sociali e dei limiti intrinseci della previsione algoritmica [8,10].
L’effetto farfalla
L’idea che grandi quantità di dati, combinati con algoritmi di apprendimento, possano portare a previsioni accurate del comportamento umano ignora i principi fondamentali della complessità sociale.
In primo luogo, i sistemi sociali, essendo sistemi dinamici fortemente non lineari, sono caratterizzati da quella che la letteratura chiama “dipendenza dalle condizioni iniziali” o “effetto farfalla”: piccole variazioni nelle condizioni di partenza possono portare a risultati radicalmente diversi nel tempo. Questo rende intrinsecamente impossibile fare previsioni accurate a lungo termine.
Un esempio viene dal campo della giustizia predittiva, dove i sistemi di IA sono utilizzati per valutare il rischio di recidiva dei detenuti. Numerosi studi hanno dimostrato che questi sistemi non sono significativamente più accurati della casualità o di valutazioni basate su pochi parametri. Come evidenziato da Angwin et al. [1], il sistema COMPAS, ampiamente utilizzato nei tribunali americani, ha un tasso di accuratezza paragonabile a quello di valutatori non esperti che dispongono di informazioni basilari.
Il problema fondamentale è che questi sistemi si basano su correlazioni statistiche in dati storici, ma le correlazioni non implicano causalità. Un sistema può individuare che le persone con determinate caratteristiche hanno più probabilità di commettere reati, ma questo non significa che quelle caratteristiche causino il comportamento criminale. Inoltre, le correlazioni possono cambiare nel tempo o essere il risultato di pregiudizi sistemici presenti nei dati di addestramento.
Un altro aspetto critico riguarda l’effetto riflessivo delle previsioni sul comportamento umano. Quando le persone sono consapevoli di essere valutate da sistemi predittivi, modificano il loro comportamento in modi che invalidano le previsioni stesse. Questo fenomeno è stato ampiamente studiato nelle scienze sociali e viene spesso ignorato dai promotori dell’IA predittiva.
Il ruolo fondamentale del contesto e delle circostanze di ogni situazione
La pretesa di prevedibilità ignora anche il ruolo fondamentale del contesto e delle circostanze di ogni situazione. I sistemi di IA predittiva tendono a trattare gli individui come aggregati di caratteristiche misurabili, perdendo di vista l’importanza delle situazioni specifiche, delle relazioni sociali e delle motivazioni personali che influenzano il comportamento umano.
Particolarmente preoccupante è l’uso di questi sistemi in ambito professionale. Alcune aziende affermano di poter prevedere il successo lavorativo di un candidato basandosi su analisi basate su IA di colloqui o test online. Queste affermazioni non solo mancano di validazione scientifica, ma rischiano anche di perpetuare discriminazioni esistenti e di ridurre la diversità nei luoghi di lavoro.
Conseguenze pratiche dell’illusione della prevedibilità
L’illusione della prevedibilità ha conseguenze pratiche. Le organizzazioni che investono in questi sistemi trascurano approcci più efficaci per affrontare i problemi sociali. Per esempio, invece di cercare di prevedere chi commetterà un crimine, potrebbe essere più utile investire in programmi di prevenzione e supporto sociale.
Inoltre, la fiducia nelle previsioni algoritmiche può portare a una sorta di “determinismo tecnologico”, dove le decisioni sono delegate ai sistemi di IA senza un adeguato scrutinio critico. Questo rischia di creare un circolo vizioso in cui le previsioni diventano profezie che si auto-avverano, rafforzando i pregiudizi esistenti e limitando le opportunità di cambiamento sociale.
Il marketing dell’inevitabilità
La narrazione dominante intorno all’IA predittiva è caratterizzata da un peculiare senso di inevitabilità. Le aziende tecnologiche e i media spesso presentano l’adozione di sistemi di IA predittiva come un processo inevitabile e necessario per rimanere competitivi nel mercato globale. Questa narrativa crea una pressione artificiale su organizzazioni e istituzioni per adottare tecnologie non provate o inadeguate [4,5].
La metafora della “rivoluzione tecnologica”
La retorica dell’inevitabilità si manifesta attraverso diversi meccanismi. In primo luogo, viene spesso utilizzata la metafora della “rivoluzione tecnologica”, presentando l’IA come una forza inarrestabile che trasformerà radicalmente ogni aspetto della società. Chi non si adegua viene dipinto come destinato all’obsolescenza o all’irrilevanza. Questa narrativa ignora deliberatamente il fatto che l’adozione tecnologica è sempre un processo sociale guidato da scelte umane e non una legge naturale. Inoltre, in Italia, la presenza capillare di PMI nel tessuto produttivo rende ancora più critica la necessità di valutare attentamente investimenti e implementazioni in ambito IA.
Il marketing dell’inevitabilità si serve anche di una particolare forma di determinismo tecnologico. Le aziende presentano sistemi decisionali basati su IA come l’evoluzione naturale e necessaria dei processi decisionali, suggerendo che la sostituzione del giudizio umano con sistemi algoritmici sia non solo desiderabile ma inevitabile. Come evidenziato da Zuboff [13], questa retorica serve a normalizzare pratiche che potrebbero altrimenti incontrare resistenza sociale.
I sistemi di selezione basati su IA
Un esempio emblematico si trova nelle risorse umane, dove i sistemi di selezione basati su IA sono spesso considerati come l’unico modo per gestire efficacemente grandi numeri di candidature. Le aziende che vendono questi sistemi enfatizzano la loro presunta oggettività ed efficienza, creando un senso di urgenza nell’adozione. Tuttavia, questi sistemi spesso perpetuano pregiudizi esistenti e possono portare a decisioni arbitrarie o discriminatorie.
Il marketing dell’inevitabilità nel settore pubblico
Il marketing dell’inevitabilità si estende anche al settore pubblico. Governi e amministrazioni locali vengono pressati ad adottare sistemi di IA predittiva per la gestione dei servizi pubblici, dal welfare alla sicurezza. Questa pressione viene accompagnata da promesse di risparmio economico e maggiore efficienza, anche quando mancano evidenze concrete di questi benefici.
Il marketing dell’inevitabilità tecnologica esercita una pressione particolare sulle PMI italiane. La narrativa dominante, come detto, suggerisce che l’adozione di sistemi di IA sia indispensabile per rimanere competitivi, spingendo anche realtà medio-piccole verso investimenti non sempre giustificati dalle reali esigenze aziendali. Questo fenomeno è particolarmente evidente nel settore manifatturiero, dove l’enfasi sulla “fabbrica intelligente” rischia di oscurare approcci più graduali e sostenibili alla digitalizzazione.
Questo approccio ha conseguenze concrete. Le organizzazioni, spinte dalla paura di perdere competitività, investono risorse significative in sistemi la cui efficacia non è dimostrata. Questo può portare a uno spreco di risorse che potrebbero essere impiegate in altri modi, oltre a creare potenziali danni quando questi sistemi vengono implementati senza adeguata valutazione.
Inoltre, la narrativa dell’inevitabilità tende a soffocare il dibattito critico. Chi solleva dubbi o preoccupazioni viene etichettato come luddista o resistente al progresso. Questo clima intellettuale rende difficile una valutazione obiettiva dei reali benefici e rischi dell’IA predittiva.
L’illusione della neutralità algoritmica
La spettacolarizzazione dell’IA alimenta anche l’illusione della neutralità algoritmica. I sistemi di IA vengono presentati come obiettivi e imparziali, in contrasto con la presunta soggettività del giudizio umano. Questa narrazione ignora il fatto che gli algoritmi sono addestrati su dati storici che possono contenere pregiudizi sistemici e che le decisioni di progettazione degli algoritmi stessi incorporano inevitabilmente valori e priorità umane [2,9].
L’idea della neutralità algoritmica si basa su una concezione errata della tecnologia come strumento puramente tecnico e privo di valori. In realtà, ogni sistema di IA incorpora scelte di valori a diversi livelli: nella selezione dei dati di addestramento, nella definizione degli obiettivi di ottimizzazione, nella scelta delle metriche di valutazione e nella progettazione dell’interfaccia utente.
L’esempio dell’uso dell’IA nel campo dei sistemi di valutazione del credito
Un esempio illuminante viene dal campo dei sistemi di valutazione del credito. Questi algoritmi vengono presentati come valutatori neutri del merito creditizio, ma in realtà incorporano decisioni valoriali su cosa costituisca un buon debitore. Le variabili considerate e il peso attribuito riflettono giudizi sociali ed economici specifici, non verità universali.
La presunta neutralità serve anche a legittimare l’uso di sistemi di IA in contesti dove il giudizio umano sarebbe più appropriato. L’idea che un algoritmo sia più “obiettivo” di un essere umano porta a una eccessiva fiducia nelle sue decisioni, anche quando queste hanno conseguenze significative sulla vita delle persone.
Il ruolo del contesto sociale e culturale nello sviluppo dei sistemi di IA
Un aspetto cruciale spesso trascurato è il ruolo del contesto sociale e culturale nello sviluppo dei sistemi di IA. Le squadre di programmatori che sviluppano questi sistemi hanno spesso un retroterra socioculturale omogeneo, che si riflette implicitamente nella loro progettazione.
La questione della neutralità algoritmica assume particolare rilevanza nel contesto della pubblica amministrazione italiana. Molti progetti di digitalizzazione includono componenti di IA presentate come strumenti oggettivi per migliorare l’efficienza dei servizi pubblici. Tuttavia, l’esperienza di alcune regioni italiane nell’implementazione di sistemi di triage basati su IA in ambito sanitario ha evidenziato come questi strumenti possano incorporare pregiudizi significativi, riflettendo e potenzialmente amplificando disparità territoriali esistenti.
Implicazioni legali ed etiche dell’illusione della neutralità
L’illusione della neutralità ha anche implicazioni legali ed etiche. Quando un sistema è presentato come neutrale, diventa difficile contestarne le decisioni o chiedere conto degli eventuali pregiudizi. Questo può creare una sorta di immunità delle discriminazioni algoritmiche.
Particolarmente problematico è l’uso di questi sistemi nel contesto delle assunzioni. Gli algoritmi di analisi dei curriculum sono presentati come strumenti oggettivi per valutare le competenze, ma in realtà possono perpetuare pregiudizi di genere, etnici o sociali presenti nei dati di addestramento. La loro presunta neutralità rende più difficile identificare e correggere queste distorsioni.
È quindi fondamentale riconoscere che la neutralità algoritmica è un mito pericoloso che serve a mascherare responsabilità e a legittimare decisioni basate su IA potenzialmente discriminatorie. Un approccio corretto dovrebbe riconoscere esplicitamente i valori e le scelte incorporate nei sistemi algoritmici, permettendo un dibattito pubblico informato sulla loro appropriatezza in diversi contesti.
Il problema della responsabilità
La spettacolarizzazione dell’IA contribuisce anche a offuscare le questioni di responsabilità. Quando le decisioni sono delegate a sistemi di IA presentati come infallibili, diventa difficile stabilire chi sia responsabile quando qualcosa va storto. Questo è particolarmente problematico in contesti ad alto impatto come la sanità o la giustizia penale [11,13].
Il problema della responsabilità si manifesta a diversi livelli. A livello tecnico, la complessità e l’opacità dei sistemi di IA rendono difficile identificare le cause di eventuali errori. La loro mancanza di trasparenza rende complicato stabilire se un errore sia dovuto a problemi nei dati di addestramento, nella progettazione dell’algoritmo o nella sua implementazione.
A livello organizzativo, si crea spesso una diffusione della responsabilità tra diversi attori: gli sviluppatori del sistema, l’azienda che lo commercializza, l’organizzazione che lo implementa e gli operatori che lo utilizzano. Questa frammentazione può portare a situazioni in cui nessuno si sente veramente responsabile delle decisioni prese dal sistema.
Il caso dei sistemi di valutazione del rischio nella giustizia penale è emblematico. Quando un giudice si basa su un punteggio di rischio generato algoritmicamente per decidere sulla libertà condizionale, chi è responsabile se la decisione si rivela sbagliata? Il giudice può sostenere di aver seguito le indicazioni di un sistema “oggettivo”, mentre l’azienda che ha sviluppato il sistema può affermare che si tratta solo di uno strumento di supporto e che la decisione finale spetta al giudice.
Il problema della responsabilità si intreccia con le specificità del quadro normativo italiano ed europeo. L’AI Act[2] introduce requisiti stringenti per i sistemi di IA ad alto rischio, ma la loro implementazione pratica solleva questioni complesse. Per esempio, nel caso di sistemi di supporto alle decisioni in ambito giudiziario, non è chiaro come bilanciare l’autonomia decisionale dei magistrati con l’utilizzo di strumenti di IA predittiva.
L’automazione delle decisioni mediante sistemi di IA può anche portare a una forma di deresponsabilizzazione. Gli operatori che utilizzano sistemi di IA possono sviluppare una sorta di “deferenza algoritmica”, tendendo ad accettare acriticamente le raccomandazioni del sistema anche quando il loro giudizio professionale suggerirebbe diversamente.
La responsabilità per i pregiudizi e le discriminazioni
Un aspetto particolarmente critico riguarda la responsabilità per i pregiudizi e le discriminazioni. Anche qui, quando un sistema di IA produce risultati discriminatori, spesso risulta difficile stabilire se il problema sia nei dati di addestramento, nell’algoritmo stesso o nel modo in cui viene utilizzato. Questa ambiguità può rendere difficile perseguire legalmente le discriminazioni algoritmiche.
L’effetto della spettacolarizzazione sulla ricerca scientifica
La spettacolarizzazione non risparmia neanche il mondo accademico. La pressione per produrre risultati sensazionali nel campo dell’IA ha portato in alcuni casi a pratiche di ricerca discutibili e a problemi di riproducibilità. Il libro di Narayanan e Kapoor [8] evidenzia come molti studi pubblicati su prestazioni dell’IA predittiva soffrano di errori metodologici o sovrastime delle capacità reali dei sistemi di IA [3,12].
Il problema della riproducibilità nella ricerca sull’IA
Il problema della riproducibilità nella ricerca sull’IA è particolarmente grave. Molti studi pubblicati non forniscono dettagli sufficienti sui dati e sui metodi utilizzati per permettere una verifica indipendente dei risultati. In altri casi, i risultati positivi riportati si rivelano difficili da replicare quando gli esperimenti vengono ripetuti da altri ricercatori. Questa situazione mina la credibilità scientifica del campo e può portare a decisioni basate su evidenze non solide.
La pressione per pubblicare risultati altamente innovativi può portare anche a pratiche metodologicamente discutibili. Ad esempio, è comune il fenomeno del “data dredging[3]” dove i ricercatori manipolano i dati o le analisi per ottenere risultati statisticamente significativi. Nel campo dell’IA predittiva, questo può tradursi nella selezione selettiva dei casi di successo o nell’ottimizzazione dei modelli su specifici set di dati che garantiscono il successo.
Il problema dei benchmark e della peer review
Un altro problema significativo è legato ai benchmark. I ricercatori tendono a concentrarsi sul superamento di benchmark noti anche quando questi non sono rappresentativi dei problemi reali che l’IA dovrebbe affrontare. Questo può portare a progressi illusori che non si traducono in miglioramenti nelle applicazioni pratiche del mondo reale.
La competizione tra laboratori di ricerca e le aziende ha anche creato una cultura del segreto che ostacola il progresso scientifico. Molti risultati importanti sono mantenuti riservati per ragioni commerciali, impedendo una verifica indipendente e limitando la possibilità di costruire su di essi. Questa tendenza è particolarmente problematica nel campo dell’IA, dove la riproducibilità e la verificabilità sono essenziali per garantire l’affidabilità dei sistemi.
Il problema si estende anche al processo di peer review (revisione tra pari) degli articoli scientifici. I revisori spesso non hanno il tempo o le risorse per verificare in dettaglio i risultati presentati, specialmente quando questi coinvolgono grandi modelli di IA o insiemi di dati proprietari. Questo può portare alla pubblicazione di studi con errori metodologici significativi o risultati non facilmente verificabili.
Il rischio di distorcere le priorità di ricerca
L’enfasi mediatica sull’innovazione tecnologica può distorcere le priorità di ricerca. I giovani ricercatori sono spesso incentivati a concentrarsi su progetti che promettono risultati spettacolari a breve termine, trascurando questioni fondamentali ma meno appetibili dal punto di vista mediatico. Questo rallenta il progresso su problemi importanti ma tecnicamente difficili.
La spettacolarizzazione influenza anche i finanziamenti della ricerca. I finanziatori pubblici e privati sono più propensi a sostenere progetti che promettono risultati immediati e mediaticamente rilevanti piuttosto che ricerche di base o studi critici sui limiti e i rischi dell’IA. Questo rischia di creare una generazione di ricercatori più interessati all’impatto mediatico che alla solidità scientifica dei loro lavori.
L’impatto sulla ricerca e sviluppo merita particolare attenzione nel contesto italiano. La pressione per produrre risultati spettacolari rischia di distorcere le priorità dei centri di ricerca e delle startup, privilegiando applicazioni di facile mercato rispetto a innovazioni più sostanziali ma meno appariscenti. Questo fenomeno è particolarmente evidente nei progetti finanziati dal PNRR, dove la necessità di mostrare risultati rapidi può portare a sottovalutare le complessità implementative.
L’impatto sui media e sull’opinione pubblica
I media giocano oggi un ruolo cruciale nell’amplificare la spettacolarizzazione dell’IA. La tendenza a privilegiare storie sensazionalistiche e a riportare acriticamente comunicati stampa o post aziendali contribuisce a creare aspettative irrealistiche nel pubblico. Questo può portare sia a timori esagerati sia a una pericolosa sopravvalutazione delle capacità dell’IA [6,7].
Il problema ha radici profonde nel modo in cui i media affrontano le notizie tecnologiche. La complessità tecnica dell’IA rende difficile per i giornalisti non specializzati valutare criticamente le affermazioni delle aziende. Inoltre, la pressione per produrre contenuti accattivanti e la riduzione delle risorse dedicate al giornalismo investigativo portano spesso a una copertura superficiale e sensazionalistica.
La copertura mediatica dei progressi nell’IA generativa
Un esempio emblematico è la copertura mediatica dei progressi nell’IA generativa. I media tendono a presentare ogni nuovo modello linguistico come un passo verso l’intelligenza artificiale generale (AGI – Artificial General Intelligence), ignorando le limitazioni fondamentali di questi sistemi e il fatto che sono basate su sofisticate tecniche di machine learning piuttosto che offrire una vera comprensione del discorso.
La narrativa mediatica tende a polarizzare il dibattito sull’IA tra visioni estreme. Da un lato, troviamo storie che dipingono l’IA come una minaccia esistenziale per l’umanità, dall’altro resoconti che ne celebrano acriticamente ogni presunto progresso. Questa polarizzazione rende difficile sviluppare un dibattito pubblico equilibrato delle reali potenzialità e limiti della tecnologia.
Un aspetto particolarmente problematico è la tendenza dei media a presentare l’IA come una tecnologia monolitica, senza distinguere tra diverse applicazioni e approcci. Questo porta a generalizzazioni inappropriate, dove i successi in un’area vengono interpretati come indicativi di capacità universali dell’IA.
La copertura mediatica tende anche a sottovalutare o ignorare le questioni etiche e sociali sollevate dall’uso dell’IA. L’attenzione si concentra spesso sugli aspetti tecnici o commerciali, trascurando discussioni importanti su privacy, equità, trasparenza e responsabilità.
Il problema è aggravato dalla crescente diffusione di contenuti generati dall’IA sui social media. La facilità con cui questi contenuti possono essere prodotti e diffusi crea un ambiente informativo sempre più complesso, dove diventa difficile distinguere tra fatti verificati e affermazioni infondate.
Il ruolo degli esperti e dei divulgatori
Gli esperti del settore hanno una responsabilità particolare nel contrastare la spettacolarizzazione dell’IA. Dovrebbero impegnarsi in una comunicazione chiara e onesta delle reali capacità e limitazioni di questi sistemi, resistendo alla tentazione di favorire le montature pubblicitarie per visibilità o finanziamenti [5,7].
Gli esperti tecnici, in particolare, hanno il dovere di spiegare in modo comprensibile ma accurato come funzionano realmente i sistemi di IA. Questo significa evitare le semplificazioni eccessive che possono alimentare false aspettative, e un linguaggio troppo tecnico che può rendere il dibattito inaccessibile al grande pubblico.
I divulgatori scientifici giocano un ruolo cruciale come ponte tra la comunità scientifica e il pubblico. La sfida è trovare il giusto equilibrio tra la necessità di rendere i contenuti accessibili e interessanti e l’importanza di mantenere il rigore scientifico. Un buon divulgatore deve essere in grado di spiegare non solo i successi dell’IA, ma anche i suoi limiti e le questioni etiche che solleva.
È particolarmente importante che gli esperti si facciano sentire la loro voce quando vedono affermazioni esagerate o infondate sui media. Il silenzio della comunità scientifica di fronte ad annunci irrealistici è spesso interpretato come un’approvazione tacita.
Gli esperti devono anche essere trasparenti sui propri conflitti di interesse. Molti ricercatori nel campo dell’IA lavorano in ambito accademico e per aziende private, una situazione che può influenzare la loro comunicazione pubblica. È essenziale che queste relazioni vengano dichiarate apertamente quando si interviene nel dibattito pubblico.
La capacità di contestualizzare i progressi tecnologici
Un aspetto critico del ruolo degli esperti è la capacità di contestualizzare i progressi tecnologici. Questo significa spiegare non solo cosa può fare un sistema di IA, ma anche come si colloca nel più ampio panorama dello sviluppo tecnologico e quali sono le sue implicazioni sociali.
I divulgatori devono anche prestare particolare attenzione al modo in cui comunicano l’incertezza e i limiti della conoscenza scientifica. È importante evitare sia un eccessivo determinismo tecnologico che può alimentare paure infondate, sia un ottimismo acritico che può portare a decisioni irresponsabili.
La comunità degli esperti deve anche impegnarsi attivamente nella formazione della prossima generazione di ricercatori e sviluppatori. È essenziale trasmettere non solo competenze tecniche, ma anche una forte consapevolezza delle responsabilità etiche e sociali associate allo sviluppo dell’IA.
Infine, gli esperti devono essere pronti a riconoscere e correggere i propri errori. La trasparenza sugli errori e le limitazioni è fondamentale per mantenere la credibilità e costruire un rapporto di fiducia con il pubblico.
La copertura mediatica dell’IA in Italia
La copertura mediatica dell’IA in Italia presenta caratteristiche specifiche che meritano attenzione. Da un lato, si osserva una tendenza a importare acriticamente narrative sviluppate nel contesto americano, senza adeguata considerazione delle differenze di contesto. Dall’altro, la limitata presenza di giornalismo tecnologico specializzato rende più difficile una valutazione critica delle promesse tecnologiche.
Il ruolo degli esperti e dei centri di competenza diventa cruciale in questo contesto. Le iniziative dei Digital Innovation Hub e dei Competence Center possono svolgere un ruolo fondamentale nel promuovere una comprensione più realistica delle potenzialità e dei limiti dell’IA. Tuttavia, questi attori devono resistere alla tentazione di alimentare aspettative irrealistiche per attrarre finanziamenti o visibilità.
Conclusioni
La spettacolarizzazione dell’IA, particolarmente nel campo predittivo, rappresenta un rischio significativo per la società contemporanea. Come emerge da queste riflessioni ispirate dal libro ” AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference ” [8], questo fenomeno non è solo un problema di comunicazione, ma ha conseguenze concrete e potenzialmente dannose su molteplici livelli della società.
La critica all’IA predittiva e alla sua spettacolarizzazione non deve essere interpretata come un rifiuto generalizzato della tecnologia. Piuttosto, rappresenta un invito a sviluppare un approccio maturo e consapevole all’innovazione tecnologica. È fondamentale distinguere tra le reali potenzialità dell’IA e le promesse irrealistiche che spesso caratterizzano il dibattito pubblico.
In conclusione, la spettacolarizzazione dell’IA rappresenta un ostacolo significativo a un progresso tecnologico sostenibile e socialmente benefico. Solo attraverso una comprensione più matura e realistica di questa tecnologia sarà possibile sfruttarne le potenzialità minimizzando i rischi e gli effetti negativi sulla società.
Bibliografia
- Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine Bias—There’s Software Used across the Country to Predict Future Criminals. And It’s Biased against Blacks. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
- Benjamin, R. (2019). Race After Technology: Abolitionist Tools for the New Jim Code. Polity.
- Boyd, Danah, Crawford, K. (2012). Critical Questions for Big Data: Provocations for a cultural, technological, and scholarly phenomenon. Information, Communication & Society, 15(5), 662–679. https://doi.org/10.1080/1369118X.2012.678878
- Broussard, M. (2018). Artificial Unintelligence: How Computers Misunderstand the World. MIT Press.
- Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press. Traduzione italiana: Crawford, K. (2021). Né Intelligente né Artificiale: Il Lato Oscuro dell’IA. Il Mulino.
- Gillespie, T. (2014). The Relevance of Algorithms. In: T. Gillespie, P.J. Boczkowski, K.A. Foot (eds): Media Technologies: Essays on Communication, Materiality, and Society, Cap. 9, MIT Press. https://doi.org/10.7551/mitpress/9042.003.0013
- Marcus, G., Davis, E. (2019). Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon.
- Narayanan, A., Kapoor, S. (2024). AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference. Princeton University Press.
- Noble, S.U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.
- O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown. Traduzione italiana: O’Neil, C. (2017). Armi di Distruzione Matematica. Bompiani.
- Pasquale, F. (2020). New Laws of Robotics: Defending Human Expertise in the Age of AI. Belknap. Traduzione italiana: Pasquale, F. (2021). Le nuove leggi della robotica. Difendere la competenza umana nell’era dell’intelligenza artificiale. Luiss University Press.
- Stark, L. (2018). Algorithmic psychometrics and the scalable subject. Social Studies of Science, 48(2), 204-231. https://doi.org/10.1177/0306312718772094
- Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. Public Affairs. Traduzione italiana: Zuboff, S. (2023). Il capitalismo della sorveglianza: Il futuro dell’umanità nell’era dei nuovi poteri. Luiss University Press.
[1] https://www.aisnakeoil.com
[2] https://digital-strategy.ec.europa.eu/it/policies/regulatory-framework-ai