Il 2022 è destinato a essere ricordato come uno di quegli anni spartiacque in cui il futuro sembra improvvisamente accelerare. Sebbene frutto di decenni di progresso costante nella ricerca sull’intelligenza artificiale e nello sviluppo della capacità di calcolo, è stato proprio in quell’anno che ci siamo resi conto con chiarezza che le macchine avevano acquisito una capacità che ritenevamo esclusivamente umana: quella di creare informazione; anche se a ben vedere si tratta piuttosto di una ricombinazione originale di informazioni acquisite analizzando buona parte dello scibile umano.
Indice degli argomenti
La nascita dell’intelligenza artificiale generativa e la seconda era delle macchine
Con la diffusione delle tecnologie di intelligenza artificiale generativa—come ChatGPT, Stable Diffusion e simili—ci siamo trovati di fronte a sistemi che, per la prima volta, hanno iniziato a creare contenuti in modo autonomo e realistico, spostando radicalmente il confine tra macchina e creatività umana.
In questo contesto, le previsioni del libro The Second Machine Age (Brynjolfsson & McAfee, 2014) appaiono oggi sorprendentemente vicine e concrete: siamo ormai entrati a pieno titolo nella seconda era delle macchine, in cui l’automazione dei processi cognitivi e di controllo—affiancandosi all’automazione energetica introdotta dalla prima rivoluzione industriale—promette di rivoluzionare radicalmente la società, il lavoro e la distribuzione della conoscenza. La tecnologia spesso definisce la struttura della società, e come sostengono i due autori il migliore approccio per affrontare questa nuova realtà è quello di trovare una sinergia tra uomo e macchina piuttosto che cercare una contrapposizione che risulterebbe meno efficace.
Intelligenza artificiale e digital divide
L’arrivo di una tecnologia rivoluzionaria come questa non può che porre problemi che abbiamo già ripetutamente affrontato in passato: l’accesso alla tecnologia può condizionare le strutture sociali, soprattutto se questa diviene abilitante avvantaggiando chi la può utilizzare. La rete è ancora considerata una delle dimensioni principali alla base del digital divide (Sanders & Scanlon, 2021) e l’accesso ai suoi servizi, con particolare attenzione alla banda larga, continua ad essere centrale al fine di assicurare pari opportunità a tutti e non solo a chi vive in grandi centri dove la rete offre prestazioni superiori.
L’accesso ai servizi dell’intelligenza artificiale sembra rappresentare ancor di più una di quelle barriere che hanno superato pena la realizzazione di una società fortemente diseguale in cui solo chi ha accesso alla tecnologia può realmente competere con un vantaggio quasi incolmabile rispetto a chi rimane escluso da questa tecnologia. In questo articolo cerchiamo di capire perché assicurare l’accesso più diffuso possibile alle tecnologie AI sia un tema centrale che va perseguito per quanto possibile, partendo dalla valutazione dell’impatto sul mercato del lavoro, esplorandone la complessità tecnologica legata ad un’enorme potenza computazionale per poi affrontare i problemi etici nel suo impiego.
Intelligenza artificiale come amplificatore delle capacità umane
Per capire l’impatto che l’intelligenza artificiale generativa e in particolare i large language models (LLM) hanno avuto sui sistemi è necessario fare una piccola digressione storica sul cosiddetto frame problem, un problema individuato da McCarthy e Hayes nel 1969. Il frame problem, nella sua formulazione originale, si concentrava sui limiti dell’uso della logica del primo ordine nel modellare il cambiamento dello stato del mondo a seguito di un’azione senza dover specificare cosa rimane immutato. Nel tempo questa nozione si è evoluta ed è divenuto, soprattutto in filosofia dove il frame problem rappresenta la capacità di un agente di limitare il ragionamento alle informazioni rilevanti per una determinata situazione, senza dover considerare esplicitamente tutte le informazioni irrilevanti.
In altri termini per decenni le macchine sono state limitate nelle loro azioni a causa della necessità di possedere una descrizione di come funziona il mondo in cui operano senza esserne sopraffatte da una parte e avendone comunque conoscenza limitata all’ambito applicativo. Questa limitazione ha condizionato l’evoluzione dell’interazione uomo-macchina privilegiando le interfacce grafiche all’interazione in linguaggio naturale, e l’applicazione dei sistemi automatici si è concentrata su problemi in cui la macchina aveva abbastanza informazioni per poter operare in modo efficace.
Dopo decenni di studi sulla natura e sul funzionamento del linguaggio umano le tecniche che hanno mostrato di saper manipolare le nostre lingue sono quelle basate su apprendimento automatico e reti neurali, in qualche modo barando e rinunciando ad una comprensione in favore di un approccio automatico in cui la macchina ha appreso autonomamente la lingua grazie ad enormi quantità di esempi. Queste tecniche hanno consentito progressi tali da rendere possibile un impiego sempre più ampio dell’interfaccia in linguaggio naturale nei sistemi, ma hanno catturato grandi quantità della conoscenza utilizzata per l’apprendimento fornendo una miniera di informazioni relative alla descrizione testuale del mondo. La capacità di manipolare il linguaggio ne ha anche estrapolato le sue strutture logiche e di ragionamento, elemento che sta definendo il funzionamento dei modelli capaci di ragionare come OpenAI o1, DeepSeek R1, ecc.
Affrontando quindi il problema di realizzare un software capace di interagire in linguaggio naturale abbiamo anche fornito abbastanza informazioni alla macchina sulla descrizione del mondo su come lo conosciamo e lo abbiamo scritto nel corso di qualche millennio. In altre parole, gli LLM, catturando implicitamente nei loro parametri molta della conoscenza contestuale del mondo, consentono ai sistemi di interagire in modo più naturale con situazioni complesse, mitigando significativamente il frame problem.
Non è un caso che Noam Chomsky, grande studioso delle lingue e pioniere della teoria delle grammatiche, in un intervento molto polemico sul New York Times (Chomsky, 2023) sostiene:
“La mente umana non è, come ChatGPT e i suoi simili, una goffa macchina statistica per il riconoscimento di strutture, che ingurgita centinaia di terabyte di dati ed estrapola la risposta più plausibile per una conversazione o la più probabile per una domanda scientifica.
Al contrario… la mente umana è un sistema sorprendentemente efficiente ed elegante che opera con una quantità limitata di informazioni. Essa non cerca di inferire correlazioni brute da dati ma cerca di creare spiegazioni. […]
Smettiamo di presentarla come “Intelligenza Artificiale” e chiamiamolo per quello che è “software per il plagio”. Non crea alcunché, copia lavori esistenti da artisti esistenti e cambia a sufficienza per sfuggire alle leggi del copyright.
È il più grande furto di proprietà mai avvenuto dopo le terre dei nativi americani da parte dei coloni europei.”
Benché l’accusa di Chomsky sia provocatoria, e certamente non priva di fondamento, appare innegabile l’utilità di queste tecnologie come amplificatore delle capacità umane in vari contesti operativi.z
Benefici dell’intelligenza artificiale democratica nel mondo del lavoro
La distillazione della conoscenza umana in modelli di reti neurali capaci di manipolarla per generare testo rappresenta una delle più grandi innovazioni dal tempo dei motori di ricerca. La possibilità di interagire con la conoscenza collettiva offre evidenti vantaggi da un punto di vista della produttività in molti ambiti lavorativi. Questa intuizione sembra essere confermata in studi pionieristici relativi all’impatto dell’AI generativa nel mondo del lavoro effettuati ad Harvard e a Stanford.
L’Harvard Business School e il Boston Consulting Group (Dell’Acqua, September 2023) hanno condotto nel 2023 un esperimento controllato su 758 consulenti che ha rilevato che i professionisti affiancati da un modello GPT-4 completavano in media il 12% in più di task e con una velocità superiore del 25%, producendo risultati di qualità valutati 40% più elevata rispetto al gruppo di controllo senza AI. Il beneficio dell’AI è emerso a tutti i livelli di competenze: i consulenti meno esperti hanno migliorato la performance del 43%, quelli più esperti del 17%. Tuttavia, per compiti del tutto fuori portata dell’AI, affidarsi ad essa ha portato a risultati peggiori (19% in meno di soluzioni corrette), segno che l’AI va usata con discernimento.
Uno studio congiunto MIT/Stanford (Brynjolfsson, Li, & Raymond, Generative AI at work, 2024) che ha condotto un’analisi su oltre 5.000 addetti al customer service di un’azienda hi-tech ha mostrato che introdurre un assistente AI generativo in chat ha aumentato la produttività del 14% in media. I guadagni maggiori si sono avuti per gli operatori meno esperti (fino a +35% di ticket risolti/ora), mentre per i più esperti l’impatto è stato nullo. L’AI fungeva da “coach” trasferendo le best practice dei dipendenti migliori ai novizi, consentendo a questi ultimi di apprendere più rapidamente. Inoltre, il clima lavorativo è migliorato: con l’assistenza dell’AI i clienti tendevano a lamentarsi meno e il turnover del personale si è ridotto.
Co-intelligence e il futuro dell’intelligenza artificiale
Queste prime evidenze sembrano confermare l’idea esplorata da numerosi autori che la tecnologia dell’intelligenza artificiale sia destinata a svolgere il ruolo di amplificatore della capacità umana, come hanno fatto in passato le calcolatrici, le macchine da scrivere e i computer. Ethan Mollick ha sintetizzato questo connubio nel termine “Co-intelligence” (Mollick, 2023) arrivando a sostenere che la combinazione dell’intelligenza umana e quella artificiale sia superiore alle due prese individualmente. In particolare nel suo libro mostra come:
- La collaborazione umano-AI (co-intelligence) porta a risultati qualitativamente e quantitativamente superiori rispetto al lavoro umano puro o all’AI autonoma.
- L’AI aumenta la produttività e la creatività degli individui, permettendo loro di concentrarsi sulle competenze di alto livello (ragionamento critico, giudizio, creatività strategica) mentre la macchina esegue attività ripetitive, ricerche approfondite o compiti iniziali.
- L’effetto è ancora più significativo per persone con minore esperienza, che diventano rapidamente più capaci grazie all’assistenza AI.
Il ruolo umano in questa relazione è anche quello di controllo, visto che il meccanismo di funzionamento degli LLM prevede che le informazioni generate possano essere errate, fenomeno comunemente noto con il termine di allucinazione. Si tratta di un fenomeno rilevante, che nel contesto del Question Answering ha ancora oltre un terzo di possibilità di dare risposte errate come documentato da OpenAI (OpenAI, 2025) che nel nuovo modello GPT-4.5 indica nel 37,1% la quota di allucinazioni su uno specifico benchmark.
Le tecnologie di AI generativa e in particolare i LLM si candidano ad essere il nuovo amplificatore delle capacità umane, fornendo sia un distillato della conoscenza umana che la capacità di manipolarla per generare nuove informazioni. Queste nuove capacità non possono non cambiare il mercato del lavoro e il modo con cui la società funziona e si sviluppa, fornendo un chiaro vantaggio a coloro che si impadroniscono e imparano ad usare questa tecnologia.
Risorse necessarie per l’intelligenza artificiale democratica
Una delle conseguenze dirette dell’approccio basato su forza bruta nella realizzazione dell’AI generativa, basata sull’apprendimento automatico a partire da enormi quantità di dati richiede ingenti risorse di calcolo per poter addestrare i nuovi modelli, e anche per poter eseguire il modello per la generazione di informazioni. I grandi modelli hanno centinaia di miliardi di parametri (Llama oltre 400 miliardi, DeepSeek R1 oltre 600 miliardi), ovverosia di numeri che rappresentano i pesi delle connessioni dei neuroni digitali. Ciascun “token” generato richiede complesse operazioni algebriche che coinvolgono questi numeri richiedendo una grande capacità di calcolo per poter generare le migliaia di token necessari per poter rispondere ad una determinata richiesta.
Non è un caso che a partire dal 2024 si è cominciato a parlare di investimenti nelle cosiddette AI Factories, ovverosia in datacenter specificatamente disegnati per eseguire modelli AI. Il Colossus di Elon Musk usato per eseguire il modello Grok di X è stato costruito a tempo di record ed è equipaggiato con oltre 100.000 GPU H100 di nVidia. L’investimento è di sicuro rilevante visti i costi delle GPU che qualche decina di migliaia di dollari a scheda, e anche il consumo energetico non è da sottovalutare visto che un server con 8 GPU assorbe circa 8,4KW durante l’apprendimento (Latif, et al.) l’assorbimento teorico di Colossus può superare i 100 MW considerando la capacità nominale massima delle GPU H100 (circa 700 watt ciascuna), anche se il consumo reale può risultare inferiore. Si tratta di un assorbimento energetico incredibilmente alto se confrontato con quello del cervello umano che si limita ad assorbire 20W per il suo funzionamento, un decimilionesimo circa della corrente necessaria per l’alimentazione di Colossus.
A partire dalla fine del 2024 si sono susseguiti annunci di grandi investimenti in AI Factories, dagli 80 miliardi di dollari annunciati da Microsoft (Microsoft, 2025) ai 500 miliardi di dollari dello Stargate project annunciato dal Presidente Trump (Reuters, 2025) ai 200 miliardi di euro annunciati dalla Presidente Von Der Leyen per la Comunità Europea (EU Commission, 2025).
È indubbio quindi che l’AI si possa in ultima analisi considerare una risorsa vera e propria anche in termini di consumo di risorse del pianeta. L’agenzia internazionale dell’energia IEA stima in un rapporto di metà del 2024 (Agency, 2024) il consumo dei datacenter su scala globale compreso tra l’1,5% e il 4,5%. Il fatto che una porzione sempre crescente di questi datacenter sia utilizzata per erogare il servizio di AI comporta che una quota rilevante delle risorse planetarie sarà utilizzata per erogare il servizio, e non è assolutamente detto che queste siano sufficienti se tutta la popolazione mondiale decidesse di avvalersi del suo supporto.
Se la crescita dell’assorbimento energetico desta giustamente preoccupazione è importante sottolineare come sia l’acqua la risorsa più preziosa per assicurare il funzionamento dei datacenter e, in ultima analisi, anche dell’AI. Basti pensare che si stima (Li, Yang, Islam, & Ren, 2025) che l’addestramento di GPT-3 nei datacenter statunitensi di Microsoft ha comportato l’evaporazione di circa 700.000 litri di acqua e si stima che la domanda globale di AI entro il 2027 potrebbe richiedere prelievi idrici tra 4,2 e 6,6 miliardi di metri cubi (più della richiesta di un’intera nazione come la Danimarca).
Visti gli investimenti in gioco non stupisce che l’AI abbia comportato una sostanziale differenza tra il livello gratuito del servizio e quello a pagamento, e anche l’uso mediante API impone un modello di pagamento a consumo (anche se modelli equivalenti hanno visto un calo di un fattore 4x nel costo per token). Assicurare la sostenibilità ambientale delle infrastrutture AI diventa cruciale non solo per motivi ecologici ma anche per evitare che l’accesso ai benefici della tecnologia sia riservato ai pochi che potranno permettersi costi crescenti di energia e risorse.
L’edge AI e gli Small Language Models
I grandi modelli di AI generativa richiedono oggi risorse computazionali e investimenti così ingenti da essere difficilmente sostenibili se resi disponibili a tutti. Pertanto è cruciale esplorare alternative più leggere, accessibili e sostenibili, come gli Small Language Models (SLM). Se non è ragionevole pensare che queste risorse siano a portata di tutti si può pensare che si possano ottimizzare significativamente i modelli che abbiamo riducendone la necessità computazionale sacrificando magari un po’ di conoscenza. La comunità open del sito Hugging Face (https://huggingface.co) sviluppa collaborativamente modelli di AI generativa costruiti attorno alla libreria Transformers promossa dal sito e divenuta uno standard de facto della comunità.
La disponibilità di oltre un milione di modelli open, quantomeno nella loro forma “binaria”, consentono dinamiche tipiche della comunità Open Source che ha consentito la crescita della piattaforma Linux a partire dagli anni ’90. La condivisione delle tecniche e, a volte, dei dataset consente un confronto tra gli sviluppatori sostanzialmente impossibile all’interno di grandi realtà aziendali.
La comunità è molto attiva nello sviluppo e la sperimentazione di modelli cosiddetti Small Language Models (SLM) caratterizzati da un numero di parametri al di sotto dei dieci miliardi. Questi modelli si stanno evolvendo rapidamente nelle capacità, offrendo prestazioni simili ai grandi modelli di un paio di anni fa come GPT-3.5 (che però usava 175 miliardi di parametri).
I modelli SLM (Johnson, 2025) si caratterizzano, tra l’altro, della capacità di essere eseguiti su dispositivi personali quali PC, tablet e smartphone. Microsoft (Microsoft, 2025) ha annunciato il progetto di distribuzione del suo nuovo modello SLM Phi-4-small direttamente nei PC Copilot+ il cui sistema operativo è pensato per promuovere l’integrazione con l’intelligenza artificiale. Questi modelli rendono possibile la cosiddetta edge AI, ovvero l’intelligenza artificiale eseguita direttamente sui dispositivi dell’utente (smartphone, tablet, PC), consente di distribuire capacità intelligenti ovunque, riducendo così la dipendenza dalla connessione ai grandi datacenter e migliorando privacy e tempi di risposta.
Un tratto essenziale degli SLM è quello di mantenere la capacità di manipolare il linguaggio naturale, e più recentemente implementare funzioni di ragionamento analoghe ai fratelli maggiori sebbene meno sofisticate. In accordo ai benchmark il modello Phi-4-small di Microsoft è solo circa il 10% meno efficace rispetto al modello GPT-4o-mini, successore del modello GPT-3.5-turbo di OpenAI, anch’esso disponibile tramite API.
L’abilità di manipolare il linguaggio, anche in assenza della conoscenza all’interno del modello, è comunque molto efficace nel contesto dei cosiddetti sistemi Retrieval Augmented Generation (RAG) (Lewis, et al., 2020). Questa classe di sistemi infatti reperisce informazioni utilizzando sistemi database più tradizionali ed inserisce la conoscenza all’interno del prompt del modello. Il modello utilizzerà sia la propria conoscenza che quella iniettata all’interno del prompt per generare la risposta, aprendo uno scenario in cui la conoscenza del modello viene arricchita con informazioni esterne allo stesso, senza richiedere continui cicli di aggiornamento del modello per poter includere conoscenza aggiuntiva. L’approccio RAG ben si adatta ai modelli SLM, ma è divenuto centrale anche nel contesto dei grandi modelli che sempre più spesso effettuano ricerche online ed inseriscono le informazioni reperite all’interno del prompt per poter rispondere fornendo informazioni costantemente aggiornate.
Pur meno potenti rispetto ai modelli cloud, gli SLM rappresentano un importante passo avanti verso un’intelligenza artificiale davvero distribuita e democratica, in grado di essere eseguita localmente e sviluppata in maniera indipendente da grandi infrastrutture centralizzate.
Democratizzare l’accesso all’AI per assicurare un mondo aperto a tutti
L’AI generativa rappresenta sicuramente un cambiamento tecnologico radicale destinato ad influenzare tutti gli aspetti della vita umana, è naturale quindi chiedersi quali politiche debbano essere incoraggiate affinché l’evoluzione sociale possa seguire un percorso sostenibile e rispettoso dei diritti di tutti.
Ma cosa significa democratizzare una tecnologia? Su Wikipedia troviamo (Democratization of technology, 2024) che questo termine si riferisce al processo per cui l’accesso ad una tecnologia si espande rapidamente ad una platea sempre più ampia in particolare da un gruppo selezionato di persone alla gente comune.
Prendendo questa definizione alla lettera sembrerebbe che non vi sia una vera necessità di preoccuparsi del processo di democratizzazione dell’AI. ChatGPT è stato celebrato come il servizio con la più veloce adozione da parte degli utenti raggiungendo in poche settimane la soglia simbolica di 100 milioni di utenti attivi. Anche l’utilizzo non sembra essere tecnologicamente difficile per la gente comune: si tratta di accedere ad un sito Web ed interagire in linguaggio naturale, non vi sono conoscenze specifiche necessarie per poter usare lo strumento. E allora perché è importante parlare di democratizzare l’AI e in cosa si traduce questo desiderio che rischia di divenire semplicemente uno slogan?
Da quanto abbiamo discusso finora possiamo individuare diversi aspetti che ci possono aiutare a definire le tensioni e le criticità perché il processo di democratizzazione sia pieno e non si limiti a sottolineare che la funzione è già disponibile per chi la vuole usare:
- Co-intelligence: l’uso dell’AI come amplificatore delle capacità umane richiede una certa educazione, perché se è vero che l’interazione avviene mediante l’uso del linguaggio naturale, la natura stessa della tecnologia richiede uno spirito critico da parte di chi la usa per assicurarsi di non seguire eventuali allucinazioni e, forse ancora più importante, riuscire ad individuare gli inevitabili bias culturali che il modello ha assorbito durante l’apprendimento e che rischiano di perpetuarsi se veicolati in modo acritico nell’opera congiunta di uomo e macchina
- Accesso alle risorse: l’AI richiede ingenti risorse computazionali e di conseguenza naturali per la sua esecuzione, l’accesso a una qualche forma di AI può essere sicuramente possibile ma i modelli più complessi rischiano di essere disponibili solo a pochi, creando di fatto un divario sociale a causa della differente qualità di risultato a seconda degli strumenti di cui si dispone e per quanto si possono utilizzare (quest’ultimo aspetto è legata dalla natura a consumo del servizio)
- Conoscenze tecniche: se l’uso dell’AI non richiede particolari conoscenze tecniche per essere utilizzata, almeno nella sua forma di “chat”, la scelta degli strumenti e dei modelli richiede una certa conoscenza, così come la richiede il suo utilizzo sui propri dispositivi nella forma di SLM
- Aspetti etici e normativi: come tutte le tecnologie rivoluzionarie anche l’AI si presta ad usi più o meno etici, sia in termini di applicazioni che nell’addestramento stesso visto che l’interazione con l’uomo può alterare la percezione della realtà. È quindi naturale che vi sia la necessità di definire delle regole al fine di evitare abusi di queste tecnologie che possano portare a comportamenti socialmente pericolosi.
- Il lavoro: l’automazione del controllo non può non condizionare i processi produttivi, intere categorie di lavoro sono a rischio ponendo il tema sociale di come riqualificare chi si trova ad uscire dalle catene produttive e assicurare che la tecnologia non contribuisca ad accrescere il processo di concentrazione delle risorse planetarie nelle mani di una autoproclamata élite a scapito della maggior parte della popolazione
- Lo sviluppo: La creazione di modelli di AI sempre più complessi richiede ingenti capacità di calcolo e conoscenze, c’è il rischio che la conoscenza su come si creano i modelli e come si usano sia nelle mani di pochi individui che inevitabilmente acquisirebbero un potere enorme e soprattutto la capacità di influenzare i punti di vista di una parte importante della popolazione mondiale
Framework per un’intelligenza artificiale democratica
Non ci si può quindi limitare esclusivamente a parlare di democratizzazione dell’AI è necessario individuare un framework capace di affrontare questi temi complessi. In letteratura si trovano già proposte di questo tipo di framework, come ad esempio nel lavoro di (Costa, Aparicio, Aparicio, & Aparicio, 2024) che riassume nella seguente figura gli elementi centrali della questione:

Le pubbliche amministrazioni e la gestione governativa possono influenzare questo processo, non solo regolando l’uso della tecnologia come ha già fatto la Commissione Europea con l’AI Act (EU Commission, 2024) ma anche promuovendo l’adozione a tutti i livelli come sostenuto da (Taylor, Murphy, & Hoston, 2024) secondo il modello di massima partecipazione possibile stimolando modelli plurali e inclusivi che vadano a contrastare fenomeni di omologazione e uniformità culturale.
L’accesso consapevole alle tecnologie AI rappresenta quindi una nuova dimensione nel tema del digital divide dove non solo l’accesso alla rete e alle tecnologie del digitale può discriminare porzioni della popolazione (Sanders & Scanlon, 2021) ma anche l’accesso a modelli e conoscenze per utilizzare l’AI. Anche Papa Francesco ha più volte sottolineato nel corso degli ultimi due anni come gli “sviluppi tecnologici che aggravano le disuguaglianze… non possono mai essere considerati vero progresso” (Papa Francesco, 2024) rivolgendo più volte l’attenzione alle implicazioni sociali che una AI non accessibile a tutti avrebbe nel futuro. Non è solo l’accesso alla tecnologia che preoccupa, anche il suo uso in assenza di un approccio etico potrebbe portare a comportamenti discriminatori riproducendo bias e discriminazioni reali, alimentando divisioni e minacciando libertà fondamentali (UNESCO, 2022).
Azioni per promuovere l’intelligenza artificiale democratica
Quali azioni possono essere portate avanti per supportare un reale processo di democratizzazione delle tecnologie dell’intelligenza artificiale?
Formazione e diffusione della conoscenza su AI
C’è un consenso generale sul fatto che sia importante la promozione di una conoscenza sul panorama delle tecnologie AI. Beneficiare della co-intelligence richiede una certa disciplina e applicazione da parte di chi si avvicina alla tecnologia poiché necessita di cambiare le proprie abitudini e superare la naturale barriera che ogni tecnologia impone quando ci si avvicina. Se la formazione scolastica può aiutare nel medio e lungo periodo appare evidente come sia necessario intraprendere azioni urgentemente per tutta la popolazione promuovendo in ogni forma una diffusione della cultura dell’uso critico e consapevole dell’intelligenza artificiale, soprattutto nei ceti sociali più deboli.
Accesso alle risorse AI
I modelli più capaci e il loro uso incentivo richiedono risorse che impongono dei costi, la promozione di programmi a supporto dell’accesso a queste tecnologie attraverso la copertura dei costi può rappresentare un’azione da mettere in campo per aiutare gli strati più deboli della popolazione, contribuendo ad assicurare un pari accesso alle risorse senza il quale si rischia un aumento del già rilevante divario dovuto all’accesso delle tecnologie. Le politiche che contrastano i fenomeni di digital divide devono quindi considerare anche questa tecnologia tra i propri obiettivi ed azioni.
Regolamentazione
La regolamentazione sull’uso delle tecnologie dell’AI è un altro aspetto che può contribuire alla sua diffusione contrastando usi non etici e discriminatori. La comunità europea ha dato il via mediante l’approvazione dell’AI Act ma anche Cina e Stati Uniti hanno promosso regolamenti e atti di indirizzo per evitare abusi della tecnologia. È lecito aspettarsi che anche organizzazioni regionali e locali seguano questa strada, contribuendo a definire un insieme di principi e regole che definiscano un perimetro in cui esercitare la co-intelligence. Va però sottolineato come vi sia un forte dibattito sulla regolamentazione: la tecnologia è ancora in rapido sviluppo e in molti sono preoccupati che la sua regolamentazione ne possa intralciare la crescita. Regolamentare una tecnologia in rapida evoluzione rischia infatti di rallentare l’innovazione, creando però allo stesso tempo l’urgenza di definire regole chiare per proteggerci dagli abusi o da conseguenze sociali inattese.
Verso un futuro di intelligenza artificiale democratica
L’amplificazione delle capacità umane mediante l’intelligenza artificiale sembra ormai più una realtà che una promessa, la tecnologia sta rapidamente maturando e l’evoluzione tecnologica si sta spostando dall’evoluzione dei modelli a quella del software che li impiega per realizzare applicazioni specifiche. L’impatto sociale di questa nuova tecnologia si sta rapidamente trasformando da potenziale ad effettivo, si osservano già settori di impiego in cui la dinamica delle offerte è cambiata (ad esempio nel settore IT), ed è solo l’inizio.
La co-intelligenza sembra un passo nella direzione dell’evoluzione prevista da Ray Kurzweil nel 1999 nel suo “The age of spiritual machines” (Kurzweil, 1999), e non sono sicuro se sia una buona notizia. In ogni caso questo cambiamento fondamentale, questa seconda rivoluzione industriale richiede un’attenzione particolare per assicurare che non sia solo un modo per discriminare larghe parti della popolazione mondiale. È quindi centrale assicurare la promozione di politiche volte a promuovere un’effettiva democratizzazione di questa tecnologia e del suo uso consapevole e con spirito critico.
Si possono immaginare scenari utopici o distopici, ed entrambi sono possibili, ma il mio naturale ottimismo fa propendere più verso le tesi del libro “Abundance: the future is better than you think” (Diamandis, 2012) in cui si sostiene che l’incremento di “intelligenze” non si limita ad ridurre le risorse pro capite ma anche e soprattutto ad accelerare il processo creativo grazie a nuove idee e scoperte. E se allora le intelligenze erano umane ora abbiamo le co-intelligenze che non potranno che contribuire a costruire un futuro migliore.
Crediti
La stesura di questo articolo ha beneficiato delle funzioni di GPT-4.5, della ricerca approfondita e della revisione. Il testo è scritto interamente dall’autore.
Riferimenti
Agency, I. E. (2024, Luglio). Electricity Mid-Year Update. Tratto da https://iea.blob.core.windows.net/assets/234d0d22-6f5b-4dc4-9f08-2485f0c5ec24/ElectricityMid-YearUpdate_July2024.pdf
Brynjolfsson, E., & McAfee, A. (2014). The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. W. W. Norton & Company.
Brynjolfsson, E., Li, D., & Raymond, L. (2024). Generative AI at work. Tratto da https://danielle-li.github.io/assets/docs/GenerativeAIatWork.pdf
Chomsky, N. (2023, 3 8). The False Promise of ChatGPT. New York Times. Tratto da https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html
Costa, C. J., Aparicio, M., Aparicio, S., & Aparicio, J. T. (2024). The Democratization of Artificial Intelligence: Theoretical Framework. Applied sciences, 18(14), 8236. doi:https://doi.org/10.3390/app14188236
Dell’Acqua, F. E.-A. (September 2023). Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality. Harvard Business School Working Paper(24-013). Tratto da https://www.hbs.edu/faculty/Pages/item.aspx?num=64700
Democratization of technology. (2024, 3 16). Wikipedia. Tratto da https://en.wikipedia.org/wiki/Democratization_of_technology
Diamandis, P. H. (2012). Abundance: The Future Is Better Than You Think. Free Press.
EU Commission. (2024). AI Act. Tratto da https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
EU Commission. (2025, 2 11). EU launches InvestAI initiative to mobilise €200 billion of investment in artificial intelligence. Tratto da https://ec.europa.eu/commission/presscorner/detail/en/ip_25_467
Johnson, J. (2025, 2 22). Small Language Models (SLMs): A Comprehensive Overview. Tratto da https://huggingface.co/blog/jjokah/small-language-model#:~:text=Running%20Small%20Language%20Models%20on,Edge%20Devices
Kurzweil, R. (1999). The Age of Spiritual Machines: When Computers Exceed Human Intelligence. Viking Press.
Latif, I., Newkirk, A. C., Carbone, M. R., Munir, A., Lin, Y., Koomey, J., . . . Dong, Z. (s.d.). Empirical Measurements of AI Training Power Demand on a GPU-Accelerated Node. doi:https://doi.org/10.48550/arXiv.2412.08602
Lewis, P., Perez, E., Piktus, A., Petroni, F., Karpukhin, V., Goyal, N., . . . Kiela, D. (2020). Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. Advances in Neural Information Processing Systems, 33, 9459-9474. Tratto da https://arxiv.org/abs/2005.11401
Li, P., Yang, J., Islam, M. A., & Ren, S. (2025, 1 15). Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models. doi:https://doi.org/10.48550/arXiv.2304.03271
Microsoft. (2025, 2 26). Empowering innovation: The next generation of the Phi family. Tratto da https://azure.microsoft.com/en-us/blog/empowering-innovation-the-next-generation-of-the-phi-family/
Microsoft. (2025, 1 3). The Golden Opportunity for American AI. Tratto da https://blogs.microsoft.com/on-the-issues/2025/01/03/the-golden-opportunity-for-american-ai/
Mollick, E. &. (2023). Co-Intelligence: Human-AI Collaboration and the Future of Work. Wharton School Press.
OpenAI. (2025, 2 27). Introducing GPT-4.5. Tratto da https://openai.com/index/introducing-gpt-4-5/
Papa Francesco. (2024, 1 1). Intelligenza artificiale e pace. Vaticano. Tratto da https://www.vatican.va/content/francesco/it/messages/peace/documents/20231208-messaggio-57giornatamondiale-pace2024.html
Recommendation on the Ethics of Artificial Intelligence. (s.d.). UNESCO. Tratto da https://unesdoc.unesco.org/ark:/48223/pf0000381137
Reuters. (2025, 1 22). Trump announces private-sector $500 billion investment in AI infrastructure. Tratto da https://www.reuters.com/technology/artificial-intelligence/trump-announce-private-sector-ai-infrastructure-investment-cbs-reports-2025-01-21/
Sanders, C. K., & Scanlon, E. (2021, Mar 19). The Digital Divide Is a Human Rights Issue: Advancing Social Inclusion Through Social Work Advocacy. Journal Human Rights Social Work, 2(6), 130-143. doi:https://doi.org/10.1007/s41134-020-00147-9
Taylor, R. R., Murphy, J. W., & Hoston, W. T. (2024). Democratizing AI in public administration: improving equity through maximum feasible participation. AI & Society. doi:https://doi.org/10.1007/s00146-024-02120-w