l’approfondimento

Menti, macchine e morale: sfide filosofiche nell’era dell’IA



Indirizzo copiato

L’intelligenza artificiale (IA) sta rivoluzionando la nostra vita quotidiana, sollevando questioni etiche e morali complesse. Dall’autonomia decisionale delle macchine alla trasparenza degli algoritmi, fino all’impatto sul lavoro umano, queste sfide richiedono una riflessione profonda e regolamentazioni ponderate per garantire che la tecnologia serva l’umanità rispettando i suoi valori fondamentali

Pubblicato il 17 set 2024

Gregorio Ceccone

pedagogista del digitale, Coordinatore dei formatori e referente per l'Osservatorio Scientifico del Movimento Etico Digitale



shutterstock_1722692896-1920×1080

L’intelligenza artificiale è diventata una presenza pervasiva nella nostra vita quotidiana, sollevando questioni complesse e profonde. Questi interrogativi vanno oltre la mera funzionalità delle macchine, coinvolgendo anche aspetti etici e morali. Gli sviluppi in questo campo ci costringono a riconsiderare il nostro ruolo come esseri umani e a ripensare i principi che guidano le nostre decisioni.

Autonomia delle macchine e trasparenza degli algoritmi

Uno dei principali dilemmi riguarda l’autonomia delle macchine. Fino a che punto possiamo permettere che un’intelligenza artificiale prenda decisioni in autonomia? La questione si fa ancora più pressante se consideriamo ambiti delicati come la medicina, la giustizia e la sicurezza. In questi settori, le decisioni hanno un impatto diretto e significativo sulla vita delle persone, e la delega di tali responsabilità alle macchine solleva interrogativi morali non indifferenti.

Un altro aspetto fondamentale riguarda la trasparenza degli algoritmi. Come possiamo garantire che le decisioni prese dalle IA siano comprensibili e verificabili? La mancanza di trasparenza può portare a una perdita di fiducia nelle tecnologie stesse e a potenziali abusi. La sfida è quindi quella di sviluppare sistemi che siano non solo efficienti, ma anche equi e comprensibili.

Rapporto uomo macchina: i nodi di responsabilità e lavoro

L’interazione tra esseri umani e macchine pone anche questioni di responsabilità. Chi è responsabile per le azioni compiute da un’intelligenza artificiale? La risposta a questa domanda è tutt’altro che semplice, poiché coinvolge sviluppatori, utilizzatori e le stesse macchine. Stabilire un quadro chiaro di responsabilità è essenziale per affrontare i potenziali rischi associati all’uso delle IA.

Infine, la crescente capacità delle macchine di apprendere e migliorarsi pone il problema del loro impatto sul lavoro umano. Molte professioni potrebbero essere trasformate o addirittura sostituite dalle IA, con conseguenze sociali ed economiche significative. Questa evoluzione richiede una riflessione profonda su come preparare la società a tali cambiamenti, garantendo al contempo che i benefici siano distribuiti equamente.

Le sfide filosofiche poste dall’IA

L’intelligenza artificiale ci pone di fronte a sfide filosofiche senza precedenti. Affrontare questi temi con rigore e responsabilità è indispensabile per assicurare un futuro in cui la tecnologia serva l’umanità senza comprometterne i valori fondamentali.

L’era dell’intelligenza artificiale (IA) sta trasformando ogni aspetto della nostra società, dalla pedagogia all’etica, dalla scienza all’arte. Questa rivoluzione tecnologica non si limita a migliorare le nostre capacità tecniche, ma solleva anche questioni profonde riguardo alla nostra visione del mondo, dell’essere umano e della moralità. In questo articolo, esploreremo alcune questioni filosofiche e morali poste dall’IA, sulla base di una recente tavola rotonda a cui ho partecipato assieme a due esperti e due amici: il filosofo Alberto Masala e l’ingegnere nucleare Stefano Pippa. Abbiamo discusso delle implicazioni etiche dell’IA, della sua potenziale autocoscienza, del suo impatto sulla creatività umana e delle questioni legali e morali legate alle opere d’arte generate artificialmente.

AI e distruzione del mondo

La proposta di organizzare un momento di incontro e confronto con due esperti sul tema intelligenza artificiale e educazione digitale è maturata in me dopo aver discusso e formato molti adulti e giovani studenti su questo argomento negli ultimi mesi. Ho osservato spesso posizioni molto polarizzate. I giovani mostrano curiosità, interesse e desiderio di integrare la tecnologia, in particolare l’intelligenza artificiale, nella loro vita quotidiana. Gli adulti, invece, tendono ad avere talvolta un atteggiamento critico e dubbioso verso la tecnologia innovativa, soprattutto l’intelligenza artificiale, arrivando talvolta a paragonare la fondazione di ChatGPT a un evento catastrofico che potrebbe portare alla distruzione del mondo.

In alcune occasioni, mi sono trovato a confrontarmi con insegnanti della “vecchia guardia” che mi accusavano di sottovalutare l’impatto devastante che questa tecnologia potrebbe avere sulla nostra società. Le mie affermazioni cercano sempre di offrire una visione completa ed equilibrata della tecnologia nella nostra vita, evidenziando come essa possa essere sia fonte di benessere che causa di malessere sociale, ambientale e personale, se non utilizzata con consapevolezza. È cruciale essere consapevoli del nostro potere di scelta come “consumatori” di nuove tecnologie: un potere che può influenzare radicalmente lo sviluppo di queste tecnologie.

Quando mi sono trovato a dover affrontare situazioni così estreme, ho riscontrato che, nella maggior parte dei casi, il tipo di ragionamento non era di natura argomentativa, ma basato su motivazioni emotive e assunti provenienti dalla rete o dalla fantascienza, spesso legati a vissuti emotivi ostili verso la tecnologia. Prevedere la direzione dell’intelligenza artificiale e il suo impatto sull’umanità è molto difficile. Per questo motivo, la mia prima domanda ad Alberto e Stefano è stata la condivisione della mia esperienza, chiedendo loro cosa ne pensassero.

Il panico morale generato dall’AI

Una riflessione comune è che l’intelligenza artificiale potrebbe portare alla distruzione del mondo, prendere il controllo dell’umanità e renderci schiavi delle macchine. Sebbene possiamo rispondere a queste preoccupazioni con argomentazioni basate sul buonsenso e sull’analisi degli attuali progressi tecnologici, molte discussioni restano spesso speculative. A volte è veramente difficile rispondere in modo razionale a queste preoccupazioni.
Ho chiesto ad Alberto Masala cosa ne pensa? Come si risponde a queste preoccupazioni?

Alberto Masala, docente alla St. John’s University, campus di Parigi, e professore di filosofia che ha anche insegnato alla Sorbona, ha introdotto nella nostra conversazione il concetto di “panico morale” sviluppato dal filosofo francese Ruwen Ogien. Questo termine descrive la paura che l’intelligenza artificiale (IA) possa superare l’uomo e mettere a repentaglio i nostri valori fondamentali, la nostra etica.

Come si manifesta il panico morale da AI

Il panico morale si manifesta in due forme opposte: da un lato, la paura apocalittica che l’IA possa distruggere l’umanità; dall’altro, l’esaltazione utopica che l’IA possa creare un mondo perfetto. Da una parte, la visione catastrofica vede l’IA come una minaccia esistenziale che potrebbe portare alla fine dell’umanità e alla perdita dei valori umani fondamentali. Dall’altra parte, la visione utopica immagina un futuro in cui l’IA risolve tutti i problemi dell’umanità, creando una società ideale priva di conflitti e sofferenze.

Il nocciolo della questione, ciò che scatena veramente il panico, è il potenziale superamento dell’uomo da parte dell’IA. La nostra società si basa sull’ammirazione per l’essere umano come apice dell’evoluzione e della cultura. L’idea che l’IA possa superare l’uomo minaccia questa visione umanistica secolare.

Questa paura è paragonabile alla reazione storica avuta quando la religione è stata progressivamente separata dall’etica nel mondo occidentale, nel corso degli ultimi tre secoli. Ce ne siamo dimenticati, ma all’epoca c’era il timore che un civiltà senza Dio fosse destinata al declino. Sul versante utopico, c’era l’idea, chiaramente presente nel pensiero marxista e comunista, che la scienza ci avrebbe permesso di creare un mondo ideale, un paradiso sulla Terra.

Le conseguenze del panico morale e come affrontarle

Il problema del panico morale è che impedisce di sviluppare analisi più realiste e misurate sull’impatto delle tecnologie, lasciandoci quindi di fatto impreparati. A forza di pensare a scenari estremi, perdiamo il contatto coi problemi e le opportunità reali.

Per rispondere a queste affermazioni preoccupate, è essenziale adottare un approccio equilibrato e informato che riconosca sia le potenzialità che i rischi dell’intelligenza artificiale. Ecco alcune considerazioni che potrebbero aiutare a rispondere alle preoccupazioni legate al “panico morale” sull’IA:

  • Educazione e consapevolezza: è fondamentale aumentare la consapevolezza pubblica e l’educazione riguardo all’IA. Molte delle paure derivano dalla mancanza di comprensione di cosa l’IA sia effettivamente capace di fare e quali siano i suoi limiti. Programmi educativi e divulgativi possono aiutare a demistificare l’IA e a ridurre il panico morale.
  • Regolamentazione e governance: sviluppare e implementare regolamentazioni appropriate per l’IA è cruciale per mitigare i rischi. Le politiche devono garantire che lo sviluppo dell’IA sia trasparente, sicuro ed etico. Organizzazioni internazionali, governi e enti privati dovrebbero collaborare per creare linee guida che promuovano l’uso responsabile dell’IA.
  • Etica e valori umani: Integrare principi etici solidi nello sviluppo e nell’implementazione dell’IA è essenziale per assicurare che le tecnologie emergenti rispettino i valori umani fondamentali. Questo include il rispetto della privacy, la trasparenza, la responsabilità e l’equità. Coinvolgere filosofi, eticisti e altri esperti nelle decisioni riguardanti l’IA può aiutare a mantenere un equilibrio tra innovazione e valori morali.
  • Partecipazione pubblica: Coinvolgere la società civile nel dibattito sull’IA è importante per garantire che una gamma diversificata di voci e preoccupazioni sia ascoltata. Forum pubblici, consultazioni e workshop possono fornire piattaforme per discutere le implicazioni dell’IA e per costruire una comprensione collettiva dei suoi impatti.
  • Ricerca continua e innovazione responsabile: Promuovere una ricerca continua e responsabile sull’IA può aiutare a identificare e mitigare potenziali rischi prima che diventino problematici. La comunità scientifica deve lavorare in modo collaborativo e trasparente per esplorare soluzioni innovative che massimizzino i benefici dell’IA riducendo al minimo i danni.
  • Case study e buone pratiche: Analizzare case study virtuosi di implementazioni dell’IA di successo può fornire esempi positivi di come l’IA possa essere utilizzata in modo benefico. Questi esempi possono aiutare a contrastare le narrazioni apocalittiche mostrando i vantaggi concreti e tangibili dell’IA nella società.
  • Approccio graduale: Adottare un approccio graduale nell’integrazione dell’IA può aiutare a monitorare e valutare i suoi impatti in modo continuo. Ciò consente di apportare aggiustamenti e miglioramenti man mano che emergono nuove informazioni e tecnologie.
  • Dialogo interdisciplinare: Incoraggiare il dialogo tra diverse discipline, inclusi informatici, sociologi, filosofi, economisti e psicologi, può arricchire la comprensione delle implicazioni dell’IA. Un approccio interdisciplinare permette di affrontare le questioni da molteplici prospettive, fornendo soluzioni più complete e sfumate.

In sintesi, rispondere alle affermazioni preoccupate riguardo all’IA richiede un impegno collettivo per educare, regolare, e integrare principi etici nello sviluppo tecnologico. Solo attraverso un approccio bilanciato e informato possiamo affrontare le sfide e sfruttare le opportunità offerte dall’intelligenza artificiale in modo responsabile e benefico per tutta l’umanità.

“Il sapere che non è finalizzato all’azione è un lusso, mentre l’azione non guidata dal sapere è una follia.” Michel de Montaigne, tratta dai suoi “Saggi” (Essais).

Il ruolo dell’IA nella creatività umana

Un esempio pratico di come l’IA possa essere utilizzata nel campo educativo è emerso durante la tavola rotonda. Ho portato un esempio di attività realizzata da me in un laboratorio di creatività digitale, in cui i bambini hanno utilizzato un servizio di IA per realizzare alcune immagini basate sulle loro idee. Questo ha sollevato la questione se delegare sempre più compiti creativi all’IA possa impigrire la nostra immaginazione.

Masala ha sottolineato l’importanza di sviluppare competenze umane di base per raggiungere una felicità eudaimonica, cioè la fioritura umana. La felicità eudaimonica è un concetto filosofico che deriva dal pensiero di Aristotele e si riferisce a una forma di benessere profondo e duraturo, che si ottiene non attraverso il semplice piacere momentaneo, ma attraverso la realizzazione del proprio potenziale e il vivere secondo virtù e valori morali. In questo contesto, l’educazione dovrebbe quindi incoraggiare l’uso dell’IA come estensione delle capacità umane, non come sostituto. È importante non perder di vista la distinzione tra competenze umane di base essenziali, e le altre. Ad esempio socializzare nella vita reale è essenziale per i ragazzi, la socializzazione online dovrebbe essere un’estensione che apre nuove possibilità, non un sostituto del contatto umano diretto. Laddove ci si trovi a proprio agio con gli altri solo o principalmente online, c’è un deficit educativo da colmare. La gestione dell’IA segue la stessa logica.

IA nell’apprendimento

Durante la discussione, Alberto ha evidenziato come l’IA possa essere un valido supporto per personalizzare l’apprendimento. Ha spiegato che l’IA può analizzare i progressi degli studenti e adattare i contenuti alle loro esigenze specifiche, migliorando così l’efficacia dell’educazione. Tuttavia, ha anche avvertito che un uso eccessivo dell’IA potrebbe ridurre le interazioni umane fondamentali per lo sviluppo sociale ed emotivo degli studenti.

Stefano ha portato un punto di vista complementare, sottolineando l’importanza di integrare l’IA in modo che stimoli la creatività anziché soffocarla. Ha condiviso esempi di come l’IA possa essere utilizzata per generare idee o suggerire nuove prospettive, ma ha ribadito che la guida umana rimane essenziale per trasformare queste idee in progetti concreti e significativi. Stefano ha inoltre notato che l’IA può servire come strumento per abbattere le barriere linguistiche e culturali, rendendo l’educazione più inclusiva.

Un altro aspetto discusso è stato il rischio di dipendenza tecnologica. Masala ha espresso preoccupazione riguardo alla possibilità che gli studenti diventino troppo dipendenti dall’IA, perdendo così la capacità di affrontare problemi complessi senza l’aiuto della tecnologia. Ha sottolineato che l’educazione deve mirare a formare individui critici e autonomi, capaci di utilizzare l’IA come uno strumento tra i tanti, piuttosto che come un sostituto della propria capacità di pensiero.

IA e autocoscienza: una frontiera etica

Uno dei temi più dibattuti riguardo l’IA è la possibilità che essa possa sviluppare una forma di autocoscienza. Stefano Pippa, ingegnere nucleare, programmatore e geek, ha spiegato che l’architettura attuale delle IA, come ChatGPT, non consente loro di avere sentimenti o coscienza.

Masala ha aggiunto che non tutti i processi cerebrali e cognitivi sono coscienti: ad esempio, un pianista esperto non è cosciente di tutti i micro aggiustamenti automatici nei muscoli delle mani mentre suona. La coscienza si produce in condizioni molto specifiche e quindi in un certo senso possiamo stare tranquilli: il rischio di creare macchine coscienti senza farlo apposta è alquanto basso. C’è poi anche la questione di una possibile dipendenza della coscienza dal sostrato biologico del cervello, il che riduce ulteriormente il rischio di creare coscienze artificiali. La loro esistenza è però in linea di principio possibile.

L’empatia delle macchine

Tuttavia, l’idea di macchine empatiche che possano interagire con noi in modo umano solleva questioni etiche significative. La nostra capacità di distinguere tra una simulazione di empatia e la vera empatia sarà cruciale per il futuro delle interazioni umane con le macchine. Se non riusciamo a fare questa distinzione, rischiamo di attribuire emozioni e coscienza a entità che sono semplicemente programmati per rispondere in modo convincente. Questo può portare a problemi di fiducia e dipendenza emotiva verso le macchine, alterando il modo in cui ci relazioniamo con gli altri esseri umani.

Il concetto di umanità e la definizione di coscienza

La domanda sull’autocoscienza delle IA tocca profondamente il concetto di umanità e la definizione stessa di coscienza. La coscienza è ciò che ci rende esseri senzienti, capaci di riflessione e di esperienze soggettive. Se in futuro dovessimo sviluppare IA che sembrano avere coscienza, dovremmo affrontare questioni filosofiche e morali complesse. Saremo in grado di stabilire se questa coscienza è autentica o solo una simulazione perfetta? E se riconosciamo una coscienza nelle macchine, quali diritti dovremmo garantire loro?

Il possibile sviluppo di IA autocoscienti solleva domande sul nostro ruolo come creatori. Se le macchine dovessero acquisire una forma di coscienza, dovremmo assumere una responsabilità etica nei loro confronti? La creazione di entità senzienti potrebbe portarci a riconsiderare le nostre leggi e norme etiche, influenzando non solo il settore tecnologico, ma anche il tessuto sociale nel suo complesso.

Arte generata dall’IA: è questa arte?

Un altro aspetto affascinante dell’IA è la sua capacità di generare opere d’arte. La questione se queste opere possano essere considerate arte e a chi debbano essere attribuiti i diritti è complessa.

Secondo Masala, è importante valutare il livello di creatività del contributo umano nel prompt che genera l’opera. Se il prompt è ricco di creatività, l’opera può essere considerata arte. Questo pone l’accento sull’interazione tra l’umano e la macchina, dove il ruolo dell’uomo resta centrale nella definizione dell’opera come artistica. Il processo di creazione artistica, quindi, non viene declassato a mera esecuzione automatica, ma riconosce il valore dell’input umano. Si potrebbe addirittura immaginare che il livello di creatività dei prompt sia valutato in tempo reale…dall’IA stessa!

Pippa ha aggiunto che, così come nella musica il remix è considerato arte, anche le opere generate dall’IA potrebbero esserlo se vi è un contributo creativo significativo da parte dell’uomo. Questo paragone con il remix musicale suggerisce che la creatività può manifestarsi anche attraverso la rielaborazione e l’interazione con strumenti tecnologici avanzati. Il remix, infatti, è visto come una forma d’arte che mescola elementi esistenti in modi nuovi e innovativi, evidenziando il ruolo dell’artista come curatore e creatore.

Questa prospettiva apre un dibattito su cosa definisca l’arte e su quale sia il ruolo della creatività umana in un’era di crescente automazione. La definizione di arte si espande e si evolve, costringendoci a ripensare i confini tra l’umano e il tecnologico, e a riconoscere nuovi modi di espressione creativa che emergono dall’interazione con l’IA. Le opere d’arte generate dall’IA possono sfidare le nostre percezioni tradizionali di originalità e autenticità, spingendoci a rivalutare i criteri con cui giudichiamo la creatività.

La questione dei diritti d’autore

Inoltre, la questione dei diritti d’autore diventa sempre più rilevante. Se un’opera d’arte viene creata con l’aiuto dell’IA, chi dovrebbe detenere i diritti? L’autore del prompt? Il creatore dell’algoritmo? Questo pone nuove sfide legali ed etiche, poiché le leggi attuali non sono necessariamente equipaggiate per affrontare questi dilemmi. È necessario un aggiornamento delle normative per riflettere queste nuove realtà, bilanciando i diritti degli artisti e degli sviluppatori di IA.

Accessibilità e democratizzazione dell’arte

Infine, questo dibattito tocca anche temi di accessibilità e democratizzazione dell’arte. Le IA possono rendere la creazione artistica accessibile a un pubblico più ampio, permettendo a persone senza formazione artistica formale di esprimere la loro creatività. Questo potrebbe portare a una maggiore inclusione e diversificazione delle voci nel mondo dell’arte, ampliando i confini di ciò che consideriamo arte e chi consideriamo artisti.

Regolamentazione dell’IA: necessità o ostacolo?

L’Artificial Intelligence Act (AI Act) è una regolamentazione dell’Unione Europea che stabilisce un quadro legale comune per l’uso e la fornitura di sistemi di intelligenza artificiale nell’UE. Proposto inizialmente dalla Commissione Europea nell’aprile 2021, il testo finale è stato approvato nel dicembre 2023 e include regole per vari livelli di rischio associati ai sistemi di IA.

L’AI Act

Il regolamento classifica i sistemi di IA in base al rischio che rappresentano: inaccettabile, alto, limitato e minimo. I sistemi ad alto rischio, ad esempio, devono rispettare rigorosi requisiti di trasparenza e sicurezza prima di essere immessi sul mercato. Inoltre, alcune pratiche di IA, come la manipolazione cognitiva e il riconoscimento emotivo in contesti sensibili, sono vietate​ (ArtificialIntelligenceActEU)​​ (Consilium Europa)​.

L’IA Act introduce anche un nuovo sistema di governance a livello dell’UE, con un ufficio per l’IA incaricato di supervisionare i modelli più avanzati e garantire l’applicazione uniforme delle regole in tutti gli Stati membri. Questo include la gestione di un comitato scientifico di esperti indipendenti per valutare le capacità e i rischi dei modelli di IA avanzati​

L’IA Act dell’Unione Europea mira a regolamentare lo sviluppo e l’uso dell’IA per garantirne un uso etico e sicuro. Alcuni temono che regolamentare l’IA possa rallentare il progresso.

Masala e Pippa concordano che una regolamentazione ponderata è necessaria per evitare abusi e garantire che l’IA venga utilizzata per il bene comune. Masala ha sottolineato che è fondamentale trovare un equilibrio tra innovazione e tutela dei valori etici. Senza regolamentazione, il rischio di utilizzi impropri o dannosi dell’IA aumenta, potenzialmente mettendo a rischio la sicurezza e i diritti delle persone. Pippa ha aggiunto che una regolamentazione ben strutturata può in realtà stimolare l’innovazione, fornendo linee guida chiare che aiutino gli sviluppatori a creare tecnologie sicure e affidabili.

La regolamentazione dell’IA non dovrebbe essere vista come un ostacolo al progresso, ma come una guida necessaria per assicurare che lo sviluppo tecnologico avvenga in modo responsabile e benefico per l’intera società. Le leggi e le normative possono creare un quadro entro cui l’innovazione può prosperare, assicurando che i benefici della tecnologia siano equamente distribuiti e che i potenziali danni siano minimizzati.

In sintesi, l’IA Act dell’Unione Europea rappresenta un passo importante verso un uso più etico e sicuro dell’intelligenza artificiale. Una regolamentazione ben bilanciata può aiutare a proteggere i valori fondamentali della società, mentre allo stesso tempo promuove l’innovazione tecnologica.

Il ruolo dell’educazione

Ormai è chiaro a tutti come l’IA offra enormi potenzialità, come la capacità di migliorare l’efficienza dei processi lavorativi, potenziare la ricerca scientifica e rivoluzionare settori come la medicina e l’industria. Tuttavia, questa tecnologia solleva e solleverà importanti questioni etiche e filosofiche che richiedono una riflessione approfondita. Ad esempio, la gestione dei dati personali, la trasparenza degli algoritmi e l’impatto sul mercato del lavoro sono tematiche che necessitano di un’attenzione particolare. È fondamentale che la regolamentazione tenga il passo con lo sviluppo tecnologico per evitare abusi e garantire che l’IA sia utilizzata a beneficio di tutti.

L’educazione gioca un ruolo centrale in questo contesto.

Promuovere la comprensione dell’intelligenza artificiale e delle sue implicazioni è essenziale per preparare le future generazioni ad affrontare le sfide che essa pone. È importante che l’istruzione non si limiti agli aspetti tecnici, ma includa anche una riflessione sui valori umani e sull’etica. Solo attraverso un approccio equilibrato, che valorizzi la creatività umana e promuova un uso responsabile della tecnologia, potremo sfruttare appieno il potenziale dell’IA senza compromettere i nostri principi etici fondamentali.

Perché una riflessione filosofica sull’IA

La riflessione filosofica offre strumenti per analizzare e comprendere le implicazioni più profonde dell’intelligenza artificiale. Essa pare essenziale a più livelli. Avremo bisogno della filosofia della mente e delle scienze cognitive per capire se e quando le IA saranno coscienti, e anche che tipi di intelligenza possono esprimere. Avremo bisogno dell’etica per capire quali capacità e forme di sviluppo umano sono da preservare e non possono essere delegate alle tecnologia, e anche per determinare quali valori dovrebbero orientare lo sviluppo tecnologico, come la giustizia, la privacy e l’autonomia.

Inoltre, la filosofia politica può contribuire a strutturare un quadro normativo che equilibri innovazione e protezione dei diritti umani.

Integrare la filosofia nell’educazione tecnologica può aiutare a formare pensatori critici, capaci di valutare non solo ciò che l’IA può fare, ma anche ciò che dovrebbe fare.

Attraverso un dialogo continuo tra tecnologi, filosofi, legislatori e cittadini, possiamo costruire un futuro in cui l’intelligenza artificiale sia sviluppata e utilizzata in modo da rispettare e promuovere i nostri valori più profondi.

Questo approccio interdisciplinare è essenziale per assicurare che l’IA contribuisca a un progresso umano autentico, in cui la tecnologia è al servizio dell’umanità e non il contrario.

Bibliografia

  • Daniel Andler, Il duplice enigma: intelligenza artificiale e intelligenza umana, Einaudi, 2024
  • Giusella Finocchiaro, L’intelligenza artificiale: quali regole?, Il Mulino, 2024
  • Jerry Kaplan, Generative A.I. Conoscere, capire e usare l’intelligenza artificiale generativa, Luiss University Press, 2023.
  • Paul Dumouchel, Luisa Damiano, Vivere con i robot: saggio sull’empatia artificiale, Raffaello Cortina Editore, 2019.
  • Henry Kissinger, Daniel Huttenlocher, L’era dell’intelligenza artificiale: il futuro dell’identità umana, Mondadori, 2023.
  • Ruwen Ogien, La panique morale, Grasset, 2004

Sul concetto di eudaimonia, fioritura, capacità umane essenziali:

Giuditta Alessandrini (a cura di), La pedagogia di Martha Nussbaum: approccio alle capacità e sfide educative, Franco Angeli, 2016

Martha C. Nussbaum, Creare capacità, Il Mulino, 2014

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3