etica

IA per la formazione? Sì, ma con cautela: ecco le sfide



Indirizzo copiato

Esplorando le complessità etiche dell’intelligenza artificiale in ambito formativo, si riflette sulle leggi di Asimov e le sfide odierne. Temi quali affidabilità, trasparenza, vulnerabilità, privacy, evidenziando la necessità di un approccio critico verso l’IA. L’importanza di bilanciare i benefici dell’IA con la tutela dei dati e la comprensione dei suoi meccanismi è cruciale

Pubblicato il 13 feb 2024

Beatrice Lomaglio

CEO Fabricamente, esperta di marketing e formatrice



scuola stem pnrr

Lintelligenza artificiale (IA) sta rivoluzionando ogni aspetto della nostra vita, compresa l’educazione. Ma l’impiego dell’IA nel settore della formazione non è privo di sfide, soprattutto dal punto di vista etico.

La trasparenza degli algoritmi, la protezione dei dati personali e le vulnerabilità delle tecnologie di IA sono questioni delicate che richiedono un approccio equilibrato e consapevole. Al contempo, le potenzialità offerte dall’IA nel campo dell’apprendimento sono immense e rappresentano una grande opportunità per superare i limiti tradizionali del sistema educativo.

L’attualità delle tre leggi di Asimov

Vi ricordate le tre leggi della robotica di Asimov[1]? La Prima Legge stabilisce che un robot non possa recar danno a un essere umano né possa permettere che, a causa del suo mancato intervento, un essere umano riceva danno. La seconda legge prevede che un robot debba obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge. Infine, secondo la terza legge un robot deve proteggere la propria esistenza, purché questo non lo ponga in contrasto con le prime due Leggi.

Nonostante l’interpretazione delle tre leggi sembri in via generale chiara, molti dei racconti di Asimov sono costruiti per rendere evidente come i malintesi, i fraintendimenti e le ambiguità proprie del mondo reale non consentano di prevedere e controllare con certezza il comportamento di robot intelligenti attraverso una serie di regole date. Come a volte accade, la narrativa anticipa i tempi e quello che negli anni ’50 e ’60 poteva apparire come un esercizio letterario visionario, oggi, con l’avvento dell’intelligenza artificiale generativa torna a porre interrogativi etici che non sembrano più così remoti.

Le sfide dell’impiego dell’IA nella formazione

L’applicazione dell’intelligenza artificiale alla formazione apre scenari molto interessanti, che vanno dalla possibilità di costruire ambienti di apprendimento su misura, sviluppare percorsi e contenuti personalizzati, offrire tutor e assistenti virtuali, progettare processi di monitoraggio e valutazione, favorire l’inclusione e l’accessibilità. Le grandi potenzialità dell’intelligenza artificiale non devono però farci dimenticare che questa nuova tecnologia evidenzia ad oggi dei problemi rilevanti, che possiamo principalmente ricondurre a affidabilità, trasparenza, vulnerabilità agli attacchi hacker, privacy e tutela dei dati.

IA e formazione: tutti i rischi di un’IA inaffidabile

La celebre sfida tra il sistema di intelligenza artificiale AlphaGo e il campione di go Lee Sedol[2] vide i due antagonisti impegnati in cinque partite, quattro delle quali vennero vinte da AlphaGo. Nell’unica partita in cui Lee Sedol riuscì a battere Alpha Go successe qualcosa di molto particolare. L’algoritmo stava segnando il 70% di probabilità di vincere quando Sedol fece una mossa estremamente spregiudicata, che nessun altro giocatore aveva mai preso in considerazione prima. Da quel momento AlphaGo cominciò a comportarsi in maniera anomala, giocando in modo palesemente inefficace, tanto da sconfinare nel ridicolo. La macchina aveva improvvisamente cominciato a delirare e il team di programmatori non poteva intervenire in alcun modo per riportarla sulla retta via.

Questo delirio è qualcosa di analogo alle allucinazioni di ChatGPT: si parla infatti di allucinazioni quando il sistema conversazionale offre risposte palesemente errate o assurde o fuori contesto. Anche se la prima reazione a una situazione di questo tipo potrebbe essere di divertimento e l’idea di un’IA fallibile potrebbe risultare rassicurante, il problema si evidenzia quando il nostro livello di competenza non è sufficiente a permetterci di individuare l’errore della risposta, per cui potremmo essere indotti a ritenere la macchina credibile anche quando non lo è.

Nella formazione, per definizione, siamo di fronte a persone in apprendimento e, quindi, non in grado di valutare la correttezza delle informazioni che gli vengono fornite. Pensiamo a un sistema come Learn Anything (https://www.tutorai.me/), che consente di esplorare e conoscere un argomento a scelta attraverso dei moduli che vengono progettati dalla piattaforma in pochi secondi e adattati alle esigenze del discente. L’accesso ai contenuti non prevede la possibilità di verificare fonti, note bibliografiche o sitografiche e come discenti dobbiamo semplicemente fidarci dell’appropriatezza delle risposte fornite dall’algoritmo o, in alternativa, scegliere, se abbiamo tempo e siamo particolarmente diligenti, di effettuare qualche controllo incrociato consultando altre piattaforme.

A fare la differenza dunque non è tanto la tecnologia, ma il nostro rapporto con la tecnologia e, in particolare, la nostra capacità di mantenere un elevato senso critico che ci consenta di non accettare passivamente qualsiasi cosa provenga dalla macchina. Formarsi all’intelligenza artificiale, allora, non significa solo prepararsi a utilizzare gli strumenti che l’IA ci mette a disposizione, ma identificare e coltivare quelle competenze che ci consentono di usare l’IA per valorizzare il nostro potenziale senza esserne soggiogati.

Il ruolo della trasparenza nell’IA applicata alla formazione

Se nelle prime fasi di ricerca sull’intelligenza artificiale gli algoritmi funzionavano sulla base di regole fornite dai programmatori, con l’avvento del machine learning e l’uso delle reti neurali profonde l’uomo ha perso la possibilità di stabilire nessi di causa effetto tra input dato e output restituito dalla macchina. Ma se non comprendiamo il funzionamento dei sistemi di IA, come possiamo fidarci di loro? Non è un caso se una delle aree di ricerca dell’IA sia quella dell’IA trasparente o della “machine learning interpretabile”, espressioni che si riferiscono al tentativo di indurre i sistemi di IA a spiegare le proprie decisioni in modo da rendere possibile per gli esseri umani comprendere quali parti degli input hanno maggiormente influenzato l’output o dove possano più facilmente generarsi errori.

In questa direzione va anche l’Intelligent Artificial Act approvato dall’Unione Europea, che si pone come il primo tentativo di produrre una regolamentazione di ampio respiro capace di prevenire un uso improprio dell’IA. Il regolamento impone infatti alle aziende che vogliono rendere disponibili i propri applicativi sul mercato europeo di condividere alcuni dati sui modelli di base utilizzati, pur escludendo aspetti che le aziende potrebbero voler mantenere segreti al fine di proteggere il proprio business. Rimane comunque il fatto che i processi dell’IA generativa restano prevalentemente una black box dentro la quale è impossibile scrutare.

Concentrando la nostra attenzione nell’ambito della formazione, è evidente che affidare all’intelligenza artificiale compiti relativi al monitoraggio dell’apprendimento o addirittura alla valutazione potrebbe significare rinunciare a controllare queste fasi, accettando che l’IA possa prendere decisioni influenzata da bias difficilmente identificabili. Anche volendo tener conto di tali bias, potremmo cadere nell’errore di presupporre che gli algoritmi risentano dei nostri stessi pregiudizi cercando un parallelo tra il nostro modo di pensare e quello della macchina, senza tener conto del fatto che la macchina agisce sulla base di meccanismi completamente diversi e a noi in gran parte ignoti.

Vulnerabilità degli algoritmi di IA: un rischio per la formazione?

Le reti neurali profonde possono essere ingannate e indotte a commettere errori. AlexNet è la rete neurale convolutiva che nel 2012 ottenne i migliori risultati nel riconoscimento delle immagini, arrivando all’85% di risposte corrette e rendendo evidenti le enormi potenzialità delle ConvNet nell’avanzamento dell’IA. L’anno successivo C. Szegedy e altri ricercatori firmarono un articolo[3] in cui veniva spiegato come fosse possibile modificare i pixel di un’immagine affinché essa rimanesse invariata agli occhi umani, ma venisse classificata da AlexNet in modo completamente diverso. AlexNet poteva insomma essere indotta volontariamente in errore.

Questo esperimento, insieme a molti altri, ha mostrato come sistemi di riconoscimento delle immagini, sistemi di analisi dei testi, sistemi usati per il riconoscimento vocale possano divenire facilmente oggetto di attacchi di hacker che ne possono pregiudicare il funzionamento, con esiti talvolta non immediatamente identificabili dagli essere umani

Privacy e tutela dei dati nell’applicazione dell’IA alla formazione

I grandi progressi dell’intelligenza artificiale sono dovuti in massima parte alla possibilità di disporre di computer talmente potenti da poter analizzare grandissimi quantitativi di dati, fondamentali per l’apprendimento degli algoritmi. All’interno di questi dati ci sono le migliaia di informazioni che noi inseriamo quotidianamente nell’ambiente digitale: fotografie, video, testi, emoji. La stessa ChatGPT evolve e migliora sulla base delle nostre domande, dei nostri feedback, delle nostre correzioni. Alla fine, nell’equilibrio tra tutela dei dati e addestramento degli algoritmi, si tratta di trovare un giusto trade off tra la cessione e la perdita di controllo sui nostri dati e i vantaggi che pensiamo di trarne. Tale trade off, però, potrebbe variare se pensiamo a dati particolarmente sensibili, come quelli che possono riguardare il nostro stato di salute, le nostre convinzioni politiche, le nostre preferenze sessuali, ma anche le nostre preferenze di apprendimento, i nostri modelli cognitivi, i risultati che riusciamo a conseguire.

Ciononostante, quando nel marzo 2023 il Garante ha bloccato ChatGPT in Italia per l’assenza di una base giuridica che giustificasse la raccolta e la conservazione massiccia di dati personali allo scopo di addestrare gli algoritmi e per la mancanza di filtri idonei a proteggere i minori, il provvedimento ha avuto il sapore della battaglia di retroguardia e in molti si sono attivati per poter aggirare il divieto e continuare ad utilizzare la piattaforma. I vantaggi offerti dall’IA, come già accaduto per i vantaggi offerti dal digitale, sono di tale natura che rinunciarci per una generica tutela dei propri dati risulta difficile.

Opportunità offerte dall’IA nella formazione: superare le sfide etiche

Nel suo libro Maniac, Benjamín Labatut ripercorre gli eventi che hanno portato alla creazione del computer che ha aperto la strada all’intelligenza artificiale e mette in bocca al suo inventore, John Von Neumann, queste parole: “Dopotutto la tecnologia è un’escrezione umana, e non dovrebbe essere considerata come qualcosa di Altro. È parte di noi, così come la tela è parte del ragno. Tuttavia il progresso tecnologico sempre più rapido sembra in procinto di avvicinarsi a una singolarità fondamentale, un punto di non ritorno nella storia della nostra specie oltre il quale l’esistenza umana come la conosciamo non potrà continuare. Il progresso diventerà incomprensibilmente veloce e complicato. Il potere della tecnologia in quanto tale è sempre ambivalente, e la scienza non può che essere neutrale, limitandosi a fornire mezzi di controllo applicabili a qualunque scopo, e indifferenti a tutto. Il pericolo non sta nella natura particolarmente distruttiva di una specifica invenzione. Il pericolo è intrinseco. Per il progresso non c’è cura.”

Note


[1] Isaac Asimov è stato uno scrittore e un divulgatore scientifico statunitense. E’ considerato uno dei padri della letteratura fantascientifica.

[2] https://www.youtube.com/watch?v=WXuK6gekU1Y

[3] C. Szegedy e altri, Intriguing Properties of Neural Networks in “Proceedings of the International Conference on Learning Representations” 2014

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2