Il dibattito sull’avvento dell’intelligenza artificiale nelle aule scolastiche è stato, negli ultimi mesi e a partire da quando OpenAI ha rilasciato ChatGPT lo scorso novembre, orientato principalmente alle applicazioni quali i chatbot o assistenti virtuali.
I motivi del successo di ChatGPT
I motivi di tale prevalenza sono chiari e sono riferibili (così risponde anche lo stesso ChatGPT interrogato sulla questione) innanzitutto all’accessibilità dei chatbot basati sull’IA, sempre più disponibili e diffusi; un ulteriore motivo è relativo alle possibilità di interazione immediata che offrono: poter disporre di un sistema che riesce a risolvere dubbi o problemi 24/7 open access è una condizione di particolare privilegio e fascino, sin dalle prime transizioni dai sistemi di conoscenza analogici a quelli digitali.
Il terzo fattore che viene evidenziato dalla risposta di ChatGPT è relativo al fatto che l’IA, e in particolare il campo del Natural language Processign (NLP) su cui si basa la capacità di conversazione di tali applicazioni, è considerata una delle tecnologie emergenti più interessanti degli ultimi anni, su cui si concentra – condizione non irrilevante – una intensa azione di ricerca e sviluppo nel contesto dell’IA, attirando l’attenzione di esperti, accademici e media. Si tratta, quindi, di applicazioni pratiche e facilmente utilizzabili nelle aule, accessibili e potenzialmente utili.
Il dibattito sull’uso di ChatGPT in Italia
In Italia, il dibattito già vivace è stato inoltre potenziato dalle limitazioni disposte del Garante per la protezione dei dati personali, al fine di sostenere il rispetto della disciplina sulla privacy. Come per qualsiasi altro sistema digitale, le modalità di trattamento dei dati personali degli utenti rappresentano una questione centrale, discussa anche più di quanto siano note le effettive modalità di tutela e di gestione dei nostri dati.
Le potenzialità dell’IA a scuola, oltre ChatGPT
Nello specifico della realtà scolastica, le modalità di analisi dei dati degli studenti aprono, inoltre, a necessarie valutazioni di salvaguardia, ma anche a possibili ulteriori scenari di sviluppo delle potenzialità dell’Intelligenza Artificiale. La stessa risposta offerta da ChatGPT chiarisce che è importante notare che l’IA ha il potenziale per essere utilizzata in una varietà di modi nella scuola, al di là dei soli chatbot.
Ad esempio, l’IA può essere impiegata per l’analisi dei dati degli studenti, la personalizzazione dell’apprendimento, lo sviluppo di risorse didattiche avanzate, innovative e coinvolgenti per lo studente.
IA a scuola, la necessità di formare i docenti
A partire da questa cornice, rielaborata anche sulla base del contributo generato dalla risposta nella ChatGPT, appare interessante ricordare una voce significativa del dibattito, quella di Pierre Lévy. Il filosofo teorico dell’intelligenza collettiva (1994), negli scorsi mesi, ha condiviso sulle proprie pagine social alcuni post, nei quali ha innanzitutto chiarito che “se fossi ancora prof, renderei obbligatorio l’uso di ChatGPT per scrivere saggi. Gli studenti con i migliori spunti, migliore capacità di dialogo con il sistema, scelta dei testi, avrebbero i voti migliori” (post Facebook – 12 gennaio 2023). Una riflessione senz’altro condivisibile anche tra molti docenti scolastici (e che senz’altro vede diversi altri molti docenti contrari) che apre a riflessioni sulla necessità di una adeguata formazione docenti, in particolare ma non solo nella scuola, che consenta agli insegnanti di integrare l’IA nel proprio approccio didattico. Per Lévy (post Facebook del 24 marzo 2023) d’altronde, la questione è necessariamente più ampia ed investe la trasformazione nella quale siamo immersi: “quello che chiamiamo (erroneamente) #AI diventerà il nostro ambiente di cognizione/comunicazione generale”.
Una riflessione che ci aiuta a ricordare anche che, mentre ne discutiamo, il mondo (nella sua fusione di fisico e digitale) va avanti. Ed in particolare i sistemi di formazione hanno necessità di confrontarsi con i nuovi ambienti di conoscenza nei quali prendono forma nuovi approcci cognitivi, ai quali corrispondono nuove forme sociali nelle quali sono sempre più sfumati i confini tra il fisico e il digitale, tra l’uomo e la tecnologia.
Favorire un accesso equo e inclusivo alle risorse dell’IA: il ruolo della scuola
E qui si collega una terza riflessione condivisa online dal filosofo francese, che lo scorso 8 aprile ha affermato, inoltre, che “il libero accesso agli assistenti #AI generativi diventerà presto un diritto umano”. Un auspicio, nella direzione della gestione equa e inclusiva delle risorse e delle conoscenze di cui disponiamo, anche in questo caso sul fronte materiale e immateriale, fisico e digitale.
Un auspicio che può essere tradotto anche nei termini della più ampia ricaduta, per tutti e per ciascuno, dei risultati della ricerca scientifica e tecnologica, intesa e da intendere come bene pubblico.
Ed è in questo ambito che il ruolo della scuola, in particolare in quanto istituzione pubblica, aperta e rivolta a tutte le fasce sociali, assume un ulteriore e fondamentale significato, in termini di uguaglianza di opportunità e nel contrasto ai divari di qualsiasi tipologia, compresi quelli derivanti dalla disparità di accesso ai mezzi. Divari che si traducono in diseguaglianza nel modo di comprendere il mondo digitale e di agire nei nuovi contesti sociali e culturali che lo caratterizzano. In tale direzione, il ruolo della scuola pubblica è necessariamente ampio e centrale.
Aiutare gli studenti a orientarsi nel caos informativo: l’importanza delle capacità critiche
L’introduzione e la diffusione dei sistemi di intelligenza artificiale nella formazione ripropongono alcune questioni che sono state già al centro della discussione in occasione delle prime trasformazioni digitali, nel periodo di passaggio ai formati elettronici e di espansione degli ambienti online nelle nostre vite. La progressiva diffusione delle tecnologie cosiddette abilitanti, e dei sistemi di IA nelle nostre aule, richiama ancora in causa la necessità di accompagnare gli studenti alla capacità critica e di decodifica dei contenuti e dei contesti online.
Un tema che, agli albori della trasformazione digitale, è stato inizialmente posto come necessità di orientarsi nell’information overload, successivamente ricodificata anche nei termini dell’infodemia: caos informativo caratterizzato dalla proliferazione di notizie spesso discordanti, spesso false, che – come evidenzia Derrick de Kerckhove (in Buffardi, 2021) ha una natura virale e alimenta confusione e paure, generando incertezza e divisioni.
Nel caos informativo che dilaga e in assenza di una consapevolezza digitale, la verosimiglianza delle notizie generate tramite sistemi di IA riduce pericolosamente la capacità critica. L’esempio delle foto (fake) che nello scorso marzo ritraevano Donald Trump mentre scappava dall’arresto, in manette e in prigione, ha posto all’attenzione l’assenza di regolamenti o standard sul tema dell’uso dell’intelligenza artificiale nella creazione e diffusione di notizie false e incredibilmente verosimili.
Comprensione e decodifica degli ambienti digitali: il ruolo dei docenti
Il ruolo del docente diventa fondamentale anche per la gestione di questi strumenti: se è vero che gli studenti possono ricevere risposte immediate sulle domande poste alle IA, non è sempre detto che questi strumenti rispondano correttamente. Dobbiamo considerare che allo stato attuale dello sviluppo le risposte fornite sono le “più probabili”, in quanto questi sistemi sono basati essenzialmente su modelli linguistici, non su ragionamenti cognitivi veri e propri. Ad esempio, potremmo chiedere ad un’IA che cosa ne pensasse Platone della matematica: sicuramente lo strumento fornirà una risposta, tipicamente citando anche frasi del filosofo stesso, ma siamo sicuri che quelle parole sono proprio le sue e, ad esempio, non di Aristotele? Solo un “controllo umano” può sciogliere questo dubbio. E qui entra in scena il docente, che effettua una sorta di “controllo qualità”. Possono esistere altri campi in cui la gestione dello strumento da parte del docente diviene fondamentale, come ad esempio lo stimolo a far ragionare gli studenti sull’eticità del trattamento dei dati che vengono sottoposti alle IA, andando così a coinvolgere la cittadinanza digitale.
La formazione dei docenti continua a rivestire un ruolo fondamentale, affinché, come Pierre Lévy, un sempre più ampio numero di insegnanti possa percepirsi capace di accompagnare gli studenti nella comprensione e decodifica degli ambienti digitali (sociali e culturali) ed auspicare l’introduzione dei sistemi di intelligenza artificiale – e delle tecnologie abilitanti in generale – nelle nostre aule.
Competenze digitali: le risorse del DigComp 2.2
Su questo fronte, è solo il caso di ricordare che la nuova versione del DigComp 2.2 attualizza la definizione di competenza digitale, ampliando il riferimento alle tecnologie “nuove e emergenti”, come i sistemi basati sull’intelligenza artificiale e l’Internet of Things (IoT), e richiamando esempi sulle competenze relative alla gestione dei big data. Aspetti che riconducono, inoltre, alla necessità di considerare l’area delle applicazioni sociali delle tecnologie, la cui estensione e direzione porta in primo piano il ruolo della scuola nella formazione delle menti (e delle mani) capaci di guidare i processi e le trasformazioni.
Il corso di formazione per docenti “Artificial Intelligence & Coding skills”
In questa direzione, un esempio che mostra alcuni scenari in ambito didattico viene dall’esperienza del corso di formazione per docenti “Artificial Intelligence & Coding skills” tenutosi presso l’istituto Galilei di Livorno nel 2021. In quel caso, i partecipanti hanno realizzato un’applicazione combinando strumenti utilizzati per il coding (PictoBlox, un “clone” di Scratch) con un’intelligenza artificiale realizzata tramite un servizio online gratuito chiamato “Teachable Machines”: l’app simulava il comportamento di un individuo che permetteva l’ingresso in una scuola solo a chi indossasse mascherina protettiva per le vie aeree.
Tramite Teachable Machines è stata creata una semplice intelligenza artificiale, istruendola con circa 200 foto dello stesso volto: in 100 foto il soggetto indossava la mascherina e nelle restanti 100 ne era sprovvisto. La creazione dell’intelligenza artificiale ha richiesto pochissimi minuti anche da parte dei docenti meno esperti e ha mostrato risultati validi. I test effettuati hanno infatti rilevato che il sistema riusciva a riconoscere volti mai visti in precedenza, distinguendo correttamente fra le due tipologie. Usando PictoBlox, infine, l’IA è stata integrata in un algoritmo realizzato tramite blocchi funzionali realizzando così l’app finale: l’utente finale si posizionava di fronte alla telecamera del proprio device e l’app, utilizzando l’IA, e analizzando l’immagine, “autorizzava” o meno l’ingresso.
La problematica del trattamento dei dati
Va notato, tra l’altro, che questo particolare esempio pone in forte evidenza anche la problematica del trattamento dei dati in quanto lo strumento scelto (Teachable Machines) prevede che le foto vengano caricate sui propri sistemi per essere analizzate.
Le esperienze maturate nelle scuole italiane
Nel periodo pandemico e di ripresa delle attività in presenza, esperienze simili sono state intraprese in alcune scuole, a partire dall’intraprendenza dei docenti e spesso coinvolgendo gli studenti. Giuseppe Aleci, già docente al IIS Gae Aulenti di Biella e attualmente presso l’ITIS Sella della stessa provincia, nel 2020 era impegnato nella programmazione di “schede Microbit, basate su linguaggi semplici; infatti, anche i bambini della primaria le usano, per il controllo del distanziamento fisico”. Sempre nell’istituto scolastico ha lavorato alla realizzazione di misuratori della temperatura corporea, di sistemi di controllo visivo per determinare la presenza della mascherina, di robot per la sanificazione degli ambienti tramite ultravioletti. Attività che mostrano agli studenti — afferma Aleci – “le potenzialità delle tecnologie rispetto ad esigenze sociali e concrete, per rispondere alle quali spesso possiamo agire in autonomia, con investimenti davvero minimi”.
Direzionare l’ambito di azione dell’IA sul pensiero
L’acceso dibattito degli scorsi mesi sull’uso di ChatGPT di Open AI in aula mostra una varietà di fervidi interrogativi sul tema. Tuttavia, l’ambito delle applicazioni derivanti dai sistemi di intelligenza artificiali nelle aule può essere ampliato e direzionato sul pensiero (degli studenti e dei docenti nelle vivide scuole italiane) che crea e sperimenta. In questo senso, una ricerca di Indire condotta pochi anni orsono sulle relazioni tra scuola, lavoro e territorio evidenzia la capacità della scuola di partecipare alle trasformazioni in atto. Sono sempre più diffusi, oggi, modelli di formazione che evidenziano il valore delle alleanze tra sistema pubblico e privato, tra ricerca e formazione, tra scuola e territorio, ai diversi livelli e gradi del nostro sistema di istruzione, comprendendo le scuole fino alle università.
La scuola come parte attiva nei cambiamenti in corso
In questi modelli, le istituzioni scolastiche necessitano sempre di più di essere riconosciute come parte attiva nei cambiamenti in corso, capaci di generare processi, di avviare progettualità e giungere alla realizzazione anche di sofisticati sistemi tecnologici che guardino al benessere individuale e collettivo.
Una sempre più solida alleanza tra formazione, ricerca, mondo imprenditoriale (e dell’ imprenditoria innovativa) conduce ad un sistema nel quale le scuole possano progettare, creare, sperimentare. Nelle parole di uno degli studenti dell’istituto tecnico Gae Aulenti di Biella, intervistato nell’ambito della ricerca Indire, con riferimento alla progettazione e realizzazione di un robot dotato di intelligenza artificiale (e destinato a diverse funzioni in ambito eco-sostenibile e sociale): “il nostro robot Ent è un sistema che apprende, può sembrare finito, ma in realtà continua ad apprendere ogni giorno…la tecnologia non è mai finita”.
Allo stato attuale dello sviluppo possiamo ipotizzare molti scenari di applicazione delle IA nelle aule e in molti ambiti, sia curricolari che non. Possiamo utilizzare questi strumenti per cercare risposte, o possiamo istruirli per creare intelligenze collettive basate ad esempio sull’esperienza di una classe, ma in ogni caso è fondamentale un uso consapevole di tali strumenti. Se nelle aule è necessaria la presenza di uno o più supervisori (verosimilmente i docenti) è altresì fondamentale fornire ad essi una buona formazione, e ciò coinvolge direttamente anche il mondo accademico.
Conclusioni
È difficile immaginare i futuri sviluppi che questi strumenti avranno. L’evoluzione è rapidissima e ogni giorno nascono strumenti e soluzioni diverse e raffinate, ma quello che è certo è che sono strumenti che devono essere “governati” da un’intelligenza umana, così che possano aggiungersi alle risorse già presenti nel sistema scolastico, integrandole e non sostituendole, per accompagnare gli studenti nei percorsi di formazione in modo efficiente, funzionale ed etico.
Bibliografia
Buffardi A. (2021), Individui, tecnologie, società: la trasformazione digitale nell’era Covid-19. Intervista a Derrick de Kerckhove, in “Iul Research”, 2, 3, pp. 21-32.
Lévy, P. (1994), L’intelligence collective. Pour une anthropologie du cyberspace, La Découverte, Paris (trad. it. L’intelligenza collettiva. Per un’antropologia del cyberspazio, Milano, Feltrinelli,1996)