È passato piuttosto inosservato nelle scorse settimane un aggiornamento tecnologico che invece, seppure in modo simbolico, rappresenta uno spartiacque di grande importanza. Esso riguarda il motore di ricerca DuckDuckGo (uno dei più importanti concorrenti di Google, in genere preferito da coloro che hanno a cuore la tutela dei dati personali). Nella barra che consente di scegliere i vari tipi di ricerca (siti, immagini, notizie…) è comparsa ultima l’iconcina di una chat: selezionandola si è immediatamente portati ad una pagina dove (peraltro con le consuete promesse di non memorizzazione delle proprie ricerche) è possibile immediatamente iniziare un dialogo usando, a scelta ChatGPT oppure Claude, due dei più celebri modelli di intelligenza artificiale generativa.
Quali sono le reali implicazioni di questa svolta tecnologica? Come possono essere utilizzate queste nuove risorse per democratizzare l’accesso all’istruzione? E quali sfide dovranno affrontare gli insegnanti per mantenere il passo con queste innovazioni?
Le implicazioni per il mondo dell’educazione
Ovviamente, dal punto di vista informatico non vi è nessuna novità. La novità si trova però dal punto di vista sia della facilità di uso (nessuna registrazione è necessaria), sia soprattutto dal punto di vista psicologico: senza grandi fanfare, senza nessuna promessa di risultati miracolosi, l’intelligenza artificiale generativa è semplicemente allineata come un ovvio strumento, e proprio in quel contesto con cui un computer viene spontaneamente usato per avere informazioni di qualsiasi tipo. Certo, un saggio disclaimer avverte che le risposte potrebbero essere sbagliate, e così è, ma forse molti utenti non lo prenderanno più sul serio dei foglietti illustrativi che mettono in guardia dalle scosse elettriche che si possono ricevere usando un apparecchietto alimentato da due pile stilo.
Che conseguenze ha tutto questo per il mondo dell’educazione? Basta frequentare qualche corridoio di Università per percepire un brusio di preoccupazione crescente. Appena si è riusciti a tenere a bada tramite i noti programmi il problema del plagio, ora in genere messi a disposizione di tutti i docenti, che un nuovo fantasma si aggira per l’accademia: il fantasma, appunto, di ChatGPT o simili, che possa scrivere tesi, tesine, o anche risposte aperte in qualche esame. Ora l’intelligenza artificiale generativa è lì, comoda come una vecchia calcolatrice tascabile. Nella scuola il problema appare nella pratica leggermente più remoto (forse perché in genere vi sono altri disagi più tangibili che attirano l’attenzione, e anche perché non esiste il decisivo oggetto «tesi»), ma nella teoria è altrettanto preoccupante. In un certo senso, anzi, ancora più grave, perché situato nel momento in cui si formano mentalità e abitudini e in cui alcune capacità di base vengono plasmate (o atrofizzate) in modo decisivo.
IA per la didattica: un campo complesso e differenziato
Le questioni in gioco sono in realtà molto più complesse. L’intelligenza arificiale nel mondo dell’educazione significa un campo molto vasto e ancora in gran parte pochissimo conosciuto. Qualche settimana fa Riccardo Larini ha scritto un’eccellente rassegna degli strumenti di intelligenza artificiale per la didattica: è una lettura consigliatissima, che mostra bene come si tratta di un campo in piena espansione, ma già fin d’ora molto complesso e differenziato. Alla fine se ne ricava l’impressione che i timori nei confronti degli usi truffaldini dell’intelligenza artificiale nel campo educativo possono assomigliare ai timori che all’epoca dell’introduzione dell’elettricità venivano avanzati riguardo ai rischi di folgorazione. Se non ci si lascia paralizzare dalla paura, gli usi (e non gli abusi), se compresi e governati adeguatamente, possono permettere una democratizzazione dell’istruzione quale non vi è mai stata prima nella storia dell’umanità. Prima di pronunciare giudizi frettolosi è necessaria quindi una conoscenza dettagliata dell’attuale stato dell’arte. Mi pare però che questo non impedisca di fare qualche osservazione di contorno, che tenti almeno di delimitare il campo dei problemi.
L’importanza della formazione degli insegnanti
La prima osservazione è questa. Le tecnologie possono svolgere un ruolo umano e buono quando sono pensate e usate bene. Fa dunque benissimo Riccardo Larini a mettere al primo posto la necessità di una formazione degli insegnanti sia iniziale sia in servizio. Tuttavia, non è affatto ovvio che ciò avvenga, e purtroppo non è neppure ovvio che possa avvenire. Le difficoltà che si frappongono sono grandi e tutti gli sforzi finora effettuati (penso al panorama italiano) nei riguardi della formazione degli insegnanti oltre l’ovvia competenza disciplinare hanno avuto risultati incerti.
Nel caso in questione, poi, ci s’imbatte immediatamente in un’antinomia difficile da risolvere: la formazione è tradizionalmente consistita nella trasmissione di esperienze dalla generazione precedente alla successiva; ma in questo caso è proprio la generazione precedente quella che manca delle conoscenze di merito necessarie. Il ricorso ad esperti esterni al mondo della scuola risolve questo problema, ma evidentemente ne crea uno maggiore, perché priva del legame con lo spirito della scuola, e con quelle finalità «politiche» nel senso nobile della parola che sono inestricabilmente connesse alla scuola come istituzione pubblica. Tutti gli esempi di introduzione frettolosa e miracolistica di tecnologia nella scuola sono lì a ricordare che questi timori non sono affatto ingiustificati. Se in moltissimi casi non si è riusciti a fare un uso appena sensato delle LIM (solo io ne ho viste alcune usate come supporto per scrivere col pennarello?), che cosa accadrà con tecnologie molto più esigenti, che un po’ alla volta possono portare con sé perfino una diversa immagine del mondo?
L’apprendimento umano nell’era dell’intelligenza artificiale
In secondo luogo, ogni innovazione implica un’attenta verifica dei risultati (la quale a sua volta implica, ovviamente, che si abbia chiaro quali risultati si vogliano ottenere). Poco tempo fa, in un incontro di orientamento nelle scuole medie superiori, durante una pausa ho sfogliato, con lo sconcerto di chi è nato negli anni 60, un libro di testo attribuito agli stessi autori che già conoscevo come studente liceale, ma ai miei occhi irriconoscibile: scomparso ogni testo lineare, tutto invece trasformato in immagini, colori, schemi, box. Alla studentessa che lo aveva sul banco ho chiesto: «Ma voi riuscite a studiare su libri così?». Mi ha immediatamente risposto: «Ovviamente no! Io studio sul libro che mia madre usava all’Università: lì è tutto chiarissimo, ed è in bianco e nero!»
Un aneddoto non sostituisce un’indagine seria, ma mi chiedo per esempio quante volte siano stati fatti studi comparativi sull’efficacia (o anche solo sul gradimento) di certe impostazioni degli attuali libri di testo. Per la materia di cui sono direttamente competente credo che la risposta sia: mai. Ma questa mancanza diventerebbe oggi doppiamente rischiosa. Non credo che sia troppo augurarsi che qualsiasi sperimentazione delle nuove tecnologie, per di più in continua evoluzione, sia obbligatoriamente accompagnata da un’indagine sulla sua efficacia.
Nuovo e diverso non vuol dire per forza migliore
Questo credo che porti subito ad una terza considerazione: se i risultati sono negativi, quel certo strumento non dev’essere più usato, o almeno non più in quel modo. Sì, esistono molte decisioni sensate nella gamma che va dalla prudenza conservatrice all’audacia sperimentatrice; ma certamente non è sensato ritenere qualcosa migliore, e ostinarsi ad imporne l’uso, solo perché nuovo e diverso.
Ciò è vero anzitutto per l’aspetto, relativamente facile da valutare, che riguada l’acquisizione di conoscenze, o di capacità. Ma è tanto più vero quanto più nell’istruzione si toccano delicatissimi fattori umani, in cui non esiste nessuna pura «oggettività»: l’apprendimento è sempre apprendimento di qualcuno, e la tradizionale forma educativa ha sempre anche presupposto che è contemporaneamente insegnamento da parte di qualcuno. Che uno strumento meccanico possa interferire con questa dimensione umana appare a prima vista possibile, e rischioso. Insomma: accantonare qualcosa o perché non funziona, o perché porta con sé danni collaterali intollerabili, non è un atteggiamento luddista o retrogrado: è solo elementare spirito empirico, base di ogni scienza, e anche di ogni scienza pedagogica.
Concentrarsi sulla persona e non sul “prodotto”
Il fatto che nel campo dell’istruzione non esista nessuna pura «oggettività» conduce ad una quarta considerazione. Abbiamo prima citato il terrore che serpeggia nei corridoi dell’Università di fronte all’idea che presto si possa temere che intere tesi di laurea siano il prodotto di un’intelligenza artificiale. A ben pensarci, il timore ha il suo presupposto nel fatto che la tesi è un «oggetto», che per di più nel curriculum universitario svolge un ruolo importante e riceve un giudizio in quanto tale. Certo, si possono immaginare strategie che minimizzino il rischio che gli elaborati presentati siano in realtà generati da una macchina. Ma non dovrebbe tutto questo anche innescare una riflessione su quanto l’attenzione vada sempre più spostata sulla persona (sulle sue capacità, sulle sue conoscenze), anziché su ciò che può produrre? Tra i docenti universitari circola grande ironia (o peggio) sul modo in cui in cui viena valutata la loro attività di ricerca: in base ai «prodotti» (questo è il termine usato dall’agenzia italiana di valutazione).
Giustissimo fare dell’ironia: ma non bisognerebbe allora sforzarsi di non trasportare nell’insegnamento la mentalità del «prodotto»? Se un bel giorno le intelligenze artificiali sapranno scrivere buone tesi («ChatGPT, scrivimi una tesi di laurea triennale sull’estetica trascendentale di Kant!»), non significherà questo che bisognerà concentrarsi su quella formazione umana, sulle attitudini, sulla sensibilità, che sono attributi della persona umana e che quindi non potranno mai essere supplite (tanto poco quanto, per capirci, qualcuno può essere felice al posto mio)? Mi rendo conto che questa domanda è solo un incerto primo passo, quasi a tastoni, ma mi pare che il tema sia cruciale, e che in fondo dimostrerebbe quanto la tecnologia possa aiutare a concentrarsi di più sull’umanità.
Gli insegnanti al comando delle nuove tecnologie: necessità o utopia?
E questo conduce alla quinta e ultima considerazione che vogliamo fare. Riccardo Larini fa benissimo ad osservare il carattere potenzialmente democratico delle nuove tecnologie: se ciò era vero per la televisione del maestro Manzi, tanto più può esser vero per l’intelligenza artificiale di oggi.
C’è però una domanda preliminare che allora diventa cruciale: questa democratizzazione è davvero desiderata? E quale educazione si desidera per le generazioni future? È un’illusione pericolosissima pensare che la risposta sia così ovvia e condivisa che non c’è alcun bisogno di esplicitarla e articolarla, o che magari debba essere fornita da qualche pool di «esperti». E se questo si combina con il timore che abbiamo formulato nella prima osservazione, il risultato può essere esplosivo: se queste nuove tecnologie profondamente diverse rispetto ad ogni innovazione passata, portatrici di una «ri-ontologizzazione del mondo», non fossero comprese e governate anzitutto dagli insegnanti, da chi sarebbero governate, e con quale presupposti, quali obiettivi? Le domande difficili e preoccupate devono portare all’impegno. C’è da augurarsi che vi sia, da parte di tutti coloro che possono contribuire.