Mentre discutiamo ancora della didattica per competenze, senza riuscire a metterci d’accordo neanche su un curricolo per quelle digitali, emerge l’urgenza di parlare a scuola di Intelligenza artificiale e machine learning perché anche questo è esercizio di cittadinanza. Sarebbe quindi utile spostare la prospettiva dalle Fake news al Deep fake e sapere come far lavorare i nostri studenti sui dati, sulla loro lettura, su come le macchine imparano da noi. Ci ha provato Blakeley H. Payne, che ha sviluppato una sua proposta di curricolo per insegnare l’intelligenza artificiale a scuola. Ha coinvolto più di duecento studenti tra i nove e i quattordici anni, per sperimentare il suo piano di insegnamento, che è pubblico e accoglie anche suggerimenti e proposte.
Bambini e comprensione dell’intelligenza artificiale
Laureata a Boston, Payne dichiara che le attività proposte sono state sviluppate presso il MIT Media Lab per soddisfare le crescenti esigenze dei bambini di comprendere l’intelligenza artificiale, il suo impatto sulla società e il modo in cui potrebbero modellare il futuro dell’IA.
Tra gli obiettivi di apprendimento del piano ci sono spunti utili per riflettere su quali sviluppi dei nostri percorsi scolastici potremmo/dovremmo sviluppare: non si parla solo di meccanica dell’intelligenza artificiale, ma anche di riconoscimento degli algoritmi negli usi quotidiani (filtri antispam, motori di ricerca che traducono in tutte le lingue, app che organizzano le nostre foto in base al soggetto dell’immagine) e soprattutto non sono affatto trascurati gli aspetti etici, sociali e politici dell’AI. L’idea è prima di tutto avvicinare i ragazzi al processo di addestramento di una intelligenza artificiale: con esempi pratici e molto concreti il piano propone di ricreare i processi, utilizzando schemi semplici e dati essenziali, riflettendoci su.
La mappatura dei sistemi creati dalle aziende, come ad esempio Youtube o Google, servirebbe a comprendere e distinguere gli obiettivi reali da quelli dichiarati. Si parla di “libero arbitrio” e di “pregiudizio algoritmico”. Ci sono esempi dettagliati di attività pratiche da svolgere in classe e utili presentazioni per spiegare le regole del lavoro di gruppo e gli obiettivi. Tra le risorse, anche i link ad alcuni esperimenti di AI in rete, compreso quello forse più noto ideato da Google per far comprendere gli elementi fondamentali del machine learning.
Esplorare i modi in cui può funzionare l’apprendimento automatico non solo stimola la creatività, ma la fa incontrare con la logica e con le capacità di analisi e confronto.
Le sperimentazioni presenti in rete
In rete ci sono diverse sperimentazioni, che propongono percorsi per capire come funziona l’apprendimento automatico, con delle simulazioni affascinanti e accessibili. L’app #GANpaint funziona attivando e disattivando direttamente insiemi di neuroni in una rete profonda addestrata per generare immagini. Ogni pulsante a sinistra corrisponde a un insieme di venti neuroni. L’app dimostra che, imparando a disegnare, la rete impara a riconoscere anche oggetti come alberi, porte e tetti. Cambiando direttamente i neuroni, è possibile osservare la struttura del mondo visivo che la rete ha imparato a modellare.
Wekinator, invece, è un software open source gratuito originariamente creato nel 2009 da Rebecca Fiebrink e consente a chiunque di utilizzare l’apprendimento automatico per costruire nuovi strumenti musicali, controller di gioco gestuali, sistemi di visione computerizzata o di ascolto del computer e altro ancora. Se invece si vuole scoprire come funziona una rete neurale, che è alla base della possibilità della macchina di generare apprendimenti, si può visitare Neural Network: si tratta di costruire un programma per computer che impara dai dati e si basa molto liberamente su come pensiamo che funzioni il cervello umano. Innanzitutto, una raccolta di ‘neuroni’ software viene creata e connessa insieme, consentendo loro di scambiarsi messaggi. Successivamente, viene chiesto alla rete di risolvere un problema, che tenta di fare più volte, rafforzando ogni volta le connessioni che portano al successo e diminuendo quelle che portano al fallimento.
Le persone formano modelli mentali per tutto ciò con cui interagiscono, inclusi prodotti, luoghi e persone e sono sempre i modelli mentali, che aiutano a stabilire le aspettative su ciò che un prodotto può e non può fare e che tipo di valore le persone possono aspettarsi di ottenere da lui. Se sai come guidare una bicicletta, sai anche qualcosa su come guidare una moto. Modelli mentali.
E che dire della linguistica computazionale? È grazie a lei se quando scriviamo una parola possiamo utilizzare il completamento automatico, ed è basata su un dialogo tra linguaggio naturale e linguaggio delle macchine. In sostanza informatica e statistica permettono di rappresentare, gestire e prevedere molti dei fenomeni presenti nei linguaggi naturali.
Le mosse dell’Italia e dell’Europa per lo sviluppo e l’etica dell’IA
A maggio 2019 il Consiglio dei ministri europeo ha deciso di istituire un comitato intergovernativo di esperti per esaminare la fattibilità di un quadro giuridico per lo sviluppo, la progettazione e l’applicazione dell’intelligenza artificiale. In Italia esiste già un comitato nazionale che si preoccupa dell’Intelligenza Artificiale e dei suoi sviluppi. Lo ha creato nel dicembre 2018 il Ministero dello sviluppo economico con questi obiettivi: valorizzare la ricerca, portare l’IA dal laboratorio al mercato; educazione, skills e apprendimento permanente; attrarre e favorire investimenti qualificati nell’IA; i dati come nuovo fattore della produzione; cornice normativa e impatti etici; migliorare i servizi pubblici attraverso l’IA. Ci dovrebbe essere anche la scuola, insomma.
Del comitato fa parte anche Paolo Benanti, religioso francescano del TOR, che ha acquisito la sua formazione etico-teologica presso la Pontificia Università Gregoriana, ma ha perfezionato il suo curriculum presso la Georgetown University a Washington D.C. (USA) dove ha potuto completare le ricerche sulle implicazioni etiche nel mondo delle tecnologie. È un fisico, un religioso e un docente di etica delle tecnologie, neuroetica, bioetica e teologia morale presso la Pontificia Università Gregoriana a Roma. Fra’ Paolo ha elaborato una sua teoria originale e interessante sull’etica delle macchine che imparano: per guidare l’innovazione verso un autentico sviluppo umano che non danneggi le persone e non crei forti disequilibri globali, è importante affiancare l’etica alla tecnologia. Rendere questo valore morale qualcosa di comprensibile da una macchina, comporta la creazione di un linguaggio universale che ponga al centro l’uomo: un algor-etica che ricordi costantemente che la macchina è al servizio dell’uomo e non viceversa. Questioni quindi non solo tecniche, ma filosofiche, anche morali.
Diventa veramente urgente, a scuola, lavorare anche su questi aspetti. Insegnare su come educare le macchine ad apprendere e su quali siano tutte le sfaccettature complesse di questa operazione ci farebbe apprezzare ancora di più quali straordinarie capacità di apprendimento abbiamo noi e come spesso basterebbero pochi stimoli giusti, per far fiorire abilità e competenze nuove e inaspettate. Anche questa è didattica per competenze.