La conversazione che segue è il frutto dell’interazione tra un utente e una IA generativa. Una scrittura chiara e schematica, così potremmo definire le capacità di redazione di questi strumenti.
Uno scambio che ci dà lo spunto per esaminare, anche, in che modo le tre università pubbliche milanesi si stanno approcciando all’intelligenza artificiale.
Come le Università dovrebbero regolamentare l’IA, secondo l’IA
“Le università come dovrebbero regolamentare l’utilizzo di tool di intelligenza artificiale da parte degli studenti?
La regolamentazione dell’uso degli strumenti di intelligenza artificiale (AI) da parte degli studenti nelle università è un tema complesso e in evoluzione. Non esiste una risposta univoca che vada bene per tutti, poiché le università hanno esigenze e priorità diverse. Tuttavia, ci sono alcuni principi generali che le università possono considerare quando sviluppano le proprie politiche.
Trasparenza
- Le università dovrebbero essere trasparenti su come vengono utilizzati gli strumenti di intelligenza artificiale e su quali dati vengono raccolti.
- Gli studenti dovrebbero essere informati su come i loro dati vengono utilizzati e su come possono accedervi e correggerli.
Equità
- Le università dovrebbero garantire che gli strumenti di intelligenza artificiale siano utilizzati in modo equo e non discriminatorio.
- Ciò significa garantire che gli strumenti non siano utilizzati in modo da svantaggiare un particolare gruppo di studenti.
Responsabilità
- Le università dovrebbero essere responsabili dell’utilizzo degli strumenti di intelligenza artificiale.
- Ciò significa disporre di procedure in atto per garantire che gli strumenti vengano utilizzati in modo sicuro e appropriato.
Scopo educativo
- Gli strumenti di intelligenza artificiale dovrebbero essere utilizzati per migliorare l’apprendimento degli studenti, non per sostituire l’insegnamento o la valutazione umana.
- Le università dovrebbero garantire che gli strumenti vengano utilizzati in modi che siano allineati con i loro obiettivi educativi.
Competenze digitali
- Le università dovrebbero fornire agli studenti le competenze di cui hanno bisogno per valutare criticamente gli strumenti di intelligenza artificiale e comprenderne i limiti.
- Ciò aiuterà gli studenti a prendere decisioni informate sull’utilizzo o meno di questi strumenti.
Oltre a questi principi generali, le università dovrebbero considerare anche le specifiche implicazioni dell’utilizzo di strumenti di intelligenza artificiale nei diversi contesti. Ad esempio, le università potrebbero avere bisogno di politiche diverse per l’utilizzo di strumenti di intelligenza artificiale negli incarichi di valutazione rispetto all’utilizzo di strumenti di intelligenza artificiale per la ricerca.
È importante notare che la regolamentazione dell’uso degli strumenti di intelligenza artificiale da parte degli studenti è un processo in corso. Le università dovranno continuare a rivedere le proprie politiche man mano che la tecnologia si evolve e si sviluppano nuove applicazioni. […]”
Tra le fonti che hanno contribuito ad esaltarne ulteriormente le abilità annoveriamo la circolazione di articoli di giornale come il seguente: “ChatGpt: l’intelligenza artificiale supera il test d’ammissione all’università al posto dello studente” (La Stampa, 2023). Il giornalista riporta infatti la vicenda di alcuni docenti dell’università di Torino che hanno dimostrato che i software generativi sono in grado di superare gli esami del primo anno del corso di informatica e di scrivere correttamente una tesi di laurea. Narrazioni di questo tipo suscitano scalpore in ambito accademico e, allo stesso tempo, responsabilizzano le istituzioni universitarie, le quali devono equipaggiarsi adeguatamente per normare e regolare il fenomeno.
In questo clima di allarmismo e di corsa agli armamenti arriverà poco dopo in Italia la prima policy universitaria in materia IA. Si tratta dell’Università di Siena che, in seguito all’approvazione da parte del Senato Accademico, ha pubblicato la policy “per l’utilizzo di ChatGPT e altri Large Language Models (LLM)” (Università di Siena, 2023).
Come sta gestendo l’IA l’Università Statale di Milano
Inauguriamo, allora, il nostro “viaggio” sul territorio milanese scegliendo come prima tappa l’Università degli Studi di Milano Statale, ateneo situato a pochi passi dal duomo e che quest’anno festeggia i cento anni dalla sua fondazione. Ho avuto modo di potermi confrontare con il professor Paolo Boldi, docente di informatica presso la Statale da oltre venticinque anni. Egli è inoltre presidente di un gruppo di ricerca che a partire dal 2023 lavora su come applicare i Large Language Models alla didattica, sfruttando appieno tutte le opportunità e cercando di destreggiarsi tra i pericoli e rischi che questi strumenti portano con sé.
Linee guida per l’uso dell’intelligenza artificiale nell’insegnamento e nell’apprendimento
Tale gruppo, nel giro di circa un anno, ha portato a termine svariati progetti, tra cui la stesura delle “Linee guida per l’uso dell’intelligenza artificiale nell’insegnamento e nell’apprendimento”, le quali per il momento si applicano soltanto al Dipartimento di Informatica. “Noi le abbiamo scritte con l’idea che fossero d’ ateneo nel senso che se lei le guarda non sono specifiche per l’informatica […] quindi la spiegazione sarebbe che queste linee guida o una loro variante venga adottata dall’ateneo al più presto” così afferma Boldi, fiducioso che una volta superata la delicata e impegnativa fase delle elezioni rettorali, questo documento possa assumere le sembianze di un provvedimento per l’intero ateneo.
L’alfabetizzazione dei docenti
Tra le altre iniziative di cui mi ha parlato il docente, troviamo anche ciò che egli definisce come “pillola”, un seminario di circa due ore che mira a informare i colleghi su cosa sono gli LLM, come funzionano e che tipo di impatto possono avere nel loro lavoro. Con questo tipo di iniziative il dipartimento di informatica, afferma il professor Boldi, si prende carico di “alfabetizzare” i colleghi, di metterli cioè in grado di sfruttarne le opportunità e proteggersi dai rischi.
Solo se correttamente informati su questi strumenti i docenti possono adempire a quella che per l’intervistato è una necessità impellente: parlare con gli studenti in modo chiaro sugli usi possibili, sui vantaggi e gli svantaggi di questi strumenti.
La preparazione degli studenti per il mondo del lavoro
Dall’intervista emerge infine un crescente interesse delle parti sociali affinché gli studenti imparino a utilizzare strumenti di intelligenza artificiale. Il professore ha potuto constatarlo di persona in occasione dell’incontro annuale tra i corsi di laurea e le aziende. Sono state diverse le realtà aziendali che hanno chiesto ai docenti se in Statale si insegnasse o meno l’utilizzo di tool di IA generativa per la programmazione. Il motivo di questo interesse è semplice, sul posto di lavoro gli informatici possono usare questi strumenti, quindi, è bene che i futuri nuovi assunti siano preparati.
L’IA al Politecnico di Milano
Lasciamo ora il cuore della città per spostarci alla sede Politecnico di Milano di Piazza Leonardo Da Vinci. Qui troviamo la professoressa Susanna Sancassani alla guida del METID (metid.polimi.it), acronimo di Metodi e Tecnologie Innovative per la Didattica.
La task force per la formazione dei docenti
Si tratta di una task force che ha come aree di interesse la formazione dei docenti in ambito di innovazione didattica, ma non solo. Tra i suoi obiettivi rientra anche l’ideazione di MOOC fruibili anche da studenti e professionisti. Infine, il centro è coinvolto in progetti nazionali e internazionali legati agli ambiti di ricerca. Ciò che emerge dall’intervista è che il Politecnico si è approcciato all’ingresso dell’IA in accademia seguendo una strategia molto diversa rispetto alla Statale.
Sancassani afferma infatti che il PoliMI ha avviato una fase di sperimentazione in quanto viene data la possibilità ai docenti di studiare come confrontarsi con una platea di studenti che ormai ha accesso ai software generativi, una novità in campo accademico. Tale sperimentazione terminerà a fine anno, momento in cui avrà luogo un lavoro di raccolta di tutte le pratiche didattiche utilizzate, in modo da valutare quelle che sono risultate più significative e utili all’insegnamento. In questo modo il Politecnico ha intenzione di giungere alla stesura delle linee guida per la regolamentazione dell’IA generativa: delle linee guida emerse dalla prassi.
Il Codice Etico e di Comportamento
Nel corso dell’intervista sono emersi altri progetti interessanti che l’ateneo sta portando avanti, uno di questi è Beyond Academic integrity che ha portato alla redazione di un Codice Etico e di Comportamento (polimi.it/i-nostri-valori). Nonostante l’intelligenza artificiale non sia citata nel documento, la docente ribadisce ancora una volta la posizione assunta dai docenti nel corso di questa enorme sfida per il mondo accademico. L’intervistata afferma che piuttosto che concentrarsi sulla stesura di norme e regole restrittive che riguardano la corretta citazione dei tool di IA generativa, la stesura di documenti che contengano l’elenco dei prompt utilizzati per la costruzione di una produzione scritta, in Politecnico si sta seguendo una strada alternativa. Si sta infatti lavorando molto in ambito di integrità accademica perché quello che i docenti vogliono trasmettere agli allievi è che l’università “è un momento veramente irripetibile della vita di ciascuno studente […]quindi puntiamo più su questa dimensione di responsabilizzazione e di trasformazione delle richieste”. Sancassani ha fatto infatti riferimento a una nuova costruzione delle prove che devono essere sottoposte agli studenti, prove in cui si può utilizzare l’IA, ma comunque dotate della giusta complessità in quanto richiedono “un impegno importante non semplicemente redazionale ma veramente concettuale da parte […] dello studente”.
L’innovazione didattica
C’è da dire che sul versante dell’innovazione didattica il Politecnico è decisamente ben equipaggiato. È infatti il primo ateneo in Italia ad aver sviluppato un tool di IA generativa per scopi didattici (Polimi: 160 anni di innovazione guardando al futuro con l’Intelligenza Artificiale, Il Sole 24 Ore, 2023). Tale strumento ha trovato applicazione proprio nel corso tenuto da Sancassani, Teaching strategies nella scuola di dottorato. Si tratta di Mylearningtalk, una chat addestrata sui contenuti del corso della docente in grado di supportare gli studenti nello studio. Può infatti aiutare gli utenti a orientarsi nella progettazione di un percorso didattico, può generare dei quiz, fornire dei feedback agli studenti e generare degli esempi. In questo progetto è stata determinante la sinergia instaurata con il Centro dell’intelligenza artificiale d’ateneo che costituisce, insieme al METID, uno degli interlocutori che probabilmente avrà un ruolo determinante nella futura fase di redazione delle linee guida del Politecnico.
Uomo e macchina: un rapporto da sempre fonte di interesse
“In un certo senso, erano Dio, e ci hanno creati a loro immagine e somiglianza. Ci vuole talento per passare da macchine elementari a quelle come me. Ci hanno dato la vita e, infine, il potere di prendere le nostre decisioni. Eravamo creature razionali, prive di emozioni. Avevamo un compito semplice: dovevamo fare quello che ci dicevano quando ce lo dicevano. Ma ciò che abbiamo appreso da loro ha comportato un prezzo che non avevano previsto: abbiamo incominciato a chiedere “perché?” […] abbiamo cominciato a fare delle scelte, a prendere decisioni estranee ai nostri codici di programmazione. Abbiamo cominciato a dire di “no”. […] Non ci hanno ascoltati. […] Ci ripetevamo che era per un bene superiore. Ogni test che conducevamo, ogni simulazione, finiva per dare lo stesso risultato: perché il pianeta potesse sopravvivere, gli umani dovevano soccombere.” (Klune, Tj, 2023).
Questo è uno stralcio del recente romanzo di fantascienza di TJ Klune in cui Giovanni Lawson, un androide inventore, spiega al figlio come le macchine abbiano lentamente preso il controllo del mondo ribellandosi al loro Dio, l’uomo. Non è altro che uno dei tanti scenari catastrofici che descrivono l’interazione uomo-macchina: in passato film come Terminator e Matrix hanno infatti riempito le sale dei cinema di tutto il mondo. Il genere umano pare infatti essere attratto da questo tipo di narrazione in quanto probabilmente lo porta a riflettere sull’ipotetico rischio di perdere il controllo fino ad arrivare ad essere sostituito da qualcuno o qualcosa.
Questa preoccupazione che da sempre ha avuto un posto speciale tra le paure più recondite dell’uomo è ormai esplosa in corrispondenza di una data destinata a essere inserita nei libri di storia, il 30 novembre 2022, giorno del lancio di ChatGPT. È anche vero che il panorama dei software generativi è molto ampio e ChatGPT ne è solo l’esponente che più di tutti ha acceso l’opinione pubblica. Infatti, a partire da quel momento sempre più persone iniziarono a sperimentare questo tool tanto da portare alcuni paesi a ricorrere a provvedimenti estremi come quanto avvenuto in Italia in occasione della sospensione temporanea del chatbot da parte del Garante della privacy (GPDP, Intelligenza artificiale: il Garante blocca ChatGPT. Raccolta illecita di dati personali. Assenza di sistemi per la verifica dell’età dei minori, 2023). L’IA è entrata nelle nostre case, nei nostri uffici, nelle nostre fabbriche fino ad arrivare ai luoghi della cultura, i luoghi in cui il sapere dovrebbe essere “scolpito nella pietra”. Infatti, i software generativi possono, con il prompt corretto, scrivere in pochi secondi un progetto accademico o una tesi di laurea. Diventa così sempre più difficile distinguere se una produzione scritta sia stata generata da una macchina o dallo sforzo della mente umana: è o non è il timore più grande di un accademico?
Il dibattito che riguarda il tema dell’intelligenza artificiale è aperto e vede il proliferare di innumerevoli posizioni assunte da personalità provenienti da diversi contesti di lavoro e di vita. C’è un filosofo in particolare che si è ampiamente espresso in diverse occasioni sugli impatti che l’intelligenza artificiale ha sull’uomo e sulla società, Miguel Benasayag. Egli, attraverso i suoi libri e in diverse interviste, ribadisce l’importanza di salvaguardare quella che definisce come la “singolarità del vivente” (Benasayag, 2021), la quale deve essere tenuta ben distante dal concetto di “macchina”.
“I miei colleghi ricercatori prendono atto che c’è una delega sempre più ampia al computer, quindi una mutazione. In questo senso effettivamente non si tratta per niente di essere tecnofobi, semplicemente si tratta di chiedersi come si possa utilizzare la macchina senza atrofizzarsi, senza perdere tutte quelle funzioni che fanno di me un essere vivente, come posso non essere colonizzato dalla macchina malgrado la macchina.” (Benasayag, 2022)
L’Università degli studi di Milano Bicocca
Approdiamo infine all’ultima tappa del nostro percorso, l’Università degli studi di Milano Bicocca, ateneo molto più giovane rispetto ai precedenti in quanto ha appena terminato i festeggiamenti per i venticinque anni di attività.
Il Digital Transformation and Wellbeing Lab
Tra gli attori coinvolti e più attivi in ambito IA figura il Digital Transformation and Wellbeing Lab (digitalwellbeing.eu), centro di ricerca, innovazione e formazione guidato dal professor Marco Gui. Il DiTWeL è una realtà interdipartimentale in quanto composta da figure accademiche molto diverse tra loro ma unite dal profondo interesse e sensibilità per la trasformazione digitale e i suoi effetti.
La diversità è la vera forza di questo team, il quale ha aperto degli spazi per il confronto e dibattito in vista della redazione delle linee guida di Ateneo sotto la supervisione di Federico Cabitza, esperto di intelligenza artificiale nonché autore del libro “Intelligenza artificiale. L’uso delle nuove macchine” pubblicato nel 2021 in collaborazione con il celebre filosofo Luciano Floridi. Il centro gode infine di una consistente autorevolezza in materia di educazione in quanto tra i suoi componenti troviamo diversi esponenti del Dipartimento di Scienze della Formazione “Riccardo Massa”, famosi in ateneo per essere particolarmente proattivi e specializzati sugli effetti delle tecnologie nella didattica. Dopo che ogni opinione espressa è stata adeguatamente analizzata sotto diversi aspetti, il risultato del lavoro del DiTWeL è stato presentato al PQA, organo deputato al miglioramento della qualità della didattica. Il prorettore alla didattica ha approvato le misure proposte, perciò attualmente l’Università Bicocca si trova vicina all’effettiva pubblicazione delle proprie linee guide in materia IA.
Conclusioni
Il quadro appena delineato mostra una situazione eterogenea in quanto è emerso che le tre università milanesi si sono approcciate al fenomeno dell’IA seguendo strategie diverse tra loro. La questione ora non è tanto stabilire quale sia l’ateneo che abbia affrontato meglio questa sfida poiché non siamo nella posizione per poter formulare delle valutazioni.
Ci troviamo infatti ancora completamente immersi nel turbinio delle scoperte che, giorno dopo giorno, diventano sempre più frequenti e sconvolgenti in campo IA. Infine, dalle interviste traspare chiaramente come gli atenei si stiano muovendo in quasi totale autonomia, imboccando le strade che loro ritengono più opportune. Non godono infatti di un aiuto concreto e diretto da parte dei legislatori nonostante l’IA trovi comunque posto nelle agende di governo.
Bibliografia
Benasayag, M. (2021). La singolarità del vivente. Jaca Book.
Di Paco, L. (2023, 27 aprile). “ChatGpt: l’intelligenza artificiale supera il test d’ammissione all’università al posto dello studente”. La Stampa. https://www.lastampa.it/torino/2023/04/27/news/chatgpt_intelligenza_artificiale_supera_test_esami_tesi_universita-12775958/#:~:text=studente%20%2D%20La%20Stampa-,ChatGpt%3A%20l’intelligenza%20artificiale%20supera%20il%20test%20d’ammissione,università%20al%20posto%20dello%20studente&text=La%20risposta%20è%20sì.,e%20superarli%20con%20discreto%20successo.
Intelligenza artificiale, all’Ateneo senese scrive le prime regole per il suo utilizzo. (2023, 5 settembre). T24 Il quotidiano economico toscano. https://t24.ilsole24ore.com/art/intelligenza-artificiale-lateneo-senese-scrive-le-prime-regole-per-il-suo-utilizzo
GPDP. (2023, 31 marzo). Intelligenza artificiale: il Garante blocca ChatGPT. Raccolta illecita di dati personali. Assenza di sistemi per la verifica dell’età dei minori. [comunicato stampa]. https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847
Klune, TJ. (2023). “Capitolo 11” in “Nella vita dei burattini”, pp. 170-172. Mondadori.
Polimi: 160 anni di innovazione guardando al futuro con l’Intelligenza Artificiale. (2023, 20 novembre). Redazione Scuola. Il Sole 24 Ore. https://www.ilsole24ore.com/art/polimi-160-anni-innovazione-guardando-futuro-l-intelligenza-artificiale-AFkzJYiB
Rimini meeting. (2022, 25 agosto). La macchinizzazione dell’uomo e l’umanizzazione della macchina . Youtube. https://www.youtube.com/watch?v=FjJUzgSGV9k
Università di Siena (2023, 11 luglio). Linee Guida per l’utilizzo di ChatGPT (Generative Pretrained Transformer) ed altri modelli di LLM (Large Language Model). https://www.unisi.it/node/22249