La storia che ci accingiamo a narrare è una storia lunga anche più di quella di Internet e del Web. Il primo protagonista è forse lo stesso Alan Turing che per primo si pose la domanda “può pensare una macchina?” (Turing, 1950, p. 435).
Restringiamo però qui il campo dell’indagine al rapporto tra intelligenza artificiale ed apprendimento.
Il rapporto tra intelligenza artificiale ed apprendimento
Anche questa narrazione parte dalla metà del secolo scorso perché è proprio durante un workshop estivo che si tenne a Dartmouth nel New Hampshire, John McCarthy (il primo ad utilizzare il termine intelligenza artificiale), Marvin Minsky, Nathaniel Rochester e Claude Shannon, inaugurarono “formalmente” questo campo di studi con paper di 17 pagine noto come Proposal of Dartmouth.
“Penso che sia sostanzialmente una simulatrice del comportamento umano medio, e se è così, imiterà l’uomo anche nel mostrarsi sensibile alle minacce”. Primo Levi, Vizio di Forma, Einaudi Torino 1971
«Lo studio procederà sulla base della congettura per cui, in linea di principio, ogni aspetto dell’apprendimento o una qualsiasi altra caratteristica dell’intelligenza possano essere descritte così precisamente da poter costruire una macchina che le simuli.» (McCarthy et Al, 1956 ora 2006, p. 1). Il programma di ricerca della “Intelligenza artificiale forte” è dunque quello di costruire una “macchina per insegnare” basata su regole logico-simboliche. Si tratta dello stesso paradigma di ricerca, l’istruzione “programmata” basata sulle macchine per insegnare che propone Skinner, nel 1968 (Skinner, 1968). “Programmare” significa per Skinner dare più oggettività al sapere didattico e a quello sull’apprendimento.
Quasi settanta anni dopo e quarant’anni dopo la confutazione da parte di Searle del paradigma dell’IA forte (Searle, 1980, 1990) gli studi sull’intelligenza artificiale riprendono il centro della scena anche nel campo dell’educazione, della scuola e dell’apprendimento, con un fondamentale mining shift. L’intelligenza artificiale contemporanea si fonda, infatti, su un approccio teorico opposto a quello di Turing: quello dell’intelligenze artificiale debole.
Le macchine non pensano
Le macchine non pensano, non sono intenzionali, ma possono emulare alcune funzioni biologiche del cervello. È sul successo di questo differente approccio che si fondano, le innovazioni e le scoperte che hanno portato il programma di ricerca fondato da McArthy e Minsky, nella sua versione “debole” a diffondersi e radicarsi in molti settori della vita economica, sociale e individuale contemporanea (Eugeni, 2021). Ne sono un esempio la computer vision, gli algoritmi di riconoscimento testuale e vocale, quelli “di raccomandazione” dei motori di ricerca e dei social network, gli algoritmi predittivi dei fenomeni (finanziari, medici, sociali, farmacologici), le applicazioni dell’intelligenza artificiale all’automazione dalla robotica, all’automotive, fino agli assistenti vocali degli smartphone (Eugeni 2021, Rivoltella, Panciroli, 2020, 2023,).
L’ultima e più eclatante evoluzione di questo paradigma sono i Generative Pre-trained Transformer (GPT) i chat bot per la generazione di testi ed immagini che si basano sulle reti neurali di ultima generazione sviluppate per la prima volta da un gruppo di ricerca promosso da Google nel 2017 (Vasany et al. 2017),[1]. Si tratta dei cosiddetti Large Language Model (Casola, S., Lauriola, I., Lavelli, A., (2022) un sottodominio dell’Intelligenza artificiale che utilizza la machine e il deep learning[2]. Questi modelli utilizzano enormi quantità di dati testuali per la generazione di risposte agli input testuali (prompt) forniti dagli utenti. Ad esempio, quando si formula una richiesta a ChatGPT 4, il suo “modello di conversazione” utilizza la sua rete neurale multistrato transformer[3] per elaborare, e analizzare il testo della domanda confrontandolo con le basi dati su cui è stato “pre-addestrato” per generare, poi, la sua risposta in linguaggio naturale. Esistono differenti tipologie di queste reti neurali. Insieme ai Recurrent Neural Network per il Natural Language Processing (Chat GPT 4, Bard, Stable ecc.) sono stati rilasciati anche i Convolutional Neural Network progettatati per la classificazione e/o la generazione di immagini grazie alla loro capacità di riconoscere i pattern di relazioni spaziali tra i pixel dell’immagine.
Per una storia genetica dell’Intelligenza artificiale
L’interesse dei ricercatori nel campo dell’educazione e della formazione è molto precedente all’hype dell’intelligenza artificiale generativa. Proviamo a ripercorre, nei suoi passaggi fondamentali la storia dello sviluppo del campo di studi dell’Artificial Intelligence in Education[4], in particolare, Rivoltella e Panciroli (2023) ricostruiscono la storia di questo rapporto nella tabella che segue che riprendiamo e integriamo modificandola (Rivoltella Panciroli, 2023. p. 49)
Fase 1 194e5-1950 | Fase Meccanica | Skinner Macchina per insegnare |
Fase 2 1955-1990 | Fase della programmazione | Computer Aided Instruction e Computer Based Training (CAI e CBT) Intelligent CAI |
Fase 3 1970-1990 | Fase della Personalizzazione Self-Adaptive Educational System (SAES) | Sistemi di tutoraggi automatico, bastati sul costruttivismo e sugli algoritmi. |
Fase 4 2000 – oggi | Fase della Personalizzazione Intelligent Adaptive Learning System | Cloud Computing, Data Mining, Big Data, Generative AI |
Tabella 1. Le tappe dello sviluppo dell’Artificial intelligence in Education (Rivoltella Panciroli, 2023. p. 49).
Da Turing ai CBT: l’intelligenza artificiale forte al lavoro nell’educazione
La prima fase è quelle delle rudimentali macchine per insegnare di Skinner ad esempio Glider, che si presentava come una scatola con una finestra all’interno della quale la macchina presentava quattro risposte possibili ad una domanda posta allo studente ed un meccanismo che permetteva allo studente di rispondere. La seconda fase è quella delle prime macchine per la Computer Aided Instruction. Per la prima volta i calcolatori vengo applicati al mondo dell’istruzione il primo Computer Based training è Plato. Questo progetto fu messo in opera nel periodo tra 1961 e il 1963 presso il campus dell’Università dell’Illinois. Il suo ideatore fu il Professor Don Bitzer, un ingegnere elettronico particolarmente interessato all’utilizzo del calcolatore nella didattica (Ferri, 2007). Per programmare Plato fu ideato anche uno specifico linguaggio di programmazione, chiamato Tutor, usato poi per scrivere il codice del software didattico. Si trattava sistema basato su semplici test a riposta multipla digitalizzati. Ad esempio, il programma Notes che girava sul Main-frame[5] di Plato visualizzava sullo schermo solo 20 linee di testo, che presentavano il contenuto dell’esercitazione da svolgere. Attraverso comandi a tastiera era poi possibile, sullo schermo, effettuare le seguenti operazioni: tornare alla risposta precedente, ritornare all’inizio dell’esercitazione, saltare un esercizio, cominciare a scrivere una nuova risposta.
A partire dagli anni Ottanta i grandissimi sviluppi dell’ICT – ricordiamo ad esempio il primo Personal Computer di Apple (1976) e di IBM (1981) – i Computer Based Training (CBT) e programmi di Computer Aided Instruction (CAI) cominciano diventare “intelligenti” nel senso che si comincia a parlare di Intelligent Computer Aided Instruction. I sistemi informatici e i software che li supportano possono essere installati nell’hard disk di un PC e sono composti tre/quattro elementi: una base dati che definisce gli oggetti di conoscenze organizzata in modo progressivo; b. un “modello di studente” che rappresenta lo “stato della conoscenza” che deve acquisire lo studente, c. un modello pedagogico e un interfaccia utente per lo svolgimento delle attività; cominciamo a definirli intelligenti, perché cominciano ad essere preseti algoritmi inferenziali, che permettono elevare progressivamente il livello di difficoltà dei contenuti erogati. Il processo è questo: un test diagnostico valuta il livello di conoscenze dello studente. Sulla base dei risultati dei vari test, rapportati al “modello di studente” tipo, il sistema suggerisce materiali e test, ovviamente presenti nella base dati, che sono stati precedentemente codificati (marcati) come adatti ad acquisire quel livello di preparazione (Rivoltella Panciroli, pp. 53-55) secondo un modello pedagogico istruzionista di solito l’”istruzione programmata” di Skinner oppure il modello ADDIE[6].
L’intelligenza artificiale “debole”: un tool digitale per l’apprendimento
La terza fase è quella del Self-Adptive Educational System. La cesura è netta rispetto al passato, la confutazione di Searle del paradigma dell’intelligenza “artificiale forte” dispiega i suoi effetti anche nel campo della formazione. La cesura con il modello “istruzionista” è netta. L’epistemologia di riferimento dei sistemi di Intelligenza artificiale a supporto dell’educazione diventa il costruttivismo: le teorie di Davide Merril (Merril 1992), quelle del coding costruttivista di Seymour Papert (Papert, 1993) e la didattica ipertestuale di Spiro e Jacobson, per citarne solo alcune (Spiro et Al., 1991, Jacobson, Spiro., 1995).
La rivoluzione del Web (Ferri, 1998) porta questi sistemi di AI a supporto della formazione, anche all’interno dei primi Learning an Management System (installati sui server dell’organizzazione, in locale) dove è caricata la base dati di conoscenze necessaria per la formazione. In questo caso gli algoritmi inferenziali sono “istruiti” per adattare i contenuti e materiali allo stile di apprendimento dello studente e funzionano attraverso modelli di “presa di decisione” improntati su grafi ad albero molto articolati, non c’è quindi una standardizzazione delle performance dello studente, ma il sistema si fonda sulla personalizzazione dell’apprendimento.
Lo studente dopo il “log in” all’interno del sistema LMS, esegue un test, l’algoritmo identifica il suo profilo e il sistema viene personalizzato sulle sue esigenze e sul suo stile di apprendimento. In questo caso non esiste come nei CBT un “modello standard di studente” e uno di “conoscenze da acquisire”, ma il sistema che diventa uno strumento (tool e non tutor) al servizio delle esigenze e degli stili di apprendimento dei discenti. I data set degli utenti, sia quelli relativi ai fabbisogni formativi che quelli relativi all’andamento della formazione sono costruiti attraverso la somministrazione progressiva di test validati su un’ampia gamma di esercizi e su un determinato domino di conoscenza di conoscenza (ontologia), reso disponibile in piattaforma (Rivoltella, Panciroli, pp.56-57). Cominciano ad essere tracciate anche le modalità di fruizione dei contenti da parte degli utenti e le modalità e i tempi fruizione degli utenti e anche questi contribuiscono ad aiutare il sistema a personalizzare l’apprendimento. In questo caso non è il sistema ma è chi apprende, con l’aiuto dell’insegnate o del formatore, che regola e governa il processo di apprendimento basandosi sulle opzioni proposte dal sistema sono “scelte” sulla base delle sue esigenze (Triantafillou, T., Pomportsis, A., Demetriadis, S. (2003). Ci avviciniamo qui alla quarta fase quella più contemporanea dell’AIED e cioè agli Intelligent Adptive Learning System.
Verso gli agenti conversazionali per l’apprendimento
Si tratta di una rilevante evoluzione sia metodologica sia tecnologica della fase precedente sempre fondata sull’epistemologia costruttivista. Con gli sviluppi del Web 2.0, dei social e delle piatteforme cloud anche per l’educazione, i sistemi di Intelligenza Artificiale si evolvono in modo molto rapido. Gli ambienti LMS/VLE progressivamente migrano in Cloud e si rende in questo modo disponibile una grandissima quantità di dati, su cui possono operare algoritmi inferenziali di analisi sempre complessi e raffinati. Il tracciamento della formazione diventa uno standard e si afferma lo SCORM (Bhol et al., 2000) che permette di tracciare in maniera “omogenea” le attività di apprendimento dei formandi. Possiamo individuare almeno cinque tendenze di sviluppo dell’Intelligenza artificiale nel capo dell’educazione: a. l’analisi dei big data dell’apprendimento; b. i sistemi di tutoraggio automatico; c. i sistemi predittivi delle performance di apprendimento; c. i laboratori e simulazione interattivi d. i sistemi di valutazione automatica. Analizziamoli separatamente.
L’analisi dei Big Data
Gli ambienti LMS/VLE progressivamente migrano in Cloud e si rende in questo modo disponibile una grandissima quantità di dati, inoltre, il tracciamento della formazione diventa uno standard e si afferma lo SCORM (Bhol et al., 2000) che permette di tracciare in maniera “omogenea” le attività di apprendimento dei formandi all’interno degli LMS/VLE. Questi Learning Analytics (De Santis, 2019) non possono che essere analizzata applicando l’Intelligenza artificiale che permette di elaborare in forma automatica o semi automatica, attraverso algoritmi di machine learning e di deep learning[7], i risultati della formazione. Gli ambienti virtuali di apprendimento (LMS/VLE), contemporanei integrano già forme più o meno avanzate di “tracciamento” della formazione basate sull’AI. I log, i tempi di permanenza in piattaforma, le visualizzazioni dei singoli oggetti didattici, i feedback e le altre attività generate dai dipendenti di una organizzazione o dagli studenti di un’università o di una scuola, vengono elaborati dall’AI. Si generano in questo modo in report grafici, e analisi dell’efficacia della formazione che permettono ai learning designer di contare su un cruscotto digitale di monitoraggio dell’apprendimento impensabile nel mondo analogico (Franzoni e al, 2020).
Gli Intelligent tutoring system e i ChatBot per la formazione
I sistemi di intelligenza artificiale, una volta pre-addestrati, posso formulare inferenze probabilistiche sull’andamento della formazione e “raccomandare” o suggerire a chi apprende nuovi contenuti o strategie di apprendimento (Franzoni e al, 2020). Si sviluppano in questa fase, sempre per supportare al meglio l’apprendimento personalizzato, anche i primi (ITS) Intelligent tutoring system: sono i “padri” dei Large Language Model di AI generativa odierna. Il tutoraggio abilitato dall’AI permette non solo di personalizzare l’esperienza di apprendimento ma di rispondere in maniera, spesso efficacie, alle necessità discenti in assenza di un tutor umano (Woolf, 2009, Popenici et Al. 2019, Winkler, 2018). Si tratta dei primi ChatBot di tutoraggio personalizzato: i chat Bot sono tratta software che simulano una conversazione con un utente attraverso una interfaccia testuale. Probabilmente il primo Chatbot educativo è stato AutoTutor (Graesser ed Al., 1999). Tra i “modelli conversazionali” sviluppati in questa fase, possiamo citare ad esempio, Deep-speare, un modello di machine learning addestrato su 2700 sonetti di Shakespeare che genera componimenti poetici che molti lettori non sanno distinguere dalle composizioni del poeta (Lau, 2018). O ancora l’applicazione dei chatbot permette di supportare chi progetta la formazione e chi apprende rispetto a specifiche metodologie. In particolare, ricordiamo il caso d’uso sperimentale di un chatbot educativo AsasaraBot, progettato per assistere agli studenti delle scuole superiori, secondo la metodologia CLIL nell’apprendimento delle lingue straniere (Mageira et al., 2022). Oppure ancora, in contesto italiano la “base dati conversazionale” dedicata a La poetessa saffo realizzata da Alessandro Iannella (Iannella, Labrunda, Santercole., Viti, 2021 pp. 120-151).
L’analisi predittiva dei risultati di apprendimento e del comportamento degli studenti
Attraverso l’analisi dei Learning Anlytics, inoltre, si possono analizzare i risultati di apprendimento di una popolazione di studenti, e identificare tendenze e pattern di comportamento, che permettono di individuare con una buona probabilità le classi di studenti a rischio di abbandono durante un percorso universitario, un corso on-line o un Mooc, consentendo, in questo modo interventi formativi mirati per ridurre il rischio stesso (Baker & Siemens, 2014, Fitton, Finnegan, & Proulx, 2020 Rienties, Simonsen, & Herodotou, 2020).
I laboratori e simulazioni interattive
Grazie all’IA è stato possibile riprodurre in digitale condizioni di laboratorio e sperimentali pericolose o estreme in modo da per permettere ai discenti di esercitarsi senza rischi (Quiroga Pérez al., 2020).
Sistemi valutazione automatizzata
Nel campo della valutazione l’IA ha reso più agevole e permesso di automatizzare in pare il processo di valutazione. Questo vale in particolare per i test a scelta multipla, ma anche, con l’avanzare delle capacità algoritmiche, per le risposte a domande aperte (Shermis & Hamner, 2013).
Conclusioni
Abbiamo completato la nostra analisi della storia genetica, ovviamente sintetica e parziale, della relazione tra intelligenza artificiale e apprendimento. Come speriamo di avere chiarito si tratta di una storia lunga e complessa che trova le sue origini agli albori della storia del calcolo automatico contemporaneo e che si è sviluppata in complesso in questi più di settanta anni. Resta un’ultima parte piccola pare di questa storia da narrare. L’intelligenza artificiale, infatti, è stata anche, a partire dalla metà degli anni Dieci del nostro secolo, oggetto di grande attenzione a livello internazionale da parte di stati ed organizzazioni internazionali. Questi cominciano a varare una serie di studi che analizzano gli impatti dell’applicazione dell’Intelligenza artificiale in campo socioeconomico ed in particolare in contesto educativo. Gli Stati Uniti sono i primi a lanciare nel 2016 il National Artificial Intelligence Research and Development Strategic Plan (National Science and Technology Council, 2016) seguiti nel 2017 dalla Cina con “Next Generation Artificiale Intelligence Plan” (Government of Republic of China. 2017) e dall’Unione Europea con uno studio specifico “The Impact of Artificial Intelligence on Learning, Teaching, and Education”. Questa però è un’altra narrazione – la storia genetica che abbiamo raccontato arriva alle soglie dell’Hype dell’intelligenza artificiale generativa – che abbiamo già cominciato a narrare su Agenda Digitale nel mio articolo Chat GPT a scuola, ecco come potrebbe cambiare la didattica. Continueremo a narrare nei prossimi mesi e anni dal momento che la rivoluzione dell’intelligenza artificiale generativa è solo agli albori.
Bibliografia
Baker, R., & Siemens, G. (2014). Educational data mining and learning analytics. In K. Sawyer (Ed.), Cambridge Handbook of the Learning Sciences (2nd ed., pp. 253–274).
Baker, T., Smith, L., & Anissa, N. (2019). Educ-AI-tion rebooted? Exploring the future of artificial intelligence in schools and colleges. NESTA. https://www.nesta.org.uk/report/education-rebooted
Bohl, O., Scheuhase, J., Sengler, R., & Winand, U. (2002). The sharable content object reference model (SCORM) – a critical review. In International Conference on Computers in Education (Vol. 2, pp. 950-951). https://doi.org/10.1109/CIE.2002.1186122
Casola, S., Lauriola, I., & Lavelli, A. (2022). Pre-trained transformers: An empirical comparison. Machine Learning with Applications, 9, 100334. https://doi.org/10.1016/j.mlwa.2022.100334
De Santis, A., Bellini, C., Sannicandro, K., & Minerva, T. (2019). Data management in learning analytics: Terms and perspectives. JE-LKS. Journal of E-Learning and Knowledge Society, 15(3), 133-144. https://doi.org/10.20368/1971-8829/1135021
Government of the People’s Republic of China. (2017). Next generation of artificial intelligence plan. https://flia.org/wp-content/uploads/2017/07/A-NewGeneration-of-Artificial-Intelligence-Development-Plan-1.pdf
Graesser, A.C., Wiemer-Hastings, K., Wiemer-Hastings, P., Kreuz, R., & Tutoring Research Group. (1999). AutoTutor: A simulation of a human tutor. Journal of Cognitive Systems Research, 1, 35-51.
EU. (2020). The assessment list for trustworthy artificial intelligence (ALTAI). https://futurium.ec.europa.eu/en/european-ai-alliance/pages/welcome-altai-portal
EU. (2021a). Coordinated plan on artificial intelligence 2021 review. https://digital-strategy.ec.europa.eu/en/library/coordinated-plan-artificial-intelligence-2021-review
EU. (2021b). EU artificial intelligence act. https://artificialintelligenceact.eu/the-act/
Eugeni, R. (2021). Capitale algoritmico. Cinque dispositivi postmediali più uno. Morcelliana.
Ferri, P. (1998). La rivoluzione digitale. Individuo, comunità e testo nell’era di Internet. Mimesis.
Ferri, P. (2005). E-learning: Didattica, comunicazione e tecnologie digitali. Le Monnier.
Ferri, P. (2019). MOOC, didattica universitaria digitale e learning analytics: Opportunità e prospettive. Giornale italiano della ricerca educativa, Speciale settembre 2019, 13-26.
Fitton, I. S., Finnegan, D. J., & Proulx, M.J. (2020). Immersive virtual environments and embodied agents for e-learning applications. PeerJ Computer Science, 6, e315. https://doi.org/10.7717/peerj-cs.315
Iannella, A., Labrunda, T., Santercole, T., & Viti, B. (2021). Reclaiming conversation: Introducing a novel approach to using conversational AI at school. In G. Trentin (Ed.), Conversational agents as online learning tutors (pp. 120-151). Nova Science Pub Inc.
Harper, B., Squires, D., & Mcdougall, A. (2000). Constructivist simulations: A new design paradigm. Journal of Educational Multimedia and Hypermedia, 9(2), 115-130. https://www.learntechlib.org/primary/p/8080/
Franzoni, V., Milani, A., Mengoni, P., & Piccinato, F. (2020). Artificial intelligence visual metaphors in e-learning interfaces for learning analytics. Applications, 10, 7195. https://doi.org/10.3390/app10207195
Kai-Yu Tang, Ching-Yi Chang, & Gwo-Jen Hwang. (2021). Trends in artificial intelligence-supported e-learning: A systematic review and co-citation network analysis (1998–2019). Interactive Learning Environments.
Jacobson, M.J. & Spiro, R.J. (1995). Hypertext learning environments, cognitive flexibility, and the transfer of complex knowledge: An empirical investigation. Journal of Educational Computing Research, 12(4), 301-33.
Mageira, K., Pittou, D., Papasalouros, A., Kotis, K., Zangogianni, P., & Daradoumis, A. (2022). Educational AI Chatbots for Content and Language Integrated Learning. Applied Sciences, 12(7), 3239. https://doi.org/10.3390/app12073239
McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (2006). A proposal for the Dartmouth summer research project on artificial intelligence, August 31, 1955. AI Magazine, 27(4), 12. https://doi.org/10.1609/aimag.v27i4.1904
Merrill, M. D. (1992). Constructivism and Instructional Design. In T. M. Duffy & D. H. Johansen (Eds.), Constructivism and the Technology of Instruction: a Conversation. L. Erlbaum.
OECD. (2019). Recommendation of the Council on OECD Legal Instruments Artificial Intelligence. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
Panciroli, C., Rivoltella, P. C., Gabbrielli, M., & Zawacki Richter, O. (2020). Artificial Intelligence and education: new research perspectives. Form@re – Open Journal Per La Formazione in Rete, 20(3), 1–12. https://doi.org/10.13128/form-10210
Panciroli, C., & Rivoltella, P. (2023). Pedagogia Algoritmica, per una riflessione educativa sull’intelligenza artificiale. Milano: Morcelliana.
Papert, S., (1993). The Children’s Machine: Rethinking School in the Age of the Computer, Basic Books, New York.
York, 1993, trad. it. I bambini e il computer, a cura di A. Bellomi, Rizzoli, Milano, 1994.
Pedró, F., Subosa, M., Rivas, A., & Valverde, P. (2019). Artificial intelligence in education: Challenges and opportunities for sustainable development. Paris: Unesco.
Quiroga Pérez, J., Daradoumis, T., & Marquès Puig, J. M. (2020). Rediscovering the use of chatbots in education: A systematic literature review. Comput Appl Eng Educ, 28, 1549–1565.
Popenici, S., & Kerr, S. (2017). Exploring the impact of artificial intelligence on teaching and learning in higher education. Research and Practice in Technology Enhanced Learning, 12, 22. https://doi.org/10.1186/s41039-017-0062-8
Rumelhart, D., Hinton, G., & Williams, R. (1986). Learning representations by back-propagating errors. Nature, 323, 533–536. https://doi.org/10.1038/323533a
Searle, J. R. (1980). Minds, Brains, and Programs. The Behavioral and Brain Sciences, 3.
Searle, J. R. (1990). Is the Brain’s Mind a Computer Program? Scientific American, 262.
Shermis, M. D., & Hamner, B. (2013). Automated essay scoring: A cross-disciplinary perspective. Routledge.
Skinner, B. F. (1968). The Technology of Teaching. Appleton-Century-Crofts.
Spiro, R. J., Feltovich, P. J., Jacobson, M. J., & Coulson, R. L. (1991). Cognitive Flexibility, Constructivism, and Hypertext: Random Access Instruction for Advanced Knowledge Acquisition in Ill-Structured Domains. Educational Technology, 31(5), 24–33. http://www.jstor.org/stable/44427517
Triantafillou, T., Pomportsis, A., & Demetriadis, S. (2003). The design and the formative evaluation of an adaptive educational system based on cognitive styles. Computers & Education, 41(1), 87-103.
Tuomi, I. (2018). The Impact of Artificial Intelligence on Learning, Teaching, and Education. In M. Cabrera, R. Vuorikari, & Y. Punie (Eds.), Policies for the future (EUR 29442 EN). Luxembourg: Publications Office of the European Union.
Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460. https://doi.org/10.1093/mind/LIX.236.433.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, & R. Garnett (Eds.), Advances in Neural Information Processing Systems, 30. Curran Associates, Inc. http://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf
Ye, R., Sun, F., & Li, J. (2021). Artificial Intelligence in Education: Origin, Development and Rise. In X. J. Liu, Z. Nie, J. Yu, F. Xie, & R. Song (Eds.), Intelligent Robotics and Applications. ICIRA 2021. Lecture Notes in Computer Science, 13016. Springer. https://doi.org/10.1007/978-3-030-89092-6_49
Woolf, B. P. (2010). Building intelligent interactive tutors: Student-centered strategies for revolutionizing e-learning. Morgan Kaufmann.
Winkler, R., & Soellner, M. (2018). Unleashing the potential of chatbots in education: A state-of-the-art analysis. Academy of Management Annual Meeting Proceedings. http://dx.doi.org/10.5465/AMBPP.2018.15903abstract
- Il paradigma delle reti neurali multistrato si afferma negli anni Ottanta del Novecento grazie al contributo di Rumelhart, Hinton, e Williams, R. (1986) ↑
- Sia il machine learning che il deep learning sono sottosezioni dell’intelligenza artificiale. Entrambi gli approcci portano i computer a prendere decisioni “intelligenti”. Il Deep learning, è una branca del machine learning, poiché non richiede una fase di “addestramento” del sistema di algoritmi. Queste tecnologie si basano sulla disponibilità di grandi quantità di dati da cui i sistemi possono imparare. Storicamente parlando, il machine learning è la tecnologia più vecchia e più semplice. Funziona con un algoritmo che si adatta quando riceve un feedback umano. Un requisito per utilizzare questa tecnologia è la disponibilità di dati strutturati. In primo luogo, il sistema viene alimentato con dati strutturati e categorizzati e, in questo modo, capisce come classificare nuovi dati dello stesso tipo. Una prima fase di applicazione è seguita dall’ottimizzazione dell’algoritmo grazie al feedback umano: il sistema viene informato di eventuali classificazioni errate e delle categorizzazioni corrette. Con il deep learning non sono necessari dati strutturati. Il sistema funziona con reti neurali multistrato che combinano diversi algoritmi modellati sul cervello umano. Per questo motivo il sistema è in grado di elaborare anche dati non strutturati ↑
- Un modello di apprendimento automatico (deep learning) specializzato nell’elaborazione e nell’interpretazione di dati sequenziali, che lo rende particolarmente valido per le attività di elaborazione del linguaggio naturale, costituito appunto da una sequenza di parole o sillabe. ↑
- Rinviamo per una ricostruzione più approfondita all’articolo di Ye, Sun, Li, J. (2021). Artificial Intelligence in Education: Origin, Development and Rise e soprattutto alla lettura che ne forniscono Rivoltella e Paciroli in Pedagogia algoritmica (2023). ↑
- Il mainframe è un tipo di computer caratterizzato da prestazioni di elaborazione dati di alto livello e di tipo centralizzato. I primi computer erano tutti mainframe. Erano presenti in grandi sistemi informatici come i Centri Elaborazione Dati di organizzazioni (pubbliche e private) dove erano e sono anche oggi richiesti elevati livelli di multiutenza, enormi volumi di dati e grandi prestazioni elaborative, uniti ad alta affidabilità. ↑
- Si tratta del modello più tradizionale di progettazione dei corsi on-line usato dagli instructional designer e che ben si presta ad un modello di valutazione “istruzionista” dei processi formativi. ADDIE è l’acronimo: di Analysis (Analisi), Desig(Disegno/progettazione), Development (Sviluppo), Implementation (Implementazione) e Evaluation (Valutazione). ↑
- Sia il machine learning che il deep learning sono branche dell’intelligenza artificiale. Entrambi gli approcci fanno si che gli algoritmi emulino decisioni che paiono “intelligenti”. Entrambe le tecnologie si basano sulla disponibilità di grandi quantità di dati da cui i sistemi possono “imparare”. Da un punto di vista cronologico, il machine learning è la tecnologia più “anziana”. Un requisito per utilizzare questa tecnologia è la disponibilità di grandi quantità di dati strutturati. In primo luogo, il sistema viene alimentato con dati strutturati e categorizzati e, in questo modo, “apprende” come classificare nuovi dati dello stesso tipo o simili. Questa prima fase di applicazione è seguita dall’ottimizzazione dell’algoritmo grazie al feedback umano: il sistema viene cioè “istruito” da esperti umani che segnalano eventuali classificazioni errate e marcano le categorizzazioni corrette. Con il deep learning, che può essere considerato uno sviluppo del machine learning non sono necessari dati strutturati. Il sistema funziona con reti neurali multistrato che combinano diversi algoritmi modellati su alcune funzioni della mente umana. Per questo motivo il sistema è in grado di elaborare grandi quantità si di dati non strutturati. ↑