L’oggetto d’indagine che pongo al centro di questa breve riflessione attinge, in misura prevalente, all’opera di Michel Foucault “Le parole e le cose” (2013a). In quest’opera, il filosofo francese riesamina e amplia la categoria analitica di episteme.
Indice degli argomenti
Le tre epistemi storiche
Le configurazioni epistemologiche (2013a) sono concepite da Foucault come discontinuità enigmatiche (2013a) che, all’interno dell’ordine empirico, subentrano l’una all’altra. Esse possono essere esemplificate nei seguenti termini:
- Episteme del Rinascimento. In questa configurazione dei saperi, conoscere significava rintracciare le similitudini e le “segnature” tra le parole e le cose. La fondazione dei saperi ruotava attorno al principio di somiglianza. Dunque si verificava un costante moto di raddoppiamenti, di rimandi e di concatenamenti tra le cose della natura, o del cosmo, e il microcosmo dell’uomo.
- Episteme dell’età classica. Il criterio organizzativo del sapere diveniva la rappresentazione, quindi la corrispondenza tra rappresentazioni e cose. Si trattava di classificare, ordinare, enumerare, comparare, così che la rappresentazione del mondo riflettesse l’ordine del mondo.
- Episteme dell’età moderna. Si afferma un nuovo principio epistemologico. Esso corrisponde all’uomo stesso, in quanto oggetto di conoscenza e soggetto che conosce. Le scienze che investigano tale oggetto di ricerca sono – afferma Foucault – l’antropologia, l’etnologia, la sociologia e la psicoanalisi. L’uomo è soggetto che conosce e oggetto nei riguardi di un sapere. L’essere umano diviene questo duplicato empirico-trascendentale (2013a): la vita, il lavoro e il linguaggio appartengono all’empiricità, ma al contempo diventano fonte trascendentale del suo sapere.
La domanda centrale
A partire da questa fondamentale premessa, la domanda che reputo necessario porre è la seguente: nella società odierna è possibile concepire l’uomo come oggetto esclusivo, o prevalente, dell’indagine conoscitiva? È possibile che l’uomo domini, o addirittura esaurisca, l’intero spazio dell’attuale configurazione epistemologica? Tale quesito individua i suoi presupposti di legittimità in una discriminante centrale all’interno del pensiero foucaultiano: il nesso tra saperi e potere (2001). Dove si colloca questo nesso? Tra quali campi e oggetti del sapere transitano, fuggono e si riannodano i presupposti concettuali, le caratterizzazioni ideologiche, le asserzioni scientifiche, le definizioni teoriche, gli strumenti operativi e gli indicatori empirici che hanno a che fare con le relazioni di potere (2024)?
L‘automa come nuovo oggetto di conoscenza
Secondo l’ipotesi avanzata in questa sede, al centro dell’odierna indagine conoscitiva, il nucleo di un nuovo, fondamentale, oggetto di conoscenza non è l’uomo, bensì l’automa (Marx, 1964). Nel caso preso in esame, l’automa, o sistema automatico, integra tre fondamentali elementi: uomo, tecnologie e saperi scientifico-disciplinari della propria epoca. Dunque, la terza e ultima configurazione epistemologica individuata da Foucault nella seconda metà degli anni sessanta potrebbe essere mutata. È ragionevole supporre che a produrre l’“oggetto di conoscenza” odierno non siano più la sociologia, la psicologia, l’etnologia e la scienze delle letterature e dei miti. Nella società contemporanea, l’oggetto di conoscenza potrebbe essere costituito dalla convergenza di tre precise aree scientifiche: la neuroergonomia, le Key Enabling Technologies (KETs) e le scienze pedagogiche neoliberali.
L’uomo, da questa prospettiva, non appare più come l’oggetto di indagine prevalente, poiché ad esso si accostano nuovi oggetti di conoscenza. Questi oggetti di conoscenza stabiliscono un’effettiva complementarietà con l’uomo. Dunque l’uomo resta un importantissimo “fattore”, ma solo entro un dispositivo[1], un insieme di elementi eterogenei[2], che include: nozioni pedagogiche, asserti scientifici, proposizioni ideologiche, produzioni industriali, nanotecnologie, device, piattaforme digitali, interfacce, avatar, ambienti di realtà estesa, connettività dei sistemi etc.
Per tal motivo, le argomentazioni che proporrò nei successivi paragrafi dovranno essere ricondotte al seguente quesito: non siamo forse al cospetto di quel singolare fenomeno che Foucault definisce rottura o mutamento epistemologico (Foucault, 2013b)?
Criteri, ambiti e classificazioni di una nuova configurazione epistemologica
Qual è l’insieme delle regolarità discorsive (Foucault, 2013b), l’insieme delle pratiche costitutive di ambiti di oggetti e di concetti (Foucault, 2021), che fa da sfondo alla produzione delle direttive ministeriali, dei programmi di indagine scientifica nelle università, dei piani didattici nella scuola secondaria, dell’alta formazione nelle grandi corporation, delle strategie di marketing, delle campagne pubblicitarie etc.?
Ne L’archeologia del sapere (2013b) è lo stesso Foucault a chiarire cos’è e cosa non è una episteme: «…non è ciò che si può sapere in un’epoca, tenendo conto delle insufficienze tecniche, delle abitudini mentali o dei limiti posti dalla tradizione; è ciò che, nella positività delle pratiche discorsive, rende possibile l’esistenza delle figure epistemologiche e delle scienze» (Foucault, 2013b, pag. 312). Adeguando il mio punto di vista a questa fondamentale osservazione, tenterò di individuare i caratteri distintivi di una quarta, ipotetica, configurazione epistemologica. Questo esercizio, seppur provvisorio, proverà a tracciare i confini, i criteri e le declinazioni di una nuova fondamentale griglia del sapere (Foucault, 2013b). Tale tentativo muove a partire dal seguente quesito: quali potrebbero essere, oggigiorno, le scienze o i discorsi che, tra i molteplici settori scientifico-disciplinari, costituiscono o esprimono l’episteme della nostra epoca? Tra gli ambiti scientifici menzionati nel paragrafo introduttivo – neuroergonomia, scienze pedagogiche neoliberali e Key Enabling Technologies (KETs) – esistono sottogruppi disciplinari e linee di ricerca che concorrono alla costruzione e al consolidamento di uno specifica configurazione epistemologica.
Le macro-aree della nuova configurazione epistemologica
Queste branche disciplinari sono corredate da statuti scientifici, prove empirico-descrittive, asserti teorici e applicazioni materiali.
Nella prima macro-area, quella della neuroergonomia, possono essere individuati i seguenti sottogruppi.
Ergonomia cognitiva
Le prestazioni umane non possono essere separate dalla progettazione dei compiti, dagli strumenti utilizzabili e dagli ambienti di vita. Al contrario, tali fattori devono essere concepiti come massimamente contigui, nonché complementari. Le prestazioni, e dunque le interazioni, possono essere progettate solo a partire dal posizionamento del soggetto umano al centro del design. Si parla, in tal senso, di human centred design (Giacomin, 2014; Maguire, 2001). Lo scopo di questo fondamentale approccio consiste nell’accrescimento delle abilità del soggetto, quindi delle relative prestazioni. L’ergonomia cognitiva studia i processi interattivi uomo-macchina, con specifico riferimento alla co-evoluzione tra processi cognitivi e interfacce. Tra i due termini si instaura una relazione circolare, un meccanismo di retroazione.
L’ergonomia cognitiva dunque collauda l’interazione tra il sistema cognitivo e gli strumenti per l’elaborazione delle informazioni. Sul piano prima teorico e poi empirico-applicativo, l’ergonomia cognitiva assolve una funzione strategica: rendere l’applicazione uomo-macchina più efficiente ed efficace, quindi più fluida. Essa è finalizzata al costante incremento della usability (Nielsen, 1994; Jordan, 2020) relativa ai più moderni sistemi multimediali, adottati dalle aziende e dagli utenti. L’usabilità consente al soggetto di realizzare i propri obiettivi in modo veloce e soddisfacente. L’ergonomista progetta e perfeziona interfacce fluide, allo scopo di agevolare una user experience (Hassenzahl & Tractinsky, 2006) efficace, intuitiva ed eccitante.
Nell’ambito dell’ergonomia cognitiva è possibile individuare un perimetro di studio denominato user-centred design (Norman & Draper, 1986; Carroll, 2003). Si tratta di un campo di studio e applicazione dotato di un significativo grado di autonomia rispetto alla propria area di riferimento. La sua funzione consiste nel progettare e applicare dispostivi calibrati sui bisogni, sui desideri e sugli obiettivi dell’utente. Lo user-centred design deve massimizzare l’usabilità delle interfacce stesse. Questo specifico campo applicativo contribuisce al raggiungimento dell’obiettivo dell’utente, con il minor impiego di risorse possibili.
Nella seconda macro-area, quella delle scienze pedagogiche neoliberali, possiamo individuare i seguenti sottogruppi:
Self-reguleted learning
L’apprendimento auto-regolato (Zimmerman, 1990; Boekaerts, 1999) non è una semplice abilità mentale confinata all’ambito scolastico, ma è piuttosto un processo di auto-direzione, entro il quale le abilità mentali sono tradotte in funzioni orientate allo scopo. Il self-reguleted learning implica autoconsapevolezza e automotivazione: il soggetto deve definire autonomamente i propri scopi, selezionare le strategie per realizzarli, monitorare i progressi e, nel caso in cui non fossero stati realizzati, rimodulare gli obiettivi attraverso un utilizzo efficiente del tempo (Pintrich, 1995). Nella prima fase, quella della pianificazione, il soggetto stabilisce autonomamente gli standard da soddisfare. Egli seleziona compiti, sessioni o corsi. Durante la seconda fase il soggetto è chiamato a monitorare il proprio grado di apprendimento, confrontando i risultati parziali con gli standard prefissati nella fase della pianificazione (fase di automonitoraggio). Nella terza e ultima fase, il soggetto valuta la propria esperienza di apprendimento (fase di autovalutazione). L’autovalutazione costituisce inoltre la base per regolare il sistema premiale, cioè l’autorinforzo. L’apprendimento auto-regolato implica un effettivo momento di autoistruzione, il quale corrisponde, grossomodo, a un esercizio di verbalizzazione che guida la prestazione. Secondo questa particolare “dottrina” pedagogica, lo studente dovrebbe essere munito di un quadro di credenze motivazionali (Zimmerman, 2000) solide e consistenti, in grado di tradursi in autoefficacia (Bandura, 2014): ritenersi capaci di apprendere e di riuscire con successo in un compito. Un’ulteriore componente è l’autoreattività. Quest’ultima corrisponde alla capacità del soggetto di rispondere a uno stimolo autoprodotto.
Digital game based learning e gamification
Digital game based learning (Kiili, 2005) e gamification (Toda, Cristea, Isotani, 2023). Si tratta di strategie didattiche orientate da un omologo criterio: rendere l’apprendimento il più possibile coinvolgente, divertente e competitivo.
Il DGBL facilita l’apprendimento attraverso il gioco e guida il soggetto nell’acquisizione di conoscenze e abilità. È limitato a singole attività svolte in un lasso di tempo contenuto e richiede l’utilizzo di un supporto tecnologico. Esso prevede, al termine della sessione, un singolo vincitore ed è implementato attraverso webtool.
La gamification è più impegnativa e strutturata. Si “gamifica” una classe intera. Quest’ultima è orientata alla realizzazione di obiettivi condivisi e complessi. I membri assumono poteri o ruoli differenti. È un luogo immersivo, dotato generalmente di un’ambientazione fantasy e livelli di gioco gerarchici. È inoltre prevista l’adozione di un avatar per ogni partecipante – la maga, il condottiero, l’amazzone, il guaritore etc. La classe gamificata è gestita integralmente in forma digitale. Ad esempio, una piattaforma che consente l’implementazione di un’attività di gamification è classcraft.
Machine learning in education
Machine learning in education (Webb, Fluck, Magenheim et al., 2021): nel campo dell’educazione, l’apprendimento è calibrato anzitutto nell’ottica del personalized learning (Shemshack & Spector, 2020), attraverso una compresenza strutturale di BOT e personal digital assistant.
La terza macro-area concerne le key enabling technologies (Sigov et al., 2022). Le tecnologie abilitanti fondamentali si fondano su una componente materiale indispensabile al progresso tecnologico: la micro/nanoelettronica e la fotonica. Tali componenti forniscono le unità costruttive minime per ulteriori applicazioni. Il key enabling technologies for Europe’s technological sovereignty (Ramahandry, T., et. al. (2021), redatto su richiesta del Panel for the Future of Science and Technology (STOA), certifica sei tecnologie abilitanti fondamentali:
Advanced manifacturing
È posto come obiettivo strategico il miglioramento della produzione manifatturiera attraverso processi più efficienti e una produzione orientate ad alte prestazioni. L’elevata performatività è facilitata dalla digitalizzazione, ossia da attività produttive e manifatturiere che si basano su dati, risultati computazionali, automazione e rilevamenti. La manifattura avanzata mira a incrementare la produttività e la flessibilità. In quest’ottica, un numero sempre maggiore di produttori dovrebbe essere in grado di offrire prodotti altamente personalizzati, ricorrendo alla produzione di lotti più piccoli per clienti specifici, e adeguando la produzione a possibili modifiche, in itinere, del progetto.
Materiali avanzati e nanomateriali
I materiali avanzati si riferiscono a materiali – polimeri, metalli e leghe, vetro, ceramiche, compositi, etc. – dotati di proprietà nuove o migliorate, che ne aumentano le prestazioni rispetto ai prodotti e ai processi convenzionali. I materiali avanzati dovranno agevolare la transizione verso tecnologie più sostenibili, con prestazioni più elevate. Tali materiali si riveleranno fondamentali per l’economia globale, con un significativo impatto sulle catene di approvvigionamento e di valore. Per tal motivo gli sforzi dell’industria si concentreranno sulla creazione di catene di approvvigionamento flessibili e snelle, che consentiranno una prototipazione rapida e un adeguamento più veloce ai cambiamenti del mercato.
Life-science technologies
Le tecnologie delle scienze della vita possono essere concepite come un’intersezione tra ingegneria e biologia nella loro applicazione tecnico-scientifica. Le life-science technologies sono collocabili in un perimetro disciplinare che include biologia, automazione e digitalizzazione. Da un lato, la comprensione del funzionamento dei sistemi viventi consente la produzione di prodotti e processi nuovi o migliorati. È questo il caso dell’industria chimico-farmaceutica e della tecnologia ambientale. Per converso, le conoscenze ingegneristiche sono necessarie all’integrazione dei sistemi biologici nei processi tecnici, come la produzione di ingredienti farmaceutici in quantità e qualità adeguate alla domanda.
Micro/nanoelettronica e fotonica
L’obiettivo della micro/nanoelettronica consiste nel miglioramento delle prestazioni delle componenti elettroniche, riducendone al contempo le dimensioni e il peso. La micro/nanoelettronica e la fotonica posseggono i requisiti necessari allo svolgimento del calcolo ottico/fotonico. Questo tipo di calcolo utilizza fotoni prodotti da laser o diodi per processi computazionali. A differenza del calcolo tradizionale, tale applicazione dovrebbe garantire una maggiore larghezza della banda e una maggiore efficienza del segnale. La micro/nanoelettronica svolge un ruolo fondamentale nei numerosi ambiti applicativi che investono la nostra vita quotidiana; gli ambiti di applicazione della micro/nanoelettronica e della fotonica sono molteplici: smartphone, laptop, settore automobilistico, aviazione, robotica, automazione industriale, sanità, medicina, lab on chip, reti di sensori, produzione additiva, città intelligenti, logistica, prevenzione delle pandemie etc.
Artificial intelligence
L’AI è la scienza dello sviluppo di sistemi intelligenti, finalizzata allo svolgimento di compiti che, tipicamente, sono destinati all’intelligenza umana. Essa comprende un processo decisionale basato su scelte automatizzate, ottenute mediante algoritmi che elaborano regole predefinite e analizzano grandi quantità di dati. L’obiettivo prioritario dell’AI consiste nell’individuazione di modelli all’interno dei dati disponibili, i quali saranno utilizzati durante il processo decisionale. Pertanto, la crescente disponibilità di dati e l’incremento nella potenza di calcolo sono i fattori chiave dell’intelligenza artificiale. L’AI trova applicazione in numerosi campi, tra cui: sviluppo di algoritmi e modelli per l’apprendimento automatico (ML); applicazioni di AI per le PMI e per l’industria su larga scala; intelligenza artificiale per le città e le “comunità intelligenti”.
Tecnologie della sicurezza e della connettività
Questa KET include molteplici ICTs e i relativi fattori di sicurezza informatica. Le tecnologie di sicurezza e connettività sono un fattore abilitante e un elemento propedeutico ad altre KETs, indispensabile per la trasformazione digitale. Queste tecnologie costituiscono l’assetto necessario alla progressiva digitalizzazione e alla crescente diffusione di dispositivi IoT. Con la diffusione del Covid-19 questa tecnologia abilitante ha assunto enorme rilevanza. La pandemia ha contribuito a generare le condizioni necessarie allo sviluppo e al perfezionamento delle tecnologie di comunicazione e sicurezza. Le tecnologie di sicurezza e connettività dispongono di requisiti chiave per la digitalizzazione e per i relativi campi di applicazione, come l’istruzione domiciliare (digitale) e il lavoro da remoto. Le tecnologie di sicurezza e connettività sono orientate alla progressiva diffusione e al potenziamento dei dispositivi IoT. Questo obiettivo dovrebbe a sua volta incentivare lo sviluppo di piattaforme IoT aperte. La diffusione su vasta scala di dispositivi IoT sarà finalizzata alla raccolta autonoma e capillare di dati su scala più ampia. I dati raccolti dovranno essere utilizzati per analizzare i processi in modo più dettagliato e ottenere informazioni più approfondite.
Quelle passate in rassegna sono alcune fra le più significative aree scientifiche in grado di imporre, o quantomeno di tracciare, un nuovo oggetto gnoseologico. Da una prospettiva foucaultiana, pare dunque necessario chiedersi quale genere e quale grado di relazione instaurano la neuroergonomia, le scienze pedagogiche e le tecnologie abilitanti fondamentali. Ne Le parole e le cose (2013a), Foucault concettualizza il significato di episteme come discontinuità enigmatiche che si giustappongono l’un l’altra. A partire da questo assunto, ritengo opportuno avanzare la seguente ipotesi: dopo le tre configurazioni epistemologiche individuate da Foucault ne Le parole e le cose, è possibile supporre che si stia consolidando, o che sia in via di definizione, una quarta configurazione epistemologica. Le aree scientifico-disciplinari succitate, e i relativi sottogruppi scientifici, consentono di ipotizzare una tale rottura epistemologica. Entro questo potenziale perimetro d’indagine occorrerà individuare quelle trasformazioni specifiche, diverse tra loro, ma legate da griglie di specificazione (Foucault, 2013b), che siano in grado di qualificare una discontinuità epistemologica.
Specificità epistemiche e campi applicativi: alcuni esempi
Quasi a voler rimarcare l’ambivalenza, la mutevolezza e lo sconfinamento interno a una potenziale rottura epistemologica, Foucault, oltre a evidenziare i fenomeni di rapporto fra le scienze e i diversi discorsi, chiarisce il carattere incongruo e aleatorio di una episteme:
«…l’episteme è un insieme infinitamente mobile di scansioni, di sfasature, di coincidenze che si determinano e si dissolvono. Inoltre l’episteme, come insieme di rapporti tra scienze, figure epistemologiche, positività e pratiche discorsive, permette di comprendere il complesso delle costrizioni e delle limitazioni che s’impongono al discorso in un dato momento…è ciò che, nella positività delle pratiche discorsive, rende possibile l’esistenza delle figure epistemologiche e delle scienze». (Foucault, 2013b, pag. 312).
Al fine di rilevarne il potenziale conoscitivo e applicativo, tenterò di fornire delle esemplificazioni utili a corroborare quest’ultima asserzione foucaultiana. È difatti possibile, almeno in termini sommari, rintracciare dinamiche di combinazione e dispersione, di opposizione e accostamento, di distanza e contiguità tra le aree scientifico-disciplinari suindicate e i relativi sottogruppi. È cioè possibile “isolare” alcuni fra gli elementi costitutivi di una episteme, entro un campo di relazioni difficilmente quantificabili.
Il primo esempio utile a confermare tale ipotesi concerne la blended school, un paradigma educativo che affianca alla tradizionale compresenza in aula l’utilizzo di media elettronici – computer, tablet e smartphone –, nonché l’accesso a piattaforme digitali utili a implementare sessioni di studio on line. Il paradigma educativo che sottende la “scuola mista” adotta precise nozioni, specifici strumenti e particolari criteri. Tali elementi sono parzialmente o interamente collocabili nelle tre aree scientifico-disciplinari summenzionate, e, conseguentemente, nei sottogruppi applicativi o didattici che le connotano.
- Materiali avanzati e nanomateriali: entrambi gli elementi costituiscono il sottogruppo 2 della macro-area 3 (key enabling technologies). I materiali avanzati – ad esempio polimeri, metalli e leghe, vetro, ceramiche, compositi, etc. – posseggono proprietà inedite e altamente performanti, che consentono di ottimizzare l’interazione uomo–macchina, o, come nel caso specifico della blended school, l’interazione uomo-device.
- Human centred design e user experience. I due criteri scientifici sono inclusi nel campo applicativo del sottogruppo 1 (ergonomia cognitiva), all’interno della macro-area 1 (neuroergonomia). L’interazione uomo-device deve essere in grado di massimizzare i risultati ottenibili dalla performance del soggetto, entro un lasso di tempo che sia il più breve possibile e con modalità che possano favorire la conduzione di un’esperienza appagante ed entusiasmante. È possibile contemperare tali criteri e obiettivi attraverso la produzione e il perfezionamento di interfacce fluide.
- Automonitoraggio e autoefficacia. Entrambi gli indicatori sono riconducibili al sottogruppo 1 (self-reguleted learning) della macro-area 2 (scienze pedagogiche neoliberali). Il discente è chiamato a tracciare e valutare il proprio grado di apprendimento in itinere, stabilendo delle soglie di valutazione utili a quantificare il grado di performance e i risultati ottenuti, confrontandoli con gli standard precedentemente stabiliti.
- Le forme più avanzate di scuola mista prevedono modelli e metodi di apprendimento afferenti al digital game based learning e alla gamificazione (sottogruppo 2 della macro-area 2). Si tratta di due strategie didattiche caratterizzate da una dimensione ludica e competitiva, le quali necessitano, rispettivamente, di un supporto digitale e di un luogo immersivo (virtuale).
In assenza di materiali avanzati e nanomateriali non sarebbe possibile sperimentare e collaudare device volti a stabilire forme di user experience adeguate al criterio della usability; allo stesso modo, se non fosse garantita l’attivazione di interfacce in grado di perfezionare il co-adattamento fra uomo e macchina (fluid interface), non sarebbe possibile condurre un percorso pedagogico misurabile entro gli indicatori dell’automonitoraggio e dell’autoefficacia, quindi nei termini stabiliti da una pedagogia neoliberale. La relazione tra questi fattori – la loro co-dipendenza – potrebbe rivelare tracce essenziali di una nuova configurazione epistemologica.
L’ambito militare
Il secondo esempio pertiene all’ambito militare. Ad esempio, l’operatività di un’unità o di una task-force, che si tratti di uno scenario di addestramento o di un’operazione reale, è studiata e sperimentata in rapporto alla combinazione fra nozioni di dottrina militare, applicazione di specifici dispositivi tecnologici e supporto di intelligenze artificiali autonome e semiautonome (Farrugia & Parisi, 2023). Come nei casi della blended school e del gaming, tali fattori sono in buona parte individuabili nelle aree scientifico-disciplinari suindicate, e, conseguentemente, nei sottogruppi applicativi o didattici che le completano:
- Artificial intelligence. Questo fattore costituisce il sottogruppo 5 della macro-area 3 (key enabling technologies). In questo ambito, l’AI può essere attivata per replicare, in ambiente virtuale, un’entità reale: un nemico, ad esempio. Il suo scopo consiste nel produrre una simulazione del comportamento reale dell’entità selezionata durante il suo “ciclo di vita”. Nel caso assunto come esempio, l’intelligenza artificiale consentirebbe di attribuire un grado di predicibilità alla potenziale condotta del nemico, e, conseguentemente, di adattare le proprie azioni allo scenario previsto. Questo paradigma trova applicazione in ambito militare con la Internet of Battlefield Things (Yoon et. al., 2021), ove i modelli previsionali e i piani d’azione prevedranno un’esecuzione in tempo reale. È il caso del paradigma digital twin (Tao et. al., 2022), un paradigma applicato ai sistemi autonomi dell’AI, programmato per emulare o supportare l’intelligenza umana nello sviluppo di modelli di realtà che possano prevedere l’agire dei target selezionati.
- Automonitoraggio e autovalutazione. Tali criteri sono riconducibili al sottogruppo 1 (self-reguleted learning) della macro-area 2 (scienze pedagogiche neoliberali). Nella Internet of Battlefield Things (IoBT), riadattare le proprie scelte in tempo reale, sulla base di scenari previsionali relativi alla condotta del nemico, implica funzioni di auto-diagnostica (self-diagnostics) e funzioni di auto-riparazione (self-healing), che si tratti di sistemi di intelligenza artificiale autonoma o di sistemi di intelligenza artificiale semi-autonoma. Cosa si evince da questa impostazione? Automonitoraggio e autovalutazione non sono criteri confinati ai campi applicativi tradizionali (scuola primaria e secondaria, formazione universitaria, corporate coaching etc.); questi ultimi posseggono un proprio corrispettivo semantico in molteplici campi del sapere: auto-diagnostica e auto-riparazione costituiscono i propri equivalenti nei modelli di intelligenza artificiale con applicazione militare. Ciò rivelerebbe, all’interno di una possibile episteme, la natura assiomatica e trasversale dei criteri pedagogici suindicati.
- Usability. Tale fattore è collocabile nel sottogruppo 1 (ergonomia cognitiva) della macro-area 1 (neuroergonomia). Per recepire e comprendere gli scenari previsionali elaborati dall’intelligenza artificiale e modificare in tempo reale la propria azione, un’unità militare impegnata in un conflitto bellico a media o alta intensità dovrà necessariamente disporre di dispostivi adeguati sotto il profilo ergonomico. Tali dispostivi dovranno favorire la traduzione operativa di una valutazione in un’azione immediata, continuativa: il soggetto dovrà recepire e comprendere le coordinate da tradurre sul piano operativo, senza che ciò rischi di interrompere, rallentare o in altro modo pregiudicare lo svolgimento dell’azione in corso d’opera. Per ottenere questo livello di performatività, il soggetto necessiterà di dispostivi – visori, smart glasses, etc. – in grado di stabilire un elevato grado di usabilità.
In un contesto bellico, l’applicazione di un modello simulativo deve contemplare la possibilità di apportare modifiche tempestive all’azione sul campo e deve poterlo fare sulla base degli scenari previsionali prodotti in itinere. Tali elaborazioni saranno trasmesse, recepite e tradotte dagli operatori impegnati sul campo di battaglia in maniera efficiente ed efficace.
Gaming e metaverso
Il terzo esempio utile a corroborare la tesi avanzata riguarda il gaming e il metaverso. Le forme di socialità codificate dal gaming e dal metaverso si fondano su una metodologia precisa, supportata dall’attivazione di particolari strumenti. Come nel caso della blended school, tali elementi sono parzialmente collocabili nelle tre aree scientifico-disciplinari suindicate e, conseguentemente, nei sottogruppi applicativi o didattici che le compongono:
- User centred-design. Questo ambito applicativo costituisce il sottogruppo 2 della macro-area 1 (neuroergonomia). I dispositivi che il giocatore deve necessariamente indossare – visori, guanti aptici, smart glasses etc. – sono progettati e modellati sui potenziali bisogni, desideri e obiettivi dell’utente. Lo user-centred design è chiamato a massimizzare l’usabilità delle interfacce stesse. Questo specifico campo applicativo contribuisce al raggiungimento dell’obiettivo dell’utente, con il minor impiego di risorse possibili.
- Micro/nanoelettronica e fotonica. Questi elementi costituiscono il sottogruppo 4 della macro-area 3 (key enabling technologies). In questo caso specifico, lo scopo cui assolve la micro/nanoelettronica consiste nel migliorare le prestazioni dei dispostivi tecnologici – visori, guanti aptici, smart glasses etc. –, riducendone al contempo le dimensioni e il peso, ma incrementando i propri requisiti di potenza.
- BOT e personalized learning. Sono “programmi” riconducibili al sottogruppo 3 (machine-learning in education) della macro-area 2 (pedagogical science). Nei videogiochi – in special modo nel genere “sparatutto” e nei giochi di strategia – i bot corrispondono ai personaggi controllati dal computer, che contribuiscono allo svolgimento della sessione di gioco, in sostituzione o in supporto ai giocatori umani. Il più delle volte il loro utilizzo li vede nelle vesti di avversari virtuali con i quali allenarsi e fare pratica in assenza di avversari umani. I bot sono talvolta utilizzati anche per controllare, del tutto o in parte, gli avatar del giocatore. Alcuni giochi come TimeSplitters e Half-Life dispongono di un aimbot per chi soffre di disabilità cognitive o motorie/sensoriali, grazie al quale è possibile supportare il soggetto nella conduzione del gioco.
Se non fosse possibile ricorrere all’applicazione sistematica delle componenti di micro/nanoelettronica e fotonica, il principio dello user centred-design non sarebbe facilmente traducibile in termini materiali, e quindi ergonomici. Non sarebbe cioè possibile garantire un grado di usabilità tale da soddisfare standard elevati di prestazione; standard che permettono al soggetto di condurre un’esperienza di gioco immersiva, eccitante e motivante. La miniaturizzazione dei dispostivi – guanti aptici, tute, visori, smart watches etc. – e delle loro componenti – i sensori, ad esempio – è prerequisito dell’usabilità. Una volta garantita la massima compatibilità tra questi elementi, diviene possibile implementare esperienze di realtà estesa o realtà aumentata. A partire da queste condizioni, che sono al contempo fisiche e digitali, è possibile applicare elementi di supporto alle modalità di gioco come il personal digital assistant.
Da una prospettiva sociologica, le configurazioni inter-discorsive suindicate offrono un ulteriore margine di riflessione: la combinazione tra i fattori scientifico-disciplinari che contribuiscono a produrre la blended school, il gaming e il metaverso stabiliscono una progressiva avatarizzazione del sociale. Nelle condotte e nelle interazioni fra soggetti, l’avatarizzazione dell’esperienza umana riqualifica il rapporto e la mutua incidenza fra linguaggio, estetica e identità: il soggetto è anzitutto colto in una relazione inedita con il proprio e l’altrui linguaggio non verbale, giacché il suo movimento corporeo (cinesica), la distanza dagli altri soggetti e dai rispettivi avatar (prossemica) e l’esercizio della propria presa tattile su di essi (aptica) sono “mediati” dal proprio avatar o ologramma, entro luoghi verosimilmente riconducibili a ciò che identifichiamo con la realtà estesa e la realtà aumentata. A partire dal co-adottamento tra l’apparato sensoriale dell’individuo e i rivestimenti tecnologici di cui esso necessita – visori, guanti aptici, tute, smart-glasses etc. –, queste nuove forme d’interazione produrranno un impatto sul tipo e sul grado di intensità attraverso cui il soggetto percepisce e vive l’altro. In quest’ottica, l’apparato percettivo del soggetto sarà sovra-mediato dall’attivazione e applicazione di un dispositivo “mediaestetico”: avatar e ologrammi forniranno al soggetto la possibilità di mutare incessantemente la relativa proiezione/sagoma virtuale, preservandone l’interezza e la coerenza con il proprio linguaggio verbale, non verbale e paraverbale. Questo margine di co-adattamento fra un sé corporeo e un sé iconico costituirà un inedito assoluto nella relazione e nella rielaborazione cognitiva che si instaura tra la definizione dell’identità del soggetto e la rappresentazione sociale di tale identità. All’interno della realtà aumentata e della realtà estesa, una specifica azione o una particolare esposizione del proprio sé avranno un’incidenza diretta sulla produzione del proprio e dell’altrui riconoscimento sociale. Le istanze e i desideri dei soggetti saranno prodotti, convogliati e alimentati in luoghi ibridi, ove realtà e virtualità stabiliranno la propria coesistenza. Pare dunque lecito, financo necessario, domandarsi: i: che genere e che grado di incidenza avrà l’assunzione di un particolare avatar nella percezione del proprio sé, o, più specificatamente, nel riconoscimento della propria e dell’altrui identità? Lo “scarto identitario” tra il sé originario – quello corporeo – e il sé simulato – il sé virtualmente animato – rimarrà intatto? Il soggetto, alle prese con i propri e con gli altrui avatar, percepirà una differenza “ontologica”, identitaria ed estetica fra un ipotetico “sé originario” e un possibile “sé simulato”? In tal caso, questo genere di differenziale potrebbe essere sottoposto a un criterio di misurazione, potrebbe possedere uno spettro di gradazione? Oppure si verificherebbe – nel verso opposto – un’estensione unitaria del sé, di un sé che resta tale, intatto, nel continuo andirivieni fra realtà e virtualità?
I luoghi in cui tali “artefatti digitali” – avatar, ologrammi e token – esauriscono il campo della socializzazione impongono specifiche pratiche d’interazione, i cui input e i cui output sono fondati su una rigorosissima precodifica delle funzioni interattive. Per tal motivo, oltre al campo estetico e a quello identitario, sarà necessario individuare la relazione che entrambi i domini stabiliscono con l’esercizio del potere: la conduzione dell’agire soggettivo dovrà attenersi a un’architettura esatta, sulla base di criteri, regole e margini prestabiliti. Quali azioni potrà allora intraprendere il soggetto se le stanze virtuali vincoleranno i rispettivi avatar a un esatto e inequivocabile margine d’azione, se tali confini saranno effettivamente delineati con una precisione ingegneristica? La praticabilità dei luoghi attraverso il proprio movimento (cinetica) e la manipolazione (l’utilizzo) degli oggetti saranno adeguati a parametri e limiti di struttura inaggirabili. In questo scenario, criteri, regole, spazi, precodifiche – il quesito ha una rilevanza strategica – saranno negoziabili? Come e in che misura potranno incidere i soggetti/utenti nella co-definizione di questa architettura? Si intravede la possibilità di attivare condotte elusive, vie di fuga o opportunità, per il soggetto, di modificare arbitrariamente tale design e i suoi contenuti? Se sì, in che termini? Posti tali quesiti, si ritiene opportuno concepire e investigare gli spazi esperienziali suddetti come forme di integrazione sistematica fra tre differenti coppie nominali: estetica e identità; produzione e consumo; disciplina e controllo. Attraverso lo sviluppo e il perfezionamento della realtà estesa e della realtà aumentata, linguaggio, estetica, identità e desiderio potrebbero avvilupparsi entro un dispositivo di regimentazione (Foucault, 2014) e di controllo (Deleuze, 2019) dei corpi.
Il quarto e ultimo esempio che consente di individuare, sia sul piano teorico, sia sul piano operativo, le relazioni scientifico-disciplinari interne a una nuova configurazione epistemologica prende il nome di Telepathy, un impianto cerebrale sviluppato e collaudato da Neuralink. Stando alle parole dei suoi ideatori e promotori, tale progetto ambisce al superamento dei limiti derivanti dalle paralisi gravi e a un generale potenziamento delle capacità umane attraverso la simbiosi tra uomo e tecnologie. Le componenti teoriche e applicative di questo impianto sono individuabili in almeno una delle tre aree scientifico-disciplinari precedentemente descritte:
- Micro/nanoelectronica e fotonica. Questi elementi costituiscono il sottogruppo 4 della macro-area 3 (key Enabling Technologies). Un impianto di interfaccia cervello-computer (BCI) è stato posizionato nella regione del cervello che controlla l’area cinetica e motoria di un soggetto tetraplegico, al fine di fornire un input cerebrale a uno strumento tecnologico esterno. Tale innesto consentirebbe l’utilizzo a distanza di un dispositivo digitale.
In questo specifico caso, il chip deve anzitutto possedere una forma e delle dimensioni tali da non danneggiare tessuti e funzionalità vitali, garantendo, al contempo, un’efficace trasmissione dell’input cerebrale destinato al dispositivo esterno. La componente microelettronica è dunque orientata all’aumento delle abilità e delle prestazioni umane, attraverso una progressiva diminuzione della propria incidenza materiale, sia in termini di grandezza fisica, sia in termini di peso.
- Life-science technologies. Queste tecnologie occupano il sottogruppo 3 della macro-area 3 (key enabling technologies). L’impianto del chip nella calotta cranica del soggetto è stato effettuato con il fondamentale apporto della chirurgia robotica, attraverso cui è stato possibile riprodurre i movimenti miniaturizzati della mano entro cavità corporee non raggiungibili in condizione standard.
- Sicurezza e tecnologie della connettività. Questa KET occupa il sottogruppo 6 della macro-area 3 (key enabling technologies). Nel caso preso in esame, i fattori relativi alla sicurezza informatica hanno una rilevanza strategica, poiché sono tenuti a garantire la riservatezza di dati personali ultrasensibili, che includono indicatori di carattere biologico, come i “picchi neuronali”, ad esempio. L’operazione complessiva, oltre a costituire un asset industriale strategico, deve tener conto, sul piano etico, di un “surplus” di responsabilità, poiché le funzionalità e i dati in gestione richiedono requisiti e garanzie di privacy certamente superiori a quelli stabiliti nei settori dell’ICT più comuni, accessibili al consumatore medio.
Senza l’apporto delle life-science technologies sarebbe impossibile penetrare e manipolare regioni del corpo umano inaccessibili all’occhio e alla mano dell’uomo: la chirurgia robotica è il solo campo applicativo che possa favorire l’innesto di componenti micro/nanoelettroniche nel corpo umano. Al contempo, le tecnologie per la connettività e la sicurezza permettono di stabilire una connessione tra il chip innestato all’interno del corpo umano e i dispositivi esterni ad esso, garantendo, simultaneamente, una trasmissione efficiente e sicura di dati particolarmente sensibili. Le relazioni fra i tre ambiti scientifici delle KETs stabiliscono quindi una forte interdipendenza; i rispettivi margini di applicazione e sviluppo sarebbero sensibilmente ridotti, o addirittura compromessi, se venisse meno uno solo dei tre ambiti menzionati.
Per concludere: i criteri afferenti l’ergonomia cognitiva, gli indicatori riconducibili alle scienze pedagogiche neoliberali e i fattori inclusi nelle tecnologie abilitanti sono, in misura diversa, ed entro modalità differenti, elementi strettamente necessari alla costruzione della blended school, del gaming/metaverso, degli scenari bellici avanzati e della simbiosi uomo-macchina (come nel caso di Telepathy). La loro compresenza si consolida attraverso un incessante movimento di combinazione, dispersione e ricombinazione. Tale movimento non esaurisce di certo lo spazio nel quale si sostanziano le relazioni scientifiche fra queste e altre macro-aree, ma, al contempo, ne rivela una parte fondamentale del proprio assetto, uno spazio strategico che contribuisce all’estensione e al potenziamento dei campi di applicazioni presi in esempio.
Le regioni di una nuova configurazione epistemologica: quale criterio individuare?
Le precedenti esemplificazioni lasciano trasparire il modo in cui tali scienze si dispongono nell’episteme entro la quale si fondano. A partire da questa “emersione”, dall’evidenza di questa manifestazione “epidermica”, è possibile risalire, all’interno delle tre aree scientifico-disciplinari, sino alle premesse, alle condizioni di positività (Foucault, 2013b) che le rendono effettivamente tali?
Immaginare tale percorso implica l’assunzione di uno specifico punto di vista: l’uomo si offre sì a un sapere possibile, ma come parte singola di un oggetto conoscitivo che va ben oltre l’uomo stesso, poiché tale oggetto coinvolge altre regioni del sapere e, inevitabilmente, oggetti, discorsi e leggi riconducibili a queste regioni. Pare dunque plausibile riflettere su una nuova interregionalità del sapere (Canguilhem, 1967). Le scienze e le relazioni scientifiche che sostanziano tale interregionalità – per restare fedeli al lessico di Foucault – devono essere disinsabbiate (Foucault, 2013a) . In tal modo sarà possibile coglierne «il tipo di razionalità cui fanno riferimento e attraverso il quale cercano di costituirsi in quanto sapere» (Foucault, 2013a, pag. 387). Con le scienze umane l’uomo ha iniziato a edificare il sapere che ha di sé stesso, sapere del quale tali scienze producono una delle forme possibili. Oggidì, l’uomo edifica un sapere che si estende oltre sé stesso e che al contempo lo edifica nel complesso – certamente più ampio – di un oggetto conoscitivo forse non ancora esplicitato dal proprio linguaggio; oggetto che l’uomo stesso riconduce a uno strato conoscitivo superficiale, presto etichettato come postumano o transumano, nonostante queste due categorie possano in realtà corrispondere a una increspatura di superficie, allo strato ultimo, esteriore, di una sedimentazione ben più profonda. Assumendo tale superficie come luogo di partenza, piuttosto che di arrivo, sino a che strato occorrerà “scavare”, al fine di individuare l’origine di un tale smottamento? Dove si colloca questa soglia epistemologica (2013b)? Tale rottura è ancora in divenire, oppure assistiamo, digià, alle sue conseguenze? L’episteme dell’età moderna individua il proprio principio epistemologico nell’uomo stesso, in quanto oggetto indagato e soggetto indagante. Oggigiorno, è ancora nella finitudine del solo uomo, nella propria esclusiva autocomprensione – in quanto essere storico che vive, lavora ed esprime il potere del proprio linguaggio –, il luogo dal quale poter identificare la positività di una nuova configurazione epistemologica? L’ipotesi avanzata nei precedenti paragrafi conduce nella direzione di una risposta negativa. L’uomo inteso come oggetto di conoscenza sbiadisce nel momento in cui diviene indistinguibile dall’automa – dal combinato disposto di visori, tute, smart-glasses, guanti, esoscheletri etc. Egli si dilegua nell’attimo in cui trasmigra nei propri avatar e nei propri ologrammi, nel momento in cui il proprio corpo è penetrato da materiali extra-organici, come il chip sottocutaneo. L’uomo, in tal caso, non può essere più concepito come oggetto di conoscenza puro; i suoi confini divengono troppo labili, transitori, difficilmente tracciabili.
La compenetrazione che avviene fra sé e una vasta gamma di elementi eterogenei lo tradurrà in una parte difficilmente distinguibile dalla totalità siffatta. La blended school, il metaverso, il gaming e i tentativi sperimentali connessi al transumano o al postumano potrebbero essere solo alcuni esempi, in nuce, di un processo ancora in divenire. Ed è a partire da questa eventualità che assume rilevanza un ulteriore punto interrogativo: preso atto della successione epistemologica individuata da Foucault, quale potrebbe essere, nel mondo contemporaneo, il principio organizzativo di un’ipotetica quarta configurazione epistemologica? Non sarà evidentemente la somiglianza; di certo non potrà essere la rappresentazione; è plausibile l’ipotesi che stia declinando lo stesso duplicato empirico-trascendentale confinato nell’uomo e riconducibile esclusivamente ad esso; del resto è stato lo stesso Foucault, nei passaggi conclusivi de Le parole e le cose (2013a), a presupporre la fine imminente della terza e ultima configurazione epistemologica, quella dell’età contemporanea:
«l’uomo è un’invenzione di cui l’archeologia del nostro pensiero mostra agevolmente la data recente. E forse la fine prossima. Se tali disposizioni dovessero sparire come sono apparse, se, a seguito di qualche evento di cui possiamo tutt’al più presentire la possibilità ma di cui non conosciamo per ora né la forma né la promessa, precipitassero, come al volgersi del XVIII secolo accadde per il suolo del pensiero classico, possiamo senz’altro scommettere che l’uomo sarebbe cancellato, come sull’orlo del mare un volto di sabbia» (Foucault, 2013a, pag. 421-22).
Quale potrebbe essere allora il principio organizzativo che si impone alla base delle regioni epistemologiche identificate – seppur in via provvisoria – con la neuroergonomia, le scienze pedagogiche neoliberali e le key enabling technologies? È possibile supporre che il criterio fondativo di una quarta configurazione epistemologica sia la compatibilità e che a fornire un corollario semantico a tale criterio siano le categorie concettuali di adeguamento, co-adattamento e interoperabilità.
Individuare e comprendere le relazioni di potere tra governati e governanti – anche questa è una semplificazione – significa anzitutto comprendere in che modo e in che misura le configurazioni scientifico-disciplinari e il governo dei corpi stabiliscano la propria interdipendenza. In definitiva, intercettare e interpretare le relazioni di potere tra governati e governanti significa tener conto del seguente assunto: le procedure di controllo (2021) sull’uomo corrispondono alle procedure di (auto)controllo e potenziamento dell’automa, degli innumerevoli punti di intercetto fra uomo, tecnologie e configurazioni scientifico-disciplinari della propria epoca.
Bibliografia
Agamben, G. (2020). Che cos’è un dispositivo? Nottetempo.
Bandura, A. (2014). Exercise of personal agency through the self-efficacy mechanism. in Self-efficacy (pp. 3-38). Taylor & Francis.
Boekaerts, M. (1999). Self-regulated learning: Where we are today. International journal of educational research. 31(6), 445-457.
Carroll, J. M. (2003). Making use: scenario-based design of human-computer interactions. MIT press.
Deleuze. G. (2019). Pourparler. Quodlibet.
Farrugia, F., & Parisi, G. (Cur.) (2023). Dai droni alle armi autonome: lasciare l’Apocalisse alle macchine?. Franco Angeli.
Foucault, M. (2001). La volontà di sapere (Vol. 1). Feltrinelli Editore.
Foucault, M. (2013a). Le parole e le cose. BUR Rizzoli.
Foucault, M. (2013b). L’archeologia del sapere. Una metodologia per la storia della cultura. BUR Rizzoli.
Foucault, M. (2014). Sorvegliare e punire. Nascita della prigione. Einaudi tascabili.
Foucault, M. (2021). Del governo dei viventi. Corso al Collège de France (1979-1980). Feltrinelli Editore
Foucault, M. (2024). Il soggetto e il potere. Istituto italiano per gli studi filosofici Press.
G. Canguilhem, Mort de l’homme ou épuisement du cogito, “Critique”, 242, luglio 1967, pp. 599-618; trad. it. Morte dell’uomo o estinzione del cogito?, in Michel Foucault, Le parole e le cose. Un’archeologia delle scienze umane, Milano 1978, pp. 415-436.
Giacomin, J. (2014). What is human centred design?. The design journal. 17(4), 606-623.
Hassenzahl, M., & Tractinsky, N. (2006). User experience-a research agenda. Behaviour & information technology, 25(2), 91-97.
Jordan, P. W. (2020). An introduction to usability. Crc Press.
Kiili, K. (2005). Digital game-based learning: Towards an experiential gaming model, The Internet and higher education, 8(1), 13-24.
Maguire, M. (2001), Methods to support human-centred design, International journal of human-computer studies. 55(4), 587-634.
Marx, K. (1964). Frammento sulle macchine. trans. Renato Solmi, Quaderni Rossi, 4.
Nielsen, J. (1994). Usability engineering. Morgan Kaufmann.
Norman, D. A., & Draper, S. W. (1986). User centered system design; new perspectives on human-computer interaction. L. Erlbaum Associates Inc.
Pintrich, P. R. (1995). Understanding Self-Regulated Learning, New Directions for Teaching and Learning, 63, 3-12.
Ramahandry, T., Bonneau, V., Bani, E., Vlasov, N., Flickenschild, M., Batura, O., … & Boerger, M. (2021), Key enabling technologies for Europe’s technological sovereignty, Brussels: European Parliamentary Research Service.
Shemshack, A., & Spector, J. M. (2020). A systematic literature review of personalized learning terms, Smart Learning Environments. 7(1), 33.
Sigov, A., Ratkin, L., Ivanov, L.A. et al. (2022). Emerging Enabling Technologies for Industry 4.0 and Beyond, Inf Syst Front (2022).
Tao, F., Xiao, B., Qi, Q., Cheng, J., Ji, P. (2022). Digital twin modeling. Journal of Manufacturing Systems. 64, 372-389.
Toda, A., Cristea, A. I., & Isotani, S. (2023). Gamification Design for Educational Contexts: Theoretical and Practical Contributions. Springer.
Webb, M.E., Fluck, A., Magenheim, J. et al. (2021). Machine learning for human learners: opportunities, issues, tensions and threats, Education Tech Research Dev 69, 2109–2130.
Yoon, S., Cho, J. H., Dixit, G., & Chen, I. R. (2021). Resource-aware intrusion response based on deep reinforcement learning for software-defined Internet-of-Battle Things. Edited by Charles A. Kamhoua, Christopher D. Kiekintveld, Fei Fang, Quanyan Zhu, Game Theory and Machine Learning for Cyber Security, 389-409, John Wiley & Sons.
Zimmerman, B. J. (2000), Attaining Self-Regulation: A Social Cognitive Perspective. In M. Boekaerts, P.R. Pintrich, & M. Zeidner (Eds.). Handbook of Self-Regulation (pp. 13-39). San Diego: Academic Press.
Zimmerman B. J. (1990). Self-regulated learning and academic achievement: An overview. Educational psychologist, 25(1), 3-17.
Sitografia
Boffi, G. & Carmagnola, F. (2018, 21 marzo), Il dispositivo come sapere/potere, 1° incontro del ciclo “Foucault e i dispostivi di sapere”. Le Arti, I Media e Il Potere, Roberto Diodato e Ruggero Eugeni (a cura di). [Video]. YouTube. https://www.youtube.com/watch?v=oKx6qFeufvU&t=1006s&ab_channel=CasadellaCulturaViaBorgogna3Milano
Fulvio Carmagnola coglie una fondamentale analogia tra il concetto marxiano di automa e la categoria di dispositivo nel pensiero di Michel Foucault. Per un approfondimento sul tema si consiglia il seguente link: https://www.youtube.com/watch?v=oKx6qFeufvU&t=1006s&ab_channel=CasadellaCulturaViaBorgogna3Milano ↑
In un’intervista del 1977, Foucault individua, nel termine dispositivo, «…un insieme assolutamente eterogeneo che implica discorsi, istituzioni, strutture architettoniche, decisioni regolative, leggi, misure amministrative, enunciati scientifici, proposizioni filosofiche, morali e filantropiche, in breve: tanto del detto che del non-detto, ecco gli elementi del dispositivo. Il dispositivo è la rete che si stabilisce fra questi elementi…» (Foucault, Dits et écrits, vol. III, pag. 299-300, in Agamben, 2020, pag. 6). ↑