l’approfondimento

Reservoir computing: come funziona e a che punto è l’IA ispirata al cervello umano



Indirizzo copiato

Il reservoir computing, ispirato al cervello umano, affronta le limitazioni energetiche delle reti neurali tradizionali. Questa tecnologia promette efficienza nei processi di calcolo, aprendo nuove opportunità in vari settori scientifici e tecnologici

Pubblicato il 22 gen 2025

Vincenzo Ambriola

Università di Pisa



intelligentizzazione dell'ia

Uno dei principali limiti tecnologici delle reti neurali è l’elevato consumo energetico. Utilizzando calcolatori basati sull’architettura von Neumann una rete neurale deve essere simulata mediante computazioni molto complesse ed elaborate, che richiedono architetture hardware distribuite e ad alte prestazioni.

Le reti neurali presenti nel cervello umano non sono soggette a questo limite, perché operano direttamente a livello elettrico con stimolazioni mediate chimicamente. Ispirata al funzionamento organico, il reservoir computing, una forma di calcolo alternativo a quello tradizionale, ha recentemente ottenuto interessanti risultati teorici e sperimentali.

Presentiamo di seguito i concetti di base del reservoir computing, una delle attuali frontiere dell’intelligenza artificiale, i vari supporti fisici per la sua realizzazione e una riflessione sugli aspetti formali di questa forma esotica di calcolo.

Reservoir computing, i concetti di base

In un recente articolo apparso su Nature Communications, Yan presenta lo stato dell’arte, il futuro, le opportunità e le sfide del reservoir computing. Il grande successo delle reti neurali, specialmente quando utilizzate per i sistemi di intelligenza artificiale generativa, non si estende ad applicazioni che possono usare risorse computazionali limitate sufficienti solo per modelli di dimensioni ridotte, in grado di effettuare inferenza in maniera rapida, adattandosi velocemente al dominio di riferimento. I sistemi biologici, tra cui il cervello umano, operano in questa modalità, elaborando informazioni accurate e affidabili in scenari diversi tra loro, consumando una quantità di energia molto inferiore a quella richiesta dalle (grandi) reti neurali che svolgono le stesse funzioni.

Un’alternativa al paradigma del deep learning, simulato mediante calcolatori basati sull’architettura von Neumann, è costituita dal calcolo neuromorfico, ispirato alla struttura e alla funzione del cervello umano. Un calcolatore neuromorfico è un dispositivo che esegue i suoi calcoli mediante neuroni artificiali fisici anziché biologici. Recentemente, il termine neuromorfico è stato usato per descrivere varie tipologie di sistemi analogici, digitali, misti analogico/digitali e che realizzano modelli di sistemi neurali in ambito sensoriale (percezione, controllo motorio, integrazione multisensoriale).

Le tipologie di substrato utilizzate per realizzare questi dispositivi si sono ampliate a comprendere anche soluzioni liquide o gel, anche se i risultati più promettenti sono stati ottenuti mediante memristori a base di ossido di titanio, memorie spintroniche, interruttori di soglia, fotonica ad alta velocità.

Nell’ampio campo del calcolo neuromorfico c’è stato il grande progresso di una famiglia di modelli conosciuta come reservoir computing (in italiano, anche se non usato nella letteratura corrente, calcolo a riserva).

L’architettura a tre strati del reservoir computing

Il reservoir computing si basa su un’architettura a tre strati, in cui il primo riceve le informazioni ed esegue alcune operazioni di preelaborazione, il secondo effettua l’elaborazione vera e propria che riprende quella delle reti neurali ricorrenti non lineari utilizzando come stimolo le informazioni ricevute dal primo strato, il terzo che elabora i segnali in uscita dal secondo strato per fornire il risultato finale. La caratteristica rilevante di questa architettura è data dal fatto che i primi due strati sono fissi e non adattivi mentre il terzo utilizza semplici tecniche adattive basate sulla regressione, simili a quelle utilizzate nei comuni sistemi meccanici ed elettrici.

Le prime idee su cui si basa il reservoir computing risalgono ai primi anni 2000 e sono dovute a Jaeger (echo state network, ESN) e Maas (liquid state machine, LSM) che hanno definito livelli di prestazioni sorprendentemente elevati in sistemi che mostrano forte non linearità e comportamento caotico. Senza entrare nei dettagli matematici, una ESN è una rete neurale ricorrente in grado di eliminare asintoticamente le informazioni provenienti dalla sua condizione iniziale, in altre parole, la rete è intrinsecamente stabile.

Questa proprietà la rende particolarmente adatta ad applicazioni in cui i segnali di ingresso provengono da una sorgente che li emette regolarmente nel tempo, come nel caso di segnali audio, video ma anche di controllo di apparati fisici e robotici. Rispetto a una rete neurale ricorrente, una ESN ha il vantaggio di essere più compatta, di non richiedere una fase di addestramento per lo strato intermedio di elaborazione, di usare risorse di calcolo estremamente ridotte. Una LSM si basa invece sulle capacità computazionali dei microcircuiti del cervello umano. La caratteristica delle LSM è relativa alla topologia dei neuroni che costituiscono lo strato intermedio, per i quali la probabilità che due neuroni siano connessi dipende dalla distanza delle loro posizioni fisiche. Queste reti sono chiamate “liquide” perché il loro calcolo è simile a entità fisiche che producono onde in risposta a stimoli esterni.

Un esempio particolarmente curioso di LSM è un sistema “fluido” in grado di svolgere semplici attività, come il riconoscimento di una cifra numerica a partire da una traccia audio. Questo sistema, realizzato da Fernando e Sojakka, è formato da un contenitore d’acqua, sulla cui superficie alcuni motori elettrici generano onde a partire da segnali elettrici di ingresso. Una videocamera riprende le onde e trasmette il segnale al terzo strato di decodifica che produce il risultato. Lo strato intermedio è, quindi, realizzato dalla superficie di un supporto liquido che possiede le proprietà di non linearità richieste per svolgere il calcolo.

I due approcci, ESN e LSM, sono stati successivamente unificati da Schrauwen e Verstraeten, che hanno definito una nuova area di ricerca, il reservoir computing, che tratta le dinamiche non lineari, le reti complesse e il machine learning. Da allora la ricerca in questo nuovo settore è andata avanti molto rapidamente, ottenendo risultati significativi nella teoria matematica, nei metodi computazionali ma anche nella realizzazione di prototipi sperimentali che hanno utilizzato supporti fisici di varia natura.

Tra i contributi pionieristici nel campo del reservoir computing si distinguono i lavori di Gallicchio, Micheli e Pedrelli del Dipartimento di Informatica dell’Università di Pisa, che hanno introdotto il paradigma del reservoir computing profondo (o deep reservoir computing), sviluppando metodologie innovative per sfruttare la gerarchizzazione delle dinamiche non lineari, migliorando la capacità di astrazione e potenziando l’efficienza nell’elaborazione di segnali complessi e temporali. Nonostante la grande vivacità delle ricerche in corso, a oggi non è emersa la possibilità di un’adozione su larga scala del reservoir computing, se non in esperimenti di limitata portata e di laboratorio.

Questa situazione non è dovuta alla mancanza di potenziali applicazioni. La compattezza dell’architettura neurale e l’addestramento rapido fanno del reservoir computing il candidato ideale per molti contesti in cui è necessario elaborare rapidamente segnali temporali, come nel caso della compensazione della distorsione non lineare nelle comunicazioni ottiche, il riconoscimento vocale in tempo reale, il controllo attivo del rumore. Per molte applicazioni è richiesto un approccio che integri il reservoir computing con il sistema complessivo, un requisito che non può essere soddisfatto dai lavori esistenti, che si concentrano sugli algoritmi usati, sulla teoria matematica e sugli esperimenti, spesso molto limitati in ampiezza e significatività.

Realizzazione fisica del reservoir computing

Abbiamo visto che il reservoir computing può utilizzare un substrato fisico per la realizzazione dello strato intermedio di elaborazione, un supporto che può essere anche una superficie liquida sulla quale si formano delle onde.

I supporti fisici utilizzati per il reservoir computing

Nel 2019 Tanaka, insieme ad altri coautori, ha pubblicato un interessante articolo che presenta una rassegna dei supporti fisici utilizzati per il reservoir computing. Ciò che segue è un breve riassunto di questa rassegna.

Elettronica

L’implementazione di sistemi basati sul reservoir computing usa ampiamente i circuiti elettronici. In linea teorica, ogni rete neurale artificiale e neuromorfica può essere realizzata mediante un circuito elettronico, anche se è preferibile utilizzare reti neurali di piccole dimensioni per ridurre il consumo energetico, la velocità di calcolo e per evitare gli inconvenienti dovuti ai difetti e al rumore dell’hardware. Ci sono quattro tipologie di circuiti utilizzabili per realizzare un reservoir computing: circuiti analogici, field-programmable gate array (FPGA), circuiti integrati su larga scala (VLSI), unità memristive.

Una versione molto semplice di reservoir computing è costituita da un singolo nodo non lineare con una linea di ritardo. Dal punto di vista realizzativo è molto semplice realizzare un circuito che abbia una simile architettura, a patto di aggiungere altre componenti hardware in grado di effettuare il pretrattamento dell’input e le funzioni del terzo strato della rete, l’elaborazione del segnale di output. Questa tecnologia è stata utilizzata per il riconoscimento di cifre digitali codificate come segnali audio, per attività di predizione su serie temporali e su tracce ECG.

L’uso di FPGA consente di aumentare la complessità della rete neurale presente nello strato intermedio di elaborazione, utilizzando un’ampia varietà di neuroni: binary neurons, sigmoid neurons, stochastic neurons, spiking neurons. In particolare, gli FPGA sono stati utilizzati per realizzare liquid state machines, come caso particolare di hardware neuromorfico. I segnali in ingresso sono codificati come pattern temporali formati da sequenze di spike (picchi di tensione elettrica) diversamente da come accade per i circuiti analogici. Un campo particolarmente interessante per questo tipo di sistemi è quello del riconoscimento del parlato, dove il segnale audio viene prima convertito in cocleogrammi (una rappresentazione che riprende il modello cocleare dell’orecchio) e poi trasformato in una sequenza di spike. La sequenza di spike in uscita passa attraverso un filtro passabasso, viene campionata ed elaborata per produrre il valore di uscita.

L’uso di circuiti VLSI permette di aumentare ulteriormente la dimensione della rete neurale. Alcuni esperimenti hanno dimostrato la fattibilità di sistemi formati da 256 neuroni artificiali e 33.000 sinapsi in cui i segnali di ingresso e di uscita sono codificati come sequenze di numeri binari. Più recentemente sono state proposte soluzioni basate su spike e impulsi, anziché su codifica di numeri binari. La caratteristica più importante di questi sistemi è l’uso di tecniche di elaborazione asincrone che usano sia una codifica temporale per convertire i segnali analogici in impulsi che uno schema computazionale basati su eventi. Risultati significativi sono stati ottenuti nel riconoscimento di schemi epilettici nelle tracce ECG e nel riconoscimento biometrico basato su schemi di movimento degli arti inferiori.

Significativamente differente è la realizzazione di un sistema basato su reservoir computing mediante elementi memristivi, componenti elettronici che possiedono la caratteristica di variare nel tempo la resistività a seconda del flusso di corrente che li ha attraversati.

L’esistenza di un memristore è stata prevista teoricamente da Chua e Kang sin dal 1976 e realizzata fisicamente nel 2008 usando fili sottilissimi di diossido di titanio. Nonostante il dibattito sulla definizione di circuito passivo, i memristori sono stati effettivamente realizzati e le loro caratteristiche li rendono molto promettenti per il reservoir computing, dove sono utilizzati in due modalità diverse: circuiti neurali e sinapsi mremistive oppure unità mremistive senza unità neurali.

Come già detto in precedenza, il calcolo neuromorfico non si basa sull’architettura von Neumann dei processori digitali. Numerosi dispositivi neuromorfici sono stati realizzati finora e, tra questi, i sistemi basati su memristori rappresentano una sottoclasse molto importante, in grado di imitare la plasticità sinaptica tipica dei neuroni biologici utilizzando la conduttanza dei memristori per realizzare i pesi parametrici delle sinapsi. Numerosi esperimenti hanno dimostrato la fattibilità di reti neurali cellulari mediante ESN basate su memristori.

La loro semplice struttura topologica ha permesso l’esecuzione di simulazioni numeriche che hanno verificato con successo le prestazioni del modello proposto, dimostrandone però il comportamento degradato rispetto ad altri modelli basati su topologie a connessione casuale, nella previsione di serie temporali. L’assenza di unità neurali non impedisce ai sistemi basati su unità mremistive di effettuare trasformazioni non lineari sui dati di ingresso.

Questo risultato ha stimolato numerose attività di ricerca, che hanno proposto sistemi con caratteristiche specifiche di corrente e voltaggio. Un recente articolo pubblicato su Nature Machine Intelligence, a cura di Wang e colleghi (tra cui Gallicchio dell’Università di Pisa), ha evidenziato l’efficacia e l’efficienza computazionale di sistemi basati su hardware memristivo nella realizzazione di reti neurali di tipo reservoir computing profondo, con particolare applicazione all’analisi di grafi, aprendo nuove prospettive in ambiti quali i social network e la scoperta di farmaci.

Fotonica

L’uso della fotonica per realizzare sistemi di reservoir computing è documentato da un’ampia letteratura. Nel seguito presenteremo questa tecnica distinguendo tra array di reservoir distribuiti spazialmente e reservoir con linee di feedback con ritardo.

Il primo esempio di reservoir computing fotonico è stato realizzato nel 2008 da Vandoorne e successivamente migliorato nel 2011 sulla base di simulazioni numeriche. Il successivo prototipo del 2014 era formato da un circuito integrato formato da una matrice 4 x 4 di amplificatori ottici, connessi tra loro in una configurazione di tipo “swirl”. Il terzo strato, di elaborazione del segnale proveniente dalla parte neurale, era composto da 11 dei 16 nodi, mediante rilevatori ottici non lineari. Il segnale di ingresso era inviato a un singolo nodo e il processo di addestramento effettuato offline. Gli esperimenti effettuati hanno avuto successo nella realizzazione di un operatore logico XOR, nel riconoscimento di particolari pattern e nella classificazione di cifre digitali codificate mediante segnali vocali. Uno dei principali problemi incontrati nell’uso di questa tecnica è la brevissima durata del ritardo di feedback che rende il tasso delle operazioni svolte molto elevato per un’applicazione pratica. Altri prototipi sono stati realizzati utilizzando una piattaforma fotonica di cristallo, per i quali i risultati di simulazione numerica hanno mostrato buone prospettive.

La seconda tecnica utilizza l’opto-elettronica e il feedback con guadagno. La prima verifica sperimentale è stata effettuata nel 2012, utilizzando una sorgente laser inviata a un modulatore per l’elaborazione del segnale. Il segnale di uscita raggiunge un fotodiodo ed è combinato elettronicamente con il segnale di ingresso. Le applicazioni sono relative alla generazione di equazioni NARMA di ordine 10, equalizzazione di un canale non lineare, riconoscimento di cifre digitali codificate con un segnale audio. Un’evoluzione di questa tecnica è rappresentata da sistemi in cui la non linearità non è ottenuta da un elemento elettronico ma dalla risposta non lineare di un laser quando un segnale con ritardo attraversa la sua cavità. Anche in questo caso gli esperimenti si sono concentrati sul riconoscimento delle cifre codificate con segnali audio e sulla predizione di serie temporali caotiche.

Spintronica

Lo spin è una proprietà magnetica degli elettroni, che può assumere due valori quantizzati, convenzionalmente chiamati “su” e “giù”. I sistemi di reservoir computing realizzati con questa tecnologia si dividono i tre categorie: oscillazione di spin, onde di spin e skyrmioni. L’uso di uno spin torque oscillator è stato dimostrato nel 2017 da Torrejon, che ha usato un elemento fisico formato da due ferromagneti separati da un sottile isolante.

Il funzionamento di questo dispositivo sfrutta una relazione non lineare tra la corrente di ingresso e la frequenza di oscillazione, oltre che a una transizione storicamente dipendente dalle variazioni di spin. Gli esperimenti di riconoscimento di cifre digitali codificate con un segnale audio hanno dimostrato prestazioni molto soddisfacenti. In fisica delle particelle, uno skyrmione è un’ipotetica particella correlata originariamente con i barioni. Le sue proprietà sono sfruttate per ottenere un vortice magnetico a livello particellare in un materiale magnetico. Ancora una volta, alla base del funzionamento di questa tecnica c’è la dinamica non lineare e la dipendenza storica dello spin. I primi risultati sperimentali sono stati ottenuti nel 2018.

Meccanica

Un interessante campo di applicazione del reservoir computing è quello della cosiddetta soft robotics (in italiano robotica morbida). Un soft robot ha un corpo formato da materiale soffice e flessibile, molto difficile da controllare a causa della sua complessa dinamica.

Tuttavia, proprio questa complessità, caratterizzata da un elevato grado di non linearità, può essere sfruttata per realizzare un sistema di reservoir computing in cui lo strato di elaborazione è proprio il corpo del robot. Nel 2006 Pfeifer e Bongard hanno chiamato questa originale ed esotica forma di calcolo morphological computing. Fra tutte le soluzioni descritte in letterature, quella più affascinante consiste in un sistema muscolare idrostatico ispirato ai tentacoli di un polpo.

Nakajima e il suo gruppo di ricerca è riuscito nell’estrema realizzazione di un soft robot privo di scheletro rigido, dotato di un numero pressoché illimitato di gradi di libertà. Nonostante l’elevata ed estremamente variabilità dinamica di questo braccio robotico, il suo movimento è stato appreso da una ESN, sia mediante simulazione numerica che in un esperimento fisico che ha utilizzato un prototipo di silicone. Questi sorprendenti risultati hanno aperto un nuovo e innovativo campo di ricerca teorica ma, soprattutto, sperimentale.

Biologia

Uno dei misteri delle neuroscienze è il meccanismo che consente le capacità computazionali del cervello umano. Nel tentativo di risolvere questo mistero, un’intensa attività di ricerca è stata effettuata, ed è ancora in fase di svolgimento, per tentare di spiegare questa capacità cerebrale prendendo come punto di riferimento i modelli computazionali delle reti neurali artificiali e le tecniche di apprendimento automatico. Nel tentativo di comprendere come l’elaborazione temporale dei segnali nel cervello possa essere collegata al reservoir computing, molti ricercatori hanno fatto delle ipotesi su quali parti del cervello possano essere considerate simili allo strato intermedio di elaborazione del reservoir computing e quali, per contro, a quelle del terzo strato di readout. Per ovvi motivi pratici ma anche etici, gli esperimenti sono stati effettuati su componenti biologici in vitro.

A partire dal 1995, Dominey ha rilevato un caso specifico di reservoir computing nei modelli cortico-striatali preposti all’elaborazione sequenziale delle informazioni dipendenti dal contesto. Successivamente è stato proposto un approccio computazionale più generale basato sulle LSM (liquid state machine). A partire da questa ipotesi si è aperto un ampio dibattito sull’effettivo svolgimento delle attività cerebrali secondo il modello del reservoir computing, alla ricerca delle specifiche parti coinvolte. Numerosi indizi hanno portato a identificare tali regioni nelle reti corticali e subcorticali, dedicate all’elaborazione dei segnali spaziotemporali, in particolare quelli relativi alla visione. La notevole complessità tecnica di queste ricerche non può essere riassunta in poche parole, rimandando il lettore interessato all’ampia letteratura citata nell’articolo di Tanaka.

L’uso di cellule coltivate in vitro come substrato fisico per la realizzazione di sistemi di reservoir computing è un affascinante esempio di come sia possibile applicare principi teorici alla biologia. Tra tutti gli esperimenti citati da Tanaka, particolare attenzione merita quello effettuato da Sussillo e Abbott nel 2009. Un robot mobile viene controllato attivamente da un reservoir biologico formato da neuroni in cultura. Il robot riesce a evitare ostacoli e attraversare un semplice labirinto. Infine, in un altro esperimento biologico un reservoir formato da batteri Escherichia coli è in grado di reagire a diverse sostanze chimiche generando complesse ma coerenti sequenze temporali.

Aspetti formali del reservoir computing

Dopo aver elencato un lungo elenco di supporti fisici in grado di svolgere una pur semplice forma di calcolo viene spontaneo interrogarsi sul concetto stesso di calcolo. Storicamente, il calcolo è stato considerato un’attività esclusivamente umana, in cui entità numeriche sono manipolate secondo procedure formalmente definite.

Nel passato, il grande sogno, e la speranza, degli scienziati è stato quello di costruire una macchina capace di svolgere tali procedure in maniera automatica, liberando l’umanità da un compito impegnativo ma monotono e ripetitivo. La storia degli strumenti del calcolo è nota e non necessita di essere ripetuta.

Nel 1936, Turing ebbe l’intuizione di modellare le attività svolte da un umano, ad esempio, un matematico, per lo svolgimento di un calcolo mediante una macchina astratta, definendone minuziosamente i componenti e il funzionamento. In onore del suo inventore, questa entità astratta è chiamata macchina di Turing.

Prima di Turing c’erano stati molti tentativi di modellare e realizzare fisicamente una macchina in grado di calcolare. La genialità di Turing fu invece l’aver dato una definizione matematica della sua macchina, libera da qualsiasi vincolo realizzativo, addirittura dotata di un nastro di lunghezza infinita su cui leggere e scrivere simboli. La parte centrale della macchina di Turing è la sua unità di controllo, definita in termini di un automa a stati finiti, in grado di leggere dal nastro infinito il simbolo corrente mediante una semplice testina e di scrivere, sempre con la stessa testina, il simbolo successivo per poi spostarsi a destra o a sinistra. Parlando di questa unità di controllo Turing evocò gli “stati della mente” e non gli stati fisiologici del cervello, con la precisa volontà di liberare il calcolo dal supporto fisico in grado di effettuarlo. Per parecchi decenni, e ancora adesso in larga misura, il calcolo è qualcosa di astratto, controllato e svolto dalla mente umana (e dai calcolatori digitali) mediante il cervello (i circuiti integrati in silicio). Metaforicamente, l’impatto di Turing sulla calcolabilità è stato devastante: tutto ciò che può essere pensato in maniera razionale può essere calcolato da un calcolatore digitale.

Per fortuna la scienza non si accontenta mai di una spiegazione o di una soluzione ma cerca di approfondire gli aspetti profondi dei problemi. Nel caso del calcolo, l’assunzione che debba essere sempre ricondotto a una procedura formalmente definita esclude un intero universo di casi in cui un problema viene risolto in maniera intuitiva o, come adesso accade con le reti neurali profonde, mediante tecniche puramente statistiche di apprendimento. Non si tratta più di qualcosa che Jaeger chiama “calcolo algoritmico”, ma di una diversa forma di “calcolo cibernetico”, in cui non si procede per passi elementari eseguiti sequenzialmente da un’entità astratta, secondo un processo continuo che elabora una sequenza di segnali, producendo un’altra sequenza in uscita. Per superare questa dicotomia Jaeger propone una nuova forma di calcolo, chiamato fluent computing, in cui le caratteristiche del calcolo algoritmico sono formalmente mescolate con quelle del cibernetico. Non ci interessa entrare nei dettagli di questa proposta, non unica nel suo genere, ma piuttosto riflettere su come queste due definizioni di calcolo possono spiegare il calcolo neuromorfico e il reservoir computing.

Una rete neurale, definita formalmente in maniera molto precisa, viene simulata (e quindi eseguita) da un programma software che realizza un ben determinato algoritmo. La ricerca degli ultimi decenni ha progressivamente migliorato questo algoritmo, ampliando le capacità delle reti neurali sia nella fase di apprendimento che in quella di riconoscimento e, più recentemente, di generazione. L’equivoco di fondo consiste nel confondere il calcolo svolto in astratto da una rete neurale con le attività (digitali) della macchina che esegue il programma in grado di svolgere questo calcolo. Nel caso delle normali procedure di calcolo, quelle che aveva in mente Turing, esiste una corrispondenza diretta tra l’algoritmo e il calcolo vero e proprio. Nelle reti neurali questa corrispondenza si perde, perché la macchina astratta che svolge il calcolo, la rete neurale, non opera in maniera esplicita ma reagisce ai valori di ingresso in base ai valori che sono stati utilizzati nella fase di addestramento. Mentre è possibile fermare una macchina di Turing e capire in quale fase si trova nel calcolo che sta svolgendo, non è possibile capire dal valore dei parametri di una rete neurale il significato del calcolo in corso. Non a caso si parla di “scatola nera” e di non spiegabilità del calcolo delle reti neurali.

Il calcolo neuromorfico, e il reservoir computing in particolare, enfatizzano questa distinzione, sostituendo la componente di calcolo della rete neurale con un supporto fisico in grado di comportarsi come se la rete (il reservoir) fosse simulata in maniera digitale. Si tratta di una curiosa inversione, in cui il supporto fisico smette di comportarsi in maniera logica, simulando le operazioni che svolgerebbe un umano, per agire in maniera analogica reagendo a segnali in ingresso con segnali coerenti in uscita, esattamente come succede con il cervello, strutturalmente organizzato come un’enorme rete di neuroni collegati con sinapsi. Dopo un lento e costante sviluppo del calcolo algoritmico è stato possibile prima simulare digitalmente il comportamento dei neuroni e poi sostituirli con una loro equivalente versione fisica o biologica.

Conclusioni

Il calcolo neuromorfico, e nella sua versione semplificata il reservoir computing, costituisce una delle tante frontiere dell’intelligenza artificiale. Il cervello umano resta ancora un grande mistero biologico, capace di trasformare segnali elettrici e chimici in emozioni, sentimenti, ragionamento. Se un giorno le macchine avranno una coscienza, molto probabilmente saranno dotate di un’unità di calcolo neuromorfica, capace di provare “nativamente” emozioni e sentimenti. Fin quando l’unità di calcolo sarà digitale, le macchine potranno soltanto simulare emozioni e sentimenti, limitandosi a sognare “pecore elettriche”.

Ringraziamenti

L’autore desidera riconoscere il supporto del progetto Europeo EIC Pathfinder EMERGE (GA N. 101070918) e di NEURONE, un progetto finanziato dall’Unione Europea – Next Generation EU, M4C1 CUP I53D23003600006, nell’ambito del programma PRIN 2022 (codice prj. 20229JRTZA, Ministero dell’Università e della Ricerca).

Bibliografia

Yan, M. et al. (2024), Emerging opportunities and challenges for the future of reservoir computing, Nature Communications, 15:2056, DOI 10.1038/s41467-024-45187-1.

Jaeger, H. (2001), The ‘‘echo state” approach to analysing and training recurrent neural networks, Technical Report GMD Report 148, German National Research Center for Information Technology.

Jaeger, H., Haas, H. (2004), Harnessing nonlinearity: predicting chaotic systems and saving energy in wireless communication, Science, 304, 78–80.

Maass, W. (2011), Liquid state machines: motivation, theory, and applications, Computability in context: computation and logic in the real world, World Scientific, 275-296.

Fernando, C., Sojakka, S. (2003), Pattern recognition in a bucket, European conference on artificial life, Springer, 588–597.

Verstraeten, D., Schrauwen, B., D’Haene, M., Stroobandt, D. (2006), The unified reservoir computing concept and its digital hardware implementations, Proceedings of the 2006 EPFL LATSIS Symposium, 139–140.

Gallicchio, C., Micheli, A., Pedrelli, L. (2017), Deep reservoir computing: A critical experimental analysis, Neurocomputing, 268, 87-99.

Tanaka G. et al. (2019), Recent advances in physical reservoir computing: A review, Neural Network, 100-123.

Chua, L. O., Kang, S. M. (1976), Memristive devices and systems, Proceedings of the IEEE, 64, 209–223.

Wang, S., Li, Y., Wang, D., Zhang, W., Chen, X., Dong, D., Wang, S., Zhang, X., Lin, P., Gallicchio, C., Xu, X. (2023), Echo state graph neural networks with analogue random resistive memory arrays, Nature Machine Intelligence, 5(2), 104-113.

Vandoorne, K. et al. (2008). Toward optical signal processing using photonic reservoir computing, Optics Express, 16, 11182–11192.

Vandoorne, K. et al. (2011), Parallel reservoir computing using optical amplifiers, IEEE Transactions on Neural Networks, 22, 1469–1481.

Torrejon, J. et al. (2017), Neuromorphic computing with nanoscale spintronic oscillators, Nature, 547, 428.

Pfeifer, R., Bongard, J. (2006), How the body shapes the way we think: a new view of intelligence, MIT Press.

Nakajima, K. et al. (2013), A soft body as a reservoir: case studies in a dynamic model of octopus-inspired soft robotic arm, Frontiers in Computational Neuroscience, 7, 91.

Dominey, P. F. (1995), Complex sensory-motor sequence learning based on recurrent state representation and reinforcement learning, Biological Cybernetics, 73, 265–274.

Dominey, P. F. (2013), Recurrent temporal networks and language acquisition – from corticostriatal neurophysiology to reservoir computing, Frontiers in Psychology, 4, 500.

Sussillo, D., Abbott, L. F. (2009), Generating coherent patterns of activity from chaotic neural networks, Neuron, 63, 544–557.

Turing, A. M. (1936), On computable numbers, with an application to the Entscheidungsproblem, Proc. Lond. Math. Soc. 42, 230–265.

Jaeger, H., Noheda, B., van der Wiel, W.G. (2023), Toward a formal theory for computing machines made out of whatever physics offers, Nature Communications.

Dick, P.K., (1968), Do Androids Dream of Electric Sheep?, Feltrinelli.

EU Stories - La coesione innova l'Italia

Tutti
Video & Podcast
Analisi
Social
Iniziative
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4