L’intelligenza artificiale oggi sembra “paralizzata” su ambiti molto specifici e limitati, ma per compiere un salto di qualità deve aggiungere neuroplasticità alle reti neurali artificiali.
Infatti, i neuroni artificiali hanno minore capacità di evolvere rispetto al nostro cervello umano che invece non smette mai di modificarsi grazie, appunto, alla plasticità cerebrale (o neuroplasticità).
AI, verso una terza dimensione ibrida “uomo-macchina”? La sfida (morale) da vincere
Neuroplasticità e apprendimento
Precedentemente alla scoperta della neuroplasticità, i fisiologi credevano che, una volta terminato lo sviluppo del cervello umano, le connessioni tra i neuroni non potessero più cambiare. Invece la plasticità cerebrale si riferisce proprio alla capacità del cervello di evolvere nel corso della nostra vita. Si tratta di un processo che avviene continuamente: la materia grigia si riorganizza, formando nuove connessioni tra le cellule cerebrali (i neuroni) che la compongono.
I cambiamenti associati all’apprendimento si verificano principalmente a livello delle connessioni tra i neuroni.
Oltre alla formazione di nuove connessioni, può anche cambiare la struttura interna delle sinapsi esistenti. Il modo con cui i neuroni del nostro cervello combinano oggi gli stimoli in ingresso può dipendere dall’intensità o dalla frequenza degli stimoli esterni che hanno ricevuto in passato.
Le neuroscienze ci insegnano che la neuroplasticità dipendente dall’attività ha implicazioni significative per lo sviluppo, l’apprendimento, la memoria e il recupero da lesioni/danni cerebrali.
Reti neurali artificiali e neuroni
Paragonati ai neuroni biologici, gli elementi di elaborazione delle reti neurali artificiali (anch’essi chiamati neuroni) hanno una plasticità molto limitata.
Le connessioni tra i neuroni artificiali sono corredate di parametri (i pesi). L’apprendimento computazionale consiste primariamente nel modificare i valori di questi parametri sulla base delle differenze tra i valori di uscita attesi e quelli effettivi per un certo insieme di valori di ingresso, il cosiddetto training set.
Nel passato, gli esperti di apprendimento computazionale amavano ripetere che, anche se le reti neurali artificiali hanno somiglianze superficiali con il cervello umano, non hanno lo scopo di modellarlo, ma solo di risolvere problemi specifici di classificazione o predizione.
Oggi però si registra un crescente interesse per la possibilità di dotare le reti neurali artificiali di meccanismi di neuroplasticità simili a quelli dei neuroni biologici, con l’idea che siano proprio questi meccanismi a supportare lo sviluppo (o la perdita) di alcune funzioni cognitive umane.
L’intelligenza artificiale e memoria
Per quanto riguarda la plasticità attività-dipendente nel cervello umano, il rafforzamento o l’indebolimento delle sinapsi determina un aumento o una diminuzione della frequenza di scarica dei neuroni, chiamati rispettivamente potenziamento a lungo termine (LTP) e depressione a lungo termine (LTD).
L’azione sinergica di vari tipi di plasticità sinaptica è associata alla memoria umana e la rende molto diversa da quella delle macchine.
La differenza è probabilmente dovuta alla superiorità dell’uomo sull’intelligenza artificiale in alcuni compiti cognitivi legati alla memoria, come il completamento di immagini parzialmente cancellate. Si tratta di un problema notoriamente difficile da risolvere con reti neurali profonde di tipo tradizionale come LSTM, in cui la rete viene addestrata con immagini integre e parzialmente cancellate e poi deve ricostruire un’immagine mai vista prima sulla base di un frammento.
La superiorità umana in questi compiti cognitivi legati alla memoria sembra dovuta alla sinergia tra modifiche strutturali che intervengono in momenti diversi.
La ricerca recente in neuroscienze ha infatti dimostrato che la plasticità sinaptica è completata da altre forme di plasticità attività-dipendente:
- la plasticità intrinseca, che cambia l’eccitabilità del neurone;
- la plasticità omeostatica, che contribuisce a codificare nostri ricordi direttamente nella struttura neuronale cerebrale.
Plasticità e intelligenza artificiale
La neuroplasticità funzionale è di grande interesse per i ricercatori informatici che operano nel settore dell’intelligenza artificiale, che cercano nuovi modi per ottenere la variazione delle capacità di un sistema neuronale adattando le proprietà funzionali dei singoli neuroni.
Per rendere le reti neurali artificiali più simili al cervello umano, i ricercatori di intelligenza artificiale hanno provato ad aggiungere altre forme di plasticità a quella classica di modifica dei pesi.
La plasticità differenziale
Un’idea base è la plasticità differenziale (Differentiable Plasticity), che consiste nell’assegnare a ciascuna connessione in una rete neurale artificiale, oltre al peso iniziale, anche un coefficiente che determina quanto la connessione sia plastica.
In questo modo, una connessione tra due neuroni ha due componenti:
- una componente fissa, il peso tradizionale della connessione;
- una plastica, rappresentata matematicamente da una traccia hebbiana, un operatore che attiva la plasticità potenziale della connessione in base agli input pervenuti in precedenza.
Quindi, in ogni momento, il peso totale effettivo della connessione tra due neuroni è la somma del peso di base, più la traccia hebbiana moltiplicata per un coefficiente di plasticità locale che dipende dalla coppia di neuroni e quindi dalla posizione all’interno della rete.
Durante il training iniziale di una rete neurale, la tecnica di Differentiable Plasticity utilizza il gradiente dell’errore per regolare i parametri strutturali (peso e plasticità locale). Dopo questa «formazione» iniziale, il modello continua ad apprendere automaticamente dall’esperienza e memorizzare nuove informazioni. Infatti, la componente plastica di ciascuna connessione è attivata attraverso la traccia hebbiana in un modo dipendente dagli stimoli precedenti.
Questa tecnica fa dipendere l’inferenza delle reti neurali artificiali dall’esperienza attraverso un meccanismo più simile a quello del cervello umano rispetto alla modifica dei pesi del training tradizionale, basata sulla discesa del gradiente dell’errore.
I risultati degli esperimenti svolti da vari gruppi di ricerca, anche in Italia, hanno mostrato che la sinergia di più tipi di plasticità che intervengono in momenti diversi può migliorare le capacità di meta-apprendimento dei modelli di apprendimento computazionale profondo, anche se non sappiamo ancora bene perché.
Conclusioni
Di recente, il beneficio della plasticità differenziale è stato verificato anche per i modelli semi-supervisionati di reinforcement learning.
Questi modelli di intelligenza artificiale sono addestrati non sulla base del gradiente dell’errore su singoli esempi di ingressi (non immediatamente rilevabile), ma sulla base di risultati complessivi di comportamenti corrispondenti a intere sequenze di ingressi.
Questi modelli sono utilizzati soprattutto nei sistemi autonomi, come i veicoli senza guidatore, che devono apprendere una pianificazione delle loro azioni (i movimenti) che massimizza un guadagno o minimizza una perdita calcolabile a posteriori.
L’adozione di modelli di apprendimento con plasticità nell’ambito dei sistemi semi-supervisionati promette una decisa accelerazione della ricerca sui robot autonomi e sui veicoli senza guidatore in ambiente controllato. Su entrambi i settori si giocano alcune delle grandi promesse di mercato dell’intelligenza artificiale.