L’intelligenza artificiale è impegnata da anni in una “corsa” costante che ha lo scopo di raggiungere quella perfezione della natura che è il cervello umano.
Non a caso, i notevoli progressi raggiunti nel campo della ricerca sull’intelligenza artificiale sono stati spesso favoriti dai progressi nel campo delle neuroscienze.
Va da sé, infatti, che i due settori – fisicamente distanti ma concettualmente vicini – hanno spesso “condiviso” idee e sposato soluzioni tra di loro, con tutte le opportunità possibili per i tempi a venire.
AI, verso una terza dimensione ibrida “uomo-macchina”? La sfida (morale) da vincere
AI e cervello umano: lo stato dell’arte
In un articolo[1] pubblicato su Science ad inizio settembre 2021, Liqun Luo, professore di biologia e neurobiologia della Stanford University (California, USA), ha riassunto l’attuale comprensione dei circuiti neurali dell’encefalo e di come essi si adattano all’architettura del cervello umano. L’articolo di Luo suggerisce delle nuove opportunità connesse all’apprendimento dallo sterminato campo delle neuroscienze, e di come questo campo possa stimolare l’attività del ricercato settore dell’intelligenza artificiale. Luo afferma che i neuroscienziati hanno ancora molta strada da percorrere per comprendere i vari motivi e le architetture di circuito del cervello umano, nonché di come esse interagiscono tra loro. Tuttavia, le basi sono state gettate per i ricercatori del campo dell’intelligenza artificiale: affinché venga considerato l’utilizzo di una maggiore varietà di architetture rispetto a quanto si fa attualmente si mirerà anche a collegare più architetture di circuito (insieme) per creare il tipo di sinergie che opera all’interno del cervello umano.
Luo paragona la struttura del cervello ai “mattoni” del linguaggio: se i singoli neuroni sono lettere, i “motivi dei circuiti” (circuit-motifs) sono le parole che lo compongono, con le architetture di tali circuiti che opererebbero come frasi create da una serie di parole. A ogni livello, i ricercatori del campo dell’intelligenza artificiale possono beneficiare di una migliore comprensione di come le varie parti del cervello si collegano e comunicano tra loro.
I modelli di connettività sinaptica
I modelli di connettività sinaptica – ossia i modi in cui i neuroni si collegano ad altri neuroni – definiscono il primo livello di principi generalizzati di elaborazione delle informazioni nel cervello. Questi includono alcuni dei tipi più fondamentali di circuiti neurali (come la cosiddetta “eccitazione feed-forward”[2]), che sono stati incorporati in alcune delle prime reti neurali artificiali mai sviluppate, comprese le reti neurali “profonde”[3].
Ma Luo descrive anche altri “motifs”, tra cui la “feedback inhibition”, la “lateral inhibition”, e la “mutual inhibition”. Anche se questi motivi potrebbero sorgere nei sistemi di intelligenza artificiale che utilizzano l’apprendimento non supervisionato[4], Luo – nel suo articolo – si chiede se incorporare o meno tali motivi nell’architettura dei sistemi di intelligenza artificiale, con lo scopo di aiutare a migliorare ulteriormente le prestazioni di tali sistemi.
A un livello superiore ai motivi dei circuiti vi sono le “frasi” che questi motivi creano quando sono organizzati insieme in specifiche architetture cerebrali. Per esempio, la “continuous topographic mapping” (dell’encefalo) è un’architettura in cui le unità vicine in uno strato del cervello sono collegate alle unità vicine nello strato successivo.
La “dimensionality expansion”
Questo approccio è stato incorporato nei sistemi di intelligenza artificiale che usano reti neurali “convoluzionali”, disegnate in modo da imitare la corteccia visiva animale. Un’altra importante architettura di circuito è la “dimensionality expansion”, in cui gli ingressi da uno strato con un piccolo numero di unità sono collegati a uno strato intermedio con un numero molto più grande di unità, in modo che le sottili differenze nello strato di ingresso diventano più evidenti nello strato intermedio per lo strato di uscita da distinguere. Sono importanti anche le “Recurrent neural network” (RNN), in cui i neuroni si connettono a loro stessi, spesso attraverso intermediari, in una sorta di loop. Il cervello concatena sia la “dimensionality expansion” che la RNN in modo altamente strutturato nelle diverse regioni in cui è diviso. Comprendere e sfruttare i principi di progettazione che governano queste combinazioni di motivi di circuito potrebbe aiutare l’intelligenza artificiale a migliorare notevolmente nel prossimo futuro.
Conclusioni
I ricercatori del campo dell’intelligenza artificiale dovrebbero ampliare i loro approcci in quanto, mentre nel cervello vi è una varietà di architetture che coesistono e lavorano insieme per generare intelligenza “umana”, la maggior parte dei sistemi di intelligenza artificiale si basano su un unico tipo di architettura di circuito. Ovviamente, solo il tempo ci dirà se tale cambio di corso avverrà e quali effetti potrà produrre nel medio-lungo termine.[5]
Note
- Architectures of neuronal circuits. Science ↑
- Nelle reti neurali feed-forward Nelle reti feedforward, i neuroni sono organizzati in strati, con ogni strato che passa i segnali allo strato seguente. https://homes.di.unimi.it/ferrari/RetiNeurali_2014/RN2014_05_reti_feedforward_doppio.pdf ↑
- Le reti neurali profonde (deep neural networks) sono sistemi algoritmico-informatici di apprendimento automatico che tendono ad imitare la rete del cervello con le sue cellule cerebrali (neuroni) e le varie connessioni tra questi ultimi (sinapsi). Cfr. https://notiziescientifiche.it/reti-neurali-profonde-sono-simili-al-cervello-nella-percezione-visiva/ ↑
- L’apprendimento non supervisionato (Unsupervised Machine Learning) è un sistema di apprendimento automatico basato su una serie di esempi non etichettati: si fornisce alla macchina un database di dati, l’algoritmo li analizza ed eventualmente trova un criterio di classificazione in maniera autonoma. Cfr. https://www.eage.it/machine-learning/machine-learning-non-supervisionato ↑
- Modeling AI on the Language of Brain Circuits and Architecture. HAI – Stanford University. https://hai.stanford.edu/news/modeling-ai-language-brain-circuits-and-architecture ↑