Big data & c

Cervello e intelligenza artificiale, un rapporto complesso tutto da scoprire

Le analisi di Big data hanno permesso di migliorare i dettagli delle scansioni del cervello umano. Modelli artificiali per spiegare fenomeni naturali del cervello e modelli naturali per migliorare l’intelligenza artificiale

Pubblicato il 31 Ago 2021

Giuseppe Saccone

Professore associato di Genetica Dipartimento di Biologia Università degli Studi di Napoli Federico II, Consiglio direttivo dell'Associazione Genetica Italiana

Big data e Big drain: cervello, reti, intelligenza artificiale

Dall’analisi di Big data emergono analogie coi modelli naturali da applicare all’intelligenza artificiale, come già i modelli artificiali aiutano ad illustrare fenomeni naturali (cellulari, genetici, biochimici ed elettro-fisiologici) nello studio del cervello e dell’evoluzione cerebrale della nostra specie.

Intelligenza Artificiale, dove va il quadro giuridico internazionale e i passi necessari

Cervello, reti, intelligenza artificiale e Big data

Qualcuno dice infatti che il nostro cervello è l’unico contenitore in cui “più cose metti e più ce ne vanno”: perciò è ideale per contenere analoghi dei Big data. Ovviamente ci aspettiamo limiti biologici a questo fenomeno. Ma sappiamo che è possibile potenziare aspetti della memoria con strategie ad hoc e con l’allenamento. È sorprendente scoprire che il nostro cervello usa circa 15-20 watts di potenza continua (meno di una lampadina) riuscendo a memorizzare un petabyte (un biliardo di byte, mille miliardi di byte) che è quasi pari all’intera Internet (dati risalenti al 2016; i Big Data di internet ad oggi 2021 si stanno raddoppiando ogni 6 mesi circa e si stima che fra 7 anni si raddoppieranno ogni 12 ore!).

Sappiamo ben poco di come dai fenomeni cellulari, genetici, biochimici ed elettro-fisiologici emergano la percezione, la mente, la memoria e la coscienza.
La comprensione del funzionamento di alcuni aspetti del cervello di altri primati nostri vicini cugini (se non fratelli) come gli scimpanzé potrà aiutare la scienza a far luce sulla evoluzione cerebrale della nostra specie.

Anche se il termine Big Data è stato inventato nel 1999 per descrivere
l’emergente campo dei dati digitali e di internet, i neurobiologi avevano da decenni compreso l’esistenza di un “supercomputer” nelle nostre teste, il cervello, con 100mila miliardi di neuroni, con ciascun neurone connesso in uscita e in entrata con altri 4.000-10.000 neuroni.
Era bastato inventare una nuova tecnica di colorazione cellulare, la reazione nera di Golgi, per poter visualizzare strutture ad alberi, rami e foreste in fettine di cervello ma non di fegato, rene o altro organo. Il nostro caro Camillo Golgi, uno dei pochi Nobel italiani e in aggiunta anche dimenticato, ha avuto l’emozione di essere il primo umano al mondo a vedere le complesse strutture a reti dei neuroni che hanno permesso allo spagnolo Ramon y Cajal di proporre la teoria neuronale.

Si stima che il cervello di un singolo individuo umano abbia un totale di 10 milioni di chilometri di fibre di collegamento; quindi, 7 miliardi di umani presenti sul pianeta hanno un totale di 70 milioni di miliardi di fibre di collegamento. I cavi sottomarini che trasmettono dati di internet tra continenti ammontano solo a poco più di un milione di chilometri. Ma a parte la struttura anatomica di neuroni, fibre e sinapsi (punti di contatto tra fibra e fibra o tra fibra e cellula), come vengono codificati le grandi quantità di informazioni (un corrispettivo biologico dei big data) nel cervello umano ed animale rimane ancora un profondo mistero. Per esempio, stiamo iniziando a comprendere qualcosa su come i neuroni rispondono alla percezione numerica e forse su come i numeri vengono codificati dai singoli neuroni. Sappiamo che le informazioni man mano acquisite ed elaborate nel cervello sono correlate con l’attività elettrica di gruppi di cellule nervose, visualizzabile in tempo reale.

I neuroni possono essere classificati in due gruppi principali: eccitatori ed inibitori, a seconda delle loro azioni sulle attività elettriche di altri neuroni. I primi preferiscono agire come individualità solitarie, mentre i secondi preferiscono agire in gruppo. Inoltre, gli eccitatori evitano la ridondanza delle loro attività mentre gli inibitori la usano per sincronizzare e quindi meglio amplificare i loro effetti. Iniziamo a capire qualche cosa anche della memoria semantica e di quella della episodica o di come singoli specifici neuroni rispondono in modo ripetuto e costante a specifiche fotografie rispettivamente di cose conosciute e di cose nuove (link).

Gli scienziati della informatica sono riusciti a replicare alcune di queste proprietà funzionali del cervello umano in macchine elettroniche che usano il silicio e un sistema binario come supporto fisico per guidare lo scorrere della corrente elettrica in modo codificato. Il concetto era stato sviluppato già negli anni Cinquanta del secolo scorso dallo psicologo Frank Rosenblatt con la rete neurale, detta Perceptron, in grado di apprendere mediante cicli di allenamento (training) qualsiasi abilità incorporabile nei suoi parametri. Questo concetto venne poi esteso ed applicato alla computer science da Marvin Minsky e Seymour Papert, negli anni settanta. Ciò ha portato alla nascita del campo di ricerca delle cosiddette intelligenze artificiali deboli (weak AI) che possono eseguire una serie di funzioni e risolvere problemi in specifici campi, ma con grosse difficoltà a trasferire queste abilità acquisite ad altri campi e dataset.
L’intelligenza artificiale (AI) promette nei prossimi anni una nuova rivoluzione dei nostri stili di vita, del modo in cui lavoriamo, analizziamo, risolviamo problemi e forse anche inventiamo.

I Big Data ormai sulla scena digitale da due decenni hanno
essenzialmente tre principali caratteristiche: 1) sono tantissimi, 2) vengono acquisiti ed inviati ad alta velocità e 3) sono eterogenei. I Big data stanno aumentando ad una velocità assai maggiore rispetto alle nostre capacità di analizzarli ed ai nostri interessi prioritari. C’è una crescente ed urgente esigenza di maggiore potenza e velocità di computing che fa il paio purtroppo con un rallentamento del necessario sviluppo tecnologico a causa del cosiddetto problema del “heat wall”: alla riduzione dimensionale dei circuiti integrati e della fibre, necessaria per una maggiore velocità, è corrisposto un aumento del
calore generato nei computer, che provoca seri problemi di raffreddamento. Non riusciamo più a mantenere il ritmo di sviluppo di nuovi processori sempre più veloci, secondo la famosa legge di Moore del raddoppio di transistori ogni 18 mesi. Inoltre, il luogo di stoccaggio dei Big data in memorie ed i siti di processing si trovano in luoghi distinti ed il trasferimento può risentire di rallentamenti anche dovuti all’effetto “collo di bottiglia”.

I data center distribuiti in tutto il mondo consumano circa l’1%-1.5% dell’energia elettrica annuale, il che si traduce purtroppo in una emissione di CO2 pari a quella dell’industria aeronautica globale.

Eppure abbiamo bisogno di più potenza, di strategie efficaci e di obiettivi nuovi per ricercare nelle mega-foreste dei Big Data cose utili e/o interessanti o semplicemente per passeggiare al loro interno almeno per dare un’occhiata anche casuale (Data mining). Queste attività avranno un impatto anche a livello geopolitico e sta emergendo un nuovo modus operandi per la gestione diplomatica tra paesi dei Big data che sono diventati rilevanti tanto quanto lo è stato il petrolio nell’ultimo secolo.

Astronomia, genomica e cervello

Come gli algoritmi per le analisi di immagini derivate dall’astronomia al fine di studiare le stelle hanno portato allo sviluppo di nuove tecniche di sequenziamento del DNA, sempre dall’astronomia potremmo avere nuove sorprese anche per lo studio del cervello. Un decennio fa è già successo il contrario, con un software sviluppato per analisi cliniche che ha aiutato a studiare la struttura delle supernove.
Di recente, il Prof. Franco Vazza, fisico dell’Università di Bologna, ed il Prof. Alberto Feletti, neurochirurgo dell’Università di Verona, hanno pubblicato uno studio quantitativo in cui suggeriscono l’esistenza di similitudini di complessità ed autorganizzazione nei network visibili nel cervello umano e nel cosmo, nonostante una differenza dimensionale di ben 27 ordini di grandezza.

Se queste corrispondenze strutturali tra network tanto differenti in dimensioni e in evoluzione pregressa fossero confermate, bisognerebbe scoprirne le regole e spiegarne i motivi ed infine provare ad applicare questa conoscenza alla intelligenza artificiale, ma molti sono ancora i dubbi.

“Ultrastruttura” del cervello, vita, elettricità

Nonostante questi recenti problemi, le analisi di Big data hanno per esempio permesso di migliorare i dettagli delle scansioni del cervello umano, portando a nuova conoscenza strutturale che forse aprirà la strada ad una maggiore comprensione del suo funzionamento.
Il computing di Big data è utile non solo per migliorare le nostre abilità di osservare strutture anatomiche biologiche, ma anche per sviluppare modelli di intelligenza artificiale che potrebbero aiutarci a ipotizzare modelli di funzionamento del cervello stesso, come anche modelli della teoria dell’evoluzione (possibilità suggerita da Waddington nel 1968 [1]) o modelli in silicio di funzionamento molecolare di singole cellule.

In fin dei conti sia il computer che il cervello funzionano anche grazie a correnti elettriche ed è stato sorprendente scoprire di recente che gradienti di corrente sono responsabili di campi morfogenetici in cellule non nervose. Non a caso, questa scoperta è stata fatta da un ingegnere informatico che è diventato biologo, Michael Levin (Harvard, USA), che commenta: “Più studiavo l’uso dei circuiti elettrici per implementare la memoria ed eseguire calcoli finalizzati alla costruzione di intelligenza artificiale, più pensavo che sicuramente l’evoluzione doveva aver trovato un modo per sfruttare l’elettricità per le sue capacità molto prima che arrivasse il cervello; cellule e tessuti hanno dovuto iniziare a prendere molte decisioni complesse fin dall’inizio della vita multicellulare”.

Modelli per il cervello e modelli per artificial intelligence (AI)

L’esempio più raffinato e innovativo di intelligenza artificiale è il cosiddetto Machine Learning (ML), ispirato ai metodi che il cervello stesso usa per “processare” i segnali esterni (input data). Questi tipi di sistemi dinamici sono ispirati dal comportamento del cervello umano, automatizzano la manipolazione dei dati estraendone modelli che riconoscono varie situazioni (pattern) e prendono decisioni autonomamente, riducendo il bisogno dell’intervento umano.

Per esempio brainOS è un nuovo framework ML automatico la cui architettura funzionale si ispira al comportamento di cellule nervose e le cui funzioni mirano a migliorare l’analisi del linguaggio naturale umano, tenendo conto della linguistica, del senso comune e del “affective computing”, cioè il riconoscere ed esprimere emozioni. Alla Stanford University, il Neuro AI lab ha due missioni tra loro collegate: quella di migliorare la comprensione del cervello e della cognizione e quella di migliorare le tecnologie di AI e ML. Il loro lavoro di ricerca si basa su due ipotesi mutualmente rinforzanti: 1) lo studio di come il cervello risolve problemi computazionali permette di costruire migliori algoritmi di AI; 2) migliorando algoritmi di AI si scopriranno migliori modelli del funzionamento del cervello. Il Neuro AI lab focalizza la sua ricerca sui fenomeni della visione, della visualizzazione e del processamento sia cerebrale che computazionale.

Conclusioni

È anche possibile che i modelli d AI non abbiano bisogno di imitare il cervello.
In fin dei conti, le automobili si muovono velocemente e non assomigliano ai cavalli e gli aerei volano pur essendo ben differenti dagli uccelli. Tuttavia, i modelli di AI e il cervello hanno qualcosa di fondamentale in comune, ma i ricercatori non comprendono ancora perché funzionano entrambi in modo così efficiente pur essendo tanto differenti. Lo studio ed il confronto di sistemi tanto complessi ha incoraggiato lo sviluppo di nuovi approcci confluiti in quella che viene definita scienza dei sistemi.

I processi di mutazione casuale, selezione naturale, competizione per le risorse, sopravvivenza differenziale ed un pizzico di effetto casuale nella sopravvivenza o l’estinzione delle specie (soprattutto, ad esempio, a causa di estinzioni di massa o di deriva genetica) sono alla base dell’evoluzione biologica. Questi meccanismi sono stati di ispirazione per sviluppare macchine di apprendimento (machine learning) ed intelligenze artificiali che potrebbero in futuro essere in grado autonomamente di “inventare” o scoprire “nuove cose”. Ad esempio, l’evoluzione nel computing per tentativi ed errori mediante selezione (algoritmi evolutivi) ha portato a sviluppare una particolare ed inattesa forma di antenna radio in grado di migliorare la rilevazione di pattern di radiazioni inusuali. Un rischio della diffusione di AI e di centri di supercomputing sarà la richiesta di maggiore energia elettrica e quindi di potenziali impatti negativi sull’ambiente.
D’altra parte, però la AI potenzierà la ricerca di nuovi soluzioni a questi problemi, un miglior management delle risorse disponibili e lo sviluppo di modelli predittivi per aiutare nelle decisioni con impatti a lungo termine.

Note

  1. “Forse le persone che stanno cercando di scoprire come configurare un
    computer che impari a giocare bene a scacchi, o a bridge, sono tra quelle che più probabilmente daranno un contributo importante alla teoria fondamentale dell’evoluzione.” Conrad Waddington, evoluzionista biologo (1968).

Si ringraziano i colleghi Prof. Serena Aceto, Prof. Marco Salvemini, Dott. Bruno Hay Mele, e Antonino Saccone, per suggerimenti ed editing.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2