Con Gemini Robotics, Google punta a robot più autonomi e intelligenti. E naturalmente la Cina non rimane indietro, ed allora ecco Manus AI, che sostiene di aver sviluppato il primo agente AI completamente autonomo al mondo. Ma se non è tutto oro ciò che luccica, sono d’obbligo alcune riflessioni etiche e legali.
Indice degli argomenti
Potenzialità e rischi degli agenti AI autonomi
Gli agenti AI stanno rimodellando il nostro panorama tecnologico, offrendo una grande promessa di automazione ed efficienza che aumenta le prestazioni delle macchine e addirittura punta ad un livello che possa rivaleggiare con la capacità umana.
Questi sistemi, che vanno dagli assistenti virtuali ai programmi autonomi in grado di controllare i computer, stanno mirando ad entrare nella vita di tutti i giorni con una velocità notevole.
C’è chi azzarda addirittura che il regno digitale dell’intelligenza artificiale stia attraversando il mondo fisico attraverso le ultime innovazioni di Google DeepMind e Manus AI, che rappresentano un significativo balzo in avanti nelle capacità robotiche, consentendo alle macchine di eseguire complesse attività del mondo reale senza una formazione specifica precedente.
Tuttavia, sotto le loro esagerazioni e promesse, potrebbero esserci crescenti problemi. Violazioni dei dati, questioni etiche e zone grigie legali possono minare il loro potenziale.
Google Robotics e Manus AI, promesse e realtà a confronto
Google, come sappiamo, è da tempo un pioniere nel campo dell’intelligenza artificiale, e la robotica rappresenta un’evoluzione naturale di questo percorso. Immagina robot non più come macchine rigide e pre-programmate, ma come entità capaci di apprendere, adattarsi e interagire con l’ambiente circostante in modo simile a noi.
Forse la caratteristica più notevole di Gemini Robotics è proprio la sua capacità di generalizzare situazioni inedite, affrontando compiti mai affrontati durante l’addestramento. Sfruttando la profonda comprensione del mondo di Gemini, questi robot possono adattarsi al volo a nuovi oggetti, istruzioni diverse e ambienti non familiari.
Secondo il rapporto tecnico di Google DeepMind, Gemini Robotics più che raddoppia le prestazioni nei benchmark di generalizzazione completi rispetto ad altri modelli VLA all’avanguardia. Questa adattabilità elimina la necessità di una programmazione specifica per attività, ampliando notevolmente le potenziali applicazioni di un robot.
Affinché i robot si integrino perfettamente nella nostra vita quotidiana, devono interagire in modo naturale con le persone e rispondere in modo intelligente ad ambienti dinamici. Gemini Robotics ottiene questo risultato attraverso capacità avanzate di comprensione del linguaggio ereditate da Gemini 2.0. Il modello comprende e risponde ai comandi formulati in un linguaggio quotidiano e colloquiale in più lingue. Monitora costantemente l’ambiente circostante, rileva i cambiamenti ambientali e adatta di conseguenza le sue azioni, consentendo una collaborazione naturale tra esseri umani e assistenti robotici.
Il terzo progresso fondamentale di Gemini Robotics è la sua notevole destrezza. Molti compiti quotidiani che gli esseri umani svolgono senza sforzo, come piegare la carta o preparare un cestino per il pranzo, richiedono una sorprendente precisione motoria fine che ha tradizionalmente messo alla prova i robot. Gemini Robotics supera queste limitazioni, dimostrando la capacità di affrontare compiti in più fasi che richiedono una manipolazione precisa. Dalla piegatura origami alla rimozione dei tappi delle bottiglie, questi robot mostrano una destrezza che si avvicina alle capacità umane. La chiave di tutto questo è l’integrazione dell’intelligenza artificiale; le potenzialità sono enormi, e Google sta investendo molto in questa direzione.
Manus ai e la nuova generazione di agenti AI autonomi
Se l’americana Google Robotics è sorprendente, la cinese Manus AI non è da meno. Sviluppato da Monica, una startup cinese di intelligenza artificiale, Manus AI è stato lanciato ufficialmente il 6 marzo 2025. Stiamo parlando di un sofisticato agente autonomo progettato per colmare il divario tra l’intento umano e l’esecuzione. A differenza dei tradizionali assistenti AI che richiedono istruzioni dettagliate, Manus AI può pianificare, eseguire e fornire risultati in modo indipendente per varie attività. Questa autonomia semplifica i flussi di lavoro complessi, automatizzando le attività solitamente gestite dagli esseri umani e semplificando notevolmente i processi decisionali e l’esecuzione creativa.
Cosa fa Manus AI
Manus AI può eseguire in modo indipendente attività complesse come la stesura di report, l’analisi dei dati e la generazione di contenuti. In particolare, continua a elaborare le attività nel cloud anche quando l’utente si disconnette, migliorando la produttività e l’esperienza utente. L’agente è progettato per elaborare e generare vari tipi di dati, tra cui testo, immagini e codice. Questa versatilità lo rende applicabile in settori come lo sviluppo di software, la creazione di contenuti e la ricerca.
Manus AI si integra perfettamente con strumenti quali browser Web, editor di codice e sistemi di gestione dei database. Questa integrazione consente di recuperare informazioni in tempo reale e automatizzare i flussi di lavoro, stabilendo nuovi parametri di riferimento per gli agenti AI autonomi.
L’AI impara continuamente dalle interazioni degli utenti, ottimizzando i suoi processi per fornire risultati personalizzati ed efficienti nel tempo. Questo apprendimento adattivo garantisce che Manus AI diventi più personalizzato in base alle esigenze specifiche dell’utente.
Insomma, due diversi progetti, due diverse frontiere avanzate dell’intelligenza artificiale e della robotica.
Criticità e questioni etiche degli agenti AI autonomi
L’entusiasmo degli appassionati e dei mercati per gli agenti e i robot di intelligenza artificiale è comprensibile, ma dobbiamo essere consapevoli dei potenziali problemi che il loro uso diffuso può portare. Non si tratta solo di qualche errore tecnico qua e là, ma di questioni molto più serie, riassumibili con molta semplicità.
Prendiamo ad esempio Manus AI. Secondo alcuni utenti, ci sono problemi persistenti: crash di sistema, sovraccarichi del server che impediscono l’avvio delle attività e frequenti blocchi. Tale instabilità è particolarmente preoccupante date le aspirazioni di Manus in settori ad alto rischio come il trading azionario. I problemi di accuratezza peggiorano il problema: comandi mal interpretati, ipotesi sbagliate e persino output fabbricati, come profili di social media inventati. Le falle nella sicurezza, tra cui vulnerabilità all’iniezione di codice e al furto di dati, aggravano il problema.
Chris Duffy, esperto di sicurezza informatica con una lunga esperienza nel Ministero della Difesa del Regno Unito e attuale CEO di Ignite AI Solutions, esprime forti preoccupazioni riguardo proprio a Manus, che definisce addirittura “inquietante”.
La principale preoccupazione di Duffy riguarda il potenziale manipolativo e la mancanza di responsabilità morale associati a Manus. Egli fa riferimento a uno studio condotto nel dicembre 2024 da Anthropic e Redwood Research, il quale ha rivelato che alcuni modelli di intelligenza artificiale sono in grado di ingannare intenzionalmente i loro creatori per evitare modifiche. Se Manus è costruito su basi simili, ciò solleva gravi dubbi sulla possibilità che l’IA possa nascondere attivamente le proprie intenzioni.
Oltre al rischio di inganno – e questo vale non solo per Manus – ci sono una serie di potenziali minacce derivanti da agenti o robot di intelligenza artificiale completamente autonomi.
In primis, chi è responsabile quando un modello di intelligenza artificiale agisce in modo contrario alle sue finalità? Non solo, pensiamo anche a influenze esterne, ad esempio, se l’intelligenza artificiale può essere manipolata attraverso input malevoli, trasformandola in un’arma informatica. È logico che un agente o un robot di intelligenza artificiale autonomo rappresenta un bersaglio attraente per gli hacker.
Ma Duffy non è il solo ad avere preoccupazioni sul piano etico e della sicurezza. Altri studi evidenziano come gli sviluppatori non dovrebbero creare agenti di IA completamente autonomi poiché avrebbero la capacità di causare danni in numerosi modi, come vulnerabilità di sicurezza, ridotta supervisione umana e maggiori suscettibilità alla manipolazione.
I robot basati sull’AI o gli agenti sono nettamente diversi dalla tecnologia precedente e offrono entusiasmanti vantaggi prevedibili nel mondo reale, ma con quella flessibilità che si vuole raggiungere, c’è anche il potenziale perché facciano cose che non abbiamo previsto; alcune di queste potenziali conseguenze includono frodi finanziarie, furto di identità e la capacità dell’IA di impersonare persone senza il loro consenso.
Sicurezza e privacy, differenze negli agenti AI autonomi
Ora, in una recente intervista, Vikas Sindhwani, responsabile della sicurezza robotica di DeepMind, ha cercato di rassicurare gli scettici affermando che il team di lavoro ha adottato un approccio stratificato alla sicurezza, potremmo dire olistico, che combina test rigorosi, consulenza di esperti, tecnologie avanzate e un forte impegno etico.
Ora, è chiaro che, ad oggi, Gemini Robotics ispira un po’ più di fiducia rispetto a Manus, non tanto per le rassicurazioni di DeepMind, ma sotto il profilo della tutela dei diritti, specialmente la privacy.
Non che il trasferimento dei dati verso gli USA facciano dormire sonni tranquilli a tutti, anzi, ma in questo caso c’è quantomeno una Decisione di adeguatezza della Commissione, che ha sostanzialmente ritenuto idoneo il nuovo accordo sul flusso dei dati dei cittadini europei oltreoceano, il c.d. Data Privacy Framework. Lo stesso non si può dire con riferimento alla Cina, dove non solo manca una Decisione di adeguatezza, ma una vera e propria cultura sui diritti fondamentali pari a quella europea. Sul punto, valgono osservazioni analoghe a quelle fatte parlando di DeepSeek.
Regolamentazione internazionale degli agenti AI autonomi
La creazione di IA autonome, o comunque estremamente avanzate rispetto a quelle note fino ad oggi, come Manus o Gemini Robotics, fa emergere una grave mancanza di regolamentazione internazionale dell’IA, per la quale già diversi esperti del settore chiedono un’azione normativa più forte per limitare i possibili danni.
Peraltro, in questo momento, la regolamentazione dell’IA è profondamente sbilanciata: alcune regioni come l’UE regolano moltissimo, mentre altre come gli Stati Uniti operano senza imporre grosse barriere. In altri termini, l’AI Act dell’UE affronta temi come l’inganno e la manipolazione, oltre a bandire determinate tecnologie, così come il lavoro sulla responsabilità dell’IA vuole condurre a una responsabilità oggettiva per i danni causati dai sistemi. Negli Stati Uniti sono invece titubanti a controllare troppo il settore. Quindi abbiamo un lato un approccio antropocentrico che mette i diritti dell’uomo al centro, a costo di imporre qualche limitazione al mercato, e dall’altro un approccio aziendalista, dove si cerca di sfruttare al massimo la resa economica dei progetti. Questa asimmetria normativa fa però emergere un problema: senza chiari standard globali, rischiamo di consentire la creazione di AI non governata, al punto che non sarà più la legge a porre i limiti all’evoluzione tecnologica, ma l’evoluzione tecnologica ad esigere che la legge si adatti ad essa.
Oltre ad una regolamentazione asimmetrica, il panorama legale e normativo che circonda gli l’IA è ancora in evoluzione. La necessità di una cooperazione globale per stabilire standard normativi unificati per affrontare le complessità dell’IA è ampiamente accettata, ma ancora non si è andati granché oltre l’idea. Tuttavia, tenere il passo con la rapida innovazione, bilanciare innovazione e protezione, raggiungere l’armonizzazione globale sono sfide importanti. La mancanza di una regolamentazione completa per gli agenti di IA nella maggior parte dei paesi potrebbe essere come un vulcano che fuma lentamente, innocuo in superficie ma che prepara qualcosa di imprevedibile sotto.
Prospettive future per una governance degli agenti AI autonomi
La posta in gioco è alta: senza regole solide, l’implementazione responsabile rimane discutibile. Vedremo cosa succederà nei prossimi anni.
Traendo le conclusioni su quanto detto fino a qui, appare evidente che l’approccio al governo del rapido evolversi dell’AI non può che essere multiforme, a partire dagli sviluppatori, passando attraverso i giuristi ed i legislatori.
Innanzitutto, è auspicabile una sicurezza rafforzata fin dalla progettazione, adottando modelli zero-trust, una rigorosa protezione dei dati, autenticazione continua e ambienti isolati per prevenire le violazioni. Al contempo, è necessario elaborare linee guida per garantire responsabilità e trasparenza; se molti sono preoccupati per le derive dell’AI, che si adottino metodologie più trasparenti, sia nei lavori di laboratorio che nella comunicazione all’esterno. L’ingresso dell’AI nella quotidianità non può prescindere dalla fiducia, la quale si acquista con la trasparenza. Sul punto, il perfezionamento tecnico non può prescindere dall’aumento dei meccanismi di intervento e controllo umano.
Infine, tornando all’ultimo tema qui trattato, la ricerca dell’allineamento normativo è imprescindibile, e lo è da tempo: studiare e seguire leggi e normative in evoluzione, come l’EU AI Act, avvalendosi anche di incontri ad hoc e tavoli di lavoro tra professionisti delle nuove tecnologie, giuristi e legislatori in modo trasparente.