Manus, come forse primo caso di IA autonoma totale, sta stupendo il settore, anche se è senza dubbio ancora un prototipo.
Pensate a un sistema d’intelligenza artificiale in grado di accedere a Internet, analizzare informazioni, prendere decisioni in autonomia e portare a termine azioni senza necessità di interazione con un utente umano.
Indice degli argomenti
Manus e gli agenti IA autonomi
Un agente d’intelligenza artificiale, dotato di memoria a lungo termine, progettato per eseguire compiti complessi, esplorare il web in tempo reale, raccogliere informazioni aggiornate, compilare moduli, prenotare servizi e interagire con sistemi esterni tramite API.
In poche parole, un sistema digitale in grado di trasformare le nostre idee e i nostri pensieri in azioni, senza avere bisogno del nostro permesso.
Manus AI è questo e molto di più.
Manus AI: il primo agente di IA autonomo
Nato dalla startup cinese “The Butterfly Effect” fondata nel 2023, Manus AI è il primo agente d’intelligenza artificiale autonomo su larga scala, a definire in maniera pressoché irreversibile, un cambiamento di paradigma, in cui l’AI non è più semplicemente uno strumento passivo, ma un attore indipendente capace di prendere decisioni e operare senza un controllo umano costante.
Negli ultimi 18 mesi, l’evoluzione dell’intelligenza artificiale ha portato alla nascita di agenti AI autonomi sempre più avanzati, ma nessuno di loro, per il momento, opera con lo stesso grado di autonomia di Manus AI.
Differenze tra Manus AI e altri sistemi di intelligenza artificiale
Strumenti come Copilot di Microsoft, Operator di OpenAI e Linkedin Hiring Assistant, sono stati progettati per operare all’interno di un perimetro regolamentato, sicuro e per compiti molto precisi.
Copilot è progettato per rispettare standard di sicurezza aziendali e normativi, evitando utilizzi impropri, LinkedIn Hiring Assistant lavora esclusivamente all’interno del database di LinkedIn, senza accesso illimitato a Internet e Operator esegue compiti per conto dell’utente, ma con restrizioni precise sulle azioni consentite.
Manus AI, invece, è stato progettato per eseguire interi compiti autonomamente, prendendo decisioni operative senza necessità di continua supervisione e la sua capacità di eseguire compiti online senza intervento umano, come creare reti promozionali sui social media, scrivere documenti strategici e prenotare viaggi, dimostra la potenza della cosiddetta “AI agentica” nei confronti della quale è necessaria una profonda riflessione sui possibili effetti che possono manifestarsi quando un’intelligenza artificiale agisce liberamente, senza controlli rigidi.
Architettura e impatto di Manus AI
A differenza di sistemi come ChatGPT, Bard o Claude, che funzionano principalmente su richiesta e dipendono dall’interazione utente per ogni passaggio, Manus AI, si basa su un’architettura multi-modulare che integra modelli di linguaggio avanzati (LLM) ottimizzati per la comprensione e la generazione del linguaggio naturale, con le capacità di un motore di pianificazione decisionale che “ragiona” su obiettivi e suddivide compiti complessi in sotto-task, stabilendo in autonomia le priorità di esecuzione.
È fin troppo evidente che questa crescente autonomia decisionale, seppur scontata dal punto di vista tecnologico, sollevi interrogativi cruciali su diverse questioni di governance, di sicurezza logica e fisica, ma anche sul futuro dell’innovazione.
La rivoluzione di Manus AI e la questione della sostenibilità dell’IA autonoma
Partiamo da quest’ultima.
Ciò che rende rivoluzionario Manus AI, non è solo la sua tecnologia (in parte basata su modelli esistenti), ma il fatto che sia stato rilasciato su larga scala senza i limiti imposti, almeno in linea teorica, ai grandi laboratori occidentali come OpenAI, Anthropic e Google, che tradizionalmente hanno adottato fino ad oggi un approccio più cauto.
Ma quanto resterà sostenibile nel tempo un ecosistema in cui alcuni player scelgono più o meno volontariamente la sicurezza e altri puntano alla autonomia dei sistemi di AI?
Dal mio punto di vista, questi ultimi, potrebbero guadagnare un vantaggio di mercato nel breve termine, forzando i competitor ad adottare strategie simili, ma amplificando il rischio di esporre persone, dati e infrastrutture a vulnerabilità impreviste e ad oggi non del tutto prevedibili.
Regolamentazione e sfide normative per l’IA autonoma
A ciò si deve aggiungere il pilastro fondamentale delle norme, come l’AI Act, che in Europa provano a definire un perimetro entro cui anche l’intelligenza artificiale deve operare, ma con quali risultati?
Non serve un esperto per capire che in un contesto in cui il modello di offerta si basa su velocità di esecuzione e basso costo, le regole tendano a rallentare l’ecosistema, ma soprattutto è chiaro almeno ai player coinvolti, che i tempi di attuazione delle norme rispetto a quelli dell’evoluzione tecnologica non siano compatibili fra loro e questo aspetto apre due possibili scenari:
- la possibilità di continuare a sviluppare soluzioni anche ai confini delle leggi
- rifiutarsi di accettare le imposizioni normative sviluppare soluzioni solo in una logica di massima profittabilità.
Implicazioni geopolitiche e sociali degli agenti AI autonomi
Purtroppo, l’attuale panorama geopolitico a livello mondiale e la totale mancanza di sovranità digitale europea, rendono il secondo scenario decisamente appetibile tanto agli USA quanto alla Cina, la cui competizione potrebbe stimolare altre aziende tecnologiche a decidere se adottare un modello più prudente o accelerare lo sviluppo di soluzioni autonome per non restare indietro e quindi favorire attori meno attenti alla sicurezza, mettendo a rischio dati, asset fisici e infrastrutture.
Ma c’è di più.
L’adozione su larga scala di agenti AI come Manus potrebbe avere un impatto significativo su diversi ambiti, come il mercato del lavoro, la manipolazione delle informazioni, già sotto pressione con i sistemi attuali, e ovviamente la cybersecurity, per garantire la quale diventerebbe essenziale implementare soluzioni a loro volta basate su AI a tutela di persone, dati e informazioni.
Verso un equilibrio dinamico tra innovazione e sicurezza
Come uscire da questa possibile situazione di “caos creativo”?
Manus AI dimostra per la prima volta con estrema chiarezza che il futuro dell’intelligenza artificiale non sarà contenuto nei laboratori, ma si svilupperà direttamente nel mondo reale, aprendo nuove opportunità e ovviamente, introducendo nuovi rischi esponenziali.
Ritengo che la risposta migliore, consista nel cercare e imporsi un equilibrio dinamico.
La sensazione di caos creativo che accompagnerà il rilascio di agenti AI autonomi non deve trasformarsi in una narrativa di paura e immobilismo, ma in una chiamata all’azione intelligente e consapevole in cui il progresso tecnologico deve essere guidato dalla preparazione e non dalla reazione ai problemi una volta che si manifestano.
Non possiamo permetterci di inseguire l’innovazione all’infinito, tentando di regolamentarla solo dopo che i problemi emergono, dobbiamo piuttosto anticipare i rischi, costruendo un modello di governance in cui la sicurezza non sia un ostacolo, ma un abilitatore dell’innovazione sostenibile.
La necessità di una governance consapevole dell’AI
Il futuro dell’AI non si costruisce con divieti assoluti, né con il liberismo totale, ma con binari sicuri su cui farla correre senza dimenticare che la tecnologia è solo uno strumento non in grado di decidere il nostro futuro, a meno che non siamo noi a lasciarlo fare. La responsabilità della scelta, quindi, è solo nostra: imprese, governi, cittadini.
Serve consapevolezza, per evitare che solo pochi comprendano i reali impatti della tecnologia, servono meccanismi di responsabilizzazione chiari, ma soprattutto è irrinunciabile una supervisione umana di tutti i processi critici, non per rallentare, bensì per assicurare una guida etica e strategica.
Il momento di governare l’intelligenza artificiale era ieri, di certo è ancora oggi, ma se non iniziamo ora, domani potrebbe essere troppo tardi.