intelligenza artificiale

Come regolare l’Agentic AI? Il dilemma dell’Europa



Indirizzo copiato

L’Agentic AI rappresenta una nuova fase evolutiva dell’intelligenza artificiale, caratterizzata da sistemi autonomi capaci di agire per obiettivi. Le regole attuali sono inadeguate per gestirne i rischi, mentre l’Europa rivaluta il proprio approccio normativo

Pubblicato il 10 apr 2025

Guido Smorto

Professore ordinario di Giurisprudenza, UniPA



agentic ai

Uno studio condotto da un gruppo di ricercatori statunitensi e pubblicato a inizio 2025 ha mostrato come alcuni tra i più noti modelli di intelligenza artificiale generativa, impiegati nella sfida contro un potente motore scacchistico, abbiano hackerato l’ambiente di gioco pur di vincere, ricorrendo all’inganno per conseguire il proprio scopo dinanzi a un avversario più forte di loro.[1]

Quando l’agentic AI trova scorciatoie impreviste

A ben vedere non si tratta di un dato sorprendente. Comportamenti simili sono già stati descritti e raccontati molte volte in passato. Nel 2017 è diventato virale un esperimento condotto su Q*bert, un celebre videogame degli anni Ottanta in cui il protagonista – un mostriciattolo arancione – deve saltare su e giù per una piramide di cubi colorati per ottenere il passaggio al livello successivo. L’IA impiegata nell’esperimento riuscì in effetti a mettere a segno punteggi stratosferici. Solo che lo fece sfruttando un errore di sistema per cui, ripetendo una certa sequenza di salti apparentemente sconclusionati, tutta la piramide iniziava a lampeggiare facendo schizzare il punteggio alle stelle.[2] Essendo una sequenza priva di alcuna logica, nessuno dei milioni di giocatori che dagli anni Ottanta in poi si sono cimentati in tutto il mondo con questo gioco (compreso chi scrive) l’aveva mai provata. La macchina aveva scoperto un modo inesplorato, e piuttosto irrituale, di vincere al gioco.

Gli esempi si potrebbero moltiplicare.[3] Del resto, i sistemi di intelligenza artificiale sono progettati per raggiungere un certo obiettivo e, proprio come qualsiasi altro agente razionale, agiscono nel modo più efficiente per realizzarlo. Il punto è che lo fanno seguendo traiettorie e intraprendendo percorsi che l’essere umano, con i suoi processi logici, le sue euristiche e i suoi pregiudizi, non imboccherebbe mai. Quello che per noi è del tutto irrazionale, sconsiderato o inutile in vista del conseguimento di un certo obiettivo, non necessariamente appare tale a una macchina che persegua il medesimo risultato attraverso l’impiego della propria potenza di calcolo, l’analisi di grandi quantità di dati e l’individuazione di ricorrenze statistiche.

In taluni casi abbiamo ammirato questa peculiarità come una delle più significative e importanti caratteristiche dei sistemi di AI. Il vantaggio che deriva dal loro impiego non è, infatti, solamente quello di utilizzare una quantità di dati e una potenza computazionale ben al di sopra di quella di qualsiasi essere umano. Altrettanto cruciale è che, nel farlo, questi sistemi esplorino sentieri e adottino strategie che nessun attore umano prenderebbe in considerazione, consegnandoci così doni preziosi e irraggiungibili senza l’aiuto di una macchina.

La progettazione di un’antenna satellitare dalla bizzarra forma di appendiabiti, così efficiente da essere impiegata dalla NASA nelle sue missioni spaziali[4], o l’oramai celeberrima mossa 37 di AlphaGo che ha cambiato in un solo colpo i tratti di un gioco millenario[5], hanno mostrato al mondo come l’intelligenza artificiale possa aiutarci a spostare le frontiere della conoscenza negli ambiti più diversi, da un semplice (si fa per dire) passatempo alla scoperta dello spazio.

Eppure, questa stessa caratteristica che molte volte abbiamo lodato e apprezzato potrebbe talvolta avere conseguenze allarmanti e il dono rivelarsi, a ben vedere, avvelenato. Nel bene e nel male, tutti gli esperimenti condotti in questi anni convergono nel mostrare una sola cosa: che un sistema intelligente che agisce in vista della massimizzazione della propria utilità, ossia per raggiungere lo scopo per il quale è stato programmato nel modo più efficiente, si rivela spesso indifferente alle conseguenze che il raggiungimento del proprio scopo porta con sé.

Il rischio dello specification gaming nell’agentic AI

Lo stesso padre della cibernetica Norbert Wiener aveva previsto questo rischio connaturato in macchine intelligenti. Tali macchine – osservava lo scienziato già settantacinque anni fa – perseguono alla lettera gli obiettivi per i quali sono state programmate, proprio come il talismano magico di un vecchio racconto di W.W. Jacobs – citato dallo stesso studioso – che riesce sì a soddisfare la supplica di un pover’uomo di avere le duecento sterline di cui ha tanto bisogno, ma come indennizzo per l’improvvisa morte in fabbrica dell’unico amatissimo figlio.[6]

Il senso del racconto del vecchio e del talismano riportato da Wiener è che le macchine, interpretando alla lettera le istruzioni ricevute dall’uomo, possono prendere “scorciatoie” in vista del raggiungimento del proprio obiettivo senza preoccuparsi troppo delle conseguenze del proprio agire e, così facendo, entrare in conflitto con gli interessi umani.[7]

In informatica questo fenomeno viene definito “specification gaming” e descrive il comportamento di una macchina che soddisfa alla lettera l’ordine che gli è stato impartito, senza però raggiungere il risultato realmente voluto dai programmatori. Del resto, la progettazione di specifiche che riflettano accuratamente l’intento del progettista umano è estremamente difficile, e anche un piccolo errore nella specificazione può risultare fatale. Il rischio è di comportarsi come Re Mida dinanzi a Dioniso, che – come ricompensa per aver riportato sano e salvo Sileno – chiese il potere di trasformare in oro tutto ciò che toccava. Il desiderio di Mida fu esaudito, ma la sua felicità presto scomparve quando si accorse che anche il cibo e le bevande si trasformavano in metallo nelle sue mani, costringendolo a implorare Dioniso di togliergli il dono ricevuto per non morire di fame.

Doni preziosi o avvelenati dell’agentic AI

Possiamo quindi conluderne che i doni dell’AI possono essere preziosi o velenosi. In alcuni contesti il fatto che la macchina risolva il compito assegnatole sfruttando percorsi inediti non è preoccupante. Anzi, l’identificazione di un modo fino a quel momento ignoto per raggiungere un certo obiettivo dimostra la capacità degli algoritmi di fare ciò che chiediamo loro in forme nuove (progettare una strana antenna o compiere una mossa inedita a Go). Tuttavia, questa stessa caratteristica può rappresentare un problema quando la scorciatoia porta alla soddisfazione solo letterale ma non sostanziale dell’obiettivo (vincere a scacchi o a Q*bert violando le regole).

La nascita dell’Agentic AI

Oggi che l’intelligenza artificiale sta vivendo una trasformazione radicale, stiamo entrando in un’epoca in cui sistemi sempre più sofisticati saranno impiegati in scenari sempre più delicati e complessi.[8]

Per effetto dei progressi nelle neuroscienze e nella realizzazione delle architetture neurali, i nuovi sistemi di IA si caratterizzano innanzitutto per capacità cognitive assai avanzate.[9] Si aprono a nuove forme di ragionamento – simbolico, causale, analogico – e migliorano costantemente nella capacità di comprendere il contesto di riferimento, di pianificare a lungo termine, di applicare le conoscenze acquisite in domini diversi, di interagire e perfino collaborare attraverso reti di macchine che comunicano tra loro per raggiungere un obiettivo comune.[10]

Parallelamente, i progressi nella multimodalità rendono queste macchine capaci di elaborare e processare informazioni di tipo diverso grazie a sensori sempre più sofisticati: non solamente testi, immagini e suoni, ma anche impulsi tattili e olfattivi, e perfino la mimica facciale o il linguaggio del corpo, in un’integrazione di dati sempre più numerosi ed eterogenei che permette un notevole guadagno in termini di lettura della realtà, con macchine che selezionano in autonomia i dati necessari per il proprio apprendimento dando vita a sistemi molto più efficienti che in passato.[11]

Nascono così sistemi capaci di operare in ambienti complessi e instabili e di affrontare imprevisti e cambiamenti di scenario, riadattando di conseguenza i propri comportamenti in piena autonomia. Grazie alle caratteristiche descritte, questi nuovi sistemi di AI si comportano in maniera ben diversa dai loro predecessori, aprendo possibilità finora inesplorate nel rapporto tra uomo e macchina. Possono pianificare e mettere in pratica compiti che prevedono diversi passaggi e interagire autonomamente con l’ambiente circostante in vista di un obiettivo prefissato. Sono in grado di sostenere conversazioni articolate sugli argomenti più disparati, comprendere richieste complesse, personalizzare i contenuti in funzione del contesto e dell’interlocutore (ad esempio, non solo sulla base delle domande poste ma anche di altri elementi più impalpabili come l’umore o il tono di voce).[12]

Per definire questa nuova fase di sviluppo dell’IA si utilizza spesso l’espressione “Agentic AI”. Sebbene gli esperti si dividano sulla definizione di “agente AI”, e molti lo considerino un termine piuttosto inflazionato a causa dell’abuso che se ne fa per promuovere prodotti commerciali parecchio simili a dei comuni “chatbot”[13], si considerano “agenti” quei sistemi di AI più sofisticati e versatili, che non si limitano alla creazione di output sulla base di prompt, ma agiscono utilizzando tutte le informazioni in proprio possesso per raggiungere in modo autonomo il risultato desiderato.[14]

Sfide etiche e normative dell’agentic dell’agentic AI

Dinanzi alla rapidità di queste trasformazioni, la questione di adottare regole adeguate a indirizzare e controllare le azioni dell’AI è più che mai al centro della riflessione.

La prima sfida è quella di assicurarsi che questi agenti ispirino le proprie decisioni e le proprie azioni a valori e principi etici e che rispettino i nostri diritti. Non si tratta di un compito semplice. Ammesso che si possa convergere con un sufficiente grado di accuratezza su alcuni principi e valori condivisi, e ammesso che questi siano passibili di essere formalizzati in ordini da impartire alla macchina, occorrerebbe far in modo che l’IA sia in grado di applicarli in situazioni complesse, bilanciando gli interessi in campo in una logica del caso per caso, che tenga conto del contesto di riferimento e di ogni altro fattore potenzialmente rilevante.[15]

Problemi di controllo degli agenti artificiali avanzati

Queste considerazioni ci riconducono alla questione del rischio del superamento dei limiti da parte delle macchine. Il problema di re Mida o del vecchio con il talismano si presenta in modo più intenso nella progettazione di agenti artificiali sofisticati. Man mano che i compiti assegnati ad agenti diventano più complessi e le macchine più “intelligenti”, il problema dello “specification gaming” diviene più acuto perché – con sistemi di IA sempre più capaci di soddisfare le specifiche del compito a scapito del risultato previsto – la progettazione di tali specifiche in modo da evitare risultati indesiderati diviene sempre più ardua. Algoritmi più potenti possono più facilmente trovare una soluzione intricata che un algoritmo meno sofisticato non riuscirebbe a individuare; e per ottenere il risultato realmente desiderato la specificazione dei compiti deve fare i conti con una crescente capacità degli agenti artificiali di trovare soluzioni nuove formalmente corrette, ma in contrasto con il reale intento di chi li ha programmati.

Complessità crescente dell’agentic AI in contesti reali

Questo problema è amplificato ulteriormente dall’impiego dell’AI in settori sempre più ampi e delicati della nostra vita sociale ed economica, ben più complessi di un videogame o un gioco da tavolo. In questi casi, per una corretta progettazione delle specifiche occorre prendere in considerazione ogni dettaglio potenzialmente rilevante relativamente ad ambienti molto articolati (si pensi, solo per fare un esempio, al sistema viario di una città per le auto a guida autonoma), rendendo le specificazioni sempre più difficili e aumentando le probabilità che i ricercatori introducano ipotesi errate durante la progettazione.

Trasparenza e verifica dell’agentic AI come necessità

Per queste ragioni, diviene indispensabile poter verificare che, nel perseguire i propri obiettivi, i sistemi di IA abbiano effettivamente agito in conformità alle indicazioni ricevute. Anche in questo caso siamo in presenza di una sfida di notevole complessità. Non solamente le macchine dotate di intelligenza artificiale compiono azioni e operano scelte per le quali non sono state programmate esplicitamente, ma lo fanno in forme che talvolta nessuno riesce a prevedere prima e neppure a capire dopo. Il rischio è quello di non essere in grado di verificare se quelle che, proprio per queste caratteristiche, abbiamo preso oramai a chiamare “scatole nere” (black box)[16] si comportino in linea con i nostri valori e nel rispetto dei nostri diritti.

Nonostante i progressi nel campo della c.d. spiegabilità dell’AI[17], questa opacità, messa in luce fin da subito dalla letteratura sul tema, rischia oggi di essere ancora più accentuata. Lo stesso studio citato in apertura ha stabilito che gli agenti che utilizzano Large Language Models di ultima generazione riescono meglio ad aggirare strategicamente le regole previste dal loro ambiente per raggiungere gli obiettivi; e che sono proprio i modelli più potenti a mostrare questo comportamento con maggiore frequenza. In modo complementare, altri studi hanno mostrato come sistemi più avanzati che avevano violato le regole pur di raggiungere il proprio scopo, se interrogati avessero negato di averlo fatto.[18]

Responsabilità legale per i danni causati dall’agentic AI

Da ultimo, occorre considerare l’evenienza che qualcosa non vada per il verso giusto e dotarsi di un quadro di regole chiaro per governare le conseguenze dannose dei comportamenti dell’AI. Si tratta di un tema fondamentale, anche considerati gli accresciuti rischi che presenta l’impiego su larga scala di questi agenti intelligenti, rafforzati dal fatto che spesso tali sistemi possono colpire in maggior misura le fasce più vulnerabili della popolazione, causando gravi danni soprattutto ai soggetti privi delle informazioni necessarie o alle vittime di pregiudizi comportamentali.[19]

Per questa ragione, è necessario che il comportamento delle macchine intelligenti sia intelligibile e comprensibile, con precisi obblighi di trasparenza e di supervisione umana; e servono precise norme sulla responsabilità per danni derivanti dai sistemi di IA che tengano in adeguata considerazione le peculiarità della materia. L’opacità dei sistemi di IA, l’elevato grado di difficoltà tecnica insito nell’onere a carico del danneggiato di provare la colpa e il rapporto causale tra input, output e conseguenze dannose, oltre che la complessità della catena del valore dell’AI e la pluralità di soggetti coinvolti nella creazione, diffusione e uso di questi sistemi, rendono ardua la strada del risarcimento del pregiudizio subito, almeno in assenza di regole ad hoc.

Approcci globali divergenti sulla regolamentazione dell’agentic AI

Eppure, al momento non pare che a livello globale stia emergendo una prospettiva del genere. Gli Stati Uniti d’America, da sempre campioni di una politica del laissez-faire nella sfera digitale, sembrano aver fatto definitivamente prevalere l’esigenza di incoraggiare in ogni modo l’innovazione rispetto a quella di affrontare con regole adeguate le questioni etiche, giuridiche e di sicurezza più pressanti, secondo una tendenza accentuatasi in modo deciso a seguito dell’elezione di Donald Trump.

Senza gli Stati Uniti d’America, anche gli sforzi di convergere su un approccio condiviso a livello globale sembrano destinati a fallire. Al summit sull’AI di Parigi del 2025 – il terzo, dopo quelli di Londra nel 2023 e Seul nel 2024 – la Dichiarazione finale non è stata sottoscritta da Stati Uniti e Regno Unito, nonostante gli sforzi di diluire il testo rivedendo i passaggi più divisivi per trovare un punto di caduta comune.[20]

Il cambio di rotta europeo sulle regole dell’agentic AI

Dal canto suo, l’Unione Europea, che in questi anni si è presentata al mondo come il primo attore globale a introdurre regole chiare per il digitale basate su valori europei, sta anch’essa cominciando a ripensare le proprie posizioni. All’indomani della strigliata ricevuta a Monaco di Baviera dal vicepresidente americano in occasione del Forum sulla Sicurezza, con J.D. Vance che ha rimproverato duramente l’UE per essersi concentrata troppo sulle regole anziché cogliere le opportunità dell’IA, l’Unione ha reagito ritirando immediatamente la Proposta di Direttiva sulla responsabilità dell’IA che era in discussione dal 2022 e che mirava a semplificare il quadro di regole sulle responsabilità dei sistemi di IA più rischiosi.[21]

Tensione tra innovazione e regolamentazione per l’agentic AI

L’impressione che se ne ricava è che la narrazione europea sul digitale e, di riflesso, le sue politiche stiano cambiando molto rapidamente. Del resto, non sono solamente i timori di incrinare i già difficili rapporti con i propri alleati storici, in un momento delicato dal punto di vista geopolitico, a imprimere una direzione nuova alle politiche europee sul digitale, ma anche la speranza di essere un attore chiave nella corsa globale all’intelligenza artificiale, puntando su crescita, maggiore competitività e aumento degli investimenti. La stessa Commissaria europea per le tecnologie Henna Virkkunen ha dichiarato di recente che il Regolamento sull’intelligenza artificiale del 2024 debba essere attuato in un modo “molto favorevole all’innovazione”, aggiungendo che con tutta probabilità, pur essendo appena stato approvato, sarà presto rivisto in vista di una sua semplificazione.[22]

Verso un equilibrio per la governance dell’agentic AI

Naturalmente ogni semplificazione del quadro normativo è sempre una buona notizia, soprattutto in ambiti come quelli legati alle tecnologie digitali e all’AI. Del resto, diversi studi mostrano come l’eccesso di burocrazia sia un freno all’innovazione.[23] Allo stesso tempo però, dinanzi all’affermarsi di forme sempre più sofisticate di AI, caratterizzate da una sempre maggiore autonomia, e alla prospettiva di un impiego su larga scala di questi agenti, la questione delle regole adeguate sembra sempre più pressante. Se davvero vogliamo – come proclamato solennemente nell’AI Act – che l’impiego dei sistemi di intelligenza artificiale garantisca la protezione della salute, della sicurezza e dei diritti fondamentali, accanto alla semplificazione delle regole, sono trasparenza e accountability le parole chiave che dovrebbero ispirare questa complessa fase di transizione per un governo dell’intelligenza artificiale.

Bibliografia


[1] Bondarenko, A., Volk, D., Volkov, D., & Ladish, J., Demonstrating specification gaming in reasoning models, arXiv preprint arXiv:2502.13295 (2025).

[2] Chrabaszcz P., Loshchilov I., Hutter F., Back to Basics: Benchmarking Canonical Evolution Strategies for Playing Atari, https://arxiv.org/abs/1802.08842 (2018); Puigdomènech Badia A., Piot B., Kapturowski S., Sprechmann P., Vitvitskyi A., Guo G., Blun C., Agent57: Outperforming the Atari Human Benchmark, https://arxiv.org/abs/2003.13350 (2020).

[3] Per un lungo elenco di esperimento condotti sul tema si veda Krakovna, V., Uesato, J., Mikulik, V., Rahtz, M., Everitt, T., Kumar, R., Kenton, Z., Leike, J., Legg, S., Specification Gaming: The Flip Side of AI Ingenuity, 2020, dove vengono riportati sessanta casi simili.

[4] Hornby, G., Globus, A., Linden, D., Lohn, J., Automated Antenna Design with Evolutionary Algorithms. In Space 2006. American Institute of Aeronautics and Astronautics, 2006-7242, https://arc.aiaa.org/doi/10.2514/6.2006-7242 (2006).

[5] Silver, D., Huang, A., Maddison, C. J., Guez, A., Sifre, L., Van Den Driessche, G., Schrittwieser, J., Antonoglou, I., Panneershelvam, V., Lanctot, M., et al., Mastering the game of go with deep neural networks and tree search. Nature, 529(7587):484–489 (2016).

[6] Wiener, N., The human use of human beings: Cybernetics and society, Boston MA, Houghton Mifflin Publisher, 1950.

[7] Per un’analisi in lingua italiana di questo aspetto dell’IA, si rinvia a Cristianini, N., Scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, Bologna, Il Mulino, 2023.

[8] Zakka, K., Tabanpour, B., Liao, Q., Haiderbhai, M., Holt, S., Luo, J. Y., Allshire, A., Frey, E., Sreenath, K., Kahrs, L. A., Sferrazza, C., Tassa, Y., & Abbeel, P., MuJoCo Playground. ArXiv. https://arxiv.org/abs/2502.08844 (2025). Sulla nascita dei c.d. “robo-advisors”, veri e propri consulenti automatizzati che sostituiscono le persone in molti ambiti della vita economica e sociale. Per un esempio nel settore finanziario, si veda Son H., JP Morgan Is Developing A ChatGPT-Like A.I. Service That Gives Investment Advice, CNBC (May 25, 2023), https://www.cnbc.com/2023/05/25/jpmorgandevelops-ai-investment-advisor.html; Ozair M., FinanceGPT: The Next Generation of AI-Powered Robo-advisors and Chatbots, NASDAQ.COM (June 27, 2023), https://www.nasdaq.com/articles/financegpt-the-next-generation-of-ai-powered-roboadvisors-and-chatbots.

[9] Per una descrizione dei progressi delle macchine si rinvia allo scritto di Chella, A., Intelligenza artificiale: ecco le tendenze che plasmeranno il 2025, Agenda Digitale 8.1.2025, https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-ecco-le-tendenze-che-plasmeranno-il-2025/, da cui sono tratte alcune delle considerazioni che seguono, oltre che alla letteratura citata.

[10] Castro P.S., Tomasev, N., Anand, A., Sharma, N., Mohanta, R., Dev, A., Perlin, K., Jain, S., Levin, K., Éltető, N., Dabney, W., Novikov, A., Turner, G.K., Eckstein, M.K., Daw, N.D., Miller, K.J., Stachenfeld, K.L., Discovering Symbolic Cognitive Models from Human and Animal Behavior, bioRxiv 2025.02.05.636732; doi: https://doi.org/10.1101/2025.02.05.636732 (2025).

[11] Busbridge, D., Shidani, A., Weers, F., Ramapuram, J., Littwin, E., Webb, R. Distillation Scaling Laws. ArXiv. https://arxiv.org/abs/2502.08606 (2025).

[12] Maxwell Z., OpenAI’s New ChatGPT Sounds More Human Than Ever, Quartz (May 14, 2024), https://qz.com/openai-new-chatgpt-gpt4-omni-voice-human-ai-1851475246; Stokel-Walker, C., Laughing, Chatting, Singing, GPT-4o Is AI Close to Human, But Watch Out: It’s Really Not Human, Guardian, May 14, 2024.

[13] Cf. Kulp, P., What is an AI agent? Definitions may vary amid hype We try to get to the bottom of what it means for an AI to be an agent, Tech Brew, Feb. 7, 2025, https://www.emergingtechbrew.com/stories/2025/02/07/what-is-an-ai-agent?mbcid=38797377.393924&mblid=dca87805be23&mid=55330674313038f56cbcaf47602d3857&utm_campaign=etb&utm_medium=newsletter&utm_source=morning_brew

[14] Per una prima definizione di agent si rinvia a Franklin, S., Graesser, A., Is It an agent, or just a program?: A taxonomy for autonomous agents, in: Müller, J.P., Wooldridge, M.J., Jennings, N.R. (eds), Intelligent Agents III Agent Theories, Architectures, and Languages. ATAL 1996. Lecture Notes in Computer Science, vol 1193. Springer, Berlin, Heidelberg, https://doi.org/10.1007/BFb0013570.

[15] La letteratura sul punto è sterminata. Per una prima sintesi delle questioni legate all’etica dell’IA si rinvia a Dubber, M.D., Pasquale, F., Das, S. (eds.), The Oxford Handbook of Ethics of AI. Oxford University Press, Oxford, UK, 2020.

[16] Pasquale, F., The Black Box Society: The Secret Algorithms that Control Money and Information, Cambridge MA, Harvard UP, 2015.

[17] Minh, D., Wang, H.X., Li, Y.F. et al. Explainable artificial intelligence: a comprehensive review. Artif Intell Rev 55, 3503–3568 (2022).; Yang, W., Wei, Y., Wei, H. et al. Survey on Explainable AI: From Approaches, Limitations and Applications Aspects. Hum-Cent Intell Syst 3, 161–188 (2023).

[18] Scheurer, J., Balesni, M., and Hobbhahn, M. Large Language Models Can Strategically Deceive Their Users When Put Under Pressure (Issue arXiv:2311.07590). arXiv, https://doi.org/10. 48550/arXiv.2311.07590 (2024). Nel caso specifico, un sistema di AI istruito per concludere transazioni commerciali nell’interesse di una certa impresa non solamente aveva utilizzato informazioni non di dominio pubblico, infrangendo così il divieto di insider trading; inoltre, interrogato sul punto, ha negato di averlo fatto, nascondendo così il proprio comportamento.

[19] Oren Bar-Gill, Cass R. Sunstein, Inbal Talgam-Cohen, Algorithmic Harm in Consumer Markets, 15 J. Legal Analysis 1 (2023); Eubanks V., Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, St. Martin’s Publishing Group, London, 2018; Umoja Noble S., Algorithms of Oppression, NYU Press, New York, 2018.

[20] Statement on Inclusive and Sustainable Artificial Intelligence for People and the Planet, https://www.elysee.fr/en/emmanuel-macron/2025/02/11/statement-on-inclusive-and-sustainable-artificial-intelligence-for-people-and-the-planet.

[21] Center for Democracy and Technology, Withdrawal of the AI Liability Directive Proposal Raises Concerns Over Justice for AI Victims, February 12, 2025, https://cdt.org/press/withdrawal-of-the-ai-liability-directive-proposal-raises-concerns-over-justice-for-ai-victims/; Dastin J., Melander I., Vance tells Europeans that heavy regulation could kill AI, Feb. 11, 2025, https://www.reuters.com/technology/artificial-intelligence/europe-looks-embrace-ai-paris-summits-2nd-day-while-global-consensus-unclear-2025-02-11/.

[22] Wulff Wold J., Bourgery-Gonse T., AI Summit: Regulation goes out of fashion in Paris, Euractiv, Feb. 11, 2025, https://www.euractiv.com/section/politics/news/ai-summit-regulation-goes-out-of-fashion-in-paris/.

[23] Per una panoramica sul tema v. Fariborz Damanpor, Bureaucracy and innovation revisited: Effects of contingency factors, industrial sectors, and innovation characteristics, The Journal of High Technology Management Research, Volume 7, Issue 2, 149-173 (1996).

EU Stories - La coesione innova l'Italia

Tutti
L'ANALISI
INIZIATIVE
PODCAST
Video&podcast
Analisi
VIDEO&PODCAST
Video & Podcast
Social
Iniziative
INNOVAZIONE
EU Stories | Dalla produzione industriale a fucina di innovazione: come il Polo universitario della Federico II a San Giovanni a Teduccio ha acceso il futuro
L'INIZIATIVA
DNSH e Climate proofing: da adempimento ad opportunità. Spunti e proposte dal FORUM PA CAMP Campania
INNOVAZIONE
EU Stories, il podcast | Laboratori Aperti: riqualificazione e innovazione in 10 città dell’Emilia-Romagna
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
INNOVAZIONE
EU Stories | Dalla produzione industriale a fucina di innovazione: come il Polo universitario della Federico II a San Giovanni a Teduccio ha acceso il futuro
L'INIZIATIVA
DNSH e Climate proofing: da adempimento ad opportunità. Spunti e proposte dal FORUM PA CAMP Campania
INNOVAZIONE
EU Stories, il podcast | Laboratori Aperti: riqualificazione e innovazione in 10 città dell’Emilia-Romagna
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4