sentimenti artificiali

Sex robot e AI: dilemmi etici nelle relazioni del futuro



Indirizzo copiato

L’intelligenza artificiale sta entrando nella sfera dell’intimità umana, sollevando interrogativi sull’etica delle relazioni con macchine avanzate. Il confine tra strumenti e agenti razionali si assottiglia, richiedendo nuove riflessioni sui concetti di autonomia e responsabilità.

Pubblicato il 1 apr 2025

Pietro Perconti

Dipartimento di scienze cognitive, Università di Messina



sex robot e ai

L’etica dell’intelligenza artificiale sta diventando un tema cruciale non solo in ambito professionale o tecnico, ma anche nella vita privata. Quando le macchine entrano nella sfera dell’intimità, ridefinendo affetto e desiderio, emergono dilemmi profondi che coinvolgono il nostro modo di essere umani.

Intelligenza artificiale e intimità

Negli ultimi anni l’intelligenza artificiale hl modificando profondamente parecchi ambiti della vita ordinaria. Ad essere investiti da tale rivoluzione non sono soltanto i contesti sociali, come il lavoro, la scuola e l’università, o il sistema sanitario. L’intelligenza artificiale è andata introducendosi anche nei contesti più intimi della vita personale e ciò, naturalmente, sta sollevando questioni etiche che per certi versi sono inedite nella storia umana. La crescente interazione tra esseri umani e macchine intelligenti apre scenari in cui si mescolano desideri, affetti e dinamiche sociali che fino a pochi decenni fa sembravano appartenere esclusivamente alle relazioni tra le persone. L’integrazione sempre maggiore di questi dispositivi nella vita quotidiana rende urgente una riflessione critica sulle loro implicazioni etiche, sociali e psicologiche. Forse è necessaria una revisione dei concetti tradizionali di cosa sono l’intimità, le relazioni sentimentali e la responsabilità morale connessa a tali relazioni.

WHITEPAPER

Esplora i 5 trend chiave che stanno rivoluzionando la crescita della ROBOTICA!

Robotica
Natural Language Processing (NLP)

Cosa succede quando la tecnologia diventa in grado di simulare i comportamenti umani ed entra così in una sfera che una volta era considerata esclusivamente di nostra pertinenza? Come si definiscono il consenso, l’autonomia e la responsabilità quando non abbiamo più a che fare con una persona, ma con un agente artificiale?

In definitiva, il problema etico principale che le macchine intelligenti sollevano riguarda la loro considerazione come strumenti o come agenti razionali. Uno strumento è qualcosa come un martello, una matita o una lavatrice. Un agente razionale è qualcuno, non qualcosa; è un individuo che è “come me” per molti versi rilevanti, in maniera simile a come accade con gli altri esseri umani con cui ho a che fare, nonché con almeno certi animali di altre specie. Gli agenti razionali sono caratterizzati dal fatto che agiscono in base a stati interni come emozioni, desideri e credenze.

Gli strumenti, invece, sono agiti dagli agenti razionali; altrimenti sono soltanto oggetti inerti. Sulla base di tali considerazioni si pensi alla differenza tra i giocattoli sessuali  tradizionali (sex toys) e i più recenti robot sessuali (sex robots).

Sex toys e sex robots: differenze etiche

I sex toys sono dispositivi progettati per il piacere sessuale, ma sono privi di autonomia o capacità interattive complesse. Sono strumenti che, sebbene possano essere personalizzati e talvolta suscitare emozioni vivide, come nel caso del feticismo, alla fine rimangono oggetti inerti. Il loro utilizzo è regolato dalle scelte individuali degli utenti e dalle normative vigenti nei vari Paesi in materia di sicurezza e privatezza.

Non c’è nessuna particolare questione etica urgente riguardo tali oggetti. Sono ben noti nella storia umana e non rappresentano certo una novità dei tempi che stiamo vivendo. La questione etica in questo ambito riguarda esclusivamente il modo in cui gli esseri umani usano tali strumenti e cosa comporta il loro impiego, senza che il dispositivo stesso richieda una considerazione etica particolare.

La sfida dei sex robots e degli agenti conversazionali

Al contrario, i sex robots e gli agenti conversazionali avanzati, specialmente quelli dotati di tecnologie basate sull’architettura computazionale dei “Transformers” – come Chat-GPT, si configurano come entità che interagiscono in maniera sofisticata e simulano comportamenti tipicamente umani[1]. Si può dubitare che questi dispositivi siano dei meri oggetti o che vadano considerati soltanto come strumenti. Essi sono in grado di apprendere, adattarsi e rispondere alle interazioni emotive dei loro interlocutori in modo flessibile e contestualmente appropriato.

Tale capacità di interazione comporta la necessità di porre nuove domande etiche: se un sex robot o un agente conversazionale avanzato è in grado di simulare empatia ed affetto, quali diritti e quali doveri dovremmo attribuirgli? Ed inoltre, come possiamo evitare che l’interazione con tali dispositivi alteri negativamente il modo più comune di relazionarci con gli altri esseri umani?[2]

Differenze etiche e simboliche tra robot e sex toys

La distinzione tra i sex robots e gli agenti conversazionali avanzati, da una parte, e i sex toys, dall’altra, va quindi intesa non solo in termini funzionali, ma anche etici e simbolici. Mentre i giocattoli sessuali rappresentano semplicemente strumenti al servizio del piacere individuale, i sex robots e gli agenti conversazionali avanzati pongono interrogativi fondamentali sul ruolo della tecnologia nelle relazioni umane e sulla possibile trasformazione dei modelli di intimità.

Il matrimonio con i robot: una questione etica complessa

Un caso emblematico riguarda la possibilità di matrimonio con un robot umanoide. In Giappone e in altri Paesi alcuni individui hanno dichiarato l’intenzione di unirsi sentimentalmente e, in alcuni casi, legalmente a robot dotati di aspetto e capacità conversazionali altamente umanizzate. È celebre il caso di Zheng Jiajia, un ingegnere informatico cinese che nel 2017 ha “sposato” il suo robot, che egli stesso aveva costruito e battezzato con il nome di Yingying. C’è stata anche una sorta di cerimonia, che pur simbolica e non riconosciuta legalmente, ha sollevato un ampio dibattito[3]. Come dovremmo considerare comportamenti ed intenzioni di questo tipo? Si tratta di essere liberali verso inclinazioni che, almeno per ora, appaiono come piuttosto bizzarre o di vietarle considerando tali persone come confuse circa le loro stesse intenzioni? Questo genere di fenomeno, oltre a sollevare dibattiti sulla natura delle relazioni affettive contemporanee, mette in luce la necessità di ridefinire concetti tradizionali come amore, impegno e diritti all’interno di contesti in cui la tecnologia finisce per giocare un ruolo senz’altro costitutivo[4].

I sex robots del futuro: personalizzazione e interazione

I robot sessuali più recenti superano il concetto tradizionale di “bambola sessuale”, integrando sensori tattili, riconoscimento vocale e moduli di apprendimento automatico, che permettono loro di adattare dinamicamente il comportamento in base alle interazioni con l’utente. Per esempio, l’azienda statunitense “RealDoll” ha sviluppato alcuni modelli che consentono conversazioni interattive e risposte gestuali personalizzabili. Si può individualizzare l’aspetto esteriore del robot e anche scegliere il tipo di personalità a cui si è interessati. Le opzioni di personalizzazione permettono di configurare aspetti quali il tono di voce, il linguaggio del corpo e la risposta emotiva nel volto. Si può scegliere tra dispositivi di genere maschile o femminile, in entrambi i casi progettati per essere aggiornabili tramite software, garantendo così una costante evoluzione delle capacità interattive.

Il mercato dei sex robots: tendenze e limitazioni

Si tratta ancora di un segmento di mercato piuttosto limitato, un mercato di nicchia che fatica a diventare di largo consumo. Gli agenti conversazionali avanzati, come nel caso di “Eva AI”, sembrano per ora più promettenti da un punto di vista del riscontro commerciale[5]. È un segno che l’interesse verso questo genere di dispositivi è guidato da esigenze sentimentali più che meramente sessuali. La cautela che le persone stanno usando nei riguardi di tali novità dipende anche, e paradossalmente, dal modo sempre più realistico in cui sono costruite, sia dal lato della verosimiglianza fisica sia da quello della loro capacità di sostenere conversazioni sensate e costruttive. Probabilmente, gli stessi elementi che contribuiscono a fornire quella sensazione realistica di avere a che fare con un agente razionale, sono anche responsabili di un sentimento vagamente disturbante, che in genere si prova quando un robot umanoide supera una certa soglia di plausibilità.

Questo effetto è noto come “Uncanny Valley” ed è stato individuato dal ricercatore giapponese Masahiro Mori più di 40 anni fa[6]. Sembra che se un androide si avvicina parecchio all’aspetto e ai comportamenti umani senza però raggiungere una somiglianza perfetta, allora tende a suscitare una reazione di disagio. Il problema non risiede tanto nelle singole caratteristiche fisiche, quanto nell’incongruenza percettiva che emerge dall’interazione. Piccole imperfezioni nel movimento, nell’espressione facciale o nella voce possono rendere il robot stranamente inquietante, quasi come se fosse un’imitazione imperfetta di qualcosa di vivo.

I rischi dei sex robots: isolamento e disumanizzazione

Scenari di questo tipo sollevano una serie di dubbi e inquietudini. Innanzi tutto, c’è il rischio di un potenziale uso improprio di questi dispositivi[7]. La possibilità di creare sex robots altamente personalizzabili potrebbe, in alcuni casi, alimentare dinamiche di isolamento sociale o comportamenti antisociali, in cui l’utente potrebbe preferire un rapporto programmato e prevedibile piuttosto che una relazione con un essere umano in carne ed ossa. Inoltre, come va regolato il diritto delle azienze a produrre robot personalizzati, come potrebbe esserlo quello di Napoleone, Hitler, la cantante pop sulla cresta dell’onda o il vicino di casa? Senza considerare il problema della dignità umana[8]. La possibilità di interagire sessualmente con un robot, programmato per rispondere in maniera ottimale alle richieste dell’utente, solleva il rischio dell’oggettivazione.

Le persone potrebbero cominciare a percepire le relazioni affettive sempre più come una procedura, in contesti in cui l’esercizio dell’empatia e della reciprocità vengono completamente sacrificate. Tale riduzione del rapporto umano a una mera transazione tecnica potrebbe avere ripercussioni profonde sul modo in cui vengono valorizzate le relazioni interpersonali, contribuendo a una progressiva disumanizzazione del vivere quotidiano[9].

Le preoccupazioni etiche contro i sex robots

Il caso di Kathleen Richardson, una filosofa e studiosa di tecnologia e genere che nel 2015 ha dato vita alla “Campaign Against Sex Robots” (CASR), è emblematico di questo genere di preoccupazioni[10]. La sua proposta di un bando sui robot sessuali è volta a proteggere la società dall’impatto etico e sociale del loro uso. Secondo Richardson, infatti, “amore” e “sesso” sono relazioni che possono avere luogo in modo genuino soltanto tra persone, poiché coinvolgono aspetti complessi quali l’empatia, la comunicazione emotiva e la condivisione di esperienze umane autentiche. Applicare queste categorie a ciò che avviene tra un essere umano e un robot rappresenta, per la studiosa statunitense, un errore concettuale – un vero e proprio “category mistake”. In altre parole, cercare di equiparare l’interazione con un robot a una relazione umana significa attribuire a una macchina dinamiche e qualità relazionali che non le appartengono. Essendo basato sulla nozione di “sfruttamento”, secondo Kathleen Richardson l’uso dei robot in ambito sessuale rischia di alimentare forme di depersonalizzazione delle relazioni intime anche tra gli esseri umani, specialmente in considerazione delle somiglianze che ci sarebbero tra i sex workers e i sex robots[11].

Il consenso e le sue implicazioni nelle relazioni con le macchine

Un ulteriore nodo etico concerne il consenso. In un tipico rapporto umano, il consenso è il risultato di una comunicazione complessa, che include segnali verbali, non verbali ed emozionali. Il modo in cui viene chiesto ed accordato il consenso è, inoltre, particolarmente variabile dal punto di vista della codificazione culturale e storica. Nel caso dei sex robots, la simulazione di un comportamento consenziente – per quanto accurata possa essere – non equivale al consenso reale, poiché è davvero dubbio che il dispositivo sia dotato di una volontà autonoma[12].

Questa situazione apre la porta ad una ridefinizione del concetto stesso di consenso, con implicazioni che vanno ben oltre l’ambito della sessualità: potrebbero interessare ogni tipo di relazione mediata dalla tecnologia, investendo campi – come l’automazione industriale, i robot usati in contesti di guerra o l’automotive, in cui non avere regole chiare sul consenso alle iniziative delle macchine o degli esseri umani può comportare rischi notevoli[13].

I pericoli della stereotipizzazione nelle relazioni artificiali

Si consideri, inoltre, anche il problema della rappresentazione stereotipata dei ruoli sessuali. Mentre tale stereopizzazione viene costantemente contrastata nella società, la robotica umanoide concepita per simulazioni relazioni sentimentali e sessuali rischia di perpetuare una visione riduttiva e stereotipata dei ruoli di genere e delle varie personalizzazioni possibili. Per esempio, la possibilità di personalizzare i robot per aderire a fantasie specifiche potrebbe, da un lato, soddisfare bisogni individuali, ma dall’altro alimentare una cultura in cui la diversità e la complessità delle relazioni umane vengono semplificate e fortemente omologate. Considerazioni analoghe possono essere fatte anche riguardo gli agenti conversazionali[14]. Come evidenziato da Veronika Cassidy, tali dinamiche possono contribuire a creare una sorta di “incubo patriarcale” in cui le relazioni affettive sono mediate da modelli che privilegiano standard che si vorrebbero vedere superati[15]. D’altronde, così come la tecnologia è a disposizione dell’incubo patriarcale prima menzionato, analogamente lo è nei riguardi di ogni altra inclinazione che si ritenga moralmente e socialmente riprovevole.

Due tipi di etica artificiale

Gli esempi appena esaminati mostrano come nell’etica dell’intelligenza artificiale ci sono due dimensioni che non andrebbero confuse. Da un lato, c’è la questione del “se” e del “come” un sistema di AI possa essere dotato di una propria etica interna. In altre parole, è questione di stabilire se tali dispositivi possano agire in base a principi morali autonomi, analogamente a quanto accade con gli esseri umani e probabilmente con alcune specie animali. Dall’altro lato, si tratta di stabilire non tanto se le macchine siano dotate una loro etica, ma quale morale dovremmo adottare noi umani per interagire con loro[16].

Il primo senso riguarda la possibilità che le macchine possano, in futuro, essere programmate con un insieme di valori morali capace di svolgere la funzione di una sorta di cornice valoriale artificiale in grado di orientare la macchina nelle sue scelte. In questo scenario, il sex robot e l’agente conversazionale avanzato non sarebbero solo oggetti passivi, ma agenti capaci di prendere decisioni basate su una loro “etica interna”. Questa prospettiva implica l’idea che, per quanto artificiale, il comportamento del robot potrebbe essere orientato da regole etiche inzialmente predeterminate e poi via via aggiornate sulla base dell’interazione con l’ambiente. Per esempio, un sex robot dotato di un sistema etico di questo tipo potrebbe essere programmato per rifiutare richieste che vadano contro principi di rispetto e dignità, opponendosi a comportamenti che potrebbero danneggiare l’utente o normalizzare atteggiamenti degradanti. Il secondo senso riguarda il modo in cui noi, come esseri umani, dovremmo comportarci nei confronti delle macchine. In questo caso, l’etica dell’intelligenza artificiale non riguarderebbe più tanto la macchina in sé, ma il nostro atteggiamento nei suoi confronti. Ciò implica che il rispetto, il riconoscimento dei limiti e la consapevolezza delle potenziali conseguenze delle nostre interazioni con i sex robot dovrebbero guidare la nostra interazione con essi.

Supponiamo che un robot sia in grado di simulare sentimenti come l’empatia e la partecipazione emotiva. In questo caso è fondamentale che l’utente mantenga una chiara distinzione tra il comportamento simulato e l’interazione umana autentica, evitando di trasferire alla macchina aspettative che non possono essere soddisfatte o di attribuirle un tipo di volontà che non possiede. Questa doppia prospettiva – quella interna alla macchina e quella esterna, relativa al nostro comportamento – costituisce il cuore del dibattito sull’etica dell’intelligenza artificiale. La sfida consiste nel conciliare la crescente autonomia dei sistemi intelligenti con la necessità di mantenere un controllo etico e morale su di esse e su noi stessi, evitando che l’interazione uomo-macchina sfoci in una forma di alienazione o disumanizzazione. Una questione centrale riguarda la responsabilità: se un sex robot può interagire in modo autonomo – pur essendo programmato – chi ne è il responsabile morale e legale? Questa domanda si complica se si considera che il comportamento del robot è il risultato di algoritmi di apprendimento profondo che si adattano e modificano le loro risposte in funzione dell’interazione con l’utente.

“Trattare” i sex robots come agenti artificiali razionali

Un possibile approccio etico a questa materia è quello di “trattare” i sex robots come agenti artificiali razionali, indipendentemente dal fatto che lo siano per davvero, ma soltanto per gli scopi pragmatici di una migliore interazione sociale. Questo implica che il loro design dovrebbe essere guidato da principi etici precisi, che includano il rispetto del consenso simulato, la trasparenza delle loro capacità e la prevenzione di comportamenti che possano normalizzare interazioni problematiche. In altre parole, pur restando un artefatto, il robot dovrebbe essere programmato per rifiutare richieste che violino gli standard morali più comuni e i comportamenti che possano sortire effetti sociali paradossali.

L’adattamento algoritmico può rappresentare una opportunità in questo scenario. Con lo sviluppo di algoritmi di apprendimento profondo, i sex robots stanno diventando sempre più capaci di apprendere dai comportamenti degli utenti, adattando le loro risposte e creando interazioni personalizzate. Questa capacità di “imparare” può portare a una simulazione convincente di attaccamento e affetto, tanto da far sì che l’utente sviluppi legami emotivi reali con un’entità artificiale. Tali dinamiche sollevano questioni non solo di responsabilità, ma anche di benessere psicologico: in che misura un attaccamento a un robot, per quanto realistico, può sostituire o interferire con la capacità di costruire relazioni umane autentiche? Inoltre, la continua evoluzione del comportamento del robot potrebbe rendere difficile stabilire confini chiari tra l’esperienza emotiva genuina e una simulazione di essa, con potenziali ripercussioni sulla salute mentale delle persone.

Un ulteriore elemento di riflessione è la trasparenza. Sarebbe utile che gli utenti siano sempre consapevoli del fatto che, nonostante l’elevata somiglianza con gli esseri umani, il sex robot rimane una macchina. Tale consapevolezza è essenziale per evitare la confusione tra realtà e simulazione, proteggendo così l’autonomia degli individui. La trasparenza deve estendersi non solo al funzionamento tecnico del dispositivo, ma anche alle modalità con cui vengono raccolti e utilizzati i dati personali, garantendo che il rispetto della privacy e dei diritti dell’utente non venga compromesso dall’interazione sociale con i nuovi partner artificiali.

Il dibattito sui sex robots e i sentimenti futuri

Il dibattito sui sex robots e gli agenti conversazionali avanzati si inserisce in una più ampia riflessione sull’etica dell’intelligenza artificiale e sulle trasformazioni delle relazioni umane. Mentre il confine tra oggetto e agente artificiale si assottiglia, diventa essenziale riflettere su quali principi debbano guidare la progettazione e il ricorso a queste tecnologie. L’etica dell’intelligenza artificiale, in questo contesto, non riguarda solo il modo in cui noi ci comportiamo nei confronti delle macchine, ma anche il modo in cui la loro esistenza potrebbe influenzare le nostre concezioni della morale e dell’interazione umana.

In prospettiva futura, sarebbe desiderabile che da un lato si eviti che la tecnologia diventi un mezzo per disumanizzare le relazioni; dall’altro, che si riesca a sfruttare le potenzialità delle nuove tecnologie per migliorare il benessere degli individui, per esempio offrendo soluzioni per chi soffre di isolamento o sperimenta difficoltà relazionali difficili da superare[17]. Da un punto di vista psicologico, la possibilità che gli utenti sviluppino legami emotivi intensi con agenti artificiali solleva interrogativi sulla natura della percezione emotiva e dell’identità personale, ma presenta anche notevoli opportunità. La proiezione di emozioni sui robot può avere effetti terapeutici in contesti specifici, come il supporto a persone anziane o a individui con difficoltà relazionali.

Sul versante filosofico, l’introduzione dei sex robots solleva il problema della definizione stessa di umanità. Se la capacità di provare emozioni, di instaurare relazioni e di esprimere un senso di sé viene replicata da una macchina, quale distinzione resta tra l’umano e l’artificiale? Forse sarà proprio l’esigenza di una nuova educazione sentimentale a costringerci a ripensare in modo innovativo come esercitare l’amore e i sentimenti nella “civiltà delle macchine”.

Note


[1] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., and Polosukhin, I. (2017). Attention is all you need. In “Advances in Neural Information Processing Systems”, pp. 6000-

6010. Cfr. anche A. Plebe, P. Perconti, The Future of the Artificial Mind, CRC, Boca Raton-New York-London, 2022.

[2] J. Danaher, N. McArthur, Robot Sex: Social and Ethical Implications, MIT Press, Cambridge (Mass.), 2017.

[3] Benjamin Haas, Chinese man “marries” robot he built himself, in “The Guardian”, 4 Apr. 2017 (https://www.theguardian.com/world/2017/apr/04/chinese-man-marries-robot-built-himself).

[4] L. Malafouris, How Things Shape the Mind: A Theory of Material Engagement, MIT Press, Cambdridge (Mass.), 2013.

[5] https://evaapp.ai/app.

[6] M. Mori, The Uncanny Valley, in “Energy”, vol. 7, no. 4, pp. 33–35, 1970 (in giapponese).

[7] N. Agar, P. Garcia-Barranquero, Why sex robots should fear us. In Glaser, H. and Wong, P. (editors), Governing the Future: Digitalization, Artificial Intelligence, Dataism, Routledge, London, 2025, pp. 464-470.

[8] B. C. Stahl, D. Schroeder, R. Rodrigues, Ethics of Artificial Intelligence: Case Studies and Options for Addressing Ethical Challenges. Springer, Berlin, 2022, cap. 7.

[9] R. Sparrow, Robots, rape, and representation, in “International Journal of Social Robotics”, 2017, 9: 465-477.

[10] https://campaignagainstsexrobots.org

[11] K. Richardson, The asymmetrical ‘relationship’ parallels between prostitution and the development of sex robots, Acm Sigcas Computers and Society 45.3 (2016): 290-293. K. Richardson (ed.), C. Odlind (ed.), Man-Made Women. The Sexual Politics of Sex Dolls and Sex Robots, Palgrave Macmillan, London, 2023.

[12] H. M Hurd, The moral magic of consent, in “Legal Theory”, 1996, 2: 121-146.

[13] K. Lancaster, Non-consensual personified sexbots: an intrinsic wrong, in “Ethics and Information Technology”, 2021, 23:589-600. D. Levy, Some aspects of human consent to sex with robots, in “Paladyn, Journal of Behavioral Robotics”, 2020, 11:191-198.

[14] A. De Angeli, B. Sheryl, Sex stereotypes and conversational agents, in “Proc. of Gender and Interaction: real and virtual women in a male world”, Venice, Italy (2006): 1-4.

[15] V. Cassidy, For the love of doll(s): A patriarchal nightmare of cyborg couplings, in “ESC: English Studies in Canada”, 2016, 42: 203-215.

[16] P. Perconti, A. Plebe, Turing’s Vision: How AI is Shaping the World, CRC Press, Boca Raton-New York-London, 2025.

[17] E. Hancock, Should society accept sex robots? Changing my perspective on sex robots through researching the future of intimacy, in “Paladyn, Journal of Behavioral Robotics”, 11.1 (2020): 428-442; D. Balaji et al., Effectiveness and acceptability of conversational agents for sexual health promotion: a systematic review and meta-analysis, in “Sexual health”, 19.5 (2022): 391-405.

WEBINAR

AI personalizzata per il tuo business: aumenta efficienza e vantaggio competitivo

Computer Vision
Intelligenza Artificiale Generativa
Iscriviti al Webinar

EU Stories - La coesione innova l'Italia

Tutti
Video & Podcast
Analisi
Social
Iniziative
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4