pubblicità e privacy

Se l’algoritmo “spia” le nostre emozioni e ci spinge a comprare

L’attuale economia dell’informazione impone sempre più spesso, “scelte” di consumo non più basate sui nostri bisogni ma plasmate da raffinati strumenti di profilazione. Ma quali implicazioni può avere l’uso dell’IA sulla liceità del messaggio pubblicitario e sul processo decisionale del consumatore?

Pubblicato il 07 Nov 2022

Davide Biondini

avvocato esperto in diritto del web e partner di Fabricamente

La tecnologia della comunicazione e dell’informazione ha creato una nuova figura di consumatore, per certi versi più scaltro e selettivo, per altri vittima di raffinati strumenti di profilazione che, inconsapevolmente, lo condizionano verso scelte non propriamente consapevoli.

Oggi le imprese possono infatti avvalersi di sofisticate tecnologie in grado di costruire una pubblicità online plasmata sulla personalità del suo destinatario e dotata di un forte carattere predittivo che, giocando d’anticipo, fa leva sulle sue emozioni prima ancora che sui suoi bisogni.

Microtargeting: cos’è e quali sono gli impatti per la protezione dei dati personali

Ciò porta a domandarsi quali conseguenze possano avere le tecniche di web marketing, potenziate dall’intelligenza artificiale, rispetto ai diritti degli individui e, conseguentemente, quali tutele giuridiche sarebbero necessarie per arginare i pericoli di un uso indiscriminato delle nuove tecnologie.

Come il digitale ha cambiato la comunicazione commerciale

La tecnologia digitale ha avuto un impatto dirompente sulle dinamiche della comunicazione commerciale, oggi veicolata da “media intelligenti” in grado di intercettare l’utente, ovunque si trovi, tracciare le sue risposte emotive e, facendo leva sulle stesse, stimolare “finti” bisogni di acquisto spesso manipolati da sofisticate tecniche di neuromarketing e ingegneria sociale.

Quella che appare come un’autonoma scelta di consumo è sovente il risultato di una comunicazione forgiata ad uso e consumo di strutture digitali oligopolistiche che, detenendo e elaborando le nostre impronte digitali, ci “accompagnano” in percorsi sensoriali ed emozionali al termine dei quali ci si trova ad aver interiorizzato un incontenibile desiderio di acquisto.

L’attuale economia dell’informazione impone quindi, sempre più spesso, una “scelta” di consumo non più basata sui reali bisogni del consumatore ma su capacità computazionali condotte da algoritmi e sistemi di intelligenza artificiale.

Occorre quindi chiedersi quale impatto possano avere tali tecnologie sulla privacy e sulla tutela di alcuni diritti fondamentali dell’individuo che, navigando nell’infosfera, non è in grado di mappare e conoscere le dinamiche del mondo nel quale quotidianamente si trova ad operare.

L’asimmetria informativa che caratterizza la società contemporanea è quindi causa di fenomeni, a volte gravi ed allarmanti, quali la disinformazione, le fake news, l’illecito condizionamento e la persuasione occulta.

Per delineare il confine di liceità della pubblicità online è quindi necessario comprendere il sistema regolativo proprio della tecnologia che, al pari di quello economico e giuridico, ha un proprio “codice” che, se non correttamente compreso, rischia di rendere superfluo o inefficace lo strumento giuridico posto a tutela dei diritti.

Quindi, poiché il “Codice è legge (e) la legge è software”[1] al fine di valutare l’efficacia delle norme attualmente vigenti nel marketing on line dovremo preliminarmente analizzare le dinamiche regolatrici degli strumenti utilizzati per attuarlo.

Digital advertising tra etica e diritto

Al fine di ridurre le criticità tipiche del modello di pubblicità tradizionale – consistenti nel veicolare efficacemente un messaggio, sempre identico, rivolto però ad un pubblico indifferenziato – si è introdotto l’uso di strumenti senz’altro utili ma al contempo molto invasivi per i diritti dei singoli.

Primo fra questi la profilazione, ossia quella tipologia di trattamento dei dati personali che, mediante l’elaborazione delle informazioni lasciate dall’utente in rete, crea messaggi personalizzati ed emotivamente impattanti sulle psiche del soggetto analizzato.

Attraverso l’analisi dei meccanismi cerebrali degli utenti (cd: biomarketing), esposti ad un determinato messaggio pubblicitario, è possibile tracciare la loro attività emotiva ed elaborare artificialmente quello stesso stimolo che, riproposto nei momenti di maggior “fragilità”, è in grado di influenzare, con una certa forza coercitiva, la volontà degli stessi.

Ora, poiché tali trattamenti automatizzati si basano su algoritmi efficienti ma non coscienti ci si domanda se e quali implicazioni possa avere l’uso dell’intelligenza artificiale sulla liceità del messaggio pubblicitario e sul processo decisionale dell’individuo.

Un’applicazione asettica degli algoritmi può infatti portare a compromettere il sistema economico e la libera concorrenza del mercato ma anche influenzare la libera autodeterminazione del consumatore.

Potrebbe quindi essere illecita, sotto vari profili, una comunicazione commerciale basata su un algoritmo non trasparente, discriminante e lesivo del diritto alla riservatezza. Non a caso tali criticità, connaturate ad un “codice” opaco e non neutrale, quale quello spesso utilizzato per profilare gli utenti nei processi di microtargeting, sono state sollevate a più livelli istituzionali che hanno convenuto l’esigenza di un intervento, sia autodisciplinare che statuale, volto a limitare i rischi di un algoritmo non etico o peggio svincolato da un controllo umano sullo stesso.

È solo attraverso un controllo etico, oltre che giuridico, che lo sviluppo delle tecnologie della comunicazione e dell’informazione può ritornare ad essere antropocentrico.

Microtargeting tra diritto pubblicitario, codice di consumo e data protection

Per “pubblicità si intende quella forma di comunicazione di massa usata dalle imprese per creare consenso intorno alla propria immagine, con l’obiettivo di conseguire i propri obiettivi di marketing. Caratteristica principale della comunicazione pubblicitaria è diffondere dunque messaggi preconfezionati a pagamento attraverso i mass-media, con l’obiettivo che il consenso si trasformi in atteggiamenti che vadano oltre il semplice acquisto del prodotto o servizio: la pubblicità informa, persuade, seduce il pubblico ed è ritenuta corretta se fidelizza l’utente finale in base a principi civili e umanizzanti”[2].

La comunicazione commerciale, alla luce della normativa statuale e dell’autodisciplina pubblicitaria, deve quindi essere onesta, veritiera, corretta, non ingannevole, trasparente e non denigratoria.

Poiché la pubblicità comportamentale on line – non più unidirezionale ma personalizzata attraverso forme di microtargeting – si basa su processi di profilazione e sistemi di intelligenza artificiale, ci si chiede se il rispetto delle regole di liceità possa ancora essere ancorato ai presupposti di lealtà fino ad oggi applicati o se siano “mutate le frontiere dell’ingannevolezza, della lecita comparazione, del rispetto delle altrui convinzioni morali o religiose e dello sfruttamento di timori razionali o irrazionali”[3][4].

Per comprendere i “nuovi” presupposti di legittimità è necessario quindi indagare non soltanto le regole ma anche la loro applicazione rispetto a modelli di marketing, oggi profondamente rinnovati.

L’analisi dovrà quindi partire dalle aree di criticità proprie di ogni algoritmo che, evidentemente, non potrà essere considerato illecito in sé ma censurabile solo previa valutazione dei potenziali rischi discriminatori e manipolatori.

L’opacità dell’algoritmico rende, ad esempio, difficile comprendere come i sistemi di AI raccolgano ed elaborino i dati personali che, compendiati in innumerevoli profilazioni, potrebbero rendere risultati discriminatori.

Inoltre, l’illecito trattamento del dato, peraltro sanzionato dalla normativa sulla data protection, potrebbe rendere un risultato artefatta in grado di compromettere la libera autodeterminazione del consumatore.

Come infatti è emerso da una recente dichiarazione del Consiglio d’Europa[5], l’ambiente tecnologico, nel quale si muove anche la nuova comunicazione commerciale, impone una protezione ulteriore rispetto ad un corretto trattamento del dato che “si estenda a quella nuova frontiera nella quale si collocano le informazioni e i dati inferiti (…) capaci di influenzare comportamenti, scelte, opinioni e perfino emozioni o reazioni emotive[6].

Ciò in quanto, con l’avvento dell’intelligenza artificiale, la figura del “consumatore medio”[7] – inteso quale soggetto dotato di ordinaria intelligenza e diligenza – è radicalmente mutata. Oggi il consumatore è vittima inconsapevole di strategie di marketing personalizzato e, come tale, estremamente manipolabile o persuadibile.

Inoltre, sotto altri profili di liceità, ci si chiede se un’offerta personalizzata opaca e non accompagnata dall’esternazione delle logiche seguite dall’algoritmo per profilare il consumatore, possa essere qualificata come omissione ingannevole ai sensi dell’art. 22 del codice del Consumo[8].

Dalle premesse considerazioni nasce quindi l’esigenza di tracciare una nuova “linea di demarcazione tra forme di persuasione accettabili e manipolazioni delle persone e delle loro coscienze che sono invece da contrastare severamente”[9].

“Nuovo consumatore” e “nuovo consenso”: le prospettive

Poiché con l’avvento della comunicazione digitale il “consumatore medio” non può più ritenersi ragionevolmente informato e sufficientemente avveduto, il consenso – quale prima espressione del diritto di autodeterminazione informativa – non potrà sempre ritenersi libero e consapevole.

La normativa sulla data protection[10] prevede che il consenso, per essere valido, debba essere espresso liberamente e dunque in modo non influenzato da coercizioni e raggiri. Tale libertà viene garantita anche dall’informativa che deve spiegare per quali finalità o con quali modalità avviene il trattamento dei dati personali.

In un mondo nel quale il divario di natura tecnologica tra interessato e titolari del trattamento porta a non avere una piena percezione della realtà nella quale l’utente è immerso, ci si domanda quale debba essere il corretto livello di informazione, funzionale a dare liceità al consenso.

Basterà, ad esempio, indicare che il trattamento avviene per finalità di marketing ovvero che sarà sottoposto a processi decisionali automatizzati? Oppure sarà necessario spiegare le logiche sottese all’algoritmo al fine di mettere in condizione l’interessato di poter comprendere le conseguenze della profilazione alla quale è sottoposto? E ancora, è veramente possibile dare trasparenza ad un algoritmo i cui risultati risultano a volte imperscrutabili agli stessi sviluppatori?

Conclusioni

Si ritiene che, allo stato dell’arte, sia difficile operare un corretto bilanciamento tra i diversi interessi in gioco. Da un lato quelli dell’impresa, dall’altro quelli dell’utente/consumatore.

Quello che è certo è che tutte le problematiche analizzate, regolamentate da una pluralità di norme di settore (diritto pubblicitario, data protection, diritti dei consumatori, antitrust, etc) hanno un comune denominatore – il “codice informatico” – che, per essere compiutamente disciplinato, richiederà un necessario coordinamento fra i diversi sistemi regolativi.

Note

  1. Lawrence Lessing Code and Other Laws of Cyberspace (1999)
  2. Wikipedia: https://it.wikipedia.org/wiki/Pubblicità
  3. Intelligenza Artificiale: il diritto, i diritti, l’etica. Giuffré Francis Lefebvre. Etica e diritto della pubblicità ai tempi dell’AI (pag. 633). Vincenzo Guggino a Berbara Banorri.
  4. Gli art. 8, 9, 10 Codice Autodisciplina della Comunicazione Commerciale vietano lo sfruttamento dei timori, più o meno razionali, quali la superstizione, la credulità e la paura e altresì vietano messaggi indecenti, volgari, ripugnanti o offensivi delle convinzioni morali civili o religiose.
  5. Declaration by the Committee of Ministers on the manipulative capabilities of algorithmic processes
  6. Diritto della pubblicità. Tutele e contenzioso (pag. 322), Giuffré Francis Lefebvre.
  7. L’art. 2 del Codice Autodisciplina, precisa che per valutare l’ingannevolezza dei messaggi pubblicitari si deve assumere come parametro il consumatore medio del gruppo di riferimento.
  8. L’art. 22 comma 1 Codice del Consumo qualifica come ingannevole una pratica commerciale che omette informazioni rilevanti di cui il “consumatore medio” ha bisogno per prendere una decisione consapevole di natura commerciale.
  9. Ibidem
  10. Regolamento europeo 679/2016 (GDPR) e D.lgs. 196/02 e successive modifiche

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3