Le attuali strategie di comunicazione commerciale, realizzate nell’ambiente online, grazie al meccanismo della profilazione e al costante sviluppo degli algoritmi analitici e predittivi, consentono di realizzare pubblicità sempre più efficaci, in quanto personalizzate e mirate, ben distanti dalle tradizionali tecniche pubblicitarie, rivolte in modo indifferenziato ad una platea molto ampia di destinatari[1].
Pubblicità personalizzata, così influenza i minori online: problemi e contromisure
Profilazione e pubblicità personalizzata
Tali nuove forme di pubblicità, benché foriere di indubbi vantaggi per le imprese, nonché per i consumatori, che vedono ridotto il tempo dedicato alla ricerca dei prodotti o dei servizi rispondenti alle proprie preferenze e standard[2], possono in realtà incidere sulla vita privata, sulla libertà di pensiero e di scelta delle persone[3], sulla democrazia, nonché agevolare la manipolazione e la discriminazione[4].
Esse, inoltre, si rivelano ancor più insidiose ed efficaci quando sono rivolte ai minori di età, i quali sono meno in grado, rispetto agli adulti, di comprenderne i rischi, ma non per questo meno incoraggiati ad esplorare e a sperimentare la loro identità nell’ecosistema digitale[5].
Dal gioco interattivo alla visualizzazione di un video o dal semplice uso di smart toy o di altri dispositivi IoT (Internet of Things), le aziende sono in grado di inferire informazioni, anche sensibili, preziosissime che non si limitano alle sole caratteristiche, abitudini e preferenze dell’utente, ma includono anche le sue condizioni di salute, le sue abilità cognitive, i suoi stati d’animo, le sue vulnerabilità, consentendo quindi, grazie alle tecniche analitiche e predittive, la realizzazione di profili accurati relativi ai singoli consumatori, verso i quali indirizzare pubblicità mirate e personalizzate, servendosi, peraltro, di tecniche particolarmente persuasive, come l’influencer marketing e la pubblicità c.d. gamificata[6]. Ne discende una considerevole limitazione della libertà di autodeterminazione dell’utente minorenne in grado di estendersi ben oltre la sfera economica.
La profilazione dei minori ai fini di marketing nel Gdpr
Nel Regolamento Ue 2016/679 (noto come GDPR) non è previsto un divieto assoluto di profilare i minori ai fini commerciali, come riconosciuto anche nelle Linee guida del Gruppo di Lavoro “Articolo 29” (oggi sostituito dall’European Data Protection Board). Benché dai considerando 38 e 71 del GDPR si evinca l’intenzione di escludere i minori dalla profilazione, l’art. 22, che prevede una importante limitazione riguardo la profilazione in generale, nel consentire, in via eccezionale, le decisioni automatizzate e le profilazioni in determinati casi non distingue tra soggetti adulti e soggetti minori, lasciando quindi intendere la liceità delle decisioni automatizzate e delle profilazioni “autorizzate”, se basate sul consenso dell’interessato.
Il consenso che, ai sensi dell’art. 2-quinquies del Codice della Privacy[7] e art. 8 del GDPR, è legittimamente prestato, in autonomia, dal minore quattordicenne per accedere ai servizi della società dell’informazione, dovrebbe dunque autorizzare l’operatore, titolare del trattamento, ad utilizzare i relativi dati personali anche ai fini commerciali. Nelle medesime Linee guida si raccomanda tuttavia agli operatori, in generale, di astenersi dal profilare i minori per finalità di marketing, in quanto ritenuti particolarmente “vulnerabili nell’ambiente online e più facilmente influenzabili dalla pubblicità comportamentale” e, attraverso il richiamo all’art. 40 del Regolamento, si invitano gli Stati membri a recepire tali indicazioni nell’ambito dell’autoregolazione. Nella prospettiva del Regolamento, dunque, l’effettività della tutela dei minori nei confronti delle tecniche di marketing diretto, basate sulla profilazione, appare esclusivamente affidata all’adozione in concreto dei codici di condotta, nonché alla possibilità di sanzionare la violazione degli impegni volontariamente assunti[8].
Il divieto alla pubblicità mirata e comportamentale ai minori nella nuova strategia Ue
La finalità di tutelare le persone vulnerabili dalle nuove forme di comunicazione commerciale appare più chiaramente delineata nell’ambito della nuova strategia europea per il mercato unico digitale.
Nella Direttiva UE/2018/1808 sui servizi media audiovisivi[9] è previsto espressamente che “i dati personali dei minori raccolti o altrimenti generati dai fornitori di servizi di media a norma del paragrafo 1 non sono trattati a fini commerciali, quali marketing diretto, profilazione e pubblicità mirata sulla base dei comportamenti” rilevati. Tale previsione è stata quindi recepita nell’art. 36 del Testo unico dei servizi di media audiovisivi e radiofonici, come modificato dal D.Lgs. 8 novembre 2021, n. 208.
Analogo divieto è altresì contenuto nell’ambito degli emendamenti apportati dal Parlamento europeo il 20 gennaio scorso in sede di approvazione della proposta di Regolamento sui servizi digitali (Digital Service Act).
L’art. 24 (“Trasparenza della pubblicità on line”), come recentemente emendato, oltre a prevedere, in generale, una maggiore trasparenza in merito all’uso dei dati degli utenti per le pubblicità mirate e opzioni alternative (al rilascio del consenso per la pubblicità mirata) per accedere alla piattaforma, prevede espressamente il divieto di impiegare “tecniche di targeting o amplificazione che trattano, rivelano o inferiscono i dati personali dei minori” o delle persone vulnerabili “ai fini della visualizzazione della pubblicità”. Specificazione coerente con quanto espresso nel considerando 39 bis della proposta, in relazione al divieto rivolto ai prestatori di servizi intermediari di impiegare pratiche orientate a “ingannare o esortare i destinatari del servizio”, a “distorcere o limitare l’autonomia, il processo decisionale o la scelta dei destinatari del servizio” attraverso modelli occulti.
Si evince la finalità del legislatore di garantire la libertà di autodeterminazione dell’utente e, sotto questo profilo, mancando ulteriori specificazioni, la normativa potrebbe avere una portata più ampia, risultando quindi più garantista, rispetto a quanto previsto nell’art. 5 della proposta di Regolamento sull’Intelligenza artificiale, pubblicata dalla Commissione europea il 21 aprile 2021 (Artificial Intelligence Act), nella misura in cui le normative possano concorrere nell’applicazione concreta. In quest’ultima disposizione, infatti, nel disporre il divieto di usare sistemi di IA che utilizzano tecniche subliminali per distorcere il comportamento della persona (senza che la stessa ne sia consapevole) o che sfruttano “vulnerabilità di uno specifico gruppo di persone , dovute all’età o alla disabilità fisica o mentale” si specifica che tali impieghi siano idonei a provocare un danno fisico o psicologico alla persona[10]. Il divieto che verrebbe invece formulato nel Digital Services Act, sembrerebbe operare indipendentemente sia dalla consapevolezza che ne abbia l’utente (e quindi dal rilascio del consenso), sia dalla necessità che la pratica sia idonea a determinare un danno fisico o psicologico.
Il principio del “best interest of the child”
Si evidenzia inoltre come, sempre nell’ambito delle modifiche apportate lo scorso 20 gennaio, si sia espressamente menzionato il principio del “best interest of the child”, richiamando il General Comment n. 25, del 2 marzo 2021, del Comitato Onu alla Convenzione di New York del 1989 sui diritti dell’infanzia e dell’adolescenza, che in particolare dispone e indica come i diritti dei minori, affermati nella Convenzione, debbano essere applicati nell’ambiente digitale. È significativo come nell’ambito di tale documento, richiamato dal Digital Services Act, si faccia riferimento ai rischi che sorgono in relazione alle nuove forme di pubblicità commerciale e alle strategie di design persuasivo. Si legge, in particolare, come gli Stati parte dovrebbero garantire che le imprese non si rivolgano ai minorenni “utilizzando tecniche progettate per dare priorità agli interessi commerciali rispetto a quelli del minore”. Monito che troviamo in senso analogo espresso anche nel considerando 57 della proposta di Digital Service Act, laddove si richiede alle piattaforme di dimensioni molto grandi di compiere la valutazione d’impatto anche dei rischi sistemici che riguardano “qualsiasi effetto negativo concreto e prevedibile sulla tutela della salute pubblica, comprese dipendenze comportamentali legate a un uso eccessivo del servizio o altre gravi conseguenze negative per il benessere fisico, mentale, sociale e finanziario della persona”.
Conclusioni
Le specificazioni sopra richiamate (nell’ambito non solo della soft law ma anche della hard law) sono indicative di una maggiore consapevolezza, sul piano delle politiche dell’Unione europea, delle potenzialità lesive delle nuove tecnologie, in sé considerate (e non solo quali strumenti attraverso i quali è più agevole veicolare attività illecita), se non adeguatamente “conformate” fin dalla loro progettazione (by design) al rispetto dei diritti fondamentali della persona e pertanto anche e soprattutto dei diritti dei minori di età.
L’esplicitazione dell’impatto delle tecnologie sul benessere dei minori costituisce una buona premessa verso la strada, che ci sembra avviata, di una più incisiva regolamentazione, che dovrà essere accompagnata, per la sua effettività, dalla autoregolazione, sul presupposto che per l’edificazione di uno spazio digitale inclusivo, ma sicuro, sia necessaria la responsabilizzazione dei diversi attori della società civile (dagli attori educativi alle imprese del settore tecnologico e digitale che incidono direttamente o indirettamente sui diritti dei minori).
*Questo articolo è parte della rubrica “Innovation Policy: Quo vadis?” a cura dell’ICPC-Innovation, Regulation and Competition Policy Centre
Note
- G. Proietti, La pubblicità nell’era delle nuove tecnologie, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pisa, 2020 p. 162 ↑
- R. Montinaro, Il consumatore nei mercati online: la disciplina del commercio elettronico e delle pratiche commerciali scorrette alla prova dell’evoluzione tecnologica, in A. Catricalà, M.P. Pignalosa (a cura di), Saggi di diritto dei consumi, Torino, 2020, p. 106 ↑
- Si pensi al rischio per l’utente profilato di rimanere chiuso in una “gabbia costruita da altri” ( S. Rodotà, Il diritto di avere diritti, Laterza & Figli, Roma-Bari, 2012, p. 304), anche definita “bolla” ( M. Bianca, La filter bubble e il problema dell’identità digitale, in Media Laws, 2019, p. 1 ss.), in quanto destinatario di messaggi pubblicitari esclusivamente conformi ai gusti e agli interessi presuntivamente ricavati durante l’attività on line ↑
- A.Jabłonowska, Maciej Kuziemski, A M., Nowak, H.W. Micklitz, P. Pałka, G. Sartor, Consumer law and artificial intelligence Challenges to the EU consumer law and policy stemming from the business’ use of artificial intelligence, EUI Working Paper LAW 2018/11, p. 48 ↑
- D. Lupton, B. Williamson , The Datafied Child: The Dataveillance of Children and Implications For Their Rights’, in New Media and Society, Vol 19, Issue 5, 2017, pp. 780 ss. ↑
- Forma particolare di pubblicità che grazie al sistema premiale (punti, livelli da raggiungere, ricompense) è in grado di orientare ancora più facilmente il comportamento degli utenti. ↑
- Come modificato dal D.Lgs. n. 101/2018 ↑
- F. Di Porto, La libertà di espressione del minore e il diritto all’accesso ai mezzi di comunicazione e alla riservatezza, in nel volume a cura dell’Autorità Garante per l’Infanzia e l’Adolescenza, La Convenzione delle Nazioni Unite sui diritti dell’infanzia e dell’adolescenza. Conquiste e prospettive a 30 anni dall’adozione, 2019, p. 237 ↑
- La Direttiva 2018/1808/UE modifica la direttiva 2010/13/UE estendendo le regole previste nell’ambito delle comunicazioni audiovisive tradizionali alle piattaforme on demand e di condivisione dei video, prevede in capo ai fornitori di media digitali l’obbligo di adottare misure idonee per tutelare i minori in relazione a programmi, video (generati dagli utenti) e comunicazioni commerciali che possano nuocere al loro sviluppo fisico, mentale o morale. ↑
- Sui limiti della portata della disposizione cfr. M.Veale, F. Z. Borgesius, Demystifying the Draft EU Artificial Intelligence Act. Analysing the good, the bad, and the unclear elements of the proposed approach, in Computer Law Review International, 2021, p. 99. ↑