I “dark pattern” sono strategie di design manipolative e ingannevoli implementate nelle interfacce utente al fine di indurre gli utenti a compiere azioni che potrebbero essere contrarie ai loro reali interessi o desideri. Queste pratiche, sebbene non sempre illegali per sé stesse, sollevano importanti questioni di conformità normativa, in particolare per quanto riguarda la trasparenza, il consenso informato e il rispetto della privacy dei dati personali degli utenti.
Caratteristiche dei dark pattern
Le caratteristiche principali dei dark pattern includono l’intenzionalità e la fruizione ingannevole, la decezione e l’uso di informazioni fuorvianti, la difficoltà di disimpegno e la trasparenza ridotta, nonché l’efficienza e la persuasione sottolineate dal loro design.
Contrariamente agli errori di design involontari, i dark pattern sono creati e implementati deliberatamente per ottenere vantaggi per chi li utilizza, a scapito degli interessi degli utenti. Tale comportamento può essere considerato ingannevole o fraudolento ai sensi delle leggi sulla concorrenza sleale e della normativa in materia di pratiche commerciali scorrette.
Spesso, i dark pattern si avvalgono di informazioni fuorvianti o ambigue per indurre gli utenti a compiere azioni non desiderate o controverse, sollevando preoccupazioni di conformità rispetto alle leggi sulla pubblicità ingannevole e sulla protezione dei consumatori.
Un tratto distintivo dei dark pattern è la loro capacità di intrappolare gli utenti in situazioni da cui è difficile uscire o disimpegnarsi. Ciò solleva interrogativi sulla trasparenza delle pratiche aziendali e sulla conformità alle leggi sulla privacy e la protezione dei dati personali, che richiedono consenso esplicito e informazioni chiare sul trattamento dei dati personali.
I dark pattern sono dunque progettati con cura per essere efficaci nel raggiungere i loro obiettivi, utilizzando principi di psicologia comportamentale e design persuasivo per influenzare le decisioni degli utenti in modo subconscio. Tuttavia, tali pratiche potrebbero sollevare questioni etiche e legali riguardo alla manipolazione degli individui e alla violazione dei loro diritti alla privacy e all’autonomia decisionale.
Sebbene i dark pattern possano non essere sempre illegali in sé stessi, il loro utilizzo solleva importanti questioni giuridiche e etiche che richiedono un’attenta valutazione in conformità alle normative vigenti, comprese quelle sulla concorrenza sleale, la pubblicità ingannevole e la protezione dei consumatori e dei dati personali. La consapevolezza e la vigilanza delle autorità di regolamentazione e degli organismi di tutela dei consumatori sono essenziali per garantire il rispetto dei diritti degli utenti e la tutela della loro privacy e sicurezza online.
Analisi legale dei dark pattern
L’analisi legale dei dark pattern nella pubblicità digitale assume un ruolo di fondamentale importanza nell’attuale contesto normativo e giuridico, poiché solleva una serie di questioni di rilevanza legale, in particolare riguardo alla tutela della privacy degli utenti e alla conformità alle leggi sulla protezione dei dati personali.
Inizialmente, va sottolineata l’urgenza di una valutazione approfondita dei dark pattern sotto il profilo giuridico, considerando il loro impatto sulla privacy degli individui. Molti di questi schemi comportano la raccolta e l’elaborazione dei dati personali degli utenti senza un consenso informato e trasparente, violando così le disposizioni normative sulla privacy e la protezione dei dati personali. In questo contesto, la raccolta e l’elaborazione non consensuale dei dati personali rappresenta una chiara violazione dei diritti degli individui, sanciti dalle leggi nazionali e internazionali sulla privacy e la protezione dei dati.
In aggiunta, è cruciale esaminare gli aspetti legali relativi alla tutela dei consumatori dall’adozione di pratiche commerciali sleali e ingannevoli. L’utilizzo di dark pattern attraverso le interfacce utente può violare le leggi sulla pubblicità ingannevole e la concorrenza sleale, le quali impongono che le informazioni fornite ai consumatori siano chiare, accurate e non fuorvianti.
Il mancato rispetto di tali disposizioni normative può comportare sanzioni legali significative per le aziende coinvolte, oltre a danneggiare la fiducia dei consumatori e la reputazione aziendale.
Dal punto di vista etico, lo studio dei dark pattern solleva interrogativi cruciali riguardanti l’integrità e la responsabilità nel design delle interfacce utente. Promuovere un approccio etico e responsabile alla progettazione delle interfacce è fondamentale non solo per garantire il rispetto dei diritti degli utenti, ma anche per evitare conseguenze negative, sia legali che reputazionali, per le aziende coinvolte. Il rispetto dei principi etici nel design delle interfacce contribuisce a creare un ambiente digitale più equo e rispettoso dei diritti degli utenti.
È pertanto essenziale un’approfondita analisi giuridica per valutare l’impatto dei dark pattern sulla privacy e la protezione dei dati personali degli utenti. Le aziende devono garantire che le loro pratiche di raccolta e utilizzo dei dati rispettino appieno le normative sulla privacy e la protezione dei dati personali, al fine di evitare sanzioni legali e danni alla reputazione aziendale. Questo richiede un’esauriente analisi delle politiche e delle procedure aziendali per garantire il pieno rispetto dei diritti degli utenti alla privacy e alla protezione dei dati personali.
Inoltre, nell’era della globalizzazione e della digitalizzazione, è imprescindibile adottare un approccio giuridico integrato e proattivo per rispettare le normative sulla privacy e la tutela dei consumatori in tutte le giurisdizioni in cui operano le aziende. Ciò implica un costante monitoraggio delle normative e degli orientamenti legali per garantire la conformità normativa e la protezione degli utenti in ogni contesto geografico.
Dunque, l’analisi legale dei dark pattern nella pubblicità digitale riveste una grande importanza per garantire la conformità normativa, valutare i rischi e le responsabilità legali e proteggere i consumatori dalla pubblicità ingannevole e manipolativa. Richiede una competenza approfondita delle leggi e dei regolamenti applicabili e una rigorosa attuazione delle politiche aziendali per garantire pratiche di marketing digitale etiche e rispettose dei diritti degli utenti, sia in termini di privacy che di tutela dei consumatori.
Intrusive advertising: definizione e contesto
L’Intrusive Advertising, conosciuto anche come pubblicità invasiva, rappresenta una pratica di marketing digitale che solleva una serie di questioni complesse e rilevanti sia dal punto di vista legale che normativo, con implicazioni significative per la tutela dei consumatori, il rispetto della privacy e la conformità normativa.
Questo tipo di pubblicità è caratterizzato dalla sua intrusività nell’esperienza dell’utente online, manifestandosi attraverso varie forme di annunci pubblicitari che interferiscono con il contenuto desiderato o richiesto dagli utenti. Tra queste forme vi sono annunci a schermo intero che coprono completamente il contenuto della pagina web, pop-up invasivi che si sovrappongono al testo o alle immagini visualizzate dall’utente, annunci video che si avviano automaticamente e interrompono la navigazione dell’utente, e altre forme che interrompono o disturbano l’esperienza di navigazione online.
L’adozione di queste pratiche può suscitare reazioni negative da parte degli utenti, che spesso percepiscono gli annunci intrusivi come fastidiosi, invadenti e poco graditi. Questo può avere un impatto significativo sull’esperienza dell’utente durante la navigazione online, compromettendo la sua soddisfazione e influenzando negativamente la percezione del marchio o del sito web che ospita gli annunci invasivi.
Dal punto di vista legale, l’Intrusive Advertising solleva una serie di questioni relative alla tutela dei consumatori e alla conformità normativa. In primo luogo, l’interferenza con l’esperienza online degli utenti può violare disposizioni di legge che regolano la pubblicità ingannevole e la concorrenza sleale. Le leggi in materia di pubblicità richiedono che le informazioni fornite ai consumatori siano chiare, accurate e non fuorvianti, e che non siano utilizzate pratiche ingannevoli per promuovere i prodotti o i servizi delle aziende. Gli annunci intrusivi, che spesso interrompono o disturbano l’esperienza dell’utente senza il suo consenso, possono violare queste disposizioni e mettere a rischio la conformità normativa delle aziende coinvolte.
Inoltre, l’Intrusive Advertising può sollevare preoccupazioni in materia di privacy e protezione dei dati personali degli utenti. Spesso, gli annunci intrusivi comportano la raccolta e l’elaborazione dei dati personali degli utenti senza il loro consenso informato, violando le disposizioni di legge sulla privacy e la protezione dei dati personali. In particolare, il General Data Protection Regulation (GDPR) in Europa stabilisce rigorosi requisiti per la raccolta, l’elaborazione e l’utilizzo dei dati personali degli utenti, e le aziende che non rispettano queste disposizioni possono essere soggette a sanzioni significative e danni alla reputazione.
Pertanto, è essenziale che le aziende adottino un approccio prudente e responsabile nel loro marketing digitale, evitando pratiche invadenti che possano violare i diritti dei consumatori e la conformità normativa. Questo può includere l’adozione di politiche e procedure interne per garantire il rispetto delle leggi e dei regolamenti applicabili, nonché l’implementazione di misure tecniche per proteggere la privacy e la sicurezza dei dati personali degli utenti.
Vediamo dunque come l’Intrusive Advertising presenti sfide significative per le aziende nel contesto del marketing digitale, con implicazioni rilevanti per la tutela dei consumatori, il rispetto della privacy e la conformità normativa. Le aziende devono adottare un approccio olistico e responsabile nel loro marketing digitale, bilanciando gli obiettivi di marketing con il rispetto dei diritti degli utenti e la conformità normativa, al fine di garantire una navigazione online sicura, rispettosa e soddisfacente per tutti gli utenti.
Tecniche di dark pattern
Esaminiamo quindi le principali tecniche di dark pattern utilizzate nel design delle interfacce utenti.
Confirmshaming
Il confirmshaming rappresenta una pratica manipolativa utilizzata nel design delle interfacce utente al fine di influenzare il comportamento degli utenti attraverso l’uso del senso di colpa. Questa tecnica sfrutta abilmente la psicologia umana, inducendo gli utenti a compiere azioni che potrebbero altrimenti evitare o rifiutare.
Una delle manifestazioni più comuni di questa tecnica è la formulazione di domande retoriche che implicano una risposta positiva al fine di evitare il senso di colpa associato alla scelta negativa. Ad esempio, un sito web potrebbe presentare una pop-up con la domanda: “Vuoi davvero perdere questa offerta incredibile?”, con l’opzione di rifiuto che porta un messaggio come “No, grazie, preferisco pagare di più.” In questo modo, gli utenti potrebbero sentirsi inclini ad accettare l’offerta non tanto per il suo valore intrinseco, ma per evitare il senso di colpa associato al rifiuto implicito.
Questa tecnica sfrutta la vulnerabilità emotiva degli utenti, manipolando i loro sentimenti di colpa o di vergogna per indurli a compiere azioni che potrebbero non essere al loro vero interesse. Tuttavia, dal punto di vista legale, il confirmshaming solleva diverse questioni riguardanti la trasparenza, l’equità e il rispetto dei diritti degli utenti.
In primo luogo, l’uso del confirmshaming potrebbe violare i principi di trasparenza e chiarezza nelle comunicazioni commerciali. Le domande retoriche possono essere fuorvianti e ingannevoli, portando gli utenti a compiere scelte basate su informazioni distorte o manipolate. Questo potrebbe costituire una violazione delle leggi sulla pubblicità ingannevole, che richiedono che le informazioni fornite ai consumatori siano accurate, chiare e non fuorvianti.
Inoltre, il confirmshaming solleva preoccupazioni etiche riguardanti il rispetto della libertà di scelta degli utenti e il loro diritto a prendere decisioni informate e consapevoli. Costringere gli utenti a compiere azioni attraverso il ricorso al senso di colpa può essere considerato un abuso delle vulnerabilità emotive degli individui, violando così il principio di equità e rispetto dei diritti degli utenti.
Potrebbe, inoltre, mettere in discussione la conformità alle normative sulla privacy e la protezione dei dati personali. Le pratiche manipolative che inducono gli utenti a fornire informazioni personali sensibili o a compiere transazioni non desiderate potrebbero costituire una violazione delle disposizioni normative in materia di privacy, che impongono il rispetto della riservatezza e della sicurezza dei dati personali degli utenti.
Fake urgency e fear of missing out (FOMO)
La Fake Urgency e la Fear of Missing Out (FOMO) sono due strategie psicologiche ampiamente utilizzate nel campo del marketing digitale per influenzare il comportamento degli utenti e favorire l’acquisto impulsivo. Queste tecniche si basano sull’idea di creare un senso di urgenza o di opportunità limitata, spingendo gli utenti a prendere decisioni rapide per evitare di perdere un vantaggio o un’occasione unica.
La Fake Urgency, o falsa urgenza, è una strategia che induce gli utenti a credere che un’offerta o un’opportunità sia disponibile solo per un periodo di tempo limitato o in quantità limitate, anche se questo potrebbe non essere vero. Le aziende utilizzano una varietà di tattiche per creare questa percezione di urgenza, come countdown timer che segnalano la scadenza imminente dell’offerta, messaggi che indicano che l’offerta è valida solo per un periodo di tempo limitato, o frasi come “Ultima possibilità” o “Solo per oggi”.
La Fear of Missing Out (FOMO), o paura di perdere qualcosa, è una strategia che sfrutta la tendenza umana a voler essere inclusi e a non voler perdere opportunità o esperienze. Le aziende possono utilizzare la FOMO per creare un senso di ansia o preoccupazione negli utenti, spingendoli ad agire immediatamente per non perdere l’opportunità offerta. Questa tecnica può essere implementata attraverso messaggi che enfatizzano l’esclusività dell’offerta o la popolarità del prodotto, oppure attraverso la visualizzazione di notifiche di acquisto recenti da parte di altri utenti.
Dal punto di vista legale, l’utilizzo della Fake Urgency e della FOMO solleva questioni relative alla trasparenza, all’equità e alla conformità normativa. Le pratiche che inducono gli utenti a compiere acquisti impulsivi o a prendere decisioni basate su informazioni fuorvianti o manipolate potrebbero violare le disposizioni di legge che regolano la pubblicità ingannevole e la concorrenza sleale.
Un esempio concreto di Fake Urgency e FOMO può essere osservato nei siti di e-commerce durante i periodi di sconti o promozioni. Ad esempio, un sito potrebbe visualizzare un countdown timer accanto a un’offerta speciale, indicando che l’offerta scadrà entro un certo periodo di tempo. Allo stesso tempo, potrebbe mostrare notifiche di acquisto recenti da parte di altri utenti per creare un senso di FOMO tra gli utenti che stanno navigando sul sito.
La strategia del nagging
Il Nagging è una strategia di marketing che sfrutta la ripetizione persistente di messaggi o notifiche per influenzare il comportamento degli utenti e spingerli ad agire. Questa tecnica si basa sull’idea che la ripetizione costante di un messaggio possa aumentare la probabilità che gli utenti si impegnino in determinate azioni, come l’acquisto di un prodotto o servizio.
Le aziende utilizzano il Nagging in varie forme, tra cui e-mail di follow-up, notifiche push, messaggi pubblicitari ripetuti su piattaforme digitali e persino telefonate o messaggi SMS inviati agli utenti. Questa strategia mira a mantenere il marchio o il prodotto costantemente presente nella mente degli utenti, aumentando così le probabilità che essi si impegnino in un’azione desiderata, come l’acquisto di un prodotto o l’iscrizione a un servizio.
Dal punto di vista legale, il Nagging solleva questioni riguardanti il consenso degli utenti e il rispetto delle leggi sulla privacy e la protezione dei dati personali. Le pratiche di Nagging che comportano l’invio ripetuto di messaggi o notifiche agli utenti potrebbero essere considerate invasive o moleste, soprattutto se gli utenti non hanno fornito un consenso esplicito per ricevere tali comunicazioni. Inoltre, il Nagging potrebbe violare le disposizioni normative che regolano la frequenza e il tipo di comunicazioni di marketing che le aziende possono inviare agli utenti, come previsto dal GDPR in Europa o il Telephone Consumer Protection Act (TCPA) negli Stati Uniti.
Un esempio concreto di Nagging può essere osservato nelle pratiche di e-mail marketing, dove le aziende inviano e-mail di follow-up o promozionali ai propri clienti con una frequenza elevata. Ad esempio, un’azienda potrebbe inviare una serie di e-mail di follow-up a un cliente che ha abbandonato il carrello degli acquisti sul loro sito web, cercando di convincerlo a completare l’acquisto. Queste e-mail potrebbero includere offerte speciali, sconti aggiuntivi o promozioni limitate nel tempo per spingere il cliente a compiere un’azione immediata.
Sneak into Basket
Lo “Sneak into Basket”, una pratica diffusa nel contesto del commercio elettronico, rappresenta una strategia sottile ma potente adottata dalle aziende per aumentare le vendite e incoraggiare gli acquisti impulsivi. Questa tattica si basa sull’aggiunta automatica di prodotti al carrello degli utenti senza richiedere il loro consenso esplicito o un’azione diretta da parte loro.
Un esempio concreto di “Sneak into Basket” può essere osservato durante il processo di acquisto su un sito di e-commerce. Supponiamo che un utente stia navigando attraverso una selezione di prodotti, e decida di aggiungere al carrello un paio di scarpe sportive. Tuttavia, al momento di fare clic sul pulsante “Aggiungi al carrello”, si accorge che insieme alle scarpe è stato pre-selezionato automaticamente un paio di calze o un accessorio correlato. Se l’utente non presta attenzione a questa opzione aggiuntiva e procede con l’acquisto, finirà per acquistare sia le scarpe che il prodotto aggiuntivo senza esserne pienamente consapevole.
Un ulteriore esempio potrebbe riguardare l’offerta di servizi aggiuntivi o abbonamenti durante il processo di check-out. Ad esempio, durante l’acquisto di un prodotto, potrebbe essere pre-selezionata automaticamente un’opzione per iscriversi a un abbonamento mensile o annuale, senza che l’utente ne sia pienamente consapevole. Questa pratica potrebbe portare gli utenti a contrarre impegni finanziari non desiderati o non pianificati.
Questa pratica, sebbene possa sembrare innocua, solleva questioni significative dal punto di vista legale e etico. In primo luogo, il “Sneak into Basket” potrebbe essere considerato ingannevole o fuorviante, in quanto induce gli utenti a compiere un acquisto non previsto o desiderato. Inoltre, questa pratica potrebbe violare le normative sulla protezione dei consumatori, che richiedono trasparenza e chiarezza nelle transazioni commerciali online.
Affrontare il fenomeno del “Sneak into Basket” richiede un’attenzione particolare da parte delle autorità di regolamentazione e delle aziende stesse. È importante garantire che le pratiche commerciali siano trasparenti e rispettose dei diritti dei consumatori, e che gli utenti siano pienamente informati prima di effettuare un acquisto online.
The roach motel pattern
Il “Roach Motel Pattern” è una strategia di design dell’interfaccia utente che si basa sulla facilità di inizio di un’azione o processo, ma rende estremamente difficile per gli utenti interrompere o uscire da esso una volta iniziato. Questo termine, coniato nel contesto del design digitale, trae ispirazione dalle trappole per scarafaggi commerciali, in cui gli insetti possono entrare facilmente ma fanno fatica a uscire.
Un esempio più dettagliato del “Roach Motel Pattern” può essere identificato in piattaforme di social media o applicazioni di messaggistica istantanea. In queste piattaforme, l’utente può trovare intuitivo e semplice il processo di registrazione e inizio di una nuova esperienza. Tuttavia, una volta all’interno della piattaforma, può scoprire che è estremamente complicato o frustrante interrompere l’utilizzo del servizio o eliminare l’account. Le opzioni per disattivare l’account possono essere nascoste in menu intricati o richiedere una serie di passaggi complessi. In alcuni casi, gli utenti potrebbero non riuscire a trovare affatto un’opzione per eliminare l’account, lasciandoli intrappolati nella piattaforma anche se desiderano uscirne.
Questo schema comportamentale solleva diverse questioni legate alla trasparenza, alla libertà degli utenti e alla conformità alle normative sulla protezione dei consumatori. In primo luogo, rendere difficile per gli utenti interrompere l’utilizzo di una piattaforma potrebbe essere considerato anti-competitive, limitando la capacità degli utenti di scegliere liberamente tra le opzioni disponibili. Inoltre, queste pratiche potrebbero violare le leggi sulla protezione dei consumatori se impediscono agli utenti di esercitare il loro diritto di controllo sui propri dati personali o di annullare i servizi a loro discrezione.
Per affrontare il fenomeno del “Roach Motel Pattern”, è essenziale che le aziende adottino pratiche di design trasparenti e rispettose degli utenti. Le piattaforme digitali devono essere progettate in modo da consentire agli utenti di prendere decisioni informate sulle proprie esperienze online e di esercitare il controllo sui propri dati e sulle proprie interazioni digitali.
Privacy zuckering
Il “Privacy Zuckering” rappresenta una pratica che coinvolge la manipolazione delle impostazioni sulla privacy degli utenti al fine di ottenere informazioni personali o consentire la condivisione di dati sensibili senza il pieno consenso degli utenti stessi. Questo fenomeno, coniato in riferimento a Mark Zuckerberg, fondatore di Meta (ex Facebook), evidenzia una serie di problematiche legate alla protezione dei dati personali e alla trasparenza delle pratiche delle aziende nel trattamento delle informazioni degli utenti.
Una caratteristica chiave del “Privacy Zuckering” è rappresentata dalle impostazioni predefinite su molte piattaforme digitali, compresi i social media e le applicazioni online. Spesso, queste impostazioni sono configurate in modo tale da favorire la massima condivisione di dati personali senza richiedere un consenso esplicito da parte degli utenti. Ad esempio, durante il processo di registrazione su una piattaforma di social media, le impostazioni di privacy potrebbero essere predefinite per consentire la condivisione di informazioni personali con un pubblico più ampio, senza che l’utente sia pienamente consapevole di questa configurazione.
Un esempio concreto di “Privacy Zuckering” può essere trovato nelle politiche sulla privacy e nelle impostazioni di condivisione dei dati di Meta. Nel corso degli anni, Meta è stata criticata per le sue politiche sulla privacy e per le impostazioni predefinite che favoriscono la condivisione di informazioni personali con terze parti o con il pubblico più ampio. Queste pratiche hanno sollevato preoccupazioni riguardo alla trasparenza delle politiche di Meta e al rispetto della privacy degli utenti.
Questo schema comportamentale solleva diverse questioni etiche e giuridiche. Dal punto di vista etico, il “Privacy Zuckering” può essere considerato una violazione della fiducia degli utenti e dei loro diritti alla privacy. Le pratiche che inducono gli utenti a condividere informazioni personali senza un consenso informato possono minare la fiducia nelle piattaforme digitali e compromettere la privacy degli utenti.
Dal punto di vista legale, il “Privacy Zuckering” solleva gravi preoccupazioni riguardo alla conformità alle normative sulla protezione dei dati personali e della privacy. Le pratiche che violano le leggi sulla privacy e la protezione dei consumatori potrebbero essere soggette a sanzioni e provvedimenti legali da parte delle autorità di regolamentazione. Inoltre, le aziende che utilizzano tali pratiche potrebbero essere esposte a rischi legali derivanti da azioni legali dei consumatori per danni o violazioni dei loro diritti.
Le piattaforme digitali devono fornire informazioni chiare e comprensibili sulle politiche sulla privacy e sulle impostazioni di condivisione dei dati, consentendo agli utenti di prendere decisioni informate sulle loro esperienze online e di esercitare il controllo sui propri dati personali.
Impatto dei dark pattern sui consumatori
I dark pattern influenzano negativamente i consumatori sotto diversi aspetti, dando origine a una serie di conseguenze che possono compromettere l’esperienza degli utenti e minare la fiducia nelle piattaforme online.
La perdita di fiducia rappresenta uno degli impatti più significativi dei dark pattern sul comportamento dei consumatori. Quando gli utenti si rendono conto di essere stati ingannati o manipolati da pratiche ingannevoli, possono sviluppare una percezione negativa nei confronti della piattaforma in questione. Questo può portare a una perdita di fiducia nell’integrità e nella trasparenza delle aziende che utilizzano tali pratiche, riducendo così la propensione degli utenti a utilizzare i loro servizi e influenzando negativamente la reputazione del marchio.
Inoltre, i dark pattern possono causare frustrazione e stress agli utenti, soprattutto quando si sentono intrappolati in abbonamenti non desiderati o in processi di acquisto complessi. Queste pratiche possono generare sentimenti di impotenza e irritazione tra gli utenti, che si trovano a dover affrontare situazioni che non hanno cercato o desiderato. Questo può avere un impatto negativo sull’esperienza complessiva degli utenti e portare a una riduzione della soddisfazione nei confronti della piattaforma.
In sintesi, i dark pattern non solo minano la fiducia degli utenti e influenzano negativamente la loro percezione delle piattaforme online, ma possono anche generare disagio e stress tra gli utenti che si trovano a dover affrontare pratiche ingannevoli o manipolative. Affrontare questi impatti richiede un’azione coordinata da parte delle autorità di regolamentazione, delle aziende e della società nel suo complesso, al fine di promuovere pratiche etiche e trasparenti nella progettazione delle interfacce utente e proteggere i diritti e le esperienze degli utenti online.
Analisi delle tecniche da una prospettiva di privacy
L’analisi delle tecniche dark pattern da una prospettiva di privacy rivela una serie di pratiche che sollevano gravi preoccupazioni riguardo alla protezione dei dati personali degli utenti. Queste tecniche spesso coinvolgono la raccolta, l’elaborazione e l’utilizzo dei dati degli utenti in modi che possono violare le leggi sulla privacy e la protezione dei dati personali.
Implicazioni sulla privacy degli utenti
Una delle principali preoccupazioni riguarda la trasparenza e il consenso informato degli utenti. Molte delle tecniche dark pattern sono progettate per ottenere informazioni personali dagli utenti senza il loro pieno consenso o consapevolezza. Ad esempio, un dark pattern che utilizza una finestra pop-up per ottenere l’accesso ai contatti dell’utente può essere considerato una violazione della privacy, in quanto non fornisce agli utenti informazioni chiare e comprensibili sulle conseguenze della loro azione.
Inoltre, le tecniche dark pattern possono essere utilizzate per manipolare le impostazioni sulla privacy degli utenti al fine di ottenere un consenso implicito alla raccolta e all’elaborazione dei loro dati personali. Ad esempio, un dark pattern che utilizza un linguaggio ambiguo o ingannevole nelle impostazioni sulla privacy potrebbe indurre gli utenti a condividere informazioni sensibili senza rendersi conto delle implicazioni delle loro azioni.
Dal punto di vista giuridico, queste pratiche sollevano gravi preoccupazioni riguardo alla conformità alle normative sulla privacy e la protezione dei dati personali. In molti paesi, esistono leggi e regolamenti che stabiliscono requisiti specifici per la raccolta, l’elaborazione e la conservazione dei dati personali degli utenti, nonché per il consenso informato e trasparente degli utenti riguardo alla gestione dei loro dati. Le pratiche che violano queste normative possono essere soggette a sanzioni e provvedimenti legali da parte delle autorità di regolamentazione.
Un esempio concreto di tecnica dark pattern utilizzata dalle aziende è rappresentato dalle politiche sulla privacy e dalle impostazioni di condivisione dei dati di alcune piattaforme di social media. Queste piattaforme possono utilizzare impostazioni predefinite che favoriscono la massima condivisione di dati personali senza richiedere un consenso esplicito da parte degli utenti. Questo può violare le normative sulla privacy e la protezione dei dati personali, esponendo le aziende che utilizzano queste pratiche a rischi legali e reputazionali.
Per affrontare queste preoccupazioni, è necessario promuovere una maggiore trasparenza e consenso informato da parte delle aziende nelle loro pratiche di gestione dei dati personali degli utenti. Le autorità di regolamentazione devono vigilare sull’uso dei dark pattern e applicare sanzioni alle aziende che violano le leggi sulla privacy e la protezione dei dati personali. Allo stesso tempo, le aziende devono adottare pratiche etiche e trasparenti nella progettazione delle loro interfacce utente, garantendo che gli utenti siano pienamente informati e in grado di prendere decisioni informate riguardo alla gestione dei loro dati personali.
Modalità di manipolazione del consenso
Le misure per la raccolta dei dati personali sono un punto cruciale nell’analisi dei dark pattern, poiché molte di queste pratiche sono progettate per ottenere il consenso degli utenti in modo ingannevole o non trasparente. In particolare, alcuni dark pattern sono progettati per ottenere il consenso implicito degli utenti alla raccolta dei dati, creando un’illusione di scelta o rendendo complicato il rifiuto delle richieste di condivisione dei dati.
Un esempio comune è rappresentato dai pop-up di cookie che appaiono quando si visita un sito web. Questi pop-up spesso presentano opzioni di accettazione dei cookie in modo prominente, mentre l’opzione per rifiutarli è nascosta o resa meno evidente. Questo schema è progettato per indurre gli utenti a fornire il proprio consenso senza piena consapevolezza delle conseguenze della loro azione. Inoltre, alcuni dark pattern utilizzano tecniche di persuasione o pressione psicologica per influenzare la decisione degli utenti, ad esempio attraverso l’uso di linguaggio ambiguo o minaccioso.
Tuttavia, queste pratiche spesso violano le normative sulla privacy, come GDPR, che stabilisce requisiti specifici per il consenso chiaro e informato degli utenti alla raccolta e all’elaborazione dei loro dati personali. Il GDPR richiede che il consenso degli utenti sia libero, specifico, informato e inequivocabile, e che gli utenti siano pienamente informati sui fini della raccolta dei dati e sui soggetti a cui saranno divulgati i loro dati personali.
Di conseguenza, i dark pattern che inducono gli utenti a fornire il proprio consenso in modo ingannevole o non trasparente possono essere considerati una violazione del GDPR e di altre normative sulla privacy. Le autorità di regolamentazione possono applicare sanzioni alle aziende che utilizzano tali pratiche e proteggere i diritti degli utenti online.
Per affrontare queste preoccupazioni, è essenziale promuovere una maggiore trasparenza e consenso informato da parte delle aziende nelle loro pratiche di raccolta dei dati personali degli utenti. Le aziende devono garantire che gli utenti siano pienamente informati sui fini della raccolta dei dati e che il loro consenso sia ottenuto in modo chiaro, libero e informato. Allo stesso tempo, le autorità di regolamentazione devono vigilare sull’uso dei dark pattern e applicare sanzioni alle aziende che violano le normative sulla privacy e la protezione dei dati personali degli utenti.
Normative, regolamenti vigenti e best practices
Le normative e i regolamenti vigenti nel campo della protezione dei dati sono fondamentali per affrontare le pratiche ingannevoli e manipolative dei dark pattern. Tra le principali normative globali vi è il GDPR, che stabilisce rigidi requisiti per la raccolta, l’elaborazione e la conservazione dei dati personali degli utenti. Negli Stati Uniti, Il California Consumer Privacy Act (CCPA), entrato in vigore nel 2020, garantisce ai consumatori il diritto di conoscere quali dati personali vengono raccolti e condivisi dalle aziende e di rifiutare la vendita dei loro dati personali.
Un altro attore chiave nella protezione della privacy online negli Stati Uniti è la Federal Trade Commission (FTC), l‘agenzia federale responsabile di proteggere i consumatori dagli atti o pratiche commerciali ingannevoli o sleali.
Il GDPR, come sappiamo, impone agli operatori economici di ottenere il consenso esplicito degli utenti per la raccolta e l’elaborazione dei loro dati personali. Le aziende devono fornire agli utenti informazioni chiare e complete sui fini della raccolta dei dati e ottenere il loro consenso in modo chiaro, libero e informato. Le violazioni del GDPR possono comportare sanzioni fino al 4% del fatturato globale annuo o € 20 milioni, a seconda di quale sia il valore maggiore.
In un esempio significativo di violazione del GDPR, Google è stata multata dall’Authority Garante della Concorrenza e del Mercato dell’Unione Europea nel 2019. L’azienda è stata ritenuta responsabile di mancata trasparenza e consenso nel trattamento dei dati personali degli utenti per finalità pubblicitarie, ed è stata multata per € 50 milioni.
Oltre oceano, è la FTC ha il potere di imporre multe alle aziende che violano le leggi sulla privacy e la protezione dei consumatori. Ad esempio, nel 2019, Amazon è stata multata per $ 170 milioni per violazione delle leggi sulla privacy dei bambini attraverso la sua piattaforma di streaming video, Twitch.
Un altro esempio riguarda Epic Games, sviluppatore del popolare gioco online Fortnite, che è stato oggetto di indagini della FTC per le sue pratiche di raccolta dei dati personali dei minori. L’azienda ha dovuto pagare una multa di $ 10 milioni per aver raccolto dati personali di minori senza il consenso dei genitori, violando la Children’s Online Privacy Protection Act” (COPPA), una legge federale approvata nel 1998 e che regola la raccolta online di informazioni personali da parte dei siti web e dei servizi online diretti ai bambini di età inferiore ai 13 anni.
Questi esempi illustrano l’importanza delle normative e dei regolamenti sulla protezione dei dati nel contrastare le pratiche ingannevoli e manipolative dei dark pattern, nonché nel proteggere i diritti e la privacy degli utenti online.
Linee guida e best practice per le aziende
Le linee guida e le best practice per le aziende nel campo della gestione dei dati personali sono cruciali per garantire la conformità normativa e promuovere una cultura aziendale incentrata sulla trasparenza, l’etica e il rispetto della privacy degli utenti. Esistono diverse risorse e iniziative che forniscono orientamenti dettagliati alle aziende su come gestire in modo responsabile i dati personali dei loro utenti e evitare pratiche ingannevoli e manipolative.
Una delle principali fonti di linee guida è rappresentata dalle autorità di regolamentazione, come l’European Data Protection Board (EDPB) nell’Unione Europea e la FTC negli Stati Uniti. Queste autorità forniscono documenti orientativi e risorse informative per aiutare le aziende a comprendere e rispettare le leggi sulla privacy e la protezione dei dati personali.
Ad esempio, l’EDPB ha pubblicato linee guida dettagliate sul consenso nell’ambito del GDPR, fornendo indicazioni su come ottenere e gestire il consenso degli utenti in conformità con i requisiti normativi. Similmente, la FTC ha pubblicato una serie di documenti informativi e risorse online per aiutare le aziende a comprendere e rispettare le leggi sulla privacy e la protezione dei consumatori.
Inoltre, esistono organizzazioni non governative e associazioni di settore che forniscono linee guida e best practice specifiche per determinati settori o tipi di aziende. Ad esempio, la Online Trust Alliance (OTA) fornisce una serie di raccomandazioni e best practice per le aziende nel campo della gestione dei dati personali e della sicurezza informatica.
Un esempio di best practice è rappresentato dalla trasparenza e dalla chiarezza nell’ottenimento del consenso degli utenti alla raccolta e all’elaborazione dei loro dati personali. Le aziende devono fornire agli utenti informazioni chiare e comprensibili sui fini della raccolta dei dati e sulle modalità con cui verranno utilizzati i loro dati personali. Questo include la trasparenza nell’uso dei cookie e delle tecnologie di tracciamento online, nonché nell’implementazione di politiche sulla privacy e sulla protezione dei dati accessibili agli utenti.
Inoltre, le aziende devono adottare misure appropriate per proteggere i dati personali degli utenti e prevenire violazioni della sicurezza dei dati. Questo include l’implementazione di misure di sicurezza informatica adeguate, come la crittografia dei dati e l’accesso limitato ai dati sensibili, nonché la nomina di un responsabile della protezione dei dati (DPO) per garantire la conformità normativa e la gestione responsabile dei dati personali.
Contrasto e mitigazione dei dark pattern
Il contrasto e la mitigazione dei dark pattern richiedono l’adozione di diverse strategie e l’impiego di tecnologie e strumenti specifici. Le organizzazioni e gli utenti possono collaborare utilizzando approcci diversificati per identificare, combattere e prevenire l’uso di pratiche ingannevoli nelle interfacce utente.
Strategie per identificare e combattere i dark pattern
Le organizzazioni possono adottare strategie di analisi e audit per identificare i dark pattern nelle loro interfacce utente. Queste strategie possono coinvolgere l’impiego di strumenti automatizzati per esaminare il design e il flusso delle interfacce utente al fine di individuare schemi manipolativi. Inoltre, l’istituzione di processi interni di revisione e valutazione etica può contribuire a prevenire l’uso di tali pratiche.
Un esempio di strategia per identificare i dark pattern è rappresentato dall’analisi dell’interfaccia utente di un sito web o di un’applicazione mobile attraverso l’uso di strumenti di testing e analisi. Questi strumenti possono rivelare schemi comportamentali sospetti, come ad esempio la presenza di richieste di consenso o di azioni che inducono gli utenti ad agire in modo non voluto.
Tecnologie e strumenti di protezione della privacy
Esistono diverse tecnologie e strumenti che possono aiutare gli utenti a proteggere la propria privacy e a ridurre l’esposizione ai dark pattern. Le estensioni del browser, ad esempio, come i blocchi di annunci e gli strumenti di gestione dei cookie, possono bloccare o limitare l’esposizione agli annunci pubblicitari invasivi e alle richieste di consenso non trasparenti.
Un esempio di tecnologia di protezione della privacy è rappresentato dalle estensioni del browser come uBlock Origin o Privacy Badger, che consentono agli utenti di bloccare automaticamente gli annunci pubblicitari e le tracce di tracciamento online durante la navigazione sul web. Questi strumenti forniscono agli utenti un maggiore controllo sulla loro esperienza online e li aiutano a proteggere la propria privacy.
Educazione degli utenti e consapevolezza digitale
L’educazione degli utenti è fondamentale per contrastare i dark pattern e promuovere una maggiore consapevolezza digitale tra gli utenti. Campagne di sensibilizzazione e programmi di alfabetizzazione digitale possono aiutare gli utenti a riconoscere e evitare le pratiche ingannevoli nelle interfacce utente, nonché a comprendere i loro diritti in materia di privacy e protezione dei dati.
Un esempio di iniziativa educativa è rappresentato dalle campagne di sensibilizzazione online organizzate da organizzazioni non governative e associazioni di consumatori, che forniscono informazioni e risorse per aiutare gli utenti a proteggere la propria privacy online. Queste campagne possono includere tutorial, guide e risorse informative su come riconoscere e segnalare i dark pattern, nonché su come proteggere la propria privacy online.
Prospettive future
Con l’evoluzione delle normative sulla privacy e la protezione dei dati, è probabile che i dark pattern si adattino per eludere le nuove leggi e regolamenti.
Evoluzione dei dark pattern in risposta a nuove normative
Le aziende potrebbero cercare di trovare nuovi modi per ingannare gli utenti e ottenere il consenso alla raccolta e all’elaborazione dei dati personali, pur rimanendo apparentemente conformi alla legge. È essenziale che le autorità di regolamentazione rimangano vigili e aggiornino continuamente le loro linee guida per affrontare queste evoluzioni, garantendo che le pratiche manipolative siano identificate e contrastate in modo efficace.
Un esempio di possibile evoluzione dei dark pattern in risposta alle nuove normative è rappresentato dalla comparsa di schemi più sofisticati che sfruttano ambiguità o lacune nelle leggi sulla privacy per continuare a raccogliere e utilizzare i dati degli utenti in modo non etico. Ad esempio, potrebbero emergere nuove forme di consenso ingannevole che inducono gli utenti a accettare la condivisione dei loro dati senza comprenderne appieno le implicazioni.
Tendenze emergenti nella pubblicità digitale
Con l’avanzamento della tecnologia, nuove forme di pubblicità digitale continueranno a emergere, portando con sé potenziali nuovi dark pattern. L’intelligenza artificiale (IA) e il machine learning potrebbero essere utilizzati sia per creare che per identificare e mitigare queste pratiche. Ad esempio, algoritmi di machine learning potrebbero essere addestrati per riconoscere schemi manipolativi nelle interfacce utente e segnalare automaticamente alle autorità competenti o agli utenti stessi.
Un esempio di tendenza emergente è rappresentato dallo sviluppo di annunci pubblicitari interattivi che utilizzano l’IA per adattarsi in tempo reale alle preferenze e ai comportamenti degli utenti. Questi annunci potrebbero essere progettati per indurre gli utenti a compiere determinate azioni o a fornire informazioni personali attraverso l’uso di strategie manipolative.
Il ruolo dell’intelligenza artificiale nella creazione e nel contrasto dei dark pattern
L’intelligenza artificiale può svolgere un ruolo significativo sia nella creazione che nel contrasto dei dark pattern. Da un lato, potrebbe essere utilizzata per progettare schemi sempre più sofisticati e mirati che sfruttano algoritmi di machine learning per adattarsi dinamicamente ai comportamenti degli utenti e aumentare l’efficacia delle pratiche manipolative.
Dall’altro lato, l’IA può anche essere impiegata per identificare e contrastare i dark pattern attraverso algoritmi di rilevamento avanzati che analizzano il comportamento degli utenti e le caratteristiche delle interfacce utente per individuare schemi sospetti. Ad esempio, tecniche di analisi predittiva e di clustering potrebbero essere utilizzate per identificare modelli comportamentali associati a pratiche manipolative e segnalare automaticamente agli utenti o alle autorità competenti.
Conclusioni
I dark pattern rappresentano una sfida significativa nella pubblicità digitale moderna, minando la fiducia dei consumatori e violando la loro privacy. Queste pratiche manipolative non solo compromettono l’esperienza degli utenti online, ma sollevano anche importanti questioni etiche, legali e di conformità normativa. È fondamentale che le aziende adottino pratiche di design etico e che le normative siano applicate rigorosamente per proteggere gli utenti e promuovere un ambiente digitale più trasparente e sicuro.
Le implicazioni dei dark pattern vanno oltre il mero impatto sulla privacy degli utenti. Queste pratiche possono influenzare negativamente il comportamento degli utenti, portandoli a compiere azioni non desiderate o a fornire informazioni personali senza il loro consenso informato. Inoltre, i dark pattern possono anche compromettere la concorrenza nel mercato digitale, favorendo le aziende che utilizzano tattiche manipolative per ottenere un vantaggio competitivo.
Per contrastare efficacemente i dark pattern, è necessario un approccio olistico che coinvolga autorità di regolamentazione, aziende e consumatori. Le autorità di regolamentazione devono adottare normative e linee guida chiare per scoraggiare l’uso di pratiche manipolative e punire le violazioni delle leggi sulla privacy e la protezione dei consumatori. Le aziende, d’altra parte, devono assumersi la responsabilità di progettare interfacce utente etiche e trasparenti, evitando l’uso di tattiche ingannevoli per ottenere il consenso degli utenti o promuovere prodotti e servizi. Infine, i consumatori devono essere consapevoli dei rischi associati ai dark pattern e impegnarsi attivamente nella protezione della propria privacy online.
Bibliografia
- Brignull, Harry. “dark patterns: Deception vs. Honesty in UI Design.”
- Commissione Europea. “General Data Protection Regulation (GDPR).”
- Autorità Garante per la protezione dei dati personali. “Linee guida e regolamenti sulla privacy.”
- Zuckerman, Ethan. “The Internet’s Original Sin.” The Atlantic.
- Cugelman, B., Thelwall, M., & Dawes, P. (2011). Online interventions for social marketing health behavior change campaigns: a meta-analysis of psychological architectures and adherence factors. Journal of Medical Internet Research, 13(1), e17.
- Fogg, B. J. (2003). Persuasive technology: Using computers to change what we think and do. Ubiquity, 2002(December), 5.
- Fogg, B. J. (2009). A behavior model for persuasive design. Proceedings of the 4th international Conference on persuasive Technology – Persuasive ‘09.
- Scarcity and FOMO: How Retailers Can Create Urgency to Drive Sales (https://www.bigcommerce.com/blog/scarcity-marketing/)
- Fear of Missing Out (FOMO) and Enjoyment of Missing Out (JOMO) (https://www.psychologytoday.com/us/blog/psych-unseen/201907/fear-missing-out-fomo-and-enjoyment-missing-out-jomo)
- Investigating the effects of scarcity, impulse buying, and product curiosity on consumer purchase behavior. (https://www.sciencedirect.com/science/article/pii/S2352940719300629)
- Email marketing best practices: Nagging and Frequency (https://www.cambridge.org/insights/features/email-marketing-best-practices-nagging-and-frequency)
- Understanding the consumer experience of nagging in the family household (https://onlinelibrary.wiley.com/doi/full/10.1111/j.1470-6431.2009.00815.x)
- The Nag Factor: A Study of Word-of-Mouth Advertising in Children (https://www.jstor.org/stable/10.2307/1251441)
- Werbach, K., & Hunter, D. (2012). For the Win: How Game Thinking Can Revolutionize Your Business. Wharton Digital Press.
- Ransbotham, S., Kane, G. C., & Lurie, N. H. (2012). Networked Innovation in the Presence of Complementarities: Evidence from the Private-Collective Innovation Model. MIS Quarterly, 36(1), 295-331.
- Smith, A. N., Fischer, E., & Yongjian, C. (2012). How does brand-related user-generated content differ across YouTube, Facebook, and Twitter? Journal of Interactive Marketing, 26(2), 102-113.
- Mandelbaum, N., & Klein, C. (2019). Roach Motel of Technology. Communications of the ACM, 62(3), 70-79.
- Davenport, T. H. (2007). Competing on Analytics: The New Science of Winning. Harvard Business Press.
- Pinelli, J. E. (2012). User Experience Design for Search: Designing Usable Interfaces That Attract and Retain Users. Morgan Kaufmann.
- Tene, O., & Polonetsky, J. (2013). Privacy in the Age of Big Data: A Time for Big Decisions. Stanford Law Review Online, 66, 25-32.
- De Hert, P., & Papakonstantinou, V. (2016). Privacy and data protection issues of biometric applications: a comparative legal analysis. International Data Privacy Law, 6(4), 289-308.
- Hildebrandt, M. (2013). The commodification of personal data: implications for the right to privacy. In Reforming European Data Protection Law (pp. 321-342). Springer, Dordrecht.
- McDonald, S. (2019). The Ethical Implications of dark patterns in User Experience Design. Journal of Business Ethics, 158(2), 419-434.
- Tene, O., & Polonetsky, J. (2013). Privacy in the Age of Big Data: A Time for Big Decisions. Stanford Law Review Online, 66, 25-32.
- De Hert, P., & Papakonstantinou, V. (2016). Privacy and data protection issues of biometric applications: a comparative legal analysis. International Data Privacy Law, 6(4), 289-308.
- Acquisti, A., & Adjerid, I. (2020). dark patterns in Mobile Privacy and Security Settings and Their Impact on User Decisions. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-13).
- Zimolong, B., & Calo, R. (2020). dark patterns: The Beauty of Online Deception. Harvard Journal of Law & Technology, 34(1), 1-60.
- Auernheimer, A. (2018). To Surveil and Predict: A Techno-Legal Exploration of dark patterns, Predictive Analytics, and Consent. Duke Law & Technology Review, 16, 250-322.
- Wachter-Boettcher, S. (2019). Technically Wrong: Sexist Apps, Biased Algorithms, and Other Threats of Toxic Tech. W. W. Norton & Company.
- Angulo, C., & Suárez, Á. (2020). Consent management platforms and the implementation of the GDPR: Compliance or strategy?. Computer Law & Security Review, 39, 105351.
- Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation. International Data Privacy Law, 7(2), 76-99.
- Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation).
- California Consumer Privacy Act (CCPA) of 2018.
- Federal Trade Commission Act (FTC Act).
- European Data Protection Board. (2019). Informative decision – Google LLC. Retrieved from https://edpb.europa.eu/sites/edpb/files/files/file1/edpb_decision_01_2019_en.pdf
- Federal Trade Commission. (2019). FTC Imposes $170 Million Penalty for YouTube’s Violations of Children’s Privacy Law. Retrieved from https://www.ftc.gov/news-events/press-releases/2019/09/ftc-imposes-170-million-penalty-youtube-violations-childrens
- Federal Trade Commission. (2020). Video game company settles FTC allegations it misled consumers in connection with deceptive Fortnite: Save the World campaign. Retrieved from https://www.ftc.gov/news-events/press-releases/2020/02/video-game-company-settles-ftc-allegations-it-misled-consumers
- European Data Protection Board. (2018). Guidelines on Consent under Regulation 2016/679. Retrieved from https://edpb.europa.eu/sites/edpb/files/files/file1/edpb_guidelines_202005_consent_en.pdf
- Federal Trade Commission. (n.d.). Privacy & Data Security. Retrieved from https://www.ftc.gov/tips-advice/business-center/privacy-and-security
- Online Trust Alliance. (n.d.). Resources. Retrieved from https://otalliance.org/resources
- Acquisti, A., & Adamic, L. A. (2018). Access denied: dark patterns in ecommerce. In Proceedings of the 2018 World Wide Web Conference (pp. 129-138).
- Mathur, A., Acquisti, A., & Acquisti, C. (2019). dark patterns at scale: Findings from a crawl of 11K shopping websites. arXiv preprint arXiv:1910.01569.
- Balebako, R., & Bellovin, S. M. (2015, July). dark patterns in proxemic interactions: A critical perspective. In Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems (pp. 105-114).
- Hoofnagle, C. J. (2019). dark patterns and the Internet of Things. Washington Law Review, 94(3), 859-908.
- Tenev, T., & Acquisti, A. (2020). Towards machine learning–based detection of dark patterns. arXiv preprint arXiv:2005.02391.
- Wisniewski, P., & Böhme, R. (2021). Ethical dark patterns: A Taxonomy of dark patterns with Ethical Concerns. Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems.
- Elazari, N. (2020). Identifying and Mitigating dark patterns on Mobile Applications Using Machine Learning. arXiv preprint arXiv:2004.08194.
- Selinger, E., & Hartzog, W. (2020). Privacy’s Blueprint: The Battle to Control the Design of New Technologies. Harvard University Press.
- Wisniewski, P., & Böhme, R. (2021). Ethical dark patterns: A Taxonomy of dark patterns with Ethical Concerns. Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems.
- King, C. (2019). dark patterns: The Seductive World of Unethical Design. Apress.
- Federal Trade Commission (FTC). (2020). Children’s Online Privacy Protection Rule (“COPPA”). Disponibile su: https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule