scenari

IA e concorrenza, rebus difficile da risolvere: le sfide per le Autorità



Indirizzo copiato

Nell’era dell’intelligenza artificiale, la relazione tra concorrenza e tutela dei dati personali è complessa. Le autorità competenti devono collaborare per bilanciare la protezione dei diritti degli individui e promuovere mercati competitivi. Decisioni politiche recenti e normative emergenti evidenziano l’importanza di un approccio integrato per affrontare queste sfide

Pubblicato il 24 giu 2024

Barbara Calderini

Legal Specialist – Data Protection Officer



intelligenza artificiale mano

Nell’attuale contesto socio-economico, in cui l’innovazione corre a braccetto con l’intelligenza artificiale, soprattutto nel campo generativo, la relazione tra concorrenza e tutela dei dati personali si presenta come un vero e proprio rebus.

Da un lato, le autorità preposte alla concorrenza e quelle dedicate alla protezione dei dati operano con logiche e obiettivi distinti, basandosi su quadri concettuali differenti.

Interview with Christophe CARUGATI (Digital Competition) - Generative AI & Antitrust Conference

Dall’altro, la figura del “consumatore” si fonde sempre più con quella di “interessato” o “individuo”, creando un terreno comune dove l’applicazione congiunta di entrambi i regimi giuridici diviene improrogabile.

L’interazione tra questi due ambiti può generare sia sinergie e complementarietà, sia tensioni e sfide per i regolatori.

Privacy e concorrenza: le intersezioni prioritarie

Per anni ci si è interrogati se la privacy dei dati e la raccolta di informazioni sui consumatori debbano essere considerate problematiche antitrust e se le preoccupazioni relative alla concorrenza e al potere di mercato delle imprese debbano essere prese in considerazione dalle autorità per la protezione dei dati.

Quali intersezioni tra i due settori dovrebbero essere considerate prioritarie?

I dati alimentano algoritmi di intelligenza artificiale che guidano decisioni aziendali e influenzano il comportamento dei cittadini e dei consumatori; in questo contesto, la tutela della concorrenza è fondamentale per garantire che i mercati rimangano aperti, dinamici e accessibili a tutti i partecipanti. Allo stesso modo la raccolta, l’analisi e il trattamento di dati su larga scala possono comportare rischi per gli individui, come la profilazione non richiesta, la discriminazione e la sorveglianza non autorizzata, rendendo essenziale favorire la migliore tutela dei diritti fondamentali degli individui e la loro autonomia nel mondo digitale.

Un esempio emblematico del complesso scenario è rappresentato dalle fusioni nei mercati digitali, a maggior ragione in ambito di sviluppo di sistemi di IA avanzati, che possono avere un impatto significativo sulla quantità e sui dettagli dei dati personali raccolti e trattati, coinvolgendo sia le normative sulla concorrenza che quelle sulla privacy dei dati.

Recenti decisioni giudiziarie e pratiche relative ai dati hanno posto queste questioni al centro dell’attenzione di regolatori e decisori politici in entrambi i campi, facendo emergere nuove sfide. La sfida principale consiste nel trovare un equilibrio tra la tutela dei dati personali e la promozione di un mercato digitale competitivo e innovativo.

Senza dubbio questo richiederà una stretta collaborazione e un dialogo aperto tra le autorità competenti, lo sviluppo di approcci normativi coerenti e l’adozione di soluzioni innovative che rispettino i diritti degli individui e favoriscano la crescita economica.

I leader mondiali ridefiniscono le priorità del futuro digitale

Mentre l’intelligenza artificiale generativa rivoluziona il panorama globale, non è un caso che i vertici internazionali dedicati al suo sviluppo si susseguano a ritmo serrato, ridefinendo continuamente i pericoli e le priorità in questo campo in rapida evoluzione.

Dopo il punto di svolta del 2022, segnato dall’ascesa dell’IA generativa, si sono già svolti due summit e un terzo è in programma, offrendo un’analisi approfondita delle crescenti preoccupazioni e delle priorità normative.

Lo scorso autunno, un prestigioso incontro nel Regno Unito si è concentrato sulle risposte alle minacce esistenziali poste dall’IA, esplorando le possibili azioni da parte dei governi. Più di recente, un summit in Corea del Sud ha spostato l’attenzione sugli sviluppatori, proponendo accordi comportamentali volontari.

Ora, il terzo vertice, previsto in Francia all’inizio del prossimo anno, si appresta a superare il tema della sicurezza. Il presidente francese Emmanuel Macron ha infatti sottolineato l’urgenza di affrontare le preoccupazioni relative alla concorrenza, proponendo anche investimenti nell’innovazione.

Lo stesso CEO di OpenAI, Sam Altman, ha recentemente dichiarato che è ancora presto per comprendere appieno la concentrazione del mercato tra gli sviluppatori di IA, prevedendo tuttavia un dominio di un piccolo numero di modelli ampiamente utilizzati.

USA, Regno Unito, Corea e Ue: sfida ai colossi dell’IA per un mercato competitivo

Gli osservatori della concorrenza stanno già prestando attenzione al dominio di poche grandi aziende nel settore dell’IA, con regolatori dal Regno Unito, Europa e Stati Uniti, tra gli altri che esplorano come promuovere l’innovazione senza compromettere i controlli di mercato.

L’indagine della FTC: gli obiettivi

L’Office of Technology della Federal Trade Commission (FTC) degli Stati Uniti ha già lanciato un’indagine approfondita sull’impatto dell’intelligenza artificiale (IA) su due fronti cruciali: la concorrenza e la tutela dei consumatori. L’obiettivo è quello di raccogliere informazioni e spunti da una vasta gamma di esperti, tra cui ricercatori, professionisti e cittadini comuni.

“Siamo interessati a saperne di più su questi problemi complessi e riconosciamo che i ricercatori possono attingere a una serie di informazioni, tra cui competenze professionali, esperienze pratiche, prove aneddotiche e svariati metodi di ricerca”, ha affermato l’ufficio.

L’iniziativa della FTC sottolinea la crescente preoccupazione per le potenziali conseguenze negative dell’IA, che potrebbero manifestarsi in diverse forme:

  • Riduzione della concorrenza: algoritmi opachi e sistemi di intelligenza artificiale proprietari potrebbero ostacolare l’ingresso di nuovi competitor sul mercato, favorendo le grandi aziende già consolidate.
  • Pratiche scorrette a danno dei consumatori: l’IA potrebbe essere utilizzata per ingannare o manipolare i consumatori, ad esempio attraverso pubblicità mirate o la diffusione di informazioni false.

L’indagine si concentrerà su diverse aree chiave, tra cui:

  • L’impatto dell’IA sui prezzi e sulla qualità dei prodotti e servizi.
  • Il potenziale utilizzo dell’IA per discriminare o escludere determinati gruppi di consumatori.
  • Il rischio di “deepfake” e altre forme di disinformazione generate dall’IA.
  • La necessità di garantire trasparenza e responsabilità nei sistemi di intelligenza artificiale.

In tutto ciò l’esame dell’ecosistema open source sarà un tassello importante, contribuendo a definire un quadro normativo adeguato per l’IA nell’era digitale. Ma non sarà il solo.

Le preoccupazioni del Dipartimento di Giustizia Usa

Jonathan Kanter, capo della Divisione Antitrust del Dipartimento di Giustizia (DoJ), ha dichiarato al Financial Times che sta esaminando attentamente i “punti di strozzatura del monopolio e il panorama competitivo” nell’IA. Le sue preoccupazioni si concentrano su diversi aspetti cruciali, tra cui la potenza di calcolo, i dati necessari per addestrare i modelli linguistici di grandi dimensioni, i fornitori di servizi cloud, il talento ingegneristico e l’accesso a hardware essenziale come le unità di elaborazione grafica (GPU).

Kanter teme che il settore dell’IA sia “al culmine della concorrenza” e che sia necessario un intervento “urgente” per evitare che le aziende tecnologiche dominanti controllino il mercato. Ritenendo che un intervento tempestivo sia fondamentale per prevenire la formazione di monopoli, ha affermato: “A volte l’intervento più significativo è quando l’intervento è in tempo reale. Il bello è che puoi essere meno invasivo.”

Tuttavia, all’interno della Federal Trade Commission (FTC) statunitense si osserva una certa divisione su come affrontare al meglio la regolamentazione dell’IA.

Mentre Kanter e la presidente della FTC Lina Khan sostengono un approccio più interventista, la nuova commissaria repubblicana Melissa Holyoak ha espresso una forte opposizione a norme restrittive.

Holyoak sostiene infatti che l’agenzia dovrebbe adottare un approccio simile a quello utilizzato per la sicurezza dei dati, intervenendo solo in caso di violazioni legali che causano danni concreti ai consumatori. Ha citato l’iniziativa “Voice Cloning Challenge” della FTC come esempio positivo di questo approccio, sottolineando che un simile modello potrebbe essere applicato ad altre tecnologie emergenti. La sua posizione, che riecheggia le idee dell’economista Adam Smith sui benefici dei mercati liberi per i consumatori, sembrerebbe dunque contrastare con l’approccio più interventista di Khan e Kanter. Questo potrebbe influenzare le future decisioni dell’agenzia. Staremo a vedere.

Le misure concrete di DoJ e FTC

Ad ogni modo, nonostante le differenze di approccio, sia il DoJ che la FTC stanno adottando misure concrete per affrontare le preoccupazioni relative alla concorrenza nell’IA. Le due agenzie hanno concordato di dividere la supervisione antitrust degli attori chiave dell’IA: pare che il DoJ si occuperà di Nvidia, mentre la FTC si concentrerà su Microsoft e OpenAI. L’attenzione si concentra in particolare sulle GPU, componenti essenziali per l’addestramento di modelli linguistici di grandi dimensioni, oltre che sull’esame di accordi tra aziende come Google, Amazon e Anthropic, così come l’accordo tra Microsoft e la start-up Inflection. L’obiettivo è ovviamente quello di garantire che tali accordi non alterino sostanzialmente il mercato e non creino barriere alla concorrenza.

Sempre negli USA, un recente forum a Washington, DC ha riunito autorità di concorrenza internazionali provenienti da 21 agenzie per discutere le sfide poste dai broker di dati nel panorama dell’intelligenza artificiale (IA). I partecipanti hanno espresso preoccupazioni per il potenziale impatto negativo di queste aziende sulla concorrenza, la privacy e la sicurezza dei consumatori.

Il potere di raccolta dati dei broker, senza dubbio, può conferire loro un vantaggio competitivo significativo, limitando l’accesso ai dati per altri attori e ostacolando l’innovazione. Senza contare la possibile imposizione di costi di switching elevati a quei clienti che desiderassero cambiare fornitore di servizi, creando ulteriori barriere alla concorrenza.

Non solo, perché le pratiche di raccolta dati dei broker continuano a sollevare preoccupazioni anche per la privacy e la sicurezza dei consumatori. La sorveglianza pervasiva può avere un impatto negativo sulla privacy degli individui e aumentare il rischio di abusi dei dati.

Inoltre, la mancanza di trasparenza da parte dei broker di dati ostacola non poco la consapevolezza degli individui su come vengono raccolti e utilizzati i loro dati.

I partecipanti al forum hanno inaftti ribadito la necessità di una maggiore attenzione da parte delle autorità di regolamentazione per quanto riguarda le pratiche dei broker di dati, spingendosi fino a suggerire diverse misure di tutela, tra cui:

  • Maggiori requisiti di trasparenza per i broker di dati, in modo che i consumatori sappiano come vengono raccolti e utilizzati i loro dati.
  • Regole più rigorose per l’accesso ai dati per promuovere la concorrenza e l’innovazione.
  • Maggiori protezioni per la privacy dei consumatori, come il diritto alla cancellazione e il diritto alla portabilità dei dati.
  • Azione da parte della FTC statunitense che, peraltro, in un recente post sul blog, ha già affermato che continuerà a lavorare con i suoi omologhi internazionali per sviluppare soluzioni efficaci per garantire un mercato dell’IA competitivo, sicuro e rispettoso della privacy.

L’Antitrust UK pronta a nuove regole per l’IA generativa

Il dominio incontrastato di Microsoft, Google, Apple e altri colossi tecnologici nel campo dell’intelligenza artificiale generativa (AI generativa) sta destando crescente preoccupazione, anche in UK, spingendo le autorità di regolamentazione antitrust del Regno Unito ad assumere un ruolo più attivo.

L’approccio settoriale e basato sui principi adottato per la regolamentazione dell’IA viene ora sottoposto a un attento esame.

L’efficacia di questo approccio per affrontare le sfide specifiche dell’AI generativa è infatti oggetto di dibattito.

Alcuni esperti sostengono che sia necessaria una regolamentazione più specifica e mirata per contrastare il potere dei giganti tecnologici e promuovere la concorrenza. Altri invece ritengono che un approccio basato sui principi sia sufficiente, a condizione che venga applicato in modo rigoroso e flessibile.

Sia come sia, l’Autorità per la concorrenza e i mercati (CMA) del Regno Unito ha annunciato un aggiornamento del suo approccio all’intelligenza artificiale (IA), previsto per l’autunno del 2024. L’obiettivo è quello di fornire agli sviluppatori di modelli di base per l’IA e alle aziende tecnologiche una maggiore chiarezza sulle aspettative normative in questo settore in rapida evoluzione.

Oltre all’aggiornamento generale, la CMA ha dichiarato che pubblicherà un documento dedicato ai chip acceleratori di IA.

Questi chip svolgono invero un ruolo fondamentale nel potenziare i sistemi di intelligenza artificiale e la CMA intende appunto analizzarne l’impatto sulla catena del valore del settore.

In un’ottica di collaborazione interistituzionale, la CMA ha inoltre annunciato la stesura di una dichiarazione congiunta con l’Information Commissioner’s Office (ICO), l’autorità di regolamentazione per la privacy nel Regno Unito. La dichiarazione si concentrerà sull’intersezione tra concorrenza, tutela dei consumatori e protezione dei dati nel contesto dell’IA, compresa la realizzazione di ulteriori ricerche sui consumatori per comprendere meglio le loro percezioni e il loro utilizzo delle tecnologie di intelligenza artificiale.

In modo specifico le acquisizioni e gli investimenti strategici in sviluppatori di intelligenza artificiale (IA) da parte di grandi aziende tecnologiche come Microsoft e Amazon stanno attirando l’attenzione dell’Autorità per la concorrenza e i mercati (CMA) del Regno Unito. La CMA teme che tali accordi possano rafforzare il potere di mercato di queste grandi aziende, limitando l’accesso alla tecnologia IA per i competitors, oltre a comportare prezzi più alti, minori scelte e una ridotta qualità dei prodotti e servizi per i consumatori.

Le preoccupazioni si estendono ai potenziali impatti negativi a valle di questi investimenti con l’impegno a voler analizzare le singole valutazioni di ogni caso di investimento in IA, tenendo conto di una serie di fattori, tra cui la dimensione e la quota di mercato delle aziende coinvolte, il tipo di tecnologia IA e il potenziale impatto sui consumatori e sulle imprese. Qualora dovessero emergere lesioni della concorrenza, interverranno misure correttive, come la cessione di attività o l’imposizione di restrizioni alle operazioni delle aziende coinvolte.

Anche la Korea Fair Trade Commission (KFTC) sta spostando il suo focus normativo verso l’intelligenza artificiale (IA), un’area che in passato era stata oscurata da altre priorità antitrust.

L’Europa guida la regolamentazione dei mercati digitali e dell’IA creando un modello globale

L’idea che una regolamentazione frammentata potrebbe ostacolare investimenti e innovazione si riflette nella recente approvazione dell’AI Act dell’UE, il primo del suo genere, che potrebbe diventare un punto di riferimento globale per la regolamentazione dell’IA. L’atto prevede un “Ufficio AI” per supervisionare il regime di regolamentazione, con un focus sull’innovazione.

Recentemente la Commissione europea ha fatto chiarezza, delineando la struttura del suo nuovo ufficio dedicato all’IA e annunciando un calendario per lo sviluppo di linee guida cruciali.

L’ufficio per l’IA opererà all’interno della Direzione generale reti di comunicazione, contenuti e tecnologie, con Lucilla Sioli confermata come direttrice.

Con l’entrata in vigore della legge sull’IA a luglio 2024, l’ufficio per l’IA inizierà a definire un quadro normativo completo per l’IA.

La priorità sarà quella di sviluppare linee guida chiare e attuabili, che includeranno anche una definizione univoca di intelligenza artificiale.

Obiettivi chiave saranno:

  • Promuovere lo sviluppo e l’adozione di un’IA affidabile e sicura.
  • Garantire che l’IA sia conforme ai valori e ai principi europei.
  • Proteggere i diritti e la sicurezza dei cittadini nel contesto dell’IA.
  • Favorire la collaborazione e lo scambio di informazioni tra le parti interessate.

Nel frattempo, i grandi sviluppatori di IA come OpenAI sembrano accogliere favorevolmente la discussione sulla regolamentazione passando da un clima di paura esistenziale, come evidenziato dal primo AI Safety Summit nel Regno Unito, a un approccio più orientato all’azione, come si prevede sarà nel prossimo AI Action Summit in Francia. L’incontro potrebbe anche determinare se la conversazione sulla concentrazione del mercato e sull’innovazione riuscirà a distogliere l’attenzione dalle preoccupazioni di sicurezza che finora hanno dominato il dibattito sull’IA.

Bruxelles intanto si dimostra pronta a sferrare il primo colpo contro i giganti del tech: Apple viene accusata di soffocare la concorrenza sull’App Store. Secondo il Financial Times, la Commissione Europea è pronta a formalizzare nelle prossime settimane accuse pesanti contro l’azienda di Cupertino, basandosi sul Digital Markets Act (DMA), la legge europea entrata in vigore lo scorso marzo per contrastare il potere smisurato dei colossi del web.

Nel mirino, la pratica di Apple di impedire agli sviluppatori di indirizzare gli utenti verso store alternativi per l’acquisto di app, obbligandoli a passare dall’App Store e a pagare le sue commissioni.

Non è certo la prima volta che Apple si trova nel mirino delle autorità europee. Già a marzo, la Commissione aveva avviato un’indagine formale contro l’azienda, insieme ad Alphabet (Google) e Meta, per valutare il rispetto del DMA.

Le prossime settimane saranno comunque cruciali per capire se le modifiche introdotte da Apple saranno sufficienti a placare le ire di Bruxelles e scongiurare sanzioni pesanti.

Nel vortice dei dati: la complessità del mercato digitale

Nel vortice delle informazioni, protezione dei dati e concorrenza si intrecciano come in un tango appassionato.

Un passo falso da un lato può compromettere l’altro, creando squilibri nei mercati digitali e minacciando i diritti dei cittadini.

La tutela della privacy emerge sempre di più come parametro di qualità della concorrenza.

In mercati digitali basati su dati personali come quello dello sviluppo dell’intelligenza artificiale, la capacità delle aziende di raccogliere e utilizzare tali dati in modo responsabile e trasparente può diventare un vantaggio competitivo. Al contrario, pratiche di gestione dei dati opache o abusive possono danneggiare la concorrenza, limitando la scelta dei consumatori e ostacolando l’ingresso di nuovi attori nel mercato.

Queste questioni assumono particolare rilevanza nei mercati digitali innovativi, spesso caratterizzati da:

  • mercati digitali bilaterali
  • modelli complessi di monetizzazione dei dati
  • pratiche di data scraping

E la concorrenza, come influenza la melodia della privacy?

Un monopolio che domina il mercato digitale può imporre il suo ritmo alle regole sulla privacy, minacciando i diritti degli individui.

Affrontare l’intersezione tra privacy e concorrenza è insomma un pò come comporre una sinfonia complessa. Richiede collaborazione tra autorità, aziende e cittadini, per creare un ecosistema digitale dove la privacy e la concorrenza “danzano” in armonia, a beneficio di tutti.

Le leggi sulla concorrenza e quelle sulla privacy dei dati, pur provenendo da famiglie diverse, condividono per l’appunto un obiettivo comune: proteggere il benessere degli individui.

In entrambi i casi, si cerca di contrastare le asimmetrie di potere tra le grandi aziende e i singoli cittadini, garantendo che questi ultimi non siano vittime di pratiche scorrette o abusive.

In tale ottica Luca Bolognini, presidente dell’Istituto Italiano per la Privacy e la Valorizzazione dei Dati, ci invita a pensare ad una vera e propria forma di “immanenza sostanziale” delle tutele giuridiche nell’era digitale.

Le autorità per la concorrenza e per la privacy peraltro possono e hanno già contribuito nella valutazione dell’impatto di fusioni e acquisizioni sui mercati digitali, sia in termini di concorrenza che di privacy.

Le autorità per la concorrenza possono avvalersi delle competenze delle autorità per la privacy per indagare su pratiche anticoncorrenziali che coinvolgono la raccolta o l’utilizzo di dati personali e viceversa.

Entrambe le autorità possono inoltre collaborare allo sviluppo di linee guida per le organizzazioni su come rispettare sia le norme sulla concorrenza che quelle sulla privacy.

Meta sotto tiro per il modello “paga o accetta”: concorrenza e privacy si intersecano

In tal senso il modello “paga o accetta” di Meta potrebbe rappresentare l’esempio emblematico per eccellenza dell’intersezione tra concorrenza e privacy nei mercati digitali.

In questo modello, gli utenti hanno la possibilità di accedere a un servizio gratuito in cambio del consenso al trattamento dei loro dati personali, oppure di pagare una tariffa per usufruire del servizio “apparentemente“ senza profilazione e rinunciando alla pubblicità personalizzata.

L’utilizzo da parte di Meta Platforms del modello “pay or okay” per i suoi servizi Facebook e Instagram ha acceso un dibattito nel panorama europeo della tutela della privacy.

Le autorità di tutela della privacy si stanno concentrando su diversi aspetti di questo modello:

  • Base giuridica per il trattamento dei dati: valutano se il consenso degli utenti al trattamento dei dati per pubblicità personalizzata sia libero, specifico, informato e inequivocabile, in linea con il Regolamento generale sulla protezione dei dati (GDPR).
  • Trasparenza: verificano se le aziende forniscono agli utenti informazioni chiare e accessibili sulle modalità di raccolta, utilizzo e condivisione dei loro dati personali.
  • Equivalenza delle opzioni: analizzano se le alternative offerte agli utenti (servizio gratuito con pubblicità personalizzata o servizio a pagamento senza pubblicità) siano effettivamente equivalenti, evitando che una scelta sia ingiustamente svantaggiosa rispetto all’altra.

Le autorità garanti della concorrenza, invece, si dovranno focalizzare su:

  • Posizione dominante: esaminano se le aziende che adottano il modello “pay or okay” detengono una posizione dominante sul mercato e se tale modello possa costituire un abuso di tale posizione.
  • Effetti di lock-in o di rete: valutano se il modello crei barriere all’entrata per nuovi concorrenti o ostacoli al cambio di fornitore da parte degli utenti, limitando la concorrenza nel mercato.
  • Adeguatezza delle tariffe: analizzano se le tariffe applicate per il servizio senza pubblicità siano ragionevoli e non eccessivamente elevate, potenzialmente escludendo ingiustamente alcuni utenti.

Ebbene, l’interconnessione tra questi aspetti evidenzia tanto la complessità del modello “paga o accetta”, quanto la necessità di un approccio sinergico tra le autorità di tutela della privacy e le autorità garanti della concorrenza.

Nel frattempo l’autorità irlandese per la protezione dei dati (DPC) è attualmente in prima linea nella valutazione del modello e con la sua nuova leadership probabilmente più propensa alla collaborazione con le altre autorità europee, si sta cimentando in un banco di prova importante. Non ultimo l’EDPB-European Data Protection Board ha già chiaramente affermato che il modello “paga o accetta” adottato da grandi piattaforme come Meta non è conforme al Regolamento generale sulla protezione dei dati (GDPR).

La privacy dei dati come fattore di concorrenza. L’analisi dell’OCSE

Come ci ricorda anche l’analisi svolta dall’OCSE, The intersection between competition and data privacy”[1]negli Stati Uniti, la questione se la privacy dei dati debba essere considerata una preoccupazione antitrust non è nuova.

Già nel 2007, con la fusione Google-DoubleClick, e nel 2008 con l’acquisizione di Yahoo da parte di Microsoft, si è discussa la necessità di tutelare la privacy dei consumatori.

In Europa, sebbene inizialmente la Corte di Giustizia Europea abbia chiarito che le questioni relative alla privacy sono di competenza delle autorità di tutela dei dati, non antitrust, tuttavia, negli ultimi anni, l’approccio sta cambiando.

Il “rapporto congiunto del 2016 sul diritto e i dati della concorrenza” delle autorità francese e tedesca ha aperto la porta a un “approccio integrazionista”, dove la privacy dei dati viene considerata un parametro di concorrenza non legato al prezzo.

L’importanza dei dati come fattore chiave per il successo delle imprese

Sulla stessa scia, in Italia, si è espresso anche il rapporto finale dell’indagine conoscitiva sui Big Data condotta congiuntamente dall’Autorità per le Garanzie nelle Comunicazioni, dall’Autorità Garante della Concorrenza e del Mercato e dal Garante per la Protezione dei Dati Personali.

Negli ultimi anni, le autorità garanti della concorrenza hanno dunque iniziato a riconoscere l’importanza dei dati come fattore chiave per il successo delle imprese.

Questo ha portato a un crescente interesse per le teorie del “danno da dati”, che esplorano come le pratiche anticoncorrenziali legate ai dati possono danneggiare i consumatori e le imprese.

Certo è che questo cambio di rotta, proprio in termini di mercato dell’intelligenza artificiale, necessiti tuttavia di una svolta quanto mai rapida ed efficace verso un approccio non più solo teorico bensì concreto e operativo sulle pratiche di applicazione.

Un’eccezione degna di nota è per ora il caso Meta Platforms contro il Bundeskartellamt[2], l’autorità garante della concorrenza tedesca, aperto nel 2016 dove la Corte di Giustizia dell’Unione Europea, con una pronuncia del luglio 2023, ha confermato la legittimità dell’approccio del Bundeskartellamt, affermando che l’accesso e il trattamento dei dati personali costituiscano parametri di concorrenza rilevanti e che escluderli dalle valutazioni antitrust significherebbe “ignorare la realtà di questo sviluppo economico” e “potrebbe minare l’efficacia del diritto della concorrenza all’interno dell’Unione europea“.

La crescente importanza dei dati come risorsa competitiva sta dunque portando un po’ ovunque a un ripensamento.

Lo “squilibrio di potere” tra individui e titolari del trattamento

L’introduzione del concetto di “squilibrio di potere” tra individui e titolari del trattamento in alcune normative sulla privacy dei dati, come quella europea offre un’apertura per integrare la valutazione della posizione di mercato nell’applicazione della privacy. L’obiettivo è quello di adattare le misure di tutela della privacy alla realtà tecnologica dei mercati digitali, imponendo obblighi più rigorosi alle aziende che presentano un rischio maggiore per gli utenti.

Vero è che, almeno per ora, l’integrazione dell’analisi della concorrenza nella protezione dei dati manifesta ancora diversi cortocircuiti, primo fra tutti la carenza di chiarezza normativa circa le modalità con cui realizzare la corretta integrazione dell’analisi della concorrenza nell’applicazione della privacy dei dati, presupposto invero fondamentale per garantire certezza giuridica, trasparenza e il rispetto degli obiettivi di entrambe le aree.

L’importanza di portabilità dei dati e interoperabilità

Ad ogni modo sin d’ora in questo scenario, come osservano gli analisti dell’OCSE, la portabilità dei dati e l’interoperabilità rappresentano già strumenti importanti per promuovere la concorrenza nell’era digitale.

La portabilità dei dati, ovvero la possibilità per gli utenti di trasferire i propri dati da un servizio all’altro, da un lato può aumentare il potere degli utenti, permettendo loro di scegliere liberamente il servizio più adatto alle proprie esigenze e abbandonare quelli che non li soddisfano; dall’altro questo può spingere le aziende a migliorare i propri servizi e a diventare più competitive. Fermo restando tuttavia il rischio di aumento della facilità di accesso ai dati, con tutte le conseguenze in termini di vulnerabilità a furti o utilizzi impropri da parte di terzi.

Stesso discorso vale per l’interoperabilità, ovvero la capacità dei sistemi digitali di comunicare tra loro. L’interoperabilità può facilitare la portabilità dei dati e la concorrenza, ma allo stesso tempo può anche aumentare la sfera di rischi per la privacy.

Solo attraverso un approccio consapevole, equilibrato e collaborativo sarà possibile sfruttare i benefici di queste tecnologie senza compromettere la sicurezza dei dati personali.

Non è una novità: chi possiede i dati detiene il potere, e questo potere può essere utilizzato per dominare i mercati e soffocare la concorrenza. Ed è qui che entra in gioco la corretta interpretazione della protezione dei dati.

Proprio la privacy dei dati, infatti, può essere paradossalmente utilizzata come arma a doppio taglio.

Le aziende dominanti possono infatti nascondersi dietro la privacy per giustificare pratiche anticoncorrenziali, negando l’accesso ai propri dati ai concorrenti e ostacolando l’innovazione.

L’indagine francese su Apple ATT

Un caso emblematico, citato nel rapporto dell’OCSE[3] è l’indagine francese su Apple ATT – App Tracking Transparency.

L’autorità francese garante della concorrenza sta ancora esaminando se la modifica di Apple che richiedeva agli utenti di acconsentire al tracciamento per scopi pubblicitari fosse una pratica anticoncorrenziale.

L’autorità ha collaborato con l’autorità francese per la protezione dei dati (CNIL) per valutare la legittimità della modifica di Apple sotto il profilo della privacy dei dati.

L’analisi sino ad ora svolta dalle autorità ha rilevato che l’obiettivo di Apple di migliorare la privacy degli utenti con l’ATT, pur rappresentando un esercizio legittimo della sua politica commerciale, necessita comunque di ulteriori approfondimento quanto alla distinzione di trattamento tra le app di terze parti e quelle Apple stanti i dubbi sulla potenziale discriminazione a favore di quest’ultime.

Le indagini in Germana e Polonia

In Germania e Polonia, le autorità antitrust hanno avviato indagini dello stesso tenore per valutare se questa funzione sia davvero a tutela degli utenti o nasconda invece pratiche anticoncorrenziali. Nel mirino c’è sempre la disparità di trattamento tra le app di Apple e quelle di terze parti. L’ATT richiede alle app di terze parti di ottenere il consenso degli utenti per il tracciamento pubblicitario, mentre i servizi Apple non sono soggetti a questo obbligo.

Non è certo la prima volta che le autorità antitrust si interessano all’utilizzo dei dati da parte dei giganti della tecnologia.

Nel 2019, l’Ufficio federale dei cartelli tedesco – FCO ha sanzionato Facebook per abuso di posizione dominante nel trattamento dei dati degli utenti.

Anche Google ha dovuto impegnarsi con la Commissione Europea e l’Autorità britannica per la concorrenza e i mercati – CMA per garantire un utilizzo più equo dei dati nel caso Google/Fitbit e nel caso Google Privacy Sandbox.

Oltre ai casi specifici già menzionati emergono inoltre altre questioni di rilevanza come la sovrapposizione delle indagini.

Alcuni comportamenti nei mercati digitali possano violare sia le norme sulla concorrenza che quelle sulla privacy dei dati. In questi casi, sorge il rischio di una doppia sanzione per lo stesso reato, in apparente contrasto con il principio ne bis in idem.

Tutto corretto, se non fosse che questo principio non è assoluto e la sua applicazione dipende da diversi fattori, tra cui la natura degli interessi giuridici tutelati dalle rispettive normative.

Certo è ad ogni modo che indagini parallele potrebbero portare ad approcci incoerenti da parte delle autorità, creando incertezza per le imprese e ostacolando l’innovazione. Questo è particolarmente vero quando si tratta di questioni relative all’interoperabilità o all’accesso ai dati. Ciò non agevola nessuno ma non per questo deve e può costituire un deterrente alla corretta declinazione delle tutele.

Anzi rappresenta semmai un motivo in più per continuare a sostenere la necessaria collaborazione, la coerenza e l’adozione di un approccio bilanciato tra le diverse autorità coinvolte in quanto fattori imprescindibili per garantire un mercato digitale equo, innovativo e rispettoso dei diritti degli utenti.

In UE il principio di leale cooperazione sancito dall’articolo 4, paragrafo 3, TUE, sottolinea proprio l’importanza della collaborazione tra le autorità per raggiungere obiettivi comuni.

Conclusioni

In teoria, mercati più competitivi, compreso il comparto legato allo sviluppo di soluzioni di intelligenza artificiale avanzata, possono promuovere la sicurezza dei trattamenti dei dati personali degli utenti come elemento distintivo, mentre un controllo normativo più efficace sulle pratiche di raccolta e trattamento dei dati potrebbe ostacolare la concentrazione del potere di mercato. Tuttavia, la realtà è più complessa e richiede un’analisi attenta di come questi principi interagiscono in contesti specifici.

L’avanzamento tecnologico, l’evoluzione del mercato digitale e la crescita di grandi piattaforme ecosistemiche hanno introdotto nuove sfide per le autorità di regolamentazione. I tradizionali quadri concettuali e legislativi potrebbero non essere adeguati per affrontare le complesse dinamiche dei mercati digitali odierni, dove i dati svolgono un ruolo centrale.

Approcci basati sui principi, flessibilità delle strategie di enforcement idonee ad adattarsi all’evoluzione del panorama tecnologico e dei modelli di business, il coinvolgimento delle parti interessate e il ruolo fondamentale della sensibilizzazione pubblica sui rischi e sui benefici della tutela della concorrenza e della sicurezza dei dati potrebbero certo contribuire in quanto elemento imprescindibili per promuovere un ecosistema digitale sano.

Note


[1]OECD (2024), “The intersection between competition and data privacy”, OECD Roundtables on Competition Policy Papers, No. 310, OECD Publishing, Paris, https://doi.org/10.1787/0dd065a3-en.

[2]Per maggiori approfondimenti si rimanda al rapporto OECD (2024), “The intersection between competition and data privacy”, OECD Roundtables on Competition Policy Papers, No. 310, OECD Publishing, Paris, https://doi.org/10.1787/0dd065a3-en.

[3]Per maggiori approfondimenti si rimanda al rapporto OECD (2024), “The intersection between competition and data privacy”, OECD Roundtables on Competition Policy Papers, No. 310, OECD Publishing, Paris, https://doi.org/10.1787/0dd065a3-en.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3