Gli algoritmi cosiddetti di prezzo sono algoritmi – più o meno avanzati, a seconda della loro impostazione – che vengono impiegati per supportare le imprese nella verifica dei prezzi applicati a prodotti/servizi. Alcuni osservatori hanno però espresso il timore che siano impiegati dagli operatori per allineare tra loro i prezzi, adottando condotte anticoncorrenziali.
La “collusione algoritmica” dei prezzi e i possibili pregiudizi per il mercato
Il funzionamento degli algoritmi è spesso complesso, a tal punto da rendere difficile comprendere le implicazioni anticoncorrenziali e assicurare la conformità alle disposizioni delle molteplici normative esistenti: si pensi alle disposizioni privacy e i nuovi requisiti in caso si utilizzi un sistema di intelligenza artificiale.
In tale contesto, la protezione della concorrenza è vitale al fine di evitare che un numero limitato di imprese controlli il mercato. Alterare la concorrenza comporta effetti negativi di vario genere, tra cui un danno ai consumatori (e.g. a causa di variazioni di prezzo artefatte) ma anche l’eliminazione di concorrenti dal mercato e, di conseguenza, un disincentivo per il progresso tecnologico.
Cos’è la collusione algoritmica
La collusione algoritmica si verifica quando algoritmi (più o meno sofisticati), che sono programmati per osservare i comportamenti di mercato, agevolano le imprese nell’allineare i prezzi in maniera coordinata. La loro massima resa sarebbe legata alla compresenza dei seguenti fattori:
- pochi concorrenti e alte barriere di accesso al settore,
- un prodotto omogeneo,
- vendite frequenti e regolari come anche prezzi trasparenti che siano intercettabili da parte di altri operatori.
Definizione di algoritmo
Secondo l’OECD, un algoritmo si può definire come “a set of defined instructions to solve a particular problem, via turning digital inputs into a desired (digital) output… an algorithm can be defined as an exact sequence of instructions that generate an output in a clearly defined format from a given digital input. Algorithms can include simple set of rules as well as very advanced machine learning or artificial intelligence systems”.
Le diverse tipologie di algoritmi collusivi
Esistono diverse tipologie di algoritmi cosiddetti collusivi. Prendendo a riferimento il contributo OECD del 2023 e la posizione di diversi commentatori, si distingue solitamente tra questi:
- Algoritmi di prezzo: vengono impiegati per adattare in modo automatizzato il prezzo, sulla base di vari fattori tra cui domanda, costi, posizione assunta dai concorrenti, previsioni di settore.
- Algoritmi di monitoraggio: vengono impiegati per controllare il comportamento degli altri operatori sul mercato. Solitamente consentono la raccolta di grandi quantità di dati, da quelli di comportamento alle preferenze degli utenti, alle condizioni di mercato etc.
- Algoritmi di ranking: vengono impiegati per consentire ranking di prodotti e agevolare la consultazione di un dataset (e.g. tipicamente impiegati nei marketplace).
Autorità e commentatori temono che tali meccanismi potrebbero essere impiegati quali strumenti per aggirare le disposizioni di cui agli Articoli 101 e 102 TFUE (ad esempio, si veda lo suo Studio congiunto di AGCM, AGCOM, e del Garante Privacy). La possibilità di impattare sul mercato è legata principalmente alla capacità di tali algoritmi di:
- studiare il mercato di riferimento, sfruttando grandi quantità di dati (big data): questo permette una profilazione di dettaglio;
- intervenire in tempo reale nel correggere un prezzo: dato che sono meccanismi automatizzati, si “adattano” tempestivamente alle variazioni;
- nel caso degli algoritmi più avanzati, che si avvalgono del machine learning per “anticipare” le variazioni del mercato, creare correlazioni di causa – effetto che vanno al di là della logica umana che li imposta all’inizio del loro funzionamento.
Con particolare riferimento alle modalità, si distingue tra algoritmi che:
- facilitano la realizzazione della collusione tra imprese: in tal caso, sussiste gà un accordo collusivo e l’algoritmo è solo un mezzo rafforzativo o di monitoraggio della buona riuscita dell’accordo;
- vengono offerti da una terza parte a più concorrenti: in tal caso, sebbene non vi sia un accordo tra di essi, solitamente sono al corrente del fatto che l’utilizzo di un algoritmo “comune” porti di fatto all’alterazione della concorrenza;
- consentono ai concorrenti di “monitorare” i prezzi tra loro e di allinearli a danno di un’effettiva concorrenza.
Nel caso di algoritmi del tipo (a) e (b) sopra indicato, l’individuazione di una condotta anticoncorrenziale è più semplice: nel primo caso l’algoritmo viene impiegato solo per dare seguito ad un accordo preesistente mentre nel secondo caso si individua la condotta collusiva nell’allineamento di cui le imprese vengono rese edotte.
Gli algoritmi del tipo (c), invece, sono meno trasparenti: il problema principale risiede nel fatto che sono meccanismi automatizzati di allineamento dei prezzi. In altre parole, si viene a configurare un effetto anticoncorrenziale imputabile alla “bravura” dell’algoritmo di capire l’andamento del mercato – anticipando le variazioni /o allineandosi ai concorrenti – di cui, tuttavia, le imprese potrebbero essere considerate all’oscuro.
Una pratica concordata viene vietata, ai sensi dell’Articolo 101 TFUE, infatti, laddove sia di impedimento, restringimento o falsi la concorrenza, provocando un pregiudizio nel mercato. Si sostanzia laddove vi sia un consapevole coordinamento tra imprese, che si concreta nella condotta dei partecipanti. Non è necessario un impegno formale tra concorrenti, ma sarà sufficiente che il concorrente abbia sostanzialmente ridotto l’incertezza relativa al comportamento che si può ipotizzare terrà sul mercato. Dalla definizione del fenomeno in sé è evidente la complessità nella individuazione del fenomeno. Anche in quanto la normativa non vieta le collusioni tacite: dalla descrizione del fenomeno, alcuni commentatori sostengono che ricadrebbe proprio in tale qualificazione, dato che l’effetto di alterazione del mercato sarebbe la conseguenza di una sommatoria di decisioni unilaterali e autonome delle imprese.
Tali possibili implicazioni sono state ravvisate da diverse Autorità. Prendendo ad esempio quelle in Europa e negli Stati Uniti, si osserva che le preoccupazioni sono condivise. Era il 2017 quando la Commissaria Vestager teneva un discorso sui possibili risvolti anticoncorrenziali nell’uso di algoritmi di prezzo presso il Bundeskartellamt di Berlino. Negli Stati Uniti si assiste ad un cambio di passo rispetto al ruolo che ricopre l’Autorità antitrust, che sembra più “interventista” rispetto al passato. Anche molti esperti hanno condiviso i propri timori che l’uso dell’intelligenza artificiale possa avere un impatto sulla concorrenza, proprio mediante l’uso di algoritmi.
Quanto sopra evidenzia la complessità del tema, ponendo la necessità che sia fatta chiarezza sulla corretta interpretazione del fenomeno, rispetto all’applicazione dell’Articolo 101 TFUE.
Il GDPR e l’AI Act: strumenti di mitigazione del rischio di collusione?
Considerando che la consapevolezza rispetto alle implicazioni potenzialmente anticoncorrenziali degli algoritmi collusivi di prezzo è recente, non si può dire che il pensiero sia maturo per comprendere se normative parallele che regolano l’uso di tali strumenti – come le normative privacy ed AI – siano idonee a supportare lo sforzo delle Autorità antitrust.
Provando a fare uno sforzo interpretativo, però, ci sono alcuni segnali incoraggianti. Le imprese che sfruttano la potenza di calcolo di tali algoritmi, infatti, dovranno fare i conti con le implicazioni di altre normative, laddove la loro applicazione ricada nello scopo delle suddette.
La normativa privacy
Gli algoritmi di prezzo, per essere efficaci, spesso si avvalgono di una profilazione degli utenti che si basa sullo sfruttamento di grandi quantità di dati. Certamente, potrebbe trattarsi di dati anonimi ma, considerando che spesso la collazione di informazioni tra imprese viene effettuata senza le basilari misure di minimizzazione del trattamento, tali informazioni restano legate agli utenti. Laddove si qualifichino come dati personali, la normativa privacy trova applicazione. La disponibilità dei dati comporta due principali effetti: da un lato, una barriera all’ingresso in quanto può impedire l’accesso a nuove imprese che non dispongono della stessa quantità di informazioni. Dall’altro lato, il vantaggio competitivo deriva dalla capacità degli algoritmi di elaborare in modo efficace tali informazioni: ovviamente saranno avvantaggiate le imprese che dispongono del potere di calcolo più avanzato.
La disponibilità di grandi quantità di dati crea un vantaggio competitivo per le aziende, che sono in grado di sviluppare algoritmi efficaci, anche nella posizione di prevedere i comportamenti dei consumatori. I dati possono avere diverse provenienze: vengono forniti dagli utenti stessi (in modo diretto oppure osservando i loro comportamenti online) oppure sono raccolti da terze parti. Tale operazione comporta un trattamento di dati personali, laddove siano coinvolti anche questi ultimi, che richiede una base giuridica ex Articolo 6 GDPR (Regolamento (UE) 2016/69).
Laddove poi la profilazione che si realizza configuri un trattamento decisionale automatizzato, secondo l’Articolo 22 GDPR la base giuridica applicabile è essenzialmente il consenso dell’utente. Da tale limitazione – come pure dalla necessità di dare seguito agli altri requisiti imposti dal GDPR – se ne deduce che le imprese che fanno uso di big data per profilare in modo puntuale gli utenti devono ottemperare alle limitazioni della normativa privacy, prima di poter sfruttare i dati raccolti. Ciò dovrebbe costituire una limitazione della pervasività di tali sistemi.
La normativa sull’intelligenza artificiale
Il Regolamento AI (Regolamento (UE) 2024/1689) ha l’obiettivo di disciplinare l’uso dei sistemi che si avvalgono di “intelligenza artificiale” in diverso modo connessi all’Unione Europea. Similmente al GDPR, al fine di estendere l’applicazione regolatoria, il Regolamento AI si applica anche ai sistemi che vengono offerti sul mercato UE.
L’approccio in EU è comunque fortemente regolatorio, per quanto legato principalmente a sistemi che presentino determinati livelli di rischio. Da taluni tale approccio viene ritenuto che possa comportare una alterazione nella concorrenza: la previsione di numerose obbligazioni sugli operatori della filiera dell’AI pare logico che agevoli le strutture aziendali già affermate sul mercato, dato che si avvalgono di fonti di sostentamento economico e possono sostenere i costi per rendere conforme la loro struttura. Non è lo stesso per le imprese di piccole – medie dimensioni, che vedranno barriere di accesso al mercato significative e potrebbero essere costrette a collaborare con gli operatori esistenti, di fatto “regalando” una parte del loro vantaggio competitivo.
Le disposizioni dell’AI Act che vietano pratiche anticoncorrenziali
Per verificare se il Regolamento AI possa comportare misure volte a ridurre i rischi di danni alla concorrenza da parte degli algoritmi di prezzo, è opportuno verificare se vi siano previsioni specifiche. In realtà, il Regolamento AI non reca previsioni specifiche che vietano pratiche anticoncorrenziali o anti consumeristiche. Tuttavia, alcune disposizioni generali possono contribuire a prevenire o mitigare pratiche anticoncorrenziali, attraverso:
- Trasparenza: almeno per alcuni sistemi di IA, viene richiesta trasparenza sul loro funzionamento, sulle modalità di addestramento e sull’origine dei dati. Ciò può rendere più difficile l’uso dell’IA per collusione nascosta o altre pratiche anticoncorrenziali, in quanto il cd effetto black box (i.e. impossibilità di comprendere il funzionamento dell’algoritmo e, dunque, se sia stato formulato per colludere o meno), viene circoscritto. Il fatto che il Regolamento AI vieti un sistema AI che, utilizzando tecniche subliminali, agisca nel subconscio della persona, inducendola a tenere un comportamento che non è libero ne è un esempio. Queste sono tecniche che sfruttano manipolazione e inganno per distorcere “materialmente” il comportamento delle persone, con un conseguente (anche solo potenziale) danno significativo. Anche lo sfruttamento di vulnerabilità come età o condizione sociale di un individuo è ritenuto al pari di una pratica AI vietata. Sono pratiche che distorcono la concorrenza, in quanto portano i consumatori ad assumere decisioni che non avrebbero altrimenti preso. Le tecniche utilizzate sono ad esempio stimoli audio, grafici o video (magari mediante interfacce cervello-computer o realtà virtuale) che rendono inducono l’individuo ad una pulsione di cui non si rende neppure conto. Queste tecniche sono vietate, specifica il legislatore, per rafforzare le disposizioni della Direttiva 2005/29/CE, che vieta le pratiche commerciali sleali lesive degli interessi economici dei consumatori. Come chiarito anche dalla Commissione, i suddetti limiti riguardano ogni settore e si riferiscono anche a tecnologie come algoritmi, processo decisionale automatizzato e utilizzo di IA.
- Sorveglianza e monitoraggio: stabilisce meccanismi di supervisione che possono identificare e affrontare usi impropri dell’IA, inclusi potenziali abusi nel contesto del mercato. Ad esempio, il Regolamento AI è chiaro nell’affermare che non sia possibile strumentalizzare il diritto d’autore al fine di ottenere un vantaggio competitivo nell’UE, approfittando di normative più blande.
- Adozione di misure di sicurezza: nel caso dei sistemi più ad alto rischio, si impongono delle misure di controllo e valutazione dei rischi, tra cui anche la verifica di utilizzare dati affidabili ed aggiornati, il coinvolgimento di una supervisione umana e l’adozione di sistemi di cd sandboxing per il test dei sistemi AI.
- Sopravvivenza della normativa a tutela della concorrenza e del mercato: non vengono meno le disposizioni a tutela della concorrenza per effetto dell’applicazione del Regolamento AI. Ad esempio, è importante verificare gli effetti della diffusione dei cd GPAI, che sono in grado di essere impiegati per diversi fini e potrebbero comportare un rafforzamento della posizione competitiva dei loro sviluppatori.
Le sfide per i legislatori
L’introduzione di nuove disposizioni normative, che impattano sulla protezione dei dati (personali e non), sulla tutela di concorrenza e consumatori e sulla regolamentazione di intelligenza artificiale ha reso più complessi gli interventi delle Autorità. Infatti, il continuo sviluppo tecnologico rende necessario aggiornare l’interpretazione del quadro esistente, ma anche creare collegamenti tra queste normative fra loro, onde evitare contraddizioni.
Le Autorità – e i legislatori – sono di fronte ad una nuova sfida, come lo sono anche gli operatori del diritto che devono muoversi in un quadro sempre piu’ complesso. Lo sviluppo tecnologico rende peraltro sempre più complicato restare “al passo con i tempi”, da cui la necessità di previsioni normative “neutrali”, che possano essere sempre aggiornate nel tempo. Sotto un profilo prettamente anticoncorrenziale, le sfide possono riassumersi tra i punti del G7 tenutosi in Giappone a fine 2023, che ha individuato i seguenti aspetti come minimi punti di intervento a tutela del mercato:
Rafforzare la cooperazione internazionale tra Autorità’.
Resistere ai comportamenti anticoncorrenziali delle imprese, anche mediante operazioni societarie.
Rafforzare le disposizioni normative a tutela dell’economia digitale.
Espandere le capacità di indagine presso le Autorità, in termini di numeri ma anche di preparazione.
Adottare meccanismi di controllo che consentano di pre-determinare l’esistenza di segnali anti concorrenziali.