Negli ultimi tempi si sta intensificando l’attenzione dei decisori politici e delle competenti authorities sul rilevante impatto dell’intelligenza artificiale in materia antitrust, alla luce dei potenziali effetti anticoncorrenziali che tale tecnologia potrebbe arrecare, pregiudicando il corretto funzionamento del mercato, con gravi ricadute negative per la tutela generale degli utenti-consumatori.
In tale prospettiva, sul versante regolatorio, è possibile focalizzare le principali iniziative predisposte, ad esempio, nel contesto statunitense, anche in chiave comparatistica con gli analoghi interventi realizzati dall’UE, al fine di tentare di arginare i rischi configurabili nel settore, in ragione delle preoccupazioni che cominciano ad emergere rispetto alle possibili violazioni delle norme a tutela della concorrenza provocate dall’uso indebito dei sistemi di IA.
Intelligenza artificiale e antitrust, l’approccio Usa
Di recente, lo scorso 30 ottobre 2023, il Presidente americano Biden ha emesso l’ordine esecutivo 14110 “Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”, che si inserisce nell’ambito della generale strategia nazionale edificata in materia di IA (sulla base dell’ordine esecutivo n. 13859, integrato dall’ulteriore ordine esecutivo n. 13960, letto in combinato disposto con la cd. “American AI Initiative”, sino alla recente Carta dei diritti in materia di IA – cd. “AI Bill of Rights”).
In particolare, l’ordine esecutivo prevede, come nuovo modello di governance nazionale in materia di IA, l’istituzione di un Consiglio operante in seno alla Casa Bianca (cd. “White House AI Council”): si tratta di un nuovo organismo preposto a svolgere funzioni di coordinamento generale per assicurare «l’attuazione tempestiva delle politiche relative all’intelligenza artificiale» affidate alle diverse agenzie federali che sono tenute ad operare nel rispetto di apposite linee guida e standard vincolanti da implementare con differenziate scadenze temporali per contribuire a «garantire lo sviluppo di sistemi di IA sicuri, protetti e affidabili».
L’impegno del Governo Usa per un mercato equo, aperto e competitivo
Dopo aver formalizzato otto principi guida, recanti specifiche priorità di intervento della complessiva azione politica dell’amministrazione statunitense, con riferimento alle prescrizioni operative che riguardano la materia antitrust, il governo USA si impegna ad assicurare il mantenimento di un mercato tecnologico “equo, aperto e competitivo”, in grado di attirare i migliori talenti provenienti da tutto il mondo, salvaguardando, altresì, i legittimi interessi concorrenziali dei piccoli imprenditori esposti al rischio di pratiche commerciali scorrette da cui discendono concentrazioni di potere economico a vantaggio di poche aziende dominanti.
Oltre a statuire l’obbligo per gli sviluppatori dei sistemi di intelligenza artificiale di condividere periodicamente con il governo federale i risultati accertati all’esito di costanti test valutativi dei rischi rilevati sulla base degli standard elaborati dal National Institute of Standards and Technology e nel rispetto di quanto previsto dal Defense Production Act, tra gli obiettivi espressamente perseguiti, strettamente connessi alle prioritarie esigenze di salvaguardia della sicurezza nazionale, rientra, pertanto, la promozione dell’innovazione e della concorrenza che richiede l’attuazione di misure efficaci per «fermare la collusione illegale e impedire alle aziende dominanti di svantaggiare i concorrenti».
Rafforzato il ruolo della FTC
La progressiva crescita dei servizi di intelligenza artificiale potrebbe, infatti, alterare le dinamiche competitive del mercato, al punto da giustificare il rafforzamento del ruolo, sempre più centrale, – così come sollecitato nell’ordine esecutivo n. 14110 – della Federal Trade Commission (FTC), legittimata ad intervenire nell’esercizio dei poteri conferiti ai sensi e per gli effetti della normativa antitrust, al fine di garantire la concorrenza libera e leale nel mercato, nonché tutelare i consumatori e i lavoratori a fronte di possibili danni massivamente cagionati dai sistemi di intelligenza artificiale.
Per tale ragione, la FTC ha approvato una risoluzione che mira a rafforzare l’esercizio dei propri poteri antitrust quando vengono utilizzati prodotti e servizi di intelligenza artificiale, con la possibilità di emettere, nello svolgimento delle relative indagini, le cd. “civil investigative demands (CIDs)” al fine di acquisire documenti, informazioni e testimonianze utili per l’accertamento delle violazioni contestate, anche avvalendosi di un mandato di comparizione obbligatoria.
Evitare le condotte collusive e le barriere all’ingresso
Dalle indicazioni del citato ordine esecutivo si evince l’intento di estendere, in via generalizzata, la portata applicativa della legislazione vigente in materia antitrust che, a presidio dei mercati e dei consumatori, è, dunque, destinata a regolare anche il settore dell’intelligenza artificiale, evitando la formazione di condotte collusive, sintomatiche di alterazioni concorrenziali vietate (cartelli, pratiche commerciali scorrette, fissazione di prezzi alti, riduzione concordata di servizi erogati, ecc.) in grado di compromettere la crescita innovativa, inclusiva e sostenibile dello sviluppo tecnologico. Emblematiche, in tal senso, sono le osservazioni formulate dal Vice Procuratore Generale della Divisione “Antitrust” istituita in seno al Dipartimento di Giustizia USA (che opera in stretta sinergia con la Federal Trade Commission): gli effetti anticoncorrenziali dell’intelligenza artificiale giustificano un’applicazione flessibile ed elastica della normativa ordinaria, risalante alla prima storica disciplina organica introdotta con il noto cd. “Sherman Antistrust Act”, in grado di resistere ai significativi cambiamenti che si sono verificati nel corso tempo, grazie al suo lungimirante sforzo definitorio, sia pure fisiologicamente integrato dalle necessarie ricostruzioni interpretative elaborate dalla giurisprudenza con l’intento di rendere le relative regole sempre adeguate a fronteggiare le sfide attuali poste dal costante progresso tecnologico.
Sulla scia delle coordinate così delineate, anche la Federal Trade Commission, evidenziando i potenziali rischi antitrust provocati dall’uso dei sistemi di IA, ha il compito di vigilare sul rispetto dei vincoli posti dalla legislazione di riferimento. In particolare, la FTC prospetta, ad esempio, la creazione di barriere all’ingresso ostative al corretto funzionamento del mercato a causa dell’indebito sfruttamento delle risorse strategiche utilizzate nell’ambito della filiera produttiva di progettazione dei sistemi di intelligenza artificiale, caratterizzati da un controllo centralizzato sugli “input chiave” necessari allo sviluppo dei modelli algoritmici in grado di esercitare un’influenza dominante “sproporzionata”.
A riprova dei timori sollevati, infatti, la FTC evidenzia, anzitutto, come la capacità di raccolta di una mole significativa di dataset da utilizzare durante fase iniziale di pre-addestramento delle applicazioni di IA potrebbe ostacolare, di fatto, la libertà di entrata nel mercato, rendendo difficile l’ingresso di nuovi operatori rispetto alle grandi aziende titolari di piattaforme digitali che riescono ad accumulare notevoli quantità di dati diversificati e processati mediante sofisticate tecniche di “data scraping” non sempre facilmente accessibili, in via generale, alla totalità dei “market players”.
Inoltre, poiché il perfezionamento dell’intelligenza artificiale richiede il possesso di elevate competenze professionali, il potere economico di attirare i lavoratori più qualificati e specializzati nel settore tecnologico, come peculiare risorsa scarsa ma sempre più indispensabile di cui dover disporre, costituisce un ulteriore fattore anticoncorrenziale pregiudizievole per accrescere indebitamente le quote di mercato, rallentando il ritmo evolutivo dell’innovazione digitale anche a causa di una fruizione asimmetrica e diseguale delle risorse computazionali oltremodo costose da gestire e mantenere per il costante miglioramento dei meccanismi tecnici di progettazione algoritmica.
I nodi del copyright
Inoltre, in occasione della formulazione di specifici commenti al Copyright Office, la FTC ha ribadito il descritto impatto negativo di pratiche sleali e ingannevoli sul mantenimento di un mercato concorrenziale, evidenziando il nesso di interrelazione reciproca che risulta configurabile tra la tutela dei consumatori, il rispetto della legislazione antitrust e la normativa sul copyright, atteso che i contenuti generati dai sistemi di intelligenza artificiale potrebbero causare significati danni in termini di preoccupanti deficit di trasparenza, sicurezza e responsabilità.
In particolare, secondo le osservazioni della FTC, l’eventuale diffusione di opere generate dall’intelligenza artificiale potrebbe non solo ingannare i consumatori circa la reale paternità giuridica e la provenienza effettiva delle relative creazioni realizzate, ma altresì integrare gli estremi di una pratica anticoncorrenziale sleale posta in essere dalle grandi aziende che dispongono di elevate risorse finanziare in grado di sfruttare la propria reputazione di mercato, rafforzata dall’imposizione di licenze esclusive protette da copyright, diminuendo il valore commerciale dei contenuti offerti dagli altri competitors.
L’impatto antitrust dell’IA visto dall’Ue
Sulla scorta del crescente interesse che si sta registrando negli USA, in via del tutto similare, è parimenti centrale, come tema di indagine rilevante anche per l’UE, l’impatto antitrust dell’intelligenza artificiale a causa di “variabili tecniche e non tecniche” in grado di alterare, restringere o determinare distorsioni delle dinamiche concorrenziali, al punto da indurre le istituzioni euro-unitarie a intensificare gli interventi regolatori per reprime le specifiche condotte collusive vietate dagli artt. 101 e ss. TFUE (accordi anticoncorrenziali, sfruttamento abusivo di posizione dominante, fusioni e aiuti di Stato).
Per garantire, infatti, il corretto funzionamento del mercato interno dell’Unione (rientrante tra i principali obiettivi perseguiti ex art. 3 TUE), la Commissione europea ha già da tempo avviato un riesame globale delle norme in materia di antitrust, concentrazioni e aiuti di Stato, pubblicando, tra l’altro, la Comunicazione su una politica di concorrenza pronta a nuove sfide, con l’intento di promuovere, soprattutto nella fase di crescita post-pandemica, l’attuazione del Green Deal europeo, nell’ambito di un’Europa resiliente per il decennio digitale, da cui discende l’impegno di predisporre una strategia europea sull’IA, al fine di realizzare un solido quadro giuridico europeo in materia di IA per tutelare i diritti fondamentali e ridurre i rischi di sicurezza che richiede, altresì, l’emanazione di una nuova legislazione sui mercati digitali.
Il pacchetto di riforme varato dall’Ue
Emblematico, in tal senso, il noto Digital Markets Act (DMA) rientrante, appunto, nel complessivo “pacchetto” delle recenti riforme europee adottate dalle istituzioni euro-unitarie, che comprendono anche il Digital Services Act (DSA), il Data Governance Act (DGA), in combinato disposto con la normativa vigente in materia di protezione dei dati personali (ossia il Regolamento UE 679/2016), e con il cd. “EU AI Act”, integrato dalla proposta di direttiva sulla responsabilità civile nel campo dell’intelligenza artificiale.
In particolare, la nuova legge sulla concorrenza digitale, recante obblighi specifici a carico dei cd. “gatekeeper”, mira a ridurre il potere tecnologico delle grandi aziende, per assicurare, anche nel settore dell’innovazione digitale, il mantenimento di un ecosistema aperto senza subire distorsioni concorrenziali.
Tuttavia, a differenza di quanto delineato nel contesto regolatorio statunitense, ove la concreta attività di prevenzione e repressione dei rischi provocati dai sistemi IA (anche in materia antitrust) è affidata alla supervisione operativa di agenzie governative all’uopo preposte ad esercitare i relativi poteri configurabili nell’ambito di una cornice nazionale di principi generali riconducibili al modello applicativo di “soft-law”, l’Unione europea ha, invece, optato per una soluzione più solida, enucleata su basi giuridiche positivizzate mediante l’emanazione di cogenti normative specifiche, integrate tra loro, dedicate a disciplinare le differenti configurazioni dell’ecosistema digitale, compreso l’utilizzo dell’intelligenza artificiale.
Conclusioni
Alla luce delle insidie che le nuove tecnologie emergenti pongono, sarebbe, invero, forse auspicabile assicurare un maggiore sforzo di cooperazione regolatoria a livello globale, nell’ottica di conseguire la necessaria uniformazione normativa transnazionale in grado di realizzare un’efficace governance strategica in materia di intelligenza artificiale, senza, però, perdere la flessibilità applicativa di cui deve dotarsi una disciplina adeguata a sostenere i rapidi ritmi evolutivi dell’innovazione digitale.
Le opinioni espresse nel presente articolo hanno carattere personale e non sono, direttamente o indirettamente collegate, in alcun modo, alle attività e funzioni lavorative svolte dall’Autore, senza, quindi, impegnare, in alcun modo, l’Amministrazione di appartenenza del medesimo.