Il vero pericolo per la democrazia è l’intelligenza artificiale. Altro che le fake news. L’intelligenza artificiale fatta da sviluppatori che – nemmeno loro – sanno quali decisioni possa prendere (data l’opacità degli algoritmi deep learning). Intelligenza artificiale abbinata a grandi masse di dati, nelle mani di una oligarchia tecnologica.
Ora, è una tesa molto dibattuta che il possesso di una quantità enorme di dati sui comportamenti, le abitudini, le aspettative delle persone – sia considerate singolarmente sia collocate in gruppi da parte di un numero ristretto di soggetti, i cosiddetti nuovi “baroni” – metta a rischio il futuro della democrazia.
Il vero interrogativo che dobbiamo porci di fronte a questa prospettiva, tuttavia, non si limita al chiederci dove vada la democrazia; ma dove vada l’umanità e il suo rapporto con le macchine. E quali regole bisogna porre a difesa – nella protezione dati e antitrust, per esempio.
L’allarme è stato lanciato poco tempo fa da Martin Giles, il famoso direttore della London School ai tempi di Blair e l’inventore della cosiddetta “terza via” che tanto occupò l’attenzione della politologia ai tempi di Clinton, Blair e Prodi fino a far parlare qualcuno, enfaticamente, del cosiddetto “Ulivo mondiale”. Il 19 giugno di quest’anno, Giles ha pubblicato un interessante articolo sulla MIT Technology Review dal titolo “Rein in the data barons” o meglio, come precisa il sottotitolo “It’s time to rein in the data barons”.
Si tratta di un saggio non privo di interesse, che riprende i temi, ormai notissimi, suscitati dalla vicenda Cambridge Analytica e dalla audizione di Zuckerberg di fronte al Congresso Usa, circa il ruolo dei social e più in generale dei detentori di un numero smisurato di informazioni sulle persone, accumulate grazie ai servizi resi o acquistati, spesso in modo illecito o non trasparente, e li usano per profilare le persone anche per influenzare le loro opinioni e i loro comportamenti elettorali.
I nuovi baroni dei dati e i rischi per la democrazia
Martin Giles, riprendendo l’abusata e un poco stantia immagine dei dati come petrolio, parla dei nuovi “baroni” che sono tali non perché hanno il monopolio delle fonti energetiche, come avveniva quando si parlava di baroni del petrolio, ma perché hanno accumulato e ogni giorno di più accumulano dati, e cioè informazioni, sulle persone e li usano per il controllo su ciò che esse devono vedere, leggere, comprare. Dice Giles “their platforms give the data barons an unprecedented amount of the control over what we see, read, and buy”.
Concentrandosi poi sui social, e in particolare Facebook, da un lato, e sui grandi detentori di dati ricavati in virtù dei servizi della società digitale che operano nei loro settori in un regime quasi monopolistico, come Google e Amazon dall’altro, Giles ritorna sui rischi che la democrazia corre in un contesto in cui pochi grandi detentori di dati possono decidere, anche grazie alla gestione delle informazioni in rete e alla offerta di servizi della società dell’informazione offerti gratuitamente e tarati sui gusti e le opinioni dei singoli consumatori, cosa la gente deve leggere, cosa deve pensare, quali informazioni deve ricevere.
Proprio tenendo conto delle vicende legate a Cambridge Analytica, da un lato, e alle accuse sollevate dallo FBI e dalla CIA rispetto a ingerenze russe nella campagna elettorale presidenziale USA, Giles sottolinea come la detenzione di un numero elevatissimo di dati consente forme di profilazione di massa, e quindi permette a chi ne sappia fare un uso adeguato, di sviluppare una comunicazione politica particolarmente intrusiva e mirata che, unita ad altre tecniche di analisi dei territori e delle comunità che su questi territori vivono, può arrivare, come è accaduto nel caso di Cambridge Analytica durante la campagna elettorale di Trump, fino a fornire informazioni, slogans, proposte programmatiche diverse, e persino contraddittorie, agli elettori.
E’ possibile, infatti, collocare gli elettori da raggiungere con la campagna promozionale (in questo caso elettorale) riunendoli in gruppi tendenzialmente omogenei non solo sulla base delle loro opinioni e orientamenti, ma anche del luogo in cui risiedono, delle opinioni politiche che hanno manifestato, dei gruppi sociali, etnici, religiosi o culturali a cui appartengono e così via.
Messaggi tarati su ciascun “gregge”
In questo modo, operano con metodologie analoghe a quelle che formano le bubbles informative create dai servizi gratuiti di agenzia stampa offerti dai social, da Google, e dai produttori di smartphone che li inseriscono come preapplicati sui loro apparecchi. Utilizzando queste tecniche, che si basano sempre sulla raccolta di dati relativi alle persone e poi aggregati in gruppi sulla base di una pluralità di elementi di volta in volta selezionati, è possibile inviare a ciascun “gregge” messaggi elettorali differenziati e particolarmente suggestivi per i loro componenti, massimizzando in tal modo il consenso. Ovviamente questa operazione può essere fatta lanciando non solo messaggi mirati a favore del candidato ma anche notizie, false o parzialmente artefatte e distorte, in danno dei competitori.
Accanto a queste tecniche più sofisticate è poi sempre possibile, come mette in rilievo anche Giles, usare i social per diffondere in rete notizie parzialmente o totalmente false o distorte, sia al fine di favorire un candidato o un partito sia di danneggiarlo.
Il fatto che sempre di più le persone si informino prevalentemente sulla rete e utilizzando servizi informativi gratuiti, amplifica ulteriormente l’efficacia della diffusione di notizie distorte messe in rete e che su questa circolano. Infine, la consapevolezza che più del 50% dei messaggi social sono di produzione robotica spiega facilmente sia la possibilità, sempre originata prevalentemente in modo artificiale, di diffondere in pochissimo tempo in modo virale informazioni, video o foto, quasi sempre false o artefatte, sia la facilità con la quale chi vi abbia interesse, e specialmente gli apparati degli Stati e delle organizzazioni che fanno capo a potenze straniere, possono influenzare le competizioni democratiche dell’uno o dell’altro Paese.
Democrazie indifese di fronte alla manipolazione delle opinioni
Sulla base di queste considerazioni, peraltro già notissime, Giles lancia un allarme preoccupato sul futuro delle democrazie. Allarme, anche questo, ormai generalmente condiviso e fondato sulla consapevolezza che i sistemi democratici, proprio perché basati sul principio del voto uguale libero e personale, sono particolarmente fragili e indifesi di fronte a tecniche sofisticate di manipolazione delle opinioni dell’elettorato, specie se operate con le nuove tecnologie della società dell’informazione.
Fin qui, tuttavia, si potrebbe dire che il saggio, per quanto ben scritto, non aggiunge molto a quanto ormai è ampiamente noto né alle preoccupazioni che da molte parti si segnalano rispetto alle sorti delle democrazie.
Esso va però oltre e traguarda anche oltre i poco utili sforzi di cercare forme di censura in rete che limitino il diffondersi delle cosiddette fake news e persino i discorsi di odio, che ormai si sviluppano in modo subliminale, secondo tecniche molto più sofisticate di quanto la regolazione del cosiddetto Hate Speech consenta di intercettare.
Giles comprende che il possesso di quantità sempre maggiori di dati sui comportamenti, le abitudini, le aspettative delle persone, sia considerate singolarmente che collocate in gruppi (clusters) individuati in base a caratteristiche simili, consente tecniche di analisi e modalità di profilazione/classificazione degli individui e dei gruppi sociali estremamente ampie e pervasive. Si tratta di tecniche che possono di volta in volta prendere in considerazione le persone viste come elettori, come consumatori, come users di servizi, come pazienti ecc. ecc., utilizzando i dati “inferiti” dalla attività di analisi per gli scopi più diversi, anche e soprattutto a fini predittivi circa i comportamenti futuri dei singoli o dei gruppi sociali nei quali sono inseriti.
L’umanità e il suo rapporto con le macchine
Il vero interrogativo che dobbiamo porci, dunque, non si limita al chiederci dove vada la democrazia ma dove vada l’umanità e il suo rapporto con le macchine.
Si tratta di una questione che assume un valore persino esistenziale, se vista nel quadro dell’evoluzione delle tecniche Big data e Data analysis finalizzate allo sviluppo delle mille applicazioni dell’Intelligenza Artificiale.
Già oggi è facile constatare che l’Intelligenza Artificiale non utilizza la Data analyisis solo per apprendere i comportamenti degli esseri umani ma anche per analizzarli, catalogarli e sviluppare, nei campi più diversi, tecniche predittive circa il loro futuro e le loro aspettative. Inoltre è del tutto evidente che lo scopo ultimo di ogni apparato e tecnica riconducibili a sistemi di AI ha almeno tre diverse finalità, tra loro inestricabilmente intrecciate.
- La prima, e più nota, è quella di osservare i comportamenti umani e i dati dell’ambiente in cui operano per apprendere ed essere in grado di valutare come sviluppare e garantire servizi sempre più efficienti;
- la seconda è quella di “servire” bene gli essere umani, assicurando un funzionamento non solo efficiente ma anche in grado di adattarsi alle circostanze e ai mutamenti di contesto per garantire sempre la migliore performance possibile nel raggiungimento dei loro fini;
- la terza, meno immediatamente percepibile, è quella di condizionare inevitabilmente gli esseri umani nel momento stesso in cui cercano di soddisfarne al meglio le esigenze e i bisogni.
Non è difficile infatti comprendere che tanto più le macchine “sanno” di noi, tanto più possono adottare i comportamenti che esse giudicano “migliori e più efficaci” per soddisfare le nostre esigenze. Tuttavia, proprio il fatto che il comportamento della macchina ha come scopo la massima soddisfazione rispetto al programma e alle finalità che essa deve perseguire, determina anche che i suoi comportamenti siano inevitabilmente destinati a condizionare gli essere umani, fino a diventare in taluni casi, anche coercitivi nei loro confronti.
L’indimenticabile episodio della lotta tra l’astronauta e il calcolatore AL di Odissea nello spazio non è altro che l’anticipazione, estremamente preveggente, di una realtà che, più di cinquanta anni dopo quel film, incombe intorno a noi.
Questo avviene rispetto ai singoli users nei casi degli assistenti domotici o di quelli utilizzati sui nostri smartphone o computer. Questo avviene in modo ancora più ampio e massiccio con le attività di Data analysis orientate a creare clusters o gruppi di users diversi a seconda delle caratteristiche utili per le finalità di apprendimento, di analisi e di predittività rispetto ai loro bisogni e comportamenti.
Le conseguenze delle mille possibili utilizzazioni dell’Intelligenza Artificiale sono tutte da esplorare, ma certo esse si basano su una simbiosi tra la macchina che impara e apprende le esigenze degli utenti grazie e ai loro comportamenti e, così facendo, è in grado di anticiparne le richieste e di soddisfarne le esigenze. Si crea così una sorta di circolo chiuso nel quale la macchina apprende dai comportamenti umani e, sulla base di quanto ha appreso, anticipa le loro richieste e si adatta ad esse ma, allo stesso tempo, con i suoi stessi servizi e suggerimenti ne condiziona i comportamenti futuri.
Data analysys, conseguenze ancora solo intuibili
Giles non arriva così avanti nel suo ragionamento, ma il suo saggio ha il pregio di guardare con attenzione all’evoluzione in atto in società nelle quali pochi monopolisti dei dati, i nuovi “Baroni”, possono mettere in campo capacità di analisi sempre più gigantesche, grazie alle quali condizionare i comportamenti degli esseri umani attraverso forme di predittività ad oggi ancora solo intuibili nella dimensione che potranno raggiungere e negli effetti che potranno determinare.
Il limite del saggio di Giles sta però nel fatto che si limita sostanzialmente a denunciare la posizione monopolistica dei “baroni dei dati”.
Di conseguenza considera urgente non solo una più adeguata regolazione dell’uso dei dati raccolti, sottolineando a tal fine la importanza del GDPR, ma anche l’opportunità che si incrementino le regole a tutela della concorrenza, applicandole in misura sempre più incisiva e innovativa anche a questi nuovi fenomeni.
La multa Ue a Google e il dibattito sul diritto d’autore
In questo senso, la posizione è molto vicina a quella anche di recente assunta dalla Commissione europea con la maxi multa nei confronti di Google, comminata proprio per ragioni di violazione delle regole sulla concorrenza e finalizzata a impedire comportamenti che possano costituire una barriera allo sviluppo di nuovi competitori, come nel caso della imposizione alle marche di smartphone che utilizzano Android di prefigurare come preapplicata la piattaforma Google Play.
Meno importanza, invece, sembra dare Giles all’altro tema che tanto ha agitato l’UE, quello relativo a come difendere il diritto di autore e la proprietà intellettuale. Un tema difficilissimo da affrontare con equilibrio e che, infatti, ha condotto anche il Parlamento UE a una posizione di stallo.
Quello che più colpisce, tuttavia, è che un articolo che prende le mosse dal tema, più che corretto, dei pericoli che l’evoluzione delle tecnologie digitali legate all’uso dei dati fa correre ai sistemi democratici, non presti attenzione, nelle sue conclusioni, ai rischi ancora più elevati che i sistemi di Intelligenza Artificiale, basati sulla Data Analyis e finalizzati al condizionamento esteso della percezione degli esseri umani rispetto al loro futuro e ai loro stessi bisogni, fa correre alla libertà delle persone e, in ultima analisi, ad ogni sistema di potere che si basi sul consenso dei governati rispetto alle scelte dei loro governanti.
Verso una dittatura delle macchine?
L’Intelligenza Artificiale, in un futuro neppure molto lontano, potrebbe facilmente condurre alla dittatura delle macchine emarginando in modo tanto indolore quanto efficacissimo la possibilità stessa degli uomini e delle donne di essere “fabbri del proprio futuro” e capaci di scegliere con un voto davvero libero chi debba assumere le decisioni che riguardano il loro destino e quello delle generazioni future.
Che poi dietro le macchine intelligenti vi sia sempre la “mano invisibile” dei programmatori e dei Data Analyst non consola affatto. Sappiamo bene quanto le mani invisibili, appartengano al “mercato” di Adam Smith o alla programmazione degli analisti, possano “sbagliare”. Sappiamo inoltre anche che, tra la apparente dittatura delle macchine e la reale dittatura di programmatori (che tuttavia dichiarano essi stessi di non essere sempre in grado di capire come le macchine decidono e perché) la sorte degli esseri umani, della loro libertà e, in ultima analisi, del loro diritto a vivere in una società democratica è comunque a rischio.
Vi è chi ritiene che tutto questo sia ineluttabile e vi è chi si oppone pregiudizialmente, e non senza ragione, a un esito così devastante per il diritto degli umani a decidere di sé stessi.
Il futuro ci dirà se prevarranno l’Intelligenza Artificiale e le sue promesse o la volontà degli umani a non rinunciare al proprio libero arbitrio.