intelligenza artificiale

L’AI rende funzionale il lavoro senza violare la privacy



Indirizzo copiato

Crescono le preoccupazioni riguardo ai pericoli per la profilazione che sembrano connaturati non solo ai possibili utilizzi dell’intelligenza artificiale, ma anche connessi alla sua “natura”. Eppure, è possibile usare l’AI in maniera etica e rispettosa della privacy

Pubblicato il 13 ott 2023

Carmen Dal Monte

CEO di Takeflight



L'AI rende funzionale il lavoro senza violare la privacy

L’AI (intelligenza artificiale) sta rivoluzionando il nostro mondo in modi che
erano inimmaginabili solo qualche decennio fa. Mentre i vantaggi dell’AI sono innegabili, crescono anche le preoccupazioni riguardo ai pericoli per la privacy che sembrano connaturati non solo ai suoi possibili utilizzi, ma connessi anche alla sua “natura”. Negli ultimi mesi la discussione e gli allarmi si sono moltiplicati, ed è utile fare il punto sullo stato dell’arte delle questioni principali che sono emerse, e che animano il dibattito di esperti e non.

Ecco come l’AI rende funzionale il lavoro senza violare la privacy, ma facciamo una premessa.

What Is Surveillance Capitalism? | Shoshana Zuboff

I rischi per la privacy nel capitalismo della sorveglianza

Uno dei principali pericoli per la privacy è la raccolta e l’utilizzo incontrollato dei dati personali. Gli algoritmi di AI richiedono grandi quantità di dati per apprendere e per migliorare le loro capacità, quello che non sappiamo è “quali” dati sono raccolti e analizzati da un singolo sistema, come un’app, e con quali dati di altra provenienza
vengono incrociati.

Esempi eclatanti si possono trovare nel saggio di Veronica Barassi, “I figli dell’algoritmo. Sorvegliati, tracciati profilati dalla nascita”, (2021), che ha il grande merito di descrivere e illustrare con efficacia l’impatto reale delle app familiari e per la gravidanza sulla vita quotidiana delle persone.

Queste tipologie di app, e quelle per il GPS tracker, sono più appetibili di altre per l’ampiezza della raccolta dati. Si stima che monitorando a vario livello e titolo una donna in gravidanza si raccolgano dati su 200 persone, e sono un ottimo esempio di quel “capitalismo della sorveglianza”, felice espressione coniata da Shoshana
Zuboff
, che sintetizza due concetti: quello di un nuovo capitalismo, alternativo a quello industriale di marca ottocentesca, e il nuovo sistema di potere fondato sul controllo del comportamento individuale.

Le domande da porsi

Due sono le domande chiave principali che dovremmo farci sull’utilizzo
delle Intelligenze Artificiali (il plurale è ormai d’obbligo):

  • quale impatto hanno nella vita quotidiana delle persone le tecnologie di sorveglianza, controllo, aiuto e anche supporto;
  • come possiamo definire e regolamentare l’utilizzo dei big data.

Tra gli infiniti campi di utilizzo dell’AI, scelgo uno di particolare interesse
per me, l’ambito EdTech, sia per quello che riguarda gli studenti che per gli
adulti. Partiamo da dati concreti, che dimostrano l’interesse del settore per
tutti, e non solo per chi è personalmente o professionalmente coinvolto.

Big tech all’assalto del settore educazione

Negli ultimi 10 anni Google ha investito più di 250 milioni di dollari nel settore (dati 2021). Google for Education traccia e raccoglie una quantità di dati giornalieri che è quasi incommensurabile per la mente umana. Dati continuamente aggiornati che riguardano sia gli studenti che gli insegnanti, e che sono relativi a una molteplicità diversa di fonti e di informazioni.

La didattica a distanza in pandemia ha moltiplicato i fruitori da un momento all’altro e ovviamente lo stesso è accaduto per la quantità di dati. Nel 2016 Google for Education aveva 50 milioni di utenti, nel 2020 erano 120 milioni, tra questi anche gli studenti italiani.

La piattaforma di Google per le scuole è dal 2020 la più utilizzata nelle scuole italiane. Il grande atout di Google è la capacità di profilare individualmente ogni utente della piattaforma sotto un unico ID, che identifica ogni singola persona per tutta la sua vita, con la possibilità di monitorare, identificare, analizzare ogni movimento attraverso le app dedicate agli spostamenti, ogni acquisto online e fisico, e finanche ogni scelta personale per quello che riguarda la dieta quotidiana o la decisione di fare cinque serie di addominali e non dieci, o quando deciderà di spegnere la luce, anzi di farla spegnere ad Alexa prima di dormire.

Tracciamento degli studenti da prima della nascita

Per la verità, lo studente è tracciato fin da prima della nascita, e con lui, i genitori e i familiari. Attraverso l’app BabyCenter (un esempio tra tanti), ha già un suo ID, e si potrà continuare la profilazione seguendolo alla scuola materna e via via in tutto il suo percorso scolastico, fino alle app di tracciamento che i genitori useranno quando sarà adolescente e magari giovane adulto.

L’app BabyCenter è dedicata alle donne in gravidanza, anche ai partner o ai familiari. Ha come partner Google, Amazon, AppNexus, Brigthcom, DistrictM, Double Verify, Index Exchange, LiveIntent, OpenX Technologies, Salesforge, SIzmejìk, Smaato, Sovrn, TeadsTv eccetera. Ovviamente condivide con loro tutte le informazioni che raccoglie. Si profilano quindi le utenti (e i nascituri) incrociando le informazioni con quelle dei social, delle banche, dei registri elettorali e così via, e si vendono i profili così tracciati.

Bisogna vedere come regolamentare l’uso dei big data raccolti possono arrivare a 200 persone per ogni donna in gravidanza.

AI: definizioni delle intelligenze artificiali

Nel 2018 esce il Artificial Unintelligence di Meredith Broussard, docente alla New York University. Broussard distingue tra l’AI generale e l’AI “ristretta”. La prima è peculiare
delle persone, per le quali l’AI è qualcosa con cui interagire quasi come fosse un essere umano, pensiamo alle domande per Alexa, con cui si può instaurare non solo una conversazione ma anche una relazione.

L’AI ristretta è quella “realmente” esistente: analizza set di informazioni, si addestra e fa previsioni. Ed è questa seconda AI, ci ricorda Bassano, che è realmente esistente e sta cambiando le nostre vite. Ed è di questa di cui dobbiamo occuparci, a partire dalla consapevolezza che per costruire queste tecnologie non solo servono investimenti milionari, ma è necessario un importante lavoro di ricerca, che varia da cultura a
cultura, che deve vedere coinvolti specialisti e scienziati delle discipline più diverse.

Dobbiamo anche essere consapevoli che gli algoritmi così concepiti non possono non riflettere preconcetti, bias e pregiudizi culturali.
Del resto, questi non sono problemi nati con l’AI, almeno per gli addetti ai lavori: è dagli anni ‘90 (1996, Friedman, Nissembaum) che sono state individuate e formalizzate le criticità relative ai bias nei sistemi informatici.

Sciogliere i nodi: entrano in campo elementi etici e giurisprudenziali

I dispositivi nelle nostre case, nelle nostre macchine, nei nostri ambienti di lavoro sono in grado, e lo fanno, di registrare le nostre conversazioni, le nostre azioni e i nostri movimenti anche quando non sono attivati dall’utente. E non solo negli Stati Uniti, ma anche in Europa, a prescindere dal GDPR, e i sistemi di analisi e calcolo alle loro spalle sono in grado, e lo fanno, di incrociare masse di dati provenienti dalle fonti più diverse, profilando con estrema accuratezza ogni singolo individuo. A prescindere dall’uso individuale.

Si può anche scegliere di non avere Alexa o Google Assistant, ma il 46% delle famiglie italiane nel 2021 lo possiede o ha un apparecchio simile: saremo tracciati, registrati, profilati quando andate a trovare familiari e amici, o sul luogo di lavoro, o a scuola. E questi dati sono a disposizione di chiunque, anche dei governi, della polizia, delle agenzie di investigazione nazionali e internazionali. Ormai da un decennio conversazioni e movimenti registrati da Alexa ed Echo dot sono ammessi nei tribunali statunitensi e lo scenario nel quale sarà possibile anche in Italia è sempre meno improbabile. Insomma prima di collegare un altro dispositivo al vostro wifi conviene prendersi il tempo di leggerne la policy.

AI etica e rispettosa della privacy

Esiste un’AI etica e rispettosa della privacy. Se parliamo correttamente di AI “ristretta” è possibile implementare pratiche concrete di raccolta dati, di analisi e di diffusione
he siano rispettose e inclusive, allargando il campo delle scienze coinvolte: non solo più informatica o ingegneria, ma anche sociologia, antropologia, scienze umane e sociali. Questa è la scelta che abbiamo fatto in Takeflight, seguendo i tre ambiti sopra proposti, e che riporto nel dettaglio della nostra prassi concreta, sia nella parte R&D che in quella imprenditoriale, a dimostrazione che un’alternativa esiste ed è già in atto.

Raccolta dati

Per la raccolta dati si può scegliere di non “pescare a strascico” nei social, nelle conversazioni rubate, nell’app di supporto personale, e operare invece attraverso questionari e assessment calibrati, messi a punto da esperti di varie discipline che guidano l’implementazione degli algoritmi di calcolo e di analisi.

In questo modo abbiamo ridotto – non eliminato! – le possibilità di errori o storture dovute ai bias “preesistenti”, quelli propri degli esseri umani. La presenza nei team di diverse figure con diverse formazioni disciplinari è un elemento dirimente. Anche se non semplice da gestire, come non lo è mettere insieme un’ingegnera, un informatico, uno statistico, una sociologa, un antropologo, uno psicologo clinico, una psicologa del lavoro e una epistemologa/storica della scienza nella stessa stanza a lavorare allo stesso progetto. L’opera di traduzione dai vari linguaggi è “coinvolgente”.

Ne emergono due assessment, uno dedicato agli studenti e uno dedicato agli adulti che, nel rispetto dell’etica e della privacy, sono estremamente efficaci, e offrono risultati interessanti sia sul piano delle ricerca e dell’affinamento dell’AI sia su quello concreto della prassi scolastica e aziendale.

Analisi

Per la profilazione in senso stretto, a differenza del mainstream per lo sfruttamento marketing, abbiamo scelto la profilazione di gruppi, e non di persone. Classi di studenti, team di lavoro, settori aziendali, corsi universitari. Gruppi e non singoli. Educando gli algoritmi a una profilazione sociale rispettosa delle diversità e delle differenze culturali, sociali, economiche. Ma anche – e soprattutto- impostando la parte delle previsioni per superare le differenze e non accentuarle. Una scelta precisa, etica e scientifica insieme, in nome dell’inclusione e dell’equità.

Diffusione dei dati

Anche qui, una scelta precisa, i dati personali non si vendono, e non si cedono a terzi. I dati aggregati, analisi, previsioni e soluzioni dei problemi sono condivisi solo con i partner di riferimento, scuole, aziende, università che condividono le stesse scelte di privacy e di rispetto delle persone.

Queste scelte ci hanno fatto affrontare con successo problematiche di apprendimento e di trasmissione della conoscenza nelle scuole senza entrare nell’individualità del singolo studente, ma profilando cluster dimensionali di gruppo, come, per esempio, l’apertura mentale, l’autostima o la motivazione. Così come abbiamo analizzato e risolto problematiche aziendali relative alla selezione, alla formazione e alla retention delle persone, ottenendo con i nostri algoritmi nuovi punti di vista e soluzioni
innovative e originali.

Reid Hoffman (Linkedin, Paypal, OpenAI) ha recentemente ricostruito l’acronimo AI a partire da Amplification Intelligence, anziché Artificial: non si tratta di intelligenza artificiale, ma Intelligenza Amplificata. E come tale è e deve essere un supporto, non sfruttamento e controllo degli individui. Almeno questa è la scelta che abbiamo fatto noi, con i nostri Assessment Profile, già dal 2013. Speriamo di essere imitati dalle BigTech.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4