OpenAI ha presentato un nuovo pacchetto di novità su strumenti privacy che in parte cambieranno ChatGPT ma che appaiono subito non risolutive dei problemi di fondo, giuridici, relativi a questo sistema di intelligenza artificiale. Persino, possono persino risultare inapplicabili e deleteri rispetto al funzionamento del chatbot.
Vediamo perché.
Le principali novità sono due: l’introduzione di una c.d. “modalità incognito” e il nuovo layer di abbonamento denominato “business”, ed entrambe provano a porre rimedio ad alcune criticità sollevate dal Garante con il provvedimento dello scorso 30 marzo.
Gli aggiornamenti di ChatGPT: cosa è cambiato
- La prima novità, come già detto, introdurrà una “modalità in incognito” che, similmente a quanto già previsto per i browser di navigazione, permetterà all’utente di disattivare la cronologia della chat. In altre parole, quando si terminerà una chat la IA di ChatGPT non si ricorderà della conversazione avvenuta anche se, precisa OpenAI, le conversazioni verranno comunque conservate per 30 giorni al fine di monitorare eventuali abusi, dopodiché verranno eliminate definitivamente. La parte interessante di questa nuova feature risiede tuttavia nel fatto che – così afferma OpenAI – le conversazioni avviate quando la cronologia chat è disabilitata non verranno utilizzate per addestrare la IA che sta alla base di ChatGPT, provando evidentemente a porre rimedio ad una delle principali criticità sollevate dal Garante, ossia quella dell’assenza di idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento degli algoritmi sottesi al funzionamento di ChatGPT.
- Venendo invece alla seconda novità ossia l’introduzione del nuovo layer di abbonamento “business”, non si tratta semplicemente di una nuova tipologia di abbonamento superiore al servizio free (era già presente il servizio plus), ma, almeno apparentemente, di un vero e proprio servizio B2B rivolto, testualmente, a “professionisti che necessitano di un maggiore controllo sui propri dati e per le aziende che cercano di gestire i propri utenti finali.”. Sebbene il significato di questa frase non risulti particolarmente chiaro (cosa significa maggiore controllo sui propri dati? E perché tale controllo sarebbe rilevante solo per gli utenti business e non anche per gli utenti “normali”?), ciò che invece è chiaro è che, anche in questo caso, i dati degli utenti finali non verranno utilizzati per addestrare i modelli di IA.
- Come ulteriore novità, sebbene non meno rilevante, OpenAI promette che sarà da subito possibile, e molto più semplice, esportare i dati di ChatGPT e capire quindi quali informazioni sono state memorizzate per mezzo di un file contenente le proprie conversazioni (e tutti gli altri dati rilevanti) che verrà inviato via mail all’utente che ne farà richiesta.
Le criticità rimangono
A questo punto sembra quindi che ci sia la volontà, da parte di OpenAI, di cercare di porre rimedio alle criticità evidenziate dal Garante. Non bisogna tuttavia illudersi riguardo agli aggiornamenti proposti i quali non solo non sono risolutivi delle problematiche sollevate dall’Autorità (il problema della mancanza di base giuridica per l’addestramento della IA non è affatto risolto) ma appaiono anche poco verosimili: l’esistenza di ChatGPT si basa sulla continua raccolta di dati in modo che la IA che risponde sia sempre aggiornata e sempre più precisa nelle risposte che fornisce, cosa succederebbe se la maggior parte degli utenti decidesse di utilizzare la “modalità incognito”?
Il funzionamento di ChatGPT si basa infatti su un sistema di apprendimento di tipo euristico tale per cui, similmente a quanto accade per gli esseri umani, l’intelligenza artificiale impara attraverso le proprie esperienze o, in questo caso, la propria memoria. Il termine “addestramento”, riferito all’intelligenza artificiale non è infatti usato a caso, una AI ha un bisogno vitale della propria memoria per poter essere rapida e precisa nelle proprie risposte, necessita insomma di capire dove ha sbagliato in passato per potersi migliorare in futuro. Per questo motivo, se ChatGPT raccogliesse un numero sensibilmente inferiore di dati utilizzabili per l’addestramento della propria IA, il servizio sarebbe più impreciso, meno attendibile e gli aggiornamenti richiederebbero tempi molto più lunghi per essere sviluppati ed implementati, in altre parole diverrebbe in poco tempo un servizio obsoleto pressoché inutile.
E forse anche meno rispettoso della stessa privacy, posto che uno dei problemi segnalati dal Garante riguarda informazioni errate date dal chatbot sulle persone.
Va inoltre ricordato che OpenAI deve occuparsi di almeno altri due temi se vuole ottemperare alle richieste del Garante:
- la nuova informativa privacy, che dovrà passare al vaglio dell’Autorità la quale, nel Provvedimento con cui ha temporaneamente inibito il servizio di chatbot lo scorso marzo, ha fin da subito posto dei paletti: l’informativa dovrà illustrare come ChatGPT tratta i dati necessari ad addestrare l’algoritmo, come funzionano le interfacce di programmazione e quali sono i diritti degli utenti e degli interessanti che non sono iscritti al servizio e, ovviamente deve essere ben visibile in fase di registrazione.
- il sistema di verifica dell’età per lasciare fuori i minori di 13 anni. Apparentemente di facile implementazione, basterebbe infatti replicare quanto è stato fatto ormai parecchi anni fa da Facebook per verificare l’età degli utenti per trovare un rimedio. Ma non è detto che questo sia sufficiente a convincere il Garante il quale, è bene ricordarlo, si è espresso con particolare attenzione riguardo ai rischi che l’uso improprio dell’intelligenza artificiale può comportare; basti pensare a quanto disposto dall’Autorità nei confronti di Replika solo un mese prima rispetto al “blocco” di ChatGPT.
Conclusioni e prospettive future
Nel frattempo, una cosa è certa: ChatGPT resta, per ora e fino ad ulteriori sviluppi, ancora indisponibile per gli utenti italiani (a meno di VPN sia chiaro) e, in attesa di sapere cosa ne pensa il Garante di questi “rimedi” sarà interessante vedere se qualche altra autorità di qualche paese europeo seguirà la strada ormai tracciata, con non poche difficoltà e ancor meno critiche, dal Garante oppure se resterà, fino alla fine, una “battaglia” che vede come protagonisti l’Italia e il colosso americano dell’intelligenza artificiale.
Bisognerà anche capire se questo è il limite massimo – o sarebbe meglio dire, le concessioni massime – cui si spingerà OpenAI oppure se, magari sotto richiesta di altre autorità europee, la società di San Francisco deciderà di apportare ulteriori modifiche per cercare di rendere il proprio servizio di punta sempre più compliant alle normative in tema di data protection.