Raccogliere dati sul web, raschiandoli dai siti che in qualche modo li espongono, è un’attività nota come web scraping, già oggetto di ampie discussioni, di solito aperte per stigmatizzarne le modalità e le finalità (soprattutto quelle non dichiarate), ritenute potenzialmente lesive della privacy degli utenti coinvolti.
Tuttavia, per quanto sia lecito approcciare il tema con cautela, appare necessario evitare la consueta demonizzazione del progresso poiché, in questo caso come in qualunque altro, non si otterrebbe alcun risultato apprezzabile.
L’insaziabile fame di dati dell’AI
Nell’era dell’intelligenza artificiale, indubbiamente, l’appetito di dati che ha sempre stimolato lo stomaco dei colossi del web è evoluto in vera e insaziabile fame, poiché l’addestramento degli algoritmi si rivela efficace in proporzione alla capacità acquisita di offrire loro nutrimento con informazioni attendibili.
Valga per tutti un esempio: Wikipedia, valutando che quella che qualunque utente medio definirebbe una fonte enciclopedica di informazioni, in realtà pesa circa 22 GB, solamente 60.924.573 pagine (ad oggi).
Si tratta di una quantità di dati pressoché irrilevante per l’addestramento di un Grande Modello Linguistico (Large Language Model – LLM), e che sarebbe insufficiente a configurare una rappresentazione credibile della complessità del linguaggio umano.
Per quello, servono molti altri dati, tutti quelli che si possono raccogliere.
Ed è questa innegabile ingordigia degli algoritmi che ha spaventato molti utenti, si pensi alla crociata anti Meta e anti IA del mese scorso, quando migliaia di persone hanno fatto ricorso ai numerosi tutorial presenti sul web per imparare a “dire no” alla raccolta di informazioni fini all’addestramento di IA all’interno delle applicazioni social dell’ex-Facebook.
Web scraping, le contromisure dei Garanti privacy
In effetti, di fronte al web scraping il dibattito si è tradizionalmente snodato ponendo attenzione essenzialmente alle contromisure adottabili per sterilizzarne gli effetti.
Lo stesso Garante per la protezione dei dati personali italiano ha pubblicato, lo scorso 20 maggio 2024, una “nota informativa” sul web scraping ed intelligenza artificiale generativa, indicando una serie di “possibili azioni di contrasto”.
È la strada seguita anche dallo European Data Protection Supervisor, che nell’elaborato pubblicato il 3 giugno 2024 dal titolo “Generative AI and EUDPR”, ha ammonito su quanto l’IA sia destinata ad impattare sui diritti e libertà fondamentali, e sul pericolo che i rischi connessi a tale impatto vengano sottovalutati o – ancora peggio – ignorati.
Eppure, al netto delle cautele che sarà giusto adottare, non si può negare che un utilizzo ragionevole delle informazioni raccolte sul web recherebbe indiscutibili vantaggi agli utenti interessati, e che una forma di controllata condivisione non sarebbe da evitare, bensì, in qualche modo, da abbracciare e incoraggiare.
Il principio di privacy by design per godere dei vantaggi dell’AI e della conoscenza condivisa
Gli strumenti, anche normativi, per conseguire questo obiettivo esistono, forse il tema è ricordarsene e applicarli. A partire dai principi di privacy by design.
In quest’ottica, come noto, il Regolamento europeo sull’AI del 21 maggio 2024, ha previsto che i sistemi di intelligenza artificiale vengano classificati sulla base di diversi livelli di rischio, ai quali dovranno corrispondere regole progressivamente più stringenti: sistemi più rischiosi comporteranno la necessità di una programmazione by design maggiormente riguardevole e protettiva nei confronti dei diritti degli interessati.
Sarebbe un peccato, in questo contesto, se non ci si avvedesse del valore aggiunto che l’intelligenza artificiale potrebbe portare con sé, non limitandosi a generare i rischi che tutti temono, ma giocando un ruolo fondamentale anche nell’individuare le soluzioni applicabili.
Proprio i sistemi di AI, ad esempio, potrebbero essere istruiti per diventare garanti dei diritti e delle libertà degli utenti.
Anziché monitorare o limitare il traffico di rete oppure contenere l’accesso ai bot (con inserimento di verifiche CAPTCHA, modifica periodica del markup HTML, monitoraggio dei file di log, etc.), in sostanza, potremmo insegnare all’AI ad operare nel campo della tutela dei dati personali.
Senza contare i benefici della conoscenza condivisa.
I vantaggi della tecnologia a portata di tutti
Sembrano fortunatamente alle spalle gli anni in cui Meta era barricata dietro un atteggiamento opaco di protezione assoluta dei propri perimetri operativi.
Gli ultimi grandi modelli (precedentemente LlaMa 2 e il recentissimo e straordinario LlaMa 3) sono stati rilasciati come open source: chiunque può prenderli, scaricarli, manipolarli, riaddestrarli, modificarli, commercializzarli e distribuirli tramite una licenza estremamente ampia.
La tecnologia che in precedenza era messa a disposizione di pochi è ora nelle mani di tutti.
Grazie a questa apertura, una enorme comunità internazionale di programmatori, ingegneri, scienziati e ricercatori si impegnerà a sviluppare nuovi prodotti che saranno messi a disposizione della collettività.
La scarsa trasparenza di Open AI
Rispetto a questa filosofia, qualche nota stonata ancora si registra, per esempio nella posizione di OpenAI, madre di ChatGPT, che sembra ancora piuttosto indietro e che per la quale l’espressione Open continua ad avere un significato decisamente ridotto.
Lo sviluppo delle sue soluzioni è totalmente product-driven, e degli ultimi modelli (e.g. ChatGPT 4) sono state diffuse informazioni estremamente limitate.
Esiste una forma di malcelata ironia nella posizione di OpenAI, che si professa “as open as is reasonably possible to be for a company making AI language models”, vale a dire tanto aperta quanto possa ragionevolmente esserlo una compagnia che crea modelli linguistici basati su IA.
Evidentemente, secondo le loro logiche, poco.
Sembra, tuttavia, di assistere ad una sorta di riedizione dello scontro tra Linux e Windows, per anni baluardi di filosofie differenti e inconciliabili.
Eppure, la soluzione open source si è fatta progressivamente strada, fino a diventare, dietro le quinte, il principale motore del sistema operativo Microsoft.
Conclusioni
In definitiva, approcciando il web scraping e la raccolta di dati finalizzata all’addestramento dell’AI, forse bisognerebbe iniziare a ragionare su un paradigma diverso da quello comunemente adottato, fondato su linee di contrasto, azioni di disturbo, disobbedienza, meccanismi di chiusura e protezione.
Le linee guida dovrebbero, invece, ispirarsi a principi di cauta apertura, minimizzazione dei rischi, e condivisione della conoscenza e dei risultati.
Anche perché, ormai dovrebbe saperlo anche chi vede nell’evoluzione tecnologica un nemico, il progresso non si ferma.
E se non puoi battere il nemico, allora tanto vale lavorare per trasformarlo in un amico.