A fine settembre Meta ha effettuato la release della nuova versione del proprio modello di AI, Llama 3.2 che include anche modelli multimodali. Questa nuova evoluzione dell’intelligenza artificiale di Meta non è tuttavia disponibile per gli utenti europei, perché Meta per prima la ritiene uncompliant con GDPR ed AI Act. Facciamo il punto della situazione per utenti ed imprese.
In Europa solo i modelli più semplici
Per quanto l’AI Act sia già in vigore, potrà essere applicato in ogni sua parte solo dal 2027; nel frattempo, la Commissione europea ha impostato un sistema volontario di sicurezza per i modelli di AI.
Meta ha ritenuto di non aderire a questi protocolli, per cui non ha effettuato la release della sua AI nella versione 3.2 in Europa.
Questo perchè Llama 3.2 ha capacità multimodali: può, in altri termini analizzare immagini, grafici, diagrammi, intercettando le didascalie delle immagini stesse e svolgendo compiti di “visual grounding”, come per esempio l’individuazione di oggetti in un’immagine da una richiesta effettuata in linguaggio naturale.
Llama 3.2 è open source e comprende i modelli 1B, 3B, 11B e 90B, laddove la “B” indica i miliardi di parametri (billions) del modello LLM. Al crescere dei parametri aumentano anche le prestazioni dei modelli e si calcola, ormai che non siano più sufficienti i dati presenti sui motori di ricerca per effettuare adeguatamente il training di questi modelli, che richiedono quantità praticamente infinite di dati per essere efficientemente addestrati.
In conclusione, per effettuare correttamente il training del modello 3.2, Meta deve necessariamente effettuare web scraping indiscriminato e accedere in modo sistematico – quantomeno – ai dati di tutti gli utenti che operano sulle proprie piattaforme.
AI, gli altri grandi esclusi in Europa
Meta non è il solo attore a escludere l’Europa dalle ultime novità.
- Apple Intelligence è disponibile con macOS Sequoia 15.1 sui modelli di Mac supportati. Per iOS 18.1 e iPadOS 18.1, Apple Intelligence non funziona attualmente se ci si trova nell’UE e se il Paese/regione del proprio account Apple si trova anch’esso nell’UE. Se si viaggia al di fuori dell’UE, Apple Intelligence funziona sull’iPhone o sull’iPad se la lingua e la lingua di Siri sono impostate su una lingua supportata. Il motivo sono le regole del DMA che obbligherebbero a una interoperabilità con i concorrenti.
- Un altro esempio è Google Overviews, l’AI integrata nel motore di ricerca. Disponibile in 120 Paesi e su sette lingue, ma non in Europa.
Queste pratiche sono vietate in UE, sia dall’AI Act che, soprattutto, dal GDPR.
Due le questioni più rilevanti con riferimento a quest’ultimo: il necessario consenso informato e con opt out per l’uso delle immagini dell’utente come base giuridica e i diritti dell’interessato, il diritto all’oblio e di correttezza/rettifica del dato in primis.
Dato che Meta – evidentemente – non ritiene di poter/voler aderire a questa compliance (almeno in questa fase), in Europa ha rilasciato solo i modelli che non comportano l’analisi delle immagini, limitandosi a quelli con capacità testuali.
Gli scenari per gli utenti
L’utente medio di Meta nemmeno sa di cosa si stia parlando e della potenza rivoluzionaria del modello 3.2 nella sua versione completa.
Semplicemente, se ha acquistato gli “occhiali” di Meta, noterà che le funzionalità abilitate extra UE non sono disponibili nel territorio dell’Unione.
Per contro è verosimile che i suoi dati vengano tutelati in modo più stringente rispetto a quanto non avvenga all’estero: fatto poco appariscente e del pari poco apprezzato ma che, oggi, ha ancora un grande valore.
Gli scenari per le imprese
Lato business il discorso cambia, e di parecchio.
Questo per svariati elementi di fatto e di diritto: da un lato, le potenzialità di utilizzo sono più limitate rispetto a quanto non avvenga all’estero, ma transeat: non sono molti i players in grado, oggi, di sfruttare a pieno il potenziale di questi modelli.
Più delicato il discorso legato agli investimenti in AI: se la normativa europea è troppo severa, inevitabilmente gli investitori – anche e soprattutto esteri – si sentiranno disincentivati a portare capitali nelle start up che operano ne settore dell’AI.
Qui il tema si fa serio, dato il ritardo che l’UE presenta in termini di scelte strategiche sull’intelligenza artificiale.
Le possibili soluzioni all’impasse
Per quanto possa apparire ottimista, il player di mercato che investe in compliance e consapevolezza aziendale nel settore dell’AI sta investendo a lungo termine e a ragion veduta.
Conoscere bene i termini di ciò che è lecito e di ciò che non lo è, formando le risorse e cercando consulenti esterni preparati è il primo passo per gestire la tecnologia disruprtive quale è l’AI oggi in modo da limitare i possibili danni da sanzioni e per presentarsi sul mercato con tutte le carte in regola.
Se, poi, oggi alcuni modelli open source non sono disponibili, va detto che non necessariamente non lo saranno domani: si tratta di trattative politiche ed economiche sul piano globale, non locale.
Niente vieta, infine, di rivolgersi anche al mercato estero per utilizzare le commodities di AI disponibili in paesi non vincolati dalle norme UE.
La possibilità, infine, di interrogare le autorità competenti sia a livello nazionale che europeo per stabilire a priori la liceità di un prodotto/servizio di AI c’è ed esiste, anche se è poco praticata perché richiede consulenti esperti e di lato livello – per intenderci: non è la “privacy da 1000 euro”, con un registro dei trattamenti standard e qualche informativa copiata.
Gli spazi operativi per le imprese
Gli effetti delle norme UE si fanno sentire nel bene – maggior tutela – e nel male – rischio d’impresa e incertezza per gli investimenti.
Ma ci sono anche grandissimi spazi operativi per le imprese più consapevoli e interessate ad operare in modo dialogico con le autorità garanti nazionali ed europee.
Queste ultime devono mettersi a disposizione delle strat up per favorire un mercato dell’AI più sostenibile di quello attuale, preservando al contempo i diritti dei cittadini.
La posta in gioco è altissima: da un lato l’impiego della tecnologia di AI per rendere i regimi sempre più controllanti e controllori, verso un sistema di tecnologia che richiede la massima speditezza per spregiudicatezza per competere a livello globale, dove le regole sono semplici: vince il più forte.
Ancora una volta, l’Europa si trova tra due opposti, il far west ed il modello sovietico: solo la gestione oculata delle risorse a disposizione potrà determinare un uso sostenibile e consapevole dell’AI.