L’Intelligenza Artificiale “generativa” incorpora ormai sempre più elementi nativi di multimodalità – capace, cioè, di generare organicamente contenuti come testi, audio e video – come visto dai recenti annunci OpenAi e Google.
Tale “eccessiva” rapidità nel ritmo evolutivo e nella permeazione nel tessuto sociale globale è da un lato positiva, in quanto tale tecnologia permette di affrontare un’ampia gamma di casi d’uso aziendali con una potenza e una precisione sempre maggiori, cambiando il modo in cui le organizzazioni svolgono e vedono il loro lavoro.
Dall’altro, si aprono rischi nuovi. “Riconosciamo che le modalità audio del GPT-4o presentano una serie di rischi inediti”, ha detto la stessa OpenAI: disinformazione, truffa o altri inganni.
La multimodalità nella Generative AI
La “multi-modalità” è l’idea che un modello di Intelligenza Artificiale generativa sia progettato per accettare input e generare output in più formati, cosa che sta iniziando a diventare una priorità assoluta per i consumatori e, ovviamente, per i fornitori di tali tecnologie pronti a soddisfare le esigenze del mercato.
OpenAI è stato uno dei primi a fornire agli utenti l’accesso a modelli multimodali completi attraverso GPT-4 e con l’imminente GPT 4o[1], con altri modelli (come Gemini di Google) che stanno per fare lo stesso per gradi.
Nel prossimo futuro, l’Intelligenza Artificiale generativa multimodale diventerà (probabilmente) meno un punto di vendita unico e più un’aspettativa del consumatore nei confronti dei modelli di IA generativa, almeno in quelle soluzioni che sono a pagamento.
Una modellazione multimodale sempre più complessa e precisa
Inoltre, ci si aspetta che la modellazione multimodale stessa cresca in complessità e precisione per soddisfare le richieste dei consumatori di uno strumento completo. Ciò potrebbe comportare un miglioramento della qualità delle immagini e dei risultati non testuali o l’aggiunta di migliori capacità e funzioni per elementi quali video, allegati di file e widget di ricerca su Internet.
Attualmente ChatGPT consente agli utenti di lavorare con input e output di testo (incluso il codice), voce e immagini, ma non ci sono funzionalità di input e output video integrate in ChatGPT. Questo potrebbe cambiare presto, poiché OpenAI sta sperimentando il suo GPT 4o, il suo nuovo strumento che ha stessa “intelligenza” di GPT-4 ma è molto più veloce e, soprattutto, multimodale, potendo analizzare, anche in simultanea, testo, audio, video e immagini. Allo stesso modo, mentre Gemini di Google supporta attualmente input e output di testo, codice, immagini e voce, ci sono grosse limitazioni per quanto riguarda le possibilità di immagini, in quanto lo strumento non è attualmente in grado di generare immagini con persone. Sembra che Google stia lavorando attivamente a questa limitazione dietro le quinte, il che mi porta a credere che presto sarà eliminata.
Generative AI come servizio
Un secondo punto riguarda la cosiddetta Intelligenza Artificiale “come servizio” (dall’inglese AI as a Service), la quale sta crescendo di popolarità nelle aziende per quanto riguarda l’Intelligenza Artificiale e dell’apprendimento automatico, mentre quella generativa non prende ancora il volo. Tuttavia, man mano che il tasso di adozione aziendale della tecnologia di Intelligenza Artificiale generativa continua a crescere, molte altre aziende inizieranno a sentire il dolore di rimanere indietro rispetto ai loro concorrenti.
Quando questo accadrà, le aziende che non possono (o non vogliono) investire nelle infrastrutture tecnologiche per costruire i propri modelli di Intelligenza Artificiale si rivolgeranno probabilmente a consulenti e società di servizi gestiti specializzati in Intelligenza Artificiale generativa e con esperienza nel loro settore o tipo di progetto. In particolare, si assisterà alla crescita della quota di mercato della già accennata Intelligenza Artificiale “come servizio”, con la quale un numero sempre maggiore di aziende produttrici di tale tecnologia si orienterà verso offerte pubbliche di modelli personalizzabili (anche open-source), per estendere la propria portata a un nuovo pubblico. Le iniziative di Intelligenza Artificiale generativa “as-a-service” potrebbero anche concentrarsi fortemente sul quadro di supporto di cui le aziende hanno bisogno per utilizzare al meglio tale tecnologia. Ciò porterà naturalmente a un maggior numero di aziende specializzate e ad altre aziende che investono in servizi di governance e nella gestione della sicurezza relativa alla sicurezza in esame.
Rischi di disinformazione e truffa
Passiamo ora ad affrontare celermente la parte più “dark” della tecnologia in esame (quella meno appetibile e frenante, se così possiamo dire).
OpenAi è consapevole dei rischi connessi alla creazione di voci realistiche che conversano in tempo reale, per fare truffe, disinformazione elettorale (e non solo).
Video e immagini creati con AI comportano rischi già ben discussi, ma la novità di questi ultimi giorni guarda a conversazioni live realistiche.
“Il GPT-4o ha una sicurezza incorporata per progettazione in tutte le modalità, grazie a tecniche come il filtraggio dei dati di addestramento e il perfezionamento del comportamento del modello attraverso il post-addestramento. Abbiamo anche creato nuovi sistemi di sicurezza per fornire un controllo sulle uscite vocali”, scrive l’azienda.
“Abbiamo valutato il GPT-4o in base al nostro Preparedness Framework e in linea con i nostri impegni volontari. Le nostre valutazioni di cybersicurezza, CBRN, persuasione e autonomia del modello mostrano che il GPT-4o non supera il rischio medio in nessuna di queste categorie. Questa valutazione ha comportato l’esecuzione di una serie di valutazioni automatiche e umane durante l’intero processo di formazione del modello. Abbiamo testato sia le versioni del modello precedenti alla mitigazione della sicurezza sia quelle successive, utilizzando una messa a punto e suggerimenti personalizzati, per meglio evidenziare le capacità del modello”.
“GPT-4o è stato anche sottoposto a un ampio red teaming esterno con oltre 70 esperti esterni in settori quali la psicologia sociale, i pregiudizi e l’equità e la disinformazione per identificare i rischi introdotti o amplificati dalle nuove modalità aggiunte. Abbiamo utilizzato queste conoscenze per costruire i nostri interventi di sicurezza al fine di migliorare la sicurezza dell’interazione con il GPT-4o. Continueremo a ridurre i nuovi rischi man mano che verranno scoperti”.
“Siamo consapevoli che le modalità audio di GPT-4o presentano una serie di rischi nuovi. Oggi stiamo rilasciando pubblicamente gli input e gli output di testo e immagine. Nelle prossime settimane e mesi, lavoreremo sull’infrastruttura tecnica, sull’usabilità attraverso il post-training e sulla sicurezza necessaria per rilasciare le altre modalità. Ad esempio, al momento del lancio, le uscite audio saranno limitate a una selezione di voci preimpostate e rispetteranno le nostre politiche di sicurezza esistenti. Condivideremo ulteriori dettagli sull’intera gamma di modalità del GPT-4o nella prossima scheda di sistema”.
“Attraverso i nostri test e le iterazioni con il modello, abbiamo osservato diverse limitazioni che esistono in tutte le modalità del modello, alcune delle quali sono illustrate di seguito”.
Il ruolo del Regolamento europeo sulla Generative AI
In quest’ottica “negativamente dirompente” ci viene in aiuto (si spera) l’ormai imminente Regolamento Europeo in materia di Intelligenza Artificiale, che a giorni verrà pubblicato in Gazzetta UE, entrando (finalmente) in vigore nel giro di alcune settimane[2]. Siamo parlando della prima normativa che si concentra sull’Intelligenza Artificiale (non solo generativa) e sul suo impatto – tra le altre – sulla protezione dei dati personali (vitale sarà il feeling che si instaurerà con il GDPR).
Certo, esistono già normative di settore negli Stati Uniti (come in California, Virginia e Colorado). Ma noi siamo in Italia, in Unione Europea, e per noi il Regolamento Europeo sarà quello che conterà e avrà l’arduo compito di tutelare i nostri diritti e le nostre libertà fondamentali. Stiamo parlando di una normativa che categorizza diversi tipi di Intelligenza Artificiale in base al rischio.
I sistemi considerati a rischio limitato saranno soggetti a obblighi di trasparenza minimi, mentre i sistemi ad alto rischio saranno autorizzati, ma soggetti a una serie di requisiti e obblighi per ottenere l’accesso al mercato dell’Unione Europea. Così come vi sono dei divieti tassativi. I sistemi di Intelligenza Artificiale come la manipolazione cognitivo comportamentale e il punteggio sociale, per citarne due, saranno proibiti nell’Unione Europea in quanto il loro rischio è considerato inaccettabile. Il Regolamento vieta anche l’uso dell’Intelligenza Artificiale per finalità di polizia predittiva basata sulla profilazione e i sistemi che utilizzano dati biometrici per classificare le persone in base a categorie specifiche come etnia, religione o orientamento sessuale.[3]
C’è anche il diritto dei cittadini a sapere se si sta parlando con un chatbot o se quello che si vede o ascolta o legge è generato dall’AI. Un principio molto importante proprio alla luce dell’evoluzione dei modelli multimodali.
Gli impatti della Generative AI sul mondo del lavoro
C’è poi un altro aspetto meno “innovativo” che però faremmo male a dimenticare.
La maggior parte degli esperti concorda sul fatto che l’Intelligenza Artificiale generativa cambierà in modo significativo l’aspetto della forza lavoro e del posto di lavoro; tuttavia, non è chiaro se ciò sarà positivo o negativo per gli stessi lavoratori.
In questa fase iniziale dell’impatto sulla forza lavoro, l’Intelligenza Artificiale generativa sta principalmente supportando i lavoratori con l’automazione, l’analisi e altre risorse per aiutare le risorse umane dell’azienda a svolgere i compiti più banali e di routine.
Sebbene vi sia un certo scetticismo sia a livello organizzativo che tra gli stessi lavoratori, sempre nuovi utenti di questa tecnologia (come gli impiegati) continuano a scoprire la capacità dell’Intelligenza Artificiale generativa di aiutarli in attività come la stesura e l’invio di e-mail, la preparazione di report e la creazione di contenuti interessanti per i social media, il che consente loro di risparmiare tempo per il lavoro strategico di livello superiore.
La multimodalità accelera l’impatto, in particolare per i ruoli di supporto e assistenza.
Anche con questi casi d’uso più semplicistici, l’Intelligenza Artificiale generativa ha già mostrato il suo potenziale di cambiare completamente il modo in cui lavoriamo nei più disparati settori. Le prime previsioni prevedevano che l’Intelligenza Artificiale generativa si sarebbe occupata principalmente di catene di montaggio, produzione e altri lavori fisici; tuttavia, ad oggi ha avuto un impatto più immediato e di vasta portata su mansioni e ruoli creativi, intellettuali e nell’assistenza ai clienti.
Lavoratori come addetti al marketing, venditori, designer, sviluppatori, addetti al servizio clienti, direttori d’ufficio e assistenti stanno avvertono da mesi l’effetto di questa innovazione tecnologica, con gli inevitabili timori di perdere il proprio lavoro nel breve-medio periodo. In effetti, la maggior parte degli esperti concorda sul fatto che questi e altri lavori, ove esisteranno non saranno, comunque, più gli stessi di adesso nel giro di un paio d’anni. Quindi il dilemma è tra cambiamento e sostituzione. La forza lavoro potrà tanto essere riqualificata quanto sostituita. Con tutte queste incognite nell’aria, i luoghi di lavoro e le università stanno attualmente lavorando per offrire corsi, certificazioni e programmi di formazione per l’uso professionale dell’Intelligenza Artificiale (non solo generativa).
Governance e gestione della sicurezza nella Generative AI
Con le normative già in vigore e quelle che si prevede arriveranno in futuro, le aziende di Intelligenza Artificiale e le imprese che utilizzano questa tecnologia investiranno molto presto in modo più massiccio in tecnologie, servizi, misure di sicurezza e politiche di governance di tale tecnologia. Al momento vi è solo un piccolo numero di aziende che si sta concentrando sul miglioramento della propria governance dell’Intelligenza Artificiale; tuttavia, con l’aumento dell’utilizzo e dei timori connessi all’uso di questa tecnologia, la governance diventerà una necessità sempre maggiore. Le aziende inizieranno a utilizzare piattaforme dedicate alla governance e alla sicurezza su scala più ampia, la revisione dei modelli e dei contenuti prodotti dall’Intelligenza Artificiale da parte di personale umano diventerà lo standard e tutte le aziende che utilizzano generazione di contenuti a qualsiasi titolo opereranno con un qualche tipo di politica sull’Intelligenza Artificiale per proteggersi da responsabilità e danni a essa connessi.
Migliorare la qualità dei risultati della Generative AI
Man mano che i vari governi, autorità, aziende e utenti scopriranno risultati pericolosi, rubati, imprecisi o comunque scadenti nei contenuti creati attraverso l’Intelligenza Artificiale generativa, si continuerà a fare sempre più pressione sulle aziende produttrici affinché migliorino i processi di addestramento sui dati (cosiddetti “training data”), puntando alla qualità dei risultati e alle strategie di gestione delle cosiddette “allucinazioni” dell’Intelligenza Artificiale. Queste ultime si hanno quando gli output prodotti non corrispondono alla realtà (invero, i modelli come ChatGPT, Gemini ecc. tendono ad “accontentare” l’utente in qualsiasi modo, a volte producendo risultati falsi o distorti).
Sebbene l’enfasi sulla qualità dei risultati faccia parte delle strategie attuali di molte aziende di Intelligenza Artificiale, questo approccio e la trasparenza nei confronti degli utenti non potranno che espandersi per aiutare i leader del settore (come OpenAI by Microsoft e Google) a mantenere la reputazione e la quota di mercato. Ad esempio, con ogni generazione dei suoi modelli, OpenAI ha migliorato la sua precisione e ridotto la frequenza delle allucinazioni che attanagliavano il suo modello. Oltre a svolgere effettivamente questo lavoro, ha anche fornito una documentazione dettagliata e dati di ricerca per mostrare come i suoi modelli funzionano e migliorano nel tempo. Su una nota diversa, Gemini di Google ha già un sistema di gestione del feedback abbastanza completo per i suoi utenti, i quali possono facilmente dare un “pollice in su” o un “pollice in giù” con un feedback aggiuntivo inviato a Google. Gli utenti di Gemini possono anche modificare le risposte, segnalare problemi legali e ricontrollare i contenuti generati rispetto alle fonti internet con un semplice clic. Queste funzioni danno agli utenti la certezza che il loro feedback è importante, il che è un vantaggio per tutti gli “attori in gioco”: gli utenti si sentono a proprio agio con il prodotto e Google riceve regolarmente un feedback generato dagli utenti sulle prestazioni del proprio strumento.
L’integrazione della Generative AI nel business
In conclusione, vi è anche da dire che molte aziende stanno già incorporando l’Intelligenza Artificiale generativa nei loro strumenti aziendali e rivolti ai clienti, al fine di migliorare i flussi di lavoro interni e le esperienze esterne degli utenti. Ciò avviene soprattutto con modelli di IA generativa “consolidati” e, quindi, padroni del mercato, come GPT-4, che vengono spesso incorporati così come sono o vengono incorporati nelle APP e nei siti Web. Nei prossimi anni, questo approccio di Intelligenza Artificiale generativa “incorporata” diventerà una parte quasi universale della gestione dell’esperienza online. I clienti si aspetteranno che l’Intelligenza Artificiale generativa sia una parte fondamentale delle loro esperienze di ricerca e privilegeranno gli strumenti che non sono in grado di fornire risposte e raccomandazioni su misura mentre fanno ricerche, acquisti e pianificano le loro esperienze.[4]
Note
[1] Hello GPT-4o. OpenAI. https://openai.com/index/hello-gpt-4o/
[2] Artificial intelligence (AI) act: Council gives final green light to the first worldwide rules on AI. EU Council. https://www.consilium.europa.eu/it/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the-first-worldwide-rules-on-ai/
[3] L’Unione Europea approva definitivamente l’Artificial Intelligence Act. AI4Business. https://www.ai4business.it/intelligenza-artificiale/lunione-europea-approva-definitivamente-lartificial-intelligence-act/
[4] The Future of Generative AI: Trends and Challenges. Eweek. https://www.eweek.com/artificial-intelligence/future-of-generative-ai/