Ogni giorno assistiamo al lancio di nuove funzionalità da parte delle Big Tech nel proprio perseguimento del dominio dell’intelligenza artificiale (AI).
Una corsa incessante e che ci pone degli interrogativi e risvolti etici in termini di utilizzo ed impatto della tecnologia sulla nostra società.
IA generativa, perché le “big five” ora temono e come stanno correndo ai ripari
Google e Microsoft lanciano nuove funzioni basate sull’IA
Risulta quanto mai evidente come l’IA sia la tecnologia del momento e su cui le Big Tech desiderano sempre più capitalizzare. Pertanto, non sorprende che, nelle ultime settimane, in modo quasi contemporaneo, Microsoft e Google abbiano annunciato di introdurre nuove funzionalità assistite dall’IA. Ma vediamo di che si tratta.
La strategia di Google
Google investe già da anni nell’IA ed è ad un punto cruciale di svolta. In queste ultime settimane ha annunciato l’introduzione di nuove funzionalità in Google Workspace (i.e. Gmail, Meet, Docs) oltre che investire sulla potenza della IA a supporto di sviluppatori e di aziende che intendono basarsi sui modelli linguistici di Google.
La società di Mountain View prevede di incorporare un’AI generativa in Docs e Gmail, per supportare le persone nella scrittura, offrendo loro la possibilità di creare testi, digitando semplicemente un argomento che si vuole trattare e ricevere immediatamente un output. L’utente avrà, altresì, la possibilità di continuare a perfezionare e modificare il testo e, qualora fosse necessario, di contare su ulteriori suggerimenti. Inoltre, sarà disponibile il comando sia per rendere il testo “maggiormente formale” sia per “visualizzare altro” in modo da considerare ulteriori opzioni e, in caso di indecisione, cliccare sul comando “mi sento fortunato” e ricevere un nuovo suggerimento più creativo.
Grazie alle nuove funzionalità sarà possibile ottenere riassunti, creare immagini generate automaticamente in base a un prompt, scrivere brief via e-mail, creare presentazioni digitali, filtrare lunghi thread di email e altro ancora.
Google, per quanto riguarda gli sviluppatori, sta introducendo nuove funzionalità per creare prototipi e costruire modelli linguistici. Una nuova app denominata Generative AI App Builder, ad esempio, consentirà ad aziende e governi di creare bot, interfacce di chat, motori di ricerca personalizzati, assistenti digitali e altro ancora. Gli sviluppatori avranno accesso API ai modelli di base di Google e potranno utilizzare modelli pronti all’uso per creare app in pochi minuti o ore.
Inoltre, è previsto il supporto dell’IA generativa nella piattaforma di machine learning Vertex AI, offrendo ai team di data science l’accesso a modelli di base di Google e altri ancora e consentendo loro di creare e personalizzare questi modelli sulla stessa piattaforma che utilizzano per i modelli ML e MLOps interni.
È doveroso evidenziare che sia Vertex AI sia Generative AI App Builder includeranno strumenti per ispezionare, comprendere e modificare il comportamento del modello. Secondo quanto dichiarato da Google, in termini di privacy e la sovranità dei dati – indipendentemente dal fatto che un’azienda stia addestrando un modello in Vertex AI o creando un’esperienza di servizio clienti su Generative AI App Builder – i dati privati rimarranno privati e non utilizzati nel più ampio corpus di addestramento del modello di base. Le organizzazioni, di fatto, manterranno sempre il controllo su dove vengono archiviati i dati e su come o se vengono utilizzati, consentendo loro di perseguire in sicurezza casi d’uso di cospicue quantità di dati nel rispetto delle varie normative e delle leggi sulla sovranità dei dati.
La nuova tecnologia presuppone, quindi, il controllo da parte dell’utente che deve valutare quanto essa suggerisce e decidere se accettare, modificare e cambiare. In quest’ottica Google fornirà anche i controlli amministrativi in modo che aziende e governi siano in grado di stabilire i limiti giusti per le loro organizzazioni, facendo anche tesoro degli input e dei dati dei clienti per perfezionare e migliorare la propria offerta di nuove funzionalità che, inizialmente, sarà disponibile solo negli USA.
Microsoft in prima linea nell’integrazione dell’IA
Anche Microsoft, sempre in queste ultime settimane, ha annunciato di voler integrare gli strumenti di IA nella suite di Office: Teams non è l’unico prodotto in cui la società di Redmond sta impiantando l’IA. La società, il 16 marzo scorso, ha annunciato che quasi tutti i suoi software di produttività, inclusi Word ed Excel, potranno usufruire dell’IA ed essere in grado di impattare radicalmente sulle modalità di lavoro e di garantire una maggiore produttività.
Inoltre, OpenAI – la startup di proprietà di Microsoft che ha creato ChatGPT – ha rilasciato la versione super potente di IA Gpt-4. Ancora, il motore di elaborazione di Microsoft basato sull’AI prevede una nuova funzionalità denominata Copilot che sarà incorporata in Word, Excel, PowerPoint e Outlook.
Le funzioni di Copilot includono:
- Riassunti di punti chiave della discussione di una conversazione tenutasi sul software per riunioni Teams e possibilità di avere riepiloghi per chi si unisce in ritardo o perde l’intero evento.
- Creazione di presentazioni PowerPoint, comprese le immagini, dai prompt.
- Stesura email.
- Analisi di lunghi thread e documenti di posta elettronica.
- Creazione di riepiloghi e grafici di dati su fogli di calcolo Excel.
Microsoft prevede di rilasciare i suoi nuovi strumenti basati sull’IA, per il momento, solo a 20 clienti aziendali selezionati ed estendere Copilot ad un maggior numero di clienti corporate nei prossimi mesi.
La corsa per il dominio del mercato
The Economist ha recentemente pubblicato un articolo in cui descrive in dettaglio come le grandi aziende tecnologiche – quali Google, Facebook e Amazon – stiano investendo cospicui capitali nella ricerca e nello sviluppo dell’IA nel tentativo di mantenere il loro dominio sul mercato.
Basti pensare alla partnership di Microsoft con OpenAI oppure ad AlphaGO di Google che è stato in grado di sconfiggere il campione del mondo del complesso gioco da tavolo Go, oppure ad Alexa di Amazon che può comprendere il linguaggio naturare ed eseguire un’ampia gamma di attività.
Numerosi gli studi, inoltre, tentano di comprendere i trend futuri in termini di IA, tra cui quello pubblicato dalla rivista Nature Communications che esamina il potenziale di questa tecnologia da impiegare nella scoperta di farmaci. Dallo studio si evince che gli algoritmi di apprendimento automatico potrebbero riuscire a identificare promettenti farmaci in tempi ridottissimi – rispetto al lavoro svolto dagli essere umani – ed accelerare, così, lo sviluppo e la ricerca del settore farmaceutico.
I vantaggi dell’IA per le aziende
Un articolo dell’Harvard Business Review rivela, invece, che l’IA ed altre tecnologie avanzate possono essere impiegate con successo nel mondo del business rendendo le aziende – che investono in queste tecnologie – maggiormente competitive rispetto ai propri competitor.
Le Big Tech, oggi, posseggono una quantità incommensurabile di dati – dopo anni di raccolta e “rastrellamento” – e possono contare su una potenza di calcolo in grado di garantire loro profitti e, pertanto, stanno sempre più investendo in IA.
I dati della società di ricerca americana PitchBook confermano che, a partire dal 2019, circa un quinto delle acquisizioni e degli investimenti ha coinvolto aziende di intelligenza artificiale, molto più della quota rivolta a criptovalute, blockchain e altri sforzi decentralizzati in settori come il Web3 (2%) o il metaverso (6%).
Ancora, da un’indagine della società di ricerca slovena PredictLeads si evince che circa un decimo degli annunci di lavoro delle grandi aziende tecnologiche richiede competenze in IA.
Negli ultimi quattro anni le Big Tech hanno acquisito partecipazioni in circa 200 aziende con particolare focus su società di IA e, dall’inizio del 2022 hanno assunto, mediamente, almeno uno specialista di IA al mese, i.e. tre volte di più rispetto ai tre anni precedenti.
Il perseguimento del dominio dell’IA da parte delle Big Tech sta accelerando più velocemente di quanto chiunque avrebbe potuto prevedere e l’IA è destinata ad avere sempre più un impatto significativo sull’economia e sulla società nel suo insieme. Tuttavia, permangono preoccupazioni per le potenziali conseguenze negative dell’impiego sempre più dilagante di questa tecnologia, nonostante abbia il grande potenziale per migliorare le nostre vite e risolvere alcuni dei problemi più urgenti del mondo. Pertanto, essa dovrà essere impiegata in modo responsabile ed etico.
La petizione per una moratoria dell’IA
In quest’ottica, lo scorso 29 marzo, oltre mille luminari della tecnologia ha sottoscritto una petizione per chiedere una pausa di sei mesi sull’addestramento di sistemi di intelligenza artificiale più avanzati di GPT-4, sollevando preoccupazioni sui pregiudizi dell’informazione da parte dell’IA, dell’automazione del lavoro e del rischio dell’IA sulla civiltà umana.
Nella lettera si fa rimando agli Ai Principles secondo cui l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate.
Una richiesta rivolta ai laboratori di IA e gli esperti per sviluppare ed implementare protocolli di sicurezza condivisi per la progettazione e per lo sviluppo avanzato di IA e che risultino rigorosamente verificati e supervisionati da esperti esterni indipendenti in modo da garantire sistemi sicuri. Ovvero, una pausa dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti e poter garantire sistemi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati ed affidabili.
Gli sviluppatori di IA devono, quanto prima, collaborare con i responsabili politici per accelerare lo sviluppo di solidi sistemi di governance dell’IA che includano:
- Autorità di regolamentazione nuove e capaci dedicate all’IA.
- Sistemi di IA supervisionati e tracciati.
- Sistemi di watermarking per trarre informazioni sulla origine e provenienza ed, al contempo, per riuscire a distinguere il reale dal sintetico e per tenere traccia delle fughe di modelli.
- Strutturati ecosistemi di audit e di certificazione.
- Responsabilità per danni causati dall’IA.
- Finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA.
- Istituzioni dotate di risorse adeguate a gestire gli impatti economici e politici che scaturiranno dall’impiego dell’IA.
Conclusioni
L’IA sta trasformando il nostro mondo e la corsa al dominio si fa sempre più frenetica. Le grandi aziende tecnologiche come Microsoft, Google sono in competizione per lanciare modelli linguistici sempre più performanti.
Tuttavia, è quanto mai urgente misurare l’impatto che modelli linguistici sofisticati come ChatGPT di OpenAI avranno sul modo in cui interagiamo con il mondo e sui pericoli che rappresentano per la società civile. Inoltre, è necessario monitorare anche l’uso dell’IA in guerra e come i regimi democratici e autoritari si stanno contendendo il potere nello sviluppo di sistemi d’arma autonomi.
Ne consegue che è quanto mai fondamentale riesaminare la regolamentazione e, in particolare, il modo in cui l’AI Act dell’Unione europea mirerà a garantire che l’IA rimanga una forza positiva, ovvero una leva strategica al servizio dell’umanità, considerando che la difficoltà non sta nell’individuare il problema (i.e. come OpenAI usa i dati per il training, accesso ai minori, etc.), ma nel trovare una buona soluzione che permetta lo sviluppo di questi large language model nel rispetto delle norme e dei diritti.
Concludo ricordando quanto sostiene il Professore di Etica dell’Università Gregoriana Paolo Benanti, ovvero, che l’uomo ha un valore che non è misurabile né in valori numerici dei dati né in quelli economici in un bilancio. Siamo di fronte all’algoretica e dobbiamo continuamente interrogarci su quali relazioni e quale società vogliamo. Ed aggiungo, senza mai dimenticare di esercitare la nostra ragion critica che è una nostra esclusiva peculiarità.