Un caro amico biologo genetista molto spesso mi ricorda l’importanza di preservare e promuovere la variabilità, ovvero il cardine che assicura il nostro moto evolutivo al fine di scongiurare la perenne possibilità di estinguersi.
Una massima che pervade ogni aspetto delle nostre vite, oltre la variabilità genetica, la ricerca costante del progresso contro lo stagnamento, specialmente quello culturale, intellettivo e cognitivo.
IA generativa: benefici e effetti negativi
Questo uno dei temi affrontati nel mondo dell’intelligenza artificiale (IA) e riguardanti specialmente le “IA generative”, dove la ricerca investe non solo nello sviluppo di questa tecnologia, ma anche nello studio dei suoi effetti positivi come nell’indagine degli effetti negativi.
Alcuni tra i benefici osservati consistono nella maggiore efficienza nell’analisi di informazioni, il riconoscimento di “pattern” complessi e quindi l’ottenimento di maggiore accuratezza nella loro analisi. Tali fattori mitigano l’errore umano e incrementano la nostra produttività, anche grazie al notevole risparmio di tempo arrecato.
Ciononostante, come preannunciato, oggi crescono le evidenze di diversi effetti negativi e di conseguenza anche il numero di pubblicazioni che si interrogano su come mitigarli.
IA e il graduale impigrimento del nostro cervello
Uno di questi effetti negativi è l’accrescersi graduale della pigrizia del cervello umano, che va di pari passo al maggiore affidamento a questa tecnologia per la risoluzione di “task”. Questo comporterebbe sia un coinvolgimento umano minore sia un impegno minore nel risolvere problemi. A differenza di un normale processo di apprendimento, affidarsi a un’IA non garantisce una comprensione degli elementi costituenti una risposta o “output”, così come l’assimilazione effettiva della risposta stessa. Ciò, nel tempo, comporterebbe un deterioramento delle nostre facoltà intellettive e cognitive, e con esse sempre meno capacità di giudizio come di senso critico. Qualcosa che in fine non impatta solo la vita lavorativa, ma anche la qualità di vita stessa, siccome aggiunge al problema, già discusso per l’uso degli smartphone, di renderci più impazienti, meno attenti e potrebbe comportare una pletora di danni al cervello umano e le sue facoltà.
I rischi del nostro intorpidimento mentale
Questo intorpidimento mentale assieme al minore coinvolgimento nella risoluzione di una “task”, favorirebbe risposte tempestive ma pur sempre elaborate su precedenti. Così riducendo la variabilità in confronto alle ipotesi in cui le risposte fossero state prodotte direttamente da singoli diversi, attraverso una sintesi delle conoscenze a disposizione di ognuno. Infatti, i dati usati dalle “IA generative” per la generazione di una risposta possono essere considerati come dei precedenti, cioè dati già stabiliti o quantomeno conosciuti. Per questo motivo generare una risposta attraverso un’IA ci preverrebbe da sintetizzare qualcosa di originale, bensì ci limiteremmo a replicare e sedimentare il saputo, favorendo lo stagnamento al progresso offerto dalla variabilità.
Altri fattori che pregiudicano la variabilità
Tuttavia, questi non sarebbero gli unici fattori pregiudicanti la variabilità. Rilevanti sono anche le preferenze specifiche del gruppo di sviluppatori, come posizioni ideologiche, morali o politiche, le quali diluirebbero le nostre “preferenze” individuali. Basti pensare ai casi di ChatGPT o a Gemini di Google, i quali output tendono ad allinearsi a posizioni più progressiste e a sinistra dello spettro politico. Un fatto non di per sé sbagliato, ma alienante per chi usando l’IA non riesce a far prescindere un “output” dalle preferenze del sistema, portando l’utente a conformarsi alle preferenze dell’IA piuttosto che viceversa. Ad avvalorare questa tesi, basti pensare che i “large language models” (LLMs), come quello di ChatGPT o Gemini, sono sviluppati anche con il “reinforcement learning from human feedback”, nel quale un gruppo ristretto di persone guidano l’IA verso gli “output” da loro favoriti. Questo contribuirebbe all’omogeneizzazione e standardizzazione degli “output”, e quindi in ultimo delle risposte adoperate dagli utenti.
Il rischio di standardizzazione
Questo fenomeno sarebbe inasprito nel caso dove le banche dati informanti un’IA non siano adeguatamente variegate e quindi non inclusive dell’eterogeneità che costituisce la realtà. Questo renderebbe per esempio un’IA meno capace di cogliere le differenze tra utente e utente; quindi, limitando il sistema a generare risposte standardizzate per utenti diversi.
Tutti questi fattori contribuirebbero a ridurre la variabilità degli “output” e, aspettandosi un affidamento sempre maggiore su questa tecnologia, anche del nostro pensiero individuale e sociale, rendendoci sempre più artificiali come omogenei. Una rotta la cui nomenclatura potrebbe compiacere l’amico genetista e cioè la “death spiral”.
Ripensare l’interazione tra utente e IA
Tenendo questi fattori a mente, rimane da chiedersi quali potrebbero essere i passi da intraprendere in modo da limitare l’omogeneizzazione e i suoi effetti negativi. In altre parole, come possiamo rendere sostenibile il ruolo di “value creation” di questa tecnologia? Una domanda che ci costringe a ripensare l’interazione tra utente e IA.
Sviluppare interazioni più pratiche e facili
Secondo i ricercatori dell’UCLA per ridurre il divario tra una risposta generata con l’IA e una senza, un passo fondamentale sarebbe sviluppare interazioni più pratiche e facili tra utenza e IA, così che un “output” possa meglio riflettere le preferenze individuali del singolo.
Sistemi come Midjouney permettono agli utenti di rettificare retrospettivamente i prompt dati all’IA per allinearli alle proprie preferenze. Qualcosa di utile, ma che tradisce l’intenzione originaria dietro l’uso di questi sistemi, ovvero il risparmio di tempo. Infatti, questo approccio dovrebbe condizionare una parte dell’utenza a generare un “output” da sé, piuttosto che spendere tempo nel dirigere l’IA verso la risposta da esso preferita.
Allenare l’IA su set di dati più diversificati
Un altro approccio al problema potrebbe essere quello di allenare l’IA su set di dati più diversificati e allo stesso tempo scrivere dei modelli che producano risposte meno standardizzate. Quindi includendo in questi sistemi preferenze che vadano oltre quelle del gruppo di sviluppatori o di uno specifico gruppo sociale, sia per etnia, aderenze politiche o in rispetto ad appartenenze socioeconomiche, e che invece vadano ad essere più inclusive delle varie preferenze riscontrate attraverso la popolazione generale.
lo sviluppo di un miglior “prompt engineering”
Concentrandosi quindi sull’inclusività dei dati e l’eterogeneità degli “output” al fine di migliorare la performance dell’IA, un passo sarebbe lo sviluppo di un miglior “prompt engineering”, ovvero un processo che include la strutturazione da parte degli sviluppatori di un complesso insieme di istruzioni e informazioni che guidano l’IA verso la generazione del “output” desiderato. Il punto del “prompt engineering” è aiutare gli utenti a formulare le loro richieste, o “prompt”, in modo che un’IA possa comprendere e rispondere in maniera più efficace. Per fare un esempio pratico, il signor Rossi scrive nella “chatbox” di un’IA “voglio comprare dei libri”. Capiamo da noi che questa richiesta è troppo generica, per questo un buon “prompt engineering” aggiungerebbe contesto e informazioni a questa richiesta, riformulando l’istruzione sulla riga di “Sei un assistente alle vendite di una libreria. Un utente con sede a Bologna, Italia, ti chiede dove acquistare dei libri. Rispondi con i punti vendita più vicini che attualmente vendono libri”. Quindi, un buon “prompt engineering” permette alle interazioni con l’IA di diventare più semplici e meno frustranti per gli utenti, portando a una migliore esperienza complessiva e soprattutto, capace di soddisfare al meglio le loro richieste.
Seguendo il punto precedente sull’inclusività dei dati, una compagnia che gestisce un’IA potrebbero testare “prompt” in scenari, contesti e utenti di demografie diverse per assicurare la robustezza e inclusività delle risposte date dal sistema. Questo potrebbe ad esempio rendere un’IA più capace di cogliere le differenze linguistiche o culturali dietro ad un “input” e quindi offrire un “output” che rispetti maggiormente l’individualità come le preferenze e intenzioni dell’utente.
Concentrandosi su la “user experience”, il “prompt engineering” potrebbe guidare gli utenti a formulare richieste più chiare e intuitive che si allineino meglio con le capacità del modello dell’IA. A questo fine si potrebbe prediligere un linguaggio più chiaro e un vocabolario non ambiguo che con l’aumentare delle interazioni si allinei progressivamente con lo stile comunicativo e il vocabolario dell’utente specifico. Inoltre, prediligere un linguaggio neutro e oggettivo, potrebbe anche avere il vantaggio di mitigare i casi di “bias”.
Offrire all’utente la possibilità di personalizzare l’interazione con l’IA
Uno di questi passi che gradualmente viene implementato da diverse società, è quello di offrire all’utente la possibilità di personalizzare l’interazione con l’IA attraverso un “rating system”. Qui l’IA raccoglie i “feedback” dell’utente attraverso un semplice sistema di voto, la cui l’analisi permette all’AI di allinearsi maggiormente alle preferenze dell’utente.
Oltre al “prompt engineering” passi anche meno complessi potrebbero aiutare a questo fine. In primis sarebbe già utile rendere il dibattito più popolare così da avere un’utenza consapevole di queste criticità. Inoltre, si potrebbe anche fare affidamento su manuali o guide che insegnino come usare al meglio un’IA specifica, al fine sia di esercitare al meglio le proprie preferenze personali come di massimizzare la “performance” del sistema. Banalmente, anche rendere l’interfaccia di un sistema più chiara e navigabile aiuterebbe a questo fine.
Conclusioni
In conclusione, le strade percorribili sono molteplici e non mutualmente esclusive, i passi da intraprendere impegnativi e forse ancora non sufficienti per scongiurare i rischi considerati. Guardando alla storia umana, come anche alla recente implementazione degli smartphone, viene da chiedersi se i costi del progresso vengano realizzati principalmente ex-post. Ciononostante, andando oltre le narrative catastrofiche, sarebbe auspicabile essere coscienti dei rischi che affrontiamo e in un moto utilitaristico cercare di minimizzarne i mali prodotti e massimizzarne i benefici, ricordandoci che la capacità di guardare oltre è ancora un’esclusiva umana e come tale una nostra responsabilità. Una responsabilità da promuovere per quella cara massima che è la variabilità, principio garante di vita, ma anche collante di qualsiasi società che voglia definirsi moderna e che soprattutto voglia continuare a evolvere.
Bibliografia
- Treat AI Like an Intern: Why Feedback, Praise and Patience Is Key to Good Results – WSJ
- https://www.noemamag.com/Ai-Makes-Us-Less-Intelligent-And-More-Artificial/
- https://scholar.google.com/scholar_lookup?&title=The%20human%20factor%20in%20AI-based%20decision-making&journal=MIT%20Sloan%20Rev&volume=63&issue=1&pages=1-5&publication_year=2021&author=Meissner%2CP&author=Keding%2CC
- https://www.nature.com/articles/s41599-023-01787-8
- Human_AI_Interactions_and_Societal_Pitfalls__short_version___Copy_.pdf (ucla.edu)
- AI Interaction Patterns: Giving Users Ways to Recognize and Interact With Ai-Driven Features | by Simone Viani | May, 2024 | Medium
- Enhancing AI Interaction: A Guide to Prompt Engineering (signitysolutions.com)
- Che cos’è il prompt engineering? | IBM
- Frontiers | The impact of digital technology, social media, and artificial intelligence on cognitive functions: a review (frontiersin.org)