Da diversi mesi mi sto addentrando nel mondo della cosiddetta “ingegneria del prompt”. Ho cominciato insegnando a docenti e a figure dell’editoria come scrivere prompt efficaci e sfruttare il LLM per costruire la didattica o per inserirli in altri flussi di lavoro specialistici, senza paventare derive luddistiche e ottenere reali cavolate dalla rete neurale.
Si tratta pur sempre di strumenti statistici e l’umano è e resta fondamentale: regista e decisore ultimo, supervisore, e ultima mano a correggere le banalità e i plastismi che l’intelligenza artificiale linguistica restituisce.
Di recente, oltre a lavorare sui prompt, ho iniziato a integrare nelle mie app, che programmo completamente da sola, le chiamate all’API di GPT. Insomma, in questo articolo voglio portarvi la mia testimonianza e spiegarvi perché non va chiamata ingegneria del prompt.
Perché dobbiamo chiamarla linguistica (e non ingegneria) del prompt
Negli USA, differentemente da ciò che accade nello Stivale italico, coloro che nell’azienda si occupano di interfacciarsi con i modelli linguistici non sono figure provenienti dal mondo della tecnica. Non è necessario essere programmatori, ed è vero!
In quanto filosofa, specializzata in scienze cognitive e linguaggio (dalla logica alla pragmatica), mi rendo conto che, quando scrivo un prompt, faccio affidamento sulle mie competenze umanistiche come esperta di lingua e filosofia analitica o continentale. Dire nel minor numero possibile di parole, contestualizzare, identificare, includere forza, direzione, intenzione, pragmatica, eccezioni: questo è ciò che ho studiato in cinque anni di filosofia e che oggi adatto nel mio percorso che sta trovando terreno molto fertile a ingegneria. Tuttavia non la definirei mai ingegneria del prompt, propongo al contrario: linguistica del prompt, invitando anche le aziende italiane a diversificare e cercare esperti della lingua, e non tecnici, perché sarebbe sciocco chiamare un ottico a curare un depresso, anche se la depressione provenisse da ciò che vede intorno a lui!
L’importanza della competenza linguistica nel rapporto con l’AI
Il Time racconta storie simili alla considerazione che sto esponendo in questo articolo, proveniente dalla mia personale concreta esperienza nel campo e mostrando ancora una volta il ritardo italiano, dove si snobba l’umanista, vedendolo come un anacronista, quando invece mai come oggi c’è una così grande richiesta di esperti in comunicazione efficace e della lingua in quanto struttura.
Nell’articolo in questione si racconta la storia di Anna Bernstein, articolista di 29 anni presso l’azienda di intelligenza artificiale Copy.ai a New York, dove lavora scrivendo prompt testuali che vengono inseriti nel sistema di strumenti di intelligenza artificiale. Questi prompt permettono all’IA di generare contenuti come post di blog o email commerciali con il tono e le informazioni corrette. Non ha bisogno di scrivere codice tecnico per farlo; fornisce semplicemente istruzioni al modello di IA per perfezionare le risposte.
Bernstein ha studiato lingua inglese ed era copywriter e non ha alcuna competenza tecnica. Io, al contrario, sono già estrema in questo campo: sto diventando una smanettona, sapendo programmare in Python, JavaScript e avendo inserito le chiamate a gpt in un processo automatizzato dalla sottoscritta, con robot umanoidi e web-app per l’assistenza sociosanitaria, dove la mia figura è perciò anche tecnica. Tuttavia, è bene sottolineare che la parte di codice che si riferisce a gpt non riguarda la programmazione, nemmeno in questo contesto geek. Qui torno la filosofa laureata con Penco e Frixione all’Università di Genova e che collabora, anche nel mio dottorato a ingegneria, con Fedriga di Unibo – storico collaboratore di Eco ed esperto di filosofia della mente e del linguaggio. La competenza che metto in atto, in questo caso, è il segno linguistico, è il testo, è il contesto pragmatico, e chi meglio di una figura che maneggia il linguaggio naturale e che ha familiarità con sintassi, sinonimi e intenzioni, con lo storytelling e con gli effetti che si vogliono suscitare su parlanti, umani e non?
Cosa significa inserire in classe lezioni di AI
La storia di Bernstein è ciò che ho insegnato ai dipendenti di una notissima casa editrice in corsi di aggiornamento su machine e deep learning ed è quello che insegno ai docenti quando tengo corsi sull’IA nella didattica. Bisogna saper parlare a Chatgpt, Bing, DALL-E, Canva, Adobe per risparmiare tempo, e non per essere sostituiti. Inserire in classe lezioni di intelligenza artificiale significa aiutare i ragazzi a comprendere il mondo del lavoro e a collegare competenze, specialmente linguistiche, di modo da “mettere a terra” ciò che si apprende in classe nella produzione di temi ben strutturati. I prof di lingua, di filosofia, i docenti di informatica possono rammentare, attraverso tali insegnamenti, che tutto parte dalla nozione, dal saperlo già fare, e dopodiché si può chiedere al bot di costruire un output sulla base di quelle regole chiare già note. Inoltre perché tale risultato sia correggibile e migliorabile è perché si parte dalla competenza e conoscenza acquisite, che vagliano e sostituiscono o integrano.
È come se di fronte al prompt di gpt ci improvvisassimo tutti docenti: un gioco di ruolo. Infatti, anche quando vogliamo insegnare ai ragazzi come fare qualcosa, prima dobbiamo metterci nei panni di chi non sa e a quel punto insegnarlo a partire dai prerequisiti. Anche la macchina non sa, non saprà mai a dire il vero, però ha accesso a molti dati e la conoscenza può essere simulata attraverso l’istruzione ben data e attraverso un mettere insieme ciò su cui è stata allenata. Se partiamo da questo e spieghiamo, con le parole migliori, collegando i prerequisiti, dando esempi, come restituirci il contenuto desiderato, il successo è garantito. Quello che ho descritto è la linguistica del prompt (N.B.) ed è il mestiere dell’insegnante ed è qualunque compito in classe assegnato ai ragazzi anche prima di gpt. Se si porta questa competenza nell’aula, con l’esperienza analogica fondamentale del prof, si dà modo ai ragazzi di comprendere gpt, al di là di furberie poco furbe. La rivoluzione è in atto, inutile bloccarla con divieti e circolari, l’unica soluzione è trovare un collegamento con le materie e la didattica, e rimandi ce ne sono a bizzeffe! Soprattutto con le materie umanistiche…
Essere umani migliori, migliora anche l’IA
Tra l’altro il “linguista del prompt” è un mestiere cercato e retribuito. Il Time scrive che viene offerto un salario di 335.000 dollari per un “Ingegnere di Prompt e Bibliotecario” a San Francisco. Anche altre aziende stanno offrendo stipendi elevati per posizioni simili. In Italia? Da noi il provincialismo lo osserva come l’Anticristo, come l’istupidimento, come una branca della tecnica e dell’informatica, senza osservarne, invece, l’Umano che ci fa da specchio. Più volte ho sottolineato l’importanza di comunicare bene online come vantaggio di ritorno: dati migliori e quindi IA meno “str**ze”. È la logica dello shintoismo. Se una cosa ha uno spirito malvagio è perché qualche umano con cui ha interagito non si è comportato in maniera equilibrata. Sembra esserci una risonanza anche nell’etica dell’IA: i modelli di deep learning apprendono dai nostri dati; pertanto, se l’output non ci piace spesso dobbiamo vedere la spazzatura che hanno avuto in input. Siamo quello che mangiamo, diceva Feyerabend. E questa concretezza vale anche per le IA. Se desideriamo IA migliori è bene che l’archetipo sia migliore. Noi. Questo per ricordare che l’indotto nasce, continua, e termina nell’umano. E in tutto il processo l’Umanista è essenziale: valutatore etico, linguista che dà istruzioni alla macchina e chi idea design di utilizzo a misura di umano, non sciocchezze e trivialità.