Viviamo in un mondo sempre più complesso e interdipendente, dove un profondo processo di globalizzazione ha messo in discussione paradigmi e sicurezze storici. La nostra è di fatto una società del rischio, in cui da una parte aumentano in maniera esponenziale le possibili minacce alla nostra realtà sociale, economica, politica, dall’altra con sempre maggiore difficoltà riusciamo a individuarne con chiarezza le cause e gli effetti e, conseguentemente, a diminuire la nostra vulnerabilità riducendone, o virtualmente azzerandone, l’impatto negativo. Il rischio dovrebbe essere visto come un generatore di opportunità.
Il ruolo del risk management nel controllo e nella prevenzione dei rischi
Ma per individuare, analizzare, comprendere, gestire e, in ultima istanza, prevenire i rischi, cercando di cogliere gli aspetti positivi, ovvero le opportunità, dobbiamo dotarci di adeguate strutture di risk management.
In una società sempre più frammentata, in cui i confini tra settori come politica, economia, finanza, diventano sempre più labili e in cui non riusciamo più a definire con chiarezza le relazioni causa-effetto, le imprese, sempre più proiettate verso l’esterno dei confini nazionali, in contesti che spesso non conoscono e che non offrono un ambiente stabile come quello nazionale, sono soggette a una sempre maggiore varietà di rischi, che non sempre riescono a capire e gestire.
Il libro ha messo l’accento anche sulle nuove frontiere della cyber sicurezza apportando specifiche riflessioni sull’intelligenza artificiale e, in particolare, sulle potenzialità di ChatGPT, la nuova frontiera dell’IA. L’IA, ovvero ChatGPT, è uno strumento avanzato e potente che può produrre risultati significativi anche con un’esperienza minima da parte dell’utente. La qualità di questi risultati, tuttavia, può variare a seconda di fattori quali la specificità, la chiarezza e il contesto della richiesta dell’utente. Per massimizzare il valore di ChatGPT, gli utenti devono avere una solida comprensione delle capacità e dei limiti dello strumento, nonché la capacità di valutare criticamente il contenuto generato.
Come utilizzare correttamente ChatGPT per sfruttarne appieno il potenziale
L’utilizzo efficace di ChatGPT può essere ottenuto impiegando strategie come il prompt che prevede la creazione di messaggi precisi e ben strutturati e la regolazione del parametro della temperatura per controllare l’aleatorietà e la creatività dell’output. Queste tecniche possono migliorare significativamente la pertinenza e l’affidabilità delle risposte di ChatGPT, consentendo agli utenti di ottenere le informazioni desiderate se cercate in modo più efficiente.
Inoltre, è essenziale che gli utenti rimangano vigili sulla sicurezza e sull’integrità dell’interazione con ChatGPT, assicurandosi che i dati sensibili siano protetti e non esposti inavvertitamente.
Come ha sottolineato Andrej Karpathy, direttore dell’IA presso Tesla e oggi uomo di punta di Open AI, in un tweet del dicembre 2022, acquisire una profonda comprensione di come utilizzare correttamente ChatGPT è fondamentale per sfruttarne appieno il potenziale e renderlo una risorsa davvero preziosa in vari settori, dalla sicurezza informatica alla ricerca e oltre.
L’integrazione dell’IA e degli strumenti di apprendimento automatico nella vita quotidiana e nel lavoro rappresenta una sfida complessa e multidisciplinare che richiede il coinvolgimento di diverse componenti aziendali.
Le implicazioni sociali dell’utilizzo di strumenti come ChatGPT
Inoltre, le implicazioni sociali di questi strumenti, come ad esempio l’utilizzo di ChatGPT per scrivere email sensibili, devono essere considerate. La barriera d’ingresso è bassa e le implicazioni a lungo termine, compresa la potenziale atrofia delle competenze, non sono ancora del tutto comprese.
Secondo Padre Paolo Benanti docente di Etica delle tecnologie all’Università Gregoriana e unico membro italiano nel Gruppo consultivo sull’IA delle Nazioni Unite “mai come ora abbiamo bisogno di algoretica per cercare di evitare di imboccare strade di cui un giorno potremmo pentirci per il costo in dignità delle persone e in vite umane che hanno comportato”.
L’importanza della collaborazione tra sviluppatori, aziende e regolatori
L’adozione di queste tecnologie sta progredendo rapidamente. Per utilizzare questi strumenti innovativi in modo sicuro, responsabile ed efficace, è essenziale il contributo delle autorità di regolamentazione e dei governi.
L’Autorità italiana per la protezione dei dati (DPA) è stata la prima a dichiarare che i dati personali sono raccolti in modo illecito con conseguente blocco temporaneo dell’utilizzo di ChatGPT in Italia.
Ciò evidenzia l’importanza della collaborazione tra sviluppatori di tecnologie, aziende e organismi di regolamentazione per garantire che gli strumenti di IA e di apprendimento automatico siano implementati in modo sicuro, eticamente e responsabilmente a beneficio di tutte le parti interessate.
Poiché l’integrazione degli strumenti di IA e di apprendimento automatico diventa sempre più diffusa, è essenziale che le organizzazioni stabiliscano linee guida e politiche per garantirne un uso responsabile.
In sintesi, il Garante ha intimato alla società statunitense sviluppatrice e gestrice di ChatGPT, la limitazione provvisoria del trattamento dei dati degli utenti italiani.
L’Ue pioniera nella regolazione dell’IA
Con il recente accordo sul testo dell’AI Act, raggiunto dal cosiddetto “trilogo” formato dalla Commissione europea, il Consiglio dell’Unione europea e il Parlamento hanno l’Unione Europea diventa pioniera nella regolamentazione dell’intelligenza artificiale.
In sintesi, l’UE mira ad adottare una normativa in grado di assicurare che i sistemi di intelligenza artificiale utilizzati nell’Unione posseggano determinate caratteristiche in termini di sicurezza, trasparenza, tracciabilità, non discriminatorietà e rispetto dell’ambiente.
Ed infatti, partendo dalla premessa che ogni sistema di IA comporta un rischio, nel caso in cui tale rischio sia tale da non poter essere accettato – perché rappresenta una minaccia per le persone – il sistema deve essere vietato. Si tratta, ad esempio, del caso della manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici (come i giocattoli attivati vocalmente che incoraggiano comportamenti potenzialmente pericolosi per i minori), di quello della classificazione sociale o dei sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.
I sistemi di IA che sono suscettibili di incidere in termini negativi sugli ambiti della sicurezza e dei diritti fondamentali verranno classificati come sistemi ad alto rischio e saranno oggetto di valutazione tanto prima della loro immissione sul mercato quanto durante il loro ciclo di vita.
Nell’ipotesi in cui, invece, il rischio portato dal sistema di IA sia contenuto, o comunque accettabile, sarà sufficiente il rispetto di requisiti minimi di trasparenza al fine di permettere agli utenti di giungere a decisioni informate.
Conclusioni
Il libro, come manuale di Security Risk Management, allarga il perimetro delle sue riflessioni a tutti i rischi ponendo l’accento su di un governo della security strutturata e conforme alle norme e alle best practice.