L’attuale definizione di “intelligenza artificiale” non si discosta da quella tradizionale che oscillava tra l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività e il sistema informatico in grado di simulare il pensiero umano.
Intelligenza artificiale: definizione e applicazioni
Tra le due definizioni, benché la seconda sia più preoccupante, l’unica differenza è la potenza della macchina e di conseguenza la capacità umana che la macchina è in grado di emulare. E infatti, se nel 1971 il primo processore realizzato da Intel fu utilizzato per costruire una calcolatrice, oggi i processori commerciali elaborano immagini per guidare veicoli in modo autonomo senza conducente.
E ancora oggi l’Unione Europea con “intelligenza artificiale” (IA) fa riferimento a quei “sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici.”
L’IA quotidianamente è usata per bloccare lo spam nella posta elettronica, per scattare le foto con il nostro smartphone e per numerosissime altre applicazioni di uso quotidiano. Parlare di “Intelligenza” in questi casi è eccessivo ma ormai la differenza tra un programma “intelligente” e uno “normale” è affidata solo al marketing.
Con ciò il Legislatore ha scelto di non includere nel perimetro dell’Intelligenza Artificiale solo quella generativa e quella in grado di prendere decisioni complesse o critiche, ossia quella effettivamente in grado di simulare il pensiero umano, ma qualsiasi attività possa essere eseguita da un essere umano, anche semplice e ripetitiva come contare le pecore su un prato.
AI Act, obiettivi e limiti della normativa Ue
In un momento di preoccupazione per i risultati ottenibili con l’Intelligenza Artificiale, ritenendo che si possano commettere reati che non sono già disciplinati da altre norme, ci si è saggiamente preoccupati di disciplinare l’uso dell’Intelligenza Artificiale con una norma specifica per fare in modo che l’Intelligenza Artificiale sia etica ed accessibile a tutti e per vietare che sia impiegata per fini illegittimi. E fin qui non si discute sugli obiettivi, ma sulla tattica per conseguirli.
Per individuare i fini illegittimi non ci si è basati su altre norme o sulla certezza degli effetti negativi ma solo sulla probabilità che l’Intelligenza Artificiale possa essere usata per tali fini.
Ci si è focalizzati sui rischi vietando le applicazioni che si ritiene presentino rischi non gestibili, e fin qui l’approccio sembra coerente e lodevole. Ma riflettendo maggiormente dobbiamo osservare che lo stesso approccio basato sui rischi non è esente da rischi, peraltro elevati.
L’approccio basato sulla probabilità
Contrariamente a qualsiasi disciplina in materia civile, penale e di privacy che non vieta aprioristicamente l’uso di strumenti ma vieta le finalità che si conseguono tramite essi, nel caso dell’Intelligenza Artificiale si è scelto di vietare le applicazioni che non hanno finalità negative ma che possono discriminare, possono escludere, possono trattare in modo pregiudizievole, possono ledere il diritto alla dignità e che in due parole comportano “rischi inaccettabili”. Il tutto indipendentemente dalle finalità degli strumenti vietati e dalle possibili contromisure. Queste applicazioni vietate dunque non fanno male, ma potrebbero far male.
Non voglio azzardare paragoni allarmanti, ma è la prima volta che vedo vietare l’uso di strumenti indipendentemente dalla finalità, che si tratti di meccanica, elettronica, informatica, penna, carta stampata o pensiero.
Le implicazioni per l’innovazione europea
Questa disciplina basata sul rischio che si verifichino eventi negativi vieta tutte le finalità non note di strumenti che potrebbero essere usati anche per scopi negativi. Essa pertanto è poco lontana dalla disciplina che sanziona presumendo la colpa senza accertarlo. Essa dunque presenta diverse criticità.
- Non tiene conto che la tecnologia evolve molto rapidamente e con essa i rischi e le contromisure, quindi una pratica che oggi è vietata perché ha un rischio inaccettabile, nel giro di pochi mesi può diventare lecita perché il rischio diventa accettabile grazie a nuove tecnologie e contromisure.
- Una medesima attività che è lecita quando viene eseguita dalla mente umana diventa illecita se viene eseguita dalla Intelligenza Artificiale. Un paradosso, forse motivato dal timore che chi non sa reagire al cambiamento possa perdere posti di lavoro.
- Il legislatore UE, mostrandosi consapevole di aver esagerato vietando a priori strumenti utili, ha corretto il tiro consentendo l’uso di alcuni strumenti vietati solo per determinate finalità, ovviamente non tutte quelle che a noi adesso vengono in mente ma solo quelle che il pensiero del legislatore UE è stato in grado di individuare quando ha legiferato. Ma chissà quante altre applicazioni possono essere ideate a cui il legislatore UE non ha saputo pensare perché il suo mestiere non è inventare ma disciplinare.
Purtroppo queste applicazioni non saranno mai inventate, almeno in Europa, perché il legislatore UE non avendole incluse nell’elenco di quelle consentite, le ha vietate. Poi non lamentiamoci se l’innovazione si sposta nel resto del mondo (non cito Asia e America per non discriminare altri Paesi importanti).
L’impatto sull’eLearning e il mondo del lavoro
A mero titolo di esempio, è dunque è vietato l’uso di sistemi per “rilevare lo stato emotivo delle persone in situazioni relative al luogo di lavoro e all’istruzione”, ma non è vietato se la finalità è per motivi “medici o di sicurezza”. Colleghi sul luogo di lavoro o Insegnanti in aula quando lavorano bene rilevano lo stato emotivo delle persone con cui interagiscono, ma è vietato farlo con l’AI. Una batosta per chi si occupa di e-Learning, ma pazienza visto che ormai l’e-Learning non è più di moda. Una grossa limitazione per qualsiasi digitalizzazione di attività lavorative a cui è vietato interfacciarsi con l’utenza impiegando anche le emozioni.
I rischi di limitare l’innovazione
La brutta notizia è dunque che diventa vietato innovare inventando quello a cui il legislatore UE non ha già pensato. Non sarà possibile ideare applicazioni utili e positive con l’Intelligenza Artificiale nel luogo di lavoro o per l’istruzione perché sono vietate a priori né sarà possibile inventare altre finalità positive oltre a quelle mediche e di sicurezza, perché queste sono le uniche consentite.
Vietiamo quindi strumenti solo perché possono essere usati negativamente, come se vietassimo l’uso dei radiocomandi perché i banditi potrebbero usarli per attivare detonatori o l’uso di automobili perché i banditi possono usarle per fuggire dopo aver rapinato una banca.
Conclusioni
Questa norma, se ora rassicura chi ha paura dell’ignoto, presto ci andrà stretta o frenerà l’AI in Europa lasciando che le stesse attività siano eseguite da persone. Ma allora il timore era davvero il possibile scopo malevolo con cui si usa l’Intelligenza Artificiale o la paura dell’ignoto o degli impatti di un cambio tecnologico così importante?