L’Intelligenza Artificiale sta trasformando radicalmente il modo in cui le imprese operano, offrendo opportunità senza precedenti, ma introducendo anche nuove sfide e rischi da gestire.
Per gestire efficacemente questi rischi, è diventato essenziale per le imprese disporre di strumenti adeguati, specialmente in un contesto normativo in rapida evoluzione. In questa prospettiva, anche i contratti con i fornitori di sistemi di IA, o di soluzioni di cui l’IA sia una componente, diventano fondamentali per garantire la conformità legale e proteggere gli interessi aziendali. Le aziende si trovano, infatti, ad affrontare questioni complesse come la scelta della tecnologia appropriata, la gestione sicura dei dati, la tutela della privacy e del know-how, la responsabilità in caso di violazioni di diritti di terzi e l’aderenza alle nuove normative specifiche in materia di IA.
Questo contributo si propone, dunque, senza pretesa di esaustività, di offrire una guida pratica alle imprese per orientarsi nella complessità della negoziazione di contratti relativi all’IA, focalizzandosi su alcuni profili contrattuali chiave e fornendo indicazioni utili per instaurare collaborazioni efficaci e conformi con i fornitori.
Per comprendere appieno le implicazioni contrattuali nell’ambito dell’IA è necessario, tuttavia, richiamare alcuni concetti chiave relativi al quadro normativo di riferimento, e in particolare il Regolamento (UE) 2024/1689 sull’Intelligenza Artificiale (“AI Act“ o il “Regolamento”), entrato in vigore il 1° agosto 2024 e che diventerà gradualmente applicabile a partire da febbraio 2025[1].
L’AI Act e il quadro normativo per fornitori e utilizzatori di sistemi di IA
Con l’entrata in vigore dell’AI Act, l’Unione europea ha istituito un quadro normativo all’avanguardia a livello mondiale, volto a promuovere lo sviluppo e l’utilizzo responsabile dell’IA, cercando di garantire al contempo un elevato livello di protezione dei diritti fondamentali e degli interessi pubblici.
Una caratteristica distintiva dell’AI Act è l’adozione di un approccio basato sul rischio, graduato e proporzionato. Utilizzando, infatti, una classificazione che distingue i sistemi di IA sulla base di quattro livelli di rischio associati agli stessi, il Regolamento introduce una serie di obblighi specifici per fornitori e utilizzatori. In particolare, l’AI Act distingue:
- i sistemi di IA a rischio inaccettabile: sono vietati, in quanto si tratta di sistemi che possono manipolare il comportamento umano in modo da causare danni o sfruttare vulnerabilità (ad es., in ambito pubblicitario, social, dell’informazione o per finalità di propaganda ecc.);
- i sistemi di IA ad alto rischio: sono soggetti a requisiti rigorosi in termini di trasparenza, accuratezza, robustezza e controllo umano, trattandosi di quei sistemi che possono avere un impatto significativo sulla sicurezza o sui diritti fondamentali (ad es., sistemi utilizzati per la gestione dei punteggi creditizi o nelle risorse umane, per la valutazione automatizzata dei candidati per posizioni lavorative);
- i sistemi di IA a rischio limitato: (ad es. Chatbot e assistenti virtuali, software di raccomandazione, traduttori automatici, software di riconoscimento vocale, di analisi delle immagini ecc.) sono sottoposti ad obblighi di trasparenza, consentendo comunque un ampio margine per l’innovazione;
- i sistemi di IA a rischio minimo: riguardano applicazioni a basso rischio (come filtri antispam o videogiochi), per i quali il Regolamento prevede un regime di autoregolamentazione.
Per fornitori e utilizzatori (“deployer”), l’AI Act prevede quindi una serie di obblighi finalizzati a minimizzare i rischi, differenziati in base al livello di rischio del sistema di IA prodotto o adottato, con l’assunto che gli obblighi più stringenti sono previsti per i sistemi di IA ad alto rischio[2].
Per tradurre in pratica questi principi normativi nell’ambito del rapporto tra fornitore e utilizzatore, è necessario innanzitutto considerare gli specifici schemi contrattuali che regolano la fornitura e l’utilizzo dei sistemi di IA.
Modelli contrattuali per l’implementazione dell’IA nelle aziende
L’implementazione di applicativi di IA in contesti aziendali richiede la stipula di contratti tra il fornitore del sistema di IA (ad esempio, una software house) e l’azienda utilizzatrice. Questi contratti devono considerare le peculiarità del sistema da implementare, gli obiettivi dell’azienda e le problematiche legate all’uso e alla gestione di tecnologie di IA.
La tipologia di contratto da stipulare dipende dalle esigenze specifiche dell’azienda e dagli obiettivi prefissati con l’adozione di tale tecnologia. Sebbene esistano schemi contrattuali standard per il software, come il contratto d’opera o l’appalto, spesso nella pratica questi modelli non sempre soddisfano le esigenze del caso concreto, rendendo necessari alcuni adattamenti per rispondere adeguatamente alle peculiarità dei sistemi di IA, attraverso la negoziazione di alcune tematiche secondo l’autonomia contrattuale delle parti.
È fondamentale, tuttavia, che queste siano consapevoli che la negoziazione e la predisposizione di contratti riguardanti sistemi di IA richiedono competenza tecnica e un continuo sforzo interpretativo.
Ciò detto, gli schemi contrattuali più comuni nell’utilizzo e sviluppo di software di IA sono i seguenti:
- Contratto di licenza: il licenziante concede al licenziatario i diritti di utilizzo del software (per una durata perpetua o temporanea), senza trasferirne la proprietà. Questo tipo di contratto è utilizzato quando il deployer intende utilizzare un sistema di IA già presente sul mercato. È importante verificare le condizioni delle licenze, specialmente se il software è distribuito con licenze open source, che possono prevedere specifici obblighi e limitazioni.
- Contratto di sviluppo software: spesso strutturato come contratto d’opera (art. 2222 c.c.) o contratto di appalto (art. 1655 c.c.), in cui una parte commissiona all’altra la realizzazione di un software che svolga compiti specifici funzionali al business del committente.
- Contratto di outsourcing: è un contratto di servizi attraverso il quale si esternalizza la progettazione e lo sviluppo del sistema di IA, affidando a fornitori specializzati la creazione della soluzione tecnologica desiderata. Questo permette alle aziende di beneficiare delle competenze dei fornitori e di usufruire di servizi accessori come manutenzione, supporto e aggiornamento del sistema per tutta la durata del contratto. È importante considerare le implicazioni relative alla protezione dei dati personali, specialmente se il fornitore si trova al di fuori dell’UE.
- Contratto di cloud computing: riguarda più la modalità di fornitura del servizio che il servizio in sé. Le tre forme più comuni sono:
- Software as a Service (SaaS): l’utente accede da remoto al software.
- Platform as a Service (PaaS): l’utente usufruisce di un’intera piattaforma tecnologica.
- Infrastructure as a Service (IaaS): l’utente utilizza risorse hardware da remoto, con possibilità di installare software.
Ciascuno di questi contratti presenta caratteristiche specifiche e pone problematiche giuridiche che devono essere attentamente valutate durante la negoziazione, soprattutto in relazione ai profili di responsabilità.
Aspetti legali chiave nei contratti aventi ad oggetto sistemi di IA
Lo schema negoziale da adottare va individuato in base alle specifiche esigenze dell’utilizzatore. È pertanto indispensabile considerare alcuni aspetti giuridici e funzionali che guideranno le parti nella predisposizione e negoziazione del contratto avente ad oggetto un sistema di IA. Ogni situazione richiede un’analisi approfondita e l’adozione di formule contrattuali personalizzate che riflettano gli interessi reciproci.
Ad esempio, nel caso in cui una società desideri implementare un sistema di IA per ottimizzare il processo di selezione del personale attraverso l’analisi automatizzata dei curriculum vitae e delle candidature online, è necessario che il fornitore e l’utilizzatore approfondiscano temi quali: il sistema di IA utilizzerà solo i dati forniti direttamente dai candidati o anche informazioni raccolte da fonti esterne, come profili sui social media? Come verranno gestiti i potenziali bias algoritmici che potrebbero discriminare determinati gruppi di candidati? Quali misure saranno adottate per garantire la trasparenza del processo di selezione e il rispetto della normativa sulla protezione dei dati personali? Il sistema di IA sarà classificato come “ad alto rischio” secondo l’AI Act? In tal caso, quali obblighi specifici dovranno essere rispettati per assicurare la conformità al Regolamento? E ancora, chi sarà responsabile dell’adempimento di tali obblighi, il fornitore o l’utilizzatore?
Le risposte a questi interrogativi guideranno le parti nella stesura del contratto, che dovrà tenere conto non solo delle disposizioni tipiche dello schema contrattuale individuato (ad esempio, licenza, sviluppo software, outsourcing), ma anche della normativa di settore, come la legislazione giuslavoristica, la protezione dei dati personali e il diritto di proprietà intellettuale. Inoltre, sarà fondamentale chiarire aspetti come la trasparenza nei confronti dei candidati e la legittimità dell’uso dei dati raccolti, garantendo che il sistema sia utilizzato in modo conforme alle normative vigenti e agli obiettivi aziendali.
Gestione dei dati e proprietà intellettuale: accesso, riservatezza e diritti d’uso
Il fornitore di IA, per sviluppare e implementare il sistema commissionato dall’azienda utilizzatrice, potrebbe, inoltre, dover accedere a dati e informazioni riservate dell’impresa stessa. Il contratto dovrebbe quindi chiarire espressamente a quali dati e informazioni il fornitore potrà accedere, stabilendo misure tecniche e organizzative per garantire la riservatezza, la segretezza e l’integrità dei dati. È fondamentale che l’utilizzatore inserisca nel contratto specifici obblighi di riservatezza e confidenzialità in capo al fornitore.
Il fornitore, a sua volta, avrà interesse a tutelare i diritti di proprietà intellettuale (DPI) relativi al sistema di IA sviluppato. Pertanto, sarà necessario disciplinare contrattualmente, nei limiti consentiti dalla legge, se i DPI su modelli, algoritmi, invenzioni o altri elementi del sistema restino in capo al fornitore oppure se, e in che misura, siano trasferiti all’utilizzatore. Infine, sarà fondamentale definire i diritti d’uso del sistema da parte dell’utilizzatore, specificando eventuali limitazioni o esclusività.
Conformità normativa sulla protezione dei dati e altre normative settoriali
La tipologia di contratto prescelta dovrà tenere conto altresì del contesto normativo applicabile, che può variare in base al settore di appartenenza, alla natura dei dati trattati e all’effettivo contesto in cui il sistema di IA verrà utilizzato.
Se l’attività comporta il trattamento di dati personali, sarà necessario conformarsi alle previsioni della normativa vigente in materia di protezione dei dati personali, e in particolare del Regolamento (UE) 2016/679 (“GDPR“), e del D.Lgs. 196/2003, come modificato dal D.Lgs. 101/2018 (“Codice Privacy”), nonché considerare la disciplina giuslavoristica, laddove siano coinvolti anche i diritti dei lavoratori.
Gli adempimenti da porre in essere dipenderanno dalla tipologia di sistema di IA oggetto del contratto, dalle finalità perseguite e dal contesto specifico di utilizzo. Ad esempio, per un sistema di IA utilizzato per la sorveglianza sul luogo di lavoro attraverso il monitoraggio degli strumenti aziendali, occorrerà considerare tutti i profili privacy rilevanti (adempimenti di privacy by design e by default, valutazione d’impatto sulla protezione dei dati – DPIA, obblighi di trasparenza e informazione) e soddisfare gli specifici requisiti previsti dallo Statuto dei Lavoratori, come l’ottenimento di accordi sindacali o l’autorizzazione dell’Ispettorato del Lavoro.
Monitoraggio continuo: mantenere la conformità dei sistemi di IA
Un ulteriore aspetto rilevante da considerare a seguito dell’applicazione dell’AI Act è che il Regolamento richiede che i sistemi di IA siano soggetti a monitoraggio continuo una volta immessi sul mercato. Non basterà garantire la conformità iniziale, ma sarà necessario, infatti, assicurarsi che il sistema rimanga sicuro e conforme durante l’intero ciclo di vita. Per tale ragione, il Regolamento impone ai fornitori di sistemi di IA ad alto rischio di implementare sistemi di gestione del rischio e di effettuare valutazioni periodiche.
Il contratto dovrebbe quindi individuare il soggetto responsabile del monitoraggio di nuovi rischi o aggiornamenti normativi, stabilendo le conseguenze in caso di aggiornamenti non implementati correttamente o tardivi che potrebbero causare danni. A tal fine sarebbe utile prevedere clausole di audit o meccanismi di verifica che consentano al fornitore e all’utilizzatore di controllare il rispetto delle norme e dei requisiti tecnici e legali lungo tutta la filiera. Questo potrebbe includere il diritto del fornitore di verificare l’uso del sistema da parte dell’utilizzatore, per accertarsi che eventuali modifiche non compromettano la conformità del sistema.
Sicurezza del sistema e gestione degli incidenti nei sistemi di IA
Poiché molte soluzioni di IA sono basate su infrastrutture cloud, è essenziale che il contratto disciplini con precisione anche le eventuali conseguenze in caso di incidenti di sicurezza, siano essi accidentali o intenzionali, che potrebbero causare malfunzionamenti del sistema o la perdita di dati. Se l’incidente riguarda dati personali, si applicheranno le disposizioni del GDPR in materia di violazione dei dati personali (data breach), che impongono al titolare del trattamento l’obbligo di notifica alle autorità competenti e l’adozione di misure per mitigare i rischi connessi.
Inoltre, per operatori di servizi essenziali o fornitori di servizi digitali in settori critici, sarà necessario considerare le disposizioni delle Direttive NIS 1 (Direttiva (UE) 2016/1148) e NIS 2 (Direttiva (UE) 2022/2555) o del Regolamento DORA (Regolamento (UE) 2022/2554). È importante specificare che queste normative si applicano specificamente a determinate categorie di operatori, e non a tutte le aziende che utilizzano sistemi di IA[3].
Allocazione delle responsabilità e limitazioni nei contratti di IA
Infine – anche se si potrebbero elencare molti altri aspetti rilevanti da considerare nella negoziazione di un contratto tra fornitore e deployer di sistemi di IA – particolare attenzione merita il profilo connesso alla corretta allocazione delle responsabilità tra le parti. La gestione delle responsabilità è infatti cruciale in qualsiasi contratto avente ad oggetto sistemi di IA, poiché mette in evidenza le esigenze contrapposte delle parti. Il fornitore avrà interesse a prevedere limitazioni della propria responsabilità, specialmente se l’inadempimento è imputabile a cause o eventi fuori dal suo controllo o dipende da scelte del cliente (ad esempio, in caso di utilizzo improprio del sistema). Mentre l’utilizzatore avrà interesse ad attribuire la responsabilità interamente al fornitore, anche in considerazione del quadro sanzionatorio dell’AI Act che trova applicazione in caso di mancato adempimento degli obblighi previsti, prevedendo, ove opportuno, apposite limitazioni di responsabilità[4] e manleve.
Un caso particolare di responsabilità da disciplinare riguarda l’art. 25 dell’AI Act, in cui l’utilizzatore assume il ruolo di fornitore del sistema di IA se:
- appone il proprio nome o marchio su un sistema di IA ad alto rischio già immesso sul mercato (salvo accordi contrattuali che prevedano una diversa ripartizione degli obblighi);
- apporta una modifica sostanziale a un sistema di IA ad alto rischio già immesso sul mercato, in modo che resti un sistema di IA ad alto rischio;
- modifica la finalità prevista di un sistema di IA, anche per finalità generali, non classificato come ad alto rischio e già immesso sul mercato o messo in servizio, in modo che diventi un sistema di IA ad alto rischio.
In queste circostanze, il fornitore che ha inizialmente immesso sul mercato o messo in servizio il sistema di IA non sarà più considerato fornitore di quel sistema, ma sarà comunque tenuto a cooperare con i nuovi fornitori, mettendo a disposizione le informazioni necessarie e qualsiasi altra forma di assistenza richiesta per l’adempimento degli obblighi del Regolamento, in particolare per quanto riguarda la valutazione della conformità dei sistemi di IA ad alto rischio. La responsabilità del fornitore originale cessa solo se ha esplicitamente dichiarato che il sistema non deve essere convertito in un sistema ad alto rischio.
In questi casi, le responsabilità dovranno essere rinegoziate e distribuite in base a chi ha il controllo e la capacità di intervento sul sistema di IA nelle diverse fasi del suo ciclo di vita.
Nello specifico, se l’utilizzatore appone il proprio nome o marchio sul sistema, apporta modifiche sostanziali o modifica la finalità del sistema facendolo classificare come “ad alto rischio”, dovrà garantire la conformità del sistema agli obblighi precedentemente gravanti sul fornitore, anche nella nuova fase di utilizzo o distribuzione. Il contratto dovrà regolare, ad esempio:
- l’obbligo dell’utilizzatore di classificare il sistema in base al rischio (basso, limitato, alto) e di garantirne la conformità ai requisiti specifici per ciascuna categoria;
- la responsabilità dell’utilizzatore in caso di modifiche al sistema, inclusa l’obbligazione di effettuare una nuova valutazione d’impatto sulla protezione dei dati (DPIA) e, se necessario, ottenere nuove certificazioni.
Entrambe le parti dovranno assicurare il rispetto degli obblighi di monitoraggio continuo, al fine di garantire che il sistema continui a rispettare i requisiti di sicurezza e performance durante tutto il suo ciclo di vita.
Le clausole di responsabilità
Le clausole di responsabilità dovranno definire chiaramente chi risponde di eventuali danni o non conformità in differenti scenari. Ad esempio, se una società utilizza il sistema di IA per scopi professionali sotto la propria autorità, il contratto potrebbe stabilire che il fornitore originario sia responsabile per difetti intrinseci del sistema, come errori di programmazione o problemi legati all’addestramento del modello. Al contrario, il fornitore potrebbe escludere la propria responsabilità qualora l’utilizzatore faccia un uso improprio oppure modifichi sostanzialmente il sistema, ad esempio con configurazioni scorrette o usi non previsti che possano generare danni o rischi.
Le clausole di indennizzo
Per quanto riguarda le clausole di indennizzo, il fornitore potrebbe essere chiamato a rispondere in caso di danni derivanti da difetti del sistema non imputabili all’utilizzatore, mentre quest’ultimo potrebbe essere tenuto a indennizzare il fornitore per danni causati da un uso scorretto o da modifiche apportate al sistema. Tali clausole potrebbero includere limiti di responsabilità o l’obbligo di stipulare polizze assicurative per coprire i rischi legati all’uso o alla fornitura del sistema di IA.
Il contratto dovrebbe infine prevedere la responsabilità nei confronti degli utenti finali. Se l’utilizzatore diventa fornitore e redistribuisce il sistema modificato, sarà tenuto a fornire informazioni adeguate sugli usi e i limiti del sistema ai nuovi utilizzatori. Sarà inoltre opportuno prevedere obblighi di trasparenza verso gli utenti finali, soprattutto in relazione ai rischi connessi all’uso del sistema, garantendo che siano consapevoli di interagire con un sistema di IA e dei potenziali rischi di bias o discriminazioni.
Conclusioni
La crescente adozione di tecnologie di IA nelle imprese, insieme all’evoluzione delle normative europee e nazionali, impone a fornitori e utilizzatori di negoziare contratti sempre più complessi, dove flessibilità e trasparenza sono fondamentali per affrontare le sfide future poste dall’IA.
Il quadro normativo attuale, definito in particolare dall’AI Act, impone una rigorosa classificazione dei sistemi basata sul livello di rischio e attribuisce responsabilità lungo l’intera catena del valore. Ciò comporta che le parti coinvolte – fornitori e utilizzatori – debbano non solo prestare attenzione alla conformità normativa, ma anche stabilire chiaramente i rispettivi obblighi e diritti, attraverso clausole contrattuali precise e personalizzate.
È essenziale riconoscere che non solo la tecnologia, ma anche il quadro normativo è in continua evoluzione. Dopo l’AI Act, primo nel suo genere, le istituzioni europee stanno già elaborando ulteriori normative, come la proposta di direttiva sulla responsabilità civile extracontrattuale da IA e quella sulla responsabilità da prodotto difettoso. Queste future normative avranno un impatto significativo sui contratti, soprattutto quelli che coinvolgono consumatori, e dovranno dunque essere considerate attentamente.
Pertanto, è altamente consigliabile adottare un approccio contrattuale personalizzato e flessibile che conto di una vasta gamma di variabili, tra cui la tipologia di sistema, le finalità d’uso, la gestione dei dati, la conformità normativa e le questioni di sicurezza e responsabilità lungo l’intera filiera. Solo così sarà possibile garantire contratti che rispondano efficacemente alle sfide attuali e future, proteggendo gli interessi di tutte le parti coinvolte e facilitando una collaborazione proficua.
È importante ricordare che, secondo l’art. 1229 c.c., sono nulli i patti che escludono o limitano preventivamente la responsabilità del debitore per dolo o colpa grave. Pertanto, le clausole di limitazione della responsabilità devono rispettare i limiti previsti dalla legge.
Note
Da agosto 2024 sino ad agosto 2026 si attiverà un cronoprogramma per l’attuazione dei vari capi dell’AI ACT e per la conformità dei sistemi esistenti. In particolare, da febbraio 2025, si applicheranno le disposizioni generali e quelle relative alle pratiche di IA vietate; da agosto 2025 si applicheranno, tra le altre, le disposizioni relative ai sistemi di IA ad alto rischio, ai nuovi modelli di IA per finalità generali (GPAI) e quelle relative alle sanzioni (con l’esclusione dell’art. 101), nonché le disposizioni relative alla riservatezza (art. 78); da agosto 2026 inizierà l’applicazione generale dell’AI ACT, ad eccezione dell’art. 6 dell’AI ACT che riguarda classificazione dei sistemi di IA ad alto rischio e i corrispondenti obblighi e che si applicherà dal 2 agosto 2027. L’AI ACT prevede, inoltre, ulteriori specifici termini per la regolarizzazione dei sistemi di IA già sul mercato (art.111). ↑
Gli utilizzatori professionali (deployer) di sistemi di AI ad alto rischio devono: adottare idonee misure tecniche e organizzative per garantire di utilizzare tali sistemi conformemente alle istruzioni per l’uso di tali sistemi; affidare la sorveglianza umana a persone fisiche che dispongono della competenza, della formazione e dell’autorità necessarie, nonché del sostegno necessario; nella misura in cui esercitano il controllo sui dati di input, garantire che tali dati di input siano pertinenti e sufficientemente rappresentativi alla luce della finalità prevista del sistema di IA ad alto rischio; monitorare il funzionamento del sistema di IA ad alto rischio sulla base delle istruzioni per l’uso e, se del caso, informare i fornitori a tal riguardo; nel caso in cui siano datori di lavoro ad utilizzare un sistema di AI ad alto rischio sul luogo di lavoro, informare i rappresentanti dei lavoratori e i lavoratori interessati che saranno soggetti all’uso del sistema di IA ad alto rischio. Prima di utilizzare un sistema di AI ad alto rischio (fatta eccezione per quei sistemi utilizzati nel settore delle infrastrutture critiche) i deployer che sono: (i) enti pubblici, (ii) entità private che forniscono servizi pubblici, (iii) banche e compagnie assicurative devono svolgere una FRIA (Fundamental Rights Impact Assessment). Non è necessaria svolgere la FRIA se gli obblighi dell’art. 27 dell’AI ACT sono già rispettati mediante la DPIA ex art. 35 del GDPR (in questo caso basterà integrare la DPIA già effettuata). ↑
A. Ferri, “L’intelligenza artificiale e i contratti di outsourcing” in Diritto al Digitale. ↑