L’intelligenza artificiale è uno strumento in grado di rendere molto più rapida l’attività dei ricercatori, ma che apre anche a una serie di implicazioni che potrebbero rendere necessaria una revisione dei requisiti di brevettabilità, per evitare – in particolare – problemi di concorrenza. Servono nuove regole condivise per affrontare una nuova realtà in cui la tecnologia sarà sempre più centrale, ma nella quale resterà cruciale il ruolo dell’uomo.
Intelligenza artificiale e proprietà intellettuale: le questioni aperte
L’intelligenza artificiale e il processo che porta a realizzare un’invenzione
Come tutti sappiamo, un’invenzione per essere brevettabile e quindi formare oggetto di un’esclusiva di sfruttamento per 20 anni dev’essere rappresentata dalla soluzione ad un problema tecnico (in Europa, determinato confrontando il trovato per cui si chiede protezione con la cosiddetta closest prior art), che risulti per l’esperto del settore non evidente dallo stato della tecnica: e, più precisamente, che risulti non evidente, in assenza di conoscenze e suggerimenti che avrebbero portato (e non che avrebbero potuto portare, essendo riconoscibili solo ex post come suggerimenti) all’invenzione brevettata.
Pare esistano esempi di invenzioni brevettate realizzate autonomamente dall’intelligenza artificiale (fermo restando che sarà in ogni caso sempre stato l’uomo a porsi il problema tecnico da risolvere); più realisticamente, si deve tuttavia immaginare che la AI assista l’uomo nella realizzazione di una parte più o meno ampia del processo che porta al trovato. Un esempio emblematico è quello della squadra di un’impresa farmaceutica, che, volendo realizzare una molecola che andasse a colpire esattamente una proteina collegata alla fibrosi, ha utilizzato l’intelligenza artificiale (il sistema proprietario GENTRL), che ha «disegnato» 30.000 molecole e scartato automaticamente quelle «bearing structural alert and reactive groups», riducendo le ipotesi praticabili ad un numero assai più ridotto, successivamente profilato (sempre dal sistema). Fra le molecole residue, ne sono state scelte 40 «random», con successiva sintesi di 6, tutte quante testate, con il risultato che 4 di esse si sono dimostrate attive «in biochemical assays» («saggi biochimici»), 2 validate in «cell-based assays» («test su cellule») e una è stata sperimentata sui topi, dimostrando una «favorable pharmacokinetics». Il tutto con un processo ha richiesto in tutto 46 giorni, dimostrando come l’uso dell’AI si dimostri uno strumento in grado di rendere molto più rapida l’attività dei ricercatori.
In un altro caso noto, l’intelligenza artificiale avrebbe «proposto» l’idea di soluzione delle setole incrociate per un’ottimale funzionalità dello spazzolino, a seguito della richiesta della Oral B di realizzare una nuova generazione di spazzolini: un dispositivo basato su una rete neurale artificiale, oggetto di brevetto e denominato «Creativity Machine», ha in questo caso realizzato, dopo essere stato alimentato con informazioni circa le caratteristiche e le performance degli spazzolini esistenti, 2.000 possibili design, molti dei quali con le setole incrociate.
In entrambi i casi, tuttavia, è stato l’uomo a porre il problema, a fornire alla macchina i dati e ad operare la selezione decisiva sulle ipotesi fornite.
In linea più generale, si può ipotizzare che ad oggi vi siano dispositivi in grado di assistere l’uomo nel conseguimento di soluzioni a problemi tecnici, analizzando (in modo perspicace) la prior art somministrata – ed eventualmente, filtrata e calibrata – o autonomamente ricercata dalla macchina, ad esempio, attraverso database come quello EPO, evidenziando gli insegnamenti pertinenti al problema, e, a salire, individuando, testando e scartando soluzioni.
Cosa si intende per intelligenza artificiale
Anche se sotto l’ombrello dell’espressione «intelligenza artificiale» (Artificial Intelligence, in acronimo: AI) si collocano oggi «sistemi» fra loro molto eterogenei, anzitutto sotto il profilo delle capacità, in linea di massima si può comunque dire che ci troviamo di fronte a macchine che utilizzano algoritmi in grado di realizzare analisi statistiche molto avanzate su quantità rilevantissime di dati, imparando così a svolgere compiti, che possono assumere grande rilievo nelle dinamiche della ricerca.
Sistemi “nutriti” con milioni di immagini imparano, ad esempio, a distinguere i volti (per sesso, età, singola persona, ecc.), individuando schemi e parametri di classificazione (che, in larga parte, sfuggono agli esseri umani: in sostanza, è la macchina che elabora da sola i criteri di distinzione), che consentono di determinare la risposta giusta. Sempre l’analisi dei dati consente alle macchine di imparare a tradurre in modo sempre più corretto messaggi scritti, orali o non verbali, a determinare quali e-mail devono finire nello spam (o meglio: nel mio spam, perché l’algoritmo si modifica, imparando da esperienze precedenti di e-mail che ho scartato) o a guidare un’automobile. Nella metropolitana di Londra è pubblicizzata l’App Babylon, che consente di elencare sintomi a un medico tramite smartphone e ricevere una diagnosi elaborata appunto da un’intelligenza artificiale, che ha studiato un’enorme massa di cartelle cliniche con le relative diagnosi, in modo da stabilire correlazioni fra certi input – i sintomi – e certi output, ovvero la risposta al quesito clinico.
Elementi cruciali dello sviluppo di queste tecnologie sono stati, da un lato, la grande disponibilità di dati e l’accesso ad Internet e, dall’altro lato, lo sviluppo di processori con grande capacità di calcolo, ma questo non è tutto. Un passaggio fondamentale per l’apprendimento della macchina è infatti la strutturazione del dato: se i dati non sono correttamente strutturati (come nel caso in cui, ad esempio, si somministrino ad un sistema di riconoscimento immagini prevalentemente composte da maschi caucasici, per poi utilizzarlo anche per riconoscere uomini o donne afroamericani o orientali), le risposte della macchina risulteranno errate, perché soffriranno di un pregiudizio di base. I dati devono essere altresì strutturati (o, come si dice in linguaggio tecnico, «annotati») anche in relazione alla finalità perseguita: le immagini di un ambiente possono ad esempio servire per imparare a contare le persone, o a distinguerle secondo parametri vari, o a riconoscere singoli individui.
Le ricadute sul sistema economico: verso una concorrenza tra innovatori
A fronte di questa nuova realtà, ci si chiede se l’impiego dell’intelligenza artificiale non renderà ovvio – e conseguibile con facilità – ciò che, per l’essere umano che non utilizzi tale strumento, ovvio invece non sarebbe e se ciò non imponga una revisione dei requisiti di brevettabilità delle invenzioni, ed in particolare dell’attività inventiva, in un senso quantitativo o qualitativo, al fine di evitare di un aumento esponenziale delle esclusive e, quindi, un eccessivo ostacolo alla concorrenza.
In realtà, porre la questione in questi termini significa pensare che i problemi da risolvere e le invenzioni siano una sorta di «numero chiuso», mentre è probabile che l’impiego dell’intelligenza artificiale aumenterà i problemi risolti (e porterà alla formulazione di nuovi problemi) e incrementerà le soluzioni, più efficienti o anche solo alternative, con un complessivo miglioramento, sotto questo profilo, della concorrenzialità del sistema.
É, tuttavia, vero (o sarà ad un certo punto vero) che l’utilizzo di strumenti di indagine della prior art quali quelli della AI porterà più agevolmente ad individuare informazioni inerenti alla soluzione del problema tecnico e probabilmente, in virtù della capacità di questi sistemi di istituire correlazioni fra dati, anche a evidenziare nell’arte nota suggerimenti che l’essere umano senza l’ausilio della macchina non avrebbe colto. D’altro canto, è probabile che, specularmente, gli Uffici preposti ad esaminare le domande di brevetto si doteranno di strumenti di intelligenza artificiale per effettuare le loro valutazioni, potendo in tal modo a loro volta tener conto di tali suggerimenti.
Quello che certamente non è accettabile è l’idea, pure avanzata, di un «doppio standard», a seconda che chi propone la domanda di brevetto dichiari di aver o meno fatto ricorso all’intelligenza artificiale nel conseguimento dell’invenzione. Tale impostazione, infatti contraddice l’esigenza, comune a tutte le legislazioni, di oggettivare il più possibile il giudizio di brevettabilità; ed anche nelle conseguenze pratiche, pur senza voler considerare l’ipotesi che non si dica il vero al riguardo, al fine di beneficiare del più favorevole standard «umano», tale dicotomia finirebbe per privilegiare le imprese meno efficienti e che non investono per dotarsi di strumenti di ricerca all’avanguardia.
Intelligenza artificiale, dati e metadati
Quest’ultima notazione introduce un secondo tema, non meno importante di quello appena trattato: come si è visto, infatti, ancora più cruciale ai fini del machine learning è la strutturazione dei dati che la AI utilizza per studiare ed imparare a fornire degli output, ed è soprattutto sotto questo profilo che più significativo, almeno potenzialmente (ossia quando le alternative a disposizione non erano poche e le scelte effettuate non erano scontate) è il ruolo del «fattore umano».
Infatti, anche la circostanza che i singoli dati dai quali la AI è partita per effettuare un’invenzione facciano parte dello stato della tecnica, non implica che ne facciano parte anche gli output, i «metadati» che essa è in grado di elaborare, e ciò persino nel caso in cui i dati di partenza siano standard, ad esempio perché corrispondono a tutte le domande di brevetto pubblicate e tutti i brevetti concessi di un certo settore reperibili nelle banche dati ufficiali, senza che sia stata compiuta tra gli stessi una selezione in qualche misura arbitraria. Ciò vale a fortiori nel momento in cui i dati forniti alla macchina non siano standard: la disciplina dei trade secrets prevede infatti che chi possieda dati che «nel loro insieme e nella precisa configurazione e combinazione dei loro elementi» – anche solo in quanto «trattati» e rielaborati da un’intelligenza artificiale – non sono generalmente noti, dispone di un’esclusiva su questo insieme, anche se individualmente o in una diversa configurazione essi invece sarebbero generalmente noti o facilmente accessibili.
Anche sotto questo profilo, il possesso dei dati (e soprattutto dei big data) sarà decisivo: e ancor più decisivo sarà quindi stabilire regole condivise e che possano venire fatte rispettare a tutti gli attori della scena economica, anche ai nuovi giganti della comunicazione globale: e occorre rendersi conto che è impensabile che a fissare queste regole siano Stati il cui «potere contrattuale» sulla scena mondiale è quasi irrisorio, con buona pace dei vecchi e dei nuovi nazionalisti e populisti. Come ha sottolineato nel suo ultimo libro il grande sociologo Franco Alberoni, a sedersi al tavolo di chi detterà queste regole potranno essere solo gli Stati-nazione che si sono affermati o si stanno affermando sull’arena globale: gli Stati Uniti, la Cina, la Russia, l’India e, forse, l’Europa, il cui ruolo sarebbe fondamentale proprio per la tradizione di diritto e di libertà che incarna.