Nel dibattito pubblico (ma spesso anche in quello accademico), l’intelligenza artificiale è solitamente trattata come una tecnologia singola, che può essere studiata in autonomia da altre innovazioni. Questa tendenza è rischiosa, perché può portare ad una lettura incorretta della natura dell’IA e a sviluppare interventi di policy diretti verso obiettivi fallaci. La consapevolezza che l’IA sia un sistema tecnologico più che una singola tecnologia è fondamentale quando è il momento di elaborare politiche tecnologiche appropriate.
Infatti, considerare l’IA come un sistema tecnologico è il primo passo logico per iniziare a reindirizzare gli orientamenti di politica tecnologica per l’IA verso un approccio più industriale e strategico, ma anche più realistico e certamente più utile, vista la crescente complessità (e frammentazione) del panorama globale.
Verso una diversa concezione di IA
Il design di una politica tecnologica per l’IA deve quindi partire da una migliore concettualizzazione della tecnologia in questione. Una definizione utile, che discutiamo in un nostro studio (Vannuccini and Prytkova 2020) è che l’IA sia una system technology, ovvero un rete di componenti e dominii interconnessi. Per dirla con Taddy (2019), al momento l’IA in uso è l’insieme di quattro componenti o sottosistemi: il software (gli algoritmi), l’hardware (i sistemi computazionali generali usati per eseguire algoritmi di IA o le macchine e chips con architetture dedicate all’IA), i dati, e il “domain structure”, ovvero l’ambito specifico in cui gli algoritmi vengono applicati. Software, hardware, dati e domain structure sono sottosistemi complementari e interdipendenti. Questo significa che un sistema di IA può assumere forme diverse a seconda della forma e ruolo giocato dalle quattro componenti.
Ad esempio, nel domain structure degli ambienti simulati (i.e. videogames) gli algoritmi prevalenti sono quelli di reinforcement learning; nel caso di dati strutturati a griglia (per esempio i pixel in una immagine – nel domain structure del riconoscimento immagini), un algoritmo di deep learning che determina il circuito ottimale in una convolutional neural network è più appropriato.
Intelligenza Artificiale, dove va il quadro giuridico internazionale e i passi necessari
IA, gli ostacoli nel definire le policy
Normalmente, quando i policy makers affrontano il problema della produzione di una componente tecnologica autonoma (per esempio, si pensi ai circuiti integrati), e specialmente se questa componente è usata in una gamma di applicazioni diverse fra loro, la ragione principale per intervenire nel mercato è quella definita intensity failure: gli attori economici non formano aspettative riguardo la domanda potenziale che esiste in altri settori per quella componente tecnologica. Non incorporando questa informazione, i produttori/innovatori sottostimano i ritorni che possono ottenere investendo nella tecnologia, che quindi viene prodotta ad un livello sub-ottimale e non sperimenta abbastanza innovazione. Una tecnologia peggiore viene generalmente domandata meno, e questo genera un circolo vizioso: minore domanda, minore incentivo a spingere per avanzamenti tecnologici, minore domanda, e cosi via.
Se il problema centrale è l’intensity (cioè la quantatità assoluta) di investimenti, la politica tecnologica appropriata è molto probabilmente quella basata sulla domanda pubblica (public procurement): le istituzioni pubbliche (regionali, nazionali, sovranazionali) posso aggiungersi alla domanda privata (o finanziare la domanda privata con sussidi o deduzioni fiscali); aumentando la domanda aumentano i ricavi, e aumenta anche l’incentivo ad investire nella tecnologia. La domanda aggiuntiva induce rapidi miglioramenti nella qualita’ o efficienza della tecnologia in questione, o una riduzione del costo di produzione date le maggiori ordinazioni che permettono di sfruttare economie di scala nella produzione.
Le network failures
Dunque, se l’IA è soltanto una componente tecnologica, la politica tecnologica dovrebbe intervenire a colmare l’intensity gap creato dal mancato sforzo degli attori privati. Ma se l’IA è invece un sistema, i problemi relativi al suo sviluppo non sono necessariamente quelli legati all’intensity failure; piuttosto, la giustificazione per un intervento di politica tecnologica risiede nella presenza di “network failures”. Quest’ultime occorrono quando i domini che compongono il sistema tecnologico non sono ben connessi, o quando la loro connessione è squilibrata a favore di alcune parti e dunque rischia di produrre incentivi e comportamenti perversi.
Nel caso dell’IA, la possibili network failures che giustifichino un’adeguata politica tecnologica devono essere identificate guardando ai quattro sottosistemi discussi in precedenza. Per esempio, chi sono gli attori prevalenti nel campo del software, hardware e dati? Sono attori dominanti in termini di quote di mercato e possibilità di precludere l’ingresso di potenziali concorrenti? Sono questi attori gli stessi in tutti i domini? Per fare un esempio, Google (ma gli altri membri del team GAFAM si muovono in direzioni simili) ha sviluppato sistemi proprietari di hardware per IA (processori Tensors utilizzabili via Google Cloud services), mantiene il proprio ambiente software (TensorFlow), e accumula e combina dati cross-piattaforma attraverso i suoi moltiplici servizi, godendo di quello che viene definito a cross-product data feedback loop. Connesso al punto su quali siano gli attori dominanti nei vari sottosistemi del sistema IA, un altro tema centrale per la politica tecnologica è quello che ha a che vedere con la garanzia e approvigionamento degli input strategici: senza programmatori specializzati, gli algoritmi di IA non si autoprogrammano; senza semiconduttori, gli hardware che forniscono la capacita’ computazionale necessaria a far girare il software IA non funzionano; senza dati da processare, la logica stessa dell’IA connessionista collassa.
La filiera produttiva dell’IA
Da questo punto di vista, quando si parla di politica tecnologica per l’IA, si parla in realtà di politica tecnologica per la filiera produttiva dell’IA. Ciò implica che le questioni veramente rilevanti nello sviluppo dell’IA non siano necessariamente quelle tecnologiche o di incentivi economici, quanto quelle legate ad aspetti dell’industria, del commercio e della concorrenza. Insomma, dietro al velo di un contesto inedito e di un’innovazione di prodotto radicale, si nasconde il fatto che la politica tecnologica per l’IA è essenzialmente good old fashioned politica industriale. Per esempio, l’intervento a sostegno dell’approvigionamento di input fondamentali per la produzione di IA, come i chips o il talento, è un tipico caso di “policy for complementary factors” (Steinmueller 2010). Niente di nuovo sotto il sole, dunque, ma un richiamo a guardare l’IA da una prospettiva più classica e al contempo sistemica.
Dall’analisi svolta finora, discende che lo sviluppo dell’IA ha implicazioni geopolitiche e geostrategiche, e che la sua politica tecnologica rientra nel piu’ ampio discorso sull’“autonomia strategica” che sta emergendo come priorità nell’Unione Europea e al contempo sta influenzando le macrostrategie di Cina e Stati Uniti (Tocci 2021). Nel caso dell’IA, la priorità strategica diventa quella di assicurare il funzionamento e la resilienza della sua filiera produttiva, piuttosto che sostenere gli sforzi dei singoli attori attivi nello sviluppo della tecnologia. Agire in funzione di tale priorità implica iniziare a discutere apertamente in termini di governance del sistema IA, e di quali strumenti e quali livelli di governo (nazionale vs sovranazionale) siano piu’ adatti allo scopo.
Per esempio, l’idea di istituire agenzie ad hoc (sul modello Darpa) che supportino innovazione radicale in IA e orchestrino il coordinamento tra i vari attori coinvolti nel sistema piuttosto che concentrarsi esclusivamente sull’allocazione di fondi per il public procurement e la possibilita’ di supportare l’iniziativa pubblica diretta in alcuni dei sottosistemi dell’IA – si veda l’idea di sviluppare Cloud pubblici o partecipati come Gaia-X in Europa o quella di National Research Cloud dell’Istituto HAI di Stanford – vanno in questa direzione. Nell’Unione Europea, in particolare, la prospettiva discussa in questo articolo significa anche riaprire il dibattito sull’opportunita’ di ‘coltivare’ grandi imprese specializzate nei dominii che compongono l’IA. Questo equivale a ventilare piani per la formazione di campioni (sovra)nazionali nel settore – un altro strumento chiave della politica industriale classica.
__
Bibliografia
Steinmueller, W. E. (2010). Economics of technology policy. In Handbook of the Economics of Innovation (Vol. 2, pp. 1181-1218). North-Holland.
Taddy, M. (2019). The Technological Elements of Artificial Intelligence. The Economics of Artificial Intelligence: An Agenda, 61.
Tocci, N. (2021). European strategic autonomy: what it is, why we need it, how to achieve it. Report, Istituto Affari Internazionali, March.
Vannuccini, Simone and Prytkova, Ekaterina, Artificial Intelligence’s New Clothes? From General Purpose Technology to Large Technical System (October 4, 2020).