“Senza dubbio l’avvento di una intelligenza artificiale super-intelligente potrebbe essere tanto la cosa migliore quanto la cosa peggiore mai successa all’umanità. Il vero rischio con l’A.I. (Artificial Intelligence) non è la cattiveria, ma la competenza”. Così si espresse anni fa l’astrofisico britannico Stephen Hawking parlando dei rischi dell’ingresso di robot e di altri strumenti dotati di intelligenza artificiale nella nostra società. Secondo Hawking, in casi estremi la singolarità di un’A.I. potrebbe schiacciare l’umanità, se ritenesse che il suo ruolo non fosse considerato necessario o efficiente, proprio come nel celebre film Terminator, dove il supercomputer della Difesa Skynet, divenuto autocosciente, decide di sterminare la popolazione umana ritenendola un ostacolo al raggiungimento del suo scopo, che per assurdo è la pace mondiale.
Il discorso è centrale sul tema dell’utilizzo dei cosiddetti LAWS (acronimo che sta per lethal autonomous weapon systems). Ad oggi esistono due approcci per l’impiego e la progettazione di questi sistemi d’arma, due approcci in perfetta antitesi: da un lato chi, come Usa, Gran Bretagna, Francia, Italia e altri Paesi occidentali, è fautore di un certo tipo di controllo finale nell’impiego dei LAWS denominato Human-in-the-loop, che prevede la supervisione di un operatore sulle decisioni autonome dello strumento; dall’altro, altri Paesi propendono per l’atteggiamento Human-out-of-the-loop, che affida la totale autonomia decisionale al LAWS. Cina e Russia sono orientati verso la seconda filosofia, sebbene la tendenza generale intenda garantire il controllo umano. Molti analisti e scienziati cinesi ritengono che si arriverà a una “singolarità” sul campo di battaglia quando l’uomo non sarà più in grado di tenere il passo con la velocità operativa delle macchine, per cui il principio Human-in-the-loop diventerà uno svantaggio. Perciò si cerca di eliminare a priori la possibilità di intervento umano, già adesso che siamo solo agli albori dello sviluppo dei LAWS. E così pensa di operare la Russia, attribuendo all’intelligenza artificiale la supremazia innata rispetto all’intervento umano.
L’Unione Europea è molto indietro su questo fronte di ricerca. Infatti, considerando che il mercato globale delle nuove tecnologie digitali raggiungerà i 2,2 trilioni di euro entro il 2025, gli indicatori evidenziano che l’UE è in grave ritardo nella corsa globale alle nuove tecnologie e ai nuovi servizi digitali, intelligenza artificiale compresa. Del resto, la distribuzione geografica delle principali piattaforme high-tech continua a mostrare una concentrazione significativa nei mercati statunitense e cinese.
L’allarme sulle condizioni della difesa europea era già stato lanciato da un recente report del Center for American Progress, realtà molto vicina al presidente Biden. Dallo studio emerge che “dopo decenni di declino, gran parte dell’hardware militare europeo è in uno scioccante stato di abbandono”, e si invita Washington a fare pressione sugli alleati europei affinchè spendano di più sulle forze armate, così da raggiungere l’obiettivo di spesa del 2% del prodotto interno lordo fissato dalla NATO.
Anche le stime elaborate dalla DG-CNECT della Commissione europea nel 2020 avevano evidenziato un gap sostanziale tra gli investimenti europei e quelli statunitensi. In totale il gap ammonta a circa 125 miliardi di discrepanza ogni anno, con il divario maggiore che si riscontra proprio in termini di intelligenza artificiale (23 miliardi di euro all’anno).
L’allarme sulle condizioni della difesa europea era già stato lanciato da un recente report del Center for American Progress, realtà molto vicina al presidente Biden. Dallo studio emerge che “dopo decenni di declino, gran parte dell’hardware militare europeo è in uno scioccante stato di abbandono”, e si invita Washington a fare pressione sugli alleati europei affinchè spendano di più sulle forze armate, così da raggiungere l’obiettivo di spesa del 2% del prodotto interno lordo fissato dalla NATO.
Anche le stime elaborate dalla DG-CNECT della Commissione europea nel 2020 avevano evidenziato un gap sostanziale tra gli investimenti europei e quelli statunitensi. In totale il gap ammonta a circa 125 miliardi di discrepanza ogni anno, con il divario maggiore che si riscontra proprio in termini di intelligenza artificiale (23 miliardi di euro all’anno).
E l’Italia? Anche il nostro Paese sta cercando di accelerare gli investimenti nel campo dell’intelligenza artificiale, in modo da colmare il divario con altri Paesi dell’Unione. Il governo guidato da Mario Draghi aveva approntato una bozza per una strategia nazionale con le priorità e le principali aree di intervento fino al 2024. La Strategia punta a sostenere la ricerca italiana in questo settore partendo dal finanziamento (tramite i fondi europei previsti nel Piano nazionale di ripresa e resilienza) dei progetti di eccellenza già collaudati e dall’aumento dei fondi pubblici per la ricerca. Si consideri però la scarsa capacità attrattiva del mondo della ricerca italiana, a causa di stipendi troppo bassi (in media 15,3 euro all’ora, contro i 48 e i 22 dei ricercatori tedeschi e francesi) che non consentono di trattenere i migliori talenti né di attrarre professionisti dall’estero.
La ricerca in corso continuerà a migliorare la capacità, la spiegabilità e la resilienza dei sistemi di A.I., e i militari non possono ignorare questa tecnologia. Perchè anche se non l‘abbracciamo, sicuramente lo faranno i nostri avversari, e dovermo quindi essere in grado di attaccare e sconfiggere le loro A.I.
In base a quanto è possibile rilevare da dati non secretati, esistono ad oggi quattro principali aree di applicazione della tecnologia A.I. in ambito militare: logistica, ricognizione, cyberspazio e guerra. Nei primi tre campi sono già in uso (o in sperimentazione) alcune applicazioni avanzate di A.I., che aiutano a ottimizzare le catene logistiche, a prevederne la manutenzione necessaria, a individuare le vulnerabilità nel software e a combinare grandi quantità di dati in informazioni fruibili. Dunque l’A.I. ha già un impatto sulle operazioni militari, anche se i combattimenti sono ancora condotti principalmente da esseri umani.
Ma l’intelligenza artificiale sta rapidamente trasformando la guerra: per questo sono urgentemente necessarie nuove regole.
Andando oltre la fantascienza, è importante comprendere i pericoli insiti nell’applicazione dell’intelligenza artificiale sul campo di battaglia. Come dimostrano i recenti conflitti in Ucraina, Cisgiordania, Azerbaigian, Siria ed Etiopia, i droni autonomi e semi-autonomi stanno diventando uno strumento semplice ed economico per attaccare obiettivi convenzionali. La minaccia di sciami di droni che travolgono le installazioni militari, insieme agli attacchi informatici alle infrastrutture critiche, rappresenta un futuro sempre più probabile.
Stiamo vivendo un periodo di transizione tra due epoche: un’era industriale caratterizzata dal dominio degli Stati Uniti, e una nuova era digitale caratterizzata dall’ascesa di un ordine globale multipolare. Dalla fine della Seconda Guerra Mondiale, l’ordine globale è stato tenuto insieme da una rete di convenzioni, trattati, brevetti e contratti basati sul diritto internazionale. Questo “ordine basato su regole” sembra essere in via di estinzione. Determinare i limiti nello sviluppo dell’intelligenza artificiale militare è fondamentale per gestire questa nuova realtà. Come il motore a vapore e il motore a combustione interna, l’A.I. è una tecnologia di uso generale con la capacità di alterare il ritmo e la portata della guerra. Sfortunatamente, le leggi di guerra che regolano il suo utilizzo – in termini sia di condizioni per iniziare una guerra (jus ad bellum) sia di condotta dell’IA in guerra (jus in bello) – devono ancora essere definite.
La necessità di regolamentare l’A.I. come arma di guerra è ovvia: man mano che i droni militari e la robotica diventeranno più economici e diffusi, forniranno a una serie di attori statali e non statali l’accesso alle leggi. Nonostante molti paesi sostengano trattati giuridicamente vincolanti che vieterebbero lo sviluppo e l’uso di armi autonome, la maggior parte delle principali potenze militari vede un valore significativo nell’utilizzo dell’A.I. come arma. Per paesi come Cina, Russia e Stati Uniti, la mancanza di fiducia reciproca rimane un ostacolo sostanziale nel perseguire accordi collettivi sul controllo degli armamenti. Tuttavia, i pericoli associati alla proliferazione incontrollata dell’A.I. militare sono chiari. A differenza della proliferazione nucleare o degli agenti patogeni geneticamente modificati – sviluppi il cui potenziale di devastazione è facilmente contenuto – l’A.I. è essenzialmente un software: non è un robot, ma un insieme di tecnologie tenute insieme da algoritmi e software in continua evoluzione.
Eppure questa non è la prima volta che tutti gli Stati del mondo si trovano ad affrontare nuove tecnologie che incidono sulla sicurezza globale: nonostante le opinioni divergenti sull’A.I. e sul suo utilizzo come arma, i negoziati precedenti sulle armi di distruzione di massa possono servire come base per i trattati futuri, in particolare nel definire le regole della nuova guerra.
Durante la Guerra Fredda, le misure di rafforzamento della fiducia che includevano il dialogo regolare, la cooperazione scientifica e la condivisione delle borse di studio sono state fondamentali per gestire le tensioni geopolitiche. All’indomani della Seconda Guerra Mondiale, i paesi più potenti del mondo – Stati Uniti, Gran Bretagna, Unione Sovietica, Cina, Francia, Germania e Giappone – hanno supervisionato la governance globale sulle armi nucleari, sugli agenti chimici e sulla guerra biologica. Allora, come oggi, il mondo deve agire collettivamente per governare una nuova generazione di armi altamente avanzate.
Nessun esercito ad oggi utilizza ufficialmente sistemi d’arma completamente autonomi, ma solo perché la tecnologia di A.I. necessaria non esiste ancora, anche se il boom dell’apprendimento automatico negli ultimi anni ha prodotto innumerevoli progressi nella ricerca. In teoria promettono precisione, affidabilità e risposta ad alta velocità. Ma in pratica continuano a fallire a causa della complessità del mondo reale. Bisogna, dunque, controllarle.
Ma cos’è esattamente il controllo? Non è sempre chiaro dove venga tracciata esattamente la linea: è sufficiente che un essere umano lanci un sistema d’arma che poi uccida da solo? Ha bisogno di poterlo spegnere di nuovo? E che dire delle situazioni in cui la velocità decisionale umana non è più sufficiente?
Il geniale informatico olandese Edsger Dijkstra ammonisce: “Chiedersi se le macchine possano pensare è rilevante quanto domandarsi se i sottomarini siano capaci di nuotare“. Vogliamo davvero perdere tempo in sofismi, o sarebbe il caso di prendere in seria considerazione quanto sta già capitando senza che nessuno ne prenda vera coscienza? La prossima guerra, diceva bene Einstein, sarà combattuta con sassi e fionde.