Washington — Macchine robotiche per uccidere si aggirano per la terra, i cieli e i mari. Sono completamente automatizzate e cercano e interagiscono con i robot avversari in ogni dominio della guerra. I loro gestori umani sono relegati nella retroguardia, supervisionando l’azione a distanza mentre i conflitti vengono combattuti e vinti dalle macchine.
Lontana dall’essere fantascienza, questa è la visione del presidente del Joint Chiefs of Staff statunitense, il generale Mark Milley.
Secondo Milley gli Stati Uniti sono alle prese con una delle miriadi di rivoluzioni militari che hanno attraversato la storia.
Tali rivoluzioni si sono estese dall’invenzione della staffa per cavalcare all’adozione dell’arma da fuoco, allo spiegamento di manovre di guerra meccanizzate e, ora, alla messa in campo di massa della robotica e dell’intelligenza artificiale (Ai).
È un cambiamento nel carattere della guerra, crede Milley, più grande di qualsiasi altro mai accaduto prima. «Oggi siamo nel […] probabilmente il più grande cambiamento nella storia militare», ha spiegato Milley durante una discussione del 31 marzo con Defense One. «Siamo in un momento cruciale della storia dal punto di vista militare. Siamo a quello che equivale a un cambiamento fondamentale nel carattere stesso della guerra».
Eserciti robotici in 10 anni
Molti sarebbero senza dubbio più a loro agio con l’idea di robot che combattono per il controllo della Terra se fosse in un romanzo di fantascienza o su uno schermo cinematografico piuttosto che nell’elenco delle priorità dell’ufficiale di rango più alto dell’esercito.
Milley crede che gli eserciti più potenti del mondo saranno prevalentemente robotici entro il prossimo decennio, e intende che gli Stati Uniti siano i primi ad attraversare quel Rubicone cibernetico. «Nei prossimi dieci o quindici anni, vedrai grandi porzioni delle forze armate dei Paesi avanzati diventare robotizzate. Se aggiungi alla robotica l’intelligenza artificiale e le munizioni di precisione e la capacità di vedere a distanza, hai il mix di un vero cambiamento fondamentale. Sta arrivando. Quei cambiamenti, quella tecnologia[…] la vedremo tra 10 anni».
Ciò significa che gli Stati Uniti hanno «dai cinque ai sette anni per apportare alcune modifiche fondamentali alle nostre forze armate», afferma Milley, perché gli avversari della nazione stanno cercando di schierare la robotica e l’Ai allo stesso modo, ma con gli americani nel mirino.
La nazione che arriva per prima, che schiererù robotica e intelligenza artificiale insieme in modo coeso dominerà la prossima guerra: «Credo che il Paese, lo Stato-nazione, che prende quelle tecnologie e le adatta nel modo più efficace e le ottimizza per le operazioni militari, avrà probabilmente un vantaggio decisivo all’inizio del prossimo conflitto».
Le conseguenze globali di un tale cambiamento nel carattere della guerra avranno un’importanza cruciale.
Milley ha paragonato la lotta in corso per formare un nuovo modo di fare la guerra alla competizione che si è verificata tra le due guerre mondiali. In quell’epoca, spiega, tutte le nazioni d’Europa avevano accesso a nuove tecnologie che andavano dai veicoli meccanizzati, alla radio, alle armi chimiche. Tutti loro avrebbero potuto sviluppare il concetto unificato di guerra di manovra che ha sostituito la guerra di logoramento che aveva definito la prima guerra mondiale.
Ma solo una nazione ha integrato il loro uso in un nuovo modo di fare la guerra. «Quel Paese era la Germania nazista, che ha invaso l’Europa in un periodo di tempo molto, molto breve […] perché sono stati in grado di prendere quelle tecnologie e metterle insieme in una dottrina che ora conosciamo come Blitzkrieg»,
Guerra lampo 2040
Milley e anche il Pentagono sperano di fare lo stesso riunendo ora capacità emergenti come robotica, intelligenza artificiale, piattaforme informatiche e spaziali e munizioni di precisione in una dottrina della guerra coesiva.
Milley sostiene che essendo i primi a integrare queste tecnologie in un nuovo concetto, gli Stati Uniti possono dominare il futuro campo di battaglia. A tal fine, il Pentagono sta sperimentando nuovi veicoli aerei, terrestri e sottomarini senza equipaggio, oltre a cercare di sfruttare la pervasività delle tecnologie intelligenti non militari, dagli orologi ai fitness tracker.
Sebbene lo sforzo stia guadagnando lentamente terreno, Milley ha infatti affermato nel 2016 che l’esercito americano avrebbe schierato sostanziali forze di terra robotiche e capacità di intelligenza artificiale entro il 2030.
Tra poche settimane, quell’idea comincerà a culminare davvero, quando gli inviti del Dipartimento della Difesa (DoD) verranno inviati ai leader delle sfere della difesa, della tecnologia e dell’accademia per la prima conferenza del Pentagono sulla costruzione di «Ia affidabile e autonomia» per le guerre future.
Il Pentagono è impegnato in una corsa alle assunzioni correlata, cercando di pagare stipendi annuali a sei cifre ad esperti disposti e in grado di sviluppare e integrare tecnologie tra cui «realtà aumentata, intelligenza artificiale, monitoraggio dello stato umano e sistemi autonomi senza pilota».
Allo stesso modo, l’Us Army Futures Command, creato nel 2018, mantiene come obiettivo fondamentale la progettazione di ciò che chiama «Army 2040». In altre parole, l’esercito robotico del futuro dipendente dall’intelligenza artificiale.
Anche se leggermente più lontano rispetto all’ipotesi di Milley di 10-15 anni, il vice generale comandante del Futures Command, il tenente generale Ross Coffman, ritiene che il 2040 segnerà il vero ingresso degli Stati Uniti in un’era caratterizzata da macchine intelligenti fatte per uccidere artificialmente.
Parlando a un vertice del Dipartimento della Difesa ed esperti di tecnologia del 28 marzo, Coffman ha descritto la partnership tra uomo e macchina che immagina per il futuro, paragonandola alla relazione tra un cane e il suo padrone.
Piuttosto che far sì che l’intelligenza artificiale aiuti i soldati a combattere, Coffman crede che saranno gli umani ad aiutare le macchine sul campo di battaglia: «Penso che assisteremo a un capovolgimento nel 2040, dove gli umani svolgono quelle funzioni che consentono alla macchina di entrare in una posizione di relativo vantaggio, e non la macchina che porta gli umani in una posizione di relativo vantaggio».
«Tutto va fuori controllo»
Rifare l’esercito americano e formare un nuovo modo di fare la guerra è un compito arduo. Tuttavia è un compito per il quale il Pentagono sembra disposto a pagare.
Il Dipartimento della Difesa ha richiesto una cifra record di 1,8 miliardi per un finanziamento per progetti di intelligenza artificiale solo per il prossimo anno. Tale importo supererà la stima di 1,6 miliardi di dollari di investimenti in intelligenza artificiale effettuati dalle forze armate cinesi.
Gran parte di esso è anche destinato a iniziative per migliorare il processo decisionale dei sistemi d’arma autonomi.
Lo sforzo sembra per lo meno essere un vero inizio verso la visione di Milley di mettere in campo sistemi autonomi in massa. Solleva anche profonde preoccupazioni su come potrebbe essere la prossima guerra e se la dirigenza molto umana del Dipartimento della Difesa sia adeguatamente preparata per gestire le sue creazioni autonome.
John Mills, ex direttore della politica, della strategia e degli affari internazionali della sicurezza informatica presso l’Ufficio del Segretario alla Difesa degli Stati Uniti, ritiene che questo percorso sia pieno di potenziali conseguenze indesiderate. «È Skynet», ha spiegato Mills a Epoch Times, riferendosi all’intelligenza artificiale immaginaria che conquista il mondo nella serie del film Terminator. «È la realizzazione di un ambiente simile a Skynet».
«La domanda è: “cosa potrebbe andare storto in questa situazione?” Beh, molto».
Mills non crede che l’intelligenza artificiale meriti la brutta fama che è stata data ad essa nella cultura popolare, ma è preoccupato per l’apparente tendenza nel processo decisionale militare verso la costruzione di sistemi con una reale autonomia. Ovvero, sistemi in grado di prendere la decisione di uccidere senza prima ottenere l’approvazione umana. «[L’Ai, ndr] sembra oscura e misteriosa, ma in realtà si tratta di big data, la capacità di ingerire e analizzare quei dati con big analytics, e la cosa fondamentale ora è agire su quei dati, spesso senza interazione umana».
La perdita di questo «man-in-the-loop» in molte tecnologie future proposte è quindi motivo di preoccupazione.
Addestrare gli esseri umani a identificare correttamente amico e nemico prima di impegnarsi in azioni cinetiche è abbastanza complicato, ma per Mills lo è di più con le macchine. «Ciò che è diverso ora è la capacità di agire su questi incredibili set di dati in modo autonomo e senza interazione umana. L’integrazione dell’intelligenza artificiale con i veicoli autonomi e la possibilità che agiscano in modo indipendente senza il processo decisionale umano, è qui che tutto va fuori controllo».
A tal fine, Mills è preoccupato per come potrebbe essere un futuro conflitto tra gli Stati Uniti e i suoi alleati e la Cina nell’Indo-Pacifico.
Si immagini, propone Mills, uno spazio di battaglia sottomarino, dove i sottomarini autonomi e altri sistemi d’arma riempiono i mari.
Messo in campo dalle forze cinesi, americane, coreane, australiane, indiane e giapponesi, il caos risultante finirebbe probabilmente con sistemi autonomi impegnati in guerra in tutta la regione, mentre le navi con equipaggio rimangono nelle retrovie e cercano di lanciare al meglio il prossimo gruppo di macchine da guerra robotiche. Qualsiasi altra cosa rischierebbe di mettere vite reali sulla strada degli assassini automatizzati. «Come pianifichi scenari di coinvolgimento con veicoli sottomarini autonomi?. Questo sarà il caos assoluto nella guerra sottomarina».
Uccisione automatizzata
A dire il vero, prevenire l’uccisione automatizzata di combattenti da parte di sistemi artificialmente intelligenti è qualcosa su cui il Pentagono ha pensato a lungo.
La Strategia per l’Intelligenza Artificiale del 2018, ha cercato di accelerare l’adozione dell’Ia in tutto il Dipartimento della Difesa, cercando approcci etici per «ridurre i danni non intenzionali».
Allo stesso modo, i Principi etici per l’intelligenza artificiale del 2020 hanno cercato di garantire che solo le tecnologie di intelligenza artificiale «affidabili» e «governabili» fossero adottate dai militari.
Il documento Strategia responsabile per l’intelligenza artificiale e Percorso di Attuazione del 2022, nel frattempo ha delineato un piano per mitigare le conseguenze indesiderate che potrebbero derivare dall’impiego dell’Ia nei sistemi militari.
Tuttavia nessuno di questi sforzi impedirà effettivamente l’adozione di macchine che possano uccidere in completa autonomia. In effetti, non hanno mai avuto lo scopo di impedirlo.
Questo perché tutti questi documenti sono stati elaborati sotto la guida della Direttiva DoD 3000.09 (pdf), il documento guida del Pentagono per lo sviluppo di sistemi d’arma autonomi. «Questo è fondamentale. È molto importante perché guida lo sviluppo».
Originariamente pubblicato nel 2012, il documento ha ricevuto un’importante revisione a gennaio, intesa a preparare il Pentagono per ciò che il direttore della politica sulle capacità emergenti del Dipartimento della Difesa Michael Horowitz ha descritto all’epoca come una «visione ampliata per il ruolo dell’intelligenza artificiale nel futuro dell’esercito americano».
C’è solo un problema con questo dispiegamento etico, affidabile, governabile di sistemi di intelligenza artificiale letali: il Pentagono non ha regole ferree per proibire ai sistemi autonomi di uccidere.
Infatti, sebbene la 3000.09 sia spesso citata dai sostenitori delle tecnologie man-in-the-loop, il documento in realtà non promuove tali tecnologie, né proibisce l’uso di sistemi letali completamente automatizzati.
Invece, il documento delinea una serie di revisioni rigorose che i sistemi autonomi proposti devono superare. E, sebbene nessun sistema d’arma Ia indipendente sia ancora riuscito a superare questo processo, è probabile che il futuro veda molti di questi sistemi.
Ciò è in gran parte dovuto al fatto che il regime comunista cinese sta rapidamente lavorando per mettere in campo le proprie macchine automatiche per uccidere, e il DoD dovrà prepararsi ad affrontare quella minaccia frontalmente, cercando nel contempo di mantenere i valori americani.
Mills avverte che «[la Cina sta, ndr] cercando di affrontare anche questi difficili problemi, di consentire [alla Ai, ndr] di impegnarsi senza intervento umano. Penso che la loro propensione sia quella di permetterlo anche se uccidono accidentalmente la loro stessa gente».
A tal fine, la prossima guerra potrebbe essere combattuta principalmente tra robot artificialmente intelligenti, con i gestori umani in piedi ai margini, che fanno del loro meglio per dirigere l’azione.
Resta da vedere se gli Stati Uniti potranno farcela senza perdere il controllo delle loro creazioni.
Mills spera che, se qualcuno può farlo, sono gli Stati Uniti: «Penso che abbiamo ancora abbastanza guardrail in situazioni ripetitive, così che possiamo diventare più intelligenti e imparare a incorporare negli algoritmi precauzioni e misure di controllo. Penso che abbiamo buone squadre e persone sul posto».
Articolo in inglese: IN-DEPTH: ‘It Is Skynet’: Pentagon Envisions Robot Armies in a Decade
