Le armi all’avanguardia alimentate dall’intelligenza artificiale (Ia) stanno raggiungendo un livello tale da pregiudicare la sicurezza globale, soprattutto nelle mani del Partito Comunista Cinese (Pcc), secondo diversi esperti intervistati da Epoch Times.
Desideroso di superare militarmente gli Stati Uniti, il Pcc è improbabile che tenga conto delle salvaguardie relative alle tecnologie letali dell’Ia, che sono sempre più pericolose di per sé, secondo gli esperti. La natura di questa tecnologia è infatti incline ad alimentare alcune delle peggiori tendenze della psiche umana in generale.
«Le implicazioni sono piuttosto drammatiche», ha dichiarato Bradley Thayer, membro senior del Center for Security Policy, esperto di valutazione strategica della Cina e commentatore di Epoch Times. «E potrebbero essere pari alla rivoluzione nucleare».
Robot assassini
Lo sviluppo di armi autonome alimentate dall’Ia sta progredendo rapidamente, secondo Alexander De Ridder, sviluppatore di Ia e cofondatore di Ink, una società di marketing che usa l’Ia.
«Stanno diventando rapidamente più efficienti e rapidamente più efficaci», ha dichiarato a Epoch Times, aggiungendo che, tuttavia, «non sono al punto di poter sostituire gli esseri umani».
Droni, carri armati, navi e sottomarini autonomi sono diventati una realtà, accanto a iterazioni esotiche come i cani robot quadrupedi armati di mitragliatrici, già visti in Cina.
Anche i robot umanoidi dotati di intelligenza artificiale, tipici dell’orrore fantascientifico, sono in produzione. Certo, nel mondo reale sono ancora piuttosto goffi, ma non lo saranno ancora per molto, ha affermato De Ridder: «Le capacità di questi robot stanno avanzando rapidamente».
Una volta che queste macchine avranno raggiunto un’utilità e un’affidabilità tali da poter essere commercializzate, la Cina probabilmente indirizzerà la sua forza produttiva verso la produzione di massa, secondo De Ridder: «Il mercato sarà inondato di robot umanoidi e poi spetterà alla programmazione decidere come utilizzarli».
Questo significherebbe anche un uso militare. «È inevitabile», osserva l’esperto.
Questi robot dotati di intelligenza artificiale sono molto bravi a utilizzare i sensori ottici per identificare gli oggetti, compresi gli esseri umani, secondo James Qiu, fondatore del Git Research Institute ed ex Cto di FileMaker. E questo li rende potenzialmente delle macchine assassine molto efficaci, sostiene Qiu.
Generali robot
A livello più ampio, diverse nazioni stanno lavorando su sistemi di intelligenza artificiale in grado di informare e coordinare le decisioni sul campo di battaglia, agendo in sostanza come generali elettronici, secondo Jason Ma, responsabile della ricerca sui dati presso una multinazionale di Fortune 500. Jason Ma ha chiesto di non rivelare il nome della sua azienda, per evitare di dare l’impressione di parlare a suo nome.
L’Esercito Popolare di Liberazione ha recentemente condotto esercitazioni di combattimento in cui un’Ia è stata posta direttamente al comando, e anche l’esercito statunitense ha progetti in questo settore, prosegue Ma.
«È un ambito di ricerca e sviluppo molto attivo», spiega Ma.
La necessità è ovvia: le decisioni sul campo di battaglia sono informate da una quantità impressionante di dati, dal contesto storico e dalle informazioni passate, ai dati satellitari quasi in tempo reale, agli input millisecondo per millisecondo di ogni telecamera, microfono e qualsiasi altro sensore sul campo. Per gli esseri umani è «molto difficile» elaborare flussi di dati così disparati e voluminosi, aggiunge.
«Più la guerra è complessa, più diventa importante capire come integrare e riassumere rapidamente tutte queste informazioni per prendere la decisione giusta, in pochi secondi o addirittura in meno di un secondo».
Destabilizzazione
Le armi Ia stanno già ridefinendo la guerra, ma gli esperti che hanno parlato con Epoch Times concordano sul fatto che le conseguenze saranno molto più ampie. La tecnologia sta rendendo il mondo sempre più volatile, ha commentato Bradley Thayer, il membro senior del Center for Security Policy ed esperto di valutazione strategica della Cina.
Al livello più rudimentale, il puntamento delle armi gestito dall’intelligenza artificiale renderà probabilmente molto più facile abbattere i missili balistici intercontinentali, individuare e distruggere i sottomarini e abbattere i bombardieri a lungo raggio. Questo potrebbe neutralizzare le capacità della triade nucleare statunitense, consentendo agli avversari di «superare il livello nucleare» impunemente, afferma.
«L’Ia colpirebbe ognuna di queste componenti, che abbiamo sviluppato e compreso durante la Guerra Fredda come assolutamente essenziali per una relazione di deterrenza nucleare stabile», ha aggiunto.
«Durante la Guerra Fredda, c’era la consapevolezza che la guerra convenzionale tra potenze nucleari non era fattibile. […] L’Ia sta minando questo concetto, perché introduce la possibilità di un conflitto convenzionale tra due Stati nucleari».
«L’Ia sta influenzando notevolmente il campo di battaglia, ma non è ancora determinante».
Se le capacità dell’Ia dovessero raggiungere «l’effetto di una guerra nucleare senza l’uso di armi nucleari», il mondo si troverebbe su una polveriera, prosegue.
«Se fosse possibile, ed è abbastanza probabile che lo sia, si tratterebbe di una situazione estremamente pericolosa e destabilizzante, perché indurrebbe qualcuno che si trova a ricevere un attacco ad agire per primo, non per sopportare l’attacco, ma per aggredire».
Nel lessico bellico, il concetto si chiama «limitazione dei danni», ha spiegato. «Non vuoi che sia lui a iniziare, perché rischi di essere danneggiato gravemente. Quindi sei tu ad andare per primo. E questo sarà enormemente destabilizzante nella politica internazionale».
I robot e i droni assassini non sono l’unico motivo di preoccupazione; potrebbero essere sviluppate diverse armi Ia non convenzionali, come quelle in grado di trovare vulnerabilità nelle infrastrutture critiche, come la rete elettrica o i sistemi di approvvigionamento idrico.
Controllare la proliferazione di queste tecnologie è un compito arduo, dato che l’Ia stessa è solo un software. Anche i modelli più grandi possono essere inseriti in un normale disco rigido e possono essere eseguiti su una piccola server farm. Armi di Ia semplici ma sempre più letali, come i droni killer, possono essere spedite in parti senza destare allarme.
«Gli incentivi alla proliferazione sia verticale che orizzontale sono enormi, ed è facile da realizzare», ha indicato Thayer.
De Ridder ha sottolineato che lo Stato cinese vuole essere visto come responsabile sulla scena mondiale. Ma questo non ha impedito al Pcc di fornire armi o di sostenere i programmi di armamento di altri regimi e gruppi che non sono così vincolati dalla reputazione, come hanno osservato altri esperti.
Ad esempio, il Pcc potrebbe fornire armi autonome a gruppi terroristici per impegnare le forze armate statunitensi in conflitti asimmetrici senza fine. Il regime potrebbe anche mantenere le distanze, limitandosi a fornire i pezzi e lasciando che i complici assemblino i droni, proprio come i fornitori cinesi forniscono i precursori del fentanyl ai cartelli messicani e lasciano che questi ultimi producano, spediscano e vendano la droga.
La Pcc ha una lunga storia di aiuti ai programmi di armamento iraniani, mentre l’Iran a sua volta fornisce armi ai gruppi terroristici della regione.
«Ci sarebbero pochi disincentivi per l’Iran a farlo», osserva Thayer.
Umani nel loop
È generalmente accettato, almeno negli Stati Uniti e tra i suoi alleati, che la salvaguardia più cruciale contro le armi Ia che creano scompiglio è mantenere il controllo umano delle decisioni importanti, in particolare l’uso della forza letale.
«In nessun caso le macchine, in modo autonomo e indipendente, dovrebbero essere autorizzate a prendere una vita umana», ha dichiarato De Ridder.
Il principio è comunemente indicato con l’espressione «umani nel loop».
«Un essere umano ha una coscienza e ha bisogno di svegliarsi la mattina con il rimorso e le conseguenze di quello che ha fatto, in modo da poter imparare da questo e non ripetere le atrocità», ha affermato De Ridder.
Alcuni esperti hanno sottolineato, tuttavia, che il principio è già stato eroso dalla natura del combattimento trasformato dalle capacità dell’Ia.
Nella guerra in Ucraina, ad esempio, l’esercito ucraino ha dovuto dotare i suoi droni di una certa autonomia per guidarli verso gli obiettivi, perché le comunicazioni con gli operatori umani venivano disturbate dall’esercito russo.
Secondo Ma, questi droni funzionano solo con una semplice intelligenza artificiale, data la potenza limitata del computer di bordo. Ma la situazione potrebbe cambiare rapidamente, dato che sia i modelli di Ia che i computer stanno diventando sempre più veloci ed efficienti.
Apple sta già lavorando a un’intelligenza artificiale che potrebbe essere eseguita su un telefono. «È molto probabile che in futuro venga inserita in un piccolo processore», ha sostenuto.
In più, in un grande conflitto in cui centinaia o forse migliaia di droni vengono impiegati contemporaneamente, essi potranno condividere la potenza di calcolo per eseguire compiti autonomi molto più complessi.
«Tutto questo è possibile», prosegue. «Si è giunti al punto in cui non è fantascienza; è solo [una questione di, ndr] se c’è un gruppo di persone che vuole dedicare il tempo a lavorare su questo. È una tecnologia tangibile».
Eliminare il controllo umano per necessità non è un concetto nuovo, secondo James Fanell, ex ufficiale dell’intelligence navale ed esperto di Cina.
Ha citato l’esempio del sistema di combattimento Aegis, installato sugli incrociatori e sui cacciatorpediniere statunitensi. Il sistema rileva e traccia automaticamente i bersagli aerei e lancia i missili per abbatterli. Normalmente, un operatore umano controlla il lancio dei missili, ma c’è anche un modo per passare alla modalità automatica, ad esempio quando ci sono troppi bersagli per l’operatore umano da intercettare. Il sistema identifica e distrugge i bersagli da solo, ha spiegato Fanell.
Nella guerra di massa con i droni, in cui un’Ia dirige migliaia di droni in un attacco coordinato, la parte che dà alla propria Ia l’autonomia di sparare otterrà un grande vantaggio in termini di velocità rispetto a quella che richiede l’approvazione di ogni colpo da parte di un uomo.
«A livello di tiro individuale, le persone devono rinunciare al controllo perché non possono prendere tutte le decisioni così rapidamente», ha affermato Ma.
De Ridder ha sottolineato che un drone che spara a un altro drone da solo sarebbe moralmente accettabile. Ma questo potrebbe scatenare molti spari autonomi su un campo di battaglia dove potrebbero esserci anche degli esseri umani, aprendo la porta a incalcolabili vittime collaterali.
Niente regole
La maggior parte degli esperti concorda sul fatto che, a prescindere dalle misure di salvaguardia dell’Ia, è improbabile che il Pcc le rispetti.
«Non credo che ci saranno limiti per la Cina su cui essere cauti», ha commentato Ma. «Qualsiasi cosa sia possibile, la faranno».
«L’idea che la Cina si limiti nell’uso di questa tecnologia non la vedo», aggiunge Fanell. «Cercheranno di trarne vantaggio e di sfruttarlo più velocemente di noi».
Il principio dell’«uomo nel loop» potrebbe essere semplicemente reinterpretato per essere applicato a «un livello di battaglia più ampio e completo» piuttosto che «al livello di tiro individuale», prosegue Ma.
Tuttavia, una volta accettato che l’Ia può iniziare a sparare da sola in alcune circostanze, il principio del controllo umano diventa malleabile, dichiara Fanell.
«Se si è disposti ad accettarlo in senso tattico, chi può dire che non lo si porterà fino al livello più alto della guerra?», sostiene Fanell.
«È la naturale evoluzione di una tecnologia come questa e non so cosa possiamo fare per fermarla. Non è che si possa avere un codice etico che dica che in guerra [si rispettano, ndr] le regole del pugilato del marchese di Queensberry. Non succederà».
Anche se gli esseri umani mantengono il controllo delle decisioni generali, come l’avvio di una particolare missione, l’intelligenza artificiale può facilmente dominare il processo decisionale. Il pericolo non sarebbe un’Ia dalle scarse prestazioni, ma piuttosto una che funziona così bene da infondere fiducia negli operatori umani.
De Ridder si è detto scettico sulle previsioni di un’Ia superintelligente che superi di gran lunga le capacità umane. Tuttavia, ha riconosciuto che l’Ia supera gli esseri umani in alcuni aspetti, in particolare per quanto riguarda la velocità: è in grado di analizzare montagne di dati e di trarre conclusioni quasi immediatamente.
Inoltre, secondo Ma e Qiu, è praticamente impossibile capire come un’Ia arrivi esattamente alle sue conclusioni.
De Ridder ha dichiarato che lui e altre persone stanno lavorando per limitare l’Ia a un flusso di lavoro simile a quello umano, in modo che le singole fasi del suo ragionamento siano più distinguibili.
Ma data l’incredibile quantità di dati coinvolti, sarebbe impossibile per l’Ia spiegare in che modo ogni informazione ha contribuito al suo ragionamento senza sopraffare l’operatore, precisa Ma.
«Se l’operatore umano sa chiaramente che si tratta di una decisione [prodotta, ndr] dopo che l’Ia ha elaborato terabyte di dati, nella maggior parte dei casi non avrà il coraggio di opporsi. Quindi credo che sì, sarà una formalità», ha commentato.
«’L’uomo nel loop’ è una frase comoda, ma in realtà l’uomo rinuncerà rapidamente al controllo».
Pressioni dell’opinione pubblica
Tutti gli esperti hanno concordato sul fatto che la pressione dell’opinione pubblica probabilmente limiterà lo sviluppo e l’uso delle armi di intelligenza artificiale, almeno negli Stati Uniti.
Il signor Ma ha riportato l’esempio di Google che ha annullato un contratto con la Difesa per le obiezioni del suo personale. Tuttavia, non riesce a immaginare una situazione analoga in Cina.
Qiu è d’accordo. «Qualsiasi cosa all’interno della Cina è una risorsa che il Pcc può sfruttare», spiega. «Non si può dire: “Oh, questa è un’azienda privata”. Non esiste un’azienda privata di per sé [in Cina, ndr]».
Anche il Pcc non può fare a meno del sentimento pubblico, afferma De Ridder: «Il governo può sopravvivere solo se la popolazione vuole collaborare». Ma non c’è alcuna indicazione che la popolazione cinese veda l’uso militare dell’Ia come una preoccupazione urgente. Al contrario, le aziende e le università cinesi sembrano desiderose di ottenere contratti militari, ha evidenziato Ma.
De Ridder ha chiesto «un quadro normativo internazionale che possa essere applicato».
Non è chiaro come tali regolamenti possano essere applicati alla Cina, che ha una lunga storia di rifiuto di qualsiasi limite allo sviluppo militare. Gli Stati Uniti hanno a lungo tentato invano di portare la Cina nella discussione sul disarmo nucleare. Di recente, la Cina ha rifiutato la richiesta degli Stati Uniti di garantire che non avrebbe usato l’intelligenza artificiale per decidere gli attacchi nucleari.
Se gli Stati Uniti regolano il proprio sviluppo dell’Ia, potrebbero creare una vulnerabilità strategica, hanno suggerito diversi esperti.
«Questi regolamenti saranno studiati molto bene dal Pcc e utilizzati come strumento di attacco», afferma Qiu.
Anche se si dovesse raggiungere un qualche tipo di accordo, secondo Thayer il Pcc ha una scarsa reputazione nel mantenere le promesse.
«Qualsiasi accordo è una crosta di torta pronta a essere sbriciolata», ha dichiarato.
Soluzioni
De Ridder si augura che le nazioni si accontentino di usare l’Ia in modi meno distruttivi.
«Ci sono molti modi in cui si può usare l’Ia per raggiungere i propri obiettivi, senza che questo comporti l’invio reciproco di uno sciame di droni assassini», ha affermato. «Quando si arriva al dunque, nessuno vuole che si verifichino questi conflitti».
Secondo altri esperti, al Pcc non dispiacerebbe iniziare un conflitto di questo tipo, a patto che veda un chiaro percorso di vittoria.
«I cinesi non si faranno condizionare dalle nostre regole», argomenta Fanell. «Faranno tutto il necessario per vincere».
Affidarsi ai sussurri di un consulente militare Ia, che infonde fiducia elaborando montagne di dati e producendo piani di battaglia convincenti, potrebbe essere particolarmente pericoloso, in quanto potrebbe creare una visione di vittoria dove prima non c’era, secondo Thayer.
«Si può capire come questo possa essere molto attraente per un decisore, soprattutto per uno iper-aggressivo come il Pcc», osserva Thayer. «Potrebbe rendere più probabile l’aggressione».
«C’è solo un modo per fermarlo, cioè essere in grado di sconfiggerlo», ha aggiunto Fanell.
Chuck de Caro, ex consulente dell’Office of Net Assessment del Pentagono, ha recentemente chiesto che gli Stati Uniti sviluppino armi elettromagnetiche in grado di disattivare i chip dei computer. Potrebbe anche essere possibile sviluppare armi energetiche in grado di disattivare un particolare tipo di chip, come ha scritto in un editoriale per Blaze Media.
«Ovviamente, senza chip funzionanti, l’intelligenza artificiale non funziona», ha scritto.
Un’altra opzione potrebbe essere quella di sviluppare una superarma Ia che possa fungere da deterrente.
«Esiste un progetto Manhattan di intelligenza artificiale che gli Stati Uniti stanno realizzando in grado di creare l’effetto che Nagasaki e Hiroshima avrebbero sulla Repubblica Popolare Cinese (Rpc) e sul Partito Comunista Cinese, che li porterebbe a capire che “OK, forse non vogliamo arrivarci. Questa è una distruzione reciprocamente assicurata”? Non lo so. Ma è quello che farei io», ha affermato Fanell.
Questo potrebbe lasciare il mondo in una situazione di stallo simile a quella della Guerra Fredda: uno stato difficilmente ideale, ma probabilmente considerato preferibile all’abnegazione del vantaggio militare al Pcc.
«Tutti i Paesi sanno che è pericoloso, ma nessuno si ferma perché teme di rimanere indietro», ha sottolineato Ma.
De Ridder ritiene che potrebbe essere necessario uno shock profondo per fermare la corsa agli armamenti dell’Ia.
«Potrebbe essere necessaria una guerra mondiale, con un’immensa tragedia umana, per vietare l’uso di macchine autonome per uccidere, dotate di Ia», ha affermato.
Articolo in lingua inglese: CCP Develops Ia Weapons, Ignoring Global Risks