Allerta robot killer: presto decideranno da soli in guerra

Un articolo pubblicato su Nature mette in guardia dall’intelligenza artificiale: presto i robot potranno uccidere le persone in guerra da soli e senza controllo umano.

«L’Intelligenza Artificiale e i componenti robotici già esistenti possono fornire piattaforme fisiche, percezione, controllo del motore, navigazione, mappatura, capacità di decisione tattica e pianificazione a lungo termine. Devono solo essere combinate tra loro», scrive Stuart Russell, docente di scienze informatiche all’Università di California, Berkeley.

Secondo Russell è solo questione di anni, e non decenni, prima che questi robot indipendenti possano essere impiegati in guerra. Pur essendo disposti di sistemi che permettano loro di distinguere i combattenti dai civili, è noto che potrebbero non essere affidabili, come nei casi delle ‘bombe intelligenti’ nella guerra in Afghanistan. Inoltre il solo fatto che dei robot uccidano le persone senza un controllo umano pone delle questioni etiche notevoli.

Tra i vari Stati, secondo Russell, Germania e Giappone si oppongono a questa tecnologia killer, mentre Usa, Israele e Regno Unito – che sono anche i tre Paesi principali nello sviluppo di questi sistemi – sostengono di avere già tenuto in conto e superato i problemi di conflitto tra i ‘robot killer’ e il diritto internazionale, compresa la parte della Convenzione di Ginevra che disciplina i casi di attacchi, distinguendo civili e soldati, e sostenendo un approccio proporzionato tra valore militare dell’attacco e rischio di danni collaterali.

 
Articoli correlati