Cina, telecamere in grado di identificare i volti di uiguri e tibetani?

A Hong Kong e nella Cina continentale le telecamere a circuito chiuso sono quasi ovunque. E quattro tipi di telecamere di sorveglianza dell’azienda cinese Zhejiang Dahua Technology Co. Ltd sono in grado di identificare il colore della pelle e anche i volti di etnia uigura o tibetana: è quanto ha scoperto l’organizzazione di ricerca statunitense Internet protocol video market (Ipvm). Dahua ha però negato l’accusa affermando che non svilupperà mai prodotti in grado di identificare gruppi etnici.

L’azienda è stata a lungo accusata di aver aiutato il Pcc a creare una rete di sorveglianza per perseguitare gli uiguri nella regione dello Xinjiang. È anche fortemente criticata dal governo statunitense per la repressione dei kazaki e dei musulmani, con detenzioni arbitrarie di massa e l’uso di sorveglianza ad alta tecnologia per presunte violazioni dei diritti umani e abusi. Tanto che nell’ottobre 2019 l’azienda è stata inserita nella lista delle sanzioni dal Dipartimento del Commercio degli Stati Uniti.

Il 17 ottobre l’Ipvm ha pubblicato un articolo in cui si afferma che quattro telecamere di sorveglianza della tecnologia Dahua, tra cui ‘DH-IPC-HF8249F-FD’, ‘DH-IPC-MFW8449-ZHM-D47-LI-0832’, ‘DH-CP835-AU1F-LZF2070’ e ‘DH-SDT-5A404-C2F’, sono tutte in grado di identificare il sesso, l’età, l’etnia, il colore della pelle, l’espressione facciale, nonché i volti degli uiguri o dei tibetani. Tali funzioni vengono menzionate anche sul loro sito web.

Il sistema ‘avviso uiguri’

Le telecamere sono in grado di identificare gli uiguri all’interno della folla e di emettere un ‘avviso uiguri’ alla polizia del Pcc, per contribuire a un loro rapido arresto, secondo quanto ha sottolineato l’Ipvm. Si tratta del modello ‘polizia online’ propagandato dall’azienda per migliorare le capacità di previsione, allarme e prevenzione della polizia. L’Ipvm ha criticato questa tecnica di allarme razziale definendola malvagia e da bloccare.

Inoltre, secondo l’Ipvm, Dahua Technology si è aggiudicata contratti per quasi 1 miliardo di dollari per progetti nello Xinjiang, tra cui la costruzione e la gestione di strutture di sorveglianza nelle stazioni di polizia in tutta la regione. Nel novembre 2020, Dahua Technology ha risposto via e-mail al South China Morning Post negando che i suoi prodotti avessero una funzione di tracciamento della razza. Nel febbraio 2021, è stato però scoperto che disponeva di strumenti di sviluppo software che includevano funzioni di tracciamento degli uiguri; in seguito, l’azienda ha modificato la propria dichiarazione affermando di «non aver mai fornito prodotti o servizi di rilevamento etnico nello Xinjiang, in Cina».

Nell’agosto del 2021, ha cambiato nuovamente la sua dichiarazione affermando di «non aver mai sviluppato un prodotto o una soluzione progettata per identificare o prendere di mira un gruppo etnico specifico».

Solo lo scorso agosto ha finalmente riconosciuto che la tecnologia di ‘avviso uiguri’ esiste, ma ha anche affermato che si trattasse di un «documento storico di progettazione interna del software» e che non era mai stata implementata o venduta.

Recentemente, ‘Dahua’ ha inoltre ammesso l’introduzione sul web dei prodotti delle quattro telecamere, ma ha dichiarato di essere «profondamente turbata e preoccupata» e di aver già avviato un’indagine. L’azienda sostiene che dall’indagine è emerso che la pagina web in questione è stata pubblicata prima del 2018 e che non ha mai sviluppato funzioni di identificazione razziale per uso commerciale, affermando inoltre di «non aver mai sviluppato prodotti e soluzioni che identifichino o discriminino un singolo gruppo etnico».

L’uso diffuso della tecnologia come strumento totalitario

Il 13 ottobre, l’Istituto di Montreal per gli studi sui genocidi e i diritti umani (Migs) ha tenuto un incontro per lanciare il suo nuovo libro ‘Stato di sorveglianza: nuova era per il controllo sociale all’interno della Cina’.

Nel libro si legge che le aziende tecnologiche sono autorizzate dal Pcc a produrre vaste reti di telecamere a circuito chiuso, compresi software di intelligenza artificiale (Ai) in grado di effettuare analisi istantanee, per formare sistemi di sorveglianza diffusi che non sono vincolati dal sistema legale cinese e dai codici di privacy digitale emergenti. Dahua Technology è una delle prime dieci aziende di tecnologia di sorveglianza in Cina.

La Mtr di Hong Kong installerà telecamere a circuito chiuso Dahua

Nell’agosto 2021, Epoch Times ha riferito dell’installazione di telecamere a circuito chiuso con tecnologia Dahua nelle stazioni Mtr di Hong Kong. La Mtr Corporation ha risposto in quell’occasione che le telecamere avevano una funzione di registrazione video ma non di riconoscimento facciale. Ci sono sempre state procedure e linee guida rigorose per la registrazione dei filmati e per l’elaborazione delle relative informazioni ottenute. In generale, i filmati delle telecamere a circuito chiuso vengono distrutti dopo 28 giorni. Per le pratiche pertinenti, si è sempre fatto riferimento alle linee guida dell’Ufficio del Commissario per la privacy dei dati personali.

Wong Ho-wah, scienziato di dati del gruppo Open Data del forum Internet dell’Hong Kong Governance , all’epoca aveva risposto di comprendere le preoccupazioni dei cittadini di Hong Kong riguardo alle apparecchiature ‘Dahua’. A causa del presunto coinvolgimento del riconoscimento facciale ‘razzista’, l’opinione pubblica è preoccupata che una situazione simile possa verificarsi a Hong Kong: «Quando si vede la telecamera Hikvision di Dahua, o anche solo un obiettivo fisheye a 360 gradi, si pensa naturalmente al sistema di riconoscimento facciale».

Wong ha anche sottolineato che la marca della telecamera non è la cosa più importante: la chiave è il modo in cui vengono utilizzate. Anche se si utilizzano altre marche per registrare i video, se i pixel sono sufficientemente chiari, è possibile inserire il video nel computer per l’analisi e l’elaborazione. Secondo Wong è importante che le istituzioni e le persone che utilizzano le telecamera debbano avere un’etica e non dovrebbero usare l’intelligenza artificiale (Ai) in modo eccessivo o indiscriminato.

 

Articolo in inglese: ‘Dahua Technology’ CCTVs Found to Be Able to Identify Uyghurs and Tibetan Faces

NEWSLETTER
*Epoch Times Italia*
 
Articoli correlati