Gli esperti allarmati per l’uscita dei nuovi chatbot di intelligenza artificiale approvati dal Pcc

Di Venere Upadhyaya

Mentre le aziende tecnologiche cinesi svelano le loro risposte a ChatGpt, gli esperti avvertono che il panorama dell’intelligenza artificiale cinese rappresenta una serie di minacce.

Il 31 agosto, il colosso tecnologico Baidu ha presentato Ernie, la controparte cinese di ChatGpt, mentre Alibaba ha annunciato il suo modello di intelligenza artificiale, Tongyi Qianwen.

Sebbene Ernie sia stato presentato inizialmente a marzo, ora il chatbot è stato approvato ed è disponibile per il download.

Annunciando Il rilascio di Ernie, Baidu rivela che «oltre a Ernie Bot, Baidu è pronta a lanciare una suite di nuove app native per l’intelligenza artificiale che consentiranno agli utenti di sperimentare appieno le quattro abilità principali dell’intelligenza artificiale generativa: comprensione, generazione, ragionamento e memoria».

Mentre la competizione strategica si inasprisce all’interno degli Stati Uniti, Pechino ha aumentato il suo sostegno alle aziende cinesi che lavorano con l’intelligenza artificiale. La divisione di cloud intelligence di Alibaba ha dichiarato in un messaggio sul suo account WeChat che diverse organizzazioni, tra cui Oppo, Taobao, DingTalk e l’Università di Zhejiang, hanno raggiunto accordi di cooperazione con Alibaba per addestrare i propri modelli linguistici di grandi dimensioni (Llm) su Tongyi Qianwen.

Secondo gli esperti, l’uso da parte della Cina di strumenti di intelligenza artificiale all’avanguardia potrebbe potenzialmente aumentare i rischi per la sicurezza nazionale per i suoi avversari: «L’utilizzo di modelli linguistici di grandi dimensioni come ChatGpt, Tongyi Qianwen di Alibaba o sistemi di intelligenza artificiale simili può potenzialmente essere considerato una minaccia alla sicurezza come la disinformazione, gli attacchi automatizzati, le preoccupazioni etiche e la privacy dei dati», ha affermato la ricercatrice e autrice di intelligenza artificiale Sahar Tahvili. La Tahvili è autrice (insieme a Leo Hatvani) di Artificial Intelligence Methods for Optimization of the Software Testing Process: With Practical Examples and Exercises

L’intelligenza artificiale generativa descrive algoritmi in grado di generare nuovi contenuti, inclusi audio, codice, immagini, testo, simulazioni e video. Gli Llm sono la componente di generazione del testo dell’intelligenza artificiale generativa.

Gli Llm implicano un algoritmo di deep learning in grado di eseguire una varietà di attività di elaborazione del linguaggio, come riconoscere, tradurre, prevedere o generare testo o altri contenuti.

Secondo Ashwin Kumaraswamy (investitore deep tech con sede nel Regno Unito) i cinesi sono 15 anni avanti rispetto al resto del mondo nell’utilizzo di complicati Llm basati sull’intelligenza artificiale. Kumaraswamy fa anche parte del consiglio di amministrazione di numerose società tecnologiche.

Sebbene la maggior parte delle piattaforme di social media occidentali siano vietate in Cina, Kumaraswamy ha osservato che la piattaforma WeChat di Tencent (conosciuta in Cina come Weixin), che è onnipresente in Cina, offre agli utenti una miriade di opzioni, tra cui acquisti, messaggistica, conduzione di affari, funzionalità di microblogging e chatbot: «Dal punto di vista digitale, sono davvero forti e integrati».

I valori fondamentali del socialismo? «Parliamo di qualcos’altro»

Gli esperti hanno dichiarato a Epoch Times che la minaccia legata all’intelligenza artificiale proveniente dalla Cina deriva dal divario ideologico tra Pechino e l’Occidente. «Se si vuole valutare come la Cina si sta avvicinando al boom del Llm, bisogna analizzare le normative proposte dall’amministrazione del cyberspazio», scrive per email Mark Bryan Manantan, direttore della sicurezza informatica e delle tecnologie critiche al Pacific Forum di Honolulu.

«Sebbene ci sia un fermento riguardante soprattutto l’intelligenza artificiale, la principale preoccupazione per la Cina è ancora la sicurezza delle informazioni che è radicata nei valori fondamentali del socialismo e in linea con le leggi e le politiche esistenti sulla sicurezza dei dati e sulla protezione delle informazioni personali».

Tahvili ha osservato che l’iterazione cinese di ChatGpt, come altri modelli di intelligenza artificiale, è un «sistema a scatola nera». Ciò significa che «il funzionamento interno o i processi decisionali del modello non sono facilmente interpretabili o comprensibili dagli esseri umani».

La natura della scatola nera dell’Ia generativa la rende tipicamente imprevedibile, il che può dare l’impressione di processi di pensiero autonomi. Pertanto, altre nazioni potrebbero essere ingenue riguardo all’impeto ideologico che in realtà ci sarebbe dietro l’intelligenza artificiale cinese.

I resoconti dei media hanno affermato che è obbligatorio per le aziende tecnologiche cinesi riferire al regime in ogni fase e questo, secondo gli esperti rende inequivocabile la spinta strategica di Pechino che coinvolge i suoi Llm.

Infatti, come indicato in un articolo della Bbc del 9 settembre, quando a Ernie viene posta una domanda «difficile», in genere risponde «Parliamo di qualcos’altro» o « Mi dispiace! Non so ancora come rispondere a questa domanda».

L’opinione pubblica in Cina ha praticamente rinunciato a resistere all’ideologia politica del Partito Comunista Cinese (Pcc) poiché le è stato fatto il lavaggio del cervello per molto tempo, sottolinea Kumaraswamy: «Dato che dispongono di dati e informazioni sull’umore generale [e, ndr] sulle chiacchiere generali, questi modelli possono essere utilizzati dalle soluzioni in stile ChatGpt per il riempimento automatico. Ma i cinesi non hanno bisogno dell’intelligenza artificiale per propagare l’ideologia, dato che lo fanno dalle scuole, con un controllo più stretto sulla formazione della mente delle generazioni più giovani».

Applicazioni militari

Il Llm cinese ha potenziali applicazioni all’interno dell’Esercito popolare di liberazione (Pla), in particolare in aree come la guerra cognitiva o dell’informazione.

Josh Baughman, un analista del China Aerospace Studies Institute presso l’Air University dell’aeronautica americana, in un articolo intitolato China’s ChatGpt War pubblicato il 21 agosto, ha scritto che l’intelligenza artificiale generativa, citando le parole di Friedrich Engels, «causerà cambiamenti o addirittura rivoluzioni nella guerra».

Baughman spiega che il Pla mira a trarre vantaggio dalle applicazioni militari dell’intelligenza artificiale, come dimostrano il gran numero di articoli sull’intelligenza artificiale pubblicati negli ultimi mesi nelle riviste militari cinesi.

Baughman ha citato un articolo del maggiore generale (in pensione) del Pla Hu Xiaofeng, attualmente professore presso l’Università Nazionale della Difesa cinese, che ha scritto: «La tecnologia all’avanguardia dell’intelligenza artificiale rappresentata da ChatGpt sarà inevitabilmente applicata in campo militare».

Secondo la Tahvili, i modelli Llm e di elaborazione del linguaggio naturale (Nlp) hanno diverse potenziali applicazioni nei settori militare e della difesa.

L’articolo di Baughman menziona sette principali aree di applicazione: «interazione uomo-macchina, processo decisionale, guerra di rete, dominio cognitivo, logistica, dominio spaziale e formazione».

Manantan del Pacific Forum ha discusso l’aspetto della guerra cognitiva o dell’informazione, avvertendo che ChatGpt può amplificare le campagne di disinformazione e migliorarne l’esecuzione. «Llm può creare testi più convincenti. Altre minacce alla sicurezza includono l’hacking con generazione di malware e il phishing sofisticato».

In generale, la guerra cognitiva implica influenzare le percezioni, le credenze e il processo decisionale degli avversari.

Secondo la Tahvili, «A questo proposito, l’intelligenza artificiale può essere utilizzata per la pianificazione strategica, l’analisi delle informazioni e la traduzione. Inoltre, i modelli di intelligenza artificiale possono essere integrati nei programmi di addestramento militare e negli ambienti di simulazione per fornire scenari realistici e interattivi».

Attenzione alle insidie

Baughman ha affermato che mentre gli articoli sui media dell’Epl parlano dell’inevitabile uso di ChatGpt in guerra, «non c’è nemmeno fretta per un’integrazione significativa nelle operazioni militari in tempi brevi». Tre preoccupazioni principali giocano in questo, vale a dire «la costruzione di un set di dati, l’ottimizzazione e la bassa fiducia nella tecnologia».

Poi c’è la questione della censura: «Inoltre, anche se non menzionata dai media dell’Epl, c’è anche la questione dello stesso Partito Comunista Cinese (Pcc), Un programma che abbia il potenziale di parlare negativamente del Partito non sarà consentito e ciò potrebbe inibire l’efficacia complessiva dell’Ia generativa».

Nel complesso, Baughman ha affermato: «La Cina comprende la necessità di essere il primo promotore (o il seguace più vicino) nell’intelligenza artificiale generativa sul campo di battaglia».

Ma come gli Stati Uniti, ritiene che i cinesi siano cauti nell’integrare la tecnologia troppo rapidamente, consapevoli delle numerose potenziali insidie ​​​​della guerra intelligente.

 

Articolo in inglese: IN-DEPTH: As Chinese Tech Unveils New CCP-Approved Chatbots, Experts Warn of AI Threat From Beijing

NEWSLETTER
*Epoch Times Italia*
 
Articoli correlati