Clonazione vocale, la nuova frontiera delle truffe

di Redazione ETI/Chris Summers
17 Maggio 2025 6:29 Aggiornato: 17 Maggio 2025 6:29

Dalle email ingannevoli degli anni Novanta ai messaggi di testo fraudolenti, le truffe informatiche hanno seguito l’evoluzione della tecnologia, diventando sempre più sofisticate. Oggi, la nuova frontiera si chiama vishing, una tecnica che sfrutta la clonazione vocale tramite intelligenza artificiale per ingannare le vittime. Il raggiro più comune consiste in messaggi vocali che imitano la voce di un figlio o di un nipote in difficoltà, inducendo un familiare a trasferire denaro, spesso tramite link bancari fasulli.

Secondo gli esperti, il meccanismo si basa sulla creazione di un senso di urgenza: una chiamata da un numero apparentemente affidabile segnala un grave problema, spesso collegato a conti correnti compromessi. Il truffatore invita la vittima a condividere un codice ricevuto via sms, che in realtà è un’autenticazione reale a due fattori. Varianti comuni includono chiamate da finti rappresentanti di banca, forze dell’ordine, aziende di servizi o parenti disperati. Il denominatore comune è sempre l’urgenza emotiva o finanziaria e la pressione per agire immediatamente.

La diffusione di queste truffe è in rapido aumento. Le tecnologie attuali, sebbene limitate a script predefiniti, stanno rapidamente evolvendo verso una maggiore naturalezza e capacità interattiva. Se si crede di parlare con un familiare, è naturale fidarsi.

Il fenomeno è confermato dai dati: l’indagine 2024 dell’Internet Crime Complaint Center — l’agenzia per segnalare crimini informatici, gestita dall’Fbi — registra oltre 193 mila denunce di phishing (truffa che inganna gli utenti per rubare dati personali) e spoofing (truffa per falsificare le identità digitali), contro le 86 mila per estorsione e le 441 legate a malware. Le frodi vocali, insieme a smishing (truffa che utilizza gli sms) e phishing tramite codici QR, rappresentano oggi l’ossatura del crimine informatico: sono economiche, scalabili e richiedono competenze tecniche minime. Gli esperti sottolineano come, rispetto al passato, bastino oggi pochi secondi di audio per clonare una voce, grazie agli strumenti gratuiti di intelligenza artificiale. Brevi clip estratte da video pubblici o da telefonate occasionali possono essere sufficienti per ricreare una voce con un realismo inquietante.

Secondo l’agenzia dell’Fbi, gli over 60 rappresentano la categoria più colpita, con perdite totali vicine ai 5 mila miliardi di dollari nel solo 2024. Un’analisi del Centro Deloitte per i servizi finanziari, pubblicata nel maggio 2024, stima che le frodi basate su intelligenza artificiale potrebbero raggiungere i 40 mila miliardi di dollari entro il 2027. Nel Regno Unito, l’arresto di Tejay Fletcher, fondatore del sito iSpoof, ha svelato una rete di truffe che ha causato perdite per oltre 43 milioni di sterline. Il sito offriva strumenti per falsificare numeri telefonici, permettendo a migliaia di truffatori di operare indisturbati.

Già nel 2019, il Wall Street Journal aveva riportato un caso in cui un dirigente britannico aveva trasferito 220 mila euro, convinto di parlare con il proprio superiore, vittima di una voce clonata. Queste frodi, benché raramente riportate dai media, sono probabilmente sottostimate: le aziende evitano di denunciarle per timore di danni reputazionali. Le perdite, spesso registrate come truffe di bonifico, ammontano a miliardi di dollari ogni anno.

La vergogna, soprattutto tra gli anziani, porta molte vittime a non denunciare. Il 23 aprile, il direttore dell’Fbi, Kash Patel, ha invitato i cittadini a segnalare subito qualsiasi sospetto, per aiutare le autorità a prevenire danni maggiori.

Organizzazioni criminali strutturate, come la triade cinese 14K, hanno installato centri di cyberscam nel Sud-Est asiatico, puntando a bersagli statunitensi. Questi gruppi prediligono campagne su larga scala, spesso concentrate in momenti strategici come le festività, quando le vittime sono più vulnerabili. Sebbene gli anziani siano tra i più colpiti, la selezione è casuale. L’inganno si fa ancora più pericoloso quando viene utilizzata la voce di una persona cara.

La minaccia riguarda anche il mondo dei media. L’11 aprile, Press Gazette ha rivelato che testate come Yahoo News hanno ritirato articoli per il sospetto che gli esperti intervistati fossero bot vocali generati da intelligenza artificiale. Una volta, una telefonata bastava per verificare l’identità di una fonte. Oggi, anche video e audio possono essere falsificati. Sebbene i software vocali siano ancora imperfetti, privi di pause naturali e intonazioni autentiche, è solo questione di tempo prima che raggiungano un realismo indistinguibile dall’originale.

Nel settembre 2024, Starling Bank ha pubblicato un video con l’attore James Nesbitt, che avverte sull’aumento delle frodi vocali e suggerisce l’uso di una frase segreta condivisa in famiglia per verificare l’identità del chiamante. «Se qualcuno si spaccia per tuo figlio e chiede denaro, chiedi la frase concordata», spiegano gli esperti. Una misura semplice, ma in grado di mettere in difficoltà l’impostore.

Resta il problema di fondo: nessuno è preparato a dubitare della voce di una persona amata. Secondo gli esperti, le banche dovrebbero adottare sistemi di doppia verifica, come richiamare numeri noti prima di autorizzare transazioni rilevanti. Le compagnie telefoniche statunitensi devono completare l’adozione del protocollo Stir/Shaken, utile per autenticare i chiamanti e bloccare numeri contraffatti. Intanto, i reparti di sicurezza informatica possono rafforzare le difese con simulazioni, software di rilevamento vocale e avvisi nei canali di contatto con i clienti, in modo da rallentare i truffatori proprio nel momento decisivo.

Consigliati