Home SignIn/Join Blogs Forums Market Messages Contact Us

“La truffa Crosetto”, cos'è il deepfake vocale utilizzato per estorcere denaro a imprenditori e vip

4 ore fa 1
ARTICLE AD BOX

Massimo Moratti, Giorgio Armani, Patrizio Bertelli. Sono solo alcuni dei personaggi famosi contattati dal falso ministro Guido Crosetto, assieme al suo staff.

Il copione era sempre lo stesso: alla vittima veniva raccontato una lunga storia su alcuni giornalisti rapiti all’estero, precisamente in Iran e Siria. La frase finale era sempre la stessa «La Repubblica le sarà grata».

A essere colpiti dalla truffa c’è anche la Banca d’Italia, il quale ha evidenziato come sia stato utilizzato il proprio nome e logo «per ottenere lo sblocco di somme precedentemente investite o richieste di somme per liberare giornalisti rapiti all'estero con la promessa di una restituzione da parte nostra».

Tutta una serie di diverse persone, con voci differenti. Ma come è stato possibile imitarle o modificarle così velocemente? Grazie a una tecnologia chiamata voice cloning, ovvero un deepfake.

Cos’è e come funzionano i deepfake?

Innanzitutto è bene spiegare cosa significa deepfake. Prima di passare alla definizione, è giusto ricordare che l’utilizzo di questa tecnologia, che sfrutta l’intelligenza artificiale, secondo l’ultimo rapporto Onifido è aumentato del 3000% dal 2022 al 2023. Non sono ancora disponibili i dati aggiornati, ma dalle prime stime i numeri potrebbero essere impressionanti. Tornando ai deepfake, si tratta di contenuti video o audio falsi ma molto realistici.

Nel caso dei video, si sceglie il filmato da caricare e si inserisce un testo che deve essere ripetuto nel filmato. In pochi minuti il gioco è fatto. Si ottiene il filmato originale, con piccole modifiche (per esempio il labiale), ma con l’audio desiderato.

Il voice cloning

Con le voci è ancora più facile. Si può sia confezionare un audio oppure attivare la modifica in tempo reale. Esistono applicazioni, sia per dispositivi mobili che sul web, che permettono di farlo facilmente. Basta inserire nel sistema alcuni audio della persona che si vuole imitare e dopo pochi minuti il server sarà in grado di farlo. Come è successo nella truffa. Questo procedimento può essere fatto da chiunque e in molti casi è anche gratuito.

Lo scontro in Senato tra Renzi e Meloni nasconde una truffa fatta con l'intelligenza artificiale

Negli ultimi anni si sta diffondendo anche la frontiera Telegram. Alcuni canali permettono di ottenere voci modificate, senza poi poter essere facilmente rintracciabili in caso di truffa, poiché la piattaforma è nota per aver spesso poco collaborato con le forze dell’ordine dei vari Paesi del mondo.

Un mezzo utilizzato al cinema

Il voice cloning non è una tecnologia nata con fini criminali. Ancora oggi viene utilizzata per i doppiaggi cinematografici (permettendo alla produzione di risparmiare molto denaro) ma anche per creare delle voci agli apparecchi utilizzati da alcune persone con certi tipi di disabilità. L’obiettivo, fin dalla sua invenzione, è stato quello di rendere più veritieri, attraverso l’intelligenza artificiale, gli audio trasmessi.

Il video che tutti i genitori dovrebbero vedere per proteggere i propri figli online e nella vita reale

I precedenti

Esistono già numerosi casi di frodi su scala internazionale: ad esempio, in Australia la voce del Premier del Queensland è stata falsificata per promuovere un ingannevole investimento in Bitcoin, inducendo decine di cittadini a cadere nella trappola.

Un altro episodio, accaduto negli Emirati Arabi, ha visto i truffatori imitare il tono e lo stile di un dirigente d'azienda, riuscendo così a sottrarre ben 51 milioni di dollari.

In Europa nel 2019, un dipendente di una società britannica ricevette una chiamata da qualcuno che si presentava come il suo capo, il quale gli ordinò di trasferire 250 mila dollari su un conto specifico. Solo dopo aver completato il bonifico si scoprì che la telefonata era stata falsificata: la voce del presunto datore di lavoro era stata interamente riprodotta tramite intelligenza artificiale.

Ciò che desta maggiore preoccupazione, però, non sono tanto questi furti milionari, quanto le frodi rivolte ai cittadini comuni, specialmente agli anziani.

Infatti, una registrazione della voce, ottenuta magari durante una conversazione in un bar o in un ristorante, potrebbe essere sfruttata per realizzare raggiri di dimensioni minori ma comunque dannosi.

Truffe online e guadagni facili, come evitare le trappole che sfruttano i video dei vip

Leggi tutto l articolo