...
🧑 💻 Recensioni e notizie dal mondo dei programmi, automobili, gadget e computer. Articoli su giochi e hobby.

I ladri hanno utilizzato la tecnologia vocale Deepfake per portare a termine una rapina in banca da 35 milioni di dollari

2

Elnur/Shutterstock

I ladri hanno utilizzato la tecnologia audio deepfake per clonare la voce di un uomo d’affari e ordinare un trasferimento di 35 milioni di dollari su conti esteri, secondo un documento del tribunale ottenuto da Forbes. Finora è il colpo di "voce profonda" di maggior successo, anche se potrebbe essere solo una piccola parte di una tendenza in crescita.

La tecnologia Deepfake è abbastanza nota a questo punto. Fondamentalmente, le persone addestrano un’IA per ricreare il volto di qualcuno, di solito il volto di un attore o di un altro individuo noto. L’IA può quindi animare e incollare questo viso su un video di riferimento, inserendo così il soggetto clonato in una scena.

Ma non puoi semplicemente inserire qualcuno in un video senza ricreare la sua voce. Ed è qui che entrano in gioco i deepfake audio: alleni un’IA per replicare la voce di qualcuno, quindi dici all’IA cosa dire con la voce di quella persona.

Una volta che la tecnologia deepfake raggiunge un certo livello di realismo, gli esperti ritengono che guiderà una nuova era di disinformazione, molestie e riavvii di film scadenti. Ma sembra che la tecnologia "voce profonda" abbia già raggiunto il grande successo.

Nel 2020, un dirigente di banca negli Emirati Arabi Uniti ha ricevuto una telefonata dal direttore di una grande azienda. Una grande acquisizione era in lavorazione, secondo il regista, quindi aveva bisogno che la banca autorizzasse 35 milioni di dollari in trasferimenti su diversi conti statunitensi. Il direttore ha indicato le e-mail di un avvocato per confermare il trasferimento e, poiché tutto sembrava legittimo, il direttore della banca l’ha fatto.

Ma il "direttore" di questa azienda era in realtà un algoritmo di "voce profonda" addestrato a suonare come la sua vittima. Gli Emirati Arabi Uniti stanno ora cercando l’assistenza degli Stati Uniti per recuperare i fondi perduti, che sono stati contrabbandati su conti in tutto il mondo da un gruppo di 17 o più ladri.

Questa non è la prima rapina deepfake audio, ma ancora una volta è la più riuscita finora. Operazioni simili si verificheranno in futuro, probabilmente su scala molto più ampia. Cosa possono fare le aziende e i governi per mitigare la minaccia? Beh, è ​​difficile da dire.

Poiché i deepfake migliorano costantemente, alla fine diventeranno troppo convincenti per essere identificati correttamente dagli esseri umani. Ma l’IA addestrata potrebbe essere in grado di individuare i deepfake, poiché i volti e le voci clonati spesso contengono piccoli artefatti ed errori, come rumore digitale o piccoli suoni impossibili da emettere per gli esseri umani.

Fonte: Forbes

Fonte di registrazione: www.reviewgeek.com

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More