🧑 💻 Critiques et nouvelles du monde des programmes, des voitures, des gadgets et des ordinateurs. Articles sur les jeux et les passe-temps.

Des voleurs ont utilisé la technologie Deepfake Voice pour réussir un braquage de banque de 35 millions de dollars

1

Elnur / Shutterstock

Des voleurs ont utilisé la technologie audio deepfake pour cloner la voix d’un homme d’affaires et ordonner un transfert de 35 millions de dollars vers des comptes étrangers, selon un document judiciaire obtenu par Forbes. C’est le braquage de "voix profonde" le plus réussi jusqu’à présent, bien qu’il ne s’agisse peut-être que d’une petite partie d’une tendance croissante.

La technologie Deepfake est assez bien connue à ce stade. Fondamentalement, les gens forment une IA pour recréer le visage de quelqu’un, généralement le visage d’un acteur ou d’un autre individu bien connu. L’IA peut alors animer et coller ce visage sur une vidéo de référence, insérant ainsi le sujet cloné dans une scène.

Mais vous ne pouvez pas simplement coller quelqu’un dans une vidéo sans recréer sa voix. Et c’est là que les deepfakes audio entrent en jeu: vous entraînez une IA à reproduire la voix de quelqu’un, puis dites à l’IA quoi dire dans la voix de cette personne.

Une fois que la technologie deepfake atteindra un certain niveau de réalisme, les experts pensent qu’elle entraînera une nouvelle ère de désinformation, de harcèlement et de redémarrages de films merdiques. Mais il semble que la technologie «voix profonde» ait déjà atteint le grand moment.

En 2020, un directeur de banque aux EAU a reçu un appel téléphonique du directeur d’une grande entreprise. Une grosse acquisition était en cours, selon le réalisateur, il avait donc besoin que la banque autorise 35 millions de dollars de virements vers plusieurs comptes américains. Le directeur a indiqué les e-mails d’un avocat pour confirmer le transfert, et comme tout semblait légitime, le directeur de la banque l’a fait passer.

Mais le "directeur" de cette entreprise était en fait un algorithme de "voix profonde" formé pour ressembler à sa victime. Les EAU demandent maintenant l’aide des États-Unis pour récupérer les fonds perdus, qui ont été passés en contrebande sur des comptes dans le monde entier par un groupe de 17 voleurs ou plus.

Ce n’est pas le premier casse audio deepfake, mais encore une fois, c’est le plus réussi à ce jour. Des opérations similaires se produiront à l’avenir, probablement à une échelle beaucoup plus grande. Alors, que peuvent faire les entreprises et les gouvernements pour atténuer la menace ? Eh bien, c’est difficile à dire.

Parce que les deepfakes s’améliorent constamment, ils finiront par devenir trop convaincants pour que les humains les identifient correctement. Mais une IA entraînée peut être en mesure de détecter les deepfakes, car les visages et les voix clonés contiennent souvent de petits artefacts et des erreurs, tels que du bruit numérique ou de petits sons impossibles à produire pour les humains.

Source: Forbes

Source d’enregistrement: www.reviewgeek.com

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More