...
🧑‍💻 Обзоры и новости из мира программ, авто, гаджетов и компьютеров. Статьи об играх и увлечениях.

Воры использовали голосовую технологию Deepfake, чтобы совершить ограбление банка на 35 миллионов долларов

16

Эльнур / Shutterstock

Согласно судебному документу, полученному Forbes, воры использовали технологию аудио дипфейк, чтобы клонировать голос бизнесмена и заказать перевод 35 миллионов долларов на иностранные счета. На данный момент это самое успешное ограбление с «глубоким голосом», хотя, возможно, это лишь небольшая часть растущей тенденции.

На данный момент технология Deepfake довольно хорошо известна. По сути, люди обучают ИИ воссоздавать чье-то лицо, обычно лицо актера или другого известного человека. Затем ИИ может анимировать и вставить это лицо в эталонное видео, тем самым вставив клонированный объект в сцену.

Но вы не можете просто вставить кого-то в видео, не воссоздав его голос. И вот здесь в игру вступают звуковые дипфейки — вы обучаете ИИ воспроизводить чей-то голос, а затем говорите ИИ, что сказать голосом этого человека.

Эксперты считают, что как только технология дипфейков достигнет определенного уровня реализма, она приведет к новой эре дезинформации, преследований и убогих перезапусков фильмов. Но похоже, что технология «глубокого голоса» уже достигла больших успехов.

Еще в 2020 году менеджеру банка в ОАЭ позвонил директор крупной компании. По словам директора, готовилось крупное приобретение, поэтому ему нужно было, чтобы банк санкционировал перевод 35 миллионов долларов на несколько счетов в США. Директор указал на электронные письма от юриста, чтобы подтвердить перевод, и, поскольку все выглядело законным, банковский менеджер провел его.

Но «директор» этой компании на самом деле был алгоритмом «глубокого голоса», обученным звучать как его жертва. В настоящее время ОАЭ обращаются к США за помощью в возвращении потерянных средств, которые были переправлены контрабандой на счета по всему миру группой из 17 или более воров.

Это не первое ограбление аудио дипфейка, но опять же, пока самое успешное. Подобные операции будут проводиться и в будущем, вероятно, в гораздо большем масштабе. Так что же могут сделать предприятия и правительства, чтобы смягчить угрозу? Ну, трудно сказать.

Поскольку дипфейки постоянно совершенствуются, со временем они станут слишком убедительными, чтобы люди могли их правильно идентифицировать. Но обученный ИИ может обнаруживать дипфейки, поскольку клонированные лица и голоса часто содержат небольшие артефакты и ошибки, такие как цифровой шум или небольшие звуки, которые люди не могут воспроизвести.

Источник: Форбс

Источник записи: www.reviewgeek.com

Этот веб-сайт использует файлы cookie для улучшения вашего опыта. Мы предполагаем, что вы согласны с этим, но вы можете отказаться, если хотите. Принимаю Подробнее