...
🧑 💻 Відгуки та новини зі світу програм, автомобілів, гаджетів і комп'ютерів. Статті про ігри та хобі.

Злодії використали технологію Deepfake Voice, щоб здійснити пограбування банку на 35 мільйонів доларів

0

Ельнур / Shutterstock

Згідно з судовим документом, отриманим Forbes, злодії використали технологію аудіо-дипфейку, щоб клонувати голос бізнесмена та замовити перерахування 35 мільйонів доларів на іноземні рахунки. Поки що це найуспішніша пограбування «глибокого голосу», хоча це може бути лише невеликою частиною тенденції зростання.

На даний момент технологія Deepfake досить добре відома. По суті, люди навчають ШІ відтворювати чиєсь обличчя, як правило, обличчя актора чи іншої відомої людини. Потім ШІ може анімувати та вставити це обличчя на еталонне відео, тим самим вставляючи клонований об’єкт у сцену.

Але ви не можете просто вставити когось у відео, не відтворивши його голос. І ось тут вступають в гру аудіо-дипфейки — ви навчаєте ШІ відтворювати чийсь голос, а потім кажете ШІ, що говорити голосом цієї людини.

Як тільки технологія deepfake досягне певного рівня реалізму, експерти вважають, що вона призведе до нової ери дезінформації, переслідувань і жахливих перезавантажень фільмів. Але схоже, що технологія «глибокого голосу» вже досягла великого успіху.

Ще в 2020 році менеджеру банку в ОАЕ зателефонував директор великої компанії. За словами директора, розроблялося велике придбання, тому йому потрібно було, щоб банк дозволив переказувати 35 мільйонів доларів на кілька рахунків у США. Директор вказав на електронні листи від юриста, щоб підтвердити переказ, і оскільки все виглядало законно, менеджер банку передав це.

Але «директор» цієї компанії насправді був алгоритмом «глибокого голосу», навченим звучати як його жертва. Зараз ОАЕ звертаються за допомогою до США у поверненні втрачених коштів, які були контрабандою на рахунки по всьому світу групою з 17 або більше злодіїв.

Це не перша крадіжка аудіо-дипфейків, але знову ж таки, вона найуспішніша на сьогодні. Подібні операції відбуватимуться в майбутньому, ймовірно, у значно більших масштабах. Отже, що можуть зробити підприємства та уряди, щоб пом’якшити загрозу? Ну, важко сказати.

Оскільки дипфейки постійно вдосконалюються, вони з часом стануть занадто переконливими для людей, щоб їх правильно ідентифікувати. Але навчений AI може виявити глибокі підробки, оскільки клоновані обличчя та голоси часто містять невеликі артефакти та помилки, такі як цифровий шум або невеликі звуки, які люди не можуть вимовити.

Джерело: Forbes

Джерело запису: www.reviewgeek.com

Цей веб -сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що з цим все гаразд, але ви можете відмовитися, якщо захочете. Прийняти Читати далі