...
🧑 💻 Recenzje i wiadomości ze świata programów, samochodów, gadżetów i komputerów. Artykuły o grach i hobby.

Złodzieje wykorzystali technologię Deepfake Voice, aby dokonać napadu na bank o wartości 35 milionów dolarów

0

Elnur / Shutterstock

Złodzieje wykorzystali technologię audio deepfake, aby sklonować głos biznesmena i zlecić przelew w wysokości 35 milionów dolarów na zagraniczne konta, jak wynika z dokumentu sądowego uzyskanego przez Forbes. To jak dotąd najbardziej udany napad na „głęboki głos", choć może to tylko niewielka część rosnącego trendu.

Technologia Deepfake jest w tym momencie dość dobrze znana. Zasadniczo ludzie trenują sztuczną inteligencję, aby odtworzyć czyjąś twarz, zwykle twarz aktora lub innej znanej osoby. Sztuczna inteligencja może następnie animować tę twarz i wkleić ją do filmu referencyjnego, wstawiając w ten sposób sklonowany obiekt do sceny.

Ale nie możesz po prostu umieścić kogoś w filmie bez odtworzenia jego głosu. I tu właśnie wchodzą w grę podróbki audio — szkolisz sztuczną inteligencję, aby naśladowała czyjś głos, a następnie mówisz sztucznej inteligencji, co ma powiedzieć głosem tej osoby.

Gdy technologia deepfake osiągnie pewien poziom realizmu, eksperci są przekonani, że zapoczątkuje nową erę dezinformacji, nękania i ponownego uruchamiania gównianych filmów. Wydaje się jednak, że technologia „głębokiego głosu” osiągnęła już wielki czas.

W 2020 roku kierownik banku w Zjednoczonych Emiratach Arabskich odebrał telefon od dyrektora dużej firmy. Według dyrektora przygotowywano duże przejęcie, więc potrzebował, aby bank autoryzował 35 milionów dolarów przelewów na kilka kont w USA. Dyrektor wskazał na maile od prawnika, aby potwierdzić przelew, a ponieważ wszystko wyglądało legalnie, kierownik banku przepuścił.

Ale „dyrektor” tej firmy był w rzeczywistości algorytmem „głębokiego głosu” wyszkolonym, by brzmieć jak jej ofiara. Zjednoczone Emiraty Arabskie szukają teraz pomocy USA w odzyskaniu utraconych środków, które zostały przemycone na konta na całym świecie przez grupę 17 lub więcej złodziei.

Nie jest to pierwszy napad na dźwięk deepfake, ale znowu jest jak dotąd najbardziej udany. Podobne operacje będą miały miejsce w przyszłości, prawdopodobnie na znacznie większą skalę. Co zatem mogą zrobić firmy i rządy, aby złagodzić zagrożenie? Cóż, trudno powiedzieć.

Ponieważ deepfake ciągle się poprawiają, w końcu staną się zbyt przekonujące, aby ludzie mogli je właściwie zidentyfikować. Jednak wyszkolona sztuczna inteligencja może być w stanie wykryć deepfake, ponieważ sklonowane twarze i głosy często zawierają drobne artefakty i błędy, takie jak szum cyfrowy lub ciche dźwięki, których ludzie nie mogą wytworzyć.

Źródło: Forbes

Źródło nagrywania: www.reviewgeek.com

Ta strona korzysta z plików cookie, aby poprawić Twoje wrażenia. Zakładamy, że nie masz nic przeciwko, ale możesz zrezygnować, jeśli chcesz. Akceptuję Więcej szczegółów