...
🧑 💻 Avaliações e notícias do mundo dos programas, carros, aparelhos e computadores. Artigos sobre jogos e hobbies.

Ladrões usaram a tecnologia de voz Deepfake para realizar um assalto a banco de US $ 35 milhões

2

Elnur / Shutterstock

Os ladrões usaram a tecnologia deepfake de áudio para clonar a voz de um empresário e ordenar uma transferência de US$ 35 milhões para contas estrangeiras, de acordo com um documento judicial obtido pela Forbes. É o assalto de “voz profunda” mais bem-sucedido até agora, embora possa ser apenas uma pequena parte de uma tendência crescente.

A tecnologia Deepfake é bastante conhecida neste momento. Basicamente, as pessoas treinam uma IA para recriar o rosto de alguém, geralmente o rosto de um ator ou outro indivíduo conhecido. A IA pode então animar e colar esse rosto em um vídeo de referência, inserindo assim o assunto clonado em uma cena.

Mas você não pode simplesmente colocar alguém em um vídeo sem recriar sua voz. E é aí que os deepfakes de áudio entram em ação – você treina uma IA para replicar a voz de alguém e depois diz à IA o que dizer na voz dessa pessoa.

Uma vez que a tecnologia deepfake atinja um certo nível de realismo, os especialistas acreditam que ela conduzirá uma nova era de desinformação, assédio e reinicializações de filmes ruins. Mas parece que a tecnologia de “voz profunda” já atingiu o grande momento.

Em 2020, um gerente de banco nos Emirados Árabes Unidos recebeu um telefonema do diretor de uma grande empresa. Uma grande aquisição estava em andamento, segundo o diretor, então ele precisava que o banco autorizasse US$ 35 milhões em transferências para várias contas nos Estados Unidos. O diretor apontou para os e-mails de um advogado para confirmar a transferência e, como tudo parecia legítimo, o gerente do banco a encaminhou.

Mas o “diretor” dessa empresa era na verdade um algoritmo de “voz profunda” treinado para soar como sua vítima. Os Emirados Árabes Unidos estão agora buscando assistência dos EUA para recuperar os fundos perdidos, que foram contrabandeados para contas em todo o mundo por um grupo de 17 ou mais ladrões.

Este não é o primeiro assalto de deepfake de áudio, mas, novamente, é o mais bem-sucedido até agora. Operações semelhantes ocorrerão no futuro, provavelmente em uma escala muito maior. Então, o que as empresas e os governos podem fazer para mitigar a ameaça? Bem, é difícil dizer.

Como os deepfakes estão melhorando constantemente, eles acabarão se tornando muito convincentes para os humanos identificarem adequadamente. Mas a IA treinada pode detectar deepfakes, já que rostos e vozes clonados geralmente contêm pequenos artefatos e erros, como ruído digital ou pequenos sons que são impossíveis de serem produzidos por humanos.

Fonte: Forbes

Fonte de gravação: www.reviewgeek.com

Este site usa cookies para melhorar sua experiência. Presumiremos que você está ok com isso, mas você pode cancelar, se desejar. Aceitar Consulte Mais informação