...
🧑 💻 Reseñas y noticias del mundo de los programas, coches, gadgets y ordenadores. Artículos sobre juegos y pasatiempos.

Los ladrones utilizaron la tecnología de voz Deepfake para llevar a cabo un atraco bancario de $ 35 millones

6

Elnur/Shutterstock

Los ladrones utilizaron tecnología de audio falso para clonar la voz de un hombre de negocios y ordenar una transferencia de $35 millones a cuentas extranjeras, según un documento judicial obtenido por Forbes. Es el atraco de "voz profunda" más exitoso hasta el momento, aunque puede ser solo una pequeña parte de una tendencia creciente.

La tecnología deepfake es bastante conocida en este momento. Básicamente, las personas entrenan una IA para recrear la cara de alguien, generalmente la cara de un actor u otra persona conocida. Luego, la IA puede animar y pegar esta cara en un video de referencia, insertando así el sujeto clonado en una escena.

Pero no puedes simplemente incluir a alguien en un video sin recrear su voz. Y ahí es donde entran en juego las falsificaciones profundas de audio: entrena una IA para replicar la voz de alguien y luego le dice a la IA qué decir con la voz de esa persona.

Una vez que la tecnología deepfake alcance un cierto nivel de realismo, los expertos creen que impulsará una nueva era de desinformación, acoso y reinicios de películas horribles. Pero parece que la tecnología de “voz profunda" ya ha llegado a lo grande.

En 2020, el gerente de un banco en los Emiratos Árabes Unidos recibió una llamada telefónica del director de una gran empresa. Se estaba preparando una gran adquisición, según el director, por lo que necesitaba que el banco autorizara $35 millones en transferencias a varias cuentas estadounidenses. El director señaló los correos electrónicos de un abogado para confirmar la transferencia, y como todo parecía legítimo, el gerente del banco lo hizo pasar.

Pero el "director" de esta empresa era en realidad un algoritmo de "voz profunda" entrenado para sonar como su víctima. Los Emiratos Árabes Unidos buscan ahora la ayuda de EE. UU. para recuperar los fondos perdidos, que fueron introducidos de contrabando en cuentas de todo el mundo por un grupo de 17 o más ladrones.

Este no es el primer robo de deepfake de audio, pero nuevamente, es el más exitoso hasta ahora. Operaciones similares ocurrirán en el futuro, probablemente a una escala mucho mayor. Entonces, ¿qué pueden hacer las empresas y los gobiernos para mitigar la amenaza? Bueno, es difícil de decir.

Debido a que los deepfakes están mejorando constantemente, eventualmente se volverán demasiado convincentes para que los humanos los identifiquen adecuadamente. Pero la IA entrenada puede detectar falsificaciones profundas, ya que las caras y voces clonadas a menudo contienen pequeños artefactos y errores, como ruido digital o pequeños sonidos que son imposibles de hacer para los humanos.

Fuente: Forbes

Fuente de grabación: www.reviewgeek.com

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More