...
🧑 💻 Recensies en nieuws uit de wereld van programma's, auto's, gadgets en computers. Artikelen over spelletjes en hobby's.

Diebe nutzten die Deepfake-Voice-Technologie, um einen 35-Millionen-Dollar-Banküberfall zu begehen

9

Elnur / Shutterstock

Laut einem von Forbes erhaltenen Gerichtsdokument haben Diebe die Audio-Deepfake -Technologie verwendet, um die Stimme eines Geschäftsmanns zu klonen und eine Überweisung von 35 Millionen US-Dollar auf ausländische Konten anzuordnen. Es ist der bisher erfolgreichste „Deep Voice”-Überfall, obwohl es vielleicht nur ein kleiner Teil eines wachsenden Trends ist.

Die Deepfake-Technologie ist zu diesem Zeitpunkt ziemlich bekannt. Grundsätzlich trainieren Menschen eine KI, um das Gesicht einer Person nachzubilden, normalerweise das Gesicht eines Schauspielers oder einer anderen bekannten Person. Die KI kann dieses Gesicht dann animieren und in ein Referenzvideo einfügen, wodurch das geklonte Motiv in eine Szene eingefügt wird.

Aber Sie können nicht einfach jemanden in ein Video stecken, ohne seine Stimme neu zu erstellen. Und hier kommen Audio-Deepfakes ins Spiel – Sie trainieren eine KI, die Stimme einer Person zu replizieren, und sagen der KI dann, was sie mit der Stimme dieser Person sagen soll.

Sobald die Deepfake-Technologie ein gewisses Maß an Realismus erreicht, glauben Experten, dass sie eine neue Ära von Fehlinformationen, Belästigungen und beschissenen Filmneustarts einläuten wird. Aber es scheint, dass die „Deep Voice”-Technologie bereits die große Zeit erreicht hat.

Bereits im Jahr 2020 erhielt ein Bankmanager in den VAE einen Anruf vom Direktor eines großen Unternehmens. Laut dem Direktor war eine große Akquisition in Arbeit, also brauchte er die Bank, um Überweisungen in Höhe von 35 Millionen US-Dollar auf mehrere US-Konten zu genehmigen. Der Direktor wies auf E-Mails eines Anwalts hin, um die Überweisung zu bestätigen, und da alles echt aussah, stellte der Bankmanager sie durch.

Aber der „Direktor” dieser Firma war eigentlich ein „Deep Voice”-Algorithmus, der darauf trainiert war, wie sein Opfer zu klingen. Die VAE suchen nun US-Hilfe bei der Wiederbeschaffung der verlorenen Gelder, die von einer Gruppe von 17 oder mehr Dieben auf Konten rund um den Globus geschmuggelt wurden.

Dies ist nicht der erste Audio-Deepfake-Überfall, aber auch hier der bisher erfolgreichste. Ähnliche Operationen werden in Zukunft stattfinden, wahrscheinlich in viel größerem Umfang. Was können Unternehmen und Regierungen also tun, um die Bedrohung abzuschwächen? Nun, es ist schwer zu sagen.

Da sich Deepfakes ständig verbessern, werden sie irgendwann zu überzeugend, als dass Menschen sie richtig identifizieren könnten. Aber geschulte KI kann möglicherweise Deepfakes erkennen, da geklonte Gesichter und Stimmen oft kleine Artefakte und Fehler enthalten, wie digitales Rauschen oder kleine Geräusche, die für Menschen unmöglich zu erzeugen sind.

Quelle: Forbes

Aufnahmequelle: www.reviewgeek.com

Diese Website verwendet Cookies, um Ihre Erfahrung zu verbessern. Wir gehen davon aus, dass Sie damit einverstanden sind, Sie können sich jedoch abmelden, wenn Sie möchten. Annehmen Weiterlesen