Ungarisches Bankkonto mit der allerersten Stimme Deepfake-Betrug

Dies ist das erste Mal, dass künstliche Intelligenz generierte Stimme Deepfake in einem Betrug verwendet wurde, der sich gegen den CEO eines Unternehmens richtete, der glaubte, was es sagte, und 220.000 € überwies.

Der CEO eines namentlich nicht genannten britischen Energiekonzerns glaubte, mit seinem Chef, dem Chief Executive der deutschen Muttergesellschaft des Unternehmens, telefoniert zu habenSo, er folgte den Aufträgen ohne Frage und überwies sofort 220.000 € (ca. 243.000 $)

Bankkonto eines ungarischen Lieferanten.

Die Stimme Deepfake kannte sogar den dezenten deutschen Akzent in der Stimme des Chefs und trug die “Melodie” des Mannes. Die Geschichte wurde mit dem Wall Street Journal von Rüdiger Kirsch von der Euler Hermes Group SA, der Versicherung der Firma, geteilt Forbes Berichten zufolge.

Der Betrug ist bis jetzt nicht identifiziert Sie riefen dreimal das Unternehmen an: erstens, um die Übertragung einzuleiten, zweitens, um fälschlicherweise zu behaupten, sie sei erstattet worden, und ein drittes Mal, um eine Folgezahlung zu fordern Für den CEO war es erst das dritte, bei dem er misstrauisch wurde, als er bemerkte, dass der Anruf von einer österreichischen Telefonnummer aus getätigt worden war.

Daher schickte er keine zweite Zahlung, sondern überwies die erste bereits auf das ungarische Bankkonto, von wo aus sie sofort erfolgte

nach Mexiko gebracht und dann auf Bankkonten an anderen Standorten verteilt.

Nach Forbes„(dies ist der erste bekannte Fall, in dem eine KI-Sprachmimikry für Betrug verwendet wird, obwohl es natürlich möglich ist, dass andere Fälle dieser Art aufgetreten sind. Und alles geschah mindestens zwei Monate bevor Forscher aus Dessa, einem KI-Unternehmen mit Sitz in Toronto, eine Simulation der Stimme des beliebten Podcasters und Komikers Joe Rogan produzierten. 

Da noch keine Verdächtigen identifiziert wurden, ist wenig darüber bekannt, welche Software sie verwendeten oder wie sie die Sprachdaten sammelten, die zur Fälschung der deutschen Führungskraft erforderlich waren. Das ganze Problem zeigt jedoch deutlich, wie maschinelles Lernen als Waffe eingesetzt werden kann, wenn es in den falschen Händen ist.

Leave a Reply

Your email address will not be published. Required fields are marked *