Die Allianztochter Euler Hermes hat eine neue, perfide Betrugsmasche entdeckt: Kriminelle nutzen dazu eine Software, die die Stimme des Chefs imitiert. Eine deutsch-britische Firma wurde auf diese Art und Weise gerade um 220.000 Euro erleichtert.

In einer Firma in Großbritannien. Es ist Freitag, 16 Uhr, kurz vor Feierabend. Ein Anruf. Der Big Boss der Firma. Aus Deutschland. Mit einem dringenden Anliegen: Es müssten schnell 220.000 Euro an einen Lieferanten in Ungarn überwiesen werden, denn in Deutschland sei es schon nach 16 Uhr und die Banken würden das nicht mehr rechtzeitig überweisen. Es drohe eine Vertragsstrafe für die deutsche Mutter-Firma. Das Geld würde am Montag sofort wieder an die Firma zurück überwiesen. Die Stimme ist bekannt. Das ist der Boss. Trotzdem kommen Zweifel auf. Also wird zu Bestätigung eine Mail angefordert. Die kommt auch. Das Geld wird überwiesen.

Wochenende.

Montag. Check der Kontoauszüge. Keine Überweisung der Deutschen Mutterfirma. Auch danach nicht. Die 220.000 Euro sind futsch. Was ist passiert? Ein Versicherer findet die Antwort: Die Stimme des Unternehmenschefs wurde gefaked. Mithilfe der Software Lyrebird. Das kanadische Start-up wirbt damit, dank eines neuronalen Netzwerks jede Stimme klonen zu können. Dazu reicht bereits ein Audioschnipsel von einer Minute. Etwa aus einer Sprachnachricht.

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Alte Masche, neue Technik

Die Fake-President-Masche, also dass sich jemand als Chef ausgibt und Geld abzockt, ist übrigens nicht neu. Den Rekord hält hier der chinesisch-österreichische Luftfahrtzulieferer FAAC. Das Unternehmen wurde Weihnachten 2015 um 53 Millionen Euro erleichtert. Der Trick funktionierte ähnlich, aber statt über eine gefakte Telefonstimme lief die Kommunikation komplett per Mail. Dass jetzt Deep Fake Audios zum Einsatz kommen, ist laut des Fachblattes Versicherungsmonitor" ein neues Phänomen".

Die Versicherungsbranche, die für solche Schäden zahlen muss, fürchtet, dass das Beispiel Schule macht. Denn natürlich fallen Menschen auf eine bekannte und vertraute Stimme noch leichter rein, als auf eine gefakte E-Mail. Während es sich bei Deep Fakes bei Unternehmen um finanzielle Verluste handelt, können sie in der Politik fatale Folgen haben. Täuschend echte Sprachnachrichten mit Deep-Fake-Stimmen von Politikern könnten sich rasend schnell in sozialen Netzwerken verbreiten. Bis Deep-Fake-Experten oder spezielle Anti-Deep-Fake-Software zuverlässig einen Fake erkennt und aufdeckt, kann es längst zu spät sein.