Betrüger mit vertrauter Stimme
WIEN/LINZ. Eine neue Ära des Internetbetrugs ist angebrochen. Wer eine WhatsApp-Nachricht, eine Sprachaufnahme oder einen Videoanruf erhält, kann heutzutage nicht mehr darauf vertrauen, dass ein echter Mensch dahintersteckt. "Für den Menschen ist es oft nicht zu erkennen, dass es eine Fälschung ist", sagt Sven Kurras. Der Experte für künstliche Intelligenz (KI) demonstrierte gestern in Wien, wie "echt" solche Fake-Aufnahmen aussehen können. Kurras zeigte ein Video, in dem er über seine Arbeit sprach. "Die Wahrheit ist: Das habe ich nie gesagt." Die KI habe lediglich einen Text wiedergegeben und dafür seine Stimme und sein Gesicht verwendet. "Hier sieht man: Die Technologien werden verwendet, um Identitäten zu stehlen", sagt er.
Herausforderung für Ermittler
Gängige Praxis ist diese Art von Betrug noch nicht. "In Österreich gibt es einzelne Fälle, aber in der Masse ist die KI bisher noch nicht angekommen", sagt Manuel Scherscher, Leiter der Betrugsabteilung im Bundeskriminalamt. Internetbetrug bestimmt schon lange seine Arbeit. 27.600 derartige Delikte sind im Vorjahr angezeigt worden. Der Schaden belief sich auf rund 700 Millionen Euro, wobei die Dunkelziffer noch viel höher sein dürfte. Die Zahl der Fälle steigt von Jahr zu Jahr um rund 20 Prozent, sagt Gerald Sakoparnig, oberster Betrugsermittler im Landeskriminalamt.
Ein Grund für den rapiden Anstieg sei der stetige technologische Fortschritt, außerdem würden die Täter häufig aus dem Ausland agieren. "Das macht es uns schwer, die Straftaten zurückzuverfolgen und die Täter zu ergreifen", sagt Scherscher vom BKA. Zu den etablierten Betrugsmaschen zählen neben dem Neffentrick, falschen Polizisten, "Cold Calls" (Werbeanrufe) oder den lästigen Ping-Anrufen auch die sogenannten Phishing-Attacken. Mit diesen Tricks versuchen Kriminelle, über einen Vorwand an die Bankdaten ihrer Opfer zu kommen.
"Diese Betrugsart blüht deshalb so, weil inzwischen ganze Phishing-Bausätze im Darknet erhältlich sind, inklusive detaillierter Anleitungen", sagt Scherscher. Für ihn steht aber fest: In naher Zukunft werden auch bei uns die KI-basierten Tricks aufblühen. In anderen Teilen der Welt, etwa in Brasilien, grassieren Betrugsfälle durch künstliche Intelligenz bereits. Es gibt Fälle, in denen sich Kriminelle als Chef eines Unternehmens ausgegeben haben und so an hohe Summen gelangt sind.
Deepfakes werden diese realistisch wirkenden Fotos, Videos oder Audiodateien genannt, die mithilfe eines Algorithmus erstellt werden. Aber wie kommen die Betrüger an die Stimmen der Tochter, des Sohnes oder eines anderen vertrauten Menschen? "Es reicht schon eine Instagram-Story", sagt KI-Experte Sven Kurras. Diese "krallen" sich die Betrüger und machen damit, was sie wollen. Sogar die Sprache kann verändert werden. "Die gute Nachricht ist, dass derzeit noch keine KI Österreichisch beherrscht", sagt Kurras.
Tipp: Codewort vereinbaren
Um Deepfakes zu enttarnen, soll man genau auf Unschärfen, asynchrone Lippenbewegungen und auf das Verhalten des Gegenübers achten. Hat man während eines Live-Videocalls Verdacht geschöpft, könnte man zu gezielten Tests auffordern, wie zum Beispiel zum Singen. Empfohlen wird auch, sich vorab ein familieninternes "Codewort" auszumachen.
Der Einsatz von KI kann aber auch unbewusst und ohne böse Absichten strafbar werden. Zum Beispiel werden immer wieder Urheberrechte durch KI-Inhalte verletzt. Davor warnte Armin Kaltenegger, der im Kuratorium für Verkehrssicherheit (KFV) für rechtliche Fragen zuständig ist. "Die künstliche Intelligenz steckt noch in den Anfängen. Es geht darum, dass wir uns schon jetzt der Möglichkeiten und Gefahren bewusst sind und den Kriminellen zwei Schritte voraus sind."
Auch Gerald Sakoparnig ist sich sicher: "Das wird in Zukunft ein brennendes Thema."