Methoden immer heimtückischerPolizei warnt vor Schockanrufen mit täuschend echten Stimmen durch KI

Lesezeit 2 Minuten
Eine Frau hält einen Telefonhörer (gestellte Aufnahme, Symbolbild).

Die Polizei warnt vor einer neuen Form von Schockanrufen mit Künstlicher Intelligenz, bei denen bekannte Stimmen höchst realistisch imitiert werden.

Die Masche ist nur schwer durchschaubar: „Verwandte“ rufen an und brauchen dringend Geld. Mit KI klingen deren Stimmen täuschend echt. 

Die Polizei warnt vor einer neuen Form von Schockanrufen mit Künstlicher Intelligenz, bei denen bekannte Stimmen höchst realistisch imitiert werden. „Die neuesten Möglichkeiten, Stimmen mit höchster Qualität nachzuahmen, wird jetzt von Kriminellen genutzt“, erklärte der stellvertretende Bundesvorsitzende der Polizeigewerkschaft, Ralf Kusterer. „Damit werden die Schockanrufe noch heimtückischer und es entwickelt sich eine neue Kriminalitätsform.“

Schockanrufe mit KI: Betrüger imitieren Stimmen von Angehörigen

Bei sogenannten Schockanrufen machen Betrüger ihre Opfer glauben, ihren Angehörigen sei etwas zugestoßen und sie bräuchten dringend Geld. „Stellen Sie sich vor, eine ihnen bestens bekannte Stimme ruft sie an“, erklärte Kusterer dazu. „Nicht etwa eine weinende Person, die im Entferntesten eine Ähnlichkeit mit jemandem haben könnte – sondern eine Stimme, die sie nicht von der ‚echten Person‘ unterscheiden können.“ Das sei eine „neue Dimension“.

Schockanrufe mit KI: Psychischer Schaden und Datendiebstahl drohen

Die Polizeigewerkschaft warnte außerdem vor möglichen Folgen derartiger Anrufe, auch wenn die Opfer nicht auf den Trick hereinfallen. „Der psychische Schaden ist oft erheblich“, erklärte sie. Zudem könnte der Anruf dazu genutzt werden, die Stimme des Angerufenen abzufangen und so weitere Schockanrufe vorzunehmen. Diese Gefahr bestehe etwa auch, wenn der Anrufer lediglich angibt, sich verwählt zu haben.

Betrüger mit Schockanrufen wiesen mittlerweile eine „hohe kriminelle Energie“ auf, erklärte die Polizeigewerkschaft. Häufig würden Telefonnummern und die Beziehungen von Opfern zuvor gezielt ausgespäht. „Alleine, dass die Täter eine Beziehung zwischen Opfern erkennen, denen man die Stimme ‚geklaut‘ hat, und einem weiteren Opfer, bei der man erfolgversprechend diese Stimme einsetzen kann, ist besorgniserregend.“

Künstliche Intelligenz ist durch den rasanten Aufstieg von Tools wie ChatGPT, DeepL oder LanguageTool immer zugänglicher geworden. Mittlerweile kann jeder Text-Bots befragen oder KI-generierte Bilder erstellen. Es scheint, dass auch Betrüger diese neue Technologie bereits in einem vermeintlichen Entführungsfall in den USA genutzt haben.

Die Stimme als Betrug: Audio-Deepfake aus Social Media Beitrag

Im Internet gibt es inzwischen zahlreiche kostenlose und kostenpflichtige Dienste, die die Erstellung von sogenannten Audio-Deepfakes ermöglichen. Mit nur wenigen Minuten Audiomaterial einer Person, etwa von einem Videobeitrag aus einem Profil in den sozialen Medien, können Betrüger überzeugende Imitationen von Stimmen erstellen und diese zur Täuschung und finanziellen Schädigung einsetzen.

Polizei: vermeintlich betrügerische Anrufe immer melden

Die Polizei rät dazu, Anrufe mit vermeintlich betrügerischer Absicht immer zu melden. „Die aktuelle Entwicklung zeigt, dass man Kriminalitätsformen nur entdecken kann, wenn man die genauen Umstände erfährt“, erklärte die Gewerkschaft. In jedem Fall sei es ratsam, sich Zeit, Tag und andere Umstände von verdächtigen Telefonaten aufzuschreiben. (est mit afp/dpa)

KStA abonnieren