Gefälschte NacktbilderWie könnte ein besserer Schutz vor Deepfake-Pornos aussehen?

Lesezeit 4 Minuten
Eine künstlerische Darstellung zeigt ein Liebespärchen, das Masken trägt – als Symbol für Deep Fake-Videos, in denen Gesichter auf fremde Körper montiert werden.

Eine künstlerische Darstellung zeigt ein Liebespärchen, das Masken trägt – als Symbol für Deep Fake-Videos, in denen Gesichter auf fremde Körper montiert werden.

Mit wenigen Klicks ist es heute möglich, Gesichter in Fotos und Videos auszutauschen. Die Technik wird vor allem dazu missbraucht, um Bilder von Frauen gegen deren Willen in pornografische Darstellungen einzubauen. Eine Petition fordert nun neue Gesetze dagegen.

Früher versuchten Paparazzis, heimlich Nacktbilder von Prominenten zu schießen oder zu stehlen – heute ist das gar nicht mehr nötig. Ein einfaches Foto ist alles, was man braucht, um mit Apps täuschend echte Pornografie von einer beliebigen Person zu erzeugen. Deepfakes werden diese, durch künstliche Intelligenz erzeugten Bilder genannt.

Die Apps, die dafür missbraucht werden können, kommen zunächst als harmlose Spielerei daher. Sie werden damit beworben, dass man damit eigene Bilder bearbeiten kann. Genutzt werden sie aber in der Regel für andere Zwecke: Laut einer Schätzung des Unternehmens „Sensity AI“ sind 90 bis 95 Prozent aller zirkulierenden Deepfakes Pornografie, die ohne Einvernehmen der Betroffenen erstellt wurde. Die Opfer seien in etwa 90 Prozent der Fälle Frauen, häufig solche, die in der Öffentlichkeit stehen, wie Politikerinnen, Prominente und Influencerinnen.

„Ich habe es satt, diese Erniedrigungen immer wieder sehen zu müssen“

Einige von ihnen gehen nun dagegen vor. So hat die Youtuberin Jasmin Sibel dem Thema einen eigenen Videobeitrag in ihrem Kanal „Jasmin Gnu“ gewidmet. Darin deckte sie auf, wie Bilder von ihr und anderen – teils minderjährigen – Social-Media-Stars in Reddit Foren sexualisiert, erniedrigend kommentiert und zum Erstellen von Deepfake-Nacktbildern oder Filmen genutzt werden. Das Material wird dort sogar zum Verkauf angeboten.

Mithilfe einer Hackerin hatte Sibel die Identität einiger Täter aufgedeckt und außerdem einen Anwalt beauftragt, um rechtliche Schritte einzuleiten. „Ich habe es satt, diese Erniedrigungen von so vieler meiner Kolleginnen immer und immer wieder sehen zu müssen“, begründete die Youtuberin im Video ihren Schritt. Sie rief außerdem dazu auf, entsprechende Inhalte zu melden und zur Anzeige zu bringen.

Petition fordert mehr Schutz

Die Moderatorin und Schauspielerin Collien Ulmen-Fernandes gehört ebenfalls zu den Betroffenen, im Netz wurden Bilder von ihr in pornografische Inhalte montiert. „Ich sehe darin eine massive Form der sexualisierten Gewalt“, so Ulmen-Fernandes im Interview mit dem RedaktionsnetzwerkDeutschland. Sie habe sich einen Anwalt genommen und versucht, die Bilder aus dem Netz zu bekommen. Dies sei bei einigen Bildern gelungen, aber nicht bei allen. „Und es war sehr mühsam und hat mich viel Geld gekostet – nicht jeder kann sich das leisten. Man ist durch die aktuelle Gesetzeslage einfach nicht ausreichend geschützt“, so Ulmen-Fernandes.

Sie engagiert sich nun für einen besseren Schutz betroffener Frauen und Mädchen. Ulmen-Fernandes unterstützt eine Petition der Organisation „Hate Aid“, die Beratung und rechtliche Unterstützung bei digitaler Gewalt bietet. Die Schauspielerin war dabei, als die Petition mit fast 77.000 Unterschriften vor wenigen Tagen an das Bundesministerium für Digitales und Verkehr übergeben wurde. Es wird darin unter anderem gefordert, die Gesetze so anzupassen, dass sie wirksam vor Deepfake-Pornografie schützen.

Mit Google weiter auffindbar

Josephine Ballon, die Geschäftsführerin von „Hate Aid“, erklärt, warum die Rechtslage derzeit unzureichend ist: Möglich sei zwar, das Material bei der entsprechenden Plattform zu melden, um es entfernen zu lassen. „Wenn es eine kleine Pornoplattform mit Sitz im Ausland ist, könnte es aber bereits schwierig werden, die Verantwortlichen zu kontaktieren“, sagt Ballon. Sollte der Urheber bekannt sein, könne man auch auf dem zivilrechtlichen Weg auf Unterlassung der Verbreitung klagen.

Einmal im Netz könnten Inhalte aber trotzdem immer wieder auftauchen oder seien über die Google-Bildersuche auffindbar, teils ohne menschliches Zutun. Opfer müssten mit der ständigen Angst leben, dass die Bilder von Arbeitgebenden, fremden Menschen und potentiellen neuen Partnern oder Partnerinnen im Internet gefunden werden. „Für die Betroffenen kann das zur lebenslangen Katastrophe werden“, sagt Ballon.

Wichtig seien zudem auch Möglichkeiten zur Strafverfolgung, die aber bisher kaum existieren oder greifen. Betroffene könnten jederzeit Anzeige erstatten, es gibt aber keinen eigenständigen Paragraphen, der das Erstellen und Verbreiten von Deepfake-Pornografie verbietet. Die Staatsanwaltschaft sehe darin in der Regel keinen echten Straftatbestand sondern allenfalls eine Verletzung der Rechte am eigenen Bild. Anstatt sich auf die Suche nach den Tätern oder Täterinnen zu machen, verweise sie die Betroffenen dann meist auf den Privatklageweg.

Auch Juristinnen für Gesetzesänderung

Das heißt: Diese müssen sich selbst einen Anwalt oder eine Anwältin nehmen, was langwierig sein kann und Kostenrisiken birgt. „Das macht so gut wie niemand“, sagt Ballon. Womöglich müsse ein neuer Straftatbestand geschaffen werden, um effektiver gegen Deepfake- Pornografie vorgehen zu können und mögliche Täter und Täterinnen abzuschrecken. Ähnliches hat auch bereits der Deutsche Juristinnenbund empfohlen, der ebenfalls „Lücken im strafrechtlichen Schutz vor bildbasierter sexualisierter Gewalt“ sieht.

„Hate Aid“ fordert in seiner Petition außerdem, dass App Stores keine Apps mehr anbieten sollen, die die ungewollte Manipulation von Nacktbildern ermöglichen. Das bedeute nicht, dass dann niemand mehr Bilder bearbeiten kann. „In bezahlpflichtigen Angeboten wie Photo Apps und in einigen Apps gibt es bereits Sicherheitsvorkehrungen, die zum Beispiel verhindern, dass Hardcorepornos für solche Zwecke hochgeladen werden können. Bisher ist das auf freiwillig Basis, es müsste aber zum Standard werden“, sagt Ballon.

Nicht zuletzt müsse schon die Erstellung der pornografischen Deepfake-Inhalte verboten werden, auch ohne deren Verbreitung, sagt sie: „Ich zumindest möchte nicht, dass jemand so etwas mit meinem Gesicht macht.“


Dieser Text gehört zur Wochenend-Edition auf ksta.de. Entdecken Sie weitere spannende Artikel auf www.ksta.de/wochenende.

KStA abonnieren