1. Startseite
  2. >
  3. Leben
  4. >
  5. Gesellschaft: Digitale Demütigung - was tun gegen Deepfake-Pornos?

Gesellschaft Digitale Demütigung - was tun gegen Deepfake-Pornos?

Wenige Klicks, große Wirkung: Apps erlauben jedem Smartphonebesitzer, Gesichter aus harmlosen Fotos in pornografische Clips zu montieren. Betroffene und Organisationen stört vor allem ein Aspekt.

Von Valeria Nickel, dpa 22.10.2023, 09:20
Ein Mann schaut sich auf einem Smartphone eine Porno-Internetseite an (gestellte Szene).
Ein Mann schaut sich auf einem Smartphone eine Porno-Internetseite an (gestellte Szene). Marcus Brandt/dpa

Berlin - Ein Porträtfoto und ein paar Klicks reichen mittlerweile aus, damit jeder mithilfe der richtigen App der Star in einem Actionfilm wird oder sich mit neuer Haarfarbe sehen kann. Genauso geht aber auch, ein beliebiges Gesicht auf Körper in Sex-Clips oder Nacktbilder zu montieren. Deepfakes heißen diese Verfahren, mit denen digitale Medien wie Bilder, Videos und Audiodateien manipuliert werden können.

„Dass das so einer breiten Öffentlichkeit zugänglich ist, öffnet Tür und Tor für Missbrauch“, sagte Josephine Ballon von der Organisation HateAid, die sich für Betroffene von digitaler Gewalt einsetzt. Zusammen mit dem Bundesverband Frauenberatungsstellen und Frauennotrufe sowie der Organisation Anna Nackt übergab HateAid dem Digitalministerium kürzlich eine Petition mit mehr als 76 000 Unterschriften und der Forderung nach einem wirksamen Schutz vor Deepfake-Pornos.

HateAid fordert, dass es verboten wird, Technologien zur Erstellung von gefakten Nacktfotos und pornografischen Videos anzubieten. Außerdem sollen App-Stores verpflichtet werden, solche Manipulationsdienste zu sperren. Porno-Plattformen bewerben die Angebote zum Teil direkt auf ihrer Seite, berichtete Ballon. Etwa 96 Prozent der gefakten Videos im Netz machten pornografische Inhalte aus, stellte eine Studie des Forschungsunternehmens Sensity AI von 2019 fest.

Viele Prominente betroffen

„Für die Betroffenen ist das eine gravierende Situation“, sagte die HateAid-Geschäftsführerin. Ihr zufolge tauchen in vielen Deepfakes Frauen des öffentlichen Lebens auf, etwa Influencerinnen, Schauspielerinnen und Politikerinnen. „Wir sehen, dass die niedrigschwellige Zugänglichkeit dieser Angebote auch dazu führt, dass es immer häufiger Privatpersonen trifft“, ergänzte sie.

Zu den Betroffenen gehört die Moderatorin und Schauspielerin Collien Ulmen-Fernandes. „Allein, dass jemand meint, er habe mich nackt gesehen, obwohl das gar nicht mein Körper war, ist für mich schon heftig“, sagte die 42-Jährige. Außerdem könne es rufschädigend sein, wenn ihr berufliches Umfeld vermeintliche Nacktaufnahmen erhält. „Das Problem ist, dass man selbst gar nichts ändern kann, weil diese Bilder ja aus neutralem Bildmaterial erstellt werden“, erklärte sie.

Härtere Strafen gefordert

„Ich hätte niemals gedacht, dass es so etwas von mir gibt“, kommentierte die Youtuberin Mrs. Bella einen Deepfake-Porno, den sie Ende letzten Jahres von sich entdeckte und mittlerweile aus dem Netz entfernen lassen konnte. „Ich würde mir wünschen, dass das viel, viel härter bestraft wird.“

Auch HateAid fordert in der Petition, den strafrechtlichen Schutz zu verbessern. „Die Erstellung eines solchen Deepfakes von einer Frau ist aktuell per se gar nicht strafbar“, sagte Juristin Ballon. Erst die Verbreitung des Materials könne strafbar sein. Dafür bediene man sich aber an Tatbeständen, die nicht dafür gemacht seien und als Bagatelldelikte betrachtet werden. Auch der Deutsche Juristinnenbund stellte in seinem Policy Paper „Bekämpfung bildbasierter sexualisierter Gewalt“ von Juni dieses Jahres fest, dass das Thema im deutschen Strafrecht lückenhaft und unsystematisch geregelt sei.

Auch auf EU-Ebene ein Thema

Das Justizministerium hält dagegen: „Das geltende Strafrecht kann den missbräuchlichen Einsatz solcher Deepfakes in der Regel hinreichend erfassen“, teilte eine Sprecherin mit. Auf EU-Ebene werde derzeit eine Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt verhandelt, die sich auch mit der Strafbarkeit von Deepfakes befasse. Nach den Verhandlungen werde man prüfen, inwiefern noch weiterer Umsetzungsbedarf im deutschen Recht bestehe.

Zum geforderten Verbot der Deepfake-Technologie teilte ein Sprecher des Digitalministeriums mit, dass dies nicht vorgesehen sei. Das Ministerium unterstütze jedoch den Appell von HateAid an die Betreiber der Stores, den Apps zu verbieten, aktiv eine missbräuchliche Nutzung für Nacktaufnahmen zu bewerben. Allgemein verpflichte seit August der Digital Services Act der EU sehr große Plattformen - darunter Facebook, Google und Amazon - dazu, gegen illegale Inhalte, Desinformation und auch Deepfakes vorzugehen.

Der Cyberkriminologe Thomas-Gabriel Rüdiger von der Hochschule der Polizei des Landes Brandenburg beobachtet, dass Deepfake-Technologien im kriminologischen Kontext immer relevanter werden. Er hat eine weitere Idee, um dem Missbrauch der Apps vorzubeugen: „Es könnte bereits eine erste Schutzmaßnahme darstellen, dass man nur Bilder von der Person, die in dem Moment das Programm auch benutzt, einsetzen darf.“ Außerdem sei digitale Bildung ein entscheidender Faktor. „Wir müssen vor allem auch Minderjährigen vermitteln, dass prinzipiell jedes Video oder Bild im digitalen Raum ein Fake sein kann. Wir müssen die Bevölkerung generell über solche Entwicklungen aufklären. Da ist noch viel zu tun.“