Deepfake-Pornos: Es kann jede(n) treffen

Stell dir vor, du bist gerade einmal 21 Jahre alt, und arbeitest bereits als Lehrkraft an einem Gymnasium. Du unterrichtest Englisch und Geschichte – die beiden Fächer, die dir schon als Kind am meisten Freude bereitet haben. Die Schüler:innen mögen dich, dein Job macht dir Spaß, und du hast das Gefühl, endlich deinen Platz in dieser Welt gefunden zu haben. Doch eines Morgens wachst du auf, öffnest dein Handy und entdeckst eine verstörende Nachricht: Ein Unbekannter teilt dir mit, dass anstößige Fotos und Videos von dir im Internet kursieren. Du bist schockiert – wie kann das sein? Du hast dich nie vor der Kamera ausgezogen. Es handelt sich um sogenannte ‘Deepfakes’.

‘Deepfakes’ sind täuschend echt wirkende Bilder und Videos, die mithilfe Künstlicher Intelligenz (KI) erstellt werden. Hierbei werden reale Personen virtuell in Situationen oder Handlungen gezeigt, die sie niemals tatsächlich erlebt haben. Besonders problematisch ist die Tatsache, dass diese Technologie immer häufiger verwendet wird, um Menschen (sexuell) bloßzustellen. 

Gefälschte Pornobilder und -videos sind zwar keine Neuheit doch die rasante Entwicklung von KI hat das Problem auf eine völlig neue Ebene gehoben. Bereits seit Jahren werden Schaupieler:innen, Sänger:innen und andere Personen des öffentlichen Lebens – überwiegend Frauen – mithilfe verschiedenster Technologien (z.B. Photoshop) “ausgezogen” – nach Erlaubnis fragt niemand. Damals war jedoch zumindest noch ein gewisses Maß an technischen “Know-How” erforderlich, um realistisch wirkende Fälschungen zu erstellen. 

Heute hat sich das geändert: Dank verschiedenster KI-Programme kann mittlerweile jeder Laie, der in der Lage ist, ein Smartphone oder einen Computer zu bedienen, täuschend echte Deepfakes erstellen. Diese digitalen Fälschungen sind von echten Pornos kaum mehr zu unterscheiden – eine Entwicklung, die gravierende Folgen für die Betroffenen hat. Einmal im Netz verbreitet, sind solche Videos und Bilder oft nur schwer oder gar nicht mehr zu entfernen. 

Laut Recherchen der Cybersecurity-Firma “Home Security Heroes” lag die totale Anzahl von Deepfake-Videos im Jahr 2023 bei 95.820 – ein massiver Anstieg von 550 Prozent im Vergleich zu 2019. 2024 dürfte diese Zahl wohl um ein Vielfaches weiter angestiegen sein. Besonders besorgniserregend ist dabei, dass ganze 98 Prozent dieser Videos pornografischer Natur sind. Zu 99 Prozent sind die Opfer weiblich. “Deepfake-Technologie wird als Waffe gegen Frauen eingesetzt”, erklärt Danielle Citron, Professorin für Rechtswissenschaften an der Boston University, denn auch wenn die Inhalte gefälscht sind, ändert das nichts an den realen Folgen für die Opfer: Verletzung der Privatsphäre, Demütigung, Scham, berufliche Konsequenzen, Angstzustände, Depressionen, Suizid.

Obwohl die am häufigsten geklickten Deepfake-Videos und -Bilder nach wie vor prominente Persönlichkeiten zeigen, hat sich das Problem längst auf Privatpersonen übertragen. Doch anders als bei Personen des öffentlichen Lebens stammen die manipulierten Inhalte in solchen Fällen oft nicht von Fremden, sondern von Menschen aus dem näheren Umfeld der Betroffenen. 

So erging es auch Sophie Parrish: Die 31-jährige Floristin und zweifache Mutter berichtet in einem Interview mit Channel 4 News von ihrer Erfahrung: Ein ehemaliger Freund der Familie entwendete ohne ihre Zustimmung ganz normale Fotos von ihren Social-Media-Profilen, um Nacktbilder von ihr zu erstellen. Diese Deepfake-Bilder fanden schließlich ihren Weg in eine Chatgruppe, in der gefälschte Fotos und Videos weiterer Frauen angeboten und verbreitet wurden. “Ich fühle mich schmutzig…sehr schmutzig […] Es ist, als ob Frauen keinen Wert hätten – als wären wir nur ein Stück Fleisch”, erklärt sie. 

Einigen Täter:innen geht es vor allem darum, ihre eigenen sexuellen Fantasien zu befriedigen. Andere möchten die Frauen und Mädchen aus ihrem persönlichen Umfeld erniedrigen und demütigen. Anna Lehrmann, eine Beraterin im Verein “Frauen helfen Frauen” erklärt zudem gegenüber VOLLBILD, dass Deepfakes häufig mit anderen Formen von Gewalt, wie zum Beispiel Erpressung und Drohung verbunden sind. 

Die Erstellung von Deepfake-Bildern und -Videos ist grundsätzlich nicht illegal. Bei Verbreitung könnte es sich aber um eine Verletzung des allgemeinen Persönlichkeitsrechts, des Recht am eigenen Bild, des Urheberrechts oder andere Tatbestände wie zum Beispiel Beleidigung, Verleumdung oder übler Nachrede handeln. Seit dem 1. Jänner 2024 werden Deepfake-Inhalte von der Polizei systematisch erfasst. Dies erfolgt laut dem Bundesministerium für Inneres bei der Anzeigenerstellung im elektronischen Protokollierungssystem der Polizei (PAD). 

Der Kurier gibt zudem die folgenden Tipps:

  • Beweise sichern: Auch wenn es schwerfällt, sollte man das Video- bzw. Bildmaterial speichern, Screenshots machen etc.
  • Nutzer:in blockieren (wenn möglich) 
  • Inhalte an die Plattform melden

#Deepfakes #Deepfake #KünstlicheIntelligenz #Cybermissbrauch #DeepfakePornos #Rachepornos #AgainstHumanTrafficking #GegenMenschenhandel #EndExploitation #EndTrafficking #HopeForTheFuture #Österreich