Was sind Deepfake-Pornos?
Der Begriff „Deepfake“ setzt sich zusammen aus „Deep Learning“, einer Methode des maschinellen Lernens, und „Fake“. Gemeint sind KI-generierte Bild-, Video- oder Audioinhalte, die reale Personen bei bestimmten Handlungen oder in bestimmten Situationen zeigen, die es im echten Leben so nie gab.
Im Kontext von Pornografie bedeutet das, dass Täter öffentlich zugängliche oder privat beschaffte Fotos und Videos einer Person nehmen und diese mithilfe frei verfügbarer KI-Tools in sexuell expliziten Szenen erscheinen lassen. Die Ergebnisse wirken oft erschreckend realistisch und sind für Außenstehende kaum als gefälscht erkennbar. Genau deshalb ist die Verbreitung von Deepfake-Pornos für Betroffene oft auch besonders belastend.
Abgrenzung: Deepfake-Pornografie ist nicht dasselbe wie sogenannter Revenge Porn, also die nicht einvernehmliche Verbreitung echter intimer Aufnahmen. Beide Phänomene verletzen die Rechte der Betroffenen jedoch schwer.
Auch Audiodateien sind betroffen: KI kann inzwischen nicht nur Bilder und Videos, sondern auch Stimmen überzeugend fälschen. Sogenannte Voice-Deepfakes, zum Beispiel simulierte Telefongespräche mit sexuellem Inhalt, stellen eine eigene, noch wenig diskutierte Kategorie dar, die rechtlich ähnlich zu bewerten ist.
Wen trifft es – und woher kommt das Material?
Deepfake-Pornografie trifft überproportional häufig Frauen und Mädchen. Die Täter sind dabei oft keine anonymen Hacker. Studien und Beratungsstellen berichten übereinstimmend, dass ein großer Teil der Fälle aus dem persönlichen Umfeld der Betroffenen kommt, z. B. Ex-Partner, Mitschüler, Kollegen oder Bekannte, die Zugang zu harmlosen Fotos hatten.
Als Ausgangsmaterial genügen oft völlig unverfängliche Aufnahmen: ein Profilbild in den sozialen Medien, ein Urlaubsfoto, ein Screenshot aus einem Video-Call. Je mehr Bilder einer Person öffentlich verfügbar sind, desto leichter ist die KI-Bearbeitung für den Täter und desto realistischer ist es, Deepfake-Pornografie zu erstellen.
Deepfake-Pornografie kann daher in die Kategorie der sexualisierten Gewalt eingeordnet werden. Und diese geht meistens vom persönlichen Nahbereich der Betroffenen aus.
In manchen Fällen geht es aber auch schlicht darum, Geld zu verdienen. Teilweise werden Bilder aus öffentlichen Accounts verwendet, um ganze Deepfake-Profile mit sexualisierten Inhalten zu erstellen. Damit soll Reichweite aufgebaut und für OnlyFans-Konten oder andere bezahlpflichtige Angebote geworben werden. Die Betroffenen werden dann von den Deepfake-Profilen meist geblockt, damit sie nicht wissen, dass sie betroffen sind.
Datenhygiene – machen Sie es den Tätern schwer!
Deepfakes benötigen Ausgangsmaterial. Je weniger hochauflösende Fotos und Videos von Ihnen öffentlich zugänglich sind, desto schlechter das Ergebnis und desto geringer der Anreiz. Keine dieser Maßnahmen bietet absoluten Schutz, aber jede erhöht die Hürde:
- Social-Media-Accounts privatisieren: Öffentliche Profile sind die häufigste Quelle für Ausgangsmaterial. Wer sein Profil auf „nur Freunde“ setzt, entzieht Tätern den einfachsten Zugang.
- Fotos vor dem Teilen prüfen: Hochauflösende Porträtfotos sind besonders wertvolles Ausgangsmaterial. Überlegen Sie, welche Bilder Sie öffentlich teilen. Fragen Sie sich, ob Ihr Gesicht wirklich im Internet abgebildet sein muss.
- Gesichtserkennungs-Opt-out nutzen: Manche Plattformen ermöglichen, das automatische Tagging des eigenen Gesichts zu deaktivieren.
- Regelmäßig googeln: Suchen Sie Ihren Namen kombiniert mit Begriffen wie „Fotos“ oder „Bilder“ – am besten im Inkognito-Modus.
- Meldemöglichkeiten kennen: Google, Bing und andere Suchmaschinen bieten Formulare an, über die nicht einvernehmliche intime Inhalte aus den Suchergebnissen entfernt werden können – unabhängig davon, ob die Inhalte selbst bereits gelöscht wurden.
Ist Deepfake-Pornografie strafbar?
Auf verfassungsrechtlicher Ebene ist die Sache eindeutig: Die Intimsphäre gehört zum unantastbaren Kernbereich des allgemeinen Persönlichkeitsrechts (Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG). Zur sexuellen Selbstbestimmung gehört auch, dass nur die abgebildete Person bestimmen darf, ob sexualbezogene Inhalte verbreitet werden dürfen. Die unberechtigte Verbreitung von Deepfake-Pornografie verletzt dieses Recht auf fundamentale Weise und ist deshalb auch strafbar.
Einen eigenen Straftatbestand „Deepfake-Pornografie“ kennt das deutsche Recht bislang nicht. Das bedeutet aber nicht, dass Täter straffrei davonkommen. Je nach Einzelfall kommen mehrere Normen zur Anwendung:
- § 201a StGB: Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen: Der Paragraf schützt ausdrücklich auch vor Bildmanipulationen, die eine Person in einer geschaffenen Situation zeigen, die geeignet sind, ihr erheblichen Schaden zuzufügen.
- § 185 StGB: Beleidigung: Das Verbreiten von Deepfake-Pornos als Mittel zur Herabwürdigung einer Person erfüllt regelmäßig diesen Tatbestand.
- §§ 186, 187 StGB: Üble Nachrede und Verleumdung: Wenn durch die Inhalte der falsche Eindruck erweckt wird, die Person habe an den gezeigten pornografischen Handlungen teilgenommen.
- §§ 22, 33 KUG: Recht am eigenen Bild: Die Verbreitung von Bildnissen einer Person ohne deren Einwilligung ist grundsätzlich unzulässig. Auch Deepfakes stellen Bildnisse dar, obwohl es sich nicht um echte Bilder handelt.
Minderjährige betroffen?
Besondere Vorsicht gilt, wenn Betroffene minderjährig sind. In diesen Fällen greift neben den genannten Normen möglicherweise § 184b / § 184c StGB (Strafbarkeit von Kinder- und Jugendpornografie), was den Sachverhalt in eine andere Dimension hebt: höhere Strafrahmen, andere Zuständigkeiten, andere Dringlichkeit. Eltern betroffener Kinder oder Jugendlicher sollten sofort (auch zur Beweissicherung) die Polizei einschalten und anwaltliche Hilfe in Anspruch nehmen.
Auf EU-Ebene wird sich die Rechtslage verschärfen: Die EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt sieht vor, dass missbräuchliche Deepfakes ausdrücklich unter Strafe gestellt werden. Deutschland muss diese Richtlinie bis 2027 in nationales Recht umsetzen. Bis dahin bleibt die Strafverfolgung auf die bestehenden Normen angewiesen – was die frühe anwaltliche Einordnung des konkreten Falls umso wichtiger macht.
Sie haben pornografisches Material von Ihnen online gesehen? Melden Sie sich für schnelle Hilfe!
Welche Ansprüche haben Betroffene?
Die Veröffentlichung pornografischer Deepfake-Inhalte ist eine schwerwiegende Persönlichkeitsrechtsverletzung und löst konkrete Ansprüche aus:
Unterlassungs- und Beseitigungsanspruch (§ 1004 BGB analog i.V.m. § 823 BGB): Betroffene können verlangen, dass die Inhalte sofort entfernt und nicht erneut veröffentlicht werden. Dabei kann sowohl gegen die Täter (wenn diese bekannt sind) vorgegangen werden, als auch gegen Plattformen, auf denen die Inhalte verbreitet wurden.
Plattformen sind nach dem Digital Services Act (DSA) verpflichtet, rechtswidrige Inhalte zu löschen, sobald sie darüber in Kenntnis gesetzt wurden. Das gilt nicht nur für Instagram, TikTok und Facebook, sondern grundsätzlich auch für einschlägige Pornoplattformen. Meist reagieren die Plattformen zügig auf entsprechende Meldungen. Ansonsten können sie durch eine sogenannte „Einstweilige Verfügung“ auch gerichtlich zur Löschung gezwungen werden.
Schadensersatz und Schmerzensgeld: Schmerzensgeld wird in Deutschland nur bei besonders schwerwiegenden Persönlichkeitsrechtsverletzungen zugesprochen. Diese Voraussetzung ist aber bei Deepfake-Pornos in der Regel erfüllt. Allerdings bestehen Probleme bei der Durchsetzung, wenn die Täter nicht bekannt sind.
Auskunftsanspruch gegen Plattformen: Ist der Täter unbekannt oder anonym, können Plattformen unter bestimmten Voraussetzungen verpflichtet werden, Bestandsdaten herauszugeben – IP-Adressen, Kontonamen, Registrierungsdaten. Das ist oft der erste notwendige Schritt, bevor zivilrechtlich gegen den Täter vorgegangen werden kann. Die Plattformen weigern sich allerdings meist, entsprechende Daten herauszugeben. Auch deshalb kann sich eine Strafanzeige lohnen. Strafverfolgungsbehörden können Plattformen zur Auskunft zwingen.
Was Sie jetzt tun sollten
-
Beweise sichern – sofort und rechtssicher
Machen Sie Screenshots, bevor Inhalte gelöscht werden – aber richtig: mit vollständiger URL, sichtbarem Zeitstempel und möglichst mit den zugehörigen Metadaten. (Wie das geht, erklären wir hier.) Inhalte, die nicht dokumentiert wurden, bevor sie verschwinden, können später nicht mehr für rechtliche Schritte genutzt werden.
-
Inhalte melden
Nutzen Sie die Meldeformulare der Plattformen so präzise wie möglich, mit Verweis auf die konkrete Rechtsverletzung. Dokumentieren Sie auch die Meldung selbst (Screenshot mit Datum und Uhrzeit).
-
Rechtliche Unterstützung holen
Je früher ein Anwalt eingeschaltet wird, desto wirkungsvoller das Vorgehen: Beweise werden rechtssicher gesichert, Löschbegehren mit der nötigen rechtlichen Schärfe formuliert und, wo nötig, eine einstweilige Verfügung erwirkt – schnell, gezielt und ohne Zeitverlust durch falsche erste Schritte.
-
Ggf. psychologische Unterstützung in Anspruch nehmen
Ein Deepfake-Angriff ist ein massiver Eingriff in die persönliche Integrität. Professionelle psychologische Unterstützung ist kein Zeichen von Schwäche, sondern sie kann notwendig und hilfreich sein. Beratungsstellen für Betroffene sind oft rund um die Uhr erreichbar, so etwa das
Hilfetelefon: 116 016, anonym und kostenfrei.
Vorsicht bei der Sicherung kinderpornografischer Inhalte!
Nach § 184b StGB ist schon der bloße Besitz kinderpornografischer Inhalte strafbar. Deshalb kann auch die Speicherung zur Beweissicherung strafbar sein. Bevor Sie Inhalte speichern, sollte dringend Rücksprache mit einem Anwalt gehalten werden. Die Adressen (URL) könnten kopiert und an einen Anwalt weitergeleitet werden.
Häufig gestellte Fragen
Was versteht man unter Deepfakes?




Schreiben Sie einen Kommentar