Was sind Deepfakes?
Ein Deepfake erweckt den Eindruck, dass eine Aufnahme (Foto, Video oder Ton) „echt“ ist. In Wirklichkeit handelt es sich aber um eine mittels künstlicher Intelligenz erstellte Fälschung, die oftmals so gut gemacht ist, dass man sie (wenn überhaupt) nur erkennt, wenn man sehr aufmerksam ist.
Was unterscheidet Deepfakes von „normalen“ Fakes?
Im Ausgangspunkt kommt es zwar nicht unbedingt darauf an, mit welchen Mitteln ein Fake erstellt wurde. Denn unabhängig von der verwendeten Technik gilt für Deepfakes wie auch für anderweitige Bildmanipulationen, dass ein Betrachter nicht ohne Weiteres erkennen kann, dass es sich um eine Fälschung handelt. Auch ein tendenziöser Zusammenschnitt von Videomaterial kann einen unzutreffenden Eindruck erwecken, der mit einem Deepfake vergleichbar ist.
Gefälschte Hitler-Tagebücher
Ein bekannter Fall, bei dem es gar keine KI benötigte, um die Öffentlichkeit in die Irre zu führen, spielt im Jahr 1983. Das Magazin Stern veröffentlichte (gutgläubig) Fälschungen, die der Maler Konrad Kujau angefertigt und der Reporter Gerd Heidemann für das Magazin angekauft hatte. Der NDR hat den Skandal 40 Jahre später noch einmal eingeordnet.
Fakes hat es also auch schon früher gegeben. Die Nutzung von KI hat das Problem aber verschärft. Während täuschend echte Fälschungen früher tendenziell aufwendig herzustellen waren und man zudem spezielle Fertigkeiten benötigte, ist es mit ChatGPT, Stable Diffusion, Midjourney und anderen KI-Tools kinderleicht, täuschend echt wirkende Bilder, Videos und Töne zu erzeugen.
Was ist ein Deepfake nach der KI-Verordnung / AI-Act?
Die KI-Verordnung der EU (auch „AI-Act“ genannt) reguliert KI-Anwendungen und betrifft auch Deepfakes. Der Begriff „Deepfake“ wird in Art. 3 Nr. 60 der KI-Verordnung aufgegriffen.
KI-Verordnung definiert „Deepfake“
Im Sinne der KI-Verordnung ist ein Deepfake ein durch KI erzeugter oder manipulierter Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde.
Die Definition zeigt, dass letztlich jede wirklichkeitsnahe Darstellung als Deepfake zu behandeln ist, wenn sie durch KI erzeugt wurde. Die Fälschung muss nicht perfekt sein. Es genügt, wenn durchschnittliche Nutzer ihn möglicherweise für echt halten.
Was sind die Gefahren von Deepfakes?
Falsche Inhalte können sich, wenn sie realistisch sind, im Internet rasant verbreiten und den Betroffenen großen Schaden zufügen. Vor allem Bilder und Videos haben eine große Überzeugungskraft und eignen sich daher besonders gut, um den Ruf einer Person zu zerstören.
Gefahren von Deepfakes
- Falschbehauptungen und Verleumdung
- Deepfake-Pornos
- Politische Desinformation und Verschwörungstheorien
- Identitätsdiebstahl
- Betrug und Täuschung
- Fälschung von Beweismitteln
Für Privatpersonen besteht das größte Risiko darin, ohne ihr Wissen in kompromittierende Inhalte eingebaut zu werden. Besonders bei sogenannten Deepfake-Pornos, in denen das Gesicht einer betroffenen Person (meist sind es Frauen) auf den Körper einer fremden Darstellerin montiert wird. Die Folge: Bloßstellung, Rufschädigung, psychische Belastung – und oft eine kaum kontrollierbare Verbreitung im Netz.
Deepfake-Porno löschen lassen
Wenn pornografische Inhalte auf Plattformen auftauchen, sollten Sie schnell und gezielt handeln. Je schneller Sie eine Löschung erwirken, desto eher besteht die Möglichkeit, sie dauerhaft aus dem Internet zu entfernen. Mehr Informationen finden Sie in unserem Artikel: So können Sie Videos von Pornoseiten löschen lassen.
Auch Unternehmen geraten zunehmend ins Visier: Mit gefälschten Video- oder Audioaufnahmen von Geschäftsführern oder Mitarbeitenden lassen sich z. B. gezielt Falschinformationen streuen, die den Ruf des Unternehmens schädigen. Noch perfider ist der Einsatz von Deepfakes beim sogenannten CEO-Fraud: Hier imitieren Täter per KI die Stimme eines Vorgesetzten und veranlassen Mitarbeitende zu Überweisungen – mitunter in Millionenhöhe.
Es besteht auch eine gesamtgesellschaftliche Gefahr: Deepfakes können gezielt zur Verbreitung von Fake News und politischer Desinformation eingesetzt werden. Wenn Bürger nicht mehr sicher sein können, ob ein Vorgang wirklich stattgefunden hat, gerät das Vertrauen in Medien und demokratische Prozesse ins Wanken.
Kurz gesagt: Deepfakes untergraben unser Vertrauen in das, was wir sehen und hören. Und wer betroffen ist, braucht nicht nur schnelle technische Hilfe – sondern auch rechtlichen Schutz.
Wann sind Deepfakes illegal?
Deepfakes sind für sich genommen nicht illegal. Sie können aber geltendes Recht verletzen. Es gibt zwar kein Gesetz gegen Deepfakes, aber es gibt zahlreiche Vorschriften, die im Einzelfall anwendbar sein können.
Wird durch ein Deepfake etwa eine reale Person bloßgestellt, beleidigt oder in falschem Licht dargestellt, kann das eine Verletzung des Persönlichkeitsrechts sein. Auch das Recht am eigenen Bild wird verletzt, wenn das Gesicht einer Person ohne deren Einwilligung verwendet wird.
In manchen Fällen können Deepfakes strafbar sein. Als strafrechtliche Tatbestände kommen beispielsweise in Betracht:
- Beleidigung (§ 185 StGB)
- Verleumdung (§ 187 StGB)
- Verletzung des höchstpersönlichen Lebensbereichs (§ 201a StGB), etwa bei intimen Deepfakes
- Verstoß gegen das Recht am eigenen Bild (§ 33 KUG)
Bei Verstößen gegen das Strafrecht drohen Geldstrafen bis hin zu Freiheitsstrafen.
Deepfakes löschen lassen: So gehen Sie vor!
Wenn Sie Opfer eines Deepfakes geworden sind – sei es durch ein gefälschtes Video, ein manipuliertes Bild oder eine KI-generierte Tonaufnahme – sollten Sie schnell und strukturiert handeln. Je früher Sie aktiv werden, desto besser lassen sich Schäden begrenzen.
Sie können natürlich gegen die Personen vorgehen, die Fälschungen veröffentlichen. Das ist besonders effektiv, setzt aber voraus, dass Ihnen deren Identität bekannt ist.
Sie können sich aber auch an Plattformen wie z.B. TikTok, Facebook oder Instagram halten. Diese sind verpflichtet, rechtswidrige Inhalte zu löschen, sobald sie Kenntnis von diesen erlangen.
Plattformen müssen Deepfake-Inhalte filtern
Social-Media-Plattformen sind verpflichtet, nach einem Hinweis auf einen rechtsverletzenden Beitrag auch sinngleiche Inhalte eigenständig zu erkennen und zu sperren. Ein Prominenter hatte sich gegen Deepfake-Videos gewehrt, in denen sein Name, Gesicht und Stimme missbräuchlich verwendet wurden, um angeblich Abnehmprodukte zu bewerben. Das Oberlandesgericht Frankfurt am Main stellte klar, dass Plattformen nach einem konkreten Hinweis sinngleiche Inhalte suchen und sperren müssen. Dies gilt insbesondere, wenn der gemeldete Inhalt so genau beschrieben wurde, dass eine Rechtsverletzung leicht zu erkennen ist.
OLG Frankfurt, Beschluss vom 04.03.2025 – 16 W 10/25
Gegebenenfalls können Sie eine Strafanzeige bei der Polizei oder Staatsanwaltschaft erstatten. Dies sorgt aber nicht dafür, dass die Inhalte aus dem Netz verschwinden. Dafür müssen Sie zivilrechtlich vorgehen.
Diese Ansprüche haben Betroffene von Deepfakes
- Unterlassung und Löschung
- Richtigstellung
- Erstattung von Anwaltskosten
- Schadensersatz
Sichern Sie die Beweise: Speichern Sie zunächst Screenshots, URLs, Videodateien oder Audioaufnahmen von den rechtsverletzenden Beiträgen – idealerweise mit Datum und Uhrzeit. Nutzen Sie dafür gegebenenfalls unsere Anleitung: Screenshots rechtssicher erstellen – Checkliste für die wichtigsten Plattformen.
Legen Sie eine Strategie fest: Besprechen Sie mit einem Anwalt für Medienrecht das weitere Vorgehen. Handeln Sie nicht unüberlegt, indem Sie die Täter voreilig anschreiben oder an die Öffentlichkeit gehen. Dadurch können Sie den Schaden vergrößern.
Lassen Sie Inhalte löschen: Verlassen Sie sich nicht auf die Meldemöglichkeiten der Plattformen (z. B. Instagram, YouTube, TikTok). Dadurch verlieren Sie wertvolle Zeit. Lassen Sie sich von einem Anwalt für Medienrecht über Ihre Möglichkeiten beraten, um Bilder und Videos aus dem Internet effektiv zu entfernen.
Schreiben Sie einen Kommentar