- Deepfakes sind durch Deep Learning erzeugte Fälschungen, die schwer von echten Videos zu unterscheiden sind.
- Die Technologie ermöglicht jedem, realistische Videos ohne große Kosten und Kenntnisse zu erstellen.
- Die Erzeugung von Deepfakes wirft juristische Fragen bezüglich Persönlichkeitsrechten und Haftung auf.
- Pornografische Deepfakes können massive Rufschädigungen und psychologische Belastungen der Opfer verursachen.
- Die DSGVO könnte bei der Erstellung von Deepfakes als Schutzmechanismus für personenbezogene Daten geltend gemacht werden.
- Die Erstellung von Deepfakes stellt Herausforderungen für Medien und das Vertrauen in Fake News dar.
- Ein gesamtgesellschaftlicher Lernprozess ist notwendig, um die Authentizität von Medieninhalten kritisch zu hinterfragen.
Was sind Deepfakes?
Deepfakes sind mittels künstlicher Intelligenz generierte Fälschungen von Bildern, Videos oder Tonaufnahmen. Grundlage der Technik ist sogenanntes Deep Learning, also das trainierte Verhalten künstlicher neuronaler Netzwerke. Diese Netzwerke analysieren und imitieren spezifische Merkmale von Personen – etwa Mimik, Stimme oder Gestik – so präzise, dass das Ergebnis kaum noch von echtem Material zu unterscheiden ist.
Durch öffentlich verfügbare Software wie „FakeApp“, „DeepFaceLab“ oder browserbasierte SaaS-Dienste ist die Erstellung solcher Inhalte mittlerweile auch für technisch weniger versierte Nutzer möglich. Die Demokratisierung dieser Technologie hat zu einem sprunghaften Anstieg von Deepfakes geführt – mit weitreichenden Implikationen für Persönlichkeitsrechte, Medienvertrauen, den Schutz geistigen Eigentums sowie die öffentliche Ordnung.
Ursprünglich populär geworden durch Deepfake-Pornografie auf Plattformen wie Reddit, haben sich die Anwendungsfelder inzwischen stark verbreitert: von gefälschten Investment-Videos über politische Manipulation bis hin zu synthetischer Audio-Simulation. Die Grenze zwischen Kunst, Satire, technologischem Fortschritt und digitalem Missbrauch wird zunehmend unklar.
Juristische Risiken und Regelungslücken
Persönlichkeitsrechtsverletzungen
Das Allgemeine Persönlichkeitsrecht, das seine Grundlage im Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG findet, schützt unter anderem das Recht am eigenen Bild und an der eigenen Darstellung. Werden Personen ohne deren Einwilligung in manipulierten Videos oder Bildern gezeigt, liegt regelmäßig ein Eingriff vor. Dies gilt insbesondere bei pornografischen Deepfakes, die die Intimsphäre verletzen und die Menschenwürde antasten.
Rechtsgrundlagen:
- § 22 Kunsturhebergesetz (KUG): Schutz vor Veröffentlichung ohne Einwilligung
- § 201a StGB: Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen
- Art. 6 DSGVO i.V.m. Art. 9 DSGVO: Verarbeitung biometrischer oder besonders sensibler Daten
Besonders problematisch: Die Herstellung solcher Inhalte ist in vielen Fällen (noch) nicht explizit verboten – nur deren Verbreitung oder gewerbliche Nutzung kann rechtlich verfolgt werden. Eine strafbewehrte Regelung bereits der Herstellung von Deepfakes wäre rechtspolitisch diskussionswürdig.
Rufschädigung und Ehrverletzung
Deepfakes können geeignet sein, die Ehre einer Person zu verletzen, insbesondere wenn diese durch manipulierte Inhalte in kompromittierender Weise dargestellt wird oder falsche Aussagen zugeschrieben bekommt.
Relevante Normen:
- §§ 185 ff. StGB (Beleidigung, üble Nachrede, Verleumdung)
- § 263 StGB bei täuschungsbedingten Vermögensschäden
- § 33 KUG, § 42 BDSG, §§ 106 ff. UrhG bei Eingriffen in urheber- oder datenschutzrechtliche Positionen
Satirische oder künstlerische Inhalte könnten unter Umständen durch Art. 5 Abs. 3 GG geschützt sein – die Rechtfertigung durch Kunstfreiheit wird aber im Einzelfall einer strengen Prüfung unterliegen und bei Täuschungsabsicht regelmäßig ausscheiden.
Haftung und Täuschungspotenzial
Deepfakes bergen ein erhebliches Haftungsrisiko. Wird etwa ein Video erstellt, das fälschlich suggeriert, ein Prominenter empfehle ein bestimmtes Finanzprodukt, kann dies zu Anlageentscheidungen führen – mit rechtlichen Folgen.
Fragen der zivilrechtlichen Haftung nach den Grundsätzen der unerlaubten Handlung (§ 823 BGB) oder aus einer mittelbaren Täuschung i.S.d. § 263 StGB stellen sich ebenso wie Beweisprobleme in zivil- oder strafrechtlichen Verfahren.
Hinzu kommt: Der Deepfake-Einwand – also die Behauptung, ein echtes Beweismittel sei manipuliert – könnte künftig verstärkt die Beweisführung vor Gericht erschweren.
Wahlbeeinflussung und demokratische Prozesse
Eine besondere Gefahr geht von Deepfakes im politischen Kontext aus. Schon ein kurzer, manipulativ eingesetzter Clip – veröffentlicht kurz vor einer Wahl – kann potenziell das Wahlverhalten beeinflussen. Diese Möglichkeit stellt das Demokratieprinzip auf eine neue Bewährungsprobe. Im Extremfall wird so das Vertrauen in demokratische Institutionen untergraben.
Eine Reaktion des Gesetzgebers könnte darin bestehen, das Strafrecht um einen Tatbestand der gezielten Wahlbeeinflussung durch synthetische Medien zu erweitern – analog zu § 108 StGB (Wahlfälschung).
Datenschutzrechtliche Bewertung
In Deepfakes werden regelmäßig biometrische Daten (Gesicht, Stimme) verarbeitet. Da es sich dabei um personenbezogene Daten i.S.d. Art. 4 Nr. 1 DSGVO handelt, ist die Erstellung und Nutzung solcher Inhalte regelmäßig an enge Voraussetzungen gebunden. Die Verarbeitung kann nur auf Basis einer der in Art. 6 oder Art. 9 DSGVO genannten Rechtsgrundlagen erfolgen.
Betroffenen stehen insbesondere zu:
- Auskunftsansprüche (Art. 15 DSGVO)
- Löschungsansprüche (Art. 17 DSGVO)
- Schadensersatzansprüche (Art. 82 DSGVO)
Ein praktisches Problem bleibt jedoch: In vielen Fällen sind Urheber und Verbreiter anonym oder im außereuropäischen Ausland ansässig. Die Durchsetzung von Rechten ist dadurch erheblich erschwert. Es bedarf daher klarer internationaler Rahmenbedingungen, idealerweise über ein multilaterales Abkommen oder die geplante KI-Verordnung auf EU-Ebene.
Medien, Plattformen und die Verantwortung Dritter
Auch Plattformbetreiber, Hosting-Dienstleister oder Medienunternehmen können in die Haftung geraten, wenn sie wissentlich oder grob fahrlässig Deepfakes verbreiten. Nach derzeitiger Rechtslage (insbesondere §§ 7–10 TMG bzw. künftig dem Digital Services Act) müssen Plattformen bei Kenntnis von rechtswidrigen Inhalten tätig werden, um Haftung zu vermeiden.
Medienunternehmen wiederum sollten – auch aus berufsrechtlichen Gründen – verstärkt in Technologien zur Deepfake-Erkennung investieren und redaktionelle Standards schärfen, um ihre Rolle als glaubwürdige Informationsquellen zu wahren.
Technische Erkennung und Regulierung
Die Entwicklung von Verfahren zur Erkennung von Deepfakes (z. B. durch Wasserzeichen, Hash-Werte oder KI-basierte Detektionssysteme) ist ebenso wichtig wie deren rechtliche Bewertung. Eine zukünftige Regulierung könnte etwa vorsehen, dass jede mit KI erzeugte oder veränderte Datei verpflichtend als solche gekennzeichnet werden muss.
Im europäischen Kontext ist hier besonders auf den Artificial Intelligence Act (AIA) zu verweisen, der einen risikobasierten Regulierungsansatz verfolgt. Deepfakes könnten unter die Kategorie „Hochrisiko-KI“ fallen, insbesondere wenn sie die öffentliche Ordnung, Wahlprozesse oder Grundrechte gefährden.
Fazit und Ausblick
Deepfakes sind weit mehr als ein technisches Phänomen. Sie betreffen zentrale rechtliche Schutzgüter wie Ehre, Privatsphäre, demokratische Teilhabe und Vermögensinteressen. Die Rechtsordnung steht vor der Herausforderung, bestehende Normen auf neue Konstellationen anzuwenden – und dort, wo nötig, nachzuschärfen.
Der gesellschaftliche Umgang mit synthetischen Medien erfordert neben juristischen Rahmenbedingungen auch Aufklärung, Medienkompetenz und technische Gegenmaßnahmen. Die Frage wird nicht nur sein, was echt ist – sondern auch, was geglaubt wird.