Marian Härtel
Filter nach benutzerdefiniertem Beitragstyp
Beiträge
Wissensdatenbank
Seiten
Filter by Kategorien
Abmahnung
Arbeitsrecht
Blockchain und Web Recht
Datenschutzrecht
Esport
Esport Business
Esport und Politik
EU-Recht
Gesellschaftsrecht
Intern
Jugendschutzrecht
Onlinehandel
Recht im Internet
Recht und Computerspiele
Recht und Esport
Sonstiges
Steuerrecht
Unkategorisiert
Urheberrecht
Wettbewerbsrecht
Youtube-Video
Einfach anrufen!

03322 5078053

Deepfakes: Eine juristische Betrachtung

Was sind Deepfakes?

Deepfakes sind von Computern erstellte Fälschungen, die durch die Technik des “Deep Learning” und künstliche neuronale Netzwerke erzeugt werden. Sie sind so realistisch, dass sie kaum noch von echten Videos oder Bildern zu unterscheiden sind. Deepfakes können dazu genutzt werden, Fake News zu verbreiten, Betrug zu ermöglichen, Identitätsdiebstahl zu begehen und Persönlichkeitsrechte zu verletzen.

Die Software, die zur Erstellung von Deepfakes verwendet wird, lernt charakteristische Merkmale einer Person aus vorhandenen Daten, wie die Form der Nase oder die Position der Grübchen. Anschließend können diese erlernten Merkmale mit denen einer in einem Video bereits vorhandenen Person ausgetauscht werden. Dieser Prozess wird durch fortschrittliche Algorithmen und eine große Menge an Daten ermöglicht, die das neuronale Netzwerk trainieren.

Die Technologie ist mittlerweile so weit fortgeschritten, dass Einzelpersonen ohne großen Aufwand, Kosten und Erfahrung erschreckend echt wirkende Videos am heimischen Computer herstellen können. Dies hat dazu geführt, dass Deepfakes nicht mehr nur von Experten erstellt werden können, sondern auch von Laien, die Zugang zu den entsprechenden Tools haben.

Die Entwicklung und Namensgebung von Deepfakes geht auf einen Nutzer von Reddit zurück, der im Herbst 2017 mehrere Videos veröffentlichte, in denen die Gesichter von weiblichen Prominenten in pornographische Videos transferiert wurden. Die Software, die dieser Nutzer dafür verwendet hat, ist mittlerweile unter der Bezeichnung FakeApp frei im Internet verfügbar.

In jüngster Zeit hat die automatisierte Erstellung von Bildern und Videos von Prominenten, einschließlich der Generierung von Sprachausgabe, durch aktuelle KI-SaaS (Software as a Service) die Relevanz von Deepfakes erneut in den Vordergrund gerückt. Diese Dienste nutzen fortschrittliche KI-Technologien, um realistische Bilder, Videos und Audiodateien zu erstellen, die oft kaum von echten zu unterscheiden sind. Sie haben die Erstellung von Deepfakes demokratisiert und zugänglicher gemacht, was sowohl positive als auch negative Auswirkungen hat. Auf der positiven Seite können Künstler und Content-Ersteller diese Technologien nutzen, um einzigartige und kreative Werke zu schaffen. Auf der negativen Seite können sie jedoch auch für schädliche Zwecke missbraucht werden, wie zum Beispiel für die Verbreitung von Desinformation oder für Identitätsdiebstahl. Es ist daher von entscheidender Bedeutung, dass wir uns der potenziellen Risiken bewusst sind und geeignete Maßnahmen ergreifen, um Missbrauch zu verhindern.

Juristische Probleme und Konsequenzen

Persönlichkeitsrechtsverletzungen

Die Mehrheit der heute im Internet verfügbaren Deepfakes sind pornografischer Natur. Die Publikation solcher manipulierten Videos kann zu schwerwiegenden Persönlichkeitsverletzungen führen, insbesondere wenn das Erscheinungsbild einer Person nachgeahmt wird. Diese Art von Deepfakes kann nicht nur das Opfer emotional und psychologisch belasten, sondern auch seinen Ruf und seine Karriere schädigen.

Mit fortschreitender Technik wird diese Problematik immer relevanter, da immer weniger Bilder benötigt werden, um eine überzeugende Imitation zu erstellen. Dies bedeutet, dass die Hürden für die Erstellung von Deepfakes immer niedriger werden und es immer wahrscheinlicher wird, dass Personen ohne ihr Wissen und ihre Zustimmung in solchen Videos dargestellt werden.

Es ist unklar, ob bereits die Herstellung oder erst die Verbreitung eines Deepfakes ohne die Zustimmung der abgebildeten Person rechtlich unzulässig ist. Dies ist ein Bereich, in dem die Gesetzgebung noch nicht klar definiert ist und der weiterer Klärung bedarf. Es besteht auch Klärungsbedarf hinsichtlich der Beziehung zwischen dem Allgemeinen Persönlichkeitsrecht, den Rechten aus dem Kunsturheberrechtsgesetz (KUG) und der Datenschutzgrundverordnung (DSGVO).

Das KUG könnte über die Öffnungsklausel des Art. 85 DSGVO anwendbar sein, dann stellt sich die Frage, ob es sich bei Deepfakes um Bildnisse im Sinne des § 22 KUG handelt. Sollte dies der Fall sein, könnten Personen, die ohne ihre Zustimmung in Deepfakes dargestellt werden, möglicherweise rechtliche Schritte einleiten und Abmahnungen aussprechen.

Ein weiteres Risiko besteht für Presseportale und andere Inhaltsanbieter, die auf Falschinformationen hereinfallen könnten. In einer Zeit, in der “Fake News” immer häufiger werden, könnten Deepfakes dazu beitragen, dass Falschinformationen noch schneller und weiter verbreitet werden. Ein Beispiel dafür könnten gefälschte Dokumente sein, die an die berüchtigten “Hitlertagebücher” erinnern. Mit den heutigen technologischen Möglichkeiten könnten solche Fälschungen immer einfacher erstellt werden.

Gleichzeitig ist der Aufwand, gefälschte Bilder oder Informationen aufzuspüren, enorm. Es erfordert spezialisierte Kenntnisse und Technologien, um Deepfakes zu erkennen und zu entlarven. Dies stellt eine erhebliche Herausforderung für Medienunternehmen und andere Inhaltsanbieter dar, die sich auf die Verbreitung korrekter und verifizierter Informationen verlassen müssen.

Es ist daher von entscheidender Bedeutung, dass Medienunternehmen und andere Inhaltsanbieter über die Risiken von Deepfakes informiert sind und Maßnahmen ergreifen, um ihre Verbreitung zu verhindern. Sie müssen in der Lage sein, Fälschungen zu erkennen und zu entlarven, um das Vertrauen der Öffentlichkeit in ihre Berichterstattung zu erhalten und zu stärken.

Rufschädigung

Neben Persönlichkeitsverletzungen können Deepfakes auch eine strafrechtlich relevante Ehrverletzung auslösen. Eine Ehrverletzung kann aufgrund einer Rufschädigung des Betroffenen durch die manipulierten Aussagen oder Darstellungen entstehen oder wenn der Betroffene in unzutreffender Weise eines verwerflichen Verhaltens beschuldigt wird. Die Herstellung und Verbreitung von Deepfakes kann strafrechtliche Konsequenzen haben. In Betracht kommt unter anderem ein Schutz der persönlichen Ehre der Betroffenen über die §§ 185 ff. Strafgesetzbuch (StGB) sowie ein Schutz des höchstpersönlichen Lebensbereichs über § 201a II StGB. Bei Vermögensschäden kommt zudem Betrug nach § 263 StGB in Betracht. Aus den strafrechtlichen Nebengesetzen können § 33 KUG, §§ 106, 108 Urheberrechtsgesetz (UrhG) sowie § 42 Bundesdatenschutzgesetz (BDSG) einschlägig sein. Rechtfertigungsgründe werden bei Deepfakes regelmäßig nicht greifen. Denkbar sind höchstens enge Ausnahmen über die Kunstfreiheit des Art. 5 III S.1 Grundgesetz (GG) unter anderem für Satire.

Haftung

Es können sich auch Haftungsfragen ergeben. Wer haftet beispielsweise für Schäden aus fehlerhafter Information, wenn ein Deepfake mit falschen Angaben über ein lohnenswertes Investitionsobjekt kursiert und ein Anleger auf diese Information vertraut? Hier könnte es sich um eine Form des Betrugs handeln, bei der der Ersteller des Deepfakes zur Verantwortung gezogen werden könnte. Allerdings ist die Identifizierung und Verfolgung der Täter oft schwierig, da sie sich hinter der Anonymität des Internets verstecken können.

Ein weiteres potentielles Problem ist die Beeinflussung von Wahlen. Man stelle sich nur vor, dass am Tag vor einer Wahl ein Video viral geht, in dem ein Spitzenkandidat sich angeblich rassistisch äußert oder Drogenkonsum befürwortet oder verteufelt – je nach politischer Zugehörigkeit. Ein solches Video könnte Wähler davon abhalten, am Wahltag die Stimme wie geplant abzugeben und der Betroffene hätte kaum Zeit auf diesen Vorfall zu reagieren. Dies könnte nicht nur das Ergebnis der Wahl beeinflussen, sondern auch das Vertrauen in den demokratischen Prozess untergraben.

Schließlich könnte in Zukunft im Rahmen der Beweisaufnahme bei Gerichtsverfahren immer häufiger der Einwand erhoben werden, dass die vorgelegte Video-, Bild- oder Tondatei ein Deepfake ist. Dies könnte die Glaubwürdigkeit von Beweismitteln untergraben und die Durchführung von Gerichtsverfahren erschweren.

Datenschutz

Da in Deepfakes die Gesichter von Personen erkennbar sind, handelt es sich dabei um Personendaten. Bei pornographischen Deepfakes wird die Intimsphäre der Betroffenen tangiert, womit besonders schützenswerte Personendaten bearbeitet werden. Daher gelten die allgemeinen Bearbeitungsgrundsätze gemäß Datenschutzgesetz. Die Verwendung von Bildern oder Videos einer Person zur Erstellung von Deepfakes könnte als Verarbeitung personenbezogener Daten im Sinne der Datenschutzgrundverordnung (DSGVO) angesehen werden.

Eine weitere Schutzmöglichkeit kommt über die DSGVO in Betracht. Ein Betroffener wird also im Ergebnis regelmäßig unter anderem Unterlassung und auch Schadensersatz verlangen können. Das Problem ist im Ergebnis wie so oft die Durchsetzung der Rechtslage. Oft wird nicht bekannt sein, wer ein Deepfake erstellt und zuerst im Internet veröffentlicht hat. Selbst wenn der Verantwortliche bekannt sein sollte, sitzt dieser vielleicht im außereuropäischen Ausland und wäre damit für die deutsche Justiz nur schwer zu greifen. Dies unterstreicht die Notwendigkeit internationaler Zusammenarbeit und rechtlicher Rahmenbedingungen, um den Missbrauch von Deepfakes effektiv zu bekämpfen.

Fazit und Ausblick

Deepfakes stellen eine ernsthafte Herausforderung für das Rechtssystem dar. Sie können Persönlichkeitsrechte verletzen, Rufschädigungen verursachen und zu Haftungsfragen führen. Darüber hinaus stellen sie eine Herausforderung für den Datenschutz dar. Es ist daher wichtig, dass Gesetzgeber und Gerichte sich mit diesen Fragen auseinandersetzen und geeignete Lösungen finden. Mit fortschreitender Technik und zunehmender Verbreitung von Deepfakes wird diese Herausforderung immer dringlicher.

Die ursprünglich befürchtete Welle an politischen Deepfakes ist bisher ausgeblieben, und ob es diese Welle überhaupt noch einmal geben wird, ist unter Experten umstritten. Gefährlicher als Deepfakes selbst ist im öffentlichen Bereich vielleicht auch eher der allgemeine Vertrauensverlust, der mit dem Aufkommen dieser Fälschungen einhergeht.

Wichtiger als neue Gesetze wird es sein, dass die Authentizität von Videos, Fotos und Tonbandaufnahmen immer mehr kritisch hinterfragt wird. Der entsprechende gesamtgesellschaftliche Lernprozess muss fortgeführt werden, um die Sensibilisierung für dieses Thema weiter zu erhöhen.

In diesem Zusammenhang ist es wichtig, den kürzlich vorgeschlagenen Artificial Intelligence Act zu erwähnen, der von der Europäischen Kommission vorgeschlagen wurde. Dieser Gesetzesvorschlag zielt darauf ab, harmonisierte Regeln für die Entwicklung, den Marktzugang und die Nutzung von KI-Systemen in der EU festzulegen. Er folgt einem risikobasierten Ansatz und legt Anforderungen nur für KI-Systeme fest, die wahrscheinlich hohe Risiken für Grundrechte und Sicherheit darstellen. Weitere Informationen zu diesem Gesetz finden man  in diesem Blogpost.

Ich plane, in Kürze einen eigenen Blogpost zu veröffentlichen, der sich ausführlich mit dem Artificial Intelligence Act und seinen Auswirkungen auf Deepfakes und andere KI-bezogene Herausforderungen befasst.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Picture of Marian Härtel

Marian Härtel

Marian Härtel ist Rechtsanwalt und Unternehmer mit den Schwerpunkten Urheberrecht, Wettbewerbsrecht und IT/IP Recht und einen Fokus auf Games, Esport, Medien und Blockchain.

Telefon

03322 5078053

E-Mail

info@itmedialaw.com