Der Fall um die gegen Christian Ulmen erhobenen Vorwürfe hat eine Debatte in die breite Öffentlichkeit getragen, die Juristinnen und Juristen, Plattformregulierer und Betroffene digitaler Gewalt seit Jahren beschäftigt: Was passiert rechtlich, wenn künstliche Intelligenz dazu eingesetzt wird, eine Person in sexualisierte Inhalte hinein zu montieren, ihre Stimme zu imitieren, ihre Identität zu übernehmen oder täuschend echte pornografische Darstellungen zu verbreiten?
Die öffentliche Wucht des Falles liegt nicht nur in der Prominenz der Beteiligten. Sie liegt vor allem darin, dass viele Menschen erstmals verstehen, was KI-gestützte digitale Gewalt tatsächlich bedeutet. Es geht eben nicht um bloße „Fake-Bilder“ oder um harmlose Manipulation. Es geht um Eingriffe in Persönlichkeit, Würde, sexuelle Selbstbestimmung, soziale Reputation und wirtschaftliche Verwertungsinteressen. Es geht bei prominenten Betroffenen oft auch um das eigene Bild als Marke, um die Kommerzialisierung des eigenen Gesichts, der eigenen Stimme und des eigenen digitalen Doppelgängers.
Gerade deshalb ist der Fall ein geeigneter Ausgangspunkt für eine rechtliche Bestandsaufnahme. Nicht, um ein laufendes oder behauptetes Geschehen vorzuverurteilen. Sondern um zu klären, welche rechtlichen Instrumente das deutsche und europäische Recht bereits kennen, wo sie greifen, wo sie nur mittelbar helfen und wo Regulierungslücken bestehen.
Der Fall als Symptom: KI-gestützte sexualisierte Gewalt ist kein Randphänomen
Die Berichterstattung zum Fall hat deutlich gemacht, dass unter dem Schlagwort „digitale Vergewaltigung“ verschiedene technische und rechtliche Phänomene zusammenfallen: KI-generierte Pornografie mit dem Gesicht einer realen Person, Fake-Accounts, Identitätsmissbrauch, synthetische Stimmen, sexualisierte Kommunikation im Namen einer Betroffenen und die massenhafte Verbreitung solcher Inhalte. Medienberichte schildern dabei gerade nicht nur einen einzelnen „Clip“, sondern ein ganzes digitales Missbrauchssetting: Bild, Video, Audio, Profil, Kontext und Plattformmechanik greifen ineinander.
Juristisch ist das entscheidend. Denn das Recht bewertet nicht nur das einzelne Bild, sondern unter Umständen eine gesamte Kette von Handlungen: Herstellung, Besitz, Upload, Weiterleitung, Personalisierung, Täuschung, Zuordnung zu einer realen Person, Herabwürdigung, Kommerzialisierung und Wiederholung. Die technologische Entwicklung verschärft dieses Problem. Generative KI macht es heute trivial, aus wenigen Fotos oder Videos hochgradig realitätsnahe Inhalte zu erzeugen. Was früher nur mit erheblichem Aufwand, Spezialwissen oder Studiotechnik möglich war, gelingt inzwischen mit Consumer-Tools, offenen Modellen und automatisierten Workflows innerhalb weniger Minuten.
Hinzu kommt ein Strukturproblem digitaler Gewalt: Sie ist nicht auf den Moment der Veröffentlichung begrenzt. Ein Deepfake ist kopierbar, remasterbar, neu kombinierbar, in andere Plattformkontexte übertragbar und durch Empfehlungsalgorithmen massiv skalierbar. Für Betroffene entsteht dadurch keine punktuelle, sondern eine potenziell permanente Rechtsverletzung. Das unterscheidet KI-gestützte sexualisierte Inhalte fundamental von vielen klassischen Ehrverletzungsfällen. Die Verletzung wird nicht nur behauptet, sie wird visuell und zunehmend audiovisuell erfahrbar gemacht. Das erhöht die Eingriffsintensität in das allgemeine Persönlichkeitsrecht erheblich.
Gerade im Influencer-, Medien- und Creator-Kontext kommt ein weiterer Aspekt hinzu: Das eigene Bild ist nicht nur Ausdruck der Persönlichkeit, sondern häufig auch ein wirtschaftlich verwertbares Gut. Wer Gesicht, Stimme oder Persona einer bekannten Person für sexualisierte KI-Inhalte nutzt, verletzt deshalb nicht nur Intimsphäre und Reputation, sondern unter Umständen auch vermögenswerte Bestandteile des Persönlichkeitsrechts. Das ist aus meiner Sicht einer der zentralen Punkte, den klassische Debatten über „Fake Porn“ oft unterschätzen: Im Zeitalter digitaler Modelle und synthetischer Medien wird die Persönlichkeit selbst zur manipulierbaren Datenoberfläche.
Was ist rechtlich erlaubt, was verboten – und warum der Begriff „digitale Vergewaltigung“ dogmatisch schwierig ist
Zunächst muss man sauber zwischen politischer Sprache, medialer Einordnung und strafrechtlicher Dogmatik unterscheiden. Der Ausdruck „digitale Vergewaltigung“ oder „virtuelle Vergewaltigung“ beschreibt das Erleben und die soziale Qualität eines tiefgreifenden sexualisierten Übergriffs. Er ist aber, soweit ersichtlich, kein normierter Straftatbestand im deutschen Strafgesetzbuch. Genau das ist einer der Gründe, warum die öffentliche Debatte so aufgeladen ist: Das erlebte Unrecht ist evident, die strafrechtliche Zuordnung aber häufig zersplittert.
Das bedeutet jedoch keineswegs, dass KI-Deepfakes in sexualisiertem Kontext „legal“ wären. Im Gegenteil. Das deutsche Recht kennt bereits heute eine Reihe von Anspruchs- und Sanktionsinstrumenten, die je nach Einzelfall einschlägig sein können.
An erster Stelle steht zivilrechtlich das allgemeine Persönlichkeitsrecht in Verbindung mit dem Recht am eigenen Bild. Wer das Gesicht einer realen Person ohne Einwilligung in pornografische oder sexualisierte Inhalte montiert und diese verbreitet, greift regelmäßig schwerwiegend in deren Persönlichkeitsrecht ein. Schon unabhängig von einer strafrechtlichen Einordnung kommen Unterlassungs-, Beseitigungs-, Löschungs- und gegebenenfalls Geldentschädigungsansprüche in Betracht. Im Raum stehen zudem Ansprüche aus dem Kunsturhebergesetz, insbesondere wenn Bildnisse verbreitet oder öffentlich zur Schau gestellt werden, ohne dass eine Einwilligung vorliegt. Die dogmatische Diskussion wird künftig verstärkt darum kreisen, ob bei hochrealistischen KI-Videos nicht nur von einer Bildverwendung, sondern von der Erzeugung eines digitalen Persönlichkeitsderivats gesprochen werden muss.
Strafrechtlich ist die Lage komplexer. Denkbar sind je nach Sachverhalt etwa Beleidigungsdelikte, Verleumdung, Nachstellung, Identitätsmissbrauch im funktionalen Sinn, Verletzungen des höchstpersönlichen Lebensbereichs durch Bildaufnahmen oder andere Tatbestände, wenn zusätzliche Elemente hinzutreten. Der praktische Knackpunkt ist, dass viele Normen historisch nicht für synthetisch erzeugte Medien entworfen wurden, sondern für „echte“ Aufnahmen, klassische Veröffentlichungen oder konventionelle Belästigungssituationen. Genau daraus resultiert der in der Debatte vielfach benannte „blinde Fleck“ des Strafrechts.
Erlaubt ist demgegenüber nicht jede KI-Bearbeitung, sondern nur das, was auf einer tragfähigen Rechtsgrundlage beruht oder von der Einwilligung der betroffenen Person gedeckt ist. Wer etwa mit klarer, informierter und dokumentierter Zustimmung eines Models, einer Schauspielerin, eines Creators oder Influencers digitale Doubles, Voice-Clones oder avatarbasierte Inhalte erzeugt, bewegt sich grundsätzlich in einem anderen rechtlichen Raum. Gleiches gilt für satirische, künstlerische oder offensichtlich verfremdete Kontexte, wobei auch dort die Grenze überschritten sein kann, wenn eine schwere Persönlichkeitsverletzung vorliegt. Entscheidend ist fast immer der Kontext: Ein einvernehmlicher digitaler Zwilling für Werbung oder Content-Produktion ist rechtlich etwas völlig anderes als die nicht einvernehmliche Sexualisierung einer Person mittels KI.
Die Grenze verläuft also nicht bei der Technologie selbst, sondern bei Einwilligung, Erkennbarkeit, Zweckbindung, Eingriffsintensität, Täuschungswirkung und Verbreitungskontext.
Die eigentliche Rechtsfrage: Warum Deepfakes mehr sind als „nur“ Fälschungen
Viele juristische Einordnungen bleiben zu oberflächlich, wenn sie Deepfakes lediglich als Unterfall falscher Tatsachenbehauptungen oder manipulierter Bilder behandeln. Das wird der technologischen Qualität der Systeme nicht mehr gerecht. Moderne generative Modelle erstellen keine bloßen Photoshop-Montagen im alten Sinn. Sie erzeugen synthetische Darstellungen, die Stimme, Mimik, Blickrichtung, Licht, Bewegung, Körperlichkeit und Interaktionsdynamik so überzeugend modellieren, dass die betroffene Person als scheinbar handelndes Subjekt erscheint.
Genau darin liegt die besondere Eingriffsqualität. Das Opfer wird nicht nur gezeigt, sondern algorithmisch neu erschaffen – als sexualisiertes, entgrenztes oder vermeintlich verfügbares digitales Gegenüber. Für Betroffene ist das häufig eine Form radikaler Entfremdung: Der eigene Körper, das eigene Gesicht, die eigene Stimme und die eigene soziale Identität werden gegen sie selbst eingesetzt.
Rechtlich berührt das mehrere Ebenen zugleich.
Erstens die Ebene der Menschenwürde und sexuellen Selbstbestimmung. Auch wenn kein physischer Übergriff stattfindet, kann die Zuweisung in einen sexualisierten Kontext die personale Integrität massiv verletzen. Die juristische Sprache tut sich noch schwer damit, hierfür einen kohärenten Tatbestandsbegriff zu finden. Gesellschaftlich ist aber längst klar, dass solche Inhalte weit über bloße Peinlichkeit oder üble Nachrede hinausgehen.
Zweitens die Ebene der Daten- und Identitätsnutzung. Gesichtsmerkmale, Stimmprofile, Körperdarstellung, Bewegungsmuster und die öffentliche Persona werden zur Trainings- oder Generierungsgrundlage. Das wirft auch datenschutzrechtliche Fragen auf, insbesondere wenn biometrische oder personenbeziehbare Daten verarbeitet werden. Nicht jede öffentliche Sichtbarkeit einer Person ist eine Einwilligung in synthetische Rekonstruktion. Gerade Influencer und Prominente sind sichtbar, weil ihre Sichtbarkeit Teil ihres Berufs ist – nicht, weil ihr digitales Ebenbild gemeinfrei wäre.
Drittens die Ebene der Plattform- und Verbreitungsverantwortung. Ein Deepfake wird erst dann zum Massenschaden, wenn Plattformen, Foren, Messaging-Kanäle oder Suchmaschinen ihn auffindbar, kopierbar und persistent machen. Daher reicht der Blick auf die Herstellerseite allein nicht aus. Effektiver Rechtsschutz hängt in der Praxis oft stärker von Notice-and-Takedown (in Deutschland einstweiligen Verfügungen), schnellen Sicherungsmaßnahmen, Hash-Matching, De-Indexierung und grenzüberschreitender Kooperation ab als von der späteren gerichtlichen Hauptsacheentscheidung.
Viertens die Ebene der Vermarktung. Im Creator- und Influencer-Bereich verschwimmen private und wirtschaftliche Persönlichkeitssphäre. Wer mit KI-generierten pornografischen Clips, synthetischen Sprachprofilen oder Fake-Accounts den Eindruck erzeugt, eine konkrete Person produziere oder autorisiere sexualisierte Inhalte, kann deren Marktposition, Werbewert und Vertragsbeziehungen erheblich beschädigen. In solchen Konstellationen wird aus der Persönlichkeitsverletzung zugleich eine Störung des beruflichen und wirtschaftlichen Erscheinungsbildes.
Welche Rechtsgrundlagen heute schon greifen – und wo Deutschland erkennbar hinterherhinkt
Die deutsche Diskussion wird derzeit maßgeblich von der Frage geprägt, ob das vorhandene Recht ausreicht oder ob ein spezieller Straftatbestand für nicht einvernehmliche sexualisierte Deepfakes notwendig ist. Die Berichterstattung in Tagesschau, ZDF und BR stellt genau diese Schutzlücke in den Mittelpunkt.
Bereits heute bestehen, wie gesagt, zivilrechtliche Ansprüche. Diese sind wichtig, aber sie haben praktische Grenzen. Sie setzen Kenntnis, Ressourcen, anwaltliche Begleitung und oftmals schnelles technisches Handeln voraus. Für Privatpersonen ist das schwierig, für Betroffene massenhafter Verbreitung oft kaum zu bewältigen. Hinzu kommt, dass selbst erfolgreiche Löschungen die virale Streuung selten vollständig rückgängig machen.
Strafrechtlich fehlt in Deutschland bislang eine punktgenaue Norm, die das nicht einvernehmliche Erzeugen und Verbreiten hochrealistischer sexualisierter Deepfakes in allen relevanten Varianten eindeutig erfasst. Das führt zu Ausweichbewegungen in bestehende Tatbestände. Diese können im Einzelfall greifen, erzeugen aber Rechtsunsicherheit, Beweisprobleme und Vollzugsdefizite. Für Betroffene ist das fatal, weil die normative Botschaft unklar bleibt: Es gibt Unrecht, aber oft keinen klar sichtbaren Namen dafür.
Europarechtlich kommt zusätzliche Dynamik hinein. Der AI Act adressiert Transparenzpflichten für bestimmte KI-Systeme und Deepfake-Kontexte, ist aber kein spezialisiertes Opferschutzgesetz für sexualisierte Deepfakes. Der Digital Services Act wiederum stärkt Sorgfalts- und Meldepflichten von Plattformen und kann für Entfernung und Risikomanagement relevant sein, ersetzt aber ebenfalls kein materielles Strafrecht. Datenschutzrechtlich können DSGVO-Ansprüche, insbesondere auf Löschung und gegebenenfalls Schadensersatz, eine Rolle spielen, doch auch diese Instrumente sind nicht primär auf sexualisierte KI-Gewalt zugeschnitten.
Gerade deshalb wirkt der deutsche Rechtsrahmen derzeit fragmentiert. Er besteht aus einem Mosaik von Persönlichkeitsrecht, Bildnisschutz, Datenschutz, Plattformrecht und punktuellen Strafnormen. Aus rechtsstaatlicher Sicht ist Fragmentierung nicht per se schlecht. Aber in einem Bereich, in dem technologische Werkzeuge massenhaft, billig und hochwirksam verfügbar sind, spricht viel dafür, dass das Recht auch symbolisch und praktisch klarer werden muss.
Aus meiner Sicht wäre ein überzeugender Ansatz, die nicht einvernehmliche Herstellung und Verbreitung täuschend echter sexualisierter Deepfakes als eigenständiges Delikt oder jedenfalls als klar geregelten qualifizierten Eingriff in sexuelle Selbstbestimmung und Persönlichkeitsschutz zu erfassen. Dabei müsste die Norm technologieneutral genug formuliert sein, um auch künftige synthetische Medienformen abzudecken: Video, Bild, Audio, immersive Avatare, interaktive Agenten und hybride Content-Formen.
Was für KI, Creator Economy und digitale Modelle jetzt rechtlich mitgedacht werden muss
Wer sich mit KI auskennt, weiß: Die Debatte endet nicht beim Deepfake-Video. Wir bewegen uns auf eine Medienwelt zu, in der digitale Modelle, synthetische Avatare, Voice-Clones, AI-Agents und User-generated synthetic content Teil normaler Kommunikations- und Vermarktungsprozesse werden. Für Influencer, Schauspielerinnen, Moderatoren, Models und Creator bedeutet das, dass nicht mehr nur einzelne Inhalte geschützt werden müssen, sondern die gesamte reproduzierbare digitale Identität.
Deshalb reicht es nicht, nur auf strafrechtliche Verbote zu schauen. Unternehmen, Agenturen, Managements und Plattformen brauchen klare Governance-Strukturen.
Erstens braucht es belastbare Einwilligungsmodelle. Wenn das Gesicht, die Stimme oder der Stil einer Person mit KI reproduziert werden sollen, muss die Zustimmung granular, zweckgebunden und widerruflich geregelt sein. Ein allgemeines „Ja zur KI-Nutzung“ genügt nicht. Es muss unterschieden werden zwischen Werbung, Entertainment, Postproduktion, Synchronisation, virtuellem Merchandising, Fan-Interaktion und sexualisierbaren Risikokontexten.
Zweitens braucht es Vertragsklauseln zu digitalen Zwillingen. In Management-, Produktions-, Talent- und Influencer-Verträgen sollte ausdrücklich geregelt werden, ob und in welchem Umfang ein digitaler Zwilling erstellt werden darf, wem Trainingsdaten gehören, wer Outputs kontrolliert, welche Moderations- und Sicherheitsmechanismen gelten und wie Missbrauch verfolgt wird.
Drittens braucht es Plattform- und Brand-Schutz. Creator und prominente Personen sollten technisch aufgestellt sein, um Fakes schnell zu erkennen und takedown-fähig zu dokumentieren. Dazu gehören Monitoring, forensische Sicherung, Reverse-Image- und Clip-Recherche, Metadaten-Dokumentation, Hash-Strategien und standardisierte Notice-Prozesse. Juristisch nützt der beste Anspruch wenig, wenn er technisch zu spät durchgesetzt wird.
Viertens braucht es ein neues Verständnis von Identitätsrechten. Das klassische Recht am eigenen Bild stammt aus einer Medienwelt, in der Bilder aufgenommen, entwickelt und veröffentlicht wurden. Die KI-Welt erzeugt dagegen Identität synthetisch neu. Die Rechtsordnung muss deshalb stärker darüber nachdenken, ob Gesicht, Stimme und Persona als schützenswerte digitale Identitätsmerkmale eigenständiger und präziser gefasst werden müssen.
Gerade im Influencer-Recht wird das hochrelevant. Influencer verkaufen nicht nur Reichweite, sondern Authentizität, Wiedererkennbarkeit und Vertrauensbeziehungen. Wenn KI diese Authentizität beliebig simuliert, wird Identitätsmissbrauch nicht nur zum Persönlichkeitsproblem, sondern zum Marktproblem. Wer einen Creator deepfaked, verletzt im Zweifel nicht nur dessen Intimsphäre, sondern sabotiert seine ökonomische Integrität.
Fazit: Das Recht kennt das Unrecht – aber noch nicht immer den passenden Namen dafür
Der Fall Christian Ulmen beziehungsweise die gegen ihn erhobenen Vorwürfe haben die Debatte über KI-generierte sexualisierte Gewalt aus der Nische geholt. Die rechtliche Kernfrage ist dabei nicht, ob Betroffene tatsächlich verletzt werden. Das steht außer Zweifel. Die Kernfrage lautet vielmehr, ob unsere derzeitigen Rechtsinstrumente das Unrecht schnell, präzise und wirksam genug erfassen.
Die Antwort fällt gemischt aus. Ja, das deutsche Recht bietet bereits heute Ansatzpunkte: Persönlichkeitsrecht, Bildnisschutz, Datenschutz, Unterlassung, Löschung und je nach Konstellation auch strafrechtliche Tatbestände. Aber nein, diese Gemengelage wirkt nicht wie ein aus einem Guss geformter Schutzmechanismus. Sie ist für Betroffene schwer navigierbar, für Strafverfolger kompliziert und für Täter zu oft kalkulierbar.
Gerade bei KI-Deepfakes, synthetischer Pornografie, Voice-Cloning und plattformgestützter Identitätsausbeutung braucht es deshalb mehr als nur punktuelle Empörung. Es braucht eine dogmatisch klare, technologisch informierte und praktisch vollziehbare Antwort. Eine Antwort, die anerkennt, dass digitale Modelle keine bloße Spielerei sind, sondern Werkzeuge, mit denen Würde, Sexualität, Ruf und wirtschaftliche Identität einer Person reproduzierbar angegriffen werden können.
Die entscheidende Grenze verläuft dabei letztlich einfach: Nicht die KI ist das Problem, sondern die nicht einvernehmliche Aneignung einer Person durch KI. Wer digitale Systeme nutzt, um Menschen ohne ihre Zustimmung zu sexualisieren, zu imitieren, zu entwürdigen oder wirtschaftlich auszubeuten, überschreitet eine Grenze, die rechtlich längst relevant ist – und politisch künftig noch schärfer gezogen werden muss.