Die rasante Entwicklung von künstlicher Intelligenz (KI) und virtuellen Technologien führt dazu, dass virtuelle Mitarbeitende und KI-Influencer zunehmend Realität werden. Unternehmen experimentieren mit digitalen Avataren als Service-Mitarbeiter, synthetischen Moderatoren in Videos und sogar vollständig KI-generierten Influencern auf Social-Media-Plattformen. Inhalte wie nachgeahmte Stimmen (Voice Cloning) oder computergenerierte Werbefiguren verwischen die Grenze zwischen Mensch und Maschine. Diese Innovationen bieten enorme Chancen – von 24/7-Verfügbarkeit über Kostenersparnis bis hin zu neuartigen Marketingstrategien – werfen jedoch auch komplexe rechtliche Fragen und ethische Grauzonen auf.
In diesem Beitrag soll eine tiefgehende juristische Analyse erfolgen, wie solche virtuellen Akteure und synthetischen Inhalte derzeit rechtlich einzuordnen sind. Der Schwerpunkt liegt auf dem Rechtsrahmen in der EU und insbesondere in Deutschland. Hierbei werden medienrechtliche Vorgaben (etwa aus Telemediengesetz und Medienstaatsvertrag), zivilrechtliche Haftungsfragen, Persönlichkeitsrechte, Markenrechte, Datenschutz und Wettbewerbsrecht beleuchtet. Zudem wird die Anwendbarkeit des kommenden EU AI Act (KI-Verordnung) diskutiert.
Darüber hinaus vergleichen wir internationale Entwicklungen in anderen Rechtsordnungen, insbesondere in China – das für den Einsatz virtueller Nachrichtensprecher und strikte Regulierung bekannt ist – sowie den USA, wo die Nutzung von Deepfakes, KI-Stimmen und digitalen Schauspielern vor allem durch bestehende Gesetze wie das Persönlichkeitsrecht und neue Einzelgesetze geregelt wird.
Abschließend widmen wir uns konkreten Anwendungsfeldern und Risiken: Etwa KI-Influencer auf TikTok und Instagram (mit Fragen der Haftung für Fehlinformationen oder Persönlichkeitsverletzungen), KI-generierter Content auf Plattformen wie OnlyFans (inklusive virtueller Modelle und synthetisch erzeugter Szenen) sowie gesellschaftsrechtlichen Fragen bei Geschäftsmodellen, die ganz auf virtuellen Figuren aufbauen. Ziel ist es, Chancen und Risiken ausgewogen darzustellen – einerseits die Möglichkeiten moderner KI-Strategien für Startups, Medienunternehmen und Agenturen aufzuzeigen, andererseits aber deutlich vor möglichen Rechtsverletzungen oder ethischen Fallstricken zu warnen.
Rechtsrahmen in der EU und Deutschland
Im europäischen und deutschen Recht existiert bereits ein Geflecht aus Regelungen, die auf virtuelle Akteure und KI-generierte Inhalte anwendbar sind – auch wenn diese oft nicht explizit für KI geschaffen wurden. In vielen Fällen werden analoge Rechtsprinzipien angewandt: Ein KI-Avatar oder ein virtueller Influencer ist kein Rechtsobjekt eigener Art, sondern seine Betreiber und Entwickler müssen die bestehenden Gesetze einhalten. Im Folgenden betrachten wir die wichtigsten Bereiche.
Medienrechtliche Vorgaben (Telemediengesetz und Medienstaatsvertrag)
Virtuelle Influencer und Moderatoren treten typischerweise auf Online-Plattformen oder Webseiten auf. Damit unterliegen sie dem Medien- und Telemedienrecht. In Deutschland regeln vor allem das Telemediengesetz (TMG) und der Medienstaatsvertrag (MStV), unter welchen Bedingungen Inhalte im Internet veröffentlicht und gekennzeichnet werden müssen.
1. Einordnung als Telemedium oder Rundfunk:
KI-generierte Inhalte im Internet – sei es ein Blogpost von einem virtuellen Mitarbeiter oder ein Video eines KI-Moderators – gelten in aller Regel als Telemedien. Telemedien sind elektronische Informations- und Kommunikationsdienste, die nicht direkt Rundfunk sind. Ein Instagram- oder TikTok-Profil eines (virtuellen) Influencers ist beispielsweise ein Telemedium. Rundfunkrechtliche Vorschriften (etwa Zulassungspflichten für Rundfunksender) kämen nur ins Spiel, wenn ein virtueller Moderator ein lineares Programm mit journalistisch-redaktionellen Inhalten anbieten würde, das einem breiten Publikum nach Sendeplan zugänglich ist. Ein 24/7-Livestream mit KI-Avatar-Nachrichtensprechern könnte theoretisch als Rundfunk eingestuft werden und eine Lizenz nach dem MStV erfordern. Die Schwelle ist aber hoch: typischerweise sind virtuelle Influencer on-demand abrufbar und nicht als vollwertige Rundfunksendung organisiert, sodass sie keiner Lizenz bedürfen. Gleichwohl überwachen die Landesmedienanstalten auch Telemedien, wenn diese medienrechtliche Pflichten verletzen.
2. Impressum und Anbieterverantwortung:
Für geschäftsmäßige, in der Regel gegen Entgelt angebotene Telemedien gilt die Impressumspflicht nach § 5 TMG. Das heißt, hinter jeder professionell betriebenen Website oder Social-Media-Präsenz (auch eines virtuellen Influencers) muss ein verantwortlicher Diensteanbieter mit Namen und Anschrift eindeutig benannt sein. Ein KI-Influencer kann nicht selbst Anbieter sein – diese Rolle erfüllt das Unternehmen oder die Person, die den Account betreibt. Ebenso verlangt § 18 MStV für journalistisch-redaktionell gestaltete Telemedien (die geeignet sind, zur Meinungsbildung beizutragen) die Angabe eines inhaltlich Verantwortlichen. Wenn also ein virtueller Nachrichtensprecher oder Blog-Autor agiert, muss im Hintergrund eine reale verantwortliche Person benannt werden, die z.B. für Rechtsverletzungen haftet. Startups, die mit scheinbar autonomen Avataren arbeiten, dürfen nicht dem Irrtum erliegen, sie könnten anonym im Hintergrund bleiben – Transparenz über den Betreiber ist gesetzlich gefordert.
3. Kennzeichnung von Werbung und kommerzieller Kommunikation:
Sowohl das TMG als auch der MStV schreiben vor, dass Werbeinhalte klar als solche erkennbar sein müssen. § 6 TMG bestimmt, dass Diensteanbieter kommerzielle Kommunikation deutlich kennzeichnen müssen und die Person oder Firma, in deren Auftrag die Werbung erfolgt, identifizierbar sein muss. Ähnlich verlangt § 8 Abs. 1 MStV, dass Werbung als solche leicht erkennbar und vom übrigen Inhalt eindeutig getrennt sein muss. Für soziale Medien bedeutet dies: Wenn ein (virtueller) Influencer in einem Post ein Produkt präsentiert und dies zu Werbezwecken für ein Unternehmen geschieht, darf der werbliche Charakter nicht verschleiert werden. Praktisch ist also eine Werbekennzeichnung nötig (z.B. mittels klarer Begriffe wie „Anzeige“ oder gängigen Hashtags wie #Werbung oder #ad). Das gilt gleichermaßen für virtuelle Influencer wie für menschliche – eine KI-Figur genießt hier keinen Sonderstatus.
Insbesondere die jüngere Rechtsprechung des Bundesgerichtshofs (BGH) und der Gesetzgeber haben Influencer-Marketing ins Visier genommen. Der BGH hat 2021 in mehreren Entscheidungen (sog. Influencer-Entscheidungen) klargestellt, unter welchen Voraussetzungen Social-Media-Posts als getarnte Werbung unlauter sind. Ergänzend wurde 2022 § 5a Abs. 4 UWG eingeführt, der ausdrücklich regelt, dass das Verschweigen des kommerziellen Zwecks einer Handlung irreführend und damit unlauter ist, sofern der kommerzielle Zweck nicht ohnehin klar erkennbar ist. Für die Praxis heißt das: Postet ein virtueller Influencer etwa ein Markenprodukt, weil der Betreiber dafür eine Gegenleistung erhält oder das eigene Image/Marke fördern will, muss der kommerzielle Zweck offen gelegt werden, es sei denn, er springt dem durchschnittlichen Nutzer sofort ins Auge. Bei rein privaten, nicht gesponserten Äußerungen (die bei einem Unternehmens-Avatar allerdings selten sind) wäre keine Kennzeichnung erforderlich. Da KI-Influencer aber meist von Unternehmen kreiert werden, um Marketing zu betreiben, wird man regelmäßig von einer Werbeabsicht ausgehen – entsprechend hoch ist die Kennzeichnungspflicht.
4. Trennungsgebot und Inszenierung:
Medienrechtlich relevant ist auch das Trennungsprinzip: Redaktionelle Inhalte und Werbung dürfen nicht vermischt werden. Virtuelle Moderatoren oder Avatare, die beispielsweise Nachrichten vorlesen, dürfen diese Nachrichten nicht subtil mit Werbung vermengen, ohne dass es gekennzeichnet ist. Gerade weil KI-Avatare täuschend echt wirken können, ist Vorsicht geboten: Ein Avatar in einem YouTube-Video, der erst sachlich informiert und dann „nebenbei“ ein Produkt lobt, kann gegen das Trennungsgebot verstoßen. Unternehmen sollten für klare optische oder inhaltliche Trennungen sorgen, etwa durch Einblendung „Werbung“ im Video, wenn der virtuelle Charakter vom Informationsmodus in den Werbemodus wechselt.
Zudem könnte ein extrem realistisch wirkender KI-Moderator, der vom Publikum für menschlich gehalten wird, Fragen der Irreführung aufwerfen – dazu später mehr beim Thema AI Act. Der Medienstaatsvertrag fordert grundsätzlich Transparenz, wer hinter einem Medium steht. In der Regel werden Nutzer annehmen, dass ein Social-Media-Profil eines attraktiven jungen Menschen auch von einem solchen realen Menschen betrieben wird. Stellt sich heraus, dass dies eine Kunstfigur ist, fühlt sich das Publikum möglicherweise getäuscht. Derzeit gibt es zwar noch keine explizite Pflicht, die Künstlichkeit einer Figur als solche zu labeln, doch dies wird künftig durch Europarecht (AI Act) relevant. Bis dahin empfiehlt es sich schon aus Vertrauenserwägungen, offenzulegen, dass es sich um eine virtuelle Person handelt – insbesondere, wenn der Avatar mit Nutzern interagiert (z.B. in Kommentaren oder Chats).
Zivilrechtliche Haftung für KI-generierte Inhalte
Ein zentrales Thema ist die Haftung für Aussagen und Handlungen eines virtuellen Charakters. Da eine KI oder ein Avatar selbst kein Rechtssubjekt ist, stellt sich die Frage: Wer haftet, wenn ein KI-Influencer etwa jemanden beleidigt, falsche Behauptungen verbreitet oder sonstige Rechtsverletzungen begeht? Im deutschen Zivilrecht lässt sich diese Frage relativ klar beantworten: Haftbar sind die dahinterstehenden natürlichen oder juristischen Personen – also typischerweise das Unternehmen, die Agentur oder Betreiber, die den KI-Avatar einsetzen.
1. Eigene Inhalte vs. Drittinhalte:
Nach deutschem Recht (und EU-Recht, z.B. E-Commerce-Richtlinie) unterscheidet man bei Online-Inhalten zwischen eigenen Inhalten und fremden Inhalten. Wer einen Inhalt selbst erstellt oder sich zu eigen macht, haftet grundsätzlich unbeschränkt für dessen Rechtmäßigkeit. Inhalte Dritter (etwa Kommentare von Nutzern) muss ein Diensteanbieter zwar nicht vorab prüfen, aber bei Hinweis auf Rechtsverstöße ggf. entfernen (Stichwort Notice-and-Takedown). Übertragen auf KI-Content: Ein virtueller Mitarbeiter, der beispielsweise autonom Texte oder Posts generiert, wird aus Sicht des Gesetzes dem Betreiber als eigener Inhalt zugerechnet, weil der Betreiber diesen Avatar als Werkzeug einsetzt, um Inhalte zu verbreiten. Es ist nicht so, dass man sich als Unternehmen darauf berufen könnte, „die KI hat das eigenmächtig gesagt, wir haben damit nichts zu tun“. Die Äußerungen des virtuellen Agenten finden ja im Interesse und im Bereich des Betreibers statt – vergleichbar mit einem menschlichen Angestellten, für dessen Äußerungen der Arbeitgeber unter Umständen auch einstehen muss (z.B. im Rahmen der Verrichtungsgehilfenhaftung nach § 831 BGB oder als eigenes Organisationsverschulden).
Zwar greift § 831 BGB (Haftung für Verrichtungsgehilfen) streng genommen nur bei menschlichen Gehilfen, doch wenn eine KI-Figur Fehler macht, wird man in der Regel eine eigene Pflichtverletzung des Unternehmens annehmen (etwa mangelhafte Überwachung der KI oder fahrlässige Veröffentlichung). Kurzum: Unternehmen tragen das volle rechtliche Risiko für das, was ihre KI-Influencer von sich geben.
2. Verletzung von Persönlichkeitsrechten und Rufschädigung:
Denkbar ist, dass ein KI-generierter Content beleidigend oder rufschädigend ist – zum Beispiel, ein KI-Influencer gibt in einem Kommentar eine abfällige Bemerkung über eine reale Person ab, oder ein virtueller Nachrichtensprecher verbreitet unwahre Tatsachen über jemanden. In solchen Fällen greifen die allgemeinen Regeln zu Persönlichkeitsverletzungen und Übler Nachrede/Verleumdung (§§ 823 Abs. 1, 824 BGB in Verbindung mit Art. 1 und 2 GG, sowie ggf. strafrechtlich §§ 185 ff. StGB). Der Geschädigte kann Unterlassung und Schadensersatz vom Verantwortlichen fordern. Verantwortlich ist hier nicht die „Software“, sondern derjenige, der die Software betreibt oder die Inhalte veröffentlicht. Es ist davon auszugehen, dass Gerichte im Ernstfall den Betreiber so behandeln, als hätte er die Aussage selbst (oder durch einen Mitarbeiter) getätigt. Daher muss ein Unternehmen, das KI-generierte Texte oder Videos publiziert, vorab sorgfältig prüfen, was veröffentlicht wird.
Die Herausforderung besteht darin, dass fortgeschrittene generative KI teilweise eigenständige Formulierungen wählt. Wenn man etwa einem Sprachmodell freie Hand lässt, könnte es unvorhergesehene Aussagen produzieren. Rechtlich entbindet das jedoch nicht von der Haftung – es erhöht nur das Risiko und den Überwachungsaufwand. Unternehmen sollten technische und organisatorische Maßnahmen treffen, um Fehläußerungen der KI zu verhindern (z.B. Inhaltsfilter, manuelle Endkontrolle wichtiger Beiträge etc.). Ansonsten kann schnell ein Unterlassungsanspruch ins Haus flattern, der ggf. mit hohen Streitwerten (gerade bei Persönlichkeitsrechtssachen) und Kosten verbunden ist.
3. Irreführung und fehlerhafte Informationen:
Ein weiterer Haftungsaspekt: Was ist, wenn ein KI-Avatar falsche Auskünfte gibt – etwa ein virtueller Kundenberater im Chat gibt eine falsche Rechtsauskunft oder ein fehlerhaftes Gesundheitsratschlag? Hier kommen mehrere Rechtsbereiche ins Spiel. Zum einen könnten Gewährleistungs- oder vertragliche Haftungsregeln relevant sein: Gibt z.B. ein virtueller Finanzberater falsche Anlagetipps im Auftrag einer Bank, haftet die Bank im Zweifel wegen Beratungsfehlern wie ein menschlicher Berater auch. Oder wenn auf einer Website ein KI-Chatbot verbindlich Verträge schließt bzw. Angebote abgibt, sind diese Erklärungen für das Unternehmen bindend, sofern der Bot vom Unternehmen so eingesetzt wurde (Stichwort: elektronischer Agent – rechtlich kann ein automatisiertes System Willenserklärungen abgeben, die dem Betreiber zuzurechnen sind, wenn es entsprechend programmiert ist, z.B. automatische Bestellbestätigung im Onlineshop). Ein Kunde darf grundsätzlich darauf vertrauen, dass die Kommunikation gültig ist, auch wenn er mit einer Maschine spricht. Probleme entstehen allerdings, wenn der Bot Fehler macht, die ein menschlicher Vertreter nicht gemacht hätte. Hier wird in der Vertragsgestaltung oft mit Haftungsausschlüssen gearbeitet, aber gegenüber Verbrauchern sind die Grenzen eng (vgl. AGB-Recht, § 309 Nr. 7 BGB verbietet Haftungsausschluss für Körperschäden und bei grobem Verschulden, etc.).
Zum anderen kann deliktische Haftung wegen Verletzung von Schutzgesetzen in Betracht kommen, wenn z.B. ein KI-System gefährliche Ratschläge erteilt (man denke an einen virtuellen Fitnesscoach, der gesundheitsschädliche Tipps gibt – im Extremfall könnte das als Körperverletzung durch Unterlassen gewertet werden, falls eine Garantenpflicht bestünde). Im Alltag wird das selten so weit kommen, dennoch sollten Anbieter bedenken: Fahrlässige Falschinformationen können haftungsrechtlich relevant sein, insbesondere wenn eine besondere Vertrauenstellung besteht (z.B. KI-Arztassistent in einer Gesundheits-App: Hier muss der Anbieter klarstellen, dass es kein ärztlicher Rat ist, oder er könnte im Haftungsfall stehen).
4. Produkthaftung und neue EU-Haftungsregeln:
Ein Spezialfall: Betrachtet man KI-Software als Produkt, könnte auch Produkthaftung ein Thema sein. Bisher schien Produkthaftung (ProdHaftG) eher auf physische Produkte gemünzt. Die EU plant jedoch, die Produkthaftungsrichtlinie zu modernisieren, sodass auch Software und KI erfasst werden. Sollte ein KI-System einen Schaden verursachen (z.B. materieller Schaden durch Fehlfunktion einer autonomen KI in einer Anwendung), könnte die verschuldensunabhängige Haftung des Herstellers greifen. Das ist allerdings noch in der Entwicklung. Parallel wird eine AI Liability Directive diskutiert, die Beweiserleichterungen für Geschädigte vorsieht, wenn KI im Spiel ist. Für unsere Konstellation – ein KI-Influencer verursacht z.B. einen Imageschaden oder verbreitet falsche Infos – würde das vermutlich auf Verschuldenshaftung hinauslaufen, nicht Produkthaftung, da hier „Content“ und nicht ein körperlicher Schaden im Vordergrund steht.
Unterm Strich müssen Unternehmen vertraglich und organisatorisch Vorsorge treffen: Wenn KI-Avatare mit Kunden interagieren, sollte es klare Nutzungsbedingungen geben, die Pflichten und Haftungsfragen regeln. Intern braucht es Überwachung, damit notfalls ein Mensch eingreift. Rechtlich lässt sich zusammenfassen: Die KI handelt nie im rechtsfreien Raum – verantwortlich ist immer ein dahinter stehendes Rechtssubjekt, das im Zweifel haftet wie für eigenes Handeln.
Schutz von Persönlichkeitsrechten, Markenrechten und Datenschutz
Virtuelle Charaktere und synthetische Inhalte können stark in geschützte Rechte Dritter eingreifen. Besonders relevant sind Persönlichkeitsrechte (wenn Abbild, Stimme oder Identität realer Personen imitiert werden), Markenrechte (wenn geschützte Kennzeichen verwendet werden) sowie Datenschutzrecht (wenn bei der Generierung oder Nutzung personenbezogene Daten ins Spiel kommen).
1. Allgemeines Persönlichkeitsrecht und Recht am eigenen Bild/ Stimme:
Das allgemeine Persönlichkeitsrecht schützt jeden Menschen vor unbefugter Darstellung seiner Person. Speziell geregelt ist das Recht am eigenen Bild in §§ 22, 23 Kunsturhebergesetz (KUG): Demnach dürfen Bildnisse einer Person grundsätzlich nur mit deren Einwilligung verbreitet oder öffentlich zur Schau gestellt werden, sofern keine Ausnahmesituation (Zeitgeschichte, Versammlung etc.) greift. Ebenso anerkannt ist das Recht an der eigenen Stimme – die Gerichte haben entschieden, dass auch das Imitieren der markanten Stimme einer Person für Werbezwecke ohne Zustimmung das Persönlichkeitsrecht verletzt (Beispiel: Ein bekannter Sportmoderator wurde in der Vergangenheit im Radio von einem Imitator nachgeahmt, um für Produkte zu werben; das wurde untersagt, da die Zuhörer die Stimme der echten Person zuordneten und diese Vereinnahmung ohne Erlaubnis unzulässig war).
Übertragen auf KI-Content heißt das: Voice-Cloning eines realen Menschen ohne Einwilligung kann eine Verletzung des Persönlichkeitsrechts darstellen. Wer also die Stimme eines Prominenten per KI nachmacht, um z.B. in Werbung oder Videos die Illusion zu erzeugen, die Person spreche selbst – der greift in das Recht am gesprochenen Wort dieser Person ein. Gleiches gilt für Deepfake-Videos, in denen Gesichter realer Menschen eingesetzt werden: Das Recht am eigenen Bild wird tangiert, wenn diese Deepfakes veröffentlicht werden. Eine virtuelle Influencerin, die absichtlich genauso aussieht wie ein reales Vorbild (ohne dass dieses involviert ist), wäre problematisch. Es gab im Ausland bereits Fälle, in denen z.B. die Gesichtszüge einer Schauspielerin mittels KI auf andere Körper übertragen wurden (insbesondere in der unsäglichen Form nicht-einvernehmlicher pornografischer Deepfakes). In Deutschland könnte sich eine betroffene Person hier zivilrechtlich wehren – mittels Unterlassungsanspruch nach §§ 823, 1004 BGB analog i.V.m. dem allgemeinen Persönlichkeitsrecht, sowie ggf. Schadensersatz (inkl. Geldentschädigung bei schwerwiegendem Eingriff). Auch strafrechtlich kann das Verbreiten gewisser Deepfakes relevant sein (Beleidigung, Verleumdung, oder § 33 KunstUrhG stellt unbefugte Verbreitung von Bildnissen unter Strafe, allerdings meist nur bei Verletzung der Intimsphäre oder kommerziellem Vorsatz).
Für Unternehmen heißt das: Wenn echte Personen als Vorlage dienen, ist Vorsicht geboten. Möchte man z.B. einen digitalen Avatar eines bekannten Moderators kreieren, muss man dessen Rechte klären – in Form einer Lizenz oder vertraglichen Vereinbarung. Andernfalls drohen rechtliche Schritte. Viele Prominente haben heutzutage ihre Name-, Bild- und Stimmrechte vertraglich geschützt (Stichwort: „Right of Publicity“, insbesondere in den USA, oder in DE als vermögenswerter Teil des Persönlichkeitsrechts). Auch weniger bekannte Personen könnten Ansprüche haben, wenn ihre Identität erkennbar instrumentalisiert wird.
Praxis-Tipp: Kreieren Sie virtuelle Influencer am besten komplett neu, ohne 1:1-Vorlage. Soll ein existierendes Vorbild nachempfunden werden (z.B. für Werbezwecke einen früheren Star mittels KI „wiederbeleben“), bedarf es ausdrücklicher Einwilligung bzw. vertraglicher Absicherung mit der Person oder – im Todesfall – deren Erben. Der BGH hat im berühmten Fall Marlene Dietrich entschieden, dass auch postmortal das kommerzielle Persönlichkeitsrecht (speziell der kommerzielle Wert des Bildnisses) von den Erben verwertet werden kann. Ähnliches würde für einen KI-generierten „digitalen Zwilling“ einer verstorbenen Person gelten: Ohne Zustimmung der Rechteinhaber verstößt man gegen das postmortale Persönlichkeitsrecht.
2. Namensrechte und Identitätstäuschung:
Neben Bild und Stimme ist auch der Name einer Person geschützt (§ 12 BGB). Würde eine Firma einen KI-Influencer exakt „Angela Merkel“ nennen und so auftreten lassen, läge eine unzulässige Namensanmaßung vor. Natürlich würde niemand so plump vorgehen; realistischer ist aber, dass virtuelle Charaktere möglicherweise Eigenschaften realer Personen übernehmen, die das Publikum dann assoziiert. Hier kann eine Identitätstäuschung vorliegen, wenn z.B. ein Avatar so tut, als wäre er eine echte Person, die es aber gar nicht gibt, das Publikum aber an eine reale Person glaubt. Ein griffiges Beispiel sind Fake-Profile: Wenn jemand vorgibt, eine bestimmte existierende Person zu sein (Identitätsdiebstahl in sozialen Medien), ist das rechtswidrig. Bei KI-Influencern ist eher der Fall, dass sie keine konkrete Person kopieren, sondern eine Fiktion darstellen – dann gibt es kein direktes Opfer in Bezug auf Namensrecht. Dennoch sollte transparent sein, dass Avatar „X“ eben nicht die echte Person „X“ ist (sofern Namensgleichheit zufällig oder gewollt auftritt), um Verwechslungen zu vermeiden.
3. Markenrechte und Werbefiguren:
Markenrechtlich sind zwei Konstellationen denkbar: Zum einen könnten virtuelle Influencer selbst zur Marke werden, zum anderen könnten sie unbeabsichtigt fremde Marken verletzen.
Für den ersten Fall: Viele virtuelle Figuren haben Wiedererkennungswert – man denke an „Lil Miquela“ (eine bekannte virtuelle Influencerin international) oder „Noonoouri“ (ein virtueller Avatar aus Deutschland/Schweiz, der in der Modewelt eingesetzt wird). Diese Namen und Logos können als Marke geschützt werden (z.B. Wortmarke oder Bildmarke beim DPMA/EUIPO), was empfehlenswert ist, um Nachahmungen zu verhindern und Merchandising zu ermöglichen. Auch fiktive Charaktere genießen ohne Markeneintragung bis zu einem gewissen Grad Titelschutz oder können als Geschäftsabzeichen fungieren, aber ein formeller Markenschutz bietet klare Rechte. Startups, die eine virtuelle Kunstfigur entwickeln, sollten also erwägen, deren Namen und evtl. Avatar-Logo als Marke eintragen zu lassen.
Zugleich muss man sicherstellen, dass der gewählte Name nicht mit bestehenden Marken kollidiert. Heißt der erdachte KI-Influencer z.B. „Lexa“, und existiert eine geschützte Marke „Lexa“ in der Unterhaltungsbranche, droht Ärger wegen Markenverletzung. Auch Erscheinungsbild oder Slogans eines Avatars könnten eventuell urheber- oder markenrechtlich fremde Rechte berühren (wenn man sich zusehr an einer bekannten Figur orientiert). Daher ist eine Markenrecherche vor Launch ratsam.
Zweite Konstellation: Virtuelle Werbung, die Marken nutzt. Hier gelten die üblichen Regeln: Zeigt ein KI-generierter Werbespot z.B. ein Auto mit erkennlichem Markenlogo, ohne dass der Markeninhaber involviert ist, kann das eine Markenverletzung (MarkenG §§ 14, 15) darstellen, falls es nicht von der sogenannten Markennennungsausnahme gedeckt ist. In der Werbung ist die Nutzung fremder Marken grundsätzlich kritisch – außer als vergleichende Werbung unter strengen Voraussetzungen oder mit Erlaubnis. Wenn ein KI-Influencer also im Beitrag ein bestimmtes Getränk lobt und dessen Markennamen nennt, sollte dies idealerweise in Absprache mit dem Markeninhaber geschehen (was in Influencer-Marketing ja meist der Fall ist). Problematisch wird es, wenn KI-Content ungefragt Markenlogos oder -figuren übernimmt – z.B. ein KI-generierter Comic-Werbeclip, der plötzlich bekannte Comicfiguren oder Markencharaktere einbindet, um Aufmerksamkeit zu erlangen. Das wäre eine Verletzung der Marke und oft auch des Urheberrechts an den Figuren.
Zusammengefasst: Virtuelle Akteure an sich können wie eine Marke behandelt werden und entsprechenden Schutz genießen, aber sie dürfen nicht unerlaubt in fremde Kennzeichenrechte eingreifen. Gerade weil KI-Tools manchmal Inhalte mixen, muss man aufpassen, dass kein geschütztes fremdes Element (Logo, Produktdesign, Name) im generierten Content landet. Sonst könnte eine Abmahnung wegen Markenverletzung oder Designverletzung folgen. Auch hier hilft eine gründliche Überprüfung des Outputs.
4. Datenschutz (DSGVO):
Das Datenschutzrecht spielt auf mehreren Ebenen hinein:
Datenschutz bei Erstellung synthetischer Inhalte: Moderne KI-Modelle werden häufig mit großen Datenmengen trainiert, darunter Bildern, Stimmen oder Texten, die Personenbezug haben. Wenn z.B. für eine KI-Moderatorin tausende Fotos echter Menschen oder Prominenter als Trainingsdaten dienten, kann das eine Verarbeitung personenbezogener Daten darstellen. Nach der DSGVO benötigt jede Verarbeitung personenbezogener Daten eine Rechtsgrundlage (Art. 6 DSGVO) und muss transparent erfolgen. Das Training von KI mit öffentlich verfügbaren Bildern ist momentan eine Grauzone. Einige KI-Firmen berufen sich auf das berechtigte Interesse oder auf Ausnahmen für wissenschaftliche Zwecke, andere holen keine Einwilligungen ein und riskieren damit rechtliche Bedenken. Für ein Unternehmen, das eine eigene KI trainiert, gilt: Verwenden Sie keine Daten von erkennbaren Personen ohne Prüfung der Rechtsgrundlage. Im Zweifel ist eine Einwilligung der Betroffenen nötig, insbesondere wenn es um sensible Daten geht (Biometrie wie Gesichter oder Stimmen können als besondere Kategorie gelten, Art. 9 DSGVO, da sie zur Identifizierung genutzt werden können). Die DSGVO stellt hohe Hürden – das Abbild einer Person ist bereits personenbezogen; will man es zur Erschaffung eines Avatars nutzen, braucht man im Grunde deren Zustimmung oder muss es zumindest ausreichend anonymisieren, dass kein Personenbezug mehr vorliegt.
Datenschutz bei Betrieb virtueller Mitarbeiter: Wenn ein virtueller Mitarbeiter im Kundenservice eingesetzt wird, verarbeitet er typischerweise Kundendaten (z.B. Namen, Anliegen, vielleicht Account-Informationen). Hier ist der Betreiber Verantwortlicher i.S.d. DSGVO und muss alle Pflichten erfüllen: von der Informationspflicht (Art. 13 DSGVO, Datenschutzerklärung, in der auch erwähnt sein sollte, dass eine KI die Anfragen beantwortet) über Datensparsamkeit bis hin zu technischen und organisatorischen Maßnahmen für die Datensicherheit (Art. 32 DSGVO). Auch sollte man prüfen, ob ein Auftragsverarbeitungsvertrag nötig ist, falls man externe KI-Dienste einbindet, die im Auftrag Daten verarbeiten. Beispielsweise nutzt ein Chatbot vielleicht eine Cloud-KI-API – dann fließen Kundendaten an diesen Dienst und es müssen DSGVO-konforme Verträge vorhanden sein.
Ein spezieller Aspekt ist Artikel 22 DSGVO: Dieser gibt Individuen Schutz vor vollständig automatisierten Entscheidungen mit rechtlicher oder ähnlich erheblicher Wirkung, ohne menschliche Beteiligung. Bei virtuellen Influencern ist das weniger ein Thema, aber bei virtuellen Mitarbeitern schon: Stellen wir uns vor, ein KI-System entscheidet, ob ein Kunde einen Kredit bekommt (vollautomatisch) oder ein KI-Personalagent entscheidet über eine Bewerbung – dann greift Art. 22 und verlangt u.a. ein Recht auf menschliches Eingreifen. In unserem Kontext bleiben KI-Moderatoren oder Influencer jedoch meist im Bereich Content/Marketing, wo keine solchen individuellen Entscheidungen fallen. Allerdings könnten KI-Influencer indirekt Beeinflussung auf Nutzerentscheidungen haben (z.B. Kaufempfehlungen). Das ist eher wettbewerbsrechtlich relevant als im Sinne von Art. 22, da der Nutzer hier keine automatisierte Entscheidung gegen sich erfährt, sondern nur von KI-Werbung umworben wird.
Datenschutz und Persönlichkeitsrecht – Überschneidung: Nochmals zum Voice-Cloning: die Stimme einer Person ist auch ein biometrisches Merkmal und damit besonders schützenswert. Die Verwendung einer aufgenommenen Stimme zur Erzeugung eines Klons ist Datenverarbeitung. Ohne Einwilligung dürfte das gegen DSGVO (Verarbeitung ohne Rechtsgrund) und zugleich gegen Persönlichkeitsrecht verstoßen. Wir sehen also, oft greifen Datenschutz und Persönlichkeitsrecht ineinander: Daten von Personen (Bild, Stimme, Name) werden durch KI genutzt → sowohl DSGVO als auch zivilrechtlicher Persönlichkeitsschutz verlangen Zustimmung der Person. In der Praxis wird man daher immer zweigleisig denken müssen: erstens Datenschutz-Compliance sicherstellen, zweitens persönlichkeitsrechtliche Lizenzen einholen.
5. Beispielhafter Problemfall – KI in der Grauzone:
Angenommen, ein Startup erstellt für Social Media einen virtuellen Avatar aus zusammengesetzten echten Vorbildern: Die Gesichtszüge basieren auf Fotos mehrerer Models, um einen “idealen” Charakter zu formen. Diese Fotos hat man aus dem Internet genommen, ohne die Models zu fragen. Schon hier gibt es DSGVO-Probleme (die Models sind identifizierbar auf den Ausgangsfotos) und Urheberrechtsfragen (Fotos haben Urheber). Selbst wenn das Endresultat ein einzigartiges Gesicht ist, das keiner einzelnen realen Person entspricht, kann die Datenverarbeitung unzulässig sein. Zudem: Was, wenn das generierte Gesicht einer realen Person zufällig stark ähnelt? Theoretisch könnte jemand sich wiedererkennen und Ansprüche stellen. Solche Risiken gilt es abzuwägen. Besser ist es, auf verfügbare lizenzierte Datensätze zurückzugreifen oder nur solche Merkmale zu verwenden, die keine Rückschlüsse auf konkrete Individuen zulassen.
Wettbewerbsrecht: Grenzen synthetischer Werbung
Ein KI-Influencer mag innovativ sein, bleibt aber ein Werkzeug des Marketings – und Marketing unterliegt im B2C-Bereich strengen Regeln des Wettbewerbsrechts (UWG, Gesetz gegen den unlauteren Wettbewerb, sowie EU-Richtlinien gegen unlautere Geschäftspraktiken). Synthetische Werbung darf nicht täuschen, nicht aggressiver sein als herkömmliche Werbung und muss bestimmte Grenzen beachten.
1. Verbot der Irreführung:
Nach § 5 UWG sind irreführende geschäftliche Handlungen verboten. Eine Irreführung kann durch falsche Angaben oder durch täuschende Gestaltung erfolgen. Bei KI-generierten Inhalten stellt sich z.B. die Frage, ob das Publikum über die Echtheit getäuscht wird. Ist es per se eine Irreführung, wenn ein Konsument glaubt, ein echter Mensch preise ein Produkt an, während es in Wahrheit ein computergenerierter Avatar ist? Hier bewegen wir uns in einer rechtlichen Grauzone. Bisher wird ein solcher Fall nicht ausdrücklich im Gesetz genannt. Man könnte argumentieren: Der durchschnittliche Verbraucher achtet in erster Linie auf die Produktinformation, nicht darauf, ob die Person real ist. Dennoch ist ein Kern der Werbung oft die Authentizität des Influencers – das Gefühl, eine reale Person empfiehlt etwas aus Überzeugung. Wenn diese Person nicht existiert, könnte der Verbraucher hinterher sagen: „Hätte ich gewusst, dass das nur eine Animation ist, hätte ich der Empfehlung weniger Glauben geschenkt.“ Eine solche Täuschung über die Art des Werbeträgers könnte in Zukunft als wesentlich angesehen werden.
Nach aktueller Gesetzeslage würde man einen Ansatz über § 5 Abs. 1 UWG versuchen: Dort ist Irreführung über die „wesentlichen Umstände“ verboten, u.a. auch wenn der Werbende falsche Identität vortäuscht. Sollte ein Unternehmen einen KI-Influencer bewusst wie einen realen unabhängigen Meinungsführer erscheinen lassen, obwohl es sich um eine gesteuerte Kunstfigur handelt, kann dies als Irreführung bewertet werden – insbesondere, wenn aktiv verschleiert wird, dass es Werbung ist (dann greift ohnehin § 5a UWG mit Kennzeichnungspflicht). Auch § 5a Abs. 6 UWG (Blacklist der unlauteren Handlungen) verbietet ausdrücklich, sich als Verbraucher auszugeben. Ein virtuelles Profil, das scheinbar ein normaler Nutzer ist, tatsächlich aber vom Unternehmen gesteuert wird, würde gegen dieses Verbot verstoßen. Das heißt, Fake-Testimonials oder Schein-Influencer, die vorgeben, zufriedene Kunden zu sein, sind unzulässig. Bei einem offiziellen virtuellen Influencer-Profil liegt zwar kein „Verbraucher-täuscht-Verbraucher“-Szenario vor, aber doch eine potenzielle Intransparenz, wer dahinter steckt.
Die beste Vorgehensweise ist daher, offen zu legen, dass es sich um eine virtuelle Figur handelt, die von Firma XY betrieben wird. Dann weiß der Adressat, dass hier nicht ein neutrales Individuum spricht, sondern letztlich Werbung stattfindet. Diese Transparenz wird auch vom Geist der UWG-Vorschriften gefordert. Wettbewerbsrechtlich kann jedes Verschleiern des Absenders als unlauter gelten.
2. Schleichwerbung und Kennzeichnungspflichten (nochmals aus UWG-Sicht):
Wir hatten bereits medienrechtlich die Kennzeichnung beleuchtet. Das UWG flankiert dies: § 5a Abs. 4 UWG in der neuen Fassung verlangt die Kenntlichmachung des kommerziellen Zwecks. Ein Verstoß hiergegen (also Schleichwerbung) ist nicht nur Rechtsbruch an sich, sondern kann von Konkurrenten oder Verbraucherschutzverbänden per Abmahnung verfolgt werden. Ein Unternehmen, das mit einem KI-Influencer wirbt, muss daher genau dieselben Kennzeichnungspflichten beachten wie bei menschlichen Influencern. Es gibt keinen Freifahrtschein für „virtuelle“ Werbung – ob Mensch oder KI, Werbung bleibt Werbung und muss als solche klar erkennbar sein.
3. Aggressive Geschäftspraktiken und gezielte Kinderansprache:
KI-Influencer können besonders auf jüngere Zielgruppen anziehend wirken, da sie trendige, immer verfügbare „Freunde“ in sozialen Netzwerken sein können. Dies birgt Gefahr von unangemessener Beeinflussung. Das UWG verbietet aggressive geschäftliche Handlungen (§ 4a UWG), also z.B. Belästigung, Nötigung oder Ausnutzung von Zwangslagen. Ein virtueller Influencer wird selten offen nötigen, aber er könnte durch ständige Präsenz oder bestimmte psychologische Mechanismen Druck aufbauen („Du musst dieses Produkt haben, sonst…“). Gerade KI, die das Nutzerverhalten analysiert, könnte theoretisch sehr gezielt Verhaltensmanipulation betreiben – etwa personalisierte Avatare, die individuelle Schwächen ausnutzen. Solche Methoden könnten in den Bereich unlauterer Manipulation fallen. Auch der geplante AI Act (siehe nächstes Kapitel) stellt bestimmte manipulative Praktiken unter Verbote.
Besonders schutzwürdige Gruppen wie Kinder dürfen nicht unverhältnismäßig beeinflusst werden. Ein Beispiel: Ein niedlicher virtueller Cartoon-Influencer bewirbt Süßigkeiten auf TikTok und viele Kinder folgen ihm, ohne zu verstehen, dass es Werbung ist. Das wäre problematisch; in solchen Fällen greifen Jugendschutz- und Wettbewerbsrecht gemeinsam. Schon jetzt gibt es in der EU-Richtlinie über unlautere Geschäftspraktiken (UGP-RL) und im UWG Klauseln, die die Leichtgläubigkeit von Kindern berücksichtigen. Werbung, die sich an Kinder richtet, darf deren Unerfahrenheit nicht ausnutzen. Ein KI-Maskottchen, das wie eine Spielfigur gestaltet ist, müsste also klar erkennbar Werbung sein, damit Kinder es einordnen können. In Deutschland schauen hier auch die Landesmedienanstalten (Jugendmedienschutz) darauf, dass z.B. auf YouTube oder TikTok entsprechende Altersgrenzen und Kennzeichnungen eingehalten werden.
4. Unlauterer Wettbewerb durch Rechtsverletzungen:
Sollte ein Unternehmen durch seinen KI-Content fremde Rechte verletzen (Marke, Urheberrecht, Persönlichkeitsrecht), kann das neben zivilrechtlichen Ansprüchen der Rechteinhaber auch wettbewerbsrechtliche Folgen haben, sofern es im geschäftlichen Kontext passiert. Nach § 3a UWG ist eine geschäftliche Handlung unlauter, wenn sie gegen eine gesetzliche Vorschrift verstößt, die auch dazu bestimmt ist, im Markt das Verhalten zu regeln (sogenannter Marktverhaltensregel). Beispielsweise sind datenschutzrechtliche Bestimmungen oder medienrechtliche Kennzeichnungspflichten inzwischen anerkanntermaßen teils Marktverhaltensregeln. Verletzen KI-basierte Werbemaßnahmen etwa bewusst den Datenschutz (z.B. indem sie verbotenerweise personenbezogene Daten eines Konkurrenten benutzen oder Verbraucherrechte missachten), könnten Mitbewerber auch daraus einen UWG-Verstoß ableiten. Dies ist ein komplexes Thema im Detail – aber im Klartext: Rechtswidrige Methoden im KI-Marketing können zu Abmahnungen durch Mitbewerber führen. Unternehmen sollten also nicht nur das direkte Risiko (vom Betroffenen verklagt zu werden), sondern auch das indirekte Risiko (von Konkurrenten wegen Wettbewerbsverstoß belangt zu werden) im Blick haben.
5. Täuschung über die Beschaffenheit des Produkts:
Synthetische Werbung darf natürlich auch nicht inhaltlich täuschen. Wenn ein KI-Influencer z.B. vollmundig Eigenschaften eines Produkts anpreist, die es gar nicht hat (sagen wir: ein KI-generierter Autoverkäufer behauptet, das E-Auto lade in 5 Minuten voll, was faktisch falsch ist), ist das klassische Irreführung über wesentliche Merkmale – strikt verboten. Hier unterscheidet sich KI-Werbung nicht von normaler Werbung. Allerdings könnte die Form der Präsentation neue Fragen aufwerfen: Denkbar etwa, dass ein virtueller Mitarbeiter im Shop dem Kunden individualisierte Versprechen macht („Für Sie habe ich ein Sonderangebot nur heute“). Wenn diese Versprechen haltlos sind oder nie erfüllt werden sollen, ist das auch unlauter. Unternehmen müssen daher sicherstellen, dass ihre KI-gestützten Verkaufs-Avatare wahrheitsgemäße und überprüfte Aussagen machen. Es darf nicht passieren, dass eine KI etwa – basierend auf trainierten Verkaufsfloskeln – zu viel verspricht. Diese Inhalte sollten strikt kontrolliert und regelbasiert sein.
Der EU AI Act und kommende Regulierung in Europa
Auf europäischer Ebene zeichnet sich mit dem AI Act (Verordnung über künstliche Intelligenz) erstmals ein umfassendes Regelwerk speziell für KI-Systeme ab. Auch wenn diese Verordnung primär technische und risikobezogene Regeln aufstellt, enthält sie einige Bestimmungen, die direkt für virtuelle Mitarbeiter, KI-Influencer und synthetische Inhalte relevant sind – insbesondere im Bereich Transparenz.
1. Überblick AI Act:
Der AI Act (auch Europäische KI-Verordnung genannt) befindet sich auf der Zielgeraden der Gesetzgebung. Die EU-Kommission hat im April 2021 einen Entwurf vorgelegt; Ende 2023 haben sich Parlament und Rat politisch auf einen gemeinsamen Text geeinigt. Die Verordnung könnte 2024 formell verabschiedet werden und würde dann mit einigen Jahren Übergangsfrist in Kraft treten (vermutlich 2025/2026). Ziel der KI-Verordnung ist es, sicherzustellen, dass KI-Systeme in der EU sicher sind, Grundrechte wahren und die Werte der Union respektieren. Sie verfolgt einen risikobasierten Ansatz: von verbotenen Anwendungen (bei unannehmbarem Risiko) über Hochrisiko-KI mit strengen Auflagen bis hin zu begrenztem Risiko, wo nur Transparenzpflichten gelten, und niedrigem Risiko, wo kaum Vorgaben bestehen.
2. Virtuelle Influencer im Risikokonzept:
Ein KI-Influencer oder virtueller Mitarbeiter dürfte in den meisten Fällen keine Hochrisiko-KI im Sinne des AI Act sein, da Hochrisiko vor allem Bereiche wie kritische Infrastrukturen, medizinische Geräte, personalbezogene Entscheidungen (z.B. Kreditwürdigkeit, Job-Auswahl), Justiz, biometrische Überwachung etc. betrifft. Marketing-Avatare fallen nicht darunter, es sei denn sie würden etwa zu biometrischer Identifikation genutzt oder sind Teil z.B. eines Bewerbungsgesprächs-Auswahltools. Allerdings gibt es im AI Act auch verbotene Praktiken (Art. 5), u.a. der Einsatz von KI zur subliminalen Beeinflussung oder Ausnutzung von Schwächen, um das Verhalten von Personen in einer Weise zu ändern, die diesen oder andere zu Schaden kommen lässt. Hier muss man theoretisch aufpassen: Sollte ein KI-Influencer mit gezielten psychologischen Tricks Konsumenten manipulieren, wäre das zumindest ethisch problematisch und könnte je nach Auslegung unter solche Klauseln fallen. Realistisch werden Werbe-KI aber nicht als Verbotstatbestand gelten, solange keine extreme Beeinträchtigung vorliegt.
3. Transparenzpflicht bei KI-Interaktion (Art. 52 Abs. 1 AI Act):
Für unsere Thematik besonders wichtig: Der AI Act wird spezifische Transparenz- und Offenlegungspflichten normieren. Gemäß dem politisch geeinigten Text (Stand Ende 2023) soll Artikel 52 folgendes vorsehen:
- Art. 52 Abs. 1: KI-Systeme, die dafür vorgesehen sind, mit natürlichen Personen zu interagieren, müssen so entwickelt werden, dass die Nutzer darauf hingewiesen werden, dass sie es mit einer KI zu tun haben. Mit anderen Worten: Wenn jemand via Chat, Sprache oder in einem sozialen Netzwerk mit einem Bot oder Avatar kommuniziert, darf man ihn nicht im Glauben lassen, es sei ein Mensch – es sei denn, dies ist aufgrund der Umstände offensichtlich. Die Ausnahme „offensichtlich“ ist dabei eng zu verstehen: Ein Beispiel mag ein cartoonhafter Bot auf einer Webseite sein, wo jedem klar ist, dass das kein echter Mensch im Widget ist. Aber bei einem hochrealistischen virtuellen Influencer auf Instagram ist gerade das Ziel, echt zu wirken – für den durchschnittlichen Nutzer ist es eben nicht offensichtlich, dass hier KI agiert. Folglich greift die Kennzeichnungspflicht. Praktisch müsste also im Profil oder bei Interaktion deutlich kenntlich gemacht werden, dass dies ein virtueller KI-Avatar ist. Auch wenn der Avatar Kommentare beantwortet oder auf Direktnachrichten reagiert, müsste er/sie im Prinzip zu erkennen geben, kein Mensch zu sein (z.B. durch einen Hinweis im Profiltext oder sogar bei jedem Chat-Start eine automatische Nachricht „Hi, ich bin ein AI-gesteuerter virtueller Assistent…“).
- Diese Vorgabe zielt klar auf Chatbots und virtuelle Agenten ab, würde aber auch KI-Influencer umfassen, die mit ihren Followern in Kontakt treten. Die Verordnung spricht von „Interaktion“. Schon ein Instagram-Kommentar-Thread könnte darunter fallen, vor allem wenn der Influencer gezielt auf einzelne Nutzerantworten reagiert (das ist ja gerade bei Influencern üblich, mit der Community zu interagieren). Öffentliche Beiträge allein ohne direkte Interaktion sind womöglich keine „Interaktion“ im Sinne der Vorschrift, aber sobald der Avatar auf User-Input eingeht, greift sie. Und wie erwähnt: „offensichtlich“ ist es bei gut gemachten virtuellen Figuren in der Regel nicht, dass sie künstlich sind – ihr Ziel ist ja gerade, wie echte Menschen zu wirken.
- Art. 52 Abs. 3 (Deepfake-Kennzeichnung): Eine weitere relevante Klausel betrifft KI-Systeme zur Erzeugung manipulierter oder synthetischer Inhalte, die echten Personen, Gegenständen oder Ereignissen merklich ähneln und einem Betrachter den Eindruck vermitteln können, sie seien echt – umgangssprachlich Deepfakes. Hier schreibt der AI Act vor, dass derjenige, der solche Inhalte nutzt, offenlegen muss, dass es sich um künstlich erzeugte oder manipulierte Inhalte handelt. Für virtuelle Influencer bedeutet das: Falls der KI-Charakter eine reale Person imitiert oder repräsentiert, wäre das zweifellos ein Deepfake und müsst entsprechend gekennzeichnet werden. Allerdings sind viele virtuelle Influencer fiktive Personen, somit nicht direkt „Deepfake einer existierenden Person“. Sie fallen dann nicht unter die enge Deepfake-Definition, weil kein konkretes Vorbild 1:1 kopiert wird. Jedoch kann auch die Umgebung oder Situation deepfake-ähnlich sein – etwa wenn ein virtueller Influencer sich mittels KI in echte Videoclips hineinmontiert (z.B. posiert vor Wahrzeichen, als wäre er wirklich vor Ort gewesen, oder „besucht“ ein reales Event digital). So etwas könnte als manipulierte Darstellung realer Orte/Ereignisse gelten und damit auch kennzeichnungspflichtig sein. Ein Praxisbeispiel: Ein KI-Model postet ein Foto, wie es angeblich auf der Pariser Fashion Week über den Laufsteg geht. In Wahrheit wurde dieses Bild synthetisch erzeugt. Für Betrachter sieht es echt aus – das wäre gemäß AI Act künftig als manipuliert zu deklarieren, um niemanden zu täuschen.
- Der AI Act enthält Ausnahmen für Deepfake-Kennzeichnung, z.B. wenn es für satirische, künstlerische oder zu wissenschaftlichen Zwecken erfolgt und mit bestimmten Schutzmaßnahmen. Diese dürften aber im kommerziellen Marketingumfeld kaum greifen. Werbung lässt sich selten als Kunstfreiheit rechtfertigen, zumal die Ausnahme restriktiv ist (erfordert Wahrung von Rechten Dritter und Erforderlichkeit der Ausnahme für die Freiheit).
4. Konsequenzen des AI Act für Unternehmen:
Sobald der AI Act gilt, werden Unternehmen, die KI-Influencer einsetzen, verpflichtet sein, Transparenz-Hinweise einzubauen. Denkbar ist z.B., dass Social-Media-Plattformen dann selbst Policies vorgeben oder Tools bereitstellen (ähnlich wie heute schon etwa Instagram bezahlte Partnerschaften markiert). Vielleicht muss ein virtueller Influencer-Account offiziell als „Virtual / AI“ gekennzeichnet werden. Schon jetzt gibt es inoffiziell einige Profile, die z.B. im Beschreibungstext klar sagen „Virtual Character“ oder „Digital Model“. Zukünftig könnte das verbindlich werden. Zudem werden Anbieter von KI-Systemen, die solche Avatare steuern, bestimmte Konformitätsanforderungen erfüllen müssen, je nach Risikostufe (z.B. Dokumentation, Risikomanagement bei Hochrisiko – aber wie gesagt, Marketing-KIs dürften meist Nicht-Hochrisiko sein, so dass „nur“ die Transparenzvorschrift einschlägig ist).
Bei Verstößen gegen den AI Act drohen empfindliche Bußgelder – analog zu DSGVO kann es pro Verstoß Millionenstrafen geben, abgestuft nach Schwere. Zwar liegt der Fokus eher auf KI-Hersteller und -Inverkehrbringer, doch auch Nutzer könnten adressiert sein, vor allem bei der Deepfake-Kennzeichnung (das richtet sich an „Nutzer eines KI-Systems, das Inhalte erzeugt oder manipuliert…“). Ein Unternehmen, das einen Deepfake-Werbespot ohne Kennzeichnung veröffentlicht, würde als Nutzer haften.
5. Synergien mit bestehendem Recht:
Der AI Act wird die erwähnten Pflichten (Werbekennzeichnung, Impressum etc.) nicht ersetzen, sondern ergänzen. Man muss also beides beachten: z.B. einen KI-Influencer als Werbung kennzeichnen und als KI ausweisen. Das kann geschehen, indem man z.B. „#Werbung“ schreibt und zugleich irgendwo anmerkt „#virtuellerInfluencer“ oder eine Formulierung wie „KI-gesteuerte Figur“. Denkbar wären auch standardisierte Icons oder Labels in Zukunft. In Summe fördert die EU hier die Transparenz gegenüber Verbrauchern, damit diese informiert entscheiden können.
6. Weitere EU-Initiativen:
Neben dem AI Act gibt es noch andere Regulierungsansätze: Der Digital Services Act (DSA) verlangt von großen Plattformen z.B. Maßnahmen gegen Desinformation und manipulative Inhalte. Ein offensichtlicher Anwendungsfall wären Deepfake-Videos, die etwa Wahlen beeinflussen sollen – Plattformen müssen sowas kennzeichnen oder entfernen, ansonsten riskieren sie DSA-Sanktionen. Zwar richtet sich der DSA an Vermittler (Plattformen) und nicht direkt an Werbetreibende, aber im Ergebnis wird das Ökosystem für KI-Fakes strenger überwacht. Auch die EU-Kommission hat Verhaltenskodizes gegen Desinformation erarbeitet, wo Kennzeichnung von KI-Inhalten empfohlen wird. Im Urheberrecht laufen Diskussionen, ob KI-generierte Inhalte gekennzeichnet oder mit Metadaten versehen werden sollen (Stichwort: Protecting creators from AI copying). Das Feld ist im Fluss, aber klar ist: Die Tendenz geht zu mehr Offenlegungspflichten und Verantwortlichkeit beim Einsatz von KI in der Öffentlichkeit.
Damit haben wir den europäischen Rahmen abgesteckt. Im nächsten Schritt blicken wir über den Tellerrand und vergleichen, wie andere Länder – allen voran China und die USA – mit virtuellen Personen und synthetischen Medien umgehen.
Internationale Entwicklungen im Vergleich
Die rechtliche Einordnung virtueller Mitarbeiter und KI-generierter Inhalte ist weltweit ein Thema, doch die Herangehensweisen variieren stark. Während die EU eher proaktiv reguliert und Grundrechte betont, setzt etwa China auf strikte Kontrolle im Einklang mit staatlichen Interessen. Die USA wiederum verlassen sich stärker auf bestehende Rechtsinstrumente und die Gerichte, wobei einzelne Bundesstaaten spezielle Gesetze erlassen haben. Im Folgenden werfen wir einen vergleichenden Blick auf China und die USA als zwei prominente Beispiele jenseits der EU.
China: KI-Avatare im Nachrichtensektor und Regulierung virtueller Personen
China ist in mehrfacher Hinsicht Vorreiter beim Einsatz virtueller Figuren, insbesondere KI-Avatare in Medien und E-Government. Zugleich schreitet China mit spezifischen Gesetzen ein, um diese Technologie zu kontrollieren.
1. Einsatz von KI-Moderatoren und virtuellen Influencern in China:
Bereits vor einigen Jahren sorgte Chinas staatliche Nachrichtenagentur Xinhua für Aufsehen, als sie einen KI-Nachrichtensprecher vorstellte – ein animiertes Konterfei eines echten Anchormans, das mittels KI-Technologie Nachrichten vorliest. Inzwischen gibt es mehrere solcher virtuellen Nachrichtensprecher, die rund um die Uhr in verschiedenen Sprachen Nachrichten verlesen können, ohne zu ermüden. Auch im E-Commerce-Bereich boomen KI-Avatare: Auf chinesischen Shopping-Plattformen wie Taobao oder JD.com werden virtuelle Live-Streamer eingesetzt, die Produkte präsentieren, als wären sie menschliche Hosts. Um 3 Uhr morgens, wenn echte Verkäufer schlafen, kann so ein Avatar immer noch eine Verkaufsshow moderieren – ein enormer Vorteil für das 24/7-Geschäft. Beliebt sind zudem virtuelle Idole in der Unterhaltungsbranche: computeranimierte Popstars und Influencer, die Millionen Follower haben (ähnlich wie in Japan Vocaloid-Stars, aber in China teils staatlich gefördert, um eine formbare, skandalfreie Alternative zu menschlichen Promis zu haben).
Chancenperspektive: Die chinesischen Behörden und Unternehmen sehen in solchen virtuellen Kollektiven einerseits eine Innovation, andererseits auch eine Möglichkeit, Inhalte stärker zu steuern. Ein KI-Moderator hält sich genau ans Skript, gerät nicht in Skandale und kann ideal an die Partei-Linie angepasst werden. Firmen profitieren von gesichtswahrenden Markengesichtern, die nie negative Schlagzeilen produzieren oder Gehaltserhöhungen fordern.
2. Regulierungsrahmen in China – staatliche Kontrolle und neue Gesetze:
China reagiert auf die Deepfake- und KI-Entwicklung mit einem dichten Netz an Vorschriften, getrieben von dem Ziel, gesellschaftliche Stabilität und Kontrolle zu wahren. Zentral sind die „Administrative Provisions on Deep Synthesis of Internet-based Information Services“, die im Januar 2023 in Kraft traten – im Volksmund Deepfake-Gesetz genannt. Dieses Regelwerk verlangt:
- Klare Kennzeichnungspflicht: Jeglicher mittels Deep Synthesis erzeugter Inhalt (Bild, Audio, Video, virtuelle Szenen) muss auffällig als KI-generiert gekennzeichnet sein. Das kann z.B. durch Wasserzeichen, Hinweise im Video oder akustische Marker erfolgen. Speziell genannt werden Techniken wie Stimmenimitierung, Gesichtsaustausch etc. Die Idee dahinter: Der Rezipient soll unmittelbar erkennen können, wenn etwas kein authentisches Original ist. In China bedeutet das konkret, dass z.B. ein KI-Nachrichtensprecher am Bildschirmrand einen Hinweis haben muss, oder dass bei Fake-Videos von Politikern ein sichtbares Zeichen eingefügt wird. Für Firmen, die KI-Werbung machen, heißt das: Sie müssen jedem KI-Werbeclip, jedem synthetischen Testimonial einen Hinweis „KI-erzeugt“ anfügen – sonst verstoßen sie gegen die Vorschriften.
- Verbot der Täuschung und Fake News: Die Regeln untersagen ausdrücklich, Deepfake-Technologien zu nutzen, um Gerüchte oder falsche Informationen zu verbreiten. Anbieter von KI-Diensten müssen Mechanismen haben, um Fake News zu erkennen und zu unterbinden. Beispielsweise, wenn eine App angeboten wird, mit der Nutzer ihr Gesicht auf Promi-Videos montieren können, muss der Anbieter sicherstellen, dass diese nicht missbraucht wird, um etwa gefälschte Nachrichten-Videos herzustellen. Wird ein Missbrauch erkannt, muss der Anbieter die Inhalte löschen und den Behörden melden.
- Echtheitsüberprüfung und Registrierung: Anbieter von Deepfake-Tools und Plattformen mit virtuellen Avataren müssen oft eine behördliche Registrierung durchlaufen und Echtidentitäts-Verifikation ihrer Nutzer betreiben (Real-Name-Policy). In China ist es üblich, dass man KI-Dienste oder Social-Media-Accounts nur nutzen kann, wenn man seinen echten Namen und Ausweis hinterlegt. Dies soll Anonymität reduzieren und Rückverfolgbarkeit erhöhen – wer also einen virtuellen Influencer betreibt, wird für Behörden identifizierbar sein.
- Einschränkungen für virtuelle Idole: Während es kein ausdrückliches Verbot gibt, virtuelle Menschen als Influencer aufzubauen (im Gegenteil, es gibt erfolgreiche Beispiele, unterstützt von Tech-Firmen), gelten natürlich die generellen Zensur- und Inhaltsregeln. Virtuelle Personen müssen genauso politisch konform sein wie reale. Ggf. gibt es interne Richtlinien, dass ein KI-Charakter keine kontroversen Meinungen äußern darf. Ein relevantes Gebiet ist auch Virtuelle Avatare Verstorbener: Jüngst berichteten chinesische Medien über den Trend, KI-Avatare von Verstorbenen anzufertigen, damit Angehörige mit einer Simulation ihrer Lieben „weiterleben“ können. Dies wirft ethische Fragen und auch datenschutzähnliche Fragen (in China gibt es seit neuestem ein Datenschutzgesetz, PIPL). Noch ist unklar, ob der Staat das regulieren wird, aber es zeigt, wie weit die virtuelle Personen-Thematik reicht.
- Strafen: Verstöße gegen die Deepfake-Bestimmungen können in China zu harten Strafen führen, von Geldbußen über Schließung des Dienstes bis hin zu strafrechtlicher Verantwortlichkeit, gerade wenn es um Staatsinteressen geht. China versteht solche Regelungen als Teil der Cybersicherheit und öffentlichen Ordnung.
3. Virtuelle Mitarbeiter als Unternehmensvertretung:
In China setzen auch Behörden virtuelle Assistenten ein – z.B. virtuelle Kundenservice-Mitarbeiter von Banken oder städtischen Dienstleistern. Die rechtlichen Anforderungen decken sich mit dem oben genannten: Transparenz, keine Täuschung. Darüber hinaus fordert Chinas KI-Ethik-Leitfaden (veröffentlicht 2022) Vertrauenswürdigkeit und Vermeidung von Bias. KI-Systeme sollen im Einklang mit sozialistischen Werten handeln. Ein virtueller Bankberater etwa muss alle Compliance-Regeln erfüllen und wird streng trainiert, keine verbotenen Aussagen zu machen. Die Regulierung scheint also weniger Lücken zu lassen: Wo in Europa noch diskutiert wird, ob Kennzeichnung „nötig“ ist, hat China bereits administrative Regeln erlassen, die Kennzeichnung vorschreiben. Die rechtliche Freiheit, die in westlichen Ländern besteht (Stichwort: Meinungsfreiheit erlaubt theoretisch auch deepfake Satire), ist in China stark zugunsten von Ordnung eingeschränkt.
4. Zusammenfassung China:
China begrüßt KI-Innovation, nutzt virtuelle Influencer offensiv im E-Commerce und der Propaganda, hat aber zugleich eiserne Zügel angelegt: Klare Kennzeichnungspflicht, staatliche Registrierung und Inhaltskontrolle. Virtuelle Personen sind dort rechtlich kein eigenständiges Subjekt – sie sind entweder Avatare von realen registrierten Personen oder Unternehmen. Sollte ein virtueller Influencer in China beispielsweise regimekritische Äußerungen machen (sei es durch ein ausländisches Unternehmen gesteuert), käme es wohl umgehend zur Sperrung und rechtlichen Verfolgung der dahinter stehenden Verantwortlichen. Westliche Firmen, die KI-Content in China einsetzen wollen, müssen sich dieser besonderen Lage bewusst sein.
Interessanterweise treibt China damit auch internationale Standards voran: Es gab Berichte, dass das Land eine globale Kooperation anstrebt, um Deepfake-Inhalte per Wasserzeichen kenntlich zu machen. Technologie und Recht gehen hier Hand in Hand – China setzt verstärkt auf technische Lösungen, etwa Fingerprinting von KI-Medien, um deren Ursprung zu erkennen.
USA: Deepfakes, KI-Stimmen und synthetische Schauspieler in Social Media, Werbung und Film
Die USA haben traditionell einen technologieoffenen, aber zugleich durch das Rechtssystem geprägten Ansatz. Es gibt (noch) kein allumfassendes KI-Gesetz auf Bundesebene, doch verschiedene Rechtsgebiete greifen ineinander, um einen Rahmen zu bilden: vom starken Schutz des Persönlichkeitsrechts (Right of Publicity) über Urheber- und Markenrecht bis hin zu ersten spezialgesetzlichen Verboten von Deepfakes in sensiblen Bereichen.
1. Recht am eigenen Bild und Stimme (Right of Publicity):
In den USA existiert kein einheitliches Persönlichkeitsrecht wie in Deutschland; stattdessen gibt es in vielen Bundesstaaten das sogenannte Right of Publicity. Dieses Recht schützt den kommerziellen Wert von Name, Bild, Stimme und sogar Unterschrift oder Gesten einer Person. Prominente haben häufig sehr ausgeprägte Rechte daran (teils per Gesetz, teils durch case law). Wenn also jemand ohne Erlaubnis die Identität oder Merkmale einer Person für kommerzielle Zwecke nutzt, kann er auf Schadensersatz verklagt werden. Das ist äußerst relevant für KI: Beispielsweise das Imitieren einer prominenten Stimme mittels KI für einen Werbespot würde das Right of Publicity verletzen. Tatsächlich hat es schon Fälle gegeben, in denen Stimmenimitatoren oder deepfake-Videos juristisch angegangen wurden. So hat etwa die Schauspielerin Scarlett Johansson klargestellt, dass jegliche Nutzung ihres digitalen Abbilds ohne Zustimmung nicht toleriert wird (sie war Opfer von Deepfake-Pornografie, was ihre Anwälte bekämpften). Viele Staaten – Kalifornien etwa – haben explizite Gesetze, die auch Verstorbene schützen (in Kalifornien geht das Recht am eigenen Abbild bis 70 Jahre nach dem Tod weiter, sodass z.B. das digitale Wiederauferstehenlassen von Marilyn Monroe oder Bruce Lee in Werbung nur mit Zustimmung der Erben statthaft ist).
Für Unternehmen bedeutet das: Will man etwa in den USA einen synthetischen Schauspieler in einem Film einsetzen, der einem realen Star nachempfunden ist, braucht man die vertragliche Lizenz. Und diese kann teuer sein. Ein bekanntes Beispiel: Die Star-Wars-Filme nutzten die digitale Wiederbelebung von Carrie Fisher und Peter Cushing; hier lagen Einverständnisse bzw. Vereinbarungen mit dem Nachlass vor. 2022 gab es Schlagzeilen, Bruce Willis habe seine Gesichtsdaten für künftige Werbe-deepfakes lizenziert – was jedoch später relativiert wurde (angeblich hatte er nur für einen speziellen russischen Werbespot einmalig erlaubt, sein digitales Ich zu verwenden). Solche Deals zeigen aber, dass in den USA ein lizenzbasierter Markt entstehen könnte: Stars verkaufen die Nutzungsrechte an ihrem KI-Double.
Wird hingegen ohne Erlaubnis ein Deepfake erstellt (z.B. ein Werbeclip mit dem Gesicht eines Promis, der das Produkt nie beworben hat), kann der Promi klagen. Das Right of Publicity ist oft die Handhabe, daneben ggf. Lanham Act (Bundesrecht gegen falsche Herkunftsbezeichnungen – kann greifen, wenn z.B. eine Werbung suggeriert, der Star endorse das Produkt, was eine Art „False Endorsement“ ist).
2. Verleumdung und Falschdarstellungen:
Für Normalbürger gibt es in den USA ebenfalls Schutz: Wenn ein Deepfake-Video eine Person verunglimpft (z.B. zeigt, wie sie etwas Kriminelles tut, obwohl es nie geschah), könnte das klassische Defamation (Verleumdung) sein. Die Hürden sind allerdings recht hoch, vor allem wenn es sich um Personen des öffentlichen Lebens handelt (First Amendment – freie Meinungsäußerung – verlangt bei Promis den Nachweis von „actual malice“ für Verleumdungsklagen). Bei privaten Personen ist es einfacher, falsche Tatsachendarstellungen zu ahnden. Wenn also jemand einen bösen Scherz mit dem Nachbarn treibt und ein Deepfake verbreitet, worin der Nachbar z.B. fremdenfeindliche Parolen von sich gibt, kann das den Nachbarn schwer beschädigen und wäre klagbar. In Kalifornien existiert seit 2019 zudem ein Gesetz, das bestimmte Deepfakes kurz vor Wahlen verbietet (Politiker dürfen es verwenden, um gegen Fake-Videos vorzugehen, die in den 60 Tagen vor einer Wahl veröffentlicht werden mit der Absicht, das Ergebnis zu beeinflussen).
3. Spezifische Deepfake-Gesetze:
In den letzten Jahren haben einzelne Bundesstaaten gezielt Deepfake-Verbote erlassen, vor allem für zwei Bereiche: nicht-einvernehmliche Pornografie und Wahlbeeinflussung.
- Pornografische Deepfakes: Virginia und Texas beispielsweise haben Gesetze, die das Erstellen oder Verbreiten von pornografischen Deepfakes ohne Zustimmung der Abgebildeten unter Strafe stellen. Kalifornien ermöglicht den Opfern solcher „sexually explicit deepfakes“ seit 2019, zivilrechtlich zu klagen, wenn das Material ohne Einwilligung verbreitet wird. Diese Gesetze reagieren auf das unsägliche Phänomen, dass Gesichter (meist von Frauen, Promis oder Ex-Partnerinnen) per KI in Pornos montiert werden – eine gravierende Persönlichkeitsverletzung. Auch wenn es noch kein föderales Gesetz gibt, zeigt sich hier Konsens, dass so etwas verboten gehört.
- Wahl-Deepfakes: Wie erwähnt, Kalifornien untersagt absichtlich irreführende manipulative Videos in der heißen Wahlphase. Texas hat ebenfalls ein Gesetz gegen Deepfake-Videos, die einen Kandidaten in einer falschen Licht erscheinen lassen, begangen zum Zweck der Wahlbeeinflussung. Diese Gesetze stehen etwas auf wackeligem Boden, weil sie potenziell mit der freien Meinungsäußerung kollidieren (was, wenn es Satire ist? – aber sie enthalten i.d.R. Ausnahmen für Satire/Parodie). Bisher wurden sie kaum auf die Probe gestellt.
Bundesweit gibt es bisher kein eigenständiges Deepfake-Bundesgesetz. Es gab Initiativen wie den DEEP FAKES Accountability Act im Kongress, der Kennzeichnungspflichten und digitale Wasserzeichen forderte, aber diese sind noch nicht verabschiedet. Die US-Regulierer (z.B. FTC – Federal Trade Commission) haben jedoch klargestellt, dass betrügerische oder manipulative Verwendung von KI im geschäftlichen Kontext unter bestehende Gesetze fällt. Die FTC warnte, dass z.B. gefälschte Kundenbewertungen oder gefakte Influencer-Befürwortungen mittels KI als Betrug angesehen werden können – sprich, man würde das mit den üblichen Irreführungsvorschriften aus dem Verbraucherschutz ahnden.
4. Social Media und Plattformen – Selbstregulierung:
Interessant ist, dass in den USA die großen Social-Media-Plattformen eigene Richtlinien gegen manipulierte Medien erlassen haben. Twitter (jetzt X) führte eine Policy ein, wonach täuschende Deepfakes mit einem Hinweis versehen oder gelöscht werden, wenn sie z.B. den öffentlichen Frieden stören könnten. Facebook/Instagram entfernen Deepfake-Inhalte, die nicht als Parodie erkennbar sind, insbesondere wenn Personen falsch dargestellt werden. Diese Maßnahmen sind teils freiwillig, teils vorauseilender Gehorsam, um keinen Gesetzgeber auf den Plan zu rufen. Außerdem gibt es Initiativen wie das Content Authenticity Initiative, an der Adobe, Microsoft u.a. arbeiten, um Metadaten-Standards zu entwickeln, die kennzeichnen, ob ein Medium manipuliert wurde.
Für virtuelle Influencer in den USA heißt das: Wenn sie populär werden, werden die Plattformen wahrscheinlich verlangen, dass das Profil authentisch ist und keine echte Person imitiert. Profile, die sich als jemand ausgeben, der sie nicht sind, würden gegen Nutzungsbedingungen verstoßen. Ein Original-Charakter wie Lil Miquela ist zulässig (sie hat das Verified-Häkchen auf Instagram trotz „Virtual“ Status). Ihre Betreiber haben offen gelegt, dass sie ein Kunstprojekt ist. Insofern tolerieren die Plattformen virtuelle Figuren, solange kein Identitätsbetrug vorliegt.
5. KI in Film und Werbung – Branchenstandards:
In Hollywood ist KI mittlerweile ein heißes Thema bei Vertragsverhandlungen. Die Schauspielergewerkschaft SAG-AFTRA hat 2023 bei den Tarifverhandlungen explizit Regelungen gefordert, um den Einsatz von KI und digitalen Doubles zu kontrollieren. Schauspieler möchten nicht, dass Studios einfach ihre früheren Aufnahmen verwenden, um neue Performances zu erstellen, ohne zusätzliche Bezahlung oder Zustimmung. Das Ergebnis der Verhandlungen beinhaltete z.B., dass Studios nicht ohne weiteres die Stimme oder das Abbild eines Schauspielers digital nachahmen dürfen, ohne dies im Vertrag abzudecken. Sprich: Es etabliert sich in der Branche die Norm, dass KI-Einsatz vertraglich geregelt sein muss. Das hat zwar keine Gesetzeskraft, aber zeigt, wie das Privatrecht hier steuert. Wenn ein Studio einen unbekannten Schauspieler anheuert, lässt es sich oft schon Rechte einräumen, dessen Abbild später digital weiterzuverwenden – eine Entwicklung, vor der manche warnen, da es langfristig menschliche Akteure entwerten könnte.
Für die Werbebranche: Die US-Wettbewerbshüter (FTC) haben Guidelines, dass Testimonials und Endorsements echt sein müssen oder klar kenntlich gemacht, wenn es Schauspieler sind. Beispiel: Eine Werbung zeigt begeisterte „Kunden“ – dann muss im Kleingedruckten stehen, wenn es nachgestellte Szenen mit Schauspielern sind. Wenn nun ein komplett synthetischer „Kunde“ erschaffen wird, gilt dasselbe Prinzip: Es darf nicht der Eindruck erweckt werden, das sei ein echter zufriedener Käufer, wenn es tatsächlich ein kreiertes Testimonial ist. Die FTC würde das als irreführend bewerten. Daher sollten Firmen in den USA bei KI-Werbefiguren zumindest im Disclaimer oder offensichtlich klarstellen, dass es sich um ein Modell/Avatar handelt, sofern eine unabhängige Person vorgegaukelt wird. Wenn der KI-Charakter hingegen als Markenbotschafter eingeführt wird (also bekannt ist, das ist unser virtueller Ambassador), dann ist es wie eine animierte Werbefigur (vergleichbar mit Tony der Tiger von Kellogg’s – jeder weiß, er ist nicht real, was okay ist).
6. Generative KI und Urheberrecht USA:
Obwohl die Frage vom Benutzer nicht explizit nach Urheberrecht fragte, sei am Rande erwähnt: In den USA hat das Copyright Office entschieden, dass rein KI-generierte Werke ohne menschliche Mitwirkung nicht urheberrechtlich schutzfähig sind. Das heißt, wenn ein KI-Algorithmus z.B. ein Bild oder einen Text völlig eigenständig erzeugt, kann der Nutzer dafür keinen Copyright-Claim erhalten. Für virtuelle Influencer könnte das bedeuten: Die Bilder, Videos, die ein KI-System vom Avatar generiert, könnten gemeinfrei sein, es sei denn, es fließt genug menschliche Kreativität ein (z.B. durch Nachbearbeitung, Regieanweisungen etc.). Das birgt ein Risiko: Jemand könnte theoretisch die Bilder eines KI-Influencers nehmen und selbst nutzen, weil kein Copyright besteht. Praktisch ließe sich dagegen mit Markenrecht vorgehen (der Look/Name ist geschützt) oder man argumentiert, es war doch menschliche Mitgestaltung dabei. In Europa ist diese Frage auch noch offen, aber Urheberrecht wird immer relevanter bei KI-Marketing. Während also Persönlichkeitsrecht und Werbung reguliert sind, ist der IP-Schutz von rein virtuellen Kreationen noch nicht eindeutig – was aber in den Geschäftsmodellen berücksichtigt werden sollte.
Zusammenfassung USA:
In den USA gibt es kein zentrales KI-Gesetz, aber ein Geflecht aus Einzelgesetzen und starkem Fallrecht schützt vor Missbrauch synthetischer Medien. Deepfakes werden punktuell straf- oder zivilrechtlich sanktioniert (besonders bei Porn und Wahlen), das Right of Publicity schützt Individuen vor ungewollter Kommerzialisierung ihrer Identität, und Täuschung im Geschäftsverkehr wird über bestehende Werberegeln und Betrugsdelikte geahndet. Die Kultur des Klagerechts führt dazu, dass Fehltritte schnell vor Gericht landen – was sicherlich disziplinierend wirkt. Gleichzeitig genießt die freie Meinungsäußerung hohen Stellenwert, weshalb generelle Verbote schwierig sind; ein Satire-Deepfake z.B. wäre wohl vom First Amendment gedeckt, solange er nicht verleumderisch ist. Unternehmen in den USA können KI-Avatare einsetzen, sollten aber vermeiden, reale Personen zu imitieren ohne Erlaubnis, offenlegen, wenn es sich um inszenierte Werbung handelt, und darauf gefasst sein, dass die Öffentlichkeit und Medien kritisch reagieren können, falls ein Täuschungsvorwurf erhoben wird.
Nachdem wir nun die internationalen Vergleiche gezogen haben, widmen wir uns abschließend konkreten Anwendungsfeldern, um die dortigen Chancen und Risiken sowie gegebenenfalls gesellschaftsrechtliche Besonderheiten zu beleuchten.
Anwendungsfelder, Chancen und Risiken in der Praxis
Die abstrakten Rechtsregeln gewinnen an Klarheit, wenn man sie auf spezifische Anwendungsszenarien anwendet. Wir betrachten drei Felder, die exemplarisch für die Bandbreite virtueller Akteure stehen:
- KI-Influencer in sozialen Medien – etwa virtuelle Markenbotschafter auf TikTok oder Instagram.
- KI-generierter Content auf Plattformen wie OnlyFans – der Einsatz synthetischer Personen in einem Umfeld für Erwachsenenunterhaltung und exklusive Inhalte.
- Virtuelle Geschäftsmodelle und gesellschaftsrechtliche Fragen – etwa die Organisation eines Unternehmens rund um einen KI-Influencer und die Frage, wie solche Geschäftsmodelle rechtlich einzuordnen sind.
Dabei werden jeweils Chancen (etwa neue kreative Möglichkeiten, Effizienzgewinne) und Risiken (rechtlich und ethisch) dargestellt.
KI-Influencer auf TikTok, Instagram & Co.
Virtuelle Influencer haben in den letzten Jahren auf Plattformen wie Instagram, TikTok oder YouTube beachtliche Erfolge gefeiert. Accounts wie Lil Miquela (USA), Imma (Japan) oder Noonoouri (Deutschland) haben Hunderttausende bis Millionen Follower, schließen Werbekooperationen mit großen Marken und interagieren ähnlich wie menschliche Influencer mit ihrem Publikum – mit dem Unterschied, dass die Person auf den Fotos und Videos gar nicht real ist.
Chancen aus Sicht der Unternehmen/Agenturen:
- Ein KI-Influencer ist vollständig steuerbar. Das Auftreten, die Inhalte, sogar das „Privatleben“ können gescriptet werden. Skandale aufgrund unbedachter echter Aussagen, Vertragsbrüche oder Imageschäden durch das persönliche Verhalten eines Influencers (etwa Drogeneskapaden, politische Entgleisungen) sind praktisch ausgeschlossen. Die Firma hinter dem Avatar zieht alle Fäden.
- Der Avatar kann rund um die Uhr aktiv sein und theoretisch in verschiedenen Sprachen und auf mehreren Plattformen gleichzeitig agieren. Mit genügend Ressourcen könnte man Inhalte in hoher Frequenz posten, ohne dass jemand tatsächlich vor der Kamera stehen muss.
- Es gibt keine menschlichen Begrenzungen: Der KI-Influencer altert nicht, wird nicht krank, verlangt keine Gage (abgesehen von den Kosten der Entwickler und Designer). Er kann optisch jederzeit angepasst werden, um aktuellen Trends zu entsprechen.
- Kreativ gesehen lässt sich Unmögliches möglich machen: Der virtuelle Influencer kann in fantastischen Szenerien auftreten, das Aussehen wechseln, wie ein Chamäleon verschiedene Rollen annehmen – Dinge, die mit realen Menschen nur via aufwändiger Spezialeffekte gehen würden.
- Für riskante Werbesegmente, wo Menschen zögern würden (z.B. heikle politische Kampagnen oder auch Produkttests unter gefährlichen Bedingungen), könnte man eher eine Kunstfigur vorschicken – allerdings muss man hier die Ethik beachten.
Risiken und rechtliche Stolpersteine:
- Transparenz und Glaubwürdigkeit: Wie bereits dargelegt, muss offen sein, dass es sich um einen KI-Influencer handelt (spätestens mit dem AI Act verpflichtend). Tut ein Unternehmen so, als wäre es ein echter Mensch, und fliegt dies später auf, droht ein Backlash: Das Publikum könnte sich getäuscht fühlen. Selbst wenn rechtlich keine Sanktion folgt, wäre der Vertrauensverlust schlecht fürs Marketing. Beispiel: Stellen Sie sich vor, ein vermeintlich authentischer Beauty-Influencer entpuppt sich nach Monaten als CGI – viele Follower wären schockiert und reagierten negativ, weil sie eine persönliche Bindung zu einer nicht-existierenden Person aufgebaut hatten. Daher ist es ratsam, von Anfang an den virtuellen Charakter als solchen zu branden. Viele erfolgreiche KI-Influencer spielen mit ihrer Künstlichkeit offensiv („sie outen sich“). Das kann sogar Teil des Reizes sein – die Mischung aus real und surreal.
- Haftung für Inhalte: Der KI-Influencer benötigt eine strenge Content-Kontrolle (noch schärfer als bei menschlichen Influencern, die selbst denken können, was sie posten). Zum Beispiel: Wird ein Produkt beworben, müssen alle Werbeaussagen stimmen (Vermeidung von Irreführung, UWG). Teilt der Avatar Lifestyle-Tipps, müssen diese unbedenklich sein. Lässt man eine KI automatisiert Posts generieren (etwa mittels eines Sprachmodells), muss man die Gefahr von problematischen Aussagen bannen. Praktisch dürfte derzeit kaum ein seriöses Unternehmen dem Avatar voll autonome Handlungsfreiheit geben – meist werden Menschen im Hintergrund die Inhalte entwerfen oder zumindest freigeben. Wenn der Avatar aber irgendwann KI-gestützt auf aktuelle Trends reagiert, muss er dieselben Compliance-Guidelines befolgen wie ein menschlicher Mitarbeiter.
- Interaktion mit Followern: Viele Follower schreiben Kommentare oder Nachrichten. Bei menschlichen Influencern kommen manchmal persönliche Antworten oder „Likes“. Ein KI-Influencer könnte theoretisch jedem Fan automatisiert antworten. Das hat Chancen (hohe Engagement-Rate, Fans fühlen sich beachtet), aber auch Risiken: Ein unbedachtes Wort kann falsch verstanden werden, oder eine KI-Generierung könnte inhaltlich unpassend sein (etwa ein Fan teilt ein emotionales Geständnis und der Bot antwortet flapsig, was als Verletzung aufgenommen wird). Hier empfiehlt es sich, Interaktionen entweder einzuschränken oder gut zu skripten. Aus rechtlicher Sicht: Falls der KI-Influencer in einer Antwort einen Verstoß begeht (z.B. eine beleidigende oder diskriminierende Äußerung, auch unabsichtlich), haftet wiederum der Betreiber. Das Unternehmen müsste also gegebenenfalls rund um die Uhr ein Team zur Moderation bereithalten oder Interaktionen stark filtern.
- Fehlende menschliche Verantwortung: Die Community könnte fragen: Wer steckt dahinter? Schon aus Impressumspflicht muss ein Verantwortlicher genannt sein, aber kommunikativ sollte auch klar sein, wer für den Avatar spricht (eine Art „Betreuer“ oder das Unternehmen). Sonst hat man einen Einflussfaktor im Netz ohne Gesichtspunkt der Verantwortlichkeit, was Skepsis hervorruft. Es gab in der Vergangenheit Fälle, in denen Social Bots oder Fake-Profile Skandale auslösten – da war die öffentliche Forderung: „Wer ist verantwortlich?“ Bei KI-Influencern wissen wir es in der Regel (das Unternehmen dahinter), doch je autonomer und beliebter die Figur wird, desto mehr muss der Betreiber darauf achten, Verantwortung zu übernehmen.
- Misinformation und Fake News: Wenn KI-Influencer thematisch über Lifestyle hinausgehen – z.B. ein politisch oder wissenschaftlich orientierter KI-Influencer (denkbar, dass irgendwann ein virtueller Politikkommentator auftritt) – steigt das Risiko von Fehlinformationen. Bei echten Influencern ist das schon ein Problem (Stichwort „Influencer verbreitet Corona-Fake-News“). Bei KI kann das schneller aus dem Ruder laufen, wenn nicht kontrolliert. Die rechtlichen Folgen wären ähnlich: Im Extremfall Prüfverfahren wegen Volksverhetzung, wenn extreme Inhalte geteilt werden, oder Abmahnungen, wenn falsche geschäftsschädigende Aussagen über ein Produkt gemacht werden. Daher sollten KI-Influencer sich möglichst auf unkritische Themen konzentrieren oder Experteninput bekommen, wenn es in heikle Felder geht.
Praxisbeispiel: Ein KI-Influencer auf Instagram postet ein Bild, wie er ein bestimmtes Nahrungsergänzungsmittel nimmt und schreibt: „Seit ich dieses Pulver nehme, fühle ich mich jeden Tag energiegeladen!“ – Das ist Werbung und muss gekennzeichnet werden. Zudem muss der Betreiber dafür sorgen, dass die Aussage wahr und nicht gesundheitsgefährlich ist. Wäre es z.B. ein Abnehmpulver mit bedenklichen Inhaltsstoffen, müsste man vorsichtig sein, keine Heilversprechen abzugeben (Health Claims Verordnung in der EU etc.). Wenn Nutzer fragen: „Ist das sicher?“ kann der Avatar nur mit geprüften Informationen antworten.
Weiter gedacht: Angenommen, der KI-Influencer macht auch mal Witze. Ein unüberlegter „Scherz“ könnte jemanden diskriminieren oder ein Klischee bedienen – sofort stünde man vor einem Shitstorm und eventuell juristischen Problemen (Diskriminierungsrecht, falls z.B. wegen Geschlecht oder Ethnie beleidigt wurde, zwar eher Arbeits- und öffentliches Recht, aber im Image schadet es enorm). Deshalb sollten die Betreiber dem Avatar eine Werte-Guideline mitgeben, ähnlich einem Corporate Social Media Kodex.
Fazit zu Social-Media-KI-Influencern:
Sie sind ein mächtiges Marketinginstrument, wenn richtig eingesetzt. Unternehmen können damit neue Zielgruppen erreichen und technisch innovativ auftreten. Rechtlich sind sie aber kein Freibrief – man muss alle Regeln des Influencer-Marketings penibel einhalten (Werbekennzeichnung, keine Schleichwerbung, Wahrheitspflicht, lautere Geschäftspraktiken). Zusätzlich kommen KI-spezifische Pflichten wie die Kennzeichnung als KI und eine intensivere Kontrolle der Kommunikation. Erfolgsfaktor ist, die Authentizität trotz Künstlichkeit zu bewahren – die Followerschaft muss das Konzept akzeptieren. In der Regel funktioniert das, wenn es kreativ und transparent ist. Missbraucht man das Vertrauen (etwa indem der Avatar Meinungen „heuchelt“ oder menschliche Nähe simuliert, die nicht echt ist, nur um zu verkaufen), kann das ethisch als ausbeuterisch kritisiert werden. Man bewegt sich also auch in ethischen Grauzonen: Wie weit darf man Emotionen manipulieren, indem man eine niedliche KI-Persona schafft, die Fans liebgewinnen? Insbesondere jüngere Nutzer könnten sehr an einem virtuellen Idol hängen, was Fragen aufwirft, ob das Unternehmen hier besondere soziale Verantwortung trägt.
KI-generierter Content auf Plattformen wie OnlyFans
Ein noch relativ neues, aber diskutiertes Phänomen ist der Einsatz von KI-generierten Modellen und Inhalten im erotischen/Adult-Bereich, etwa auf Abonnement-Plattformen wie OnlyFans oder auf einschlägigen Webseiten. OnlyFans ist bekannt dafür, dass Content Creators dort gegen Bezahlung exklusive Fotos, Videos oder Chats anbieten, oft im Bereich Erotik. Nun entstehen KI-generierte Modelle – also virtuelle Creator, die freizügige Bilder oder Videos von sich „zeigen“, obwohl es die Person gar nicht gibt. Sogar interaktive Chats könnten von Bots übernommen werden.
Chancen und Nutzen:
- Aus Sicht der Plattform oder von Unternehmern: Kein realer Mensch wird exponiert. Das kann Vorteile haben hinsichtlich Ausnutzung und Schutz realer Personen. In der Sexindustrie gibt es viele Probleme wie Ausbeutung, Druck etc. KI-Generierung bietet die Vision, erotische Inhalte zu erstellen, ohne dass jemand seine tatsächliche Privatsphäre opfert. Ein Betreiber kann hunderte AI-Bilder produzieren, ohne ein Model bezahlen zu müssen oder dessen Sicherheit zu riskieren.
- Skalierbarkeit und Vielfalt: Man könnte theoretisch jedem Nutzer einen „Traumtyp“ generieren – KI kann auf Vorlieben zugeschnittene virtuelle Models erschaffen (Haarfarbe, Körpertyp, Setting nach Wunsch). Das ist ein Geschäftsmodell: personalisierte Fantasie-Erfüllung via Algorithmus.
- Privatsphäre der Macher: Häufig sind es Creator selbst, die KI nutzen, um ihre Bilder zu bearbeiten oder zu perfektionieren, oder um z.B. Gesichter auszutauschen (vielleicht setzt jemand sein eigenes Gesicht auf einen perfekteren Körper oder umgekehrt, um anonym zu bleiben). So können Menschen Inhalte anbieten, ohne sich komplett zu offenbaren.
- Kostenersparnis: Für Produzenten pornografischer Inhalte könnte KI die Notwendigkeit menschlicher Darsteller verringern, was Logistik und Kosten senkt. Allerdings bedarf es viel technischer Expertise, hochqualitative Videos synthetisch herzustellen – aktuell sind es oft eher Bilder.
Rechtliche Risiken und Probleme:
- Persönlichkeitsrechte und Consent: Der allergrößte Stolperstein ist, wenn KI-Pornografie echten Personen nachempfunden wird ohne deren Einwilligung. Hier sind wir beim Thema Deepfake-Porn, das wir schon streiften. Auf OnlyFans tauchten Gerüchte auf, dass manche Nutzer KI-Bilder posten, die aussehen wie bekannte Persönlichkeiten. Das ist hochbrisant: Wenn etwa jemand die KI anweist, Bilder eines bestimmten Instagram-Models ohne deren Wissen zu sexualisieren, verletzt das massiv deren Persönlichkeitsrecht. Es wäre in Deutschland eindeutig unzulässig und wohl auch strafrechtlich als Verletzung des höchstpersönlichen Lebensbereichs (§ 201a StGB – „Verletzung des Intimbereichs durch Bildaufnahmen“) einzuordnen, auch wenn das Bild künstlich erstellt ist, denn es zeigt die Person in einem sexualisierten Kontext ohne Einwilligung. In einigen Ländern werden solche Taten bereits bestraft (siehe USA, UK plant ebenfalls Verbot von Deepfake-Porn). OnlyFans hat Richtlinien gegen das Hochladen von Inhalten, die nicht einem selbst gehören oder ohne Zustimmung Dritter – das würde solche Fälle abdecken.
- Jugendschutz und strafrechtliche Verbote: Ein gewaltiger Risikobereich: Darstellung Minderjähriger. Auch wenn kein echtes Kind involviert ist, sind in vielen Jurisdiktionen (Deutschland, EU, USA) Darstellungen sexueller Art, die echt wirkende Minderjährige zeigen, illegal. In Deutschland bestraft § 184b StGB nicht nur realen Kindesmissbrauchsdarstellungen, sondern auch „pornografische Inhalte, die nur wirklichkeitsnah wiedergeben, dass sexuelle Handlungen an, vor oder von Kindern vorgenommen werden“ – das würde auch computergenerierte Videos/Bilder umfassen, wenn sie realistisch genug aussehen. Man darf also nicht denken, KI-Porn sei ein Weg, strafbare Inhalte gefahrlos zu erstellen. Die Behörden würden genauso durchgreifen, wenn jemand KI nutzt, um etwa Lolita-Fantasien bildlich umzusetzen. Das ist absolut tabu und strafbewehrt. Somit müssen Anbieter wie OnlyFans streng darauf achten, dass KI-Modelle erwachsen wirken. Selbst ein 18-jähriges reales Model darf in pornografischen Inhalten gezeigt werden, aber eine KI, die bewusst kindlich aussieht, wäre illegal.
- Täuschung der Konsumenten / Vertragsfragen: Interessant ist auch: Wenn ein OnlyFans-Abonnent glaubt, mit einer realen Person zu interagieren (sei es im Chat oder via personalisierten Content), tatsächlich aber ein Bot und generierte Bilder bekommt, könnte er sich getäuscht fühlen. Vertraglich hat er bezahlt für „Content von X“. Wenn X keine reale Person ist, stellt sich die Frage, ist der Vertrag annullierbar wegen Irrtum? OnlyFans Terms of Service werden solche Dinge nicht vorausgesehen haben. Es ist denkbar, dass ein zahlender Kunde argumentiert: „Ich wollte explizit eine persönliche Interaktion mit einer realen Person, das war Teil des Deals.“ Rechtlich ist es im B2C-Bereich jedoch heikel – wohl eher kein Anspruch, solange er den vereinbarten Content bekommen hat (Bilder, Videos, Chats). Es gibt kein gesetzliches Recht „ich will aber, dass es echt ist“, vor allem wenn nirgendwo explizit zugesichert wurde, dass die Person real existiert (OnlyFans hat vermutlich keine Klausel „alle Creators sind echt“). Nichtsdestotrotz ist das ein ethisches Problem: Kunden zahlen in dem Glauben, eine Art zwischenmenschliche (wenn auch virtuelle) Beziehung zu unterhalten. Wird das zum Massenphänomen, könnte es Regulierungsdebatten triggern – etwa ob solche Bots als solche gekennzeichnet sein müssen (hier kommt wieder der AI Act ins Spiel: im One-on-One-Chat müsste eine KI sich eigentlich zu erkennen geben).
- Urheberrechte und Content-Eigentum: Content auf OnlyFans ist normalerweise vom Creator geschaffen, und dieser hat Urheberrechte daran (sofern Fotos/Videos, in USA jedoch auch eher Leistungsschutz). Wenn KI die Bilder generiert, ist unklar, wer Urheber ist, oder ob überhaupt Schutz besteht. Für den Kunden bedeutet das potenziell: Er bekommt Bilder, die womöglich keiner Rechtekontrolle unterliegen – wenn also er sie weiterverbreitet (was gegen die Nutzungsbedingungen ist, aber passiert), kann der Creator schwerlich Urheberrechtsverletzung geltend machen, wenn die Bilder nicht schutzfähig sind. Für die Plattform stellt sich weniger ein Problem, aber für Creator ein wirtschaftliches: Ohne klassische IP-Rechte könnten Dritte Inhalte klauen und nachahmen.
- Datenschutz der Abonnenten: Ggf. sammelt so ein KI-Bot intime Daten von Nutzern (durch Chats, Vorlieben). OnlyFans muss DSGVO/Privacy regeln, aber keine spezielle KI-Thematik. Wichtig: Wenn Chats komplett KI-automatisiert sind, sollte der Betreiber das offenlegen (AI Act lässt grüßen). Auch aus Respekt vor den Nutzern, die ansonsten sehr persönliche Dinge vielleicht anvertrauen, die keiner echten Person zukommen – manch einer findet das gut (Anonymität), andere fänden es creepy.
- Plattform-Compliance: OnlyFans & Co haben Acceptable Use Policies. Sie könnten irgendwann den Einsatz von vollständig synthetischen Creators untersagen oder regulieren, um Vertrauen zu wahren. Aktuell ist der Trend neu; die Reaktion der Plattformen wird spannend zu beobachten sein. Möglicherweise werden sie Verifikationsprozesse anpassen (aktuell muss ein Creator seine Identität nachweisen, um Einnahmen zu generieren – was macht man bei einem KI-Creator? Der Betreiber würde sich verifizieren, aber der „Star“ ist fiktiv).
- Mögliche Wettbewerbsverstöße: Wenn KI-Profile sich als echte Personen ausgeben, könnte man es als unlautere geschäftliche Handlung einordnen, da hier ein kommerzieller Dienst (Erotikangebot) unter Vorspiegelung falscher Tatsachen vermarktet wird. Noch fehlt eine klare Linie, aber man sollte vorsichtig sein, zumindest keine falschen Lebensgeschichten zu erfinden, die Nutzer täuschen. Viele OnlyFans-Models personalisieren ihre Profile stark („Ich bin 22, Studentin, liebe Sport…“). Wenn all das erfunden ist, wäre es Täuschung, aber OnlyFans-Fans erwarten durchaus ein gewisses Fiktionalisierungsmaß. Wo die rechtliche Grenze liegt, ist schwer zu sagen, da es hier um eine gekaufte Fantasie geht.
Gesamtabwägung:
KI im Adult-Content-Bereich ist ein zweischneidiges Schwert. Chancen: Schutz realer Personen, kreative neue Angebote, potenziell weniger rechtliche Komplikationen mit tatsächlichen Darstellern. Risiken: hohe Missbrauchsgefahr (Deepfake-Porn), strikte Strafbarkeitsgrenzen (Kinderabbildungen tabu), Vertrauensfragen. Startups oder Creators, die so etwas nutzen, sollten extrem vorsichtig agieren: immer explizite Zustimmung einholen, sobald reale Personen auch nur als Grundlage dienen; strikte Filtersysteme gegen unerlaubte Inhalte; Kennzeichnung und Ehrlichkeit gegenüber den zahlenden Nutzern, um langfristig glaubwürdig zu bleiben. Und niemals in Graubereiche wie „jugendliches Aussehen“ abrutschen – das wäre das sichere Aus rechtlich und moralisch. Gelingt es jedoch, rein fiktive volljährige Charaktere zu etablieren, könnte das tatsächlich auch rechtlich entlastend sein: Das „Model“ kann keine Arbeitsrechts- oder Persönlichkeitsansprüche erheben, es gibt keine Verletzung der Würde echter Menschen. Man behandelt den Avatar dann wie eine animierte Figur, was sicherlich legitimer ist, als echte Menschen unter Druck zu unanständigen Dingen zu bringen. Trotzdem muss man wachsam bleiben, wie Gesellschaft und Gesetzgeber diese Entwicklung aufnehmen – es sind ja völlig neue Fragen des Verbraucherschutzes und der Sexualethik im digitalen Raum.
Virtuelle Geschäftsmodelle und gesellschaftsrechtliche Fragen
Wenn virtuelle Influencer oder KI-Mitarbeiter nicht bloß Gimmicks, sondern Kern eines Geschäftsmodells sind, stellt sich die Frage, wie man ein solches Unternehmen strukturiert. Können KI-Personas selbst Träger von Rechten und Pflichten sein? Wie bildet man eine Firma um eine Kunstfigur? Hier stoßen wir auf gesellschaftsrechtliche und allgemeine zivilrechtliche Fragen.
1. Rechtsfähigkeit virtueller Personen:
Grundsätzlich sind nur natürliche Personen und juristische Personen (wie GmbH, AG) rechtsfähig und können Verträge abschließen, vor Gericht ziehen etc. Ein KI-Avatar ist weder noch – er ist ein Produkt oder eine Erscheinung, letztlich eine Ansammlung von Software und kreativen Elementen. Das heißt: Eine virtuelle Person kann nicht selbst Vertragspartner sein. Wenn z.B. „Virtuelle Influencerin Anna“ einen Werbevertrag mit Adidas eingeht, dann muss dieser Vertrag mit dem Betreiber geschlossen werden, etwa „XYZ Media GmbH, handelnd unter dem Namen des Avatars Anna“. Die KI kann auch keine Willenserklärungen abgeben aus eigenem Rechtswillen – es ist immer das Handeln des dahinterstehenden Menschen/Unternehmens. Das schließt aus, dass ein KI-Influencer etwa Geschäftsführer einer GmbH oder Vorstand einer AG wird, denn dafür verlangt das Gesetz natürliche (oder manchmal auch juristische) Personen mit entsprechender Geschäftsfähigkeit. In Deutschland z.B. muss ein GmbH-Geschäftsführer eine natürliche, unbeschränkt geschäftsfähige Person sein. Eine KI erfüllt das nicht.
Es gab in der EU schon die Debatte (2017 durch das EU-Parlament angestoßen) über eine mögliche „elektronische Person“ für fortgeschrittene KI-Systeme, die etwa Entscheidungen autonom trifft. Doch diese Idee wurde sehr kontrovers diskutiert und bislang nicht umgesetzt. Man will eher die Haftung bei Herstellern/Betreibern belassen als einer KI eine eigene (begrenzte) Rechtsfähigkeit zu geben. Entsprechend ist es aktuell undenkbar, dass ein virtueller Mitarbeiter selbst Rechteinhaber sein könnte – er ist rechtlich gesehen ein Werkzeug und geistiges Eigentum von jemandem.
2. Unternehmensstruktur um KI-Influencer:
Praktisch wird häufig so vorgegangen: Es gibt eine Gesellschaft (GmbH, UG etc.), welche die Rechte an der virtuellen Figur hält und das Business betreibt. Diese Gesellschaft kann Verträge schließen (mit Werbekunden, mit Dienstleistern), Einnahmen erzielen (z.B. Sponsoring-Gelder, Produktverkäufe) und Ausgaben haben (z.B. Designer, Programmierer, Marketingkosten). Der virtuelle Influencer wird in der Außenkommunikation zwar als Person dargestellt, intern aber wie eine Marke oder ein Produkt verwaltet. Vergleichbar vielleicht mit einer Comicfigur: Mickey Mouse z.B. kann man sich als Person vorstellen, aber alle Geschäfte laufen natürlich über Disney als Rechteinhaber.
Gesellschaftsrechtlich ist interessant: Die Gesellschafter dieser Unternehmen sind oft die Kreativen/Programmierer, eventuell zusammen mit Investoren. Man könnte theoretisch auch dem Avatar einen eigenen Wert beimessen (immaterieller Vermögensgegenstand), der ins Kapital eingebracht wird – etwa indem die Gründer sagen: „Unsere KI-Figur samt Software und Konzept hat Wert X“, das ins Unternehmen eingebracht wird. Das ist aber bisher eher fiktiv; meist fließt Geld in Form von Startkapital, das dann in Entwicklung investiert wird.
Ein Punkt ist die Haftungsbegrenzung: Es ist klug, eine Kapitalgesellschaft vorzuschalten, damit nicht die Einzelpersonen voll haften. Denn wie wir gesehen haben, lauern einige Haftungsrisiken (Persönlichkeitsrechtsklagen, Wettbewerbsverstöße, DSGVO-Bußgelder). Die GmbH bietet da Haftungsschutz nach außen. Natürlich haften bei Rechtsverletzungen wie Persönlichkeitsrecht die Handelnden auch persönlich deliktisch – aber oft lässt sich die Verantwortung auf das Unternehmen lenken.
3. Vertragsgestaltung mit KI-Avataren:
Wenn eine Agentur einen virtuellen Influencer an Kunden vermittelt, wird im Vertrag klar festgehalten, dass die Leistungen durch den Avatar (besser: durch den Betreiber via Avatar) erfolgen. Z.B. eine Klausel: „Die Influencer-Kampagne wird mit dem virtuellen Charakter XY durchgeführt, der von der ABC GmbH verkörpert wird. ABC GmbH stellt sicher, dass…“. Auch sollten Verträge adressieren, was passiert, wenn der Avatar ausfällt (technische Probleme) oder wenn das Publikum negativ reagiert – so wie bei menschlichen Testimonials oftmals Moralklauseln existieren („falls der Influencer in Skandal verwickelt, darf Vertrag gekündigt werden“). Hier könnte man etwas analoges vereinbaren („falls die virtuelle Figur auf breite Ablehnung stößt oder regulatorisch untersagt wird…“). Klingt ungewöhnlich, aber denkbar, da es neuartiges Risiko ist.
4. Schutz des eigenen virtuellen Geschäftsmodells:
Aus unternehmerischer Sicht will man seine KI-Figur vor Nachahmern schützen. Wir erwähnten Markenrecht, Urheberrecht (sofern vorhanden) und Designschutz als Instrumente. Darüber hinaus könnte Know-how-Schutz wichtig sein: Die Technik, mit der man den Avatar animiert, und die spezifischen Einstellungen könnte man als Geschäftsgeheimnis hüten (unterfällt dem GeschGehG, Geschäftsgeheimnisgesetz). Mitarbeiter, die Zugang haben, müssen NDAs unterschreiben. Wenn ein virtueller Mitarbeiter besondere Algorithmen nutzt (z.B. eine proprietäre KI für Dialoge), sollte man diese patentieren oder anderweitig sichern, sofern möglich.
5. KI-Influencer als eigene Rechtspersönlichkeit – Sci-Fi oder Zukunft?
Obwohl aktuell ausgeschlossen, kann man philosophieren: Sollte das Recht irgendwann KI-Entitäten Rechte verleihen? Beispielsweise begrenzte Rechtsfähigkeit, um selbst für Schäden aufzukommen (etwa über einen Fonds, der von den Betreibern gespeist wird). Bisher besteht dafür wenig Bedarf, da man den Umweg über Versicherung und Haftung der Betreiber nehmen kann. Aber die Diskussion könnte eines Tages real werden, wenn KI-Agenten immer autonomer agieren. Im Gesellschaftsrecht gab es früher die Fiktion des „Stiftungsersatzes“: Man könnte sich eine KI-Entität vorstellen, die einer Stiftung anvertraut ist. Eine Stiftung hat keine Eigentümer, sondern einen Zweck und Organe. Man könnte theoretisch eine Stiftung gründen „zur Verwaltung der virtuellen Person X“, mit der KI als zentralem Asset und einem Vorstand, der menschlich ist. Aber die KI selbst bliebe Objekt.
6. Arbeitnehmer- und arbeitsrechtliche Aspekte:
Wenn Unternehmen virtuelle Mitarbeiter einsetzen anstelle menschlicher, wirft das arbeitsrechtlich derzeit keine direkten Fragen auf (weil die KI kein Arbeitnehmer ist). Indirekt könnte es aber relevant werden, wenn z.B. eine KI Entscheidungsmacht über menschliche Mitarbeiter hat. Beispielsweise ein KI-Manager, der Urlaubsanträge genehmigt oder Schichten einteilt – hier müssten Betriebsräte ggf. mitreden, denn nach Betriebsverfassungsgesetz § 87 könnte der Einsatz solcher Software der Mitbestimmung unterliegen (Automatisierung von Überwachung oder Leistungssteuerung). Auch Datenschutz im Arbeitsverhältnis spielt rein, wenn KI Mitarbeiterdaten verarbeitet.
Ein anderes Thema: Sozialversicherung und Steuern. KI zahlt natürlich keine Sozialabgaben. Wenn durch KI Arbeitsplätze ersetzt werden, gibt es Debatten, ob Unternehmen, die das tun, eventuell eine „Robotersteuer“ zahlen sollten, um das Sozialsystem zu stützen. Bisher ist das politisch nicht umgesetzt, aber es zeigt, dass ein großflächiger Ersatz menschlicher Mitarbeiter durch virtuelle zu gesellschaftspolitischen Reaktionen führen könnte. In unserem Kontext – Medien/Influencer – ist das (noch) kein Massenphänomen, eher Einzelfälle.
7. Ethische Verantwortung des virtuellen Unternehmens:
Ein Business, das komplett auf einer virtuellen Identität beruht, muss sich auch Gedanken um die ethische Programmierung dieser Identität machen. Wenn eine Firma z.B. einen KI-Fitnesscoach als App vermarktet, hat sie quasi einen „virtuellen Angestellten“, der aber keinen eigenen Willen hat, nur das, was programmiert ist. Aus Unternehmensethik-Sicht hat das Unternehmen die volle Verantwortung dafür, was dieser KI-Coach den Kunden rät (viel direkter als bei menschlichen Angestellten, die selbst moralische Entscheidungen treffen können). Man könnte argumentieren, dass es einfacher ist, ein KI-System immer korrekt und inklusiv zu halten, weil man Parameter festlegt – aber die Entwickler sind wiederum Menschen mit Bias. Hier knüpft auch der AI Act mit Pflichten (Risikobewertung, Bias Testing für Hochrisiko) an, was man freiwillig auch für nicht-hochrisk-KI tun kann, um Skandale zu vermeiden.
8. Beispiel eines virtuellen Unternehmens:
Angenommen, eine Agentur gründet „VirtualStar GmbH“, deren einziger „Promi“ der virtuelle Influencer VIKI ist. VIKI hat Millionen Followers, macht Werbung, vielleicht gibt es sogar Merchandise (T-Shirts mit VIKIs Avatar, virtuelle Güter wie NFTs von ihren Bildern). Alle diese Geschäfte werden von der VirtualStar GmbH abgewickelt. Möglicherweise wird VIKI auch als Markenbotschafter langfristig für eine Firma engagiert. Dann muss VirtualStar GmbH auch laufende Pflichten erfüllen, z.B. Steuererklärung, Buchführung. Was, wenn VIKI wirtschaftlich riesigen Erfolg hat? Die Gesellschaft könnte Gewinne ausschütten – an die menschlichen Gesellschafter. VIKI selbst als „Figur“ wird kein Gehalt bekommen; sie könnte aber fiktiv als Marketingaufwand verbucht sein (z.B. die Kosten zu ihrer Erstellung können aktiviert werden als immaterielles Wirtschaftsgut und über Jahre abgeschrieben werden). Das zeigt, wie sie in betriebswirtschaftlicher Sicht wie ein Asset behandelt wird.
9. Ende eines virtuellen Influencers:
Interessant: Wenn der Hype vorbei ist oder das Unternehmen insolvent geht, was passiert mit dem Avatar? Er ist verkaufbar wie eine Marke oder Domain. Die Rechte kann man an jemand anders übertragen. Das führt zu der kuriosen Möglichkeit, dass ein virtueller Influencer „die Agentur wechselt“ oder von einer anderen Firma übernommen wird, ohne dass das Publikum das zwingend merkt (außer am veränderten Stil). Hier gibt es Parallelen zum Konzept fiktionaler Figuren wie James Bond – die Rechte gingen von Ian Fleming auf Studios über, aber die Figur lebt weiter. Rechtlich ist es unproblematisch, moralisch könnte die Frage sein, hat die Figur eine Art „Integrität“, die man wahrt, oder kann der neue Eigner die Persona komplett umerziehen? Solange keine gesetzlichen Schranken (wie Urheberpersönlichkeitsrechte – die hat eine KI-Figur ja nicht, da sie kein Urheber und kein Mensch ist) greifen, kann der Eigner völlig frei die Figur umgestalten. Das könnte Fans irritieren, aber rechtlich zulässig. Es sei denn, es gab zuvor Versprechen, die gebrochen würden (z.B. wenn VIKI inhaltlich für etwas stand und dann plötzlich gegenteiliges macht – aber Versprechen einer fiktiven Figur sind selten einklagbar).
Fazit zu virtuellen Geschäftsmodellen:
Man behandelt die KI-Person im Prinzip wie ein Produkt oder eine Marke, und organisiert das Unternehmen entsprechend. Wichtig ist, dass extern keine Scheinselbstständigkeit oder Stellvertreter-Konfusion entsteht: Verträge immer im Namen der Firma schließen, Kennzeichnung im Impressum wer verantwortlich ist, etc. Intern sollte man sich absichern, was Rechte und Pflichten angeht, und sich auf zukünftige Regularien einstellen (etwa, falls KI-Register eingeführt werden oder besondere Steuerregeln kommen).
Fazit
Virtuelle Mitarbeitende, KI-Influencer und synthetischer Content sind längst keine Science-Fiction mehr, sondern halten Einzug in Geschäftsleben und Marketing. Sie bieten spannende Chancen: Unternehmen können neue Formen der Kundenansprache entwickeln, rund um die Uhr präsent sein, Inhalte kreativ skalieren und sogar sensible Bereiche wie Werbung oder Erotik neu denken, ohne reale Personen zu gefährden. Gerade Startups und Medienunternehmen mit begrenzten Ressourcen können von KI-generierten Akteuren profitieren, um professionell aufzutreten, ohne große Teams beschäftigen zu müssen. Auch Konsumenten können Vorteile haben – z.B. erhält man durch virtuelle Service-Mitarbeiter vielleicht schneller Hilfe, und kreative KI-Inhalte können unterhaltsam und innovativ sein.
Den rechtlichen Rahmen sollte man dabei jedoch nie aus dem Blick verlieren. In der EU und besonders in Deutschland gilt: Was offline verboten ist, ist online ebenso verboten – und KI ändert daran nichts. Beleidigt ein Avatar jemanden, haftet der Betreiber wie bei jeder anderen Ehrverletzung. Macht ein KI-Werbeclip falsche Versprechen, greifen Wettbewerbsrecht und ggf. behördliche Sanktionen genauso. Gleichzeitig sind neue Regeln auf dem Vormarsch, die speziell auf KI abzielen, allen voran der AI Act mit seinen Transparenzvorschriften. Unternehmen, die frühzeitig Transparenz und Compliance einbauen, werden im Vorteil sein, wenn diese Gesetze in Kraft treten.
Besonders schützenswerte Rechte – Persönlichkeit, Datenschutz, geistiges Eigentum – müssen akribisch beachtet werden. Die Technologien laden leider auch zu Missbrauch ein, sei es durch Deepfakes oder unerlaubte Datenverarbeitung. Hier gilt eine klare Warnung: Das gezielte Imitieren echter Personen ohne Erlaubnis ist rechtlich tabu. Ebenso ist die Grenze dort erreicht, wo empfindliche Rechtsgüter wie der Jugendschutz tangiert werden. Kein Marketingerfolg rechtfertigt es, solche Grenzen zu überschreiten.
International haben wir gesehen, dass der Umgang unterschiedlich ist: China fährt eine harte Regulierungs- und Kontrolllinie – wer dort agieren will, muss Kennzeichnung und Registrierung sehr ernst nehmen. Die USA geben mehr Freiheit, aber das bedeutet nicht Abwesenheit von Recht – im Gegenteil sorgen Gerichte und einzelne Gesetze dafür, dass auch dort rote Linien existieren (etwa bei pornografischen Deepfakes und kommerzieller Ausbeutung von Personas).
Ethische Grauzonen bleiben: Darf man Menschen emotional täuschen, auch wenn es legal ist? Beispiel: Ein KI-Influencer, der Teenagern ein unerreichbares Schönheitsideal vorlebt – bei menschlichen Influencern wird das schon kritisiert, bei computergenerierten könnte der Vorwurf der Künstlichkeit den Druck auf Jugendliche erhöhen („nicht mal Influencer sind echt“). Unternehmen sollten sich dieser Verantwortung bewusst sein. Langfristig kann nur derjenige nachhaltigen Erfolg haben, der Vertrauen mit seinem Publikum aufbaut. Und Vertrauen entsteht durch Ehrlichkeit und Respekt vor den Rechten und Interessen der Nutzer.
Abschließend lässt sich festhalten: Virtuelle Mitarbeitende und KI-Influencer bewegen sich im derzeitigen Rechtssystem keineswegs in einem rechtsfreien Raum. Im Gegenteil, es greifen vielfältige bestehende Vorschriften, von Impressumspflichten über UWG, BGB, KUG bis DSGVO. Diese gelten uneingeschränkt und müssen integraler Bestandteil jeder Projektplanung sein. Zusätzlich muss man den Blick nach vorn richten – künftige Gesetze wie der AI Act oder Anpassungen im Urheber- und Haftungsrecht – um frühzeitig compliant zu sein.
Für Startups, Medienhäuser und Agenturen heißt das konkret:
- Sorgt für rechtliche Beratung schon bei der Konzeption eurer KI-Projekte. Juristische Begleitung ist keine Option, sondern Pflicht, wenn man Ärger ersparen will.
- Dokumentiert die Entwicklung eurer KI-Personas (Trainingdaten, Lizenzen, Entscheidungen), um im Streitfall darlegen zu können, dass ihr keine Rechte verletzt habt.
- Entwickelt Ethik-Richtlinien für eure KI-Charaktere: Was dürfen sie, was nicht? Welche Werte vertreten sie? Das schützt vor Ausrutschern.
- Seid transparent gegenüber eurer Zielgruppe: Markiert KI-Inhalte offen, kommuniziert, wer dahintersteht. Die meisten Menschen akzeptieren KI-Inhalte, solange sie nicht für dumm verkauft werden.
- Beobachtet die Regulierung weiter: Was in China passiert, kann Trendsetter sein; was in der EU beschlossen ist (AI Act), wird kommen; die Dynamik erfordert ständige Anpassung.
Die virtuelle Revolution im Marketing und Kundenkontakt steckt voller Möglichkeiten, aber auch potenzieller rechtlicher Fallstricke. Wer die Chancen nutzen will, muss die Risiken managen. Mit klarem rechtlichen Fundament und Sinn für ethische Grenzen kann der Einsatz synthetischer Mitarbeiter und Influencer jedoch gelingen – und vielleicht die Zukunft der Medien- und Werbelandschaft mitgestalten, ohne dabei auf der falschen Seite des Gesetzes oder der Geschichte zu stehen.