Agenturen, Freelancer, externe Entwicklerstudios und Content-Dienstleister sind für viele Unternehmen längst Teil der Wertschöpfungskette. Das gilt für Konzernstrukturen ebenso wie für Startups, die Wachstum, Marketing und Produktentwicklung häufig mit externen Partnern skalieren. Parallel dazu ist KI-Nutzung zur Selbstverständlichkeit geworden: Textentwürfe, Designvarianten, Code-Snippets, Übersetzungen, Recherche, Bild- und Videoerstellung, Automatisierung in Ticketsystemen, sogar KI-gestützte Analyse von Kundendaten. Genau hier entsteht ein typisches Compliance-Problem: Der KI-Einsatz findet statt, aber ohne saubere Leitplanken. Und sobald externe Dienstleister involviert sind, vervielfacht sich das Risiko – weil Informationen, Daten und Arbeitsergebnisse durch zusätzliche Systeme, Personen und Toolketten laufen.
Eine KI-Richtlinie für Externe ist kein „Nice-to-have“, sondern ein operatives Steuerungsinstrument. Sie definiert, welche Systeme genutzt werden dürfen, welche Daten in welche Tools dürfen, welche Transparenz- und Dokumentationspflichten gelten, wie Rechte an Arbeitsergebnissen abgesichert werden und wie man im Ernstfall (Datenschutzvorfall, IP-Claim, Reputationsschaden) handlungsfähig bleibt. Ohne solche Regeln bleiben Unternehmen im Blindflug: Der Dienstleister nutzt „irgendein“ Tool, speist Inhalte in offene Systeme ein, arbeitet mit Subunternehmern, und das Unternehmen erfährt davon erst, wenn es zu spät ist – etwa durch eine Abmahnung, eine Datenschutzmeldung oder weil vertrauliche Informationen plötzlich an Stellen auftauchen, an denen sie nicht sein sollten.
1. Warum KI-Richtlinien für Externe anders sind als interne Policies
Viele Unternehmen haben inzwischen interne KI-Guidelines oder zumindest Hinweise zur Toolnutzung. Der entscheidende Unterschied: Interne Policies greifen nur begrenzt gegenüber externen Partnern, weil diese nicht in die Organisationsstruktur eingebunden sind und häufig eigene Systeme, eigene Accounts und eigene Prozesse nutzen. Gerade Agenturen arbeiten oft mit standardisierten Toolchains – von Text- und Bildgeneratoren über Automationsplattformen bis hin zu Kollaborationstools. Wenn hier keine verbindliche Regelung existiert, läuft der Auftraggeber schnell in eine unangenehme Beweis- und Steuerungslage: Die Ergebnisse kommen an, aber niemand kann sicher sagen, welche Daten wo verarbeitet wurden, ob ein Training stattgefunden hat, ob Dritte beteiligt waren oder ob Output auf problematischen Quellen basiert.
Hinzu kommt: KI-Nutzung ist nicht binär („KI ja/nein“), sondern graduell. Ein Unterschied ist, ob ein Dienstleister ein geschlossenes System in einer kontrollierten Umgebung nutzt oder ein offenes System, bei dem Inputs potentiell für Training oder andere Zwecke verwendet werden. Ebenso macht es einen Unterschied, ob ein Dienstleister lediglich „Text glättet“ oder ob sensible Informationen verarbeitet werden – etwa Produkt-Roadmaps, Kundenlisten, Finanzdaten, interne Strategiepapiere, unveröffentlichte Kampagnen oder Quellcode. Eine KI-Richtlinie für Externe muss daher nicht nur Regeln nennen, sondern auch klar operationalisieren, wie Freigaben erfolgen, wie Transparenz hergestellt wird und welche Mindeststandards einzuhalten sind.
2. Tool-Auswahl, Datenflüsse und Kontrollmechaniken
In der Praxis entscheiden sich die meisten Streitfälle nicht daran, ob KI genutzt wurde, sondern daran, wie sie genutzt wurde. Deshalb gehören in eine solide KI-Richtlinie drei Bausteine, die oft fehlen: (1) Toolklassifizierung, (2) Freigabeprozess, (3) Nachweis- und Dokumentationslogik.
Toolklassifizierung bedeutet: Es wird unterschieden zwischen offenen und geschlossenen Systemen – und vor allem wird festgelegt, welche Kategorie unter welchen Bedingungen zulässig ist. Ein häufig praktikabler Ansatz: Offene Systeme sind für vertrauliche Informationen tabu oder nur nach ausdrücklicher Freigabe zulässig; geschlossene Systeme sind eher möglich, wenn bestimmte Einstellungen (z. B. Training/Logging-Optionen) und Vertragsgrundlagen (z. B. Auftragsverarbeitung, Subunternehmerliste) geklärt sind.
Der Freigabeprozess ist der zentrale Hebel, um aus „wir haben eine Policy“ echte Steuerung zu machen. Eine reine Anzeigepflicht hilft wenig, wenn der Dienstleister zwar informiert, aber faktisch frei entscheidet. In der Praxis bewährt sich eine Regel: neue oder veränderte KI-Systeme nur nach vorheriger Freigabe in Textform (E-Mail genügt). Das ist niedrigschwellig, aber im Streitfall eindeutig. Ergänzend ist eine „Tool-Liste“ sinnvoll: Was bereits freigegeben ist, darf weiter genutzt werden; Änderungen sind anzeigepflichtig; neue Tools benötigen Zustimmung.
Die Dokumentationslogik muss so leicht sein, dass sie wirklich gelebt wird. Niemand will ein 20-seitiges Protokoll pro Kampagne. Aber ein kurzes Einsatzprotokoll (Tool/Anbieter, Einsatzumgebung/Account, offen/geschlossen, wesentliche Einstellungen, Subunternehmer) ist ein extrem wirksamer Kompromiss: Es schafft Nachweisbarkeit, erleichtert Audits und reduziert das Risiko, im Ernstfall ohne Fakten dazustehen. Gerade bei größeren Unternehmen oder regulierten Bereichen ist das oft der Unterschied zwischen „kontrollierbar“ und „unkontrollierbar“.
3. Urheberrecht, Rechtekette und KI-Output
Der zweite große Risikobereich ist das Rechte- und IP-Thema. Agenturen liefern Logos, Kampagnenvisuals, Texte, Claims, Videos, Templates, Code, Musik oder UI-Elemente. Sobald KI im Spiel ist, stellen sich zwei typische Fragen: (1) entstehen überhaupt übertragbare Rechte?, (2) kann der Dienstleister diese Rechte wirksam einräumen?
Hier ist juristische Nüchternheit gefragt: Rechte können nur eingeräumt werden, soweit sie entstehen und soweit der Einräumende verfügungsberechtigt ist. Genau deshalb sollten KI-Richtlinien und begleitende Vertragsklauseln mit einer „soweit und sobald“-Logik arbeiten. Das ist kein Selbstzweck, sondern eine Risikoreduktion: Es verhindert, dass der Dienstleister etwas „garantiert“, was er in Wahrheit nicht garantieren kann – und es verhindert, dass der Auftraggeber sich auf eine scheinbar wasserdichte Rechteklausel verlässt, die im Streitfall angreifbar ist.
Parallel dazu ist eine Rechtekette entscheidend: Mitarbeitende, Freelancer, Subunternehmer, beteiligte Produktionsstudios – alle müssen ihre Rechte so einräumen, dass das Ergebnis beim Auftraggeber sauber ankommt. In klassischen Agenturverträgen wird das häufig pauschal mit „der Auftragnehmer sichert zu“ erledigt. Bei KI-Outputs reicht das nicht immer. Nicht, weil KI „automatisch illegal“ wäre, sondern weil in der Toolkette zusätzliche Unwägbarkeiten entstehen: Welche Datenbasis? Welche Lizenzbedingungen? Welche Weiterverwendung? Welche Rechte Dritter werden möglicherweise berührt? Eine gute Richtlinie koppelt daher Rechtezusagen an konkrete Pflichtmechaniken: Toolfreigabe, Input-Verbote, Prüfpflichten, Dokumentation. Das ist deutlich belastbarer als pauschale Zusicherungen „frei von Rechten Dritter“, die in der Praxis häufig zu absolut sind.
Und noch ein Punkt, den viele übersehen: Auch wenn ein IP-Claim selten ist, ist er dann, wenn er kommt, meistens teuer. Kampagnenstopps, Re-Design, Neu-Schnitt, Re-Deployment, Reputationsschaden – und plötzlich sind die vermeintlichen Kostenvorteile durch KI-Nutzung pulverisiert. Eine Richtlinie ist daher nicht „juristische Bürokratie“, sondern eine wirtschaftliche Absicherung der Produktionskette.
4. Haftung, Datenschutz und Compliance
Wenn ein externer Dienstleister KI nutzt, bewegen sich Unternehmen schnell im Schnittbereich aus Datenschutzrecht, Geheimnisschutz und vertraglicher Haftung. Das Kernproblem: Viele Regelungen sind entweder zu weich („bitte aufpassen“) oder zu hart („umfassend, unabhängig von allem“). Beides ist unpraktisch. Zu weich ist wirkungslos. Zu hart wird nicht unterschrieben oder führt zu Scheinsicherheit, weil man am Ende doch „irgendwie“ arbeitet.
Praxistauglich ist eine klare Linie: Haftung und Freistellung dort scharf, wo Pflichten verletzt werden, nicht als pauschale Gefährdungshaftung für Toolrisiken. Eine gute KI-Richtlinie definiert deshalb konkret, welche Pflichten „kritisch“ sind: keine offenen Systeme für vertrauliche Daten, Freigabe neuer Tools, Einhaltung der Transparenz, keine unzulässigen Inputs, Einhaltung von Datenschutzvorgaben. Kommt es wegen eines Verstoßes zu Schaden oder Drittansprüchen, wird die Haftung scharf. Hält der Dienstleister sich an die Regeln, bleibt das Risiko beherrschbar.
Im Datenschutz ist die Leitfrage: Wer verarbeitet welche Daten zu welchem Zweck in wessen System? Gerade bei Agenturen wird oft „nebenbei“ mit Kundendaten gearbeitet: CRM-Exports, Newsletterlisten, Lead-Daten, Supportfälle, Nutzerfeedback. Sobald solche Daten in KI-Tools gelangen, stellt sich regelmäßig die Frage nach Auftragsverarbeitung, TOMs, Subunternehmern, Speicherorten und Meldewegen. Eine KI-Richtlinie kann (und sollte) keine vollständige DSGVO-Dokumentation ersetzen – aber sie kann sicherstellen, dass es eine klare Sperre gibt („bestimmte Datenkategorien nicht in bestimmte Toolkategorien“) und dass es bei relevanten Einsätzen eine Pflicht zur Abstimmung gibt.
Auch die KI-Verordnung (AI Act) spielt zunehmend eine Rolle – weniger, weil jede Agentur plötzlich Herstellerpflichten übernimmt, sondern weil Unternehmen ein Interesse daran haben, dass Pflichten entlang der Kette sauber zugeordnet werden: Was liegt beim Anbieter? Was liegt beim Betreiber? Was muss dokumentiert werden? Eine sinnvolle Richtlinie formuliert hier nicht „wir stellen alles sicher“ (das ist häufig objektiv nicht möglich), sondern „wir erfüllen die Pflichten, die uns in unserer Rolle treffen, und wirken an Nachweisen mit“. Das ist juristisch sauber und operativ machbar.
5. Umsetzung in der Praxis
Eine KI-Richtlinie entfaltet nur dann Wirkung, wenn sie verbindlich eingebunden wird – typischerweise als Anlage zum Dienstleistungs-, Agentur- oder Rahmenvertrag. Dabei sind drei Dinge entscheidend:
- Geltung und Rangverhältnis: Klare Regel, dass die Richtlinie Bestandteil des Vertrags ist und wie sie zu anderen Regelungen steht (z. B. MSA/SOW-Struktur).
- Änderungsmechanik: KI-Toollandschaften ändern sich laufend. Eine Richtlinie muss aktualisierbar sein, ohne jedes Mal den gesamten Vertrag neu zu verhandeln. Das gelingt über Textform-Mitteilung, angemessene Frist und eine praktikable Konfliktlösung (Widerspruch/Abstimmung).
- Operative Anschlussfähigkeit: Freigaben müssen in den Alltag passen. Ein Prozess, der nur mit Compliance-Ticket und drei Unterschriften funktioniert, wird ignoriert. Ein Prozess, der per E-Mail und Tool-Liste läuft, wird gelebt.
Für Startups ist die Versuchung groß, das Thema kleinzureden: „Wir sind zu früh, zu klein, das wird schon gutgehen.“ Genau dort entstehen aber die typischen Langzeitschäden: Verträge werden mit Standard-Templates geschlossen, Agenturen arbeiten schnell und kreativ, und niemand achtet darauf, was mit Produkt- und Kundendaten passiert. Wenn das Startup später wächst, kommt die Due Diligence – und plötzlich ist unklar, ob IP sauber übertragen wurde, ob Daten sauber verarbeitet wurden, ob Subunternehmer sauber eingebunden waren. Eine schlanke, gut formulierte KI-Richtlinie kostet am Anfang wenig, spart später aber erheblich Zeit, Geld und Diskussionen.
Für größere Unternehmen gilt das Gegenteil: Hier sind häufig bereits Compliance-Strukturen da, aber sie greifen nicht bis in die operative Agenturarbeit. Dann entstehen „Policy-Parallelwelten“: intern streng, extern unklar. Eine externe KI-Richtlinie schließt genau diese Lücke.
Fazit:
Sobald externe Dienstleister mit KI arbeiten, ist die Frage nicht mehr, ob es Risiken gibt, sondern ob sie beherrscht werden. Eine KI-Richtlinie für Externe ist dabei eines der effizientesten Werkzeuge: Sie schafft Klarheit über Tools, Daten, Freigaben, Dokumentation, Rechtekette und Haftung. Sie reduziert Streitpotenzial, verbessert Nachweisbarkeit und verhindert, dass Unternehmen im Ernstfall ohne Fakten und ohne Vertragsschutz dastehen.
Wer mit Agenturen, Studios, Freelancern oder externen Tech-Teams arbeitet, sollte das Thema nicht dem Zufall überlassen. In vielen Fällen reicht eine kompakte, praxistaugliche Richtlinie, die sauber an den Vertrag angebunden ist und im Alltag funktioniert. Genau dafür gibt es keine „One-size-fits-all“-Vorlage: Toollandschaft, Risikoprofil, Datenarten und Wertschöpfung sind von Unternehmen zu Unternehmen verschieden.
Für die Erstellung, Anpassung und vertragliche Einbindung solcher KI-Richtlinien – insbesondere für Agentur- und Dienstleisterkonstellationen (Marketing, Content, Software, Games, Media) – ist typischerweise eine Kombination aus operativer Kenntnis der Toolkette und präziser Vertragsarbeit erforderlich. Entsprechend kann die Ausarbeitung einer passgenauen KI-Richtlinie inklusive Freigabeprozessen, Rechtekette und Haftungslogik kurzfristig strukturiert umgesetzt werden, wenn die Zusammenarbeit mit Externen skaliert oder bereits laufende Projekte abgesichert werden sollen.











































