Private Accounts bei ChatGPT & Co. für Unternehmenszwecke sind ein Einfallstor für Datenschutzverstöße, Geheimnisabfluss und arbeitsrechtliche Konflikte; wer KI im Betrieb nutzen will, braucht klare Verbote oder ein sauber aufgesetztes „Secure Enablement“ mit Technik-, Vertrags- und Verhaltensregeln.
Warum private KI-Accounts im Unternehmenskontext zum Compliance-Risiko werden
Viele Teams arbeiten längst mit KI-Assistenten. Häufig nicht über Unternehmenslizenzen, sondern mit privaten Accounts. Genau hier beginnen die haftungsträchtigen Themen:
a) Kontrollverlust über Daten
Was einmal in ein Prompt eingegeben wurde, ist – je nach Anbieter – nicht mehr vollständig kontrollierbar. Ohne vertraglich gesicherten Opt-out gegen Trainingszwecke oder klare Löschfristen lässt sich weder der Grundsatz der Zweckbindung (Art. 5 Abs. 1 lit. b DSGVO) noch die Speicherbegrenzung (Art. 5 Abs. 1 lit. e DSGVO) zuverlässig nachweisen. Accountability nach Art. 5 Abs. 2 DSGVO scheitert praktisch, wenn Eingaben über Privatkonten laufen, für die es keine Logs, keine Richtlinienbindung und keine Auftragsverarbeitungsverträge gibt (Art. 28 DSGVO). (EUR-Lex)
b) Rechtswidrige internationale Datentransfers
Viele KI-Anbieter verarbeiten Daten außerhalb der EU. Ohne verlässliche Transfergrundlage nach Art. 44 ff. DSGVO drohen Bußgelder. Zwar existiert mit dem EU-US Data Privacy Framework eine (wieder) tragfähige Angemessenheitsentscheidung, sie greift jedoch nur für zertifizierte US-Unternehmen – und nur bei korrekter Einbindung. Private Nutzung umgeht jede Transfer-Due-Diligence des Unternehmens.
c) Geschäftsgeheimnisse in der Unsicherheitsschleuse
Geschäftsgeheimnisse sind nur geschützt, wenn „angemessene Geheimhaltungsmaßnahmen“ getroffen wurden (§ 2 Nr. 1 b GeschGehG). Das Dulden privater KI-Kanäle konterkariert genau diese Maßnahmen: Es existiert kein vertraglich gesicherter Vertraulichkeitsstandard, keine technische Zugriffskontrolle und keine Auditspur. Im Streitfall fällt der Schutz weg – mit erheblichen Folgeansprüchen.
d) Arbeits- und betriebsverfassungsrechtliche Stolperfallen
Sobald die Nutzung von KI-Tools gesteuert, überwacht oder ausgewertet wird, ist i. d. R. der Betriebsrat im Boot: § 87 Abs. 1 Nr. 6 BetrVG (technische Einrichtungen zur Verhaltens-/Leistungsüberwachung) zieht hier regelmäßig eine Mitbestimmungspflicht – unabhängig von der Absicht, weil schon die objektive Eignung zur Überwachung genügt.
e) Haftung für fehlerhafte Inhalte und Rechteketten
Halluzinierte Fakten, Lizenz-Unklarheiten bei generiertem Code oder Bildern und unautorisierte Nutzung vertraulicher Informationen können vertragliche und deliktische Haftungstatbestände auslösen. Ohne Freigabeprozesse und Quellen-Dokumentation ist eine sorgfältige Werk-/Dienstleistungserbringung schwer belegbar.
Zwischenfazit: Private KI-Accounts sind organisatorisch bequem, rechtlich aber ein „Blindflug“: Niemand weiß, welche Daten wohin wandern, wer darauf zugreift, wie lange sie gespeichert werden – und ob der Einsatz mit der DSGVO, dem GeschGehG oder der eigenen Geheimhaltungsarchitektur kompatibel ist.
Rechtsrahmen: DSGVO, GeschGehG, Beschäftigtendaten, Mitbestimmung
a) DSGVO-Pflichten des Verantwortlichen
- Rechtsgrundlage & Zweck (Art. 5, 6 DSGVO): Unternehmensdatenverarbeitungen brauchen eine tragfähige Rechtsgrundlage und einen klaren Zweck. Private Accounts entziehen sich dieser Steuerung.
- Besondere Daten (Art. 9 DSGVO): Schon harmlose Prompts können Gesundheits-, Gewerkschafts- oder biometrische Daten enthalten. Bei privater Nutzung fehlt jede Schutzarchitektur – ein kategorischer Ausschluss solcher Inhalte ist ohne technische Kontrolle nicht belastbar.
- Auftragsverarbeitung (Art. 28 DSGVO): Wird ein externer Anbieter eingeschaltet, ist ein AV-Vertrag Pflicht – mit Mindestinhalten (Gegenstand, Dauer, Art der Daten, TOMs usw.). Mit Privatkonten existiert kein wirksamer Vertrag zwischen Verantwortlichem und Anbieter.
- Sicherheit (Art. 32 DSGVO) und DPIA (Art. 35 DSGVO): Je nach Verfahren und Risiko ist eine Datenschutz-Folgenabschätzung geboten; jedenfalls sind angemessene TOMs zu implementieren – technisch nicht möglich, wenn Mitarbeitende unkontrolliert private Tools nutzen.
- Internationale Transfers (Art. 44 ff. DSGVO): Ohne Unternehmenssteuerung kein Transfer-Compliance-Paket (DPF-Zertifizierung, SCCs, TIA).
b) Beschäftigtendatenschutz
Für Beschäftigtendaten gelten spezifische Anforderungen. § 26 BDSG wird nach dem EuGH-Urteil C-34/21 teils enger interpretiert; häufig ist auf die allgemeinen DSGVO-Rechtsgrundlagen auszuweichen. Für private KI-Nutzung bedeutet das: Einwilligungen sind im Arbeitsverhältnis nur eingeschränkt freiwillig; legitimes Interesse (Art. 6 Abs. 1 lit. f DSGVO) bedarf sorgfältiger Abwägung und technischer Schutzmaßnahmen.
c) Geschäftsgeheimnisse
Schutz nach GeschGehG setzt proaktive Maßnahmen voraus: Policies, Schulungen, Zugangsbeschränkungen, technische Barrieren. Private KI-Kanäle hebeln diese Elemente aus. Wer private Nutzung duldet, schwächt die eigene Anspruchsposition erheblich (§§ 2, 3 GeschGehG; bei vorsätzlichen Verstößen drohen strafrechtliche Folgen, § 23 GeschGehG).
d) Mitbestimmung nach BetrVG
Die Einführung und Anwendung von KI-Tools, Logging, Proxy-Sperren oder DLP-Regeln ist typischerweise mitbestimmungspflichtig (§ 87 Abs. 1 Nr. 1, 6 BetrVG). Ohne Betriebsvereinbarung sind sowohl Verbote als auch „Erlaubnis mit Auflagen“ angreifbar.
e) EU-AI-Act (Ausblick)
Der AI Act regelt Pflichten von Anbietern, Inverkehrbringern und Nutzern („Deployern“) risikobehafteter KI. Erste Verbote gelten seit Februar 2025; Verpflichtungen für General-Purpose-AI und weitere Stufen greifen stufenweise ab August 2025/2026. Für Unternehmen heißt das: Prozesse zur Modell-Kennzeichnung, Risikobewertung, Logging und Incident-Handling werden Standard – improvisierte Privatnutzung passt nicht in dieses Compliance-Raster.
Praxisanker: Die EDPB-ChatGPT-Taskforce betont Transparenz, Rechtsgrundlagen, Datenrichtigkeit und Minimierung – genau die Felder, die bei privater Nutzung strukturell unterlaufen werden.
Typische Risiko-Szenarien – und wie sie entstehen
Szenario 1: „Nur mal schnell prüfen lassen“
Ein Account Manager kopiert Kundendaten in einen Prompt, um einen Tonalitäts-Check zu erhalten. Problem: Personenbezug, ggf. besondere Kategorien, keine AV-Grundlage, unbekannte Transferpfade. Ergebnis: Verstoß gegen Art. 5, 6, 28, 32 DSGVO; Geheimnisschutz gefährdet.
Szenario 2: Pitch-Konzept mit vertraulichen Zahlen
Eine Kreativdirektion validiert Preisblätter, Marge und Produktroadmap über den privaten KI-Account. Diese Informationen sind regelmäßig Geschäftsgeheimnisse. Ohne angemessene Maßnahmen (§ 2 Nr. 1 b GeschGehG) entfällt der Schutz – das Unternehmen sägt an den eigenen Ansprüchen.
Szenario 3: Code-Snippets und Git-Links
Ein Entwickler lässt sich via Privat-Tool Code erklären und hängt zur Kontextualisierung Git-Links an. Neben möglichen Lizenz-/Urheberrisiken kann schon der Link Geheimnisse offenbaren (Repo-Struktur, Branch-Namen, Tickets). Je nach Anbieter gelangen Meta-/Zugriffsdaten in Drittländer.
Szenario 4: HR-Texte mit Beschäftigtendaten
HR generiert Arbeitszeugnisse via Privataccount, speist dabei interne Leistungsdaten ein. Beschäftigtendaten unterliegen strengen Regeln; Einwilligungen im Arbeitsverhältnis sind problematisch, erst recht, wenn nicht klar ist, wo die Daten landen.
Szenario 5: Monitoring „aus Versehen“
Die IT versucht, Privatnutzung zu unterbinden, aktiviert aber ohne BV ein Proxy-Logging, das Eingaben mitschneidet. Das ist eine technische Einrichtung i. S. d. § 87 Abs. 1 Nr. 6 BetrVG – ohne Mitbestimmung heikel.
Szenario 6: Falschaussagen im Kundenprojekt
Ein privat genutztes KI-Tool halluziniert fachliche Inhalte. Ohne dokumentierte Quellen-/Review-Pflicht und ohne Versionierung lässt sich Sorgfalt nicht belegen; vertragliche Haftungsrisiken eskalieren.
Verbieten oder kontrolliert erlauben? – Ein Governance-Modell, das funktioniert
Es gibt zwei belastbare Wege: (A) klares Verbot mit technischer Durchsetzung oder (B) „Secure Enablement“ über freigegebene Unternehmens-Konten. Mischformen erzeugen Reibung.
Klares Verbot der privaten KI-Nutzung für Unternehmenszwecke
Ziele: Schutz von personenbezogenen Daten, Wahrung von Geschäftsgeheimnissen, Einhaltung von Mitbestimmung und Vertragsketten.
Bausteine:
- Policy: Allgemeines Verbot der Nutzung privater KI-Accounts zu Unternehmenszwecken; Verbot, personenbezogene Daten, Kundendaten, Quellcode, vertrauliche Dokumente und Non-Public-Roadmaps in externe Tools einzugeben. Bezug auf Art. 5, 6, 28, 32, 44 ff. DSGVO und § 2 Nr. 1 b GeschGehG.
- Technik: DNS/Proxy-Sperren für bekannte KI-Domains; DLP-Regeln (Copy-Paste-Block für sensible Klassen), Secrets-Scanner; Browser-Policies; Mobile-Device-Management.
- Organisation: Schulungen mit Negativ-/Positivbeispielen, Hinweisgeberschnittstelle für Incidents; definierter Freigabe-Prozess für Ausnahmen.
- Arbeitsrecht: Durchsetzung über Direktionsrecht (§ 106 GewO) + Vertragsklauseln; abgestimmt mit BR (BV nach § 87 Abs. 1 Nr. 1, 6 BetrVG).
Pro & Contra: Ein Verbot ist rechtssicher und schnell kommunizierbar, aber innovations- und effizienzhemmend.
„Secure Enablement“ – kontrolliertes Erlauben, aber richtig
Ziele: Produktivitätsgewinne nutzen, ohne Datenschutz- und Geheimnisschutz zu opfern.
Bausteine (Mindeststandard):
- Freigegebene Anbieter & Lizenzen
Nur Enterprise-Verträge mit AVV nach Art. 28 DSGVO, dokumentierten TOMs (Art. 32), Opt-out vom Training, klarer Datenresidenz, eindeutigen Löschfristen und Support-SLAs. Für US-Anbieter: DPF-Zertifizierung oder SCCs + TIA (Art. 44 ff. DSGVO). - Identitäten & Zugriff
SSO/MFA, rollenbasierte Berechtigungen, Tenant-Isolation, Logging, Key-Management; keine Privataccounts. - Use-Case-Katalog
Erlaubt: generische Textoptimierung ohne Personenbezug, Boilerplates, Code-Erklärungen mit synthetischen Beispielen.
Verboten: Personenbezogene Daten, Kundendossiers, vertrauliche Finanzzahlen, ungeklärte IP-Assets, Gesundheitsdaten, Betriebs-/Geschäftsgeheimnisse.
Gelbzone (nur mit Freigabe/DPIA): interne Auswertungen mit Pseudonymisierung, produktionsnahe Prototypen. - Prompt-Hygiene & Output-Review
Pflicht-Hinweise gegen das Teilen sensibler Inhalte; Red-Flag-Liste; Vier-Augen-Freigabe bei externer Nutzung; Quellennachweise und Versionierung. EDPB-Leitlinien (Transparenz, Richtigkeit) werden so organisatorisch verankert. - Betriebsvereinbarung
Regeln zu Einsatz, Logging, Zweckbindung, Löschfristen, Schulungen, Incident-Prozessen, Mitbestimmung; klare Abgrenzung zu Leistungs-/Verhaltenskontrollen (kein „Mikro-Monitoring“). - DPIA & Risiko-Register
Vorab-Bewertung (Art. 35 DSGVO) je sensiblen Use-Case; Zuordnung von Verantwortlichkeiten; jährliche Re-Zertifizierung der Anbieter. - AI-Act-Readiness
Kennzeichnung „KI-gestützt erstellt“, Risikobewertungen, Logging, Datenquellen-Transparenz – abgestimmt auf die jeweils einschlägigen Pflichten und Übergangsfristen.
Pro & Contra: Hohe Sicherheit bei gleichzeitiger Nutzbarkeit, aber Einführungsaufwand (Technik, Verträge, BV).
Musterbausteine für Richtlinie, Verträge und Technik
Hinweis: Formulierungen sind als praxisnahe Bausteine gedacht und müssen an Unternehmensgröße, Branche, Betriebsratssituation und bestehende Policies angepasst werden.
Policy-Grundsatz
- Geltungsbereich und Ziel
Diese Richtlinie regelt die dienstliche Nutzung von KI-Systemen. Private Accounts von Mitarbeitenden dürfen nicht zur Verarbeitung von Unternehmensinformationen oder personenbezogenen Daten eingesetzt werden. Ziel ist die Einhaltung von Datenschutz (insb. Art. 5, 6, 28, 32, 35, 44 ff. DSGVO) sowie der Schutz von Geschäftsgeheimnissen (§ 2 Nr. 1 b GeschGehG). - Kategorisierung von Informationen
Informationen werden in Klassen Öffentlich, Intern, Vertraulich, Streng Vertraulich eingeteilt. Eingaben in KI-Systeme sind nur für die Klassen „Öffentlich“ und „Intern“ zulässig, sofern keine Personenbezüge bestehen. „Vertraulich“/„Streng Vertraulich“ sind grundsätzlich ausgeschlossen. - Verbotene Inhalte
Es ist untersagt, personenbezogene Daten (einschließlich besonderer Kategorien i. S. d. Art. 9 DSGVO), Kundendaten, Quellcode, Passwörter, Zugangs-Tokens, Finanz-/Preislisten, Roadmaps, interne Rechtsdokumente oder vertrauliche Drittdaten in KI-Systeme einzugeben. - Zulässige Nutzung
Erlaubt sind generische Formulierungs-, Strukturierungs- und Ideations-Hilfen ohne Personenbezug, mit freigegebenen Unternehmenslizenzen und Opt-out vom Training. - Freigabeverfahren
Nicht abgedeckte Use-Cases bedürfen vorab der Freigabe durch Datenschutz, Informationssicherheit und – soweit einschlägig – des Betriebsrats (DPIA-Pflicht prüfen). - Review und Kennzeichnung
Von KI erstellte Inhalte werden stets durch Fachpersonen geprüft; bei externer Verwendung erfolgt eine Kennzeichnung, sofern gesetzlich geboten oder vertraglich zugesichert.
Vertragsbausteine
Auftragsverarbeitung (Art. 28 DSGVO) – Mindestpunkte gegenüber dem KI-Anbieter:
- Gegenstand/Art/Zweck der Verarbeitung; Kategorien von Daten/Betroffenen; Dauer.
- TOMs (u. a. Verschlüsselung in Ruhe/Transport, Mandantentrennung, Schlüsselverwaltung, Rollenmodelle, Incident-Handling, Sub-Processor-Genehmigung).
- Unterauftragsverarbeiter: Liste, Vorab-Genehmigungsverfahren, Informationspflichten bei Änderungen.
- Datenlöschung/-rückgabe: Fristen, Formate, Nachweis.
- Audit- und Informationsrechte; Unterstützung bei Betroffenenrechten, DPIA, Meldungen.
- Drittlandtransfers: DPF-Zertifizierung oder SCCs + TIA, ergänzende Maßnahmen.
Tipp: Viele KI-Enterprise-Angebote bieten Training-Opt-out, Datenresidenz und Zero-Retention-Modi. Ohne diese Optionen kein Einsatz für vertrauliche Daten.
Betriebsvereinbarung
- Zweck und Geltung: Effizienzgewinne durch definierte KI-Anwendungen, kein Leistungs-/Verhaltensprofiling.
- Zulässige Tools/Use-Cases: Whitelist, Change-Management.
- Datenschutz/TOMs: Logging-Umfang, Pseudonymisierung, Löschkonzept, Zugriff nur für definierte Rollen.
- Transparenz/Information: Unterrichtung der Belegschaft, Dokumentation, Schulungen.
- Kontrolle/Reporting: Aggregiertes Nutzungsreporting, keine Einzelüberwachung; Verfahren bei Verstößen; Incident-Management.
- Evaluation: Überprüfung nach 12 Monaten oder bei Gesetzesänderungen (AI-Act-Roadmap berücksichtigen).
Technische Schutzmaßnahmen
- Identitäten: SSO/MFA, Conditional Access, rollenbasierte Freigaben.
- Datenfluss-Kontrolle: DLP-Regeln im Browser/Endgerät, Clipboard-Kontrolle für sensible Klassen, Secret-Scanner in IDEs/Repos.
- Netzwerk: Proxy-Freigabe nur für Whitelist-Domains der freigegebenen Anbieter; Block für bekannte Public-KI-Endpoints.
- Mandantenschutz: Getrennte Tenants, Schlüsselhoheit; Logging mit datensparsamer Pseudonymisierung.
- Sandboxing: Interne „KI-Sandboxes“ mit synthetischen/entpersonalisierten Daten für Experimente.
- Lifecycle: Versionskontrolle für Prompts/Outputs, verbindliche Review-Checklisten, Archivierung nach Aufbewahrungsfristen.
5.5 Schulung & Kommunikation
- Fallbeispiele statt Paragrafenwüste: Was darf in Prompts – was nicht?
- „Red Flags“: Personenbezug, Kundenlisten, Preismodelle, Quellcode, Geheimabsprachen, Gesundheitsinfos.
- Handlungsalternativen: Interne Templates, Pseudonymisierung, synthetische Dummies, sichere Unternehmens-Modelle.
- Meldewege: Niedrigschwellige Incident-Meldung („falscher Prompt“), keine Angst vor Fehlerkultur – aber klar geregelte Abhilfe.
Fazit
Wer private KI-Nutzung für Unternehmenszwecke zulässt, entfacht ein Bündel an Rechts- und Sicherheitsrisiken: fehlende AV-Verträge, unklare Drittlandtransfers, Verlust des Geheimnisschutzes, betriebsverfassungsrechtliche Konflikte und mangelnde Nachweisbarkeit von Sorgfalt. Zwei Wege sind belastbar: konsequentes Verbot (mit Technik- und Schulungsunterstützung) oder ein kontrolliertes Enablement über Unternehmenslizenzen, saubere Verträge, TOMs, Betriebsvereinbarung und klare Use-Case-Grenzen. In beiden Modellen gilt: Datenschutzprinzipien operationalisieren, Geheimnisschutz aktiv gestalten und AI-Act-Readiness mitdenken – dann bleibt Produktivität ohne Compliance-Kollateralschäden möglich.
























