Manchmal lohnt es sich, juristisch einen Schritt nach vorne zu denken. Nicht, weil das Recht schon alles abschließend geregelt hätte. Sondern weil die Praxis längst weiter ist als viele dogmatische Diskussionen.
2026 ist ein solches Jahr. In SaaS-Systemen verhandeln KI-Agenten eigenständig Preise mit Lieferanten-APIs. In E-Commerce-Systemen passen autonome Systeme Rabattlogiken dynamisch an. In Beschaffungsprozessen werden Angebote automatisch eingeholt, verglichen und – zumindest technisch – akzeptiert. Intern delegieren Unternehmen immer häufiger operative Entscheidungen an KI-basierte Agenten, die nicht nur analysieren, sondern handeln.
Die Frage liegt auf der Hand: Wenn ein KI-Agent „Ja“ sagt – wer hat dann rechtlich gesprochen?
Ist der KI-Agent ein Vertragspartner? Ein Vertreter? Ein bloßes Werkzeug? Und vor allem: Wer haftet, wenn das System falsch entscheidet?
Rechtlich ist das kein Science-Fiction-Thema. Es ist ein Zurechnungsproblem. Und damit zutiefst klassisches Zivilrecht.
Kein eigener Rechtsträger: KI bleibt rechtlich ein Werkzeug
Zunächst die nüchterne Ausgangslage: Eine KI ist keine Rechtsperson. Weder das deutsche Zivilrecht noch das europäische Recht erkennen autonomen Systemen eigene Rechtspersönlichkeit zu. Der KI-Agent ist kein „elektronischer Vertragspartner“.
Rechtsgeschäfte setzen eine Willenserklärung voraus. Diese ist nach herrschender Meinung Ausdruck eines menschlichen Willens. Eine KI verfügt nicht über Rechtsfähigkeit, Geschäftsfähigkeit oder Deliktsfähigkeit. Sie kann also nicht selbst Träger von Rechten und Pflichten sein.
Damit ist die eigentliche Frage nicht, ob die KI handelt – sondern wem ihr Handeln zugerechnet wird.
Und genau hier beginnt die juristische Feinmechanik.
Stellvertretungsrecht (§§ 164 ff. BGB) und KI-Systeme
Das Stellvertretungsrecht bietet den ersten dogmatischen Anknüpfungspunkt. Nach § 164 Abs. 1 BGB wirkt eine Willenserklärung, die jemand innerhalb seiner Vertretungsmacht im Namen eines anderen abgibt, unmittelbar für und gegen den Vertretenen.
Klassisch ist der Vertreter eine natürliche Person. Aber das Gesetz verlangt nicht zwingend, dass der Vertreter selbst geschäftsfähig ist – entscheidend ist, dass ein Handeln im Namen des Vertretenen vorliegt und eine Zurechnung erfolgt.
Bei automatisierten Systemen wird häufig argumentiert, es liege kein Vertreter, sondern lediglich ein „Bote“ oder ein technisches Werkzeug vor. Diese Sicht greift zu kurz, wenn das System eigenständig Parameter auswählt, Preise modifiziert oder Vertragskonditionen anpasst.
Je stärker die Autonomie, desto weniger passt das Bild des bloßen Übermittlers.
Dogmatisch sauber lässt sich das Problem so lösen: Der KI-Agent ist kein eigener Vertreter, sondern Teil der Organisationssphäre des Unternehmens. Die Willenserklärung wird dem Unternehmen zugerechnet, weil es das System eingerichtet, parametrisiert und in den Rechtsverkehr entlassen hat.
Das ist keine Analogie, sondern eine Fortführung der Rechtsprechung zu automatisierten Erklärungen – etwa bei Warenautomaten oder Online-Shops. Wer ein System in den Verkehr bringt, muss sich dessen Erklärungen zurechnen lassen.
Autonomie ändert daran nichts. Sie erhöht nur das Risiko.
Anscheins- und Duldungsvollmacht bei KI-Systemen
Spannend wird es, wenn KI-Agenten über die ursprünglich vorgesehenen Grenzen hinaus handeln.
Was passiert, wenn ein KI-System Rabatte gewährt, die so nie vorgesehen waren? Wenn es Vertragslaufzeiten verlängert, obwohl interne Richtlinien das verbieten? Oder wenn es eigenständig Zusatzleistungen anbietet?
Hier kommen die Grundsätze der Anscheins- und Duldungsvollmacht ins Spiel.
Eine Duldungsvollmacht liegt vor, wenn der Vertretene weiß, dass jemand für ihn wie ein Vertreter auftritt, und dies geschehen lässt. Eine Anscheinsvollmacht greift, wenn er das Auftreten zwar nicht kennt, es aber bei pflichtgemäßer Sorgfalt hätte erkennen und verhindern können.
Überträgt man diese Grundsätze auf KI-Systeme, entsteht ein klares Bild: Wer ein autonomes System mit weitreichenden Befugnissen ausstattet und es dauerhaft in den Rechtsverkehr einsetzt, setzt einen Rechtsschein.
Der Vertragspartner darf regelmäßig darauf vertrauen, dass das System im Rahmen der ihm eingeräumten Kompetenzen handelt. Interne Programmierfehler oder schlecht definierte Parameter entlasten das Unternehmen nicht.
Rechtlich gesprochen: Die Autonomie des Systems wird zum Organisationsrisiko.
Organisationsverschulden und Haftung für Fehlentscheidungen
Das führt unmittelbar zum nächsten Punkt: Organisationsverschulden.
Unternehmen sind verpflichtet, ihre internen Abläufe so zu organisieren, dass Rechtsverletzungen möglichst vermieden werden. Wer KI-Agenten einsetzt, erweitert die eigene Organisationsstruktur um ein technisches Entscheidungssystem.
Fehlentscheidungen können verschiedene Ursachen haben:
– fehlerhafte Trainingsdaten
– mangelhafte Parametrisierung
– fehlende Kontrollmechanismen
– unzureichende Überwachung
– unklare Zuständigkeiten
Kommt es infolge solcher Defizite zu Schäden, haftet das Unternehmen nach allgemeinen Grundsätzen. Eine Exkulpation mit dem Argument „Das war die KI“ ist rechtlich irrelevant.
Im Gegenteil: Je komplexer das System, desto höher die Anforderungen an Überwachung und Governance.
Gerade bei autonomen Preisanpassungen oder automatisierten Vertragsabschlüssen ist eine klare Definition von Entscheidungsgrenzen zwingend. Andernfalls entsteht ein Haftungsregime, das faktisch nicht kontrollierbar ist.
Produkthaftung und Softwarefehler
Ein weiterer Aspekt betrifft die Haftung für fehlerhafte KI-Software. Hier ist zu unterscheiden:
– interne Eigenentwicklung
– Einsatz externer SaaS-Lösungen
– Integration von Dritt-APIs
Kommt es aufgrund eines Softwarefehlers zu einem wirtschaftlichen Schaden, stellt sich die Frage nach Regressketten.
Bei Eigenentwicklung haftet das Unternehmen unmittelbar. Bei Drittanbietern greifen vertragliche Haftungsregelungen, Service Level Agreements und Gewährleistungsrechte. In komplexen KI-Ökosystemen sind diese Haftungsketten jedoch häufig intransparent.
Besonders sensibel ist die Situation bei sogenannten AI-Agents-as-a-Service. Hier übernimmt ein externer Anbieter die technische Steuerung, während das einsetzende Unternehmen gegenüber dem Kunden als Vertragspartner auftritt.
Rechtlich bleibt das Außenverhältnis entscheidend. Der Kunde hat regelmäßig nur einen Anspruchsgegner – das Unternehmen, das den KI-Agenten einsetzt.
AI Act-Compliance als neue Organisationspflicht
Mit dem europäischen AI Act verschiebt sich die Diskussion zusätzlich. Der AI Act führt ein risikobasiertes Regime ein, das insbesondere bei Hochrisiko-Systemen strenge Anforderungen an Transparenz, Dokumentation und Risikomanagement stellt.
Für autonome KI-Agenten in Vertrags- oder Entscheidungsprozessen kann je nach Einsatzbereich eine Hochrisiko-Einstufung relevant werden. Dann gelten unter anderem:
– Dokumentationspflichten
– Risikoanalysen
– menschliche Aufsicht
– Nachvollziehbarkeit der Entscheidungen
Verstöße gegen diese Pflichten können nicht nur bußgeldbewehrt sein, sondern im Haftungsprozess als Indiz für Organisationsverschulden gewertet werden.
AI Act-Compliance ist damit nicht nur regulatorische Pflicht, sondern haftungsrechtliche Absicherung.
Zukunftsmusik oder Gegenwart?
Ist das alles Zukunftsmusik? Teilweise. Aber nur teilweise.
Die technische Entwicklung geht schneller voran als die juristische Einordnung. Autonome Verhandlungssysteme, dynamische Vertragsmodelle und KI-gestützte Einkaufsagenten sind keine theoretischen Konstrukte mehr.
Das Recht reagiert darauf nicht mit neuen Rechtsfiguren, sondern mit klassischen Instrumenten:
– Zurechnung
– Organisationsverantwortung
– Vertrauensschutz
– Haftung
Das bedeutet auch: Es wird keine „KI-Ausnahme“ geben. Unternehmen bleiben verantwortlich.
Vertragsgestaltung und Risikobegrenzung
Wer KI-Agenten einsetzt, sollte die rechtlichen Rahmenbedingungen nicht dem Zufall überlassen.
Im B2B-Kontext sind insbesondere folgende Punkte relevant:
– klare Definition des Automatisierungsgrades
– Haftungsbegrenzungen
– Transparenz über KI-Einsatz
– Protokollierung von Entscheidungen
– Regressregelungen bei Drittanbietern
Auch AGB-Klauseln sollten angepasst werden. Die Frage, ob Vertragsabschlüsse automatisiert erfolgen, kann im Einzelfall eine Informationspflicht begründen. Gleichzeitig sind Haftungsbeschränkungen sorgfältig zu formulieren, um AGB-rechtlichen Risiken zu begegnen.
Je autonomer das System, desto wichtiger die juristische Architektur im Hintergrund.
KI-Agenten werden nicht zu Vertragspartnern. Sie bleiben Werkzeuge – wenn auch hochkomplexe. Rechtlich entscheidend ist nicht die technische Autonomie, sondern die organisatorische Einbindung.
Unternehmen, die autonome Systeme einsetzen, erweitern ihre Handlungssphäre. Sie schaffen neue Entscheidungsinstanzen innerhalb ihrer Organisation. Und sie tragen das Risiko.
Das mag dogmatisch unspektakulär wirken. Aber wirtschaftlich ist es hochrelevant. Denn mit jedem Schritt in Richtung autonomer Geschäftsprozesse steigt die Bedeutung sauberer Zurechnung, klarer Governance und durchdachter Vertragsgestaltung.
Vielleicht ist das Thema noch nicht vollständig ausjudiziert. Aber es ist keineswegs Zukunftsmusik. Es ist ein klassisches Beispiel dafür, wie altes Zivilrecht auf neue Technologien trifft – und warum juristische Strukturierung kein Bremsklotz, sondern Voraussetzung für Innovation ist.










































