Einleitung
In meiner täglichen Arbeit als Anwalt für Technologie- und Medienrecht komme ich immer wieder mit verschiedenen Formen der Künstlichen Intelligenz in Berührung. Es ist faszinierend zu sehen, wie diese Technologie rasant an Bedeutung gewinnt und in so vielen verschiedenen Bereichen eingesetzt wird. Ob es nun ein Textgenerator ist, der eine Vorlage für einen Blogbeitrag erstellt, oder ein KI-gestütztes Design-Tool, das ein ansprechendes Bild oder Video für eine Marketingkampagne kreiert – KI-Tools sind überall und ihre Anwendungen sind unglaublich vielfältig.
Trotz der vielen Vorteile, die diese Technologien mit sich bringen, gibt es jedoch auch einige bedeutende Fragen und Herausforderungen. Eine der drängendsten Fragen ist die Haftung: Wer ist verantwortlich, wenn eine KI-generierte Arbeit fehlerhaft ist oder nicht den erwarteten Qualitätsstandards entspricht? Ist es der Auftragnehmer, der das KI-Tool verwendet hat, oder könnte es sogar der Anbieter der KI-Software sein?
Ein weiteres wichtiges Thema ist die Offenlegung der Verwendung von KI-Tools. Wenn ein Auftragnehmer ein KI-Tool für eine Aufgabe verwendet, muss er dies dann dem Auftraggeber mitteilen? Und wenn ja, in welchem Umfang? Diese Fragen sind nicht nur aus rechtlicher, sondern auch aus ethischer Sicht relevant.
In diesem Blogartikel werde ich diese Themen näher beleuchten und versuchen, einige Antworten zu geben. Ich werde auch die Rolle des Gesetzgebers in diesem sich schnell entwickelnden Bereich diskutieren und darüber nachdenken, ob es an der Zeit ist, dass die Regulierung Schritt hält. Es wird spannend sein, diese Fragen zu erkunden und die Dynamik zwischen Technologie, Recht und Ethik zu betrachten.
Wer haftet bei Fehlern in KI-generierten Inhalten?
Gemäß dem Bürgerlichen Gesetzbuch (BGB) trägt in der Regel der Auftragnehmer die Verantwortung für die Qualität der von ihm erbrachten Dienstleistung. In der Praxis bedeutet dies, wenn ein KI-Generator – ob es sich um einen Textgenerator oder ein Tool zur Erstellung von Grafiken oder Videos handelt – Inhalte mit Fehlern produziert, liegt die Haftung grundsätzlich beim Auftragnehmer. Es ist eine grundlegende Verantwortung des Auftragnehmers, sicherzustellen, dass die erbrachten Dienstleistungen den im Vertrag festgelegten Standards entsprechen.
Als jemand, der moderne Technologien und insbesondere Software-as-a-Service (SaaS) Diensten schätzt, sehe ich es als entscheidend an, dass die Nutzer von KI sich dieser Realität bewusst sind. KI ist ein mächtiges Werkzeug, das in der Lage ist, erstaunliche Dinge zu tun. Aber genau wie jede andere Technologie ist sie nicht unfehlbar. Sie kann und wird Fehler machen.
Am Ende des Tages wird es in den meisten Fällen der Auftragnehmer sein, der die Verantwortung für diese Fehler übernehmen muss. Dies ist ein wichtiger Aspekt, den jeder, der mit KI-Generatoren arbeitet, bedenken sollte. Es ist wichtig, die Risiken zu erkennen und sich darauf vorzubereiten, um sich vor möglichen rechtlichen Konsequenzen zu schützen.
Die Frage der Offenlegung der Nutzung von KI-Tools
In der aktuellen Rechtslandschaft gibt es noch keine klaren Vorschriften oder Urteile, die bestimmen, ob die Verwendung von KI-Tools in einem Auftragsverhältnis offengelegt werden muss. Allerdings können und sollten Verträge an die sich entwickelnde Technologielandschaft angepasst werden.
Denken wir beispielsweise an Redaktionen oder Programmierprojekte. Es könnte durchaus sinnvoll sein, eine Klausel in Verträge aufzunehmen, die die Offenlegung der Verwendung von KI-Tools verlangt. Auf diese Weise würde ein höheres Maß an Transparenz gewährleistet und das Bewusstsein für die Möglichkeiten und Grenzen der KI gefördert.
Doch hier liegt auch eine Herausforderung. Eine solche Klausel zu formulieren, könnte sich als schwierig erweisen. Die Verwendung von KI-Tools ist an sich nicht problematisch und sollte nicht generell untersagt werden. Im Gegenteil, sie können einen enormen Nutzen bringen. Daher sollte der Fokus nicht darauf liegen, sie zu verbieten, sondern vielmehr auf einer klaren Kommunikation über ihre Nutzung. Als Auftraggeber möchte man im Klaren darüber sein, wie und wann solche Tools zum Einsatz kommen.
Ein weiterer Punkt, den ich gerne ansprechen würde, ist die Frage der Preisgestaltung. Die Nutzung von KI-Tools sollte nicht unbedingt zu einer Senkung der Preise führen. Die Erstellung von geeigneten Prompts für KI-Generatoren, die anschließende Kontrolle und Bearbeitung der generierten Inhalte, all dies erfordert Zeit und Expertise. Die Verwendung von KI-Tools sollte daher nicht als Mittel zur Kostensenkung betrachtet werden, sondern vielmehr als ein Werkzeug, das neue Möglichkeiten eröffnet.
Um das Ganze mit einem Augenzwinkern abzuschließen: Keiner hat seine Stundensätze gesenkt, nur weil er Texte nun mit Word und automatischer Rechtschreibprüfung statt mit Feder und Papier erstellt hat. Ganz im Gegenteil, wir haben diese Werkzeuge genutzt, um unsere Arbeit zu verbessern und effizienter zu gestalten. Und genau so sollten wir auch die Nutzung von KI-Tools betrachten.
Rückgriffsansprüche gegen KI-Anbieter
Die Möglichkeit von Rückgriffsansprüchen gegen die Anbieter von KI-Tools ist ein weiterer Bereich, der noch erhebliche rechtliche Unklarheiten aufweist. In einer Welt, in der Geschäftsbeziehungen zunehmend globalisiert und grenzübergreifend sind, könnten solche Ansprüche schwierig durchzusetzen sein. Vor allem dann, wenn die Anbieter ihren Sitz in einem anderen Rechtssystem haben. Verschiedene Rechtsordnungen könnten unterschiedliche Standards und Regelungen für solche Fälle haben, was die Angelegenheit noch komplizierter macht.
Zusätzlich zu den Herausforderungen, die sich aus der Internationalität ergeben, könnte es auch Fälle geben, in denen die Anbieter von KI-SaaS-Diensten Rückgriffsansprüche in ihren Geschäftsbedingungen ausschließen. Es ist in vielen Branchen üblich, solche Haftungsausschlüsse in die Vertragsbedingungen aufzunehmen, um das Risiko zu minimieren.
Allerdings sollten Anbieter von SaaS-Produkten und anderen Softwaretools ihre Allgemeinen Geschäftsbedingungen sorgfältig überprüfen und gegebenenfalls aktualisieren, um sicherzustellen, dass sie diese Aspekte berücksichtigen. Dies ist nicht nur zum Schutz ihrer eigenen Interessen wichtig, sondern auch, um einen fairen und transparenten Rahmen für ihre Kunden zu schaffen.
Es ist essenziell, dass alle Beteiligten – von den Auftragnehmern über die Auftraggeber bis hin zu den Anbietern der KI-Tools – sich der möglichen rechtlichen Risiken bewusst sind und geeignete Maßnahmen ergreifen, um diese zu adressieren. Dies kann helfen, Streitigkeiten zu vermeiden und das Vertrauen in KI-Tools und die dahinterstehenden Technologien zu stärken.
Die Rolle des Gesetzgebers
Die Herausforderungen und Fragen, die die Nutzung von KI-Tools mit sich bringt, führen uns zu einer wichtigen Diskussion: Wie und in welchem Ausmaß sollte der Gesetzgeber regulierend eingreifen?
Gegenwärtig ist das rechtliche Umfeld rund um KI von Unsicherheit und Unklarheit geprägt. Eine klarere und einheitlichere Regelung, die spezifisch auf die Verwendung von KI-Tools ausgerichtet ist, könnte sowohl den Nutzern als auch den Anbietern dieser Technologien erhebliche Vorteile bieten. Für die Nutzer würde eine solche Regelung mehr Klarheit über ihre Rechte und Pflichten bieten, was wiederum das Vertrauen in diese Tools stärken könnte. Für die Anbieter könnte eine klarere Gesetzgebung die rechtlichen Risiken minimieren und dabei helfen, ihre Geschäftspraktiken besser auszurichten.
Allerdings sollte der Gesetzgeber dabei einen ausgewogenen Ansatz verfolgen. Eine Überregulierung könnte Innovationen hemmen und den Einsatz von KI-Tools unnötig erschweren. Andererseits könnte ein Mangel an Regulierung zu Missbrauch führen und die Verbraucher ungeschützt lassen. Es ist daher wichtig, einen ausgewogenen Mittelweg zu finden, der sowohl die Interessen der Nutzer als auch die der Anbieter berücksichtigt.
Darüber hinaus sollte bei der Entwicklung einer solchen Regelung ein breites Spektrum von Stakeholdern einbezogen werden, um eine möglichst umfassende und ausgewogene Sichtweise zu gewährleisten. Dazu könnten neben den Anbietern von KI-Tools und ihren Nutzern auch Datenschutzbeauftragte, Ethikexperten und Vertreter der Zivilgesellschaft gehören.
Es besteht kein Zweifel, dass der Weg zu einer effektiven Regelung für die Nutzung von KI-Tools kein einfacher sein wird. Aber angesichts der raschen Entwicklung und Verbreitung dieser Technologien ist es eine Diskussion, die wir unbedingt führen müssen.
Angesichts der Herausforderungen und Fragen, die sich aus der Nutzung von KI-Tools ergeben, haben wir uns in die wichtige Debatte begeben, wie und in welchem Ausmaß der Gesetzgeber regulierend eingreifen sollte. Nun zeigt sich, dass das Europaparlament aktiv geworden ist und neue Transparenz- und Risikomanagementregeln für KI-Systeme gebilligt hat. Die Binnenmarktausschuss und der Ausschuss für bürgerliche Freiheiten in Straßburg haben den Entwurf eines Verhandlungsmandats für die ersten Regeln für Künstliche Intelligenz mit 84 Ja-Stimmen, 7 Nein-Stimmen und 12 Enthaltungen angenommen.
Die Europaabgeordneten haben in ihren Änderungsanträgen zum Kommissionsvorschlag den Wunsch betont, dass KI-Systeme von Menschen überwacht werden, sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. Darüber hinaus streben sie eine einheitliche und technologieneutrale KI-Definition an, die sowohl für aktuelle als auch für zukünftige KI-Systeme gelten soll.
Die vorgeschlagenen Regeln folgen einem risikobasierten Ansatz und legen Verpflichtungen für Anbieter und Nutzer fest, die sich nach dem Grad des Risikos richten, das die KI erzeugen kann. Besondere Aufmerksamkeit wurde den KI-Systemen gewidmet, die ein inakzeptables Risiko für die Sicherheit von Menschen darstellen, indem sie unterschwellige oder absichtlich manipulative Techniken einsetzen, die Schwachstellen von Menschen ausnutzen oder für Social Scoring verwendet werden.
Die Abgeordneten haben die Liste der Verbotenen KI-Praktiken erheblich erweitert und Verbote für aufdringliche und diskriminierende Anwendungen von KI-Systemen aufgenommen. Darunter fallen biometrische Erkennungssysteme in Echtzeit in öffentlich zugänglichen Räumen; biometrische Kategorisierungssysteme, die sensible Merkmale verwenden; prädiktive Polizeisysteme und Systeme zur Erkennung von Emotionen bei der Strafverfolgung, am Arbeitsplatz und in Bildungseinrichtungen. Sie haben auch das wahllose Auslesen biometrischer Daten aus sozialen Medien oder Videoüberwachungsaufnahmen zur Erstellung von Gesichtserkennungsdatenbanken verboten.
Die Klassifizierung der Hochrisikobereiche wurde um die Bereiche Gesundheit, Sicherheit, Grundrechte und Umwelt erweitert. Hinzugefügt wurden auch KI-Systeme zur Beeinflussung von Wählern in politischen Kampagnen und Empfehlungssysteme, die von Social-Media-Plattformen mit mehr als 45 Millionen Nutzern verwendet werden.
Die Abgeordneten haben Verpflichtungen für Anbieter von Foundation-Modellen aufgenommen, einem neuen und sich rasch entwickelnden Bereich der KI. Diese müssen einen soliden Schutz der Grundrechte, der Gesundheit und Sicherheit sowie der Umwelt, der Demokratie und der Rechtstaatlichkeit gewährleisten. Sie sind verpflichtet, Risiken zu bewerten und abzumildern, Auslegungs-, Informations- und Umweltanforderungen einzuhalten und sich in der EU-Datenbank registrieren zu lassen. Generative Foundation-Modelle wie GPT müssen zusätzliche Transparenzanforderungen erfüllen, beispielsweise müssen sie offenlegen, dass Inhalte durch KI generiert wurden. Außerdem dürfen sie keine illegalen Inhalte generieren und keine Zusammenfassungen urheberrechtlich geschützter Daten veröffentlichen.
Zum Schutz der Innovation haben die Abgeordneten Ausnahmen für Forschungsaktivitäten und KI-Komponenten unter Open-Source-Lizenzen in die Vorschriften aufgenommen. Darüber hinaus fördert das neue Gesetz Reallabore (regulatory sandboxes) – kontrollierte Umgebungen, die von öffentlichen Behörden eingerichtet werden, um KI vor ihrem Einsatz zu testen.
Die Rechte der Bürger sollen gestärkt werden. Sie sollen das Recht haben, Beschwerden über KI-Systeme einzureichen und Erklärungen zu Entscheidungen zu erhalten, die auf risikoreichen KI-Systemen basieren und ihre Rechte erheblich beeinflussen. Die Rolle des EU-Amtes für künstliche Intelligenz wird neu definiert, um die Überwachung der Umsetzung des KI-Regelwerks zu gewährleisten.
Brando Benifei, Ko-Berichterstatter und Mitglied der Sozialdemokratischen Fraktion im Europäischen Parlament, betonte die Wichtigkeit dieser Gesetzgebung:
“Wir stehen kurz davor, eine bahnbrechende Gesetzgebung auf den Weg zu bringen, die den Herausforderungen der Zeit standhalten muss. Es ist von entscheidender Bedeutung, das Vertrauen der Bürger in die Entwicklung der KI zu stärken, den europäischen Weg für den Umgang mit den außerordentlichen Veränderungen, die bereits stattfinden, festzulegen und die politische Debatte über KI auf globaler Ebene zu lenken. Wir sind zuversichtlich, dass unser Text ein Gleichgewicht zwischen dem Schutz der Grundrechte und der Notwendigkeit herstellt, den Unternehmen Rechtssicherheit zu bieten und die Innovation in Europa zu fördern.”
Als nächster Schritt muss der Entwurf des Verhandlungsmandats vom gesamten Parlament gebilligt werden, bevor die Verhandlungen mit dem Rat über die endgültige Form des Gesetzes beginnen können. Die Abstimmung wird für die Sitzung vom 12. bis 15. Juni erwartet. Es ist ein bedeutender Schritt, um einen ausgewogenen Umgang mit KI-Tools zu gewährleisten, der sowohl die Interessen der Nutzer als auch die der Anbieter berücksichtigt, und gleichzeitig das Vertrauen in diese Technologien stärkt.
Fazit
In der Zusammenfassung dieser umfangreichen Information, sollte man hervorzuheben, dass ein kontinuierlicher Austausch zu diesen Themen von entscheidender Bedeutung ist. Besonders die Überprüfung und Anpassung von Verträgen und Allgemeinen Geschäftsbedingungen (AGB), die auf die spezifischen Bedürfnisse und Herausforderungen im Kontext der Künstlichen Intelligenz (KI) zugeschnitten sind, sollten angesichts der sich rasant entwickelnden Technologien Priorität haben.
Es besteht kein Zweifel, dass KI uns enorme Möglichkeiten bietet. Von der Optimierung von Arbeitsabläufen bis hin zur Eröffnung neuer, noch nicht erforschter Geschäftsfelder kann KI das Leben auf viele Arten bereichern und vereinfachen. Allerdings müssen wir uns gleichzeitig der möglichen Herausforderungen bewusst sein, die diese Technologie mit sich bringt. Dies gilt insbesondere für Aspekte wie die Haftung, das Datenschutzrecht und ethische Fragen, die sich aus der Nutzung von KI ergeben.
Mit über 15 Jahren Erfahrung in der Beratung von IT-Verträgen bin ich bestens positioniert, um Sie in dieser komplexen und sich ständig weiterentwickelnden Landschaft zu unterstützen. Ob Sie ein Anbieter oder ein Nutzer von KI-Tools sind, ich kann Ihnen helfen, Ihre Verträge und AGB so zu gestalten, dass sie den aktuellen rechtlichen Anforderungen entsprechen und gleichzeitig Ihre spezifischen Bedürfnisse und Ziele berücksichtigen.
Es ist wichtig, sich daran zu erinnern, dass die rechtlichen Rahmenbedingungen für KI sich weiterentwickeln und sich an die technologischen Fortschritte anpassen müssen. Daher ist es unerlässlich, stets auf dem Laufenden zu bleiben und die Verträge regelmäßig zu überprüfen und anzupassen. Es ist meine feste Überzeugung, dass wir nur dann das volle Potenzial von KI ausschöpfen können, wenn wir auch die rechtlichen Herausforderungen angehen, die sie mit sich bringt.
Ich freue mich darauf, mit Ihnen zusammenzuarbeiten und Ihnen dabei zu helfen, die vielfältigen Möglichkeiten von KI zu nutzen und gleichzeitig die rechtlichen und ethischen Herausforderungen zu meistern, die sie mit sich bringt.