Ein US-Bundesgericht hat erstmals entschieden, dass das Training von KI-Modellen mit urheberrechtlich geschützten Büchern als „Fair Use“ zulässig ist. Dieser wegweisende Fall – Autoren gegen den KI-Entwickler Anthropic (Claude AI) – könnte die Spielregeln für KI-Plattformen in den USA grundlegend verändern. Doch was bedeutet dieses Urteil konkret für die KI-Branche? Und wie wäre eine solche Nutzung urheberrechtlich geschützter Werke in Deutschland zu bewerten, wo es kein „Fair Use“ gibt? In diesem Blogpost beleuchten wir spannend und verständlich den US-Fall, seine Bedeutung für KI-Unternehmen und die klaren Unterschiede zum deutschen Urheberrecht.
Fair-Use-Urteil in den USA: KI-Training mit Büchern erlaubt
In den USA hat ein Bundesrichter entschieden, dass das Verwenden urheberrechtlich geschützter Bücher zum Trainieren eines KI-Sprachmodells vom Prinzip des Fair Use gedeckt ist. Im Verfahren vor dem kalifornischen District Court (Richter William Alsup) hatten die Autoren Andrea Bartz, Charles Graeber und Kirk Wallace Johnson das KI-Startup Anthropic verklagt. Sie warfen Anthropic vor, ohne Erlaubnis Millionen von Büchern – darunter auch piratisierte Kopien ihrer Werke – zum Training des Chatbots Claude AI genutzt zu haben.
Die Entscheidung des Gerichts fiel deutlich zugunsten von Anthropic aus: Der Richter befand, dass die Nutzung legal erworbener Bücher zum KI-Training „äußerst transformativ“ sei und somit als Fair Use zulässig. Der KI-Algorithmus verfolge einen völlig anderen Zweck als das ursprüngliche Buch – nämlich neues, eigenständiges Textmaterial zu generieren, statt das Originalwerk einfach zu reproduzieren. Dieser transformative Charakter ähnelt laut Gericht der Situation eines Menschen, der zahlreiche literarische Klassiker liest, sich deren Stil aneignet und daraus etwas Eigenes schafft. So eine Tätigkeit würde offenkundig nicht gegen das Copyright verstoßen, und nichts Anderes gelte für ein KI-Modell, das aus vielen gelesenen Texten neue Sätze formt.
Bemerkenswert an dem Fall ist jedoch die Herkunft vieler Trainingsdaten: Wie im Verfahren bekannt wurde, hatte Anthropic zu Beginn über 7 Millionen Bücher aus Piratenquellen wie Library Genesis und „Pirate Library“ heruntergeladen. Das Unternehmen realisierte offenbar das rechtliche Risiko und stellte später um: Anthropic kaufte Millionen von Büchern als Print-Exemplare, zerlegte sie und scannte die Seiten ein, um legal an digitale Trainingsdaten zu gelangen. Der Richter betrachtete selbst dieses massenhafte Digitalisieren gekaufter Bücher noch als zulässige Fair-Use-Nutzung: Allein die Umwandlung eines gedruckten Buchs in eine durchsuchbare digitale Datei sei schon eine transformative Nutzung, so das Gericht.
Allerdings bedeutet das Fair-Use-Urteil keine völlige Entwarnung für Anthropic. Richter Alsup stellte klar, dass die Verwendung piratisierter Kopien eine Urheberrechtsverletzung darstellen kann – Fair Use greift nur, wenn das Material rechtmäßig beschafft wurde. Daher ordnete das Gericht einen separaten Prozess an, um festzustellen, in welchem Umfang Anthropic für die anfängliche Nutzung illegaler Kopien haftet. Dabei könnten theoretisch Schadensersatzansprüche von bis zu 150.000 US-Dollar pro Werk im Raum stehen, falls vorsätzliche Verletzungen nachgewiesen werden. Anthropic zeigte sich trotz dieses anstehenden Schadensverfahrens zufrieden mit dem Grundsatzurteil, da erstmals gerichtlich anerkannt wurde, dass KI-Training eine transformative, faire Nutzung von urheberrechtlich geschütztem Material sein kann.
Bedeutung des Urteils: Ein Meilenstein für KI-Plattformen in den USA
Die Entscheidung im Fall Anthropic gilt als wichtiger Meilenstein für die KI-Branche. Erstmals hat ein Gericht ausdrücklich bestätigt, dass das „Auslesen“ urheberrechtlich geschützter Werke zum Trainieren von KI-Modellen unter die Fair-Use-Doktrin fallen kann. Damit erhalten KI-Entwickler in den USA eine deutlich größere Rechtssicherheit. Solange sie ihre Trainingsdaten legal beziehen, dürfen KI-Systeme mit geschützten Inhalten gefüttert werden, ohne vorher Lizenzen bei jedem Rechteinhaber einzuholen. Für die aufstrebende Generative-KI-Industrie – von Chatbots bis Bildgeneratoren – ist das eine enorme Erleichterung. Es erinnert an das Prinzip aus dem berühmten Google-Books-Fall, wo das Scannen von Millionen Büchern für eine Suchmaschine ebenfalls als Fair Use erlaubt wurde.
Für Autoren und Rechteinhaber hingegen ist dieses Urteil ein Rückschlag in den USA. Ihre bisherigen Klagen gegen KI-Firmen wegen unbefugter Werknutzung könnten deutlich an Schlagkraft verlieren, wenn die Fair-Use-Argumentation Schule macht. Tatsächlich laufen in den USA mehrere ähnliche Verfahren – etwa von Bestsellerautoren und Verlagen gegen OpenAI oder von großen Filmstudios gegen KI-Bildgeneratoren. Das Anthropic-Urteil könnte als Präzedenzfall dienen und die Tendenz vorgeben, solche Klagen abzuweisen, sofern kein piraterieartiges Verhalten vorliegt. Autorenverbände warnen bereits, dass hier ein Freibrief für die Kommerzialisierung ihrer Werke droht, während KI-Unternehmen argumentieren, die KI-Modelle würden nichts weiter tun als Menschen, die Bücher lesen und daraus lernen.
Wichtig ist: Das Urteil stammt von einem erstinstanzlichen Gericht und könnte noch im Berufungsverfahren landen. Der Ball liegt möglicherweise bald bei höheren Instanzen oder sogar dem Supreme Court, um endgültig zu klären, wie Fair Use im Kontext von KI-Training auszulegen ist. Dennoch: In der Tech-Branche wird die Entscheidung jetzt schon gefeiert, denn sie schafft erstmals eine rechtliche Grundlage, auf der KI-Entwickler ihre Datenstrategie in den USA aufbauen können.
Kein Fair Use in Deutschland: Was gilt hierzulande?
So bahnbrechend das US-Urteil ist – für Deutschland lässt es sich nicht ohne Weiteres übertragen. Anders als die USA kennt das deutsche (und europäische) Urheberrecht keine generelle Fair-Use-Doktrin. Hier gilt vielmehr: Ohne Zustimmung des Rechteinhabers ist jede Verwertung eines Werks verboten, es sei denn, ein spezifischer gesetzlicher Ausnahmetatbestand greift. Das deutsche Urheberrechtsgesetz enthält eine Reihe von eng definierten Schrankenbestimmungen (z.B. Zitatrecht, Privatkopie, Berichterstattung über Tagesereignisse), aber keine offene „Fair Use“-Klausel wie im US-Recht.
Beispiel: Wo ein US-Gericht fragt, ob die Nutzung „transformativ“ und damit vielleicht Fair Use ist, würde ein deutsches Gericht prüfen, ob z.B. §51 UrhG (Zitate) oder §60d UrhG (Text- und Data-Mining) anwendbar ist – wenn nicht, ist die Nutzung unzulässig, unabhängig davon wie kreativ oder transformativ sie erscheint. Die strikte Gesetzesbindung soll Rechtsicherheit schaffen, führt aber auch dazu, dass in Deutschland manche Nutzungsarten verboten bleiben, die in den USA erlaubt wären.
Text- und Data-Mining: Deutsche Ansätze für KI-Training
Speziell für KI-Trainingsdaten hat Europa 2019 neue Ausnahmen geschaffen, die 2021 in deutsches Recht umgesetzt wurden. Diese sollen Forschung und Innovation ermöglichen, ohne das Urheberrecht jedes Mal einzeln klären zu müssen. Konkret gibt es zwei relevante Vorschriften:
- §60d UrhG – wissenschaftliches Text und Data Mining: Diese Regel erlaubt Forschungsinstitutionen wie Universitäten, urheberrechtlich geschütztes Material in großem Umfang zu kopieren und auszuwerten, sofern es für nicht-kommerzielle wissenschaftliche Forschung erfolgt. Eine Einwilligung der Rechteinhaber ist dafür nicht nötig. Wichtig: Der Begriff der wissenschaftlichen Forschung wird großzügig ausgelegt – jüngst entschied etwa das Landgericht Hamburg, dass auch das Erstellen großer KI-Trainingsdatensätze (hier durch die non-profit Organisation LAION) unter diese Forschungsfreiheit fallen kann. Selbst wenn kommerzielle Unternehmen später die so gewonnenen Daten nutzen, bleibt der initiale Datensatz legal, solange dessen Erstellung dem Erkenntnisgewinn dient. Im genannten Fall Kneschke ./. LAION wurde daher der Download von Millionen Bildern aus dem Internet zum KI-Training als zulässig erachtet – das Gericht sah darin kein Urheberrechtsverstoß, sondern eine erlaubte Handlung nach §60d UrhG.
- §44b UrhG – Text und Data Mining für sonstige Zwecke: Diese zweite, allgemeinere Ausnahme erlaubt Text- und Data-Mining für alle Zwecke (auch kommerzielle), allerdings unter strengeren Bedingungen. Voraussetzung ist stets, dass derjenige, der die Daten nutzt, rechtmäßigen Zugang zum Material hat – sprich, das Werk muss z.B. öffentlich frei zugänglich oder vom Nutzer lizenziert/gekauft sein. Zudem können Rechteinhaber dieses Data Mining durch einen sogenannten Opt-out untersagen. In der Praxis geschieht dies etwa durch entsprechende Nutzungsbedingungen oder technische Maßnahmen (z.B. in der robots.txt einer Website), die das automatisierte Auslesen untersagen. Im Hamburger LAION-Fall hatte die Stockfoto-Website in ihren AGB eine No-Scraping-Klausel – das Gericht wertete diese als wirksames Opt-out. Für LAION spielte das keine Rolle, weil dort §60d (Forschung) griff, der ein Opt-out der Rechteinhaber gerade nicht zulässt. Für ein kommerzielles KI-Unternehmen in Deutschland wäre ein solches Opt-out jedoch bindend: Möchte es z.B. Zeitungsartikel oder Stockfotos für KI-Training scrapen, und der Anbieter hat das per AGB untersagt, würde §44b UrhG diese Nutzung gerade nicht erlauben.
Vergleich USA – Deutschland auf den Punkt gebracht: In den USA entscheidet ein Gericht im Einzelfall flexibel nach Fair-Use-Kriterien (transformative Nutzung, Umfang, Zweck, Marktauswirkung), ob eine KI-Nutzung zulässig ist. In Deutschland hingegen muss die Nutzung unter eine der starren Schranken fallen oder vertraglich lizenziert sein. Eine generelle Ausnahme für „transformative KI-Nutzung“ gibt es nicht, egal wie innovativ das Ergebnis sein mag. Allerdings bieten die neuen europäischen Regeln zum Text- und Data-Mining ein gewisses Äquivalent, indem sie das massenhafte Analysieren von Inhalten erleichtern – jedoch nur im Rahmen der definierten Voraussetzungen (Forschungskontext oder fehlendes Opt-out bei legal zugänglichen Quellen).
Fazit: Chancen und Risiken – was das für Unternehmen und Urheber bedeutet
Das US-Urteil zugunsten von Anthropic markiert einen Aufbruchsignal für KI-Entwickler – zumindest in Amerika. Erstmals wurde klar gerichtlich anerkannt, dass KI-Systeme zum Training umfangreich geschützte Werke nutzen dürfen, wenn sie daraus etwas Eigenständiges Neues schaffen. Für KI-Plattformen könnte das die Datennutzung enorm erleichtern und Innovation beschleunigen. Allerdings zeigt derselbe Fall auch eine Grenze auf: Wer vorsätzlich auf illegale Quellen zurückgreift, begeht nach wie vor eine Verletzung, selbst in den USA. KI-Unternehmen sind also gut beraten, ihre Trainingsdaten sauber und rechtskonform zu beschaffen – im Zweifel lieber Bücher kaufen oder lizenzieren, statt in dunklen Ecken des Internets zu wildern.
In Deutschland und Europa stellt sich die Lage deutlich anders dar. Ohne ein Fair-Use-Prinzip müssen Unternehmen hier sehr genau prüfen, ob eine Nutzung urheberrechtlich geschützter Werke zulässig ist. Die neuen TDM-Ausnahmen bieten zwar Spielraum, aber eben nur unter bestimmten Bedingungen (z.B. Forschung oder kein Opt-out). Ein kommerzielles KI-Startup in Deutschland, das millionenfach Bücher oder Bilder zum Training nutzen will, kann sich nicht pauschal auf eine Transformationsfreiheit berufen, sondern muss die Schrankenregelungen erfüllen oder mit Rechteinhabern Lizenzvereinbarungen treffen. Das bedeutet mehr Aufwand und rechtliche Unsicherheit im Vergleich zu den USA. Auf der anderen Seite behalten europäische Urheber dadurch mehr Kontrolle über ihre Werke. Sie können z.B. per Opt-out bestimmen, dass ihre Inhalte nicht ungefragt von Webcrawlern erfasst werden dürfen, und sie haben im Zweifel Unterlassungs- und Vergütungsansprüche, wenn doch etwas unberechtigt genutzt wird.
Für potenzielle Mandanten – ob KI-Firma oder Rechteinhaber – gilt: Man sollte die Rechtsentwicklung genau beobachten und ggf. fachkundigen Rat einholen, bevor man geschützte Inhalte in großem Stil für KI-Zwecke verarbeitet. In den USA zeichnet sich mit dem Anthropic-Urteil eine Liberalisierung zugunsten der KI-Branche ab. In Deutschland hingegen befindet man sich noch in einer Findungsphase: Erste Gerichtsentscheidungen wie in Hamburg geben einen Eindruck, wie die Gerichte die neuen TDM-Regeln anwenden – aber es bleibt abzuwarten, ob höhere Instanzen oder der EuGH diese großzügige Linie bestätigen. Gleichzeitig wird politisch weiter diskutiert, wie ein fairer Ausgleich aussehen kann – etwa ob es Vergütungsmodelle für Urheber geben sollte, deren Werke zum KI-Training genutzt werden.
Fest steht: Das Thema KI und Urheberrecht bleibt dynamisch. Unternehmen, die KI-Systeme trainieren, sollten international denken – was in den USA erlaubt ist, kann in Deutschland verboten sein. Umgekehrt könnten europäische Regeln wie die TDM-Ausnahmen mittelfristig dafür sorgen, dass auch hier KI-Innovation möglich bleibt, ohne Urheberrechte zu brechen. Die aktuelle US-Entscheidung ist ein großer Schritt für KI – aber kein Freifahrtschein weltweit. Es kommt auf den Rechtsraum an, und hier sind die Unterschiede zwischen US-Fair Use und deutschem Urheberrecht nicht zu übersehen. Für eine zukunftssichere KI-Strategie lohnt es sich also, beide Welten im Blick zu behalten – und im Zweifel rechtlich auf Nummer sicher zu gehen.