Das KI-Unternehmen Anthropic will 1,5 Milliarden Dollar an Menschen auszahlen, deren Werke der Konzern für seine KI illegal beschafft und ausgewertet hat. Das ist erst der Anfang der juristischen Auseinandersetzungen in Bezug auf KI und Urheberrecht.

Anthropic PBC plant 1,5 Milliarden Dollar an die Urheberinnen und Urheber von Büchern auszuzahlen, die sich der amerikanische AI-Konzern offenbar illegal zum Training seines KI-Bots mit dem Namen Claude beschafft hat.

"Das Verfahren zeigt, dass man sich gegen die KI-Firmen wehren und Schadenersatz durchboxen kann. Aber es ist ein Spezialfall."
Andreas Noll, Deutschlandfunk-Nova-Reporter

"Der Richter hat klar gesagt: Das Herunterladen aus illegalen Datenbanken ist kein Fair Use", erklärt Deutschlandfunk-Nova-Reporter Andreas Noll. Im schlimmsten Fall hätten dem Unternehmen bis zu 150.000 Dollar Strafe je Buch gedroht. Um dieses Risiko zu vermeiden, habe das KI-Unternehmen nun den preiswerteren Vergleich akzeptiert, sagt Andreas Noll.

"Die Firma legt nur deshalb so viel Geld auf den Tisch, weil sie ihre Trainingsdaten aus illegalen Piraterie-Bibliotheken gezogen hat."
Andreas Noll, Deutschlandfunk-Nova-Reporter

Mit diesem Vorschlag möchte das Unternehmen also weitere Verfahren vermeiden und den klagenden Autorinnen und Autoren der Werke jeweils rund 3.000 Dollar je betroffenem Buch zukommen lassen. Der Vergleich könnte dazu führen, dass nun vermehrt Lizenzabkommen mit den Inhabern von Urheberrechten geschlossen werden, sagt Andreas Noll. Und weiter: "Diese Entwicklung hat bereits begonnen."

Autoren verklagen Apple

Der US-Konzern Apple hat ein vergleichbares Problem. Zwei bekannte Autoren haben gerade in den USA Klage eingereicht, weil ihre Bücher ebenfalls aus Piraterie-Bibliotheken stammen sollen und offenbar von Apple fürs Training der Apple Intelligence genutzt wurden, berichtet Andreas Noll. Die Kläger wollen daraus eine Sammelklage machen, der sich noch weitere Betroffene anschließen könnten.

Bereits im Februar war aus Gerichtsdokumenten bekannt geworden, dass der Facebook-Mutterkonzern Meta sich gut 80 Terrabyte an Büchern mittels Torrenting beschafft hat. Auch hier um die konzerneigene KI zu trainieren.

Opt-Out-Regel in der EU

Ein ähnliches Vergleich wie jener, den Anthropic nun anstrebt, erscheint hierzulande undenkbar, sagt Andreas Noll. In der EU gibt es seit 2019 eine Ausnahmeregelung für sogenanntes Text- und Data-Mining, also das Durchsuchen großer Textmengen für KI-Training.

Für kommerzielle Zwecke ist es nur dann erlaubt, wenn die Rechteinhaber nicht widersprechen. Dieses Opt-out können Verlage oder Autoren erklären. Für Forschungszwecke ist das Text- und Data-Mining hingegen erlaubt.

"Wir sind aktuell noch in der Phase, wo die Urheber erst einmal testen, wie weit sie vor Gericht kommen."
Andreas Noll, Deutschlandfunk-Nova-Reporter

Diese Regelung ist im neuen EU-AI-Act von 2024 festgeschrieben. Seit August müssen Anbieter von großen KI-Modellen außerdem offenlegen, mit welchen Daten sie trainiert haben. "Das klingt jetzt auf den ersten Blick streng, aber in der Praxis ist noch völlig offen, wie genau diese Transparenz aussehen wird", sagt Andreas Noll.

Shownotes
Vergleich zu illegalem Text-Mining
KI und Recht: 1,5 Milliarden Dollar für Urheber in den USA
vom 08. September 2025
Moderation: 
Markus Dichmann
Gesprächspartner: 
Andreas Noll, Deutschlandfunk-Nova-Reporter