pte20250626003 in Forschung

KI darf in USA mit Raubkopien trainiert werden

Richter gibt Anthropic grünes Licht - Doch Aufbau von gestohlener digitaler Bibliothek illegal


Bibliothek: Für KI-Firmen in den USA sind Bücher
Bibliothek: Für KI-Firmen in den USA sind Bücher "Freiwild" (Foto: Mauro Borghesi, pixabay.com)

San Francisco (pte003/26.06.2025/06:05)

Raubkopierer in den USA haben jetzt die Billigung von beinahe höchster Stelle erhalten. Ein US-Bundesrichter hat dem KI-Unternehmen Anthropic aus San Francisco das Training seiner KI-Modelle mit urheberrechtlich geschützten Büchern ohne Genehmigung der Autoren zugestanden. Das Training der Claude-KI-Modelle des Unternehmens mit gekauften oder raubkopierten Büchern sei gemäß der "Fair-Use"-Doktrin des US-Urheberrechtsgesetzes zulässig, so Richter William Alsup.

"Die Verwendung der fraglichen Bücher zum Training von 'Claude' und seinen Vorgängern war äußerst transformativ und stellte eine faire Nutzung dar", schreibt Alsup in seiner Urteilsbegründung. Er vergleicht darin das Training von KI mit dem Lernen von Menschen durch das Lesen von Büchern.

"Faire" Nutzung angestrebt

Für das Training großer Sprachmodelle, die generative KI antreiben, sind enorme Datenmengen erforderlich. Musiker, Buchautoren, bildende Künstler und Nachrichtenverlage haben verschiedene KI-Unternehmen verklagt, die ihre Daten ohne Genehmigung oder Bezahlung verwendet haben.

KI-Unternehmen verteidigen ihre Praktiken in der Regel mit dem Argument der fairen Nutzung und behaupten, dass das Trainieren von KI mit großen Datensätzen den ursprünglichen Inhalt nicht grundlegend verändert und für Innovationen notwendig ist. "Wir freuen uns, dass das Gericht anerkannt hat, dass die Verwendung von Werken zum Trainieren von LLMs transformativ war'", sagt ein Sprecher von Anthropic auf AFP-Anfrage.

Kein umfassenderer Schutz

Das Urteil geht auf eine Sammelklage der Autoren Andrea Bartz, Charles Graeber und Kirk Wallace Johnson zurück, die Anthropic vorgeworfen hatten, ihre Bücher illegal kopiert zu haben, um Claude, den KI-Chatbot des Unternehmens, der mit ChatGPT konkurriert, zu trainieren.

Alsup lehnte jedoch den Antrag von Anthropic auf noch umfassenderen Schutz ab und entschied, dass die Praxis des Unternehmens, Millionen von raubkopierten Büchern herunterzuladen, um eine permanente digitale Bibliothek aufzubauen, nicht durch Fair-Use-Schutzbestimmungen gerechtfertigt sei. Das Ziel von Anthropic sei es gewesen, eine Bibliothek mit "allen Büchern der Welt" aufzubauen, um KIs mit den als geeignet erachteten Inhalten zu trainieren, erklärt der Richter weiter.

Während das Trainieren von KI-Modellen mit raubkopierten Inhalten keinen Rechtsverstoß darstelle, sei das Herunterladen von Raubkopien zum Aufbau einer allgemeinen Bibliothek eine Urheberrechtsverletzung, urteilt der Richter, unabhängig von der späteren Verwendung für Trainingszwecke.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail: kempkens@pressetext.com
Website: www.pressetext.com
|