Im September 2025 stimmte Anthropic einem Vergleich in Höhe von 1,5 Milliarden US-Dollar zu. Hintergrund war eine Sammelklage von Autoren, die das KI-Unternehmen beschuldigten, Millionen urheberrechtlich geschützter Bücher ohne Genehmigung verwendet zu haben, um sein Sprachmodell Claude zu trainieren.
Der Fall gilt als eines der bisher wichtigsten Präzedenzfälle im Streit um KI-Trainingsdaten und Urheberrecht.
WORUM GING ES KONKRET?
Die Klage wurde im August 2024 eingereicht. Die zentralen Vorwürfe lauteten:
Verwendung von über 7 Millionen Büchern aus unautorisierten Quellen
Downloads von Piraterieseiten
Zudem: Kauf, Scannen und anschließende Vernichtung physischer Bücher
Anthropic bestritt das KI-Training an sich nicht, geriet jedoch wegen der Herkunft der Trainingsdaten unter Druck.
DAS URTEIL: FAIR USE HAT KLARE GRENZEN
Der vorsitzende Richter stellte klar:
✅ Das Training von KI-Modellen mit Büchern kann Fair Use sein, da es als transformativ gilt.
❌ Die Beschaffung von Daten aus Pirateriequellen ist nicht zulässig – unabhängig vom Zweck.
Zum ersten Mal wurde eine klare Unterscheidung zwischen Nutzung und Datenherkunft getroffen.
DIE KLAGE IN ZAHLEN
Vergleichssumme: 1,5 Milliarden USD
Betroffene Werke: ungefähr 500.000
Entschädigung: ca. 3.000 USD pro Werk
Anwendbarkeit: ausschließlich für vergangenes Verhalten
Der Vergleich beendet den spezifischen Fall, klärt jedoch nicht alle offenen Rechtsfragen für die Zukunft.
WARUM DAS FÜR UNTERNEHMEN RELEVANT IST
Der Fall zeigt:
Rechtlich unsichere Trainingsdaten sind kein theoretisches Risiko mehr, sondern ein massives Haftungs- und Reputationsproblem.
Für Unternehmen bedeutet dies:
Transparenz der KI-Anbieter wird entscheidend
Datenherkunft und Trainingsmethoden müssen nachvollziehbar sein
"Black-box KI" wird zunehmend risikoreich – insbesondere in Europa
WARUM JURILO BEWUSST EINEN ANDEREN WEG EINSCHLÄGT
Genau aus diesen Gründen wird Jurilo von Lawise.ai ausschließlich in der Schweiz und Europa gehostet.
Unsere Prinzipien sind klar:
Keine Nutzung von LLMs, die auf angeblich gestohlenen oder unlizenzierter Daten trainiert wurden
Kein Training auf Benutzer- oder Kundendaten
Volle Übereinstimmung mit schweizerischen und europäischen Rechtsstandards (DSG, EU-konforme Governance)
Der Fall Anthropic bestätigt:
Rechtssicherheit entsteht nicht rückwirkend – sie muss architektonisch integriert sein.
FAZIT
Der 1,5-Milliarden-Vergleich markiert einen Wendepunkt für die KI-Industrie.
Es ist nicht alleine die Leistung, die die Zukunft von KI-Systemen bestimmt, sondern Datenherkunft, Governance und rechtliche Integrität.
Für Europa und die Schweiz ist dies kein Nachteil – sondern ein struktureller Vorteil.