En septembre 2025, Anthropic a accepté un règlement de 1,5 milliard de dollars américains. Le contexte était un recours collectif par des auteurs qui accusaient l'entreprise d'IA d'utiliser des millions de livres protégés par le droit d'auteur sans autorisation pour entraîner son modèle linguistique Claude.
L'affaire est considérée comme l'un des précédents les plus importants à ce jour dans le litige concernant les données d'entraînement de l'IA et le droit d'auteur.
DE QUOI S'AGISSAIT-IL PRÉCISÉMENT ?
La poursuite a été déposée en août 2024. Les principales allégations étaient :
Utilisation de plus de 7 millions de livres provenant de sources non autorisées
Téléchargements à partir de sites web de piratage
En outre : achat, numérisation et destruction ultérieure de livres physiques
Anthropic n'a pas contesté l'entraînement de l'IA lui-même, mais a été mis sous pression en raison de l'origine des données d'entraînement.
LE VERDICT : LE FAIR USE A DES LIMITES CLAIRES
Le juge en charge a précisé :
✅ Entraîner des modèles d'IA avec des livres peut être considéré comme Fair Use, car cela est jugé transformateur.
❌ Obtenir des données par des sources de piratage n'est pas autorisé – quel que soit l'objectif.
C'était la première fois qu'une distinction claire était faite entre l'utilisation et l'origine des données.
LE RÈGLEMENT EN CHIFFRES
Montant du règlement : 1,5 milliard USD
Œuvres concernées : environ 500 000
Indemnisation : environ 3 000 USD par œuvre
Applicabilité : exclusivement pour les comportements passés
Le règlement conclut le cas spécifique mais ne clarifie pas toutes les questions juridiques ouvertes pour l'avenir.
POURQUOI C'EST PERTINENT POUR LES ENTREPRISES
L'affaire montre :
Des données d'entraînement juridiquement incertaines ne sont plus un risque théorique, mais un problème massif de responsabilité et de réputation.
Pour les entreprises, cela signifie :
La transparence des fournisseurs d'IA devient cruciale
L'origine des données et les méthodes d'entraînement doivent être traçables
L’« IA boîte noire » devient de plus en plus risquée – surtout en Europe
POURQUOI JURILO PREND DÉLIBÉRÉMENT UN CHEMIN DIFFÉRENT
Pour ces raisons précises, Jurilo par Lawise.ai est hébergé exclusivement en Suisse et en Europe.
Nos principes sont clairs :
Pas d'utilisation de LLMs entraînés sur des données prétendument volées ou non licenciées
Aucun entraînement sur les données des utilisateurs ou des clients
Plein respect des normes juridiques suisses et européennes (LPD, gouvernance conforme à l'UE)
Le cas Anthropic confirme :
La sécurité juridique ne se génère pas rétroactivement – elle doit être intégrée architecturale.
CONCLUSION
Le règlement de 1,5 milliard marque un tournant pour l'industrie de l'IA.
Ce n'est pas seulement la performance qui détermine l'avenir des systèmes d'IA, mais l'origine des données, la gouvernance et l'intégrité légale.
Pour l'Europe et la Suisse, ce n'est pas un désavantage – mais un avantage structurel.