
Anthropic accepte de verser 1,5 milliard de dollars pour piratage de livres
La start-up américaine d’Intelligence Artificielle Anthropic a accepté de verser au moins 1,5 milliard de dollars à un fonds d’indemnisation d’auteurs, ayants droit et éditeurs qui poursuivaient l’entreprise pour avoir téléchargé illégalement des millions de livres. Cet accord constitue le plus important règlement en matière de droits d’auteur jamais enregistré aux États-Unis.
L’affaire Bartz v. Anthropic opposait la société créatrice de l’IA Claude à des auteurs qui l’accusaient d’avoir utilisé des versions piratées de leurs livres pour entraîner son modèle de langage. Anthropic avait téléchargé environ 7 millions de livres électroniques depuis des sites pirates comme Library Genesis (LibGen) et PiLiMi, constituant une “bibliothèque centrale” massive d’œuvres protégées.
En juin 2025, le juge fédéral William Alsup avait rendu une décision nuancée. Il avait estimé qu’Anthropic faisait un usage loyal des œuvres des auteurs pour former Claude, mais que l’entreprise avait violé leurs droits en sauvegardant plus de 7 millions de livres piratés. Cette distinction juridique cruciale séparait l’acte d’entraîner l’IA (considéré comme usage équitable) du téléchargement et stockage de contenus piratés (violation du droit d’auteur).
Un procès devait s’ouvrir en décembre 2025 pour déterminer les dommages-intérêts, avec des experts évoquant des montants astronomiques pouvant atteindre des centaines de milliards de dollars. Certains spécialistes estimaient qu’Anthropic aurait pu verser jusqu’à 1 000 milliards de dollars de dommages et intérêts si le procès était allé jusqu’à son terme.
L’accord prévoit une compensation d’environ 3 000 dollars par livre concerné. Avec un inventaire provisoire d’environ 500 000 livres piratés identifiés, on arrive au total de 1,5 milliard de dollars. Si l’inventaire final révélait davantage de titres, le montant augmenterait proportionnellement.
L’entreprise devra également détruire toutes les copies des fichiers piratés en sa possession, empêchant toute utilisation future des textes obtenus illégalement. Cependant, l’accord ne reconnaît officiellement aucune faute de la part d’Anthropic et ne lui interdit pas d’utiliser des œuvres obtenues légalement pour entraîner ses modèles futurs.
Mary Rasenberger, directrice de l’Authors Guild, voit dans cet accord “une étape vitale pour reconnaître que les entreprises d’IA ne peuvent pas simplement piller le travail des auteurs pour bâtir leurs modèles“. Ce règlement pourrait établir un précédent important pour les nombreuses autres poursuites en cours contre les géants de l’IA comme OpenAI, Meta et Google.
Comments (0)