Anthropic a accepté de payer 1,5 milliard de dollars pour régler un important procès en matière de droits d'auteur après que des auteurs ont déclaré que la société avait utilisé des livres piratés pour former son chatbot Claude AI sans autorisation.
L'accord de recours collectif proposé représente le plus important dédommagement pour atteinte aux droits d'auteur jamais enregistré et le premier accord majeur lié à l'intelligence artificielle. Si le juge William Alsup de San Francisco l'approuve, l'accord permettra d'indemniser des centaines de milliers d'auteurs et d'établir une nouvelle norme pour l'utilisation par les entreprises d'IA de contenus protégés par le droit d'auteur.
Cette décision fait suite à l'autorisation donnée par un juge américain à un groupe d'auteurs d'intenter une action en justice contre la société d'intelligence artificielle Anthropic, alléguant que leurs livres avaient été utilisés sans leur consentement pour entraîner son modèle d'intelligence artificielle. Les auteurs, tous des professionnels reconnus, affirment qu'Anthropic a utilisé leurs œuvres protégées par le droit d'auteur pour entraîner son chatbot Claude, sans autorisation ni rémunération.
Ils affirment que l'entreprise est allée trop loin en exploitant leurs histoires pour rendre l'IA plus humaine, allant même jusqu'à imiter leurs styles d'écriture et leurs idées.
Les auteurs obtiennent un dédommagement record dans une affaire de droits d'auteur
Le règlement de 1,5 milliard de dollars porte sur environ 500 000 livres piratés que l'entreprise a téléchargés à partir de bibliothèques parallèles en ligne telles que Library Genesis, Pirate Library Mirror et le jeu de données Books3. Ces bibliothèques en ligne sont des sources populaires de copies numériques non autorisées de livres que les chercheurs et les développeurs d'IA utilisent pour leurs bases de données. Depuis longtemps, auteurs, éditeurs et groupes de défense critiquent ces dépôts, les accusant de porter atteinte à la protection du droit d'auteur.
L'accord prévoit que chaque auteur dont le livre a été utilisé illégalement par Anthropic comme données d'entraînement pour son IA recevra une compensation d'environ 3 000 dollars. Si une enquête plus approfondie révèle que l'entreprise a utilisé d'autres travaux dans ses données, le montant total pourrait exploser, dépassant ainsi le montant initial de 1,5 milliard de dollars.
L'affaire Anthropic a débuté en 2024, lorsque les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson ont poursuivi l'entreprise en justice pour avoir copié leurs livres sans autorisation. Plus tard, des centaines de milliers d'autres auteurs ont intenté une action en justice, affirmant que l'entreprise avait utilisé leurs œuvres pour entraîner son chatbot phare, Claude .
Les auteurs ont souligné l'ignorance d'Anthropic quant à l'octroi légitime de licences pour le matériel malgré sa situation financière, comme en témoignent ses puissants investisseurs, comme Amazon et la société mère de Google, Alphabet.
Le juge William Alsup a statué en juin que l'utilisation de matériel protégé par le droit d'auteur pour entraîner des modèles d'IA pouvait être considérée comme un usage équitable si les œuvres étaient transformatrices. Il a également déclaré qu'Anthropic avait violé le droit d'auteur en téléchargeant et en stockant plus de 7 000 000 de livres piratés dans une bibliothèque centrale.
La décision expose l'entreprise à des dommages et intérêts si le procès se déroule comme prévu en décembre, car les experts juridiques ont averti qu'Anthropic pourrait devoir payer des centaines de milliards de dollars.
Anthropic évite le procès mais fait toujours face à des risques juridiques
Les termes de l'accord, d'un montant de 1,5 milliard de dollars, obligent Anthropic à détruire chaque exemplaire des livres piratés afin d'empêcher l'entreprise de continuer à exploiter des contenus non autorisés. Cependant, les experts affirment que cet accord ne protège pas l'entreprise contre de nouvelles poursuites. Les auteurs pourraient toujours intenter des poursuites si le système Claude générait des copies reproduisant des passages protégés par le droit d'auteur ou portant atteinte à leurs œuvres.
Anthropic a déclaré que l'accord ne prévoyait pas de reconnaissance de responsabilité, mais souhaitait simplement avancer sans l'incertitude d'un long procès. La directrice juridique adjointe de l'entreprise, Aparna Sridhar, a expliqué qu'Anthropic restait déterminée à produire des produits sûrs, fiables et favorables au progrès humain. Elle a ajouté que l'entreprise souhaitait se concentrer sur le développement d'outils qui améliorent la science et servent le public plutôt que de passer des années en proie à des batailles judiciaires.
D'autres entreprises d'IA comme OpenAI, Microsoft et Meta font toujours face à des poursuites judiciaires qui soulèvent des préoccupations presque dent en matière de droits d'auteur. Un juge de San Francisco a récemment autorisé la poursuite d'une action en justice contre Meta , affirmant que l'utilisation de matériel protégé par le droit d'auteur sans autorisation est illégale « dans de nombreuses circonstances ».
Le règlement à l'amiable a épargné à Anthropic la possibilité de porter le litige devant la Cour suprême des États-Unis, car cela aurait pu entraîner des changements massifs dans les lois nationales sur la manière dont l'utilisation équitable s'applique à l'intelligence artificielle.
Obtenez 50 $ gratuits pour trader des crypto-monnaies lorsque vous vous inscrivez sur Bybit maintenant