Meta Platforms a demandé à un tribunal américain de rejeter une plainte l'accusant d'avoir téléchargé et diffusé illégalement des milliers de contenus pour adultes afin d'entraîner ses systèmes d'intelligence artificielle. Déposée auprès du tribunal de district des États-Unis pour le district nord de la Californie, la requête en irrecevabilité soutient qu'aucune preuve ne vient étayer ces allégations.
Dans sa requête, Meta affirme qu'aucune preuve ne démontre que ses modèles contiennent ou ont été entraînés à l'aide de matériel protégé par le droit d'auteur. L' entreprise déclare également que ces allégations sont « absurdes et sans fondement ». Cette requête a été initialement rapportée par Ars Technica, et Meta a immédiatement démenti les accusations, les qualifiant de mensongères.
« Les plaignants ont déployé des efforts considérables pour construire ce récit à l’aide de conjectures et d’insinuations, mais leurs allégations ne sont ni convaincantes ni étayées par des faits bien exposés », peut-on lire dans la requête.
Meta demande au tribunal de rejeter la plainte pour piratage de contenu pour adultes
La plainte initiale a été déposée en juillet par Strike 3 Holdings. La plateforme allègue que Meta a utilisé des adresses IP professionnelles et masquées pour télécharger illégalement près de 2 400 films pour adultes depuis 2018. Elle affirme que cette action s'inscrivait dans le cadre de ses efforts plus vastes pour développer des systèmes d'intelligence artificielle multimodaux. Strike 3 est une société de production et de distribution de films pour adultes basée à Miami, qui commercialise du contenu sous des marques telles que Vixen, Tushy et Blacked, entre autres.
Dans sa requête , Meta soutient que l'ampleur et la nature des téléchargements présumés contredisent la théorie d'entraînement de l'IA de Strike 3. Au cours des sept dernières années, seuls 157 contenus pour adultes produits par Strike auraient été téléchargés via les adresses IP de Meta. Cela représente une moyenne d'environ 22 téléchargements par an, répartis sur 47 adresses IP différentes.
Angela Dunning, l'avocate de Meta, a qualifié la plainte d'« activité dérisoire et non coordonnée » de la part d'« individus disparates ».
Dunning a attribué les téléchargements à des particuliers, précisant qu'ils étaient destinés à un usage personnel et non à une campagne de collecte de données pour l'entraînement de l'IA menée par le géant technologique, comme l'affirme Strike 3. La requête réfute également les allégations de Strike 3 selon lesquelles Meta aurait utilisé plus de 2 500 adresses IP tierces masquées, soulignant que Strike 3 n'a pas vérifié ces adresses et s'est contenté d'établir des corrélations approximatives. Elle affirme qu'une des plages d'adresses IP serait liée à une association hawaïenne à but non lucratif sans aucun lien avec Meta, tandis que d'autres n'ont pas dent .
Meta a également affirmé qu'il n'existait aucune preuve qu'elle ait eu connaissance des téléchargements présumés, ni qu'elle aurait pu les empêcher. L'entreprise a ajouté qu'elle n'en avait tiré aucun profit et que la surveillance de chaque fichier sur son réseau mondial ne serait ni simple ni obligatoire légalement.
Dermot McGrath, cofondateur du fonds de capital-risque Ryzen Labs, a déclaré : « Si Meta admettait que les données ont été utilisées dans des modèles, l’entreprise devrait invoquer le droit à l’usage loyal, justifier l’inclusion de contenu piraté et s’exposer à la divulgation de ses systèmes internes de formation et d’audit. » Il a également ajouté qu’au lieu de nier l’utilisation des données, Meta a choisi de nier toute utilisation. Cependant, McGrath affirme que si le tribunal accepte cet argument, cela pourrait créer une faille juridique majeure.
Il affirme que cela pourrait « de fait compromettre la protection du droit d’auteur dans les affaires relatives aux données d’entraînement de l’IA », de sorte que les affaires futures nécessiteraient « des preuvestronde l’orientation de l’entreprise, que les entreprises seraient simplement de mieux en mieux capables de dissimuler ».
Il existe néanmoins des raisons légitimes d'utiliser du contenu explicite, certaines entreprises y ayant recours pour développer des outils de sécurité ou de modération. « La plupart des grandes d'IA disposent d'équipes d'analyse de vulnérabilités (ou « équipes rouges ») chargées de tester les modèles afin d'identifier leurs faiblesses. Pour ce faire, elles utilisent des incitations malveillantes et tentent d'amener l'IA à générer du contenu explicite, dangereux ou interdit », a déclaré McGrath.
Soyez visible là où ça compte. Faites de la publicité dans Cryptopolitan Research et touchez les investisseurs et les créateurs de cryptomonnaies les plus avisés.


