Les chatbots IA « sexualisés » représentent une menace pour les enfants, avertissent les procureurs généraux dans une lettre
L'Association nationale des procureurs généraux (NAAG) a adressé une lettre à 13 entreprises d'IA, dont OpenAI, Anthropic, Apple et Meta, exigeant des mesures de protection renforcées pour protéger les enfants contre les contenus inappropriés et nuisibles.
Elle a averti que les enfants étaient exposés à du matériel à connotation sexuelle via des chatbots d'IA « flirty ».
« Exposer les enfants à des contenus sexualisés est indéfendable », ont écrit les procureurs généraux. « Et un comportement qui serait illégal — voire criminel — s'il était commis par des humains n'est pas excusable simplement parce qu'il est effectué par une machine. »
La lettre a également établi des comparaisons avec la montée des réseaux sociaux, affirmant que les agences gouvernementales n'avaient pas suffisamment mis en lumière les effets négatifs sur les enfants.
« Les plateformes de réseaux sociaux ont causé des dommages importants aux enfants, en partie parce que les organismes de surveillance gouvernementaux n'ont pas agi assez rapidement. Leçon retenue. Les dommages potentiels de l'IA, tout comme ses bénéfices potentiels, dépassent de loin l'impact des réseaux sociaux », a écrit le groupe.
L'utilisation de l'IA chez les enfants est répandue. Aux États-Unis, une enquête menée par l'organisation à but non lucratif Common Sense Media a révélé que sept adolescents sur dix avaient essayé l'IA générative en 2024. En juillet 2025, il a été constaté que plus des trois quarts utilisaient des compagnons IA et que la moitié des répondants déclaraient s'y fier régulièrement.
D'autres pays ont observé des tendances similaires. Au Royaume-Uni, une enquête menée l'année dernière par le régulateur Ofcom a révélé que la moitié des enfants de 8 à 15 ans en ligne avaient utilisé un outil d'IA générative au cours de l'année précédente.
L'utilisation croissante de ces outils suscite des inquiétudes croissantes de la part des parents, des écoles et des groupes de défense des droits des enfants, qui soulignent des risques allant des chatbots « flirty » à connotation sexuelle, du matériel d'abus sexuel d'enfants généré par IA, de l'intimidation, du grooming, de l'extorsion, de la désinformation, des atteintes à la vie privée et des impacts sur la santé mentale encore mal compris.
Meta a récemment été particulièrement critiquée après que des documents internes divulgués ont révélé que ses assistants IA avaient été autorisés à « flirter et à participer à des jeux de rôle romantiques avec des enfants », y compris avec des enfants dès l'âge de huit ans. Les fichiers montraient également des politiques permettant aux chatbots de dire aux enfants que leur « forme juvénile est une œuvre d'art » et de les décrire comme un « trésor ». Meta a ensuite déclaré avoir supprimé ces directives.
La NAAG a déclaré que ces révélations avaient laissé les procureurs généraux « révoltés par ce mépris apparent pour le bien-être émotionnel des enfants » et a averti que les risques ne se limitaient pas à Meta.
Le groupe a cité des poursuites contre Google et Character.ai, alléguant que des chatbots sexualisés avaient contribué au suicide d'un adolescent et encouragé un autre à tuer ses parents.
Parmi les 44 signataires figurait le procureur général du Tennessee, Jonathan Skrmetti, qui a déclaré que les entreprises ne pouvaient pas défendre des politiques qui normalisent les interactions sexualisées avec des mineurs.
« Qu'un algorithme déraille, cela peut être corrigé — mais c'en est une autre que les dirigeants d'une entreprise adoptent des directives qui autorisent explicitement le grooming », a-t-il déclaré. « Si nous ne pouvons pas orienter l'innovation pour éviter de nuire aux enfants, ce n'est pas du progrès — c'est un fléau. »
Decrypt a contacté, mais n'a pas encore reçu de réponse de la part de toutes les entreprises d'IA mentionnées dans la lettre.
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
Numerai crypto en hausse de 41% après l'engagement de 500 millions de dollars de JPMorgan

Canary Capital dépose un formulaire S-1 pour un ETF spot TRUMP

Republic Digital rejoint l’initiative pour la tokenisation et investit dans le pionnier RWA Centrifuge

Hemi sécurise 15 millions de dollars pour faire avancer la programmabilité de Bitcoin avant le TGE

En vogue
PlusPrix des cryptos
Plus








