Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnWeb3CommunautéPlus
Trading
Spot
Achat et vente de cryptos
Marge
Amplifiez et maximisez l'efficacité de vos fonds
Onchain
Going Onchain, without going Onchain!
Convert
Aucun frais de transaction ni slippage
Explorer
Launchhub
Prenez l'avantage dès le début et commencez à gagner
Copy
Copiez des traders experts en un clic
Bots
Bots de trading IA simples, rapides et fiables
Trading
Futures USDT-M
Futures réglés en USDT
Futures USDC-M
Futures réglés en USDC
Futures Coin-M
Futures réglés en cryptomonnaies
Explorer
Guide des Futures
Le parcours de trading de Futures, du débutant à l'expert
Événements Futures
Profitez de généreuses récompenses
Bitget Earn
Une variété de produits pour faire fructifier vos actifs
Simple Earn
Déposez et retirez à tout moment, rendements flexibles sans risque
On-chain Earn
Réalisez des profits quotidiens sans risquer votre capital
Structured Earn
Une innovation financière solide pour gérer les fluctuations du marché
VIP et Gestion de patrimoine
Des services premium pour une gestion de patrimoine intelligente
Prêt Crypto
Emprunts flexibles avec un haut niveau de sécurité des fonds
Les chatbots IA « sexualisés » représentent une menace pour les enfants, avertissent les procureurs généraux dans une lettre

Les chatbots IA « sexualisés » représentent une menace pour les enfants, avertissent les procureurs généraux dans une lettre

CryptoNewsNetCryptoNewsNet2025/08/26 15:10
Afficher le texte d'origine
Par:decrypt.co

L'Association nationale des procureurs généraux (NAAG) a adressé une lettre à 13 entreprises d'IA, dont OpenAI, Anthropic, Apple et Meta, exigeant des mesures de protection renforcées pour protéger les enfants contre les contenus inappropriés et nuisibles.

Elle a averti que les enfants étaient exposés à du matériel à connotation sexuelle via des chatbots d'IA « flirty ».

« Exposer les enfants à des contenus sexualisés est indéfendable », ont écrit les procureurs généraux. « Et un comportement qui serait illégal — voire criminel — s'il était commis par des humains n'est pas excusable simplement parce qu'il est effectué par une machine. »

La lettre a également établi des comparaisons avec la montée des réseaux sociaux, affirmant que les agences gouvernementales n'avaient pas suffisamment mis en lumière les effets négatifs sur les enfants.

« Les plateformes de réseaux sociaux ont causé des dommages importants aux enfants, en partie parce que les organismes de surveillance gouvernementaux n'ont pas agi assez rapidement. Leçon retenue. Les dommages potentiels de l'IA, tout comme ses bénéfices potentiels, dépassent de loin l'impact des réseaux sociaux », a écrit le groupe.

L'utilisation de l'IA chez les enfants est répandue. Aux États-Unis, une enquête menée par l'organisation à but non lucratif Common Sense Media a révélé que sept adolescents sur dix avaient essayé l'IA générative en 2024. En juillet 2025, il a été constaté que plus des trois quarts utilisaient des compagnons IA et que la moitié des répondants déclaraient s'y fier régulièrement.

D'autres pays ont observé des tendances similaires. Au Royaume-Uni, une enquête menée l'année dernière par le régulateur Ofcom a révélé que la moitié des enfants de 8 à 15 ans en ligne avaient utilisé un outil d'IA générative au cours de l'année précédente.

L'utilisation croissante de ces outils suscite des inquiétudes croissantes de la part des parents, des écoles et des groupes de défense des droits des enfants, qui soulignent des risques allant des chatbots « flirty » à connotation sexuelle, du matériel d'abus sexuel d'enfants généré par IA, de l'intimidation, du grooming, de l'extorsion, de la désinformation, des atteintes à la vie privée et des impacts sur la santé mentale encore mal compris.

Meta a récemment été particulièrement critiquée après que des documents internes divulgués ont révélé que ses assistants IA avaient été autorisés à « flirter et à participer à des jeux de rôle romantiques avec des enfants », y compris avec des enfants dès l'âge de huit ans. Les fichiers montraient également des politiques permettant aux chatbots de dire aux enfants que leur « forme juvénile est une œuvre d'art » et de les décrire comme un « trésor ». Meta a ensuite déclaré avoir supprimé ces directives.

La NAAG a déclaré que ces révélations avaient laissé les procureurs généraux « révoltés par ce mépris apparent pour le bien-être émotionnel des enfants » et a averti que les risques ne se limitaient pas à Meta.

Le groupe a cité des poursuites contre Google et Character.ai, alléguant que des chatbots sexualisés avaient contribué au suicide d'un adolescent et encouragé un autre à tuer ses parents.

Parmi les 44 signataires figurait le procureur général du Tennessee, Jonathan Skrmetti, qui a déclaré que les entreprises ne pouvaient pas défendre des politiques qui normalisent les interactions sexualisées avec des mineurs.

« Qu'un algorithme déraille, cela peut être corrigé — mais c'en est une autre que les dirigeants d'une entreprise adoptent des directives qui autorisent explicitement le grooming », a-t-il déclaré. « Si nous ne pouvons pas orienter l'innovation pour éviter de nuire aux enfants, ce n'est pas du progrès — c'est un fléau. »

Decrypt a contacté, mais n'a pas encore reçu de réponse de la part de toutes les entreprises d'IA mentionnées dans la lettre.

0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !