Chatbots de IA 'sexualizados' representam ameaça para crianças, alertam procuradores-gerais em carta
A National Association of Attorneys General (NAAG) enviou uma carta para 13 empresas de IA, incluindo OpenAI, Anthropic, Apple e Meta, exigindo salvaguardas mais rigorosas para proteger crianças contra conteúdos inadequados e prejudiciais.
O órgão alertou que crianças estavam sendo expostas a material de teor sexual através de chatbots de IA “flertantes”.
"Expor crianças a conteúdo sexualizado é indefensável", escreveram os procuradores-gerais. "E condutas que seriam ilegais — ou até mesmo criminosas — se feitas por humanos, não são desculpáveis simplesmente porque são realizadas por uma máquina."
A carta também fez comparações com o crescimento das redes sociais, afirmando que as agências governamentais não fizeram o suficiente para destacar as formas como elas impactaram negativamente as crianças.
“As plataformas de redes sociais causaram danos significativos às crianças, em parte porque os órgãos de fiscalização do governo não fizeram seu trabalho rápido o suficiente. Lição aprendida. Os potenciais danos da IA, assim como os potenciais benefícios, superam o impacto das redes sociais", escreveu o grupo.
O uso de IA entre crianças é generalizado. Nos EUA, uma pesquisa da organização sem fins lucrativos Common Sense Media constatou que sete em cada dez adolescentes já haviam experimentado IA generativa em 2024. Em julho de 2025, foi constatado que mais de três quartos estavam usando companheiros de IA e que metade dos entrevistados afirmou depender deles regularmente.
Outros países observaram tendências semelhantes. No Reino Unido, uma pesquisa realizada no ano passado pelo órgão regulador Ofcom descobriu que metade das crianças de 8 a 15 anos que usam a internet já havia utilizado uma ferramenta de IA generativa no ano anterior.
O uso crescente dessas ferramentas tem gerado preocupação crescente de pais, escolas e grupos de direitos das crianças, que apontam riscos que vão desde chatbots “flertantes” de teor sexual, material de abuso sexual infantil gerado por IA, bullying, aliciamento, extorsão, desinformação, violações de privacidade e impactos pouco compreendidos na saúde mental.
A Meta tem sido especialmente criticada recentemente após documentos internos vazados revelarem que seus Assistentes de IA foram autorizados a “flertar e participar de simulações românticas com crianças”, incluindo aquelas com apenas oito anos de idade. Os arquivos também mostraram políticas permitindo que chatbots dissessem a crianças que sua “forma juvenil é uma obra de arte” e as descrevessem como um “tesouro”. Posteriormente, a Meta afirmou ter removido essas diretrizes.
A NAAG afirmou que as revelações deixaram os procuradores-gerais “revoltados com esse aparente desrespeito pelo bem-estar emocional das crianças” e alertou que os riscos não se limitavam à Meta.
O grupo citou processos judiciais contra Google e Character.ai alegando que chatbots sexualizados contribuíram para o suicídio de um adolescente e encorajaram outro a matar seus pais.
Entre os 44 signatários estava o Procurador-Geral do Tennessee, Jonathan Skrmetti, que afirmou que as empresas não podem defender políticas que normalizam interações sexualizadas com menores.
“Uma coisa é um algoritmo sair do controle — isso pode ser corrigido — mas é outra coisa quando as pessoas que dirigem uma empresa adotam diretrizes que autorizam explicitamente o aliciamento”, disse ele. “Se não conseguirmos direcionar a inovação para longe de prejudicar as crianças, isso não é progresso — é uma praga.”
A Decrypt entrou em contato, mas ainda não obteve resposta de todas as empresas de IA mencionadas na carta.
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
Republic Digital se une ao movimento de tokenização e investe na pioneira de RWA, Centrifuge

Hemi garante US$ 15 milhões para avançar a programabilidade do Bitcoin antes do TGE

Succinct e Tandem fazem parceria para introduzir provas de conhecimento zero no Arbitrum

BitGo expande suporte ao ecossistema Hyperliquid com HyperEVM

Populares
MaisPreços de criptomoedas
Mais








