Bitget App
Trade smarter
Comprar criptomoedasMercadosTradingFuturosEarnWeb3CentroMais
Trading
Spot
Compre e venda criptomoedas
Margem
Aumente e maximize a eficiência do seu capital
Onchain
Going Onchain, without going Onchain!
Convert
Sem taxas de corretagem e sem derrapagem.
Explorar
Launchhub
Comece a ganhar desde cedo
Copy
Copie traders de elite com um só clique
Bots
Bot de trading com IA simples, rápido e fiável
Trading
Futuros em USDT-M
Futuros liquidados em USDT
Futuros em USDC-M
Futuros liquidados em USDC
Futuros em Moeda-M
Futuros liquidados em criptomoedas
Explorar
Guia de futuros
Uma viagem de principiante a veterano no trading de futuros
Campanhas de futuros
Desfrute de recompensas generosas
Bitget Earn
Uma variedade de produtos para aumentar os seus ativos
Earn simples
Deposite e levante a qualquer altura para obter rendimentos flexíveis sem riscos
Earn On-chain
Lucre diariamente sem arriscar capital
Earn estruturado
Inovações financeiras robustas para navegar pelas oscilações do mercado
VIP e Gestão de património
Serviços premium para uma gestão inteligente de património
Empréstimos
Empréstimos flexíveis com elevada segurança de fundos
Chatbots de IA 'sexualizados' representam ameaça para crianças, alertam procuradores-gerais em carta

Chatbots de IA 'sexualizados' representam ameaça para crianças, alertam procuradores-gerais em carta

CryptoNewsNetCryptoNewsNet2025/08/26 15:10
Mostrar original
Por:decrypt.co

A National Association of Attorneys General (NAAG) enviou uma carta para 13 empresas de IA, incluindo OpenAI, Anthropic, Apple e Meta, exigindo salvaguardas mais rigorosas para proteger crianças contra conteúdos inadequados e prejudiciais.

O órgão alertou que crianças estavam sendo expostas a material de teor sexual através de chatbots de IA “flertantes”.

"Expor crianças a conteúdo sexualizado é indefensável", escreveram os procuradores-gerais. "E condutas que seriam ilegais — ou até mesmo criminosas — se feitas por humanos, não são desculpáveis simplesmente porque são realizadas por uma máquina."

A carta também fez comparações com o crescimento das redes sociais, afirmando que as agências governamentais não fizeram o suficiente para destacar as formas como elas impactaram negativamente as crianças.

“As plataformas de redes sociais causaram danos significativos às crianças, em parte porque os órgãos de fiscalização do governo não fizeram seu trabalho rápido o suficiente. Lição aprendida. Os potenciais danos da IA, assim como os potenciais benefícios, superam o impacto das redes sociais", escreveu o grupo.

O uso de IA entre crianças é generalizado. Nos EUA, uma pesquisa da organização sem fins lucrativos Common Sense Media constatou que sete em cada dez adolescentes já haviam experimentado IA generativa em 2024. Em julho de 2025, foi constatado que mais de três quartos estavam usando companheiros de IA e que metade dos entrevistados afirmou depender deles regularmente.

Outros países observaram tendências semelhantes. No Reino Unido, uma pesquisa realizada no ano passado pelo órgão regulador Ofcom descobriu que metade das crianças de 8 a 15 anos que usam a internet já havia utilizado uma ferramenta de IA generativa no ano anterior.

O uso crescente dessas ferramentas tem gerado preocupação crescente de pais, escolas e grupos de direitos das crianças, que apontam riscos que vão desde chatbots “flertantes” de teor sexual, material de abuso sexual infantil gerado por IA, bullying, aliciamento, extorsão, desinformação, violações de privacidade e impactos pouco compreendidos na saúde mental.

A Meta tem sido especialmente criticada recentemente após documentos internos vazados revelarem que seus Assistentes de IA foram autorizados a “flertar e participar de simulações românticas com crianças”, incluindo aquelas com apenas oito anos de idade. Os arquivos também mostraram políticas permitindo que chatbots dissessem a crianças que sua “forma juvenil é uma obra de arte” e as descrevessem como um “tesouro”. Posteriormente, a Meta afirmou ter removido essas diretrizes.

A NAAG afirmou que as revelações deixaram os procuradores-gerais “revoltados com esse aparente desrespeito pelo bem-estar emocional das crianças” e alertou que os riscos não se limitavam à Meta.

O grupo citou processos judiciais contra Google e Character.ai alegando que chatbots sexualizados contribuíram para o suicídio de um adolescente e encorajaram outro a matar seus pais.

Entre os 44 signatários estava o Procurador-Geral do Tennessee, Jonathan Skrmetti, que afirmou que as empresas não podem defender políticas que normalizam interações sexualizadas com menores.

“Uma coisa é um algoritmo sair do controle — isso pode ser corrigido — mas é outra coisa quando as pessoas que dirigem uma empresa adotam diretrizes que autorizam explicitamente o aliciamento”, disse ele. “Se não conseguirmos direcionar a inovação para longe de prejudicar as crianças, isso não é progresso — é uma praga.”

A Decrypt entrou em contato, mas ainda não obteve resposta de todas as empresas de IA mencionadas na carta.

0

Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.

PoolX: Bloqueie e ganhe
Pelo menos 12% de APR. Quanto mais bloquear, mais pode ganhar.
Bloquear agora!