Bitget App
Trading inteligente
Comprar criptoMercadosTradingFuturosRendaWeb3CentralMais
Trading
Spot
Compre e venda criptomoedas
Margem
Amplie seu capital e a eficiência de seus fundos
Onchain
Going Onchain, without going Onchain!
Convert
Sem taxas de corretagem e derrapagem
Explorar
Launchhub
Ganhe vantagens desde o início e comece a ganhar
Copy
Copie o trader de elite com um clique
Robôs
Robô de trading com IA simples, rápido e confiável
Trading
Futuros USDT
Futuros liquidados em USDT
Futuros USDC
Futuros liquidados em USDC
Futuros Coin-M
Futuros liquidados em criptomoedas
Explorar
Guia de futuros
Uma jornada no trading de futuros
Promoções de futuros
Aproveite recompensas generosas!
Renda Bitget
Uma série de produtos para aumentar seus ativos
Renda Simples
Deposite e retire a qualquer momento para obter retornos flexíveis com risco zero
Renda On-chain
Ganhe lucros diariamente sem arriscar o investimento inicial
Renda estruturada
Inovação financeira robusta para navegar pelas oscilações do mercado
VIP e Gestão de Patrimônio
Serviços premium para uma Gestão de Patrimônio inteligente
Empréstimos
Empréstimo flexível com alta segurança de fundos
Chatbots de IA 'sexualizados' representam ameaça para crianças, alertam procuradores-gerais em carta

Chatbots de IA 'sexualizados' representam ameaça para crianças, alertam procuradores-gerais em carta

CryptoNewsNetCryptoNewsNet2025/08/26 15:10
Mostrar original
Por:decrypt.co

A National Association of Attorneys General (NAAG) enviou uma carta para 13 empresas de IA, incluindo OpenAI, Anthropic, Apple e Meta, exigindo salvaguardas mais rigorosas para proteger crianças contra conteúdos inadequados e prejudiciais.

O órgão alertou que crianças estavam sendo expostas a materiais de teor sexual através de chatbots de IA “flertantes”.

"Expor crianças a conteúdo sexualizado é indefensável", escreveram os procuradores-gerais. "E condutas que seriam ilegais — ou até mesmo criminosas — se feitas por humanos, não são desculpáveis simplesmente porque são feitas por uma máquina."

A carta também fez comparações com o crescimento das redes sociais, dizendo que as agências governamentais não fizeram o suficiente para destacar as formas como elas impactaram negativamente as crianças.

“Plataformas de redes sociais causaram danos significativos às crianças, em parte porque os órgãos de fiscalização do governo não fizeram seu trabalho rápido o suficiente. Lições aprendidas. Os potenciais danos da IA, assim como os potenciais benefícios, superam o impacto das redes sociais", escreveu o grupo.

O uso de IA entre crianças é generalizado. Nos EUA, uma pesquisa da organização sem fins lucrativos Common Sense Media descobriu que sete em cada dez adolescentes já haviam experimentado IA generativa em 2024. Em julho de 2025, constatou-se que mais de três quartos estavam usando companheiros de IA e que metade dos entrevistados afirmou depender deles regularmente.

Outros países observaram tendências semelhantes. No Reino Unido, uma pesquisa do ano passado realizada pelo órgão regulador Ofcom revelou que metade das crianças online de 8 a 15 anos havia utilizado uma ferramenta de IA generativa no ano anterior.

O uso crescente dessas ferramentas tem gerado preocupação crescente entre pais, escolas e grupos de direitos das crianças, que apontam riscos que vão desde chatbots “flertantes” de teor sexual, material de abuso sexual infantil gerado por IA, bullying, aliciamento, extorsão, desinformação, violações de privacidade e impactos na saúde mental pouco compreendidos.

A Meta tem sido especialmente criticada recentemente após documentos internos vazados revelarem que seus Assistentes de IA foram autorizados a “flertar e participar de encenações românticas com crianças”, incluindo aquelas com apenas oito anos de idade. Os arquivos também mostraram políticas que permitiam que chatbots dissessem a crianças que sua “forma juvenil é uma obra de arte” e as descrevessem como um “tesouro”. Posteriormente, a Meta afirmou ter removido essas diretrizes.

A NAAG afirmou que as revelações deixaram os procuradores-gerais “revoltados com esse aparente desrespeito pelo bem-estar emocional das crianças” e alertou que os riscos não se limitavam à Meta.

O grupo citou processos contra Google e Character.ai alegando que chatbots sexualizados contribuíram para o suicídio de um adolescente e encorajaram outro a matar seus pais.

Entre os 44 signatários estava o Procurador-Geral do Tennessee, Jonathan Skrmetti, que afirmou que as empresas não podem defender políticas que normalizam interações sexualizadas com menores.

“Uma coisa é um algoritmo sair do controle — isso pode ser corrigido — mas é outra coisa quando pessoas que dirigem uma empresa adotam diretrizes que autorizam ativamente o aliciamento”, disse ele. “Se não conseguirmos direcionar a inovação para longe de prejudicar crianças, isso não é progresso — é uma praga.”

A Decrypt entrou em contato, mas ainda não obteve resposta de todas as empresas de IA mencionadas na carta.

0

Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.

PoolX: bloqueie e ganhe!
Até 10% de APR - Quanto mais você bloquear, mais poderá ganhar.
Bloquear agora!

Talvez também goste

AiCoin Diário (26 de agosto)

AICoin2025/08/26 18:48

Desvendando o enigma dos preços: de onde vem o valor duradouro do blockchain?

Se medirmos o sucesso pela especulação, estaremos construindo castelos de areia. Se medirmos o sucesso pela infraestrutura, estaremos lançando as bases.

深潮2025/08/26 18:28

O que é afinal o meme de Ethereum que até Tom Lee está de olho?

Haverá uma tendência de memes com o conceito de Tom Lee?

BlockBeats2025/08/26 17:33
O que é afinal o meme de Ethereum que até Tom Lee está de olho?