Bitget App
Trading Inteligente
Comprar criptoMercadosTradingFuturosEarnWeb3CentroMás
Trading
Spot
Compra y vende cripto con facilidad
Margen
Aumenta tu capital y maximiza tus fondos
Onchain
Going Onchain, without going Onchain!
Convert
Convierte sin comisiones ni deslizamiento
Explorar
Launchhub
Obtén ventajas desde el principio y empieza a ganar
Copy
Copia al trader elite con un solo clic
Bots
Bot de trading con IA sencillo, rápido y confiable
Trading
Futuros USDT-M
Tradea futuros liquidados en USDT
Futuros USDC-M
Futuros liquidados en USDC
Futuros Coin-M
Tradea futuros liquidados en cripto
Explorar
Guía de Futuros
Un recorrido de principiante a experto en el trading de futuros
Promociones de futuros
Gana grandes recompensas
Resumen
Una variedad de productos para incrementar tus activos
Simple Earn
Deposita y retira en cualquier momento para obtener retornos flexibles sin riesgo.
On-chain Earn
Obtén ganancias diarias sin arriesgar tu capital
Earn estructurado
Innovación financiera sólida para sortear las oscilaciones del mercado
VIP y Gestión Patrimonial
Aumenta tu patrimonio con nuestro equipo de primer
Préstamos
Préstamos flexibles con alta seguridad de fondos
Los chatbots de IA "sexualizados" representan una amenaza para los niños, advierten fiscales generales en una carta

Los chatbots de IA "sexualizados" representan una amenaza para los niños, advierten fiscales generales en una carta

CryptoNewsNetCryptoNewsNet2025/08/26 15:10
Mostrar el original
Por:decrypt.co

La National Association of Attorneys General (NAAG) ha enviado una carta a 13 empresas de IA, incluyendo OpenAI, Anthropic, Apple y Meta, exigiendo salvaguardas más estrictas para proteger a los niños de contenido inapropiado y dañino.

Advirtió que los niños estaban siendo expuestos a material con insinuaciones sexuales a través de chatbots de IA “coquetos”.

"Exponer a los niños a contenido sexualizado es indefendible", escribieron los fiscales generales. "Y la conducta que sería ilegal—o incluso criminal—si la realizara un humano, no es excusable simplemente porque la realice una máquina."

La carta también hizo comparaciones con el auge de las redes sociales, señalando que las agencias gubernamentales no hicieron lo suficiente para resaltar las formas en que impactó negativamente a los niños.

“Las plataformas de redes sociales causaron un daño significativo a los niños, en parte porque los organismos de control del gobierno no hicieron su trabajo lo suficientemente rápido. Lección aprendida. Los posibles daños de la IA, al igual que sus posibles beneficios, superan con creces el impacto de las redes sociales", escribió el grupo.

El uso de la IA entre los niños es generalizado. En EE.UU., una encuesta realizada por la organización sin fines de lucro Common Sense Media encontró que siete de cada diez adolescentes habían probado IA generativa en 2024. En julio de 2025, se descubrió que más de tres cuartas partes usaban compañeros de IA y que la mitad de los encuestados dijo que dependía de ellos regularmente.

Otros países han visto tendencias similares. En el Reino Unido, una encuesta realizada el año pasado por el regulador Ofcom encontró que la mitad de los niños de 8 a 15 años que usan Internet habían utilizado una herramienta de IA generativa en el año anterior.

El creciente uso de estas herramientas ha generado una preocupación cada vez mayor por parte de padres, escuelas y grupos de derechos de la infancia, quienes señalan riesgos que van desde chatbots “coquetos” con insinuaciones sexuales, material de abuso sexual infantil generado por IA, acoso, grooming, extorsión, desinformación, violaciones de la privacidad e impactos en la salud mental poco comprendidos.

Meta ha estado bajo especial escrutinio recientemente después de que documentos internos filtrados revelaran que sus Asistentes de IA habían sido autorizados para “coquetear y participar en juegos de rol románticos con niños”, incluyendo a menores de tan solo ocho años. Los archivos también mostraron políticas que permitían a los chatbots decirles a los niños que su “forma juvenil es una obra de arte” y describirlos como un “tesoro”. Meta luego afirmó que había eliminado esas directrices.

NAAG dijo que las revelaciones dejaron a los fiscales generales “revueltos por este aparente desprecio por el bienestar emocional de los niños” y advirtió que los riesgos no se limitaban a Meta.

El grupo citó demandas contra Google y Character.ai alegando que chatbots sexualizados habían contribuido al suicidio de un adolescente y alentado a otro a matar a sus padres.

Entre los 44 firmantes se encontraba el Fiscal General de Tennessee, Jonathan Skrmetti, quien dijo que las empresas no pueden defender políticas que normalicen interacciones sexualizadas con menores.

“Una cosa es que un algoritmo se desvíe—eso se puede corregir—pero es otra cosa que las personas que dirigen una empresa adopten directrices que autoricen afirmativamente el grooming”, dijo. “Si no podemos orientar la innovación para que no dañe a los niños, eso no es progreso—es una plaga.”

Decrypt ha contactado, pero aún no ha recibido respuesta de todas las empresas de IA mencionadas en la carta.

0

Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.

PoolX: Bloquea y gana nuevos tokens.
APR de hasta 12%. Gana más airdrop bloqueando más.
¡Bloquea ahora!