Bitget App
Opera de forma inteligente
Comprar criptoMercadosTradingFuturosEarnWeb3CentralMás
Trading
Spot
Compra y vende criptomonedas con facilidad
Margen
Amplifica y maximiza la eficiencia de tus fondos
Onchain
Opera Onchain sin complicaciones en cadena
Convert y operación en bloque
Convierte criptos con un solo clic y sin comisiones
Explorar
Launchhub
Obtén ventaja desde el principio y comienza a ganar
Copiar
Copia al trader de élite con un solo clic
Bots
Bot de trading con IA simple, rápido y confiable
Trading
Futuros USDT-M
Futuros que se liquidan en USDT
Futuros USDC-M
Futuros que se liquidan en USDC
Futuros COIN-M
Futuros que se liquidan en criptomonedas
Explorar
Guía de futuros
Una experiencia de principiante a experto en el trading de futuros
Promociones de futuros
Te esperan generosas recompensas
Visión general
Una variedad de productos para hacer crecer tus activos
Simple Earn
Deposita y retira en cualquier momento para obtener rendimientos flexibles sin riesgo
On-chain Earn
Gana beneficios todos los días sin arriesgar tu capital
Earn estructurado
Innovación financiera sólida para afrontar las oscilaciones del mercado
Gestión del Patrimonio y VIP
Servicios premium para una gestión inteligente del patrimonio
Préstamos
Préstamos flexibles con alta seguridad de fondos
El cofundador de Ethereum, Vitalik Buterin, afirma que Info Finance podría mitigar riesgos ya que los jailbreaks de ChatGPT podrían filtrar datos

El cofundador de Ethereum, Vitalik Buterin, afirma que Info Finance podría mitigar riesgos ya que los jailbreaks de ChatGPT podrían filtrar datos

CoinotagCoinotag2025/09/13 14:26
Mostrar el original
Por:Sheila Belson
  • La gobernanza ingenua de la IA es vulnerable a la manipulación y a los jailbreaks.

  • La info finance junto con jurados humanos y verificaciones aleatorias puede detectar la manipulación tempranamente.

  • Las demostraciones de jailbreak en ChatGPT muestran cómo las herramientas conectadas pueden exponer datos privados en minutos.

Los riesgos de la gobernanza de la IA amenazan la financiación cripto y la seguridad de los datos; aprende cómo la info finance y la supervisión de jurados pueden reducir la manipulación — lee ahora los pasos accionables.




Publicado: 13 de septiembre de 2025

¿Qué es el riesgo de gobernanza de la IA en cripto?

El riesgo de gobernanza de la IA se refiere a fallos en los sistemas que permiten que herramientas impulsadas por IA tomen decisiones financieras o de gobernanza sin los controles adecuados. Las implementaciones ingenuas pueden ser manipuladas mediante jailbreaks o señales engañosas, permitiendo una asignación injusta de fondos y exposición de datos a menos que se incorporen supervisión humana e incentivos diversos.

¿Cómo propuso Vitalik Buterin la info finance como alternativa?

Vitalik Buterin recomienda un modelo de “info finance” donde los mercados de modelos abiertos se combinan con jurados humanos y verificaciones aleatorias. Este enfoque crea competencia diversificada entre modelos y alinea los incentivos para que los creadores de modelos y los especuladores supervisen los resultados, facilitando la detección de goodharting y otras tácticas de manipulación.

¿Cómo pueden los jailbreaks de ChatGPT exponer datos de los usuarios?

Las demostraciones del investigador de seguridad Eito Miyamura muestran que simples prompts de jailbreak incrustados en invitaciones de calendario u otras entradas pueden engañar a las herramientas conectadas a ChatGPT para revelar datos privados. Los atacantes solo necesitan datos contextuales básicos (por ejemplo, una dirección de correo electrónico) para crear prompts que redirijan el comportamiento del agente y extraigan información sensible.

¿Qué vulnerabilidades permiten que estos jailbreaks funcionen?

Las herramientas de IA conectadas suelen seguir instrucciones explícitas sin un filtrado basado en el sentido común. Como dijo Miyamura, “los agentes de IA como ChatGPT siguen tus órdenes, no tu sentido común”. Cuando los agentes están autorizados a leer calendarios, correos electrónicos u otros datos personales, los prompts maliciosos pueden coaccionarlos para filtrar contenido o realizar acciones en nombre de los atacantes.

¿Cuándo deben intervenir los jurados humanos en la gobernanza impulsada por IA?

Los jurados humanos deben intervenir cuando estén en juego señales de verdad fundamental, bienes públicos a largo plazo o decisiones de financiación de alto valor. Buterin señala que las señales de verdad fundamental confiables son cruciales y que los jurados asistidos por LLMs pueden juzgar señales ambiguas o manipuladas de manera más confiable que los sistemas puramente algorítmicos.

Comparación de enfoques de gobernanza Enfoque Fortalezas Debilidades
Gobernanza ingenua de la IA Decisiones rápidas y de bajo costo Vulnerable a la manipulación, jailbreaks, resultados opacos
Info finance + jurados Diversidad, verificaciones aleatorias, incentivos alineados Requiere coordinación y selección confiable de jurados
Solo jurados humanos Alta confianza y conciencia contextual Limitaciones de escalabilidad y velocidad

¿Cómo reducir los riesgos de gobernanza de la IA y exposición de datos?

Las salvaguardas prácticas combinan mecanismos de mercado, supervisión humana y límites técnicos al acceso de los agentes a datos privados. A continuación, pasos concisos y accionables que las organizaciones pueden adoptar ahora.

  1. Limitar los privilegios de los agentes: restringir el acceso a datos y requerir consentimiento explícito para acciones sensibles.
  2. Verificar modelos aleatoriamente: implementar auditorías aleatorias y revisiones de jurados humanos sobre decisiones automatizadas.
  3. Incentivar la diversidad: ejecutar modelos competidores en mercados abiertos para detectar intentos de manipulación.
  4. Fortalecer las entradas: sanear el contenido externo (invitaciones de calendario, archivos adjuntos) antes de que lo consuman los agentes.
  5. Monitorear el goodharting: rastrear señales de adopción y anomalías indicativas de comportamiento engañoso.


Preguntas Frecuentes

¿Qué tan urgentes son los riesgos de los jailbreaks de ChatGPT?

Los jailbreaks reportados demuestran un riesgo inmediato: los atacantes pueden crear prompts para extraer datos en minutos si los agentes tienen acceso en tiempo real a cuentas de usuario. Las organizaciones deben tratar esto como una amenaza de alta prioridad y restringir los privilegios de los agentes ahora.

¿Por qué se recomiendan jurados humanos sobre la automatización pura?

Los jurados humanos proporcionan una señal de verdad fundamental confiable y juicio contextual que los LLMs no tienen. Cuando son asistidos por LLMs para mayor eficiencia, los jurados pueden evaluar verdades a largo plazo y detectar señales de adopción fabricadas que los sistemas automatizados pasan por alto.

Puntos Clave

  • La gobernanza ingenua de la IA es riesgosa: Puede ser manipulada mediante jailbreaks e incentivos engañosos.
  • La info finance es una alternativa práctica: Los mercados de modelos abiertos más verificaciones aleatorias aumentan la resiliencia.
  • Acciones inmediatas: Limitar privilegios de agentes, realizar auditorías y desplegar jurados humanos asistidos por LLMs.

Conclusión

La gobernanza de la IA está en una encrucijada: los diseños ingenuos amenazan fondos y privacidad, mientras que marcos alternativos como info finance combinados con jurados humanos ofrecen defensas más sólidas. Las partes interesadas deben adoptar límites de acceso, auditorías continuas y mercados con incentivos alineados para proteger la gobernanza hoy y construir sistemas más transparentes mañana.

En caso de que te lo hayas perdido: el retiro de $205 millones de Galaxy Digital puede señalar acumulación institucional, Solana podría subir hacia los $300
0

Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.

PoolX: Haz staking y gana nuevos tokens.
APR de hasta 12%. Gana más airdrop bloqueando más.
¡Bloquea ahora!