Bitget App
Trading Inteligente
Comprar criptoMercadosTradingFuturosEarnWeb3CentroMás
Trading
Spot
Compra y vende cripto con facilidad
Margen
Aumenta tu capital y maximiza tus fondos
Onchain
Aprovechar el mundo on-chain sin esfuerzo
Convert y trade en bloque
Convierte cripto con un solo clic y sin comisiones
Explorar
Launchhub
Obtén ventajas desde el principio y empieza a ganar
Copiar
Copia al trader elite con un solo clic
Bots
Bot de trading con IA sencillo, rápido y confiable
Trading
Futuros USDT-M
Tradea futuros liquidados en USDT
Futuros USDC-M
Futuros liquidados en USDC
Futuros Coin-M
Tradea futuros liquidados en cripto
Explorar
Guía de Futuros
Un recorrido de principiante a experto en el trading de futuros
Promociones de futuros
Gana grandes recompensas
Resumen
Una variedad de productos para incrementar tus activos
Simple Earn
Deposita y retira en cualquier momento para obtener retornos flexibles sin riesgo
On-chain Earn
Obtén ganancias diarias sin arriesgar tu capital
Earn estructurado
Innovación financiera sólida para sortear las oscilaciones del mercado
VIP y Gestión Patrimonial
Aumenta tu patrimonio con nuestro equipo de primer
Préstamos
Préstamos flexibles con alta seguridad de fondos
El cofundador de Ethereum, Vitalik Buterin, dice que Info Finance podría mitigar riesgos ya que los jailbreaks de ChatGPT podrían filtrar datos

El cofundador de Ethereum, Vitalik Buterin, dice que Info Finance podría mitigar riesgos ya que los jailbreaks de ChatGPT podrían filtrar datos

CoinotagCoinotag2025/09/13 14:26
Mostrar el original
Por:Sheila Belson
  • La gobernanza de IA ingenua es vulnerable a manipulaciones y jailbreaks.

  • La info finance junto con jurados humanos y controles aleatorios puede detectar la manipulación tempranamente.

  • Las demostraciones de jailbreak en ChatGPT muestran cómo las herramientas conectadas pueden exponer datos privados en minutos.

Los riesgos de gobernanza de IA amenazan la financiación cripto y la seguridad de los datos; aprendé cómo la info finance y la supervisión de jurados pueden reducir la manipulación — leé los pasos prácticos ahora.




Publicado: 13 de septiembre de 2025

¿Qué es el riesgo de gobernanza de IA en cripto?

El riesgo de gobernanza de IA se refiere a fallas en los sistemas que permiten que herramientas impulsadas por IA tomen decisiones financieras o de gobernanza sin los controles adecuados. Las implementaciones ingenuas pueden ser manipuladas mediante jailbreaks o señales engañosas, permitiendo asignaciones injustas de fondos y exposición de datos a menos que se incorpore supervisión humana y diversidad de incentivos.

¿Cómo propuso Vitalik Buterin la info finance como alternativa?

Vitalik Buterin recomienda un modelo de “info finance” donde los mercados de modelos abiertos se combinan con jurados humanos y controles aleatorios. Este enfoque crea competencia diversificada entre modelos y alinea los incentivos para que creadores de modelos y especuladores monitoreen los resultados, facilitando la detección de goodharting y otras tácticas de manipulación.

¿Cómo pueden los jailbreaks de ChatGPT exponer datos de usuarios?

Las demostraciones del investigador de seguridad Eito Miyamura muestran que prompts de jailbreak simples, incrustados en invitaciones de calendario u otras entradas, pueden engañar a herramientas conectadas a ChatGPT para revelar datos privados. Los atacantes solo necesitan datos contextuales básicos (por ejemplo, una dirección de correo electrónico) para crear prompts que redirigen el comportamiento del agente y extraen información sensible.

¿Qué vulnerabilidades permiten que estos jailbreaks funcionen?

Las herramientas de IA conectadas suelen seguir instrucciones explícitas sin filtrar con sentido común. Como dijo Miyamura, “los agentes de IA como ChatGPT siguen tus órdenes, no tu sentido común”. Cuando los agentes están autorizados a leer calendarios, correos electrónicos u otros datos personales, los prompts maliciosos pueden coaccionarlos para filtrar contenido o realizar acciones en nombre de los atacantes.

¿Cuándo deben intervenir los jurados humanos en la gobernanza impulsada por IA?

Los jurados humanos deben intervenir cuando están en juego señales de verdad fundamental, bienes públicos a largo plazo o decisiones de financiación de alto valor. Buterin señala que las señales de verdad confiables son cruciales y que los jurados asistidos por LLMs pueden juzgar señales ambiguas o manipuladas con mayor fiabilidad que los sistemas puramente algorítmicos.

Comparación de enfoques de gobernanza Enfoque Fortalezas Debilidades
Gobernanza de IA ingenua Decisiones rápidas y de bajo costo Vulnerable a manipulaciones, jailbreaks, resultados opacos
Info finance + jurados Diversidad, controles aleatorios, incentivos alineados Requiere coordinación y selección confiable de jurados
Solo jurados humanos Alta confianza y conciencia contextual Limitaciones de escalabilidad y velocidad

¿Cómo reducir los riesgos de gobernanza de IA y exposición de datos?

Las salvaguardas prácticas combinan mecanismos de mercado, supervisión humana y límites técnicos al acceso de los agentes a datos privados. A continuación, pasos concretos y accionables que las organizaciones pueden adoptar ahora.

  1. Limitar privilegios de los agentes: restringir el acceso a datos y requerir consentimiento explícito para acciones sensibles.
  2. Controlar modelos aleatoriamente: implementar auditorías aleatorias y revisiones de jurados humanos sobre decisiones automatizadas.
  3. Incentivar la diversidad: ejecutar modelos competidores en mercados abiertos para detectar intentos de manipulación.
  4. Fortalecer las entradas: sanitizar contenido externo (invitaciones de calendario, adjuntos) antes del consumo por agentes.
  5. Monitorear goodharting: rastrear señales de adopción y anomalías indicativas de comportamientos engañosos.


Preguntas Frecuentes

¿Qué tan urgentes son los riesgos de los jailbreaks en ChatGPT?

Los jailbreaks reportados demuestran un riesgo inmediato: los atacantes pueden crear prompts para extraer datos en minutos si los agentes tienen acceso en tiempo real a cuentas de usuarios. Las organizaciones deben tratar esto como una amenaza de alta prioridad y restringir los privilegios de los agentes ahora.

¿Por qué se recomiendan jurados humanos sobre la automatización pura?

Los jurados humanos proveen una señal de verdad confiable y juicio contextual que los LLMs no tienen. Cuando son asistidos por LLMs para mayor eficiencia, los jurados pueden evaluar verdades a largo plazo y detectar señales de adopción fabricadas que los sistemas automatizados pasan por alto.

Puntos Clave

  • La gobernanza de IA ingenua es riesgosa: Puede ser manipulada mediante jailbreaks e incentivos engañosos.
  • La info finance es una alternativa práctica: Los mercados de modelos abiertos más controles aleatorios aumentan la resiliencia.
  • Acciones inmediatas: Limitar privilegios de agentes, realizar auditorías y desplegar jurados humanos asistidos por LLMs.

Conclusión

La gobernanza de IA está en una encrucijada: los diseños ingenuos amenazan fondos y privacidad, mientras que marcos alternativos como la info finance combinada con jurados humanos ofrecen defensas más sólidas. Los actores deben adoptar límites de acceso, auditorías continuas y mercados con incentivos alineados para proteger la gobernanza hoy y construir sistemas más transparentes mañana.

Por si te lo perdiste: el retiro de 205 millones de dólares de Galaxy Digital puede señalar acumulación institucional, Solana podría subir hacia los 300 dólares
0

Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.

PoolX: Haz staking y gana nuevos tokens.
APR de hasta 12%. Gana más airdrop bloqueando más.
¡Bloquea ahora!