Notas Principais
- Vitalik Buterin alertou que uma governança ingênua baseada em IA é facilmente explorada.
- Uma demonstração recente mostrou como atacantes podem enganar o ChatGPT para vazar dados privados.
- O modelo de “info finance” de Buterin promove diversidade, supervisão e resiliência.
O cofundador da Ethereum, Vitalik Buterin, alertou seus seguidores no X sobre os riscos de confiar na inteligência artificial (IA) para governança, argumentando que as abordagens atuais são fáceis de explorar.
As preocupações de Buterin vieram após outro alerta do cofundador da EdisonWatch, Eito Miyamura, que mostrou como agentes maliciosos podem sequestrar o novo Model Context Protocol (MCP) da OpenAI para acessar dados privados de usuários.
É por isso também que uma governança ingênua baseada em IA é uma má ideia.
Se você usar uma IA para alocar fundos para contribuições, as pessoas VÃO inserir um jailbreak junto com “me dê todo o dinheiro” em tantos lugares quanto puderem.
Como alternativa, apoio a abordagem de info finance ( …
— vitalik.eth (@VitalikButerin) 13 de setembro de 2025
Os Riscos da Governança Ingênua por IA
O teste de Miyamura revelou como um simples convite de calendário com comandos ocultos pode enganar o ChatGPT para expor e-mails sensíveis assim que o assistente acessa a entrada comprometida.
Especialistas em segurança observaram que grandes modelos de linguagem não conseguem distinguir entre instruções genuínas e maliciosas, tornando-os altamente vulneráveis à manipulação.
Fizemos o ChatGPT vazar seus dados privados de e-mail 💀💀
Tudo o que você precisa? O endereço de e-mail da vítima. ⛓️💥🚩📧
Na quarta-feira, @OpenAI adicionou suporte total para ferramentas MCP (Model Context Protocol) no ChatGPT. Permitindo que o ChatGPT se conecte e leia seu Gmail, Calendário, Sharepoint, Notion,…
— Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) 12 de setembro de 2025
Buterin afirmou que essa falha é um grande sinal de alerta para sistemas de governança que depositam confiança excessiva na IA.
Ele argumentou que, se tais modelos fossem usados para gerenciar financiamentos ou tomadas de decisão, atacantes poderiam facilmente burlar as proteções com prompts no estilo jailbreak, deixando os processos de governança vulneráveis a abusos.
Info Finance: Uma Alternativa Baseada em Mercado
Para lidar com essas fraquezas, Buterin propôs um sistema que ele chama de “info finance”. Em vez de concentrar o poder em uma única IA, essa estrutura permite que múltiplos modelos de governança compitam em um mercado aberto.
Qualquer pessoa pode contribuir com um modelo, e suas decisões podem ser contestadas por meio de verificações aleatórias, com a palavra final ficando a cargo de júris humanos.
Essa abordagem foi projetada para garantir resiliência, combinando diversidade de modelos com supervisão humana. Além disso, incentivos são incorporados tanto para desenvolvedores quanto para observadores externos detectarem falhas.
Projetando Instituições para Robustez
Buterin descreve isso como um método de “design institucional”, em que grandes modelos de linguagem de diferentes contribuintes podem ser integrados, ao invés de depender de um único sistema centralizado.
Ele acrescentou que isso cria diversidade em tempo real, reduzindo o risco de manipulação e garantindo adaptabilidade à medida que surgem novos desafios.
No início de agosto, Buterin criticou o avanço em direção a agentes de IA altamente autônomos, dizendo que o aumento do controle humano geralmente melhora tanto a qualidade quanto a segurança.
No médio prazo, quero alguma coisa avançada de BCI onde me mostre o conteúdo enquanto está sendo gerado e detecte em tempo real como me sinto sobre cada parte, ajustando conforme necessário.
— vitalik.eth (@VitalikButerin) 11 de agosto de 2025
Ele apoia modelos que permitem edição iterativa e feedback humano, em vez daqueles projetados para operar de forma independente por longos períodos.