Punti Chiave
- Vitalik Buterin ha avvertito che una governance AI ingenua è troppo facilmente sfruttabile.
- Una recente dimostrazione ha mostrato come gli attaccanti possano ingannare ChatGPT per far trapelare dati privati.
- Il modello “info finance” di Buterin promuove diversità, supervisione e resilienza.
Il co-fondatore di Ethereum, Vitalik Buterin, ha avvertito i suoi follower su X riguardo ai rischi di affidarsi all’intelligenza artificiale (AI) per la governance, sostenendo che gli approcci attuali sono troppo facili da sfruttare.
Le preoccupazioni di Buterin sono seguite a un altro avvertimento del co-fondatore di EdisonWatch, Eito Miyamura, che ha mostrato come attori malintenzionati possano dirottare il nuovo Model Context Protocol (MCP) di OpenAI per accedere ai dati privati degli utenti.
Questo è anche il motivo per cui una “governance AI” ingenua è una cattiva idea.
Se si utilizza un’AI per allocare fondi ai contributi, le persone INSERIRANNO un jailbreak più “dammi tutti i soldi” in quanti più posti possibile.
Come alternativa, sostengo l’approccio info finance ( …
— vitalik.eth (@VitalikButerin) 13 settembre 2025
I Rischi della Governance AI Ingenua
Il test di Miyamura ha rivelato come un semplice invito a calendario con comandi nascosti possa ingannare ChatGPT facendogli esporre email sensibili una volta che l’assistente accede all’evento compromesso.
Gli esperti di sicurezza hanno osservato che i large language model non sono in grado di distinguere tra istruzioni genuine e malevole, rendendoli altamente vulnerabili alla manipolazione.
Siamo riusciti a far trapelare a ChatGPT i tuoi dati email privati 💀💀
Tutto ciò che serve? L’indirizzo email della vittima. ⛓️💥🚩📧
Mercoledì, @OpenAI ha aggiunto il pieno supporto agli strumenti MCP (Model Context Protocol) in ChatGPT. Permettendo a ChatGPT di connettersi e leggere la tua Gmail, Calendar, Sharepoint, Notion,…
— Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) 12 settembre 2025
Buterin ha affermato che questo difetto è un segnale d’allarme importante per i sistemi di governance che ripongono troppa fiducia nell’AI.
Ha sostenuto che se tali modelli venissero utilizzati per gestire finanziamenti o processi decisionali, gli attaccanti potrebbero facilmente aggirare le protezioni con prompt in stile jailbreak, lasciando i processi di governance esposti ad abusi.
Info Finance: Un’Altenativa Basata sul Mercato
Per affrontare queste debolezze, Buterin ha proposto un sistema che chiama “info finance”. Invece di concentrare il potere in una singola AI, questo framework consente a molteplici modelli di governance di competere in un mercato aperto.
Chiunque può contribuire con un modello, e le loro decisioni possono essere contestate tramite controlli casuali a campione, con la decisione finale affidata a giurie umane.
Questo approccio è progettato per garantire resilienza combinando la diversità dei modelli con la supervisione umana. Inoltre, sono previsti incentivi sia per gli sviluppatori che per gli osservatori esterni per rilevare difetti.
Progettare Istituzioni per la Robustezza
Buterin descrive questo come un metodo di “institution design”, in cui i large language model di diversi contributori possono essere integrati, invece di affidarsi a un unico sistema centralizzato.
Ha aggiunto che ciò crea una diversità in tempo reale, riducendo il rischio di manipolazione e garantendo adattabilità man mano che emergono nuove sfide.
All’inizio di agosto, Buterin ha criticato la spinta verso agenti AI altamente autonomi, affermando che un maggiore controllo umano generalmente migliora sia la qualità che la sicurezza.
Nel medio termine vorrei qualche sofisticato BCI che mi mostri ciò che viene generato e rilevi in tempo reale come mi sento riguardo a ciascuna parte, adattandosi di conseguenza.
— vitalik.eth (@VitalikButerin) 11 agosto 2025
Sostiene modelli che consentano modifiche iterative e feedback umano, piuttosto che quelli progettati per operare in modo indipendente per lunghi periodi.