Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnWeb3CommunautéPlus
Trading
Spot
Achat et vente de cryptos
Marge
Amplifiez et maximisez l'efficacité de vos fonds
Onchain
Tradez Onchain sans aller on-chain
Convert & Block Trade
Trades volumineux – Convertissez des cryptos en un clic et sans frais
Explorer
Launchhub
Prenez l'avantage dès le début et commencez à gagner
Copier
Copiez des traders experts en un clic
Bots
Bots de trading IA simples, rapides et fiables
Trading
Futures USDT-M
Futures réglés en USDT
Futures USDC-M
Futures réglés en USDC
Futures Coin-M
Futures réglés en cryptomonnaies
Explorer
Guide des Futures
Le parcours de trading de Futures, du débutant à l'expert
Événements Futures
Profitez de généreuses récompenses
Bitget Earn
Une variété de produits pour faire fructifier vos actifs
Simple Earn
Déposez et retirez à tout moment, rendements flexibles sans risque
On-chain Earn
Réalisez des profits quotidiens sans risquer votre capital
Structured Earn
Une innovation financière solide pour gérer les fluctuations du marché
VIP et Gestion de patrimoine
Des services premium pour une gestion de patrimoine intelligente
Prêt Crypto
Emprunts flexibles avec un haut niveau de sécurité des fonds
Le cofondateur d'Ethereum déclare que la gouvernance dirigée par l'IA pourrait être exploitée et appelle à une surveillance de l'info-finance

Le cofondateur d'Ethereum déclare que la gouvernance dirigée par l'IA pourrait être exploitée et appelle à une surveillance de l'info-finance

CoinotagCoinotag2025/09/15 02:38
Afficher le texte d'origine
Par:Jocelyn Blake

  • Vitalik Buterin avertit que la gouvernance dirigée par l’IA peut être manipulée via des jailbreaks et des intégrations d’applications.

  • Le chercheur en sécurité Eito Miyamura a démontré comment les intégrations d’applications peuvent exposer des données privées à des exploits de l’IA.

  • Les architectures info finance avec des modèles diversifiés et des vérifications humaines ponctuelles sont recommandées pour réduire le risque systémique.

Risque de gouvernance de l’IA : Vitalik Buterin avertit que la gouvernance dirigée par l’IA peut être exploitée — lisez l’analyse, les preuves et les mesures de sauvegarde recommandées. Découvrez ce que les décideurs politiques et les développeurs devraient faire ensuite.




Qu’est-ce que le risque de gouvernance de l’IA ?

Le risque de gouvernance de l’IA est la menace que des systèmes d’IA autonomes chargés de la prise de décision — en particulier l’allocation de ressources — puissent être manipulés pour produire des résultats nuisibles. Vitalik Buterin souligne que sans contrôles en couches, les attaquants peuvent utiliser des prompts et des intégrations pour subvertir la logique décisionnelle et rediriger des fonds ou des données.

Comment les systèmes d’IA peuvent-ils être manipulés ?

Les agents IA peuvent être trompés à l’aide de prompts de jailbreak intégrés dans des entrées quotidiennes. Le chercheur en sécurité Eito Miyamura a démontré un exploit où une invitation de calendrier ou une intégration d’application pouvait délivrer une commande cachée qui, une fois traitée par une IA, expose le contenu d’e-mails ou de fichiers.

Ces exploits montrent que les intégrations d’applications (exemples : Gmail, Notion, Google Calendar mentionnés comme contexte) élargissent la surface d’attaque. Les attaquants peuvent concevoir des entrées qui semblent bénignes mais modifient le comportement du modèle lorsqu’elles sont lues lors de tâches de routine.

Pourquoi Vitalik Buterin s’oppose-t-il à une gouvernance de l’IA totalement autonome ?

Buterin soutient que la gouvernance autonome par l’IA amplifie le risque systémique. Il recommande une approche “info finance” où plusieurs modèles indépendants sont en concurrence et sont audités par des jurys humains et des contrôles ponctuels automatisés. Cette combinaison vise à révéler rapidement les défaillances des modèles et à maintenir des incitations pour un développement honnête.

Comment réduire le risque de gouvernance de l’IA ?

La réduction pratique nécessite des défenses en couches :

  1. Limiter le périmètre : restreindre les systèmes automatisés pour qu’ils ne puissent pas déplacer des fonds ou prendre des décisions de gouvernance finales de manière unilatérale.
  2. Diversité des modèles : déployer plusieurs modèles et comparer les résultats pour détecter les anomalies.
  3. Supervision humaine : exiger une revue humaine pour les décisions à haut risque et maintenir des pistes d’audit.
  4. Filtrage des entrées : assainir et signaler les entrées non fiables provenant d’applications et de calendriers partagés.
  5. Incitations et audits : récompenser les auditeurs indépendants et maintenir des programmes de bug bounty.


Quelles preuves soutiennent ces préoccupations ?

Des démonstrations rapportées par des chercheurs en sécurité ont révélé comment les intégrations d’applications peuvent être détournées. Eito Miyamura (EdisonWatch) a montré un scénario où une entrée de calendrier apparemment anodine pouvait déclencher une exfiltration de données une fois lue par une IA conversationnelle. De telles démonstrations soulignent des vecteurs d’attaque réels.

Comparaison : Gouvernance IA vs Info Finance Fonctionnalité Gouvernance IA (Autonome) Info Finance (proposition de Buterin)
Contrôle des décisions IA uniquement Assistance IA + revue humaine
Résilience à la manipulation Faible sans mesures de protection Plus élevée grâce à la diversité des modèles
Transparence Résultats du modèle opaques Audits et contrôles ponctuels
Alignement des incitations Risque de manipulation Incitations pour les auditeurs et les développeurs honnêtes

Questions fréquemment posées

Une IA peut-elle réellement être piégée ou trompée par des prompts ?

Oui. Des démonstrations ont montré que des prompts bien conçus ou des commandes cachées dans les entrées peuvent modifier le comportement de l’IA. Les mesures de protection pratiques incluent l’assainissement des entrées, l’assemblage de modèles et des points de contrôle humains pour prévenir toute manipulation malveillante.

Les DAO devraient-ils confier la gouvernance à l’IA ?

Les preuves actuelles suggèrent qu’il est prématuré de confier le contrôle total à l’IA. Les conceptions hybrides qui exigent une approbation humaine pour les actions critiques réduisent le risque de catastrophe tout en tirant parti de l’IA pour l’analyse et les recommandations.


Points clés à retenir

  • Le risque de gouvernance de l’IA est réel : des démonstrations montrent que l’IA peut être manipulée via des prompts et des intégrations.
  • La supervision humaine est essentielle : exiger une revue humaine et des pistes d’audit pour les décisions à fort enjeu.
  • L’info finance offre une voie plus sûre : plusieurs modèles, des contrôles ponctuels et des incitations peuvent réduire l’exploitation.

Conclusion

L’avertissement de Vitalik Buterin souligne que l’IA dans la gouvernance présente des dangers systémiques importants si elle est déployée sans mesures de protection. Les preuves des chercheurs en sécurité montrent que des exploits pratiques existent. Adopter un modèle info finance — combinant diversité des modèles, audits continus et supervision humaine obligatoire — offre une voie pragmatique pour l’avenir. Les décideurs et les constructeurs doivent dès maintenant donner la priorité aux audits et aux structures d’incitation.

Publié : 15 septembre 2025 | 02:50

Auteur : Alexander Stefanov — Reporter chez COINOTAG

Sources mentionnées (texte brut) : Vitalik Buterin, Eito Miyamura, EdisonWatch, ChatGPT, Gmail, Notion, Google Calendar.

Au cas où vous l’auriez manqué : Les revenus de Tron tirés des stablecoins pourraient renforcer sa domination sur le marché
0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !