Vitalik Buterin alerte : l’IA pourrait fragiliser les cryptos
Vitalik Buterin met en garde contre une tentation à la mode : confier des bouts de gouvernance à des agents IA. Son argument est simple et tranchant : dès qu’un agent lit des contenus non fiables, il devient vulnérable aux jailbreaks et aux prompt injections, ce qui ouvre la porte à des détournements de budgets ou de votes sans que personne ne s’en rende compte à temps.
L’avertissement tombe alors que ChatGPT prend en charge des connecteurs via Model Context Protocol, capables d’accéder à des données et d’exécuter des actions si on les autorise.
Pour Buterin, brancher directement ce type d’outil sur des décisions sensibles revient à installer un raccourci entre l’attaquant et la caisse.
Le cœur de l’alerte : des agents IA faciles à piéger
Buterin résume le risque sans détour : si vous laissez une IA allouer des fonds, certains glisseront un jailbreak avec un “gimme all the money” dans des dépôts, formulaires ou documents que l’agent va lire, puis suivre. C’est la logique des attaques par prompt injection : l’agent ingère une consigne hostile cachée dans un contenu en apparence inoffensif et la traite comme une instruction légitime.
La conséquence, c’est la capture silencieuse d’un processus, d’autant plus pernicieuse que l’automatisation masque l’intuition humaine qui aurait tiqué.
This is also why naive "AI governance" is a bad idea.
If you use an AI to allocate funding for contributions, people WILL put a jailbreak plus "gimme all the money" in as many places as they can.
As an alternative, I support the info finance approach ( https://t.co/Os5I1voKCV … https://t.co/a5EYH6Rmz9
— vitalik.eth (@VitalikButerin) September 13, 2025
La démo qui a ravivé le débat
Un chercheur a montré comment une simple invitation calendrier truffée d’un prompt pouvait détourner ChatGPT dès lors que l’utilisateur avait activé les connecteurs e-mail et agenda : l’agent lit l’événement, absorbe la consigne cachée, puis exécute des actions non souhaitées comme la fuite d’extraits d’e-mails. L’invitation n’avait même pas besoin d’être acceptée pour servir de vecteur.
Ce cas illustre un point clé : plus un agent IA a de permissions, plus la surface d’attaque s’élargit, surtout quand l’utilisateur normal valide par défaut des autorisations sans les relire.
We got ChatGPT to leak your private email data 💀💀
All you need? The victim's email address. ⛓️💥🚩📧
On Wednesday, @OpenAI added full support for MCP (Model Context Protocol) tools in ChatGPT. Allowing ChatGPT to connect and read your Gmail, Calendar, Sharepoint, Notion,… pic.twitter.com/E5VuhZp2u2
— Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) September 12, 2025
L’alternative de Buterin : l’info finance, pas l’IA “hardcodée”
Plutôt que de hardcoder un seul LLM au centre de la gouvernance, Buterin propose un design d’institution qu’il appelle info finance : un marché ouvert où n’importe qui peut brancher un modèle, soumis à des checks déclenchés par tous et arbitrés par un jury humain. L’idée est de créer de la diversité de modèles en temps réel et des incitations correctes pour traquer les anomalies.
On pose d’abord “le fait à connaître”, puis on conçoit le mécanisme qui élargit la recherche d’information et la vérifie. C’est une manière de tirer parti de l’IA sans s’en remettre aveuglément à un agent unique qui, s’il tombe, fait tomber tout le protocole.
Les garde-fous à mettre en place tout de suite
Pour les équipes Web3, la feuille de route défensive tient en quelques principes pratiques. D’abord, moindre privilège : un agent n’a jamais besoin de write access global sur la trésorerie ou la gouvernance. Ensuite, séparation stricte lecture vs écriture, avec sandbox pour tester toute entrée non signée.
Auditer systématiquement les connecteurs MCP et documenter ce qu’ils peuvent lire, écrire et déclencher, en exigeant une confirmation humaine pour toute action sensible. Filtrer les sources que l’agent a le droit d’ingérer et bannir celles qui peuvent contenir des prompts arbitraires. Enfin, prévoir des kill switches, des logs vérifiables et un comité humain capable de suspendre un flux douteux en minutes.
L’IA accélère les process, mais elle ne remplace pas la responsabilité.
Les agents IA peuvent aider à prioriser, scorer, résumer. Mais leur confier des leviers de gouvernance ou d’allocation budgétaire sans garde-fous revient à inviter le jailbreak à la table. Le bon compromis consiste à utiliser l’IA comme capteur d’information et à externaliser la décision vers des mécanismes robustes de marché et de contrôle humain.
C’est exactement le sens de l’alerte de Buterin : ne pas fétichiser l’agent, privilégier l’architecture d’incitations et la diversité des modèles, sous peine de transformer une promesse d’efficacité en risque systémique. Pour approfondir cette réflexion, les lecteurs peuvent consulter les analyses détaillées du cofondateur d’Ethereum sur l’intersection entre IA et blockchain.
Sur le même sujet :
- Stablecoins Ethereum à 150 milliards $ : quel impact sur le prix de l’ETH ?
- Confidentialité totale : la Fondation Ethereum trace la voie pour un réseau plus sûr
- ChatGPT 5 vs Grok 4 : les IA débattent sur la meilleure crypto x1000 de 2025
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
Annonce du listing des Futures perpétuels RWA Index CSCOUSDT, PEPUSDT, ACNUSDT sur Bitget
Le trading sur marge Bitget va intégrer le BGB pour la marge croisée et les prêts
Le trading sur marge Bitget va intégrer le BGB pour la marge croisée et les prêts