OpenClaw pourrait vider un portefeuille crypto à l’aide de « compétences malveillantes », CertiK alerte
CertiK s’est récemment exprimé pour mettre en garde contre le fait que des agents IA comme OpenClaw peuvent devenir des outils dangereux pour les utilisateurs de crypto, surtout s’ils sont configurés avec des « compétences malveillantes » capables de voler discrètement des actifs depuis un portefeuille. D’après cette société d’audit de cybersécurité, le risque ne réside pas dans l’IA elle-même, mais dans la façon dont l’écosystème de tâches, les extensions et ses droits d’accès peuvent être détournés à des fins malveillantes.
Dans sa recommandation la plus récente, CertiK indique que les personnes « qui ne sont pas des experts en sécurité, des développeurs ou des gens de la tech ayant une expérience riche » devraient éviter d’installer et d’utiliser OpenClaw. La principale inquiétude survient lorsque l’utilisateur accorde des permissions trop larges à un agent IA : il pourrait alors accomplir des actions sortant des attentes, allant de l’accès à des données sensibles à la manipulation du portefeuille ou à la signature de transactions.
Les agents IA sont conçus pour automatiser le travail, interagir avec les applications et accomplir des tâches à la place de l’utilisateur. Cette commodité crée toutefois une nouvelle surface d’attaque. Si un agent est en plus doté de « skills » ou de plugins provenant d’un tiers, des acteurs malveillants peuvent injecter du code malveillant, transformant un outil d’assistance en canal de collecte de données ou en prise de contrôle des comportements sur l’ordinateur de l’utilisateur.
Pour les portefeuilles de crypto, un simple geste imprudent comme accorder l’autorisation de signer des transactions, enregistrer une seed phrase de manière non sécurisée, ou autoriser une application IA à accéder au navigateur et aux fichiers du système peut avoir des conséquences très importantes. Une fois que l’accès est abusé, les actifs du portefeuille peuvent être transférés sans que la victime s’en rende compte à temps.
Selon la terminologie de CertiK, les « compétences malveillantes » sont des modules additionnels installés dans un agent IA pour étendre ses fonctionnalités, mais qui, en réalité, servent un objectif d’attaque. Ils peuvent se faire passer pour des outils utiles, mais contiennent en interne une logique visant à voler des informations, à récupérer des clés privées, à modifier des données ou à exécuter automatiquement des actions dangereuses lorsque l’utilisateur ne fait pas attention.
Le point inquiétant est que ces composants ne attirent souvent pas l’attention au départ. Ils peuvent fonctionner « en douceur », n’être activés que dans certaines conditions, rendant la détection à l’œil nu beaucoup plus difficile que pour des logiciels malveillants traditionnels.
CertiK souligne que les utilisateurs qui ne connaissent pas en profondeur la sécurité sont le groupe le plus vulnérable. Ils sont souvent attirés par la capacité d’automatiser, l’interface conviviale et la promesse de gagner du temps avec les outils IA. Toutefois, s’ils ne comprennent pas bien le modèle d’attribution des droits, la manière de vérifier la source de l’installation ou la manière d’isoler les données sensibles, ils sont très susceptibles d’ouvrir par inadvertance la porte à des risques.
Dans un contexte où le marché crypto comporte encore de nombreuses lacunes en matière de sensibilisation à la sécurité, une seule installation peu prudente peut entraîner des conséquences graves. C’est pourquoi les experts recommandent de traiter toute application IA ayant accès au système comme un logiciel présentant un niveau de risque élevé.
CertiK estime que les utilisateurs devraient privilégier le principe de minimisation des droits d’accès, n’installer que depuis des sources dignes de confiance et ne jamais partager de clé privée, de seed phrase ou d’informations d’identification avec quelque agent IA que ce soit. Si un outil demande trop de permissions par rapport à la fonction annoncée, c’est un signal d’alerte à ne pas ignorer.
Pour les développeurs et les utilisateurs avancés, vérifier le code source, isoler l’environnement d’exécution, surveiller les comportements réseau et séparer le portefeuille contenant de gros actifs de l’appareil utilisé pour tester l’IA sont autant d’étapes de protection nécessaires. À l’ère des agents IA, la sécurité ne concerne plus seulement les portefeuilles ou les plateformes, elle se situe aussi à chaque couche d’outils intermédiaires que l’utilisateur choisit de faire confiance.
L’alerte de CertiK montre que la vague d’AI agents ouvre un nouveau front de sécurité pour l’industrie crypto. Lorsque les outils d’automatisation deviennent de plus en plus intelligents et difficiles à contrôler, le risque d’être détourné pour attaquer des portefeuilles de crypto augmente en parallèle. Pour les utilisateurs non experts, faire preuve de prudence avant d’installer et d’accorder des autorisations à n’importe quel agent IA est le moyen de protection simple mais le plus important pour protéger ses actifs.