Exclusif : Anthropic déploie un outil d'IA capable de détecter seul les bugs logiciels — y compris les plus dangereux que les humains manquent

Anthropic a lancé Claude Code Security, le premier produit de la société destiné à utiliser des modèles d’IA pour aider les équipes de sécurité à suivre le rythme de la multitude de bugs logiciels dont elles sont responsables de la correction. Pour les grandes entreprises, les bugs logiciels non corrigés sont une cause majeure de violations de données, de pannes et de problèmes réglementaires — tandis que les équipes de sécurité sont souvent submergées par la quantité de code qu’elles doivent protéger.

Vidéo recommandée


Désormais, au lieu de simplement analyser le code à la recherche de motifs problématiques connus, Claude Code Security peut examiner des bases de code entières, de manière plus proche d’un expert humain — en observant comment différentes parties du logiciel interagissent et comment les données circulent dans un système. L’IA vérifie ses propres résultats, évalue la gravité de chaque problème et propose des solutions. Mais, bien que le système puisse analyser le code de manière autonome, il ne corrige pas automatiquement les problèmes, ce qui pourrait être risqué en soi — les développeurs doivent examiner et approuver chaque modification.

Claude Code Security s’appuie sur plus d’un an de recherche menée par l’équipe Frontier Red Team de l’entreprise, un groupe interne d’environ 15 chercheurs chargé de tester en conditions extrêmes les systèmes d’IA les plus avancés de la société et d’étudier comment ils pourraient être mal utilisés dans des domaines tels que la cybersécurité.

La recherche la plus récente de la Frontier Red Team a révélé que le nouveau modèle Opus 4.6 d’Anthropic s’est considérablement amélioré dans la détection de vulnérabilités nouvelles et à haute gravité — des failles logiciels permettant aux attaquants d’accéder à des systèmes sans autorisation, de voler des données sensibles ou de perturber des services critiques — à travers de vastes quantités de code. En fait, lors de tests sur des logiciels open source fonctionnant dans des systèmes d’entreprise et dans des infrastructures critiques, Opus 4.6 a détecté certaines de ces vulnérabilités qui étaient passées inaperçues depuis des décennies, et ce, sans outils spécifiques à la tâche, sans scaffolding personnalisé ni prompts spécialisés.

Le leader de la Frontier Red Team, Logan Graham, a déclaré à Fortune que Claude Code Security vise à donner ce pouvoir aux équipes de sécurité qui doivent renforcer leurs capacités défensives. L’outil est lancé prudemment en tant que prévisualisation de recherche limitée pour ses clients Entreprise et Équipe. Anthropic offre également un accès accéléré gratuit aux responsables de dépôts open source — ces développeurs souvent sous-financés, responsables de maintenir en sécurité des logiciels publics largement utilisés.

« C’est la prochaine étape pour une entreprise engagée à renforcer la défense en cybersécurité, » a-t-il déclaré. « Nous utilisons maintenant [Opus 4.6] de manière significative ; nous avons expérimenté beaucoup — les modèles sont nettement meilleurs. » Cela est particulièrement vrai en termes d’autonomie, a-t-il ajouté, soulignant que les capacités agentiques d’Opus 4.6 lui permettent d’enquêter sur des failles de sécurité et d’utiliser divers outils pour tester le code. En pratique, cela signifie que l’IA peut explorer une base de code étape par étape, tester le comportement de différentes composantes et suivre des pistes, comme le ferait un chercheur en sécurité junior — mais beaucoup plus rapidement.

« Cela fait une énorme différence pour les ingénieurs et chercheurs en sécurité, » a déclaré Graham. « Ce sera un multiplicateur de force pour les équipes de sécurité. Cela leur permettra d’en faire plus. »

Bien sûr, ce ne sont pas seulement les défenseurs qui recherchent des failles de sécurité — les attaquants utilisent également l’IA pour trouver des vulnérabilités exploitables plus rapidement que jamais, a indiqué Graham, il est donc important de s’assurer que ces améliorations profitent aux bonnes personnes. Par conséquent, en plus de la prévisualisation de recherche, il a précisé qu’Anthropic investit dans des mesures de sécurité pour détecter les usages malveillants et lorsque des attaquants pourraient utiliser le système.

« Il est vraiment important de s’assurer que ce qui est une capacité à double usage donne un avantage aux défenseurs, » a-t-il déclaré.

**Rejoignez-nous au sommet Fortune Workplace Innovation **les 19 et 20 mai 2026, à Atlanta. La prochaine ère de l’innovation en milieu de travail est là — et l’ancien manuel est en train d’être réécrit. Lors de cet événement exclusif et dynamique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore une fois, l’avenir du travail. Inscrivez-vous dès maintenant.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)