Selon un reportage exclusif d’Axios relayé par Reuters, la National Security Agency (NSA) utilise le modèle le plus puissant de Anthropic, Mythos Preview, bien que son autorité de tutelle, le ministère de la Défense (Department of Defense, DoD), ait classé Anthropic comme « risque pour la chaîne d’approvisionnement » et l’ait désactivé à partir du mois de février. C’est la première fois dans l’histoire de la gouvernance de l’IA aux États-Unis qu’apparaît une contradiction publique du type « un département d’un même gouvernement fédéral bloque l’autre département qui l’utilise effectivement ».
Mythos n’est accessible qu’à 40 acteurs officiels, et seulement 12 dans la liste publiée
Après qu’Anthropic ait rendu publique, en février, l’existence de Claude Mythos, l’accès en preview n’a été ouvert qu’à environ 40 organisations dans le monde ; la liste officiellement publiée ne compte que 12 noms, et le reste est volontairement dissimulé au motif que « les capacités de cyberattaque sont trop sensibles ». En tant qu’unité centrale du système de renseignement américain chargée du traitement des informations de signalement et de la cryptographie (SIGINT), la NSA ne figure pas parmi les 12 noms rendus publics par Anthropic, mais a pourtant obtenu et utilise Mythos — ce qui suscite une double remise en cause, à la fois sur la transparence de la liste d’Anthropic et sur l’autorisation d’accès du gouvernement américain.
Interdiction du Pentagone vs conflit interne d’une utilisation élargie par l’armée
La relation entre le Pentagone et Anthropic s’est rompue au début de cette année. La version officielle est qu’Anthropic, lors du renouvellement du contrat, a insisté pour « exclure des usages tels que la surveillance à grande échelle du territoire national et le développement d’armes autonomes ». De son côté, le ministère de la Défense exige que Mythos « soit ouvert à toutes les utilisations légitimes ». Après l’échec des négociations, en février, le DoD a inscrit Anthropic sur la liste d’interdiction en invoquant « un risque pour la chaîne d’approvisionnement », et a demandé que les fournisseurs de la défense coupent aussi leurs relations.
C’est ironique : deux mois après la désactivation officielle par le DoD, non seulement la NSA continue d’utiliser Mythos, mais plusieurs unités de l’armée américaine ont même élargi l’adoption de la série de modèles Anthropic Claude. Des organes gouvernementaux affirment publiquement, dans des documents judiciaires, que « l’utilisation des outils d’Anthropic menacera la sécurité nationale », tandis que les mêmes unités continuent en interne d’utiliser Claude pour des missions de cybersécurité et de renseignement. Plus tôt ce mois-ci, le ministre des Finances Bessent et le président de la Fed Powell ont tenu une réunion d’urgence au sommet pour discuter des inquiétudes réglementaires autour de Mythos ; désormais, les contradictions internes remontent à la surface, et le risque administratif lié à Mythos augmente nettement.
Dario Amodei se rend à la Maison-Blanche pour négocier un apaisement
Le PDG d’Anthropic, Dario Amodei, s’est rendu à la Maison-Blanche le 17 avril, où il a rencontré Susie Wiles, cheffe de cabinet, et le secrétaire au Trésor Scott Bessent. D’après Axios, la discussion s’est concentrée sur trois sujets : les limites d’utilisation de Mythos au sein du système gouvernemental ; les opérations et procédures de sécurité et de validation globales d’Anthropic ; et la manière de permettre que « les agences autres que le Pentagone » continuent d’obtenir l’accès. Les étapes suivantes pourraient inclure la mise en place de canaux d’autorisation séparés pour les organismes fédéraux non-DoD, ou l’exigence qu’Anthropic divulgue une liste plus complète de ses clients afin de répondre aux préoccupations réglementaires du Pentagone.
Un nouveau modèle pour l’accès échelonné et les frontières des marchés publics
L’affaire Mythos et, la même semaine, le lancement par OpenAI de GPT-5.4-Cyber forment un écho : en 2026, les modèles d’IA les plus avancés entrent dans une phase de délivrance échelonnée, où « plus les capacités sont fortes, moins il y a de clients ». Ce type de système de contrôle semble strict, mais lorsque le gouvernement fédéral américain lui-même applique des règles internes incohérentes, cela revient en pratique à laisser au fournisseur (Anthropic) le soin de décider quelles unités gouvernementales méritent d’être considérées comme dignes de confiance. Pour les gouvernements et entreprises d’autres pays, la pression politique à venir est la suivante : faut-il exiger que les fournisseurs d’IA, lorsqu’ils traitent des données concernant des citoyens de leur pays, publient la liste d’autorisations des clients. Les prochaines actions d’Anthropic, au cours des semaines à venir, deviendront un modèle de gouvernance pour toute l’industrie de l’IA de pointe.
Cet article d’Axios en exclusivité : la NSA américaine contourne la liste noire du Pentagone pour utiliser Anthropic Mythos, Dario Amodei se rend en urgence à la Maison-Blanche. Le plus tôt : apparu sur 鏈新聞 ABMedia.
Articles similaires
Baidu Qianfan lance l’assistance Day 0 pour DeepSeek-V4 avec des services d’API
Le cours d’IA de Stanford, associé aux leaders de l’industrie comme Huang Renxun et Altman, défie de créer de la valeur pour le monde en dix semaines.
Anthropic envoie Claude Mythos : acceptation après 20 heures d’évaluation psychiatrique : réaction défensive seulement 2 %, niveau le plus bas jamais enregistré sur plusieurs générations
Un agent IA peut déjà reproduire de manière autonome des articles universitaires complexes : Mollick affirme que les erreurs proviennent davantage des textes originaux humains que de l’IA
OpenAI fusionne Codex dans le modèle principal à partir de GPT-5.4, met fin à la ligne de codage distincte
Salesforce va recruter 1 000 diplômés et stagiaires pour ses produits d’IA, et relève ses prévisions de revenus pour l’exercice 2026