Según un informe exclusivo de Axios y reenviado por Reuters, la Agencia de Seguridad Nacional de Estados Unidos (NSA) está usando el modelo más potente de Anthropic, Mythos Preview, aunque su organismo superior, el Departamento de Defensa (DoD), desde febrero ya ha calificado a Anthropic como un “riesgo para la cadena de suministro” y lo ha deshabilitado. Esta es la primera contradicción pública en la historia del gobierno de IA de Estados Unidos en la que “un departamento del mismo gobierno federal bloquea” mientras “otro departamento lo utiliza en la práctica”.
Mythos solo se abre a 40 empresas y la lista oficial solo publica 12
Después de que Anthropic hiciera público en febrero la existencia de Claude Mythos, solo se ha abierto el acceso a preview a aproximadamente 40 organizaciones en el mundo; la lista que se publica oficialmente cuenta únicamente con 12, mientras que el resto queda deliberadamente oculto con base en que “las capacidades de ciberataque son demasiado sensibles”. Como unidad central del sistema de inteligencia de Estados Unidos encargada de procesar inteligencia de señales (SIGINT) y criptografía, la NSA no está en la lista de 12 publicada por Anthropic, pero aun así obtuvo y usa Mythos; esto ha generado una doble controversia externa sobre la transparencia de la lista de Anthropic y las autorizaciones de acceso del gobierno estadounidense.
La prohibición del DoD vs la contradicción interna de una ampliación de uso en el ejército
La relación entre el Pentágono y Anthropic se rompió a principios de este año. La versión oficial es que Anthropic, al actualizar el contrato, insistió en excluir usos como “la vigilancia masiva interna y el desarrollo de armas autónomas”, mientras que el Departamento de Defensa exigió que Mythos “esté abierto para todos los usos legítimos”. Tras el fracaso de las negociaciones, en febrero el DoD incluyó a Anthropic en la lista de deshabilitación por “riesgo para la cadena de suministro” y exigió que los proveedores de defensa cortaran los lazos también.
Lo irónico es que, dos meses después de la desactivación oficial por parte del DoD, no solo la NSA continuó usando Mythos, sino que varias unidades del ejército de EE. UU. incluso ampliaron la adopción de otros modelos de la serie Anthropic Claude. Las unidades gubernamentales sostuvieron públicamente en documentos judiciales que “usar herramientas de Anthropic amenazará la seguridad nacional”; sin embargo, las mismas unidades continúan usando internamente a Claude para procesar tareas de ciberseguridad e inteligencia. Un poco antes de este mes, el secretario del Tesoro Bessent y el presidente de la Fed Powell convocaron una reunión de emergencia con altos directivos bancarios para debatir la preocupación regulatoria sobre Mythos; ahora, las contradicciones internas salen a la luz y el riesgo administrativo de Mythos aumenta de forma notable.
Dario Amodei viaja a la Casa Blanca para negociar un acercamiento
El CEO de Anthropic, Dario Amodei, ya viajó a la Casa Blanca el 17 de abril para reunirse con la jefa de gabinete Susie Wiles y el secretario del Tesoro Scott Bessent. Según Axios, las conversaciones se centraron en tres temas: el límite de uso de Mythos dentro del sistema gubernamental, las operaciones de seguridad y el proceso de revisión globales de Anthropic, y cómo permitir que “los organismos fuera del Pentágono” continúen obteniendo acceso. Los siguientes pasos podrían incluir establecer un canal de autorización separado para agencias federales que no sean del DoD, o exigir que Anthropic revele una lista más completa de clientes para responder a las preocupaciones de supervisión del Pentágono.
Un nuevo modelo para el acceso por niveles y los límites de la contratación gubernamental
El incidente de Mythos y, en la misma semana, la introducción del GPT-5.4-Cyber de OpenAI crean una resonancia: en 2026, el modelo de frontera más potente de IA entra en una fase de liberación por niveles en la que “cuanto más fuerte es la capacidad, menos clientes”. Este tipo de sistema de control parece estricto, pero cuando las propias normas internas del gobierno federal de Estados Unidos son inconsistentes, en la práctica equivale a que el fabricante (Anthropic) decida por sí mismo qué unidades gubernamentales merecen confianza. Para los gobiernos y empresas de otros países, la presión de política en el siguiente paso es: si exigir a los proveedores de IA que publiquen listas de autorizaciones de clientes cuando se trate el procesamiento de datos de ciudadanos de su país. Las acciones de Anthropic en las próximas semanas se convertirán en la plantilla de gobernanza de toda la industria de IA de frontera.
Este artículo exclusivo de Axios: la NSA de Estados Unidos elude la lista negra del Pentágono y usa Anthropic Mythos; Dario Amodei viaja con urgencia a la Casa Blanca. El primero en aparecer en Cadena de noticias ABMedia.
Artículos relacionados
El CEO de Nvidia, Jensen Huang, critica los controles de exportación de chips de EE. UU. como "mentalidad de perdedor"
Los mineros públicos de Bitcoin vendieron más de 32.000 BTC en el primer trimestre de 2026, alcanzando un récord
La subsidiaria de Kunlun Tech, Aijie Keixin, recauda $55M con una valoración de $405.4M
Singapur propone un nuevo estándar global para probar sistemas de IA generativa
Morgan Stanley estima que la IA agentic podría añadir entre $32.5B-$60B y el mercado de CPU para 2030
Los Agentes de IA transformarán el modelo de trading; el Onchain OS sienta las bases de la infraestructura