La semana pasada, un juez federal en San Francisco bloqueó al Pentágono y a la administración Trump de hacer cumplir una designación de seguridad nacional contra Anthropic, la empresa de inteligencia artificial (IA) que se negó a eliminar las restricciones de seguridad de sus modelos Claude.
La jueza del distrito de EE.UU. Rita F. Lin emitió la orden de restricción preliminar el 26 de marzo, encontrando que las acciones del gobierno contra Anthropic probablemente violaban la Primera Enmienda, negaban al empresa el debido proceso y excedían la autoridad estatutaria bajo la Ley de Procedimiento Administrativo. La decisión se mantiene por siete días, dando a la administración hasta aproximadamente el 2 de abril para presentar una apelación de emergencia ante el Noveno Circuito.
La disputa comenzó cuando el Departamento de Defensa (DoD) buscó acceso sin restricciones a Claude para uso federal. Anthropic había mantenido durante mucho tiempo dos excepciones en su política de uso aceptable: Claude no se utilizaría para vigilancia masiva de ciudadanos estadounidenses ni para sistemas de armas autónomas letales que operaran sin supervisión humana significativa. El DoD exigió que se eliminaran esas salvaguardias. Anthropic se negó.
Las negociaciones se rompieron a finales de 2025. El conflicto se hizo público a través de las declaraciones escritas del CEO Dario Amodei y un ensayo que esbozaba la posición de la empresa sobre la seguridad de la IA. Los funcionarios del DoD vieron las restricciones como un intento de Anthropic de dictar la política gubernamental.
El 27 de febrero de 2026, el presidente Trump publicó en Truth Social, dirigiendo a todas las agencias federales a detener inmediatamente el uso de la tecnología de Anthropic, con un período de eliminación de seis meses. El secretario de Defensa Pete Hegseth anunció una designación de riesgo en la cadena de suministro bajo 10 U.S.C. § 3252 — un estatuto previamente aplicado a adversarios extranjeros — etiquetando a Anthropic como un riesgo potencial de “sabotaje” y “subversión.”
Varios contratistas federales pausaron o terminaron acuerdos con la empresa tras la designación. Anthropic respondió y presentó una demanda el 9 de marzo en el Distrito Norte de California, alegando represalias, violaciones del debido proceso y violaciones de la APA. Se presentó una acción relacionada en el Circuito de D.C.
En una orden de 43 páginas, la jueza Lin prohibió al DoD, 17 otras agencias federales y al secretario Hegseth implementar o hacer cumplir cualquiera de las acciones impugnadas. Ordenó la restauración del estado de cosas, permitiendo a Anthropic continuar con contratos y asociaciones federales existentes.
Lin escribió que la conducta del gobierno representaba “represalias clásicas e ilegales de la Primera Enmienda.” Señaló que el momento de las acciones, junto con comunicaciones internas del gobierno que hacían referencia a la “retórica,” “arrogancia,” y “coacción” de Anthropic, apuntaban directamente a una intención punitiva vinculada a las declaraciones públicas de la empresa sobre la seguridad de la IA.
Sobre el debido proceso, el tribunal encontró que el gobierno había despojado a Anthropic de intereses de libertad en su reputación y operaciones comerciales sin proporcionar aviso previo de desposesión o una audiencia. Lin también encontró que la designación estatutaria nunca había sido aplicada antes a una empresa estadounidense en estas circunstancias y que la previa evaluación gubernamental de Anthropic.
Esto incluye autorizaciones de Top Secret, autorización de FedRAMP, y contratos por un valor de hasta $200 millones — que no mostraron ninguna preocupación genuina de seguridad. “Nada en el estatuto que rige apoya la noción orwelliana de que una empresa estadounidense puede ser etiquetada como un adversario potencial y saboteador de EE.UU. por expresar desacuerdo con el gobierno,” escribió Lin.
El tribunal encontró un daño financiero potencial para Anthropic en los cientos de millones a miles de millones de dólares, junto con daños reputacionales que la reparación monetaria no podría reparar completamente. Los informes de amici de líderes militares e investigadores de IA citaron riesgos para la preparación de defensa y el debate más amplio sobre la seguridad de la IA.
Anthropic dijo que estaba agradecida por la rapidez del tribunal y que planeaba seguir trabajando con el gobierno federal. La empresa declaró que su objetivo seguía siendo garantizar que los estadounidenses tuvieran acceso a IA segura y confiable.
La orden de restricción no resuelve la disputa contractual subyacente. No se ha emitido ninguna decisión final sobre los méritos. Un desafío separado en el Circuito de D.C. sigue pendiente, y la administración mantiene la opción de apelar.