Una juez federal de San Francisco ha accedido a la solicitud de Anthropic de una suspensión temporal tras la designación por parte del Pentágono de la empresa como un riesgo para la cadena de suministro.
En una resolución dictada el jueves, la juez Rita Lin, del Tribunal de Distrito del Distrito Norte de California, dictó una medida cautelar contra el Pentágono en relación con dicha calificación. La resolución también suspende temporalmente una directiva del presidente de Estados Unidos, Donald Trump, en la que ordenaba a las agencias federales dejar de utilizar Claude, el chatbot de Anthropic.
“Nada en la legislación vigente respalda la idea orwelliana de que una empresa estadounidense pueda ser tildada de adversario potencial y saboteador de EE. UU. por expresar su desacuerdo con el Gobierno”, afirmó la juez Lin.
Según Menlo Ventures, Anthropic era el líder en los mercados de IA empresarial con un 32 %, por delante de OpenAI, con un 25 %, en 2025. Una prohibición de Anthropic a nivel gubernamental haría que esta posición se desplomara.
La juez señaló que estas “amplias medidas punitivas” adoptadas contra Anthropic por la administración Trump y el secretario de Defensa Pete Hegseth parecían “arbitrarias, caprichosas [y] un abuso de discrecionalidad”.
La orden se produjo tras una demanda presentada el 9 de marzo por Anthropic ante un tribunal federal de Washington D. C., en la que se alegaba que Hegseth se había extralimitado en sus funciones al designar a la empresa como un riesgo para la cadena de suministro de seguridad nacional.

Anthropic se opuso a las armas autónomas y a la vigilancia masiva
La disputa se deriva de un acuerdo alcanzado en julio de 2025 entre la empresa de IA y el Pentágono sobre un contrato para convertir a Claude en el primer modelo de IA de vanguardia aprobado para su uso en redes clasificadas.
Las negociaciones fracasaron en febrero cuando el Pentágono intentó renegociar, insistiendo en que Anthropic permitiera el uso militar de Claude “para todos los fines legales” y sin restricciones.
Anthropic mantuvo que su tecnología no debía utilizarse para armas autónomas letales ni para la vigilancia masiva interna de los estadounidenses.
El 27 de febrero, Trump ordenó a todas las agencias federales que dejaran de utilizar los productos de Anthropic. “Los chiflados de izquierdas de Anthropic han cometido un ERROR DESASTROSO al intentar PRESIONAR al Departamento de Guerra”, escribió en Truth Social.
El 24 de marzo tuvo lugar en San Francisco una audiencia judicial de 90 minutos, durante la cual la juez Lin presionó a los abogados del Gobierno para que aclararan si se estaba castigando a Anthropic por criticar públicamente al Pentágono.
Clásica represalia ilegal en virtud de la Primera Enmienda
“Castigar a Anthropic por someter a escrutinio público la postura del Gobierno en materia de contratación es una clásica represalia ilegal en virtud de la Primera Enmienda”, afirmaba la sentencia del 26 de marzo.
Anthropic declaró en un comunicado que estaba “agradecida al tribunal por actuar con rapidez y satisfecha de que coincidan en que Anthropic probablemente ganará el caso por sus propios méritos”.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

