La empresa de inteligencia artificial Anthropic PBC presentó una demanda contra el gobierno de Estados Unidos ante el Tribunal Federal del Distrito Norte de California en los autos “Anthropic PBC v. U.S. Department of War y otros” (Case N.º 3:26-cv-01996), con el objeto de que se declare ilegal la decisión del Departamento de Defensa que la calificó como “riesgo para la cadena de suministro de seguridad nacional”.
La acción judicial fue promovida luego de que el Departamento de Defensa estadounidense dispusiera la exclusión de la empresa de inteligencia artificial de la red de proveedores vinculados con la seguridad nacional. La medida ordena a contratistas, subcontratistas y proveedores del gobierno federal suspender cualquier relación comercial con Anthropic, aunque se estableció un período de transición de seis meses para finalizar servicios en curso.
Según surge de la presentación judicial, la empresa solicita al tribunal que deje sin efecto esa disposición y que declare su ilegalidad, al considerar que la decisión administrativa carece de fundamentos legales y fue adoptada en represalia por la postura de la compañía respecto del uso de inteligencia artificial en el ámbito militar.
“Desde que asumió el cargo, la Administración Trump ha priorizado la adopción global de los sistemas de IA desarrollados en Estados Unidos. El presidente ha emitido múltiples órdenes ejecutivas centradas en el dominio global de la IA por parte de Estados Unidos. Su Administración publicó un "Plan de Acción de IA" centrado, en parte, en promover la adopción de la IA en todo el gobierno federal, el cual Anthropic apoyó públicamente.”, se expresó en el libelo inicial.
El conflicto se originó en negociaciones entre la empresa y el Departamento de Defensa sobre el uso del modelo de inteligencia artificial denominado Claude en aplicaciones militares. En su demanda, Anthropic sostiene que su política de seguridad tecnológica siempre incluyó restricciones respecto de dos usos específicos: el empleo de inteligencia artificial en sistemas de guerra autónoma letal y su utilización para vigilancia masiva de ciudadanos estadounidenses.
De acuerdo con el escrito judicial, durante las negociaciones con funcionarios del Departamento de Defensa la empresa accedió a flexibilizar varias condiciones para permitir el uso de su tecnología en distintas funciones vinculadas con defensa y seguridad. Sin embargo, mantuvo su negativa a eliminar las restricciones vinculadas con los sistemas de armamento autónomo y la vigilancia masiva.
“Anthropic se ha forjado una reputación como corporación de beneficio público comprometida con la seguridad de la IA y el despliegue responsable de su tecnología. Esta reputación es crucial para su éxito y crecimiento continuos. La designación ilegal de Anthropic por parte del Secretario Hegseth como "un riesgo para la cadena de suministro y la seguridad nacional" sin duda perjudica la reputación de Anthropic, al igual que la decisión ilegal de los Demandados de prohibir a "TODAS las agencias federales del gobierno de los Estados Unidos" el uso de la tecnología de Anthropic", sostiene la empresa actora.
De acuerdo con el escrito judicial, durante las negociaciones con funcionarios del Departamento de Defensa la empresa accedió a flexibilizar varias condiciones para permitir el uso de su tecnología en distintas funciones vinculadas con defensa y seguridad. Sin embargo, mantuvo su negativa a eliminar las restricciones vinculadas con los sistemas de armamento autónomo y la vigilancia masiva.
La empresa afirma que el 24 de febrero de 2026 funcionarios del gobierno estadounidense le otorgaron un plazo de cuatro días para eliminar esas limitaciones y permitir que su tecnología pudiera utilizarse para cualquier aplicación legal dentro de las actividades del Departamento de Defensa. Según el relato de la demanda, se advirtió a la compañía que en caso de no aceptar esa condición el gobierno podría utilizar facultades previstas en la Defense Production Act o bien excluirla del sistema de proveedores vinculados con seguridad nacional.
El conflicto se agravó el 27 de febrero de 2026 cuando el presidente Donald Trump publicó un mensaje en redes sociales ordenando a las agencias federales suspender inmediatamente el uso de tecnología desarrollada por Anthropic. Ese mismo día el Secretario de Defensa anunció que el Departamento designaría formalmente a la empresa como “Supply-Chain Risk to National Security”.
“Anthropic se niega a aceptar el uso de Claude para la vigilancia masiva de estadounidenses. Herramientas de IA como Claude permiten la recopilación y el análisis de información a velocidades y escalas nunca antes contempladas, lo que plantea riesgos únicos para las libertades civiles debido a la posibilidad de errores y usos indebidos. Estas técnicas habrían sido inimaginables cuando el Congreso promulgó los marcos existentes que regulan cómo el Poder Ejecutivo puede llevar a cabo la vigilancia.”, sostienen.
“La Primera Enmienda “prohíbe a los funcionarios gubernamentales someter a individuos a represalias posteriores por haber incurrido en expresiones protegidas”. Hous. Cmty. Coll. Sys. v. Wilson, 595 U.S. 468, 474 n.2 (2022); Nieves v. Bartlett, 587 U.S. 391, 398 (2019) (similar). De hecho, “[l]as acciones estatales diseñadas para tomar represalias y restringir” la expresión protegida “atacan la esencia misma de la Primera Enmienda”. Gibson v. United States, 781 F.2d 1334, 1338 (9th Cir. 1986).”
La empresa también sostiene que la decisión viola el Administrative Procedure Act, al haber sido adoptada sin seguir el procedimiento administrativo previsto por la legislación federal y sin otorgar a la compañía la posibilidad de presentar descargos antes de la designación.
“La Primera Enmienda “prohíbe a los funcionarios gubernamentales someter a individuos a represalias posteriores por haber incurrido en expresiones protegidas”. Hous. Cmty. Coll. Sys. v. Wilson, 595 U.S. 468, 474 n.2 (2022); Nieves v. Bartlett, 587 U.S. 391, 398 (2019) (similar). De hecho, “[l]as acciones estatales diseñadas para tomar represalias y restringir” la expresión protegida “atacan la esencia misma de la Primera Enmienda”. Gibson v. United States, 781 F.2d 1334, 1338 (9th Cir. 1986).”, se lee en los fundamentos constitucionales.
La actora, solicita al tribunal federal que declare ilegal la designación como riesgo para la cadena de suministro de seguridad nacional, que ordene suspender la aplicación de esa medida y que impida a las agencias federales aplicar restricciones basadas en dicha decisión.