analisis-juridico

Anthropic v. Department of War: cuando el gobierno castiga a una empresa de IA por decir que no

El 27 de febrero de 2026, el Presidente de los Estados Unidos publicó en sus redes sociales una orden dirigida a «TODA Agencia Federal» para que cesara «INMEDIATAMENTE» el uso de la tecnología de Anthropic. Horas después, el Secretario de Guerra designaba a la empresa desarrolladora de Claude como «riesgo para la cadena de suministro» y extendía la prohibición a cualquier contratista del Departamento de Defensa que mantuviera relaciones comerciales con la compañía. El mercado federal —el mayor del mundo— se cerraba de golpe para una empresa que, paradójicamente, el propio gobierno había descrito semanas antes como «exquisite» y considerado tan estratégica que barajó requisarla bajo la Defense Production Act.

¿La razón? Anthropic se había negado a eliminar dos restricciones de su política de uso: la prohibición de emplear Claude para guerra autónoma letal sin supervisión humana, y la prohibición de usarlo para vigilancia masiva de ciudadanos estadounidenses.

Esto no es un conflicto contractual ordinario. Es una pregunta constitucional de primer orden.

Cuando el arma antichina se vuelve contra Silicon Valley

Los mecanismos invocados —10 U.S.C. § 3252 y la Federal Acquisition Supply Chain Security Act de 2018— fueron diseñados por el Congreso para un propósito muy concreto: excluir de la contratación federal a proveedores que puedan ser saboteados o subvertidos por adversarios extranjeros. China, Rusia, Irán. La ley define «riesgo en la cadena de suministro» por referencia explícita a esa amenaza exterior.

Anthropic es una empresa estadounidense con sede en San Francisco. Ha obtenido la certificación FedRAMP —el más alto nivel de seguridad para sistemas cloud que manejan información clasificada—, colabora con el Departamento de Energía en entornos de alto secreto, y ha demostrado activamente que impide el acceso a su tecnología por parte de entidades vinculadas al Partido Comunista Chino. Es, en todos los sentidos relevantes para el estatuto, lo opuesto a un riesgo de cadena de suministro.

Aquí es donde el análisis se complica de verdad. Funcionarios del propio Departamento confirmaron a la prensa que la designación fue «ideological» y que «there is no evidence of supply-chain risk». El Presidente llamó a Anthropic «RADICAL LEFT, WOKE COMPANY». El Secretario habló de «Silicon Valley ideology» y de asegurarse de que la empresa «pays a price». No hay ambigüedad sobre la motivación. Eso es, precisamente, lo que en Derecho constitucional estadounidense se llama represalia por discurso protegido.

Una política de uso que la Primera Enmienda protege

Lo que el gobierno exigía no era técnicamente complejo: eliminar la Usage Policy de Anthropic y sustituirla por una cláusula de «any lawful use». Cualquier uso legal. Sin restricciones propias. Sin criterio ético de la empresa.

Anthropic aceptó prácticamente todo. Aceptó que Claude pudiera analizar inteligencia extranjera, manejar documentación clasificada y apoyar operaciones militares —usos que están vetados para sus clientes civiles—. Lo que no aceptó fue eliminar la prohibición de guerra autónoma letal y la prohibición de vigilancia masiva. Y la razón no era ideológica sino técnica: Claude no ha sido entrenado ni probado para funcionar de manera fiable en esos contextos. Permitir ese uso sin las salvaguardas necesarias no era una postura política; era, según la propia empresa, una descripción honesta de las limitaciones actuales de la tecnología.

Ahora bien, ¿puede el gobierno federal castigar a una empresa porque sus condiciones de servicio expresan una posición sobre los límites seguros de su producto? La jurisprudencia del Tribunal Supremo —desde Bantam Books hasta NRA v. Vullo en 2024— responde que no. Las condiciones de servicio con componente expresivo sobre valores y límites tecnológicos constituyen discurso protegido. Y cuando el gobierno utiliza mecanismos extraordinarios para castigar ese discurso en lugar de simplemente no renovar el contrato, cruza una línea que la Primera Enmienda traza con claridad.

La directiva en redes sociales que ninguna ley autoriza

Hay un tercer plano del caso que resulta, si cabe, aún más perturbador desde el punto de vista del Estado de Derecho. La «directiva presidencial» que desencadenó todo no es una Executive Order, no se publicó en el Federal Register, no cita base legal alguna. Es un mensaje en Truth Social.

El Congreso ha establecido un régimen exhaustivo para la exclusión de contratistas federales —debarment y suspension en 48 C.F.R. subparte 9.4—, con notificación previa, oportunidad de audiencia, causas tasadas y la prohibición expresa de utilizar la exclusión «para fines de castigo». Nada de eso se siguió aquí. La GSA eliminó a Anthropic de sus contratos marco. El Tesoro terminó todo uso de Claude. El Departamento de Estado y el HHS circularon memorandos internos. Todo en «apoyo de la directiva del Presidente», sin que ninguna de esas agencias invocara una sola norma que autorizara específicamente esas sanciones.

El marco Youngstown —el canon por excelencia para evaluar la acción presidencial desde 1952— exige que el poder del Presidente derive de una ley del Congreso o de la Constitución. En ausencia de ambos, la acción es ultra vires. Y cuando esa acción, además, impone un castigo identificado nominalmente a una empresa concreta sin juicio previo, se aproxima peligrosamente a lo que la Constitución prohíbe expresamente desde el artículo I: el bill of attainder.

La pregunta que el caso deja en el aire

¿Puede una empresa de IA mantener una posición ética sobre los límites seguros de su tecnología sin arriesgarse a ser expulsada del mercado federal? Si la respuesta es no, las implicaciones son sistémicas. Las empresas que quieran contratar con el gobierno aprenderán rápido que tener criterio propio sobre el uso de sus modelos tiene un coste demasiado alto. El debate público sobre los límites de la inteligencia artificial —que ya es difícil de sostener— se enrarecería aún más.

Dicho esto, conviene no perder de vista que el Derecho positivo, en este caso, habla con bastante claridad. Los cinco argumentos de Anthropic —extralimitación estatutaria, represalia por discurso protegido, ultra vires presidencial, privación de derechos sin debido proceso, y sanciones sin autorización legal— no son construcciones teóricas elaboradas para la ocasión. Cada uno de ellos tiene anclaje directo en jurisprudencia consolidada del Tribunal Supremo y de los tribunales de apelación.

Lo que viene en el informe completo

El análisis académico que acompaña a este artículo desarrolla los cinco claims de la demanda con metodología IRAC completa: cuestión jurídica, marco normativo aplicable, aplicación al caso y conclusión. No es un resumen: es el argumento jurídico estructurado desde la perspectiva de la publicación académica.

El informe incluye también la perspectiva de Derecho comparado europeo —cómo el Reglamento de Inteligencia Artificial y la jurisprudencia del TEDH abordarían un conflicto análogo entre un Estado y una empresa tecnológica que defiende sus condiciones de servicio— y propuestas concretas de reforma legislativa, tanto para clarificar el ámbito de la FASCSA como para reforzar las garantías procedimentales en exclusiones de contratación.

Hay además dos secciones que no son habituales en el género académico pero que este análisis incorpora deliberadamente: un glosario completo de los términos jurídicos y técnicos del caso —con referencias normativas exactas— y un bloque de preguntas frecuentes que responde a las dudas más comunes sobre el procedimiento judicial, los fundamentos constitucionales y las implicaciones para la industria.

Descarga el informe completoAnthropic v. Department of War: análisis constitucional desde la Primera Enmienda, el debido proceso y la prohibición de represalias gubernamentalesPDF disponible aquí


Cinco conclusiones para llevarse

  • La designación de Anthropic como «supply chain risk» carece de base estatutaria: los mecanismos invocados exigen un adversario extranjero, no una disputa contractual interna.
  • Las condiciones de servicio con componente expresivo sobre los límites seguros de la tecnología constituyen discurso protegido por la Primera Enmienda.
  • Una publicación en redes sociales no es una Executive Order; ordenar el cese masivo de contrataciones sin procedimiento es ultra vires conforme al marco Youngstown.
  • La ausencia de notificación previa, audiencia y determinación imparcial viola las garantías mínimas de la Quinta Enmienda, con independencia del resultado sustantivo.
  • El caso plantea una pregunta sistémica: si las empresas de IA no pueden mantener criterios éticos propios sin riesgo de exclusión del mercado federal, el debate público sobre los límites de la tecnología pierde uno de sus actores más informados.