IA : Anthropic obtiene un gran aplazamiento en su batalla contra el Pentágono
Nuevo episodio en la confrontación entre la administración Trump y Anthropic. La justicia estadounidense acaba de frenar bruscamente una ofensiva del Pentágono contra la empresa detrás de Claude. Una decisión que podría redibujar el equilibrio de fuerzas en un sector que se ha vuelto altamente estratégico para la economía y la soberanía estadounidense.

En breve
- Un tribunal federal de San Francisco concedió una orden preliminar a favor de Anthropic el 26 de marzo de 2026.
- La jueza Rita Lin suspende la prohibición impuesta por Trump a las agencias federales de usar a Claude.
- El conflicto surge del rechazo de Anthropic a autorizar su IA para fines de armamento autónomo y vigilancia masiva.
Un juez federal detiene al Pentágono, la IA de Anthropic sigue en juego
Ayer, 26 de marzo, en San Francisco, la jueza federal Rita Lin, del tribunal del distrito norte de California, frenó las ambiciones del Pentágono. Emitió una orden preliminar que suspende inmediatamente dos medidas clave de la administración Trump.
Concretamente, la justicia congela tanto la clasificación de Anthropic como amenaza para la seguridad nacional, como la orden impuesta a las agencias federales para dejar de usar a Claude, su modelo de inteligencia artificial.
La jueza no se anduvo con rodeos. Calificó estas medidas como «arbitrarias, caprichosas y constitutivas de un abuso de poder discrecional». Mejor aún, resolvió sobre el fondo ético del caso:
Nada en la ley vigente sostiene la idea orwelliana de que una empresa estadounidense podría ser calificada como adversaria potencial y saboteadora de Estados Unidos por haber expresado su desacuerdo con el gobierno.
Una declaración contundente que resume por sí sola la gravedad del asunto. Sugiere claramente que el Estado habría cruzado una línea roja al sancionar a una empresa por sus posiciones públicas.
Para entender esta escalada, hay que remontarse al verano de 2025. En ese momento, Anthropic y el Pentágono negociaban una asociación estratégica. El objetivo era ambicioso: integrar a Claude como el primer modelo de IA avanzada autorizado para operar en redes clasificadas.
Sin embargo, las negociaciones se estancaron y luego se rompieron en febrero de 2026. El Pentágono endureció su postura y exigió acceso sin restricciones a la tecnología, incluyendo usos sensibles. Entre ellos: el desarrollo de armas autónomas letales y dispositivos de vigilancia masiva en territorio estadounidense.
Anthropic se negó categóricamente. Para la empresa, esos usos cruzaban límites éticos no negociables. A partir de entonces, la ruptura se volvió inevitable y abrió paso a un enfrentamiento jurídico ahora público.
De una denuncia judicial a una victoria judicial provisional
La reacción de la administración Trump no se hizo esperar. A finales de febrero, Donald Trump ordenó a todas las agencias federales dejar de usar productos de Anthropic.
En consecuencia, el Pentágono incluyó a la startup en su lista negra de proveedores de riesgo, una lista que hasta entonces solo incluía empresas extranjeras como Huawei o Kaspersky.
Ante estas medidas, Anthropic respondió el 9 de marzo de 2026 demandando al gobierno estadounidense ante un tribunal federal en Washington D.C. La empresa denuncia allí una violación flagrante de la Primera Enmienda: sancionar a una sociedad por ejercer su libertad de expresión equivale, según ella, a «destruir» a un actor clave de la IA estadounidense.
Este recurso recibe el apoyo inesperado de 37 ingenieros e investigadores de Google DeepMind y OpenAI, quienes presentaron un escrito voluntario a favor de Anthropic.
Durante una audiencia de 90 minutos el 24 de marzo, la jueza Lin interrogó a los abogados del gobierno sobre un punto preciso: ¿Anthropic es castigada por haber criticado públicamente al Pentágono?
La respuesta implícita de su decisión, dictada dos días después, es inequívoca. Habla de «represalias ilegales clásicas, contrarias a la Primera Enmienda».
Esta decisión va mucho más allá del simple caso Anthropic. Establece un principio: ninguna administración puede usar su poder económico para silenciar a una empresa privada bajo el pretexto de que se negó a colaborar en proyectos contrarios a sus valores éticos.
Con el 32 % de cuota del mercado de IA empresarial registrado en 2025, según Menlo Ventures, Anthropic no es un actor secundario, su debilitamiento tendría repercusiones directas en la competitividad tecnológica de Estados Unidos frente a China. La batalla legal no ha terminado, pero Anthropic ha marcado, por ahora, un punto decisivo.
¡Maximiza tu experiencia en Cointribune con nuestro programa "Read to Earn"! Por cada artículo que leas, gana puntos y accede a recompensas exclusivas. Regístrate ahora y comienza a acumular beneficios.
Apasionado por Bitcoin, me encanta explorar los intrincados detalles de la blockchain y las criptomonedas y comparto mis descubrimientos con la comunidad. Mi sueño es vivir en un mundo donde la privacidad y la libertad financiera estén garantizadas para todos, y creo firmemente que Bitcoin es la herramienta que puede hacer esto posible.
Las ideas y opiniones expresadas en este artículo pertenecen al autor y no deben tomarse como consejo de inversión. Haz tu propia investigación antes de tomar cualquier decisión de inversión.