cripto para todos
Unirse
A
A

IA : El Pentágono prohíbe a Anthropic contratos y Amodei denuncia una decisión punitiva

12:10 ▪ 4 min de lectura ▪ por Fenelon L.
Informarse Inteligencia artificial
Resumir este artículo con:

El CEO de Anthropic, Dario Amodei, acaba de alzarse contra una decisión sin precedentes de la administración Trump. Washington ha designado su empresa como «riesgo para la cadena de suministro» de la defensa estadounidense, abriendo la puerta a una batalla judicial inédita entre una gran firma tecnológica estadounidense y su propio gobierno.

Hombre furioso rasgando el logotipo de la IA de Antropic, Claude frente al Pentágono, un militar lo detiene, cielo naranja dramático, tensión política explosiva, estilo cómic de los años 70.

En breve

  • Pete Hegseth prohíbe a cualquier contratista militar estadounidense trabajar con Anthropic.
  • Donald Trump ordena a todas las agencias federales cesar inmediatamente el uso de la IA Claude.
  • Anthropic rechaza dos usos específicos: armas totalmente autónomas y vigilancia masiva interior de ciudadanos.
  • Pocas horas después, OpenAI firma un contrato con el Departamento de Defensa.

Una ruptura brusca tras dieciocho meses de colaboración

Todo comienza en 2024 con un contrato de 200 millones de dólares firmado entre Anthropic y el Departamento de Defensa. En ese momento, la empresa se felicitaba por ser la primera compañía de IA avanzada en operar en redes militares clasificadas estadounidenses. Un motivo de orgullo. Un argumento comercial fuerte.

Dieciocho meses después, ese mismo contrato está en el centro de una confrontación judicial abierta con Washington.

El punto de bloqueo es simple: el Pentágono quería acceso irrestricto a Claude, el modelo estrella de Anthropic. 

La empresa, en cambio, planteó dos condiciones innegociables, no integración en sistemas de armas totalmente autónomos, no vigilancia masiva interna de ciudadanos estadounidenses. Meses de negociaciones privadas no cambiaron nada. El ultimátum fijado a las 17:01 del viernes expiró sin acuerdo. Anthropic no se movió.

La respuesta de la administración fue inmediata y brutal. Pete Hegseth designó a Anthropic como «riesgo para la seguridad nacional en materia de cadena de suministro», una etiqueta habitualmente reservada a empresas extranjeras bajo influencia hostil, como Huawei o ZTE. 

Varios juristas ya han calificado esta decisión como un precedente peligroso. Trump luego remató en Truth Social, en mayúsculas: todas las agencias federales deben «CESAR INMEDIATAMENTE todo uso de la tecnología de Anthropic«.

Anthropic se mantiene firme, OpenAI se beneficia

Frente a las cámaras de CBS News, Dario Amodei no cedió nada. Calificando la decisión del Pentágono de «sin precedentes» y «punitiva», el CEO de Anthropic reafirmó con firmeza la esencia de su postura:

Son cosas fundamentales para los estadounidenses: el derecho a no ser espiados por el gobierno, el derecho de nuestros oficiales militares a tomar por sí mismos decisiones relacionadas con la guerra, y no delegarlas completamente a una máquina.

Precisó que no está en contra por principio de las armas automatizadas, pero que los modelos de IA actuales simplemente no son lo suficientemente fiables para funcionar sin supervisión humana en un contexto letal. También llamó al Congreso a legislar rápidamente para regular el uso de la IA en los programas de vigilancia nacional.

Anthropic anunció que impugnará la designación en los tribunales, basándose en el artículo 3252 del título 10 del Código estadounidense, que limita legalmente el alcance de esta designación solo a los contratos del Departamento de Defensa.

Mientras tanto, OpenAI aprovechó la oportunidad. Pocas horas después del anuncio de Hegseth, Sam Altman confirmaba la firma de un acuerdo para desplegar los modelos de OpenAI en las redes militares estadounidenses. La reacción en línea fue intensa, muchos viendo ahí una aprobación dada a la vigilancia masiva y a la militarización de la IA.

Anthropic eligió sus principios en lugar de sus contratos. Una apuesta arriesgada, pero coherente con su misión declarada desde sus orígenes: desarrollar una IA segura. La batalla judicial que se avecina dirá si esta postura es sostenible frente a la maquinaria administrativa estadounidense.

¡Maximiza tu experiencia en Cointribune con nuestro programa "Read to Earn"! Por cada artículo que leas, gana puntos y accede a recompensas exclusivas. Regístrate ahora y comienza a acumular beneficios.



Unirse al programa
A
A
Fenelon L. avatar
Fenelon L.

Apasionado por Bitcoin, me encanta explorar los intrincados detalles de la blockchain y las criptomonedas y comparto mis descubrimientos con la comunidad. Mi sueño es vivir en un mundo donde la privacidad y la libertad financiera estén garantizadas para todos, y creo firmemente que Bitcoin es la herramienta que puede hacer esto posible.

AVISO LEGAL

Las ideas y opiniones expresadas en este artículo pertenecen al autor y no deben tomarse como consejo de inversión. Haz tu propia investigación antes de tomar cualquier decisión de inversión.