Estados Unidos reconsidera el uso de Anthropic en el gobierno
¿Puede una tecnología considerada demasiado arriesgada convertirse en un activo estratégico de la noche a la mañana? En Washington, el caso Anthropic ilustra este cambio. Tras haber sido excluida de los sistemas federales, la empresa de IA vuelve al centro de las discusiones, mientras que sus capacidades generan tanto interés como inquietud. Entre exigencias militares, desafíos de ciberseguridad y límites éticos reivindicados por sus dirigentes, la administración estadounidense busca ahora una vía de compromiso en un expediente que se ha vuelto altamente sensible.

En resumen
- La Casa Blanca reconsidera su postura tras prohibir Anthropic por razones de seguridad estratégica.
- Existe un conflicto entre la empresa y el Pentágono sobre el uso militar de sus modelos de IA.
- Washington evalúa ahora una directiva para permitir el regreso controlado de Anthropic en agencias federales.
- El modelo Claude Mythos se posiciona como una herramienta clave en ciberseguridad por su capacidad para detectar y explotar vulnerabilidades.
Una prohibición cuestionada entre bastidores en Washington
En febrero, la administración de Donald Trump clasificó a Anthropic como “un riesgo para la seguridad de la cadena de suministro”, ordenando a las agencias federales cesar inmediatamente cualquier uso de sus tecnologías, con un plazo de seis meses para abandonarlas.
Esta decisión se produce tras la negativa del CEO Dario Amodei a conceder un acceso sin restricciones a los modelos para usos militares. El presidente justificó esta posición declarando: “¡Los Estados Unidos de América nunca permitirán que una empresa radical de izquierda, llamada woke, dicte la manera en que nuestro gran ejército combate y gana sus guerras!”
Hoy, la Casa Blanca trabaja en una directiva susceptible de modificar esta trayectoria. Según varias fuentes, el objetivo consiste en permitir a las agencias federales reutilizar las soluciones de Anthropic evitando al mismo tiempo un desmentido político. Esta evolución se inscribe en un contexto de discusiones intensivas entre responsables políticos y actores económicos, señal de que los desafíos superan ahora el simple marco tecnológico.
Aquí algunos elementos factuales:
• La administración impuso una prohibición inmediata con un plazo de seis meses para abandonar Anthropic;
• El conflicto tiene su origen en la negativa a abrir los modelos a usos militares sin restricciones;
• Una nueva directiva apuntaría a eludir la clasificación de “riesgo para la seguridad de la cadena de suministro”;
• Reuniones implicaron a figuras clave como Susie Wiles y Scott Bessent así como a grandes bancos.
Mythos, una IA en el centro de las tensiones de seguridad
En el centro de este posible giro se encuentra Mythos, el modelo más avanzado de Anthropic presentado en marzo. Diseñado para detectar y explotar vulnerabilidades de software, ya atrae la atención de instituciones públicas y privadas.
El AI Security Institute, gracias a los datos on-chain, informa que Mythos Preview es el primer modelo capaz de superar “The Last Ones” (TLO), una simulación de ataque de red en 32 etapas que normalmente requiere 20 horas de trabajo humano. Por su parte, Mozilla afirma haber identificado y corregido 271 fallos en su navegador gracias a esta tecnología, evocando una sensación de vértigo ante la magnitud de los descubrimientos: “muchos otros equipos sienten ahora el mismo vértigo que nosotros cuando estos resultados comenzaron a aparecer claramente”.
Estas capacidades explican el interés creciente de las agencias gubernamentales, a pesar de las restricciones oficiales. La National Security Agency utilizaría ya Claude Mythos Preview en redes clasificadas, señal de una adopción pragmática frente a los desafíos. Al mismo tiempo, grandes instituciones financieras como Citigroup o Goldman Sachs han sido asociadas a las discusiones sobre los riesgos que representa una IA de este tipo, capaz tanto de asegurar como de comprometer sistemas críticos.
La evolución de este caso podría redefinir la relación entre empresas tecnológicas y Estados, a medida que las capacidades de la inteligencia artificial superan los marcos tradicionales de control. Entre exigencias de seguridad nacional y líneas rojas éticas establecidas por los desarrolladores, el compromiso sigue siendo frágil. Las próximas decisiones en Washington serán observadas de cerca, ya que podrían influir en la gobernanza mundial de la IA y sus usos en ámbitos sensibles.
¡Maximiza tu experiencia en Cointribune con nuestro programa "Read to Earn"! Por cada artículo que leas, gana puntos y accede a recompensas exclusivas. Regístrate ahora y comienza a acumular beneficios.
Diplômé de Sciences Po Toulouse et titulaire d'une certification consultant blockchain délivrée par Alyra, j'ai rejoint l'aventure Cointribune en 2019. Convaincu du potentiel de la blockchain pour transformer de nombreux secteurs de l'économie, j'ai pris l'engagement de sensibiliser et d'informer le grand public sur cet écosystème en constante évolution. Mon objectif est de permettre à chacun de mieux comprendre la blockchain et de saisir les opportunités qu'elle offre. Je m'efforce chaque jour de fournir une analyse objective de l'actualité, de décrypter les tendances du marché, de relayer les dernières innovations technologiques et de mettre en perspective les enjeux économiques et sociétaux de cette révolution en marche.
Las ideas y opiniones expresadas en este artículo pertenecen al autor y no deben tomarse como consejo de inversión. Haz tu propia investigación antes de tomar cualquier decisión de inversión.