la crypto pour tous
Rejoindre
A
A

IA : Le Pentagone bannit Anthropic des contrats et Amodei dénonce une décision punitive

12h00 ▪ 4 min de lecture ▪ par Fenelon L.
S'informer Intelligence Artificielle
Résumer cet article avec :

Le PDG d’Anthropic, Dario Amodei, vient de monter au créneau face à une décision sans précédent de l’administration Trump. Washington a désigné son entreprise comme « risque pour la chaîne d’approvisionnement » de la défense américaine, ouvrant la voie à une bataille judiciaire inédite entre une grande firme tech américaine et son propre gouvernement.

Homme furieux déchirant logo de l'IA d'Antropic, Claude devant Pentagone, militaire l’arrête, ciel orange dramatique, tension politique explosive, style comics années 70.

En bref

  • Pete Hegseth interdit à tout contractant militaire américain de travailler avec Anthropic.
  • Donald Trump ordonne à toutes les agences fédérales de cesser immédiatement d’utiliser l’IA Claude.
  • Anthropic refuse deux usages spécifiques : les armes entièrement autonomes et la surveillance de masse des citoyens.
  • Quelques heures après, OpenAI signe un contrat avec le département de la Défense.

Une rupture brutale après dix-huit mois de collaboration

Tout commence en 2024 avec un contrat de 200 millions de dollars signé entre Anthropic et le département de la Défense. À l’époque, la société se félicitait d’être la première entreprise d’IA de pointe à opérer sur des réseaux militaires classifiés américains. Un motif de fierté. Un argument commercial fort.

Dix-huit mois plus tard, ce même contrat est au cœur d’une confrontation judiciaire ouverte avec Washington.

Le point de blocage est simple : le Pentagone voulait un accès sans restriction à Claude, le modèle phare d’Anthropic. 

La société, elle, a posé deux conditions non négociables, pas d’intégration dans des systèmes d’armes entièrement autonomes, pas de surveillance intérieure de masse des citoyens américains. Des mois de négociations privées n’ont rien changé. L’ultimatum fixé à 17h01, vendredi, s’est écoulé sans accord. Anthropic n’a pas bougé.

La réponse de l’administration a été immédiate et brutale. Pete Hegseth a désigné Anthropic comme « risque pour la sécurité nationale en matière de chaîne d’approvisionnement », une étiquette habituellement réservée à des entreprises étrangères sous influence hostile, comme Huawei ou ZTE. 

Plusieurs juristes ont déjà qualifié cette décision de précédent dangereux. Trump a ensuite enfoncé le clou sur Truth Social, en majuscules : toutes les agences fédérales doivent « CESSER IMMÉDIATEMENT toute utilisation de la technologie d’Anthropic ».

Anthropic campe sur ses positions, OpenAI en profite

Face aux caméras de CBS News, Dario Amodei n’a rien concédé. Qualifiant la décision du Pentagone de « sans précédent » et de « punitive », le PDG d’Anthropic a réaffirmé avec fermeté le fond de sa position :

Ce sont des choses fondamentales pour les Américains : le droit de ne pas être espionné par le gouvernement, le droit pour nos officiers militaires de prendre eux-mêmes des décisions concernant la guerre, et de ne pas les confier entièrement à une machine.

Il a précisé qu’il n’était pas opposé par principe aux armes automatisées, mais que les modèles d’IA actuels ne sont tout simplement pas assez fiables pour fonctionner sans supervision humaine dans un contexte létal. Il a également appelé le Congrès à légiférer rapidement pour encadrer l’usage de l’IA dans les programmes de surveillance nationale.

Anthropic a annoncé qu’elle contestera la désignation en justice, en s’appuyant sur l’article 3252 du titre 10 du Code américain, qui limite légalement la portée de cette désignation aux seuls contrats du département de la Défense.

Pendant ce temps, OpenAI a saisi l’opportunité. Quelques heures seulement après l’annonce d’Hegseth, Sam Altman confirmait la signature d’un accord pour déployer les modèles d’OpenAI sur les réseaux militaires américains. La réaction en ligne a été vive, nombreux y voyant une caution donnée à la surveillance de masse et à la militarisation de l’IA.

Anthropic a choisi ses principes plutôt que ses contrats. Un pari risqué, mais cohérent avec sa mission affichée depuis ses origines : développer une IA sûre. La bataille judiciaire qui s’annonce dira si cette posture est tenable face à la machine administrative américaine.

Maximisez votre expérience Cointribune avec notre programme 'Read to Earn' ! Pour chaque article que vous lisez, gagnez des points et accédez à des récompenses exclusives. Inscrivez-vous dès maintenant et commencez à cumuler des avantages.



Rejoindre le programme
A
A
Fenelon L. avatar
Fenelon L.

Passionné par le Bitcoin, j'aime explorer les méandres de la blockchain et des cryptos et je partage mes découvertes avec la communauté. Mon rêve est de vivre dans un monde où la vie privée et la liberté financière sont garanties pour tous, et je crois fermement que Bitcoin est l'outil qui peut rendre cela possible.

DISCLAIMER

Les propos et opinions exprimés dans cet article n'engagent que leur auteur, et ne doivent pas être considérés comme des conseils en investissement. Effectuez vos propres recherches avant toute décision d'investissement.