IA : Anthropic obtém uma trégua importante em sua batalha contra o Pentágono
Novo capítulo na confrontação entre a administração Trump e a Anthropic. A justiça americana acaba de frear bruscamente uma ofensiva do Pentágono contra a empresa por trás do Claude. Uma decisão que pode redesenhar o equilíbrio de forças em um setor que se tornou altamente estratégico para a economia e soberania americana.

Em resumo
- Um tribunal federal de San Francisco concedeu uma liminar preliminar a favor da Anthropic em 26 de março de 2026.
- A juíza Rita Lin suspende a proibição imposta por Trump às agências federais de usar o Claude.
- O conflito tem origem na recusa da Anthropic em autorizar seu IA para fins de armamento autônomo e vigilância em massa.
Um juiz federal para o Pentágono, a IA da Anthropic permanece no jogo
Ontem, 26 de março, em San Francisco, a juíza federal Rita Lin, do tribunal do distrito norte da Califórnia, deu um freio nas ambições do Pentágono. Ela proferiu uma liminar preliminar que suspende imediatamente duas medidas-chave da administração Trump.
Concretamente, a justiça congela tanto a classificação da Anthropic como ameaça à segurança nacional quanto a ordem imposta às agências federais de cessar toda utilização do Claude, seu modelo de inteligência artificial.
A juíza não poupou palavras. Ela qualificou essas medidas como “arbitrárias, caprichosas e constitutivas de abuso de poder discricionário”. Melhor ainda, ela decidiu sobre o fundo ético do caso:
Nada na lei vigente apoia a ideia orwelliana segundo a qual uma empresa americana poderia ser qualificada como adversária potencial e sabotadora dos Estados Unidos por ter expressado seu desacordo com o governo.
Uma declaração contundente, que resume por si só a gravidade do caso. Ela sugere claramente que o Estado teria cruzado uma linha vermelha ao punir uma empresa por suas posições públicas.
Para entender essa escalada, é preciso voltar ao verão de 2025. Na época, Anthropic e o Pentágono negociavam uma parceria estratégica. O objetivo era ambicioso: integrar o Claude como o primeiro modelo avançado de IA autorizado a operar em redes classificadas.
No entanto, as negociações ficaram estagnadas e depois quebraram em fevereiro de 2026. O Pentágono endureceu a posição e exigiu acesso irrestrito à tecnologia, incluindo usos sensíveis. Entre eles: o desenvolvimento de armas autônomas letais e dispositivos de vigilância em massa no território americano.
Anthropic recusou categoricamente. Para a empresa, esses usos ultrapassam limites éticos inegociáveis. Assim, a ruptura tornou-se inevitável e abriu caminho para um confronto jurídico agora público.
De uma denúncia judicial a uma vitória judicial provisória
A reação da administração Trump não se fez esperar. No fim de fevereiro, Donald Trump ordenou que todas as agências federais cessassem o uso dos produtos da Anthropic.
Logo depois, o Pentágono incluiu a startup em sua lista negra de fornecedores de risco, uma lista que até então incluía apenas empresas estrangeiras como Huawei ou Kaspersky.
Diante dessas medidas, a Anthropic reagiu em 9 de março de 2026, acionando o governo americano perante um tribunal federal de Washington D.C. A empresa denuncia uma violação flagrante da Primeira Emenda: punir uma sociedade por exercer sua liberdade de expressão equivale, segundo ela, a “destruir” um ator importante da IA americana.
Esse recurso recebeu apoio inesperado de 37 engenheiros e pesquisadores do Google DeepMind e da OpenAI, que apresentaram um memorial voluntário em favor da Anthropic.
Em uma audiência de 90 minutos em 24 de março, a juíza Lin questionou os advogados do governo sobre um ponto específico: a Anthropic está sendo punida por ter criticado publicamente o Pentágono?
A resposta implícita de sua decisão, proferida dois dias depois, é clara. Ela fala de “retaliações ilegais clássicas, contrárias à Primeira Emenda”.
Essa decisão vai muito além do caso Anthropic. Ela estabelece um princípio: nenhuma administração pode usar seu poder econômico para silenciar uma empresa privada sob a alegação de que ela se recusou a colaborar em projetos contrários a seus valores éticos.
Com 32% do mercado de IA empresarial registrado em 2025, segundo a Menlo Ventures, a Anthropic não é um ator secundário; seu enfraquecimento teria repercussões diretas na competitividade tecnológica dos Estados Unidos frente à China. A batalha jurídica não terminou, mas a Anthropic marcou, por ora, um ponto decisivo.
Maximize sua experiência na Cointribune com nosso programa "Read to Earn"! Para cada artigo que você lê, ganhe pontos e acesse recompensas exclusivas. Inscreva-se agora e comece a acumular vantagens.
Passionné par le Bitcoin, j'aime explorer les méandres de la blockchain et des cryptos et je partage mes découvertes avec la communauté. Mon rêve est de vivre dans un monde où la vie privée et la liberté financière sont garanties pour tous, et je crois fermement que Bitcoin est l'outil qui peut rendre cela possible.
As opiniões e declarações expressas neste artigo são de responsabilidade exclusiva do autor e não devem ser consideradas como recomendações de investimento. Faça sua própria pesquisa antes de tomar qualquer decisão de investimento.