-295% nas instalações do ChatGPT, 600 funcionários do Google em revolta: acordos entre IA e Pentágono geram dúvidas.
Os acordos entre os gigantes americanos da IA e o Pentágono já não provocam apenas um debate ético. Eles estão se tornando uma questão de confiança pública, soberania digital e até concorrência internacional.

Em resumo
- Os acordos IA-Pentágono enfraquecem a confiança nos gigantes americanos.
- O Google enfrenta uma rebelião interna após a mobilização de 600 funcionários.
- A Europa vê mais um argumento para acelerar sua soberania digital.
O mal-estar já não vem apenas dos ativistas
A crise de confiança em torno da IA militar americana está se ampliando. Agora, ela afeta usuários, funcionários da tecnologia e vários governos estrangeiros. O sinal mais visível vem do ChatGPT: nos Estados Unidos, as desinstalações do aplicativo dispararam 295% em apenas um dia após o anúncio de um acordo entre a OpenAI e o Departamento de Defesa dos EUA, segundo dados da Sensor Tower citados pela TechCrunch. Os downloads, por sua vez, caíram 13% no mesmo dia.
Esse número não significa que o ChatGPT esteja afundando. Ele mostra outra coisa. Uma parte do público começa a tratar a IA como uma escolha política. Instalar um aplicativo, mantê-lo ou apagá-lo vira uma forma de votar com o próprio celular.
Esse mesmo reflexo aparece no Google. Mais de 600 funcionários pediram a Sundar Pichai que rejeitasse usos militares classificados da IA da empresa. O receio deles se resume a uma ideia simples: uma vez que os modelos entram em redes secretas, escapam do olhar público e até do controle interno das equipes que os constroem.
Google reabre uma ferida antiga
O Google já conhece esse cenário. Em 2018, o Projeto Maven provocou uma rebelião interna. Na época, a empresa trabalhava com o Pentágono na análise de imagens de drones. A pressão dos funcionários acabou levando o Google a não renovar o contrato. Essa história ainda ecoa dentro da empresa.
O novo caso, portanto, desperta um velho fantasma. Segundo as informações disponíveis, o acordo permitiria ao Pentágono usar os modelos do Google para qualquer “finalidade governamental legal”. O contrato também prevê que a IA não deveria ser usada para vigilância em massa interna nem para armas autônomas sem supervisão humana adequada. Mas o ponto sensível vem logo depois: o Google não teria direito de veto sobre as decisões operacionais legais do governo.
É aí que a dúvida se instala. As garantias existem no papel. Mas seu alcance real continua nebuloso. O problema central está nessa zona cinzenta: as empresas prometem limites, enquanto o Estado mantém o controle sobre o uso legal desses sistemas. Para uma tecnologia tão poderosa quanto a IA, essa nuance pesa muito.
A Europa observa o caso com desconfiança
O debate já ultrapassa os escritórios do Google. Na Europa, esses acordos reforçam uma preocupação antiga: é possível confiar dados sensíveis a empresas americanas quando essas mesmas empresas também trabalham com o aparato de segurança nacional dos Estados Unidos ?
A pergunta não é teórica. O CLOUD Act permite que autoridades americanas solicitem certos dados a empresas dos EUA, mesmo quando esses dados estão armazenados fora do país. Esse é um dos argumentos que empurram vários países europeus a buscar alternativas locais. A França já anunciou a transferência de seu Health Data Hub da Microsoft Azure para a Scaleway, uma provedora francesa de serviços em nuvem.
Mas a Europa avança com uma perna mais curta que a outra. Scaleway, OVHCloud, Qwant ou Ecosia mostram que existe outro caminho. Ainda assim, esses atores continuam minúsculos diante da AWS, do Google Cloud, da Azure ou da Busca Google. Soberania digital não se decreta em um comunicado. Ela exige servidores, talentos, orçamento e, acima de tudo, uso diário.
A IA se torna uma infraestrutura de poder
O verdadeiro tema não é apenas militar. Ele toca a própria natureza da IA. Esses modelos já não são simples assistentes para escrever um e-mail ou resumir um documento. Eles estão se tornando camadas de infraestrutura. Podem organizar informações, acelerar decisões, ajudar a planejar operações e filtrar dados sensíveis.
Nesse contexto, cada contrato com o Pentágono muda a percepção pública. OpenAI, Google, Anthropic ou xAI já não são apenas marcas de produtividade. Elas entram no campo estratégico. E quando uma empresa entra nesse campo, promessas de marketing deixam de bastar.
A pergunta central se torna brutal: quem controla a IA quando seus usos passam a ser classificados? Os engenheiros? As empresas? Os governos? Ou ninguém de forma clara? Enquanto essa resposta continuar imprecisa, as desinstalações, as cartas internas e a busca europeia por alternativas continuarão. A dúvida, por sua vez, não precisa de um grande modelo para se espalhar.
Maximize sua experiência na Cointribune com nosso programa "Read to Earn"! Para cada artigo que você lê, ganhe pontos e acesse recompensas exclusivas. Inscreva-se agora e comece a acumular vantagens.
Fasciné par le bitcoin depuis 2017, Evariste n'a cessé de se documenter sur le sujet. Si son premier intérêt s'est porté sur le trading, il essaie désormais activement d’appréhender toutes les avancées centrées sur les cryptomonnaies. En tant que rédacteur, il aspire à fournir en permanence un travail de haute qualité qui reflète l'état du secteur dans son ensemble.
As opiniões e declarações expressas neste artigo são de responsabilidade exclusiva do autor e não devem ser consideradas como recomendações de investimento. Faça sua própria pesquisa antes de tomar qualquer decisão de investimento.