Uma juíza federal em São Francisco concedeu uma liminar à Anthropic, suspendendo temporariamente as medidas do governo Trump que buscavam excluir a empresa do mercado federal americano.
A decisão bloqueia, por ora, a ordem de Trump proibindo agências federais de usar os modelos Claude — e impede o Pentágono de classificar a Anthropic como ameaça à segurança nacional dos EUA.
É uma liminar, não uma vitória final. Mas é o suficiente para a empresa continuar operando enquanto o caso vai para julgamento de mérito.
O que o governo Trump fez
A história começa numa negociação que não deu certo.
O Departamento de Defesa queria acesso amplo aos modelos da Anthropic para todos os usos permitidos em lei — incluindo, nas entrelinhas, aplicações militares sem restrições explícitas. A Anthropic queria garantias de que sua tecnologia não seria usada em armas totalmente autônomas ou em vigilância em massa doméstica.
Sem acordo, o impasse escalou rapidamente.
O Pentágono incluiu a Anthropic numa lista de “risco para a cadeia de suprimentos” — classificação que até então era reservada a empresas de países adversários, como China e Rússia. Na prática, isso obriga grandes contratadas de defesa — Amazon, Microsoft, Palantir — a certificarem que não usam os modelos da empresa em trabalhos militares.
Trump foi mais direto. Num post em rede social, chamou a Anthropic de “companhia de IA radical de esquerda” e ordenou que agências federais deixassem de usar a tecnologia.
O que a juíza disse
A juíza Rita Lin foi clara na decisão — e foi além do esperado numa liminar.
Primeiro, ela concluiu que “punir a Anthropic por trazer escrutínio público à posição contratual do governo é um caso clássico de retaliação ilegal sob a Primeira Emenda.” Em outras palavras: o governo está tentando punir a empresa por discordar publicamente da posição oficial.
Segundo, ela questionou diretamente a base legal usada pelo Pentágono: nada na legislação “permite que uma empresa americana seja rotulada como potencial adversária e sabotadora dos EUA por expressar discordância com o governo.”
A classificação de risco à cadeia de suprimentos foi criada para lidar com empresas de países hostis — não para silenciar empresas americanas que não cedem em negociações contratuais.
O que a Anthropic estava arriscando
O impacto das medidas do governo não era só reputacional.
A classificação do Pentágono tinha consequências práticas imediatas: empresas de defesa que usam tecnologia da Anthropic — e são muitas — precisariam cortar o uso ou arriscar perder contratos federais. Numa indústria onde contratos governamentais valem bilhões, ninguém toma esse risco levianamente.
A Anthropic argumentou que estava sofrendo danos financeiros e reputacionais significativos — e a juíza concordou que esses danos eram reais e irreversíveis o suficiente para justificar a liminar.
Ironicamente, quando o governo boicotou a Anthropic semanas atrás, o Claude disparou no ranking de downloads da App Store. O consumidor comum reagiu ao boicote fazendo exatamente o oposto do que Trump queria.
- Leia mais: E se existisse um passo a passo pro sucesso?
A raiz do conflito
A disputa expõe uma tensão real no desenvolvimento de IA para uso militar.
O governo americano quer IA poderosa e sem restrições para aplicações de defesa — especialmente com a corrida tecnológica com a China. Empresas como a Anthropic foram fundadas com preocupações explícitas sobre segurança e ética no desenvolvimento de IA, e não querem que seus modelos sejam usados em sistemas que matam sem supervisão humana.
São duas visões incompatíveis — e qualquer empresa de IA que tenha princípios vai eventualmente bater nessa parede ao negociar com o governo.
A Anthropic bateu. Recusou as condições. E quando o governo retaliou, foi à Justiça.
O que vem por aí
A liminar é temporária. A decisão final sobre a legalidade das ações do governo deve levar meses.
O governo pode apelar da liminar, tentar negociar novos termos com a Anthropic ou esperar pelo julgamento de mérito. Cada caminho tem custos políticos diferentes.
Para a Anthropic, a liminar é fôlego — não resolução. A empresa vai precisar manter a pressão judicial enquanto tenta construir um relacionamento com o governo que não exija abrir mão dos seus princípios fundadores.
Para o setor de IA mais amplo, o caso vai criar precedente sobre até onde o governo pode ir para pressionar empresas que não cedem em negociações. Se a Anthropic vencer no mérito, outras empresas terão mais segurança para resistir a demandas semelhantes.
O recado
A Anthropic recusou entregar sua tecnologia para uso sem restrições em armas autônomas. O governo respondeu com exclusão do mercado federal. A empresa foi à Justiça e, por enquanto, ganhou.
É o tipo de disputa que define precedentes. E está acontecendo no momento em que todos os grandes governos do mundo estão tentando garantir acesso privilegiado às melhores IAs disponíveis.
A batalha entre reguladores e desenvolvedores de IA costuma acontecer em audiências técnicas e documentos de política. Essa foi direto para o tribunal.
E o tribunal, por ora, ficou do lado da empresa que disse não para armas autônomas.




