NEGÓCIOS

Anthropic processou o governo Trump, e ganhou a primeira batalha

image

Uma juíza federal em São Francisco concedeu uma liminar à Anthropic, suspendendo temporariamente as medidas do governo Trump que buscavam excluir a empresa do mercado federal americano.

A decisão bloqueia, por ora, a ordem de Trump proibindo agências federais de usar os modelos Claude — e impede o Pentágono de classificar a Anthropic como ameaça à segurança nacional dos EUA.

É uma liminar, não uma vitória final. Mas é o suficiente para a empresa continuar operando enquanto o caso vai para julgamento de mérito.

O que o governo Trump fez

A história começa numa negociação que não deu certo.

O Departamento de Defesa queria acesso amplo aos modelos da Anthropic para todos os usos permitidos em lei — incluindo, nas entrelinhas, aplicações militares sem restrições explícitas. A Anthropic queria garantias de que sua tecnologia não seria usada em armas totalmente autônomas ou em vigilância em massa doméstica.

Sem acordo, o impasse escalou rapidamente.

O Pentágono incluiu a Anthropic numa lista de “risco para a cadeia de suprimentos” — classificação que até então era reservada a empresas de países adversários, como China e Rússia. Na prática, isso obriga grandes contratadas de defesa — Amazon, Microsoft, Palantir — a certificarem que não usam os modelos da empresa em trabalhos militares.

Trump foi mais direto. Num post em rede social, chamou a Anthropic de “companhia de IA radical de esquerda” e ordenou que agências federais deixassem de usar a tecnologia.

O que a juíza disse

A juíza Rita Lin foi clara na decisão — e foi além do esperado numa liminar.

Primeiro, ela concluiu que “punir a Anthropic por trazer escrutínio público à posição contratual do governo é um caso clássico de retaliação ilegal sob a Primeira Emenda.” Em outras palavras: o governo está tentando punir a empresa por discordar publicamente da posição oficial.

Segundo, ela questionou diretamente a base legal usada pelo Pentágono: nada na legislação “permite que uma empresa americana seja rotulada como potencial adversária e sabotadora dos EUA por expressar discordância com o governo.”

A classificação de risco à cadeia de suprimentos foi criada para lidar com empresas de países hostis — não para silenciar empresas americanas que não cedem em negociações contratuais.

O que a Anthropic estava arriscando

O impacto das medidas do governo não era só reputacional.

A classificação do Pentágono tinha consequências práticas imediatas: empresas de defesa que usam tecnologia da Anthropic — e são muitas — precisariam cortar o uso ou arriscar perder contratos federais. Numa indústria onde contratos governamentais valem bilhões, ninguém toma esse risco levianamente.

A Anthropic argumentou que estava sofrendo danos financeiros e reputacionais significativos — e a juíza concordou que esses danos eram reais e irreversíveis o suficiente para justificar a liminar.

Ironicamente, quando o governo boicotou a Anthropic semanas atrás, o Claude disparou no ranking de downloads da App Store. O consumidor comum reagiu ao boicote fazendo exatamente o oposto do que Trump queria.

A raiz do conflito

A disputa expõe uma tensão real no desenvolvimento de IA para uso militar.

O governo americano quer IA poderosa e sem restrições para aplicações de defesa — especialmente com a corrida tecnológica com a China. Empresas como a Anthropic foram fundadas com preocupações explícitas sobre segurança e ética no desenvolvimento de IA, e não querem que seus modelos sejam usados em sistemas que matam sem supervisão humana.

São duas visões incompatíveis — e qualquer empresa de IA que tenha princípios vai eventualmente bater nessa parede ao negociar com o governo.

A Anthropic bateu. Recusou as condições. E quando o governo retaliou, foi à Justiça.

O que vem por aí

A liminar é temporária. A decisão final sobre a legalidade das ações do governo deve levar meses.

O governo pode apelar da liminar, tentar negociar novos termos com a Anthropic ou esperar pelo julgamento de mérito. Cada caminho tem custos políticos diferentes.

Para a Anthropic, a liminar é fôlego — não resolução. A empresa vai precisar manter a pressão judicial enquanto tenta construir um relacionamento com o governo que não exija abrir mão dos seus princípios fundadores.

Para o setor de IA mais amplo, o caso vai criar precedente sobre até onde o governo pode ir para pressionar empresas que não cedem em negociações. Se a Anthropic vencer no mérito, outras empresas terão mais segurança para resistir a demandas semelhantes.

O recado

A Anthropic recusou entregar sua tecnologia para uso sem restrições em armas autônomas. O governo respondeu com exclusão do mercado federal. A empresa foi à Justiça e, por enquanto, ganhou.

É o tipo de disputa que define precedentes. E está acontecendo no momento em que todos os grandes governos do mundo estão tentando garantir acesso privilegiado às melhores IAs disponíveis.

A batalha entre reguladores e desenvolvedores de IA costuma acontecer em audiências técnicas e documentos de política. Essa foi direto para o tribunal.

E o tribunal, por ora, ficou do lado da empresa que disse não para armas autônomas.

Fonte