Anthropic nega “botão de desligamento” da IA em disputa com o Pentágono
Por Chase Codewell · 2026-04-26
Anthropic nega controle remoto no Claude e contesta o Pentágono na Justiça. Entenda o caso, as salvaguardas e a disputa por IA militar.
A empresa de inteligência artificial Anthropic negou, em um documento apresentado à Justiça, as acusações do Pentágono de que manteria algum tipo de controle remoto sobre seus modelos Claude depois que eles são implantados em redes militares classificadas. A disputa, que agora se desenrola em tribunais federais dos Estados Unidos, expõe um conflito mais amplo entre empresas de IA, exigências de segurança nacional e limites éticos para o uso de sistemas avançados em operações governamentais e militares.
Segundo a companhia, não existe “porta dos fundos” nem “botão de desligamento” remoto para seus sistemas, e seus funcionários não teriam acesso aos sistemas do Departamento de Defesa para alterar ou desativar um modelo em execução. A empresa afirma ainda que o Claude fornecido ao governo funciona como um modelo estático, ou seja, não se modifica por conta própria depois de implantado e não recebe alterações não autorizadas por parte da Anthropic. Esse ponto é central para a argumentação da companhia de que não haveria um risco contínuo de cadeia de suprimentos associado ao uso do sistema pelo governo.
O centro da disputa entre Anthropic e o Pentágono
O conflito surgiu a partir de uma divergência sobre o nível de autonomia que o governo dos Estados Unidos buscava para empregar a tecnologia da Anthropic. De um lado, o Departamento de Guerra queria utilizar o Claude para “todos os fins militares legais”. De outro, a Anthropic sustentou que seus mecanismos internos de proteção impedem usos ligados à vigilância em massa e a armas totalmente autônomas. Em documentos judiciais, a empresa afirma que recusou retirar essas barreiras éticas e que essa negativa teria contribuído para a decisão do governo de classificá-la como risco à cadeia de suprimentos para a segurança nacional.
A classificação foi anunciada em 27 de fevereiro e teve efeito imediato sobre os negócios da companhia com o setor público. Na prática, esse tipo de designação normalmente é reservado a entidades associadas a riscos de segurança relevantes e pode barrar contratos diretos com órgãos governamentais, além de impedir que outros contratados federais utilizem os produtos da empresa. A Anthropic afirma que a medida foi uma retaliação por sua recusa em eliminar salvaguardas contra o uso de sua IA em cenários considerados sensíveis ou perigosos.
O processo foi aberto em 9 de março contra o Departamento de Guerra e o secretário Pete Hegseth. A empresa também argumenta que o governo excedeu sua autoridade legal ao agir contra ela por manter políticas de segurança ligadas a IA. O caso chamou a atenção de outras empresas do setor, e a Microsoft apresentou um documento de apoio à Anthropic em um pedido para suspender temporariamente a decisão do governo.
O que significa um modelo estático em um sistema militar
Um dos conceitos técnicos mais importantes do caso é a ideia de modelo estático. Em termos práticos, isso significa que, depois de instalado em um ambiente controlado, o sistema não passa por mudanças autônomas nem pode ser atualizado pela empresa sem autorização formal. A Anthropic afirma que, uma vez implantado em uma rede segura do Pentágono, o Claude fica isolado e fora do alcance de comandos externos da companhia.
Essa explicação é relevante porque ajuda a separar duas questões diferentes: a posse do modelo e o controle operacional sobre ele depois da implantação. Na visão da Anthropic, o fato de fornecer a tecnologia não significa manter acesso contínuo ao sistema em uso. Já a acusação do Pentágono sugere preocupação com a possibilidade de influência residual da empresa ou com riscos relacionados à dependência tecnológica. A defesa da Anthropic tenta mostrar que essa interpretação não corresponde à realidade técnica da implementação.
Outro termo importante nesse debate é cadeia de suprimentos, expressão usada em segurança da informação para descrever a rede de software, componentes, fornecedores e integrações que sustentam um sistema. Um risco de cadeia de suprimentos ocorre quando há possibilidade de comprometimento de um produto por meio de suas origens, atualizações ou dependências. A empresa argumenta que sua IA, nesse contexto, não representa esse tipo de ameaça porque não consegue alterar o sistema depois da entrega e não possui um mecanismo remoto para desligá-lo.
As decisões judiciais e o cenário jurídico fragmentado
A disputa já produziu decisões conflitantes em diferentes instâncias federais. O Tribunal de Apelações do Distrito de Columbia negou, neste mês, o pedido da Anthropic para suspender com urgência a designação de risco à cadeia de suprimentos. Em paralelo, porém, a juíza federal Rita Lin, no Distrito Norte da Califórnia, concedeu uma liminar preliminar em 26 de março, bloqueando temporariamente a aplicação da medida pelo governo.
Na decisão, a magistrada entendeu que havia probabilidade de a ação do Pentágono configurar retaliação ilegal contra a empresa por suas posições sobre protocolos de segurança em IA. Essa liminar impede, por ora, que o governo encerre os contratos existentes com a Anthropic enquanto o processo continua. Ao mesmo tempo, a empresa ainda permanece impedida de iniciar novos trabalhos com o Pentágono, embora possa seguir com parcerias em outras agências federais.
Esse cenário mostra como o litígio se tornou incomum até mesmo para padrões do setor de tecnologia. A combinação de contratos públicos, exigências éticas sobre uso de IA e alegações de retaliação política cria um caso com forte impacto regulatório. O próprio contexto político adiciona pressão adicional, já que o presidente Donald Trump criticou publicamente a empresa e a acusou de ser comandada por “esquerdistas radicais”.
Guardrails, autonomia e uso militar de IA
As chamadas salvaguardas ou guardrails são um conjunto de limites incorporados ao funcionamento de um modelo de IA para restringir determinados usos. No caso da Anthropic, essas restrições proibiriam aplicações ligadas à vigilância em massa e a armas totalmente autônomas. A empresa sustenta que essas barreiras não são opcionais nem meramente simbólicas, mas parte estrutural do produto.
Esse detalhe ajuda a explicar por que o caso ultrapassou a simples discussão contratual. A questão passou a envolver o direito de uma empresa impor limites éticos ao uso de sua tecnologia, mesmo quando o comprador é o governo dos Estados Unidos. O Departamento de Guerra, por sua vez, teria buscado um grau mais amplo de flexibilidade operacional, o que entrou em choque direto com as políticas internas da companhia.
O conflito também reforça o debate sobre o papel da IA em ambientes militares. Sistemas de IA podem acelerar análise de dados, apoiar decisões táticas e automatizar tarefas operacionais, mas seu emprego em contextos de defesa levanta preocupações sobre supervisão humana, responsabilidade por decisões e possibilidade de uso indevido. Quando uma empresa insiste em limites de uso, isso pode ser visto como uma forma de gestão de risco. Quando o governo insiste em maior liberdade operacional, a tensão se transforma em uma disputa sobre soberania tecnológica e poder institucional.
Repercussões para o setor de tecnologia e para o governo
O caso da Anthropic é relevante porque pode influenciar a forma como outras empresas de IA negociam com governos e grandes contratantes públicos. Se uma companhia consegue manter salvaguardas específicas em seus modelos e, ainda assim, sustentar judicialmente que não há controle remoto após a implantação, isso cria um precedente importante sobre responsabilidade técnica e limites contratuais.
Ao mesmo tempo, a designação de risco à cadeia de suprimentos mostra o quanto mecanismos administrativos podem afetar rapidamente a relação entre empresas de tecnologia e o setor público. Uma classificação desse tipo não apenas bloqueia contratos diretos, mas também pode irradiar seus efeitos para outros parceiros do ecossistema federal. Para empresas que dependem de vendas governamentais, o impacto pode ser significativo, porque restringe acesso a projetos, receitas e posicionamento estratégico no mercado.
O episódio também evidencia a crescente pressão sobre desenvolvedores de IA para equilibrar capacidade técnica e controle ético. À medida que modelos mais avançados ganham espaço em áreas sensíveis, como cibersegurança, defesa e análise de informações, cresce a necessidade de definir quem pode usá-los, com quais limites e sob quais garantias de supervisão. Isso afeta não apenas a Anthropic, mas todo o setor de inteligência artificial que tenta se consolidar em ambientes regulados.
Um caso que ultrapassa a disputa contratual
A controvérsia entre Anthropic e Pentágono sintetiza uma das maiores tensões da IA atual: a distância entre o potencial técnico de modelos cada vez mais poderosos e os limites institucionais para seu emprego. A empresa afirma que seu sistema não pode ser controlado remotamente após a implantação e que suas salvaguardas existem justamente para impedir usos considerados inadequados. O governo, por sua vez, reagiu com uma medida severa ao classificar a companhia como risco à segurança nacional.
Com decisões judiciais divergentes e forte impacto político, o caso ainda está longe de uma definição final. Mas ele já deixa claro que a discussão sobre IA militar não se resume ao desempenho dos modelos. Ela envolve governança, controle de acesso, responsabilidade legal, ética corporativa e segurança nacional. Em um setor onde a adoção cresce rapidamente, disputas como essa tendem a influenciar contratos, regulações e a relação entre empresas de tecnologia e Estado nos próximos anos.
Referência: https://www.naturalnews.com/2026-04-26-anthtropic-denies-pentagon-claims-ai-kill-switch.html
Sobre o autor
Chase Codewell — Conteúdo revisado pela equipe editorial do GeraDocumentos, com foco em IA, produtividade e criação de documentos profissionais.