A empresa americana de inteligência artificial Anthropic entrou com uma ação judicial para impedir que o Pentágono a inclua em uma lista negra de segurança nacional, abrindo uma nova frente no conflito entre a empresa e as forças armadas dos EUA sobre o uso de IA em operações militares.
O processo, apresentado em um tribunal federal na Califórnia, pede a um juiz que revogue a designação e impeça as agências federais de implementá-la. A Anthropic argumenta que a decisão do Departamento de Defesa é ilegal e viola seus direitos constitucionais, incluindo a liberdade de expressão e o devido processo legal.
"Essas ações são sem precedentes e ilegais. A Constituição não autoriza o governo a usar seu poder para punir uma empresa por exercer sua liberdade de expressão", afirmou a empresa em sua queixa.
O Pentágono classificou oficialmente a Anthropic como um risco para a cadeia de suprimentos, restringindo severamente o uso de sua tecnologia por agências federais. Segundo fontes familiarizadas com o assunto, os sistemas de inteligência artificial da empresa foram utilizados em algumas operações militares dos EUA, inclusive no contexto do conflito com o Irã.
A decisão do secretário de Defesa dos EUA, Pete Hegseth, teria ocorrido depois que a Anthropic se recusou a flexibilizar as restrições ao uso de sua IA. A empresa proíbe especificamente que sua tecnologia seja usada para armas autônomas ou programas de vigilância doméstica.
As discussões entre as duas partes se intensificaram nos últimos meses, sem que se chegasse a um acordo. Apesar dos processos judiciais, a Anthropic indicou que permanece aberta a negociações com o governo dos EUA.
Nesse contexto, o presidente Donald Trump Também apelou, através das redes sociais, a todas as agências federais para que deixassem de usar Claude, o assistente de inteligência artificial desenvolvido pela Anthropic, aumentando a pressão sobre a startup e seus investidores.