A Anthropic, desenvolvedora do assistente de inteligência artificial Claude, retomou as discussões com o governo dos Estados Unidos para regulamentar o uso militar de suas tecnologias. A movimentação ocorre após um impasse sobre a aplicação de seus modelos pelas Forças Armadas, conforme revelou o jornal Financial Times nesta quinta-feira (5).
Restrições e riscos contratuais
O retorno à mesa de negociações sucede uma ordem do presidente Donald Trump, emitida na sexta-feira (27), que instruiu agências federais a interromperem o uso de programas da companhia. Paralelamente, o secretário de Guerra, Pete Hegseth, sugeriu que a Anthropic poderia ser classificada como um risco para a cadeia de fornecimento, medida que forçaria empresas do setor de defesa a cortar parcerias com a startup.
Histórico de operações e mercado
Mesmo sob ordens de restrição, as Forças Armadas dos EUA utilizaram o Claude em operações militares recentes. Segundo o The Wall Street Journal, o assistente foi empregado em ofensivas contra o Irã para auxiliar em tarefas estratégicas:
- Avaliações de inteligência de campo;
- Identificação de alvos;
- Simulação de cenários de batalha.
A Anthropic, atualmente avaliada em US$ 380 bilhões, foi a primeira empresa de IA a firmar um contrato direto com a defesa americana para fins militares, em julho de 2025, em um acordo de US$ 200 milhões. O novo entendimento com o governo é visto como essencial para manter a competitividade frente à OpenAI, que também liberou o uso de seus modelos pelo Pentágono na última semana.
