Notícias

Segundo relatos, as forças armadas dos EUA usaram a empresa Antrópica durante um grande ataque aéreo contra o Irã, poucas horas depois de o presidente Donald Trump ter ordenado que as agências federais suspendessem o uso dos sistemas da empresa.

Comandos militares, incluindo o Comando Central dos EUA (CENTCOM) no Oriente Médio, utilizaram o modelo de IA Claude da Anthropic para apoio operacional, de acordo com pessoas familiarizadas com os assuntos mencionados pelo The Wall Street Journal. A ferramenta teria auxiliado na análise de inteligência, na identificação de alvos potenciais e na execução de simulações de campo de batalha.

O incidente demonstra o quão profundamente os sistemas avançados de IA foram integrados às operações de defesa. Mesmo quando o governo tomou medidas para romper os laços com a empresa, Claude reuniu-se em fluxos de trabalho militares.

Na sexta-feira, o governo Trump instruiu as agências a interromperem o trabalho com a empresa e orientou o Departamento de Defesa a tratar como um potencial risco à segurança. A ordem veio após o fracasso das negociações contratuais, com a Anthropic se recusando a conceder o uso militar irrestrito de sua IA para qualquer cenário legal solicitado pelas autoridades de defesa.

IA Claude da Anthropic é usado para transações provisórias

A Anthropic já havia garantido um contrato plurianual com o Pentágono, no valor de até US$ 200 milhões, em parceria com diversos grandes laboratórios de IA. Por meio de parcerias envolvendo a Palantir e a Amazon Web Services, o sistema Claude foi aprovado para uso em fluxos de trabalho operacionais e de inteligência especializados. O sistema também teria participado de operações anteriores, incluindo uma missão em janeiro na Venezuela que resultou na captura do presidente Nicolás Maduro.

As contribuições aumentaram depois que o Secretário de Defesa Pete Hegseth fez com que a empresa permitisse o uso militar irrestrito de seus modelos. O CEO da Anthropic, Dario Amodei, rejeitou o pedido, descrevendo certas aplicações como limites éticos que a empresa não ultrapassaria, mesmo que isso significasse perder contratos governamentais.

Em resposta, o Pentágono começou a selecionar fornecedores substitutos, chegando a um acordo com a OpenAI para implantar seus modelos de IA em redes militares especiais.

OpenAI enfrentou acontecimento negativo após fechar acordo com o exército dos EUA. Fonte: Sreemoy Talukdar

CEO da Anthropic se opõe à proibição do Pentágono

Durante uma entrevista no sábado, o CEO da Anthropic, Dario Amodei, afirmou que a empresa se opõe ao uso de seus modelos de IA para vigilância doméstica em massa e armas totalmente autônomas, em resposta a uma convenção do governo dos EUA que classificou a empresa como um “risco para a cadeia de suprimentos” da área de defesa e proibiu contratados de usar seus produtos.

Ele argumentou que certas aplicações ultrapassam fronteiras fundamentais, enfatizando que as decisões militares devem permanecer sob controle humano, em vez de serem delegadas internamente às máquinas.