O responsável descreveu isto como um exemplo de como as coisas podem funcionar, mas não confirmou ou negou se representa a forma como os sistemas de IA estão a ser utilizados atualmente.
Outros meios de comunicação relataram que o Claude da Anthropic foi integrado em sistemas militares de IA existentes e utilizado em operações no Irão e na Venezuela, mas os comentários do responsável acrescentam informações sobre o papel específico que os chatbots podem desempenhar, particularmente na aceleração da procura de alvos. Também esclarecem a forma como os militares estão a implementar duas tecnologias diferentes de IA, cada uma com limitações distintas.
Pelo menos desde 2017, os militares dos EUA têm trabalhado numa iniciativa de “big data” chamada Maven. Utiliza tipos mais antigos de IA, particularmente visão computacional, para analisar os oceanos de dados e imagens recolhidos pelo Pentágono. O Maven pode levar milhares de horas de filmagens aéreas de drones, por exemplo, e identificar alvos algoritmicamente. Um relatório de 2024 de Georgetown mostrou soldados usando o sistema para selecionar alvos e examiná-los, o que acelerou o processo de obtenção de aprovação para esses alvos. Os soldados interagiam com Maven por meio de uma interface com mapa e painel do campo de batalha, que podia destacar alvos potenciais em uma cor e forças amigas em outra.
Agora, os comentários do funcionário sugerem que a IA generativa está sendo adicionada como uma camada conversacional de chatbot – uma camada que os militares usariam para encontrar e analisar mais rapidamente os dados enquanto tomam decisões sobre quais alvos priorizar.
Os sistemas generativos de IA, como aqueles que sustentam ChatGPT, Claude e Grok, são uma tecnologia fundamentalmente diferente da IA que alimentou principalmente o Maven. Construídas com base em grandes modelos de linguagem, a sua utilização na guerra é muito mais recente e menos testada em batalha. E embora a interface antiga do Maven obrigasse os usuários a inspecionar e interpretar diretamente os dados no mapa, os resultados fornecidos pelos modelos generativos de IA são mais fáceis de acessar, mas mais difíceis de verificar.
A utilização de IA generativa para tais decisões está a reduzir o tempo necessário no processo de seleção de alvos, acrescentou o responsável, mas não forneceu detalhes quando questionado sobre quanta velocidade adicional é possível se os humanos forem obrigados a gastar tempo a verificar novamente os resultados de um modelo.
A utilização de sistemas militares de IA está sob crescente escrutínio público após o recente ataque a uma escola para raparigas no Irão, em que morreram mais de cem crianças. Vários meios de comunicação informaram que o ataque foi de um míssil dos EUA, embora o Pentágono tenha dito que ainda está sob investigação. E enquanto o Washington Post relatou que Claude e Maven estiveram envolvidos em decisões de direcionamento no Irã, ainda não há evidências que expliquem qual o papel que os sistemas generativos de IA desempenharam, se houver. O New York Times informou na quarta-feira que uma investigação preliminar descobriu que dados desatualizados de segmentação eram parcialmente responsáveis pelo ataque.



