AP Photo/Alex Brandon

Espera-se que as versões de treinamento de modelos de IA em dados confidenciais os tornem mais precisos e eficazes em determinadas tarefas, de acordo com um oficial de defesa dos EUA que falou em segundo plano com Revisão de tecnologia do MIT. A notícia chega num momento em que a procura por modelos mais poderosos é elevada: o Pentágono chegou a acordos com a OpenAI e a xAI de Elon Musk para operar os seus modelos em ambientes confidenciais e está a implementar uma nova agenda para se tornar uma “força de combate ‘AI-first’” à medida que o conflito com o Irão aumenta. (O Pentágono não comentou sobre os seus planos de treinamento em IA até o momento da publicação.)

O treinamento seria realizado em um data center seguro, credenciado para hospedar projetos governamentais confidenciais e onde uma cópia de um modelo de IA fosse combinada com dados confidenciais, de acordo com duas pessoas familiarizadas com o funcionamento dessas operações. Embora o Departamento de Defesa continue sendo o proprietário dos dados, o pessoal das empresas de IA poderá, em casos raros, acessar os dados se tiver autorização de segurança adequada, disse o funcionário.

Antes de permitir este novo treinamento, porém, disse o funcionário, o Pentágono pretende avaliar quão precisos e eficazes são os modelos quando treinados em dados não classificados, como imagens de satélite disponíveis comercialmente.

Os militares há muito que utilizam modelos de visão computacional, uma forma mais antiga de IA, para identificar objetos em imagens e filmagens que recolhem de drones e aviões, e agências federais adjudicaram contratos a empresas para treinar modelos de IA nesse tipo de conteúdo. E as empresas de IA que constroem grandes modelos de linguagem (LLMs) e chatbots criaram versões dos seus modelos afinadas para o trabalho governamental, como Claude Gov da Anthropic, que são concebidos para operar em mais idiomas e em ambientes seguros. Mas os comentários do funcionário são a primeira indicação de que as empresas de IA que constroem LLMs, como OpenAI e xAI, poderiam treinar versões específicas do governo de seus modelos diretamente em dados confidenciais.

Aalok Mehta, que dirige o Centro Wadhwani de IA no Centro de Estudos Estratégicos e Internacionais e anteriormente liderou esforços políticos de IA no Google e OpenAI, diz que o treinamento em dados classificados, em vez de apenas responder a perguntas sobre eles, apresentaria novos riscos.

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *