Decrypt logoAnthropic's Claude AI. Image: Shutterstock/Decrypt

Em resumo

  • A Anthropic diz que três laboratórios chineses de IA extraíram resultados de Claude em grande escala usando contas fraudulentas.
  • A empresa alega que a atividade prejudica os controles de exportação e elimina as salvaguardas de segurança.
  • Os críticos do X estão acusando a Anthropic de hipocrisia sobre como os modelos de IA são treinados.

A Anthropic acusou três laboratórios chineses de IA de extrair milhões de respostas de seu chatbot Claude para treinar sistemas concorrentes, uma medida que a empresa afirma violar seus termos de serviço e enfraquecer os controles de exportação dos EUA.

Em uma postagem de blog publicada na segunda-feira, a Anthropic disse que identificou “campanhas em escala industrial” dos desenvolvedores de IA DeepSeek, Moonshot e MiniMax para extrair as capacidades de Claude por meio da destilação de modelo. A empresa alegou que os laboratórios geraram mais de 16 milhões de trocas usando cerca de 24 mil contas fraudulentas.

O anúncio da Antrópico atraiu ceticismo e zombaria em X, onde os críticos questionaram sua posição dada a forma como os principais modelos de IA, incluindo Claude, são treinados, refletindo o debate mais amplo em curso sobre propriedade intelectual, direitos autorais e uso justo.

“Você treinou na Internet aberta e depois chama isso de ‘ataques de destilação’ quando outros aprendem com você”, escreveu Tory Green, cofundador da empresa de infraestrutura de IA IO.Net. “Laboratórios que gostam de pregar ‘pesquisa aberta’ de repente choram por acesso aberto.”

“Ohhh não, não é meu IP privado, como alguém se atreve a usar isso para treinar um modelo de IA, apenas a Anthropic tem o direito de usar o IP de todos os outros, não, isso não pode suportar!” outro usuário X escreveu.

A destilação é um método de treinamento de IA no qual um modelo menor aprende com os resultados de um modelo maior.

Em contextos de cibersegurança, também pode descrever ataques de extração de modelos, onde um atacante utiliza acesso legítimo para consultar sistematicamente um sistema e utilizar as suas respostas para treinar um modelo concorrente.

“Essas campanhas estão crescendo em intensidade e sofisticação”, escreveu a Anthropic na segunda-feira. “A janela para agir é estreita e a ameaça estende-se para além de qualquer empresa ou região. Enfrentá-la exigirá uma ação rápida e coordenada entre os intervenientes da indústria, os decisores políticos e a comunidade global de IA.”

“A destilação pode ser legítima: os laboratórios de IA a utilizam para criar modelos menores e mais baratos para seus clientes”, escreveu a Anthropic em um post X separado. “Mas os laboratórios estrangeiros que destilam ilicitamente modelos americanos podem remover salvaguardas, alimentando capacidades de modelo nos seus próprios sistemas militares, de inteligência e de vigilância.”

Em junho, o Reddit processou a Anthropic, acusando-a de copiar mais de 100.000 postagens e comentários e usar os dados para ajustar Claude.

O caso junta-se a ações judiciais contra OpenAI, Meta e Google sobre a extração em grande escala de conteúdo online sem permissão.

“(Há) a face pública que tenta se insinuar na consciência do consumidor com reivindicações de retidão e respeito pelos limites e pela lei, e a face privada que ignora quaisquer regras que interfiram em suas tentativas de encher ainda mais seus bolsos”, disse o processo do Reddit.

A Anthropic disse que está expandindo a detecção, reforçando a verificação de contas, compartilhando informações com outros laboratórios e autoridades e adicionando salvaguardas para limitar futuras tentativas de destilação.

“Mas nenhuma empresa pode resolver isso sozinha”, escreveu a Anthropic. “Como observamos acima, os ataques de destilação nesta escala exigem uma resposta coordenada em toda a indústria de IA, provedores de nuvem e legisladores.”

Resumo Diário Boletim informativo

Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.



Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *