O arquivamento, publicado em 19 de setembro, é fortemente redigido e o cofundador e CEO da colméia Kevin Guo disse MIT Technology Review que ele não pôde discutir os detalhes do contrato, mas confirmou que envolve o uso dos algoritmos de detecção de IA da empresa para material de abuso sexual infantil (CSAM).
O arquivamento cita dados do Centro Nacional de Crianças Falsas e Exploradas que relataram um aumento de 1.325% nos incidentes envolvendo IA generativa em 2024.
A primeira prioridade dos investigadores de exploração infantil é encontrar e interromper qualquer abuso que esteja acontecendo atualmente, mas a inundação de CSAM gerada pela IA dificultou os pesquisadores a saber se as imagens retratam uma vítima real atualmente em risco. Uma ferramenta que poderia sinalizar com sucesso as vítimas reais seria uma ajuda maciça quando tentarem priorizar os casos.
Identificar imagens geradas pela IA “garante que os recursos investigativos estejam focados em casos envolvendo vítimas reais, maximizando o impacto do programa e protegendo indivíduos vulneráveis”, diz o arquivamento.
A Hive AI oferece ferramentas de IA que criam vídeos e imagens, bem como uma variedade de ferramentas de moderação de conteúdo que podem sinalizar violência, spam e material sexual e até identificar celebridades. Em dezembro, MIT Technology Review relatou que a empresa estava vendendo sua tecnologia de detecção de DeepFake para as forças armadas dos EUA.