<em>Alibaba’s Qwen2 consistently ranks second only to Meta’s Llama across 175,000 exposed hosts globally. Source: SentinelOne/Censys</em>

Porque os laboratórios ocidentais de IA não querem — ou não podem — mais. À medida que a OpenAI, a Anthropic e a Google enfrentam uma pressão crescente para restringir os seus modelos mais poderosos, os programadores chineses preencheram o vazio do código aberto com IA construída explicitamente para o que os operadores precisam: modelos poderosos que funcionam em hardware comum.

Um novo estudo de segurança revela até que ponto a IA chinesa capturou este espaço. Uma pesquisa publicada pela SentinelOne e Censys, mapeando 175.000 hosts de IA expostos em 130 países ao longo de 293 dias, mostra que o Qwen2 do Alibaba está consistentemente atrás apenas do Llama da Meta em implantação global. Mais revelador é que o modelo chinês aparece em 52% dos sistemas que executam vários modelos de IA – sugerindo que se tornou a alternativa de facto ao Llama.

“Nos próximos 12 a 18 meses, esperamos que as famílias de modelos de origem chinesa desempenhem um papel cada vez mais central no ecossistema LLM de código aberto, especialmente à medida que os laboratórios da fronteira ocidental retardam ou restringem os lançamentos de peso aberto”, Gabriel Bernadett-Shapiro, distinto cientista pesquisador de IA da SentinelOne, disse ao TechForge Media’s Notícias sobre IA.

A descoberta chega no momento em que OpenAI, Anthropic e Google enfrentam escrutínio regulatório, sobrecarga de revisão de segurança e incentivos comerciais que os empurram para lançamentos controlados por API, em vez de publicar pesos de modelo livremente. O contraste com os desenvolvedores chineses não poderia ser mais nítido.

Os laboratórios chineses demonstraram o que Bernadett-Shapiro chama de “disposição para publicar pesos grandes e de alta qualidade que sejam explicitamente otimizados para implantação local, quantização e hardware comum”.

“Na prática, isso os torna mais fáceis de adotar, mais fáceis de operar e mais fáceis de integrar em ambientes residenciais e de ponta”, acrescentou.

Simplificando: se você é um pesquisador ou desenvolvedor que deseja executar IA poderosa em seu próprio computador sem um orçamento enorme, modelos chineses como o Qwen2 costumam ser sua melhor – ou única – opção.

Pragmática, não ideologia

O Qwen2 do Alibaba está consistentemente atrás apenas do Llama do Meta em 175.000 hosts expostos em todo o mundo. Fonte: SentinelOne/Censys

A pesquisa mostra que esse domínio não é acidental. Qwen2 mantém o que Bernadett-Shapiro chama de “volatilidade de classificação zero” – ele ocupa a segunda posição em todos os métodos de medição que os pesquisadores examinaram: observações totais, hosts únicos e dias de host. Não há flutuação, nem variação regional, apenas adoção global consistente.

O padrão de co-implantação é igualmente revelador. Quando as operadoras executam vários modelos de IA no mesmo sistema – uma prática comum para comparação ou segmentação de carga de trabalho – o emparelhamento de Llama e Qwen2 aparece em 40.694 hosts, representando 52% de todas as implantações multifamiliares.

A concentração geográfica reforça o quadro. Na China, só Pequim é responsável por 30% dos anfitriões expostos, com Xangai e Guangdong somando outros 21% combinados. Nos Estados Unidos, a Virgínia — refletindo a densidade da infraestrutura da AWS — representa 18% dos hosts.

A China e os EUA dominam a distribuição de anfitriões Ollama expostos, sendo Pequim responsável por 30% das implantações chinesas. Fonte: SentinelOne/Censys

“Se a velocidade de lançamento, a abertura e a portabilidade de hardware continuarem a divergir entre as regiões, as linhagens do modelo chinês provavelmente se tornarão o padrão para implantações abertas, não por causa da ideologia, mas por causa da disponibilidade e da pragmática”, explicou Bernadett-Shapiro.

O problema da governança

Esta mudança cria o que Bernadett-Shapiro caracteriza como uma “inversão de governação” – uma inversão fundamental na forma como o risco e a responsabilização da IA ​​são distribuídos.

Em serviços hospedados em plataformas como ChatGPT, uma empresa controla tudo: a infraestrutura, monitora o uso, implementa controles de segurança e pode eliminar abusos. Nos modelos de peso aberto, o controle evapora. A responsabilização difunde-se por milhares de redes em 130 países, enquanto a dependência se concentra a montante num punhado de fornecedores modelo – cada vez mais os chineses.

Os 175 mil hosts expostos operam inteiramente fora dos sistemas de controle que regem as plataformas comerciais de IA. Não há autenticação centralizada, limitação de taxa, detecção de abuso e, principalmente, nenhum interruptor de interrupção se o uso indevido for detectado.

“Depois que um modelo de peso aberto é lançado, é trivial remover o treinamento de segurança ou proteção”, observou Bernadett-Shapiro. “Os laboratórios de fronteira precisam tratar os lançamentos de peso aberto como artefatos de infraestrutura de longa duração.”

Um backbone persistente de 23.000 hosts com tempo de atividade médio de 87% impulsiona a maior parte das atividades. Não se trata de experimentos amadores – são sistemas operacionais que fornecem utilidade contínua, muitas vezes executando vários modelos simultaneamente.

Talvez o mais preocupante seja o facto de entre 16% e 19% da infraestrutura não poder ser atribuída a nenhum proprietário identificável. “Mesmo que consigamos provar que um modelo foi aproveitado num ataque, não existem rotas de denúncia de abusos bem estabelecidas”, disse Bernadett-Shapiro.

Segurança sem grades de proteção

Quase metade (48%) dos hosts expostos anunciam “recursos de chamada de ferramentas” – o que significa que eles não estão apenas gerando texto. Eles podem executar código, acessar APIs e interagir com sistemas externos de forma autônoma.

“Um modelo somente de texto pode gerar conteúdo prejudicial, mas um modelo de chamada de ferramenta pode agir”, explicou Bernadett-Shapiro. “Em um servidor não autenticado, um invasor não precisa de malware ou credenciais; ele só precisa de um aviso.”

Quase metade dos hosts Ollama expostos possuem recursos de chamada de ferramentas que podem executar código e acessar sistemas externos. Fonte: SentinelOne/Censys

O cenário de maior risco envolve o que ele chama de “pontos de extremidade de automação ou RAG habilitados para ferramentas e expostos sendo conduzidos remotamente como uma camada de execução”. Um invasor pode simplesmente pedir ao modelo para resumir documentos internos, extrair chaves de API de repositórios de código ou chamar serviços downstream que o modelo está configurado para acessar.

Quando combinado com modelos de “pensamento” otimizados para raciocínio em várias etapas – presentes em 26% dos hosts – o sistema pode planejar operações complexas de forma autônoma. Os pesquisadores identificaram pelo menos 201 hosts executando configurações “sem censura” que removem explicitamente as proteções de segurança, embora Bernadett-Shapiro observe que isso representa um limite inferior.

Em outras palavras, não são apenas chatbots – são sistemas de IA que podem agir, e metade deles não tem proteção por senha.

O que os laboratórios de fronteira devem fazer

Para os desenvolvedores ocidentais de IA preocupados em manter a influência sobre a trajetória da tecnologia, Bernadett-Shapiro recomenda uma abordagem diferente para o lançamento de modelos.

“Os laboratórios fronteiriços não podem controlar a implantação, mas podem moldar os riscos que libertam para o mundo”, disse ele. Isso inclui “investir na monitorização pós-libertação da adopção e dos padrões de utilização indevida a nível do ecossistema”, em vez de tratar as libertações como resultados de investigação pontuais.

O atual modelo de governança pressupõe uma implantação centralizada com fornecimento difuso a montante – exatamente o oposto do que realmente está acontecendo. “Quando um pequeno número de linhagens domina o que pode ser executado em hardware comum, as decisões upstream são amplificadas em todos os lugares”, explicou ele. “As estratégias de governação devem reconhecer essa inversão.”

Mas o reconhecimento requer visibilidade. Atualmente, a maioria dos laboratórios que lançam modelos de peso aberto não têm uma maneira sistemática de rastrear como estão sendo usados, onde são implantados ou se o treinamento de segurança permanece intacto após a quantização e o ajuste fino.

A perspectiva de 12 a 18 meses

Bernadett-Shapiro espera que a camada exposta “persista e se profissionalize” à medida que o uso de ferramentas, agentes e entradas multimodais se tornem capacidades padrão em vez de exceções. A borda transitória continuará se agitando à medida que os amadores experimentam, mas a espinha dorsal se tornará mais estável, mais capaz e lidará com dados mais confidenciais.

A aplicação permanecerá desigual porque as implantações residenciais e de pequenos VPS não correspondem aos controles de governança existentes. “Este não é um problema de configuração incorreta”, enfatizou. “Estamos observando a formação inicial de um substrato de computação de IA público e não gerenciado. Não há um interruptor central a ser acionado.”

A dimensão geopolítica acrescenta urgência. “Quando a maior parte da computação de IA não gerenciada do mundo depende de modelos lançados por um punhado de laboratórios não ocidentais, as suposições tradicionais sobre influência, coordenação e resposta pós-lançamento tornam-se mais fracas”, disse Bernadett-Shapiro.

Para os promotores e decisores políticos ocidentais, a implicação é gritante: “Mesmo a governação perfeita das suas próprias plataformas tem um impacto limitado na superfície de risco do mundo real se as capacidades dominantes residirem noutros lugares e se propagarem através de infra-estruturas abertas e descentralizadas”.

O ecossistema de IA de código aberto está a globalizar-se, mas o seu centro de gravidade está a deslocar-se decisivamente para leste. Não através de qualquer estratégia coordenada, mas através da economia prática de quem está disposto a publicar o que os investigadores e operadores realmente precisam para gerir a IA localmente.

Os 175.000 hospedeiros expostos mapeados neste estudo são apenas a superfície visível desse realinhamento fundamental – um realinhamento que os decisores políticos ocidentais estão apenas a começar a reconhecer, e muito menos a abordar.

Veja também: Huawei detalha roteiro de desenvolvimento de IA de código aberto no Huawei Connect 2025

Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo o Cyber ​​Security & Cloud Expo. Clique aqui para mais informações.

AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.

Fontesartificialintelligence

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *