A eficiência dos custos da IA e a soberania dos dados estão em conflito, forçando a repensar as estruturas de risco empresarial para as organizações globais.
Durante mais de um ano, a narrativa generativa da IA concentrou-se numa corrida pela capacidade, muitas vezes medindo o sucesso através de contagens de parâmetros e pontuações de benchmark falhas. As conversas de diretoria, porém, estão passando por uma correção necessária.
Embora o fascínio pelos modelos de baixo custo e alto desempenho ofereça um caminho tentador para a inovação rápida, as responsabilidades ocultas associadas à residência dos dados e à influência do Estado estão a forçar uma reavaliação da seleção de fornecedores. O laboratório de IA baseado na China, DeepSeek, tornou-se recentemente um ponto focal para este debate em todo o setor.
De acordo com Bill Conner, ex-conselheiro da Interpol e do GCHQ e atual CEO da Jitterbit, a recepção inicial do DeepSeek foi positiva porque desafiou o status quo ao demonstrar que “modelos de grandes linguagens de alto desempenho não exigem necessariamente orçamentos na escala do Vale do Silício”.
Para as empresas que procuram reduzir os imensos custos associados aos pilotos generativos de IA, esta eficiência era compreensivelmente atractiva. Conner observa que estes “custos de treinamento baixos relatados inegavelmente reacenderam as conversas da indústria sobre eficiência, otimização e IA ‘suficientemente boa’”.
Riscos de IA e soberania de dados
O entusiasmo pelo desempenho de preços reduzidos colidiu com as realidades geopolíticas. A eficiência operacional não pode ser dissociada da segurança dos dados, especialmente quando esses dados alimentam modelos alojados em jurisdições com diferentes quadros jurídicos em matéria de privacidade e acesso estatal.
Divulgações recentes sobre o DeepSeek alteraram a matemática das empresas ocidentais. Conner destaca “revelações recentes do governo dos EUA indicando que a DeepSeek não está apenas armazenando dados na China, mas também compartilhando-os ativamente com os serviços de inteligência estatais”.
Esta divulgação leva o problema além da conformidade padrão com GDPR ou CCPA. O “perfil de risco vai além das preocupações típicas com a privacidade e chega ao domínio da segurança nacional”.
Para os líderes empresariais, isto representa um perigo específico. A integração do LLM raramente é um evento independente; envolve conectar o modelo a data lakes proprietários, sistemas de informações de clientes e repositórios de propriedade intelectual. Se o modelo de IA subjacente possuir uma “porta dos fundos” ou obrigar a partilha de dados com um aparelho de inteligência estrangeiro, a soberania é eliminada e a empresa contorna efetivamente o seu próprio perímetro de segurança e elimina quaisquer benefícios de eficiência de custos.
Conner adverte que “o envolvimento da DeepSeek com redes de compras militares e supostas táticas de evasão de controle de exportação devem servir como um sinal de alerta crítico para CEOs, CIOs e oficiais de risco”. A utilização de tal tecnologia pode inadvertidamente envolver uma empresa em violações de sanções ou comprometimento da cadeia de fornecimento.
O sucesso não se resume mais apenas à geração de códigos ou resumos de documentos; trata-se da estrutura legal e ética do fornecedor. Especialmente em setores como finanças, saúde e defesa, a tolerância à ambiguidade em relação à linhagem de dados é zero.
As equipas técnicas podem dar prioridade aos benchmarks de desempenho da IA e à facilidade de integração durante a fase de prova de conceito, potencialmente negligenciando a proveniência geopolítica da ferramenta e a necessidade de soberania dos dados. Os responsáveis pelo risco e os CIO devem impor uma camada de governação que questione “quem” e “onde” do modelo, e não apenas “o quê”.
Governança sobre eficiência de custos de IA
A decisão de adotar ou proibir um modelo específico de IA é uma questão de responsabilidade corporativa. Acionistas e clientes esperam que os seus dados permaneçam seguros e sejam utilizados exclusivamente para os fins comerciais pretendidos.
Conner enquadra isto explicitamente para a liderança ocidental, afirmando que “para CEOs, CIOs e responsáveis de risco ocidentais, isto não é uma questão de desempenho do modelo ou eficiência de custos”. Em vez disso, “é uma questão de governação, responsabilização e responsabilidade fiduciária”.
As empresas “não podem justificar a integração de um sistema onde a residência dos dados, a intenção de utilização e a influência do estado são fundamentalmente opacas”. Essa opacidade cria uma responsabilidade inaceitável. Mesmo que um modelo ofereça 95% do desempenho de um concorrente pela metade do custo, o potencial de multas regulatórias, danos à reputação e perda de propriedade intelectual apagam instantaneamente essas economias.
O estudo de caso da DeepSeek serve como um estímulo para auditar as atuais cadeias de fornecimento de IA. Os líderes devem garantir que tenham visibilidade total sobre onde ocorre a inferência do modelo e quem detém as chaves dos dados subjacentes.
À medida que o mercado da IA generativa amadurece, a confiança, a transparência e a soberania dos dados provavelmente superarão o apelo da eficiência bruta de custos.
Veja também: SAP e Fresenius construirão espinha dorsal soberana de IA para cuidados de saúde
Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo o Cyber Security & Cloud Expo. Clique aqui para mais informações.
AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.
Fontesartificialintelligence



