<em>(GPU Cost Comparison)</em>

A implantação da IA ​​empresarial tem enfrentado uma tensão fundamental: as organizações precisam de modelos de linguagem sofisticados, mas hesitam nos custos de infraestrutura e no consumo de energia dos sistemas fronteiriços.

O recente lançamento do tsuzumi 2 pela NTT Inc., um modelo leve de linguagem grande (LLM) executado em uma única GPU, demonstra como as empresas estão resolvendo essa restrição – com implantações iniciais mostrando desempenho correspondente a modelos maiores por uma fração do custo operacional.

O caso de negócios é simples. Os modelos tradicionais de grandes linguagens exigem dezenas ou centenas de GPUs, criando barreiras no consumo de eletricidade e nos custos operacionais que tornam a implantação de IA impraticável para muitas organizações.

(Comparação de custos de GPU)

Para empresas que operam em mercados com infraestruturas energéticas limitadas ou orçamentos operacionais apertados, estes requisitos eliminam a IA como uma opção viável. O comunicado de imprensa da empresa ilustra as considerações práticas que impulsionam a adoção do LLM leve com a implantação da Tokyo Online University.

A universidade opera uma plataforma local que mantém os dados dos alunos e funcionários dentro da rede do campus – um requisito de soberania de dados comum em instituições educacionais e setores regulamentados.

Depois de validar que o tsuzumi 2 lida com a compreensão de contexto complexo e o processamento de documentos longos em níveis prontos para produção, a universidade o implantou para aprimorar as perguntas e respostas do curso, suporte à criação de material didático e orientação personalizada aos alunos.

A operação de GPU única significa que a universidade evita despesas de capital com clusters de GPU e custos contínuos de eletricidade. Mais significativamente, a implantação no local aborda questões de privacidade de dados que impedem muitas instituições educacionais de usar serviços de IA baseados em nuvem que processam informações confidenciais dos alunos.

Desempenho sem escala: a economia técnica

A avaliação interna da NTT para o tratamento de consultas do sistema financeiro mostrou que o tsuzumi 2 corresponde ou supera os principais modelos externos, apesar dos requisitos de infraestrutura dramaticamente menores. Esta relação desempenho/recursos determina a viabilidade da adoção de IA para empresas onde o custo total de propriedade orienta as decisões.

O modelo oferece o que a NTT caracteriza como “resultados de topo mundial entre modelos de tamanho comparável” no desempenho da língua japonesa, com particular força em domínios de negócios que priorizam conhecimento, análise, seguimento de instruções e segurança.

Para empresas que operam principalmente nos mercados japoneses, esta otimização linguística reduz a necessidade de implementar modelos multilíngues maiores que exigem significativamente mais recursos computacionais.

O conhecimento reforçado nos setores financeiro, médico e público — desenvolvido com base na demanda dos clientes — permite implantações específicas de domínio sem grandes ajustes finos.

O RAG (Retrieval-Augmented Generation) e os recursos de ajuste fino do modelo permitem o desenvolvimento eficiente de aplicativos especializados para empresas com bases de conhecimento proprietárias ou terminologia específica do setor, onde os modelos genéricos apresentam desempenho inferior.

Soberania e segurança de dados como impulsionadores de negócios

Além das considerações de custo, a soberania dos dados impulsiona a adoção de LLM leve em setores regulamentados. As organizações que lidam com informações confidenciais enfrentam exposição a riscos ao processar dados através de serviços externos de IA sujeitos a jurisdição estrangeira.

Na verdade, a NTT posiciona o tsuzumi 2 como um “modelo puramente doméstico” desenvolvido do zero no Japão, operando no local ou em nuvens privadas. Isso aborda preocupações predominantes nos mercados da Ásia-Pacífico sobre residência de dados, conformidade regulatória e segurança da informação.

A parceria da FUJIFILM Business Innovation com a NTT DOCOMO BUSINESS demonstra como as empresas combinam modelos leves com a infraestrutura de dados existente. A tecnologia REiLI da FUJIFILM converte dados corporativos não estruturados – contratos, propostas, texto misto e imagens – em informações estruturadas.

A integração dos recursos geradores do tsuzumi 2 permite análise avançada de documentos sem transmitir informações corporativas confidenciais a provedores externos de IA. Essa abordagem arquitetônica – que combina modelos leves com processamento de dados local – representa uma estratégia prática de IA empresarial que equilibra requisitos de capacidade com segurança, conformidade e restrições de custo.

Capacidades multimodais e fluxos de trabalho empresariais

O tsuzumi 2 inclui suporte multimodal integrado para manipulação de texto, imagens e voz em aplicativos corporativos. Isso é importante para fluxos de trabalho de negócios que exigem que a IA processe vários tipos de dados sem implantar modelos especializados separados.

O controle de qualidade de fabricação, as operações de atendimento ao cliente e os fluxos de trabalho de processamento de documentos geralmente envolvem texto, imagens e, às vezes, entradas de voz. Modelos únicos que lidam com todos os três reduzem a complexidade da integração em comparação com o gerenciamento de vários sistemas especializados com diferentes requisitos operacionais.

Contexto do mercado e considerações de implementação

A abordagem leve da NTT contrasta com estratégias hiperescaladoras que enfatizam modelos massivos com amplos recursos. Para empresas com orçamentos substanciais de IA e equipes técnicas avançadas, os modelos de fronteira da OpenAI, Anthropic e Google oferecem desempenho de ponta.

No entanto, esta abordagem exclui organizações que não dispõem destes recursos – uma parte significativa do mercado empresarial, especialmente nas regiões da Ásia-Pacífico com qualidade de infraestrutura variável. As considerações regionais são importantes.

A confiabilidade da energia, a conectividade com a Internet, a disponibilidade do data center e as estruturas regulatórias variam significativamente entre os mercados. Os modelos leves que permitem a implantação no local acomodam melhor essas variações do que as abordagens que exigem acesso consistente à infraestrutura em nuvem.

As organizações que avaliam a implantação leve do LLM devem considerar vários fatores:

Especialização de domínio: O conhecimento reforçado do tsuzumi 2 nos setores financeiro, médico e público aborda domínios específicos, mas as organizações de outros setores devem avaliar se o conhecimento do domínio disponível atende aos seus requisitos.

Considerações de idioma: A otimização do processamento do idioma japonês beneficia as operações no mercado japonês, mas pode não ser adequada para empresas multilíngues que exigem desempenho consistente em vários idiomas.

Complexidade de integração: A implantação local requer recursos técnicos internos para instalação, manutenção e atualizações. As organizações que não possuem essas capacidades podem achar as alternativas baseadas em nuvem operacionalmente mais simples, apesar dos custos mais elevados.

Compensações de desempenho: Embora o tsuzumi 2 corresponda a modelos maiores em domínios específicos, os modelos de fronteira podem ter desempenho superior em casos extremos ou novas aplicações. As organizações devem avaliar se o desempenho específico do domínio é suficiente ou se capacidades mais amplas justificam custos mais elevados de infraestrutura.

O caminho prático a seguir?

A implantação do tsuzumi 2 da NTT demonstra que a implementação sofisticada de IA não requer infraestrutura de hiperescala — pelo menos para organizações cujos requisitos se alinham com recursos de modelo leve. As primeiras adoções empresariais mostram valor comercial prático: custos operacionais reduzidos, maior soberania de dados e desempenho pronto para produção para domínios específicos.

À medida que as empresas navegam na adopção da IA, a tensão entre os requisitos de capacidade e as restrições operacionais impulsiona cada vez mais a procura por soluções eficientes e especializadas, em vez de sistemas de uso geral que exigem infra-estruturas extensas.

Para as organizações que avaliam estratégias de implementação de IA, a questão não é se os modelos leves são “melhores” do que os sistemas de fronteira, mas sim se são suficientes para requisitos de negócio específicos, ao mesmo tempo que abordam custos, segurança e restrições operacionais que tornam abordagens alternativas impraticáveis.

A resposta, como demonstram as implantações da Tokyo Online University e da FUJIFILM Business Innovation, é cada vez mais sim.

Veja também: Como a Levi Strauss está usando IA em seu primeiro modelo de negócios DTC

Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo a Cyber ​​Security Expo. Clique aqui para mais informações.

AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.

Fontesartificialintelligence

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *