Decrypt logoImage: Decrypt

Em resumo

  • Você pode fornecer acesso web aos modelos de IA locais usando servidores Model Context Protocol (MCP) gratuitos – sem APIs corporativas, sem vazamento de dados, sem taxas.
  • A configuração é simples: instale o LM Studio, adicione configurações Brave, Tavily ou DuckDuckGo MCP e seu modelo offline se tornará um SearchGPT privado.
  • O resultado: navegação em tempo real, análise de artigos e busca de dados – sem nunca tocar nas nuvens OpenAI, Anthropic ou Google.

Então você quer uma IA que possa navegar na web e pensa que as únicas opções são OpenAI, Anthropic ou Google?

Pense novamente.

Seus dados não precisam passar por servidores corporativos sempre que seu assistente de IA precisar de informações oportunas. Com servidores Model Context Protocol (MCP), você pode fornecer até mesmo modelos de consumo leves a capacidade de pesquisar na web, analisar artigos e acessar dados em tempo real, tudo isso mantendo total privacidade e gastando zero dólares.

O problema? Não há um. Essas ferramentas oferecem níveis gratuitos generosos: Brave Search oferece 2.000 consultas mensais, Tavily oferece 1.000 créditos e certas opções não exigem nenhuma chave de API. Para a maioria dos usuários, isso é suficiente para nunca atingir um limite… você não faz 1.000 pesquisas em um dia.

Antes de entrar na parte técnica, dois conceitos precisam de explicação. “Model Context Protocol” é um padrão aberto lançado pela Anthropic em novembro de 2024 que permite que modelos de IA se conectem a ferramentas externas e fontes de dados. Pense nisso como uma espécie de adaptador universal que conecta módulos semelhantes ao Tinkeryoy que adicionam utilidade e funcionalidade ao seu modelo de IA.

Em vez de dizer exatamente à sua IA o que fazer (que é o que uma chamada de API faz), você informa ao modelo o que você precisa e ele simplesmente descobre por conta própria o que fazer para atingir esse objetivo. Os MCPs não são tão precisos quanto as chamadas de API tradicionais e você provavelmente gastará mais tokens para fazê-los funcionar, mas são muito mais versáteis.

A “chamada de ferramenta” — às vezes chamada de chamada de função — é o mecanismo que faz isso funcionar. É a capacidade de um modelo de IA reconhecer quando precisa de informações externas e invocar a função apropriada para obtê-las. Quando você pergunta “Como está o clima no Rio de Janeiro?”, um modelo com chamada de ferramenta pode identificar que precisa chamar uma API de clima ou servidor MCP, formatar a solicitação corretamente e integrar os resultados em sua resposta. Sem suporte para chamada de ferramentas, seu modelo só poderá funcionar com o que aprendeu durante o treinamento.

Veja como dar superpoderes ao seu modelo local.

Requisitos técnicos e configuração

Os requisitos são mínimos: você precisa do Node.js instalado em seu computador, bem como de um aplicativo de IA local que suporte MCP (como LM Studio versão 0.3.17 ou superior, Claude Desktop ou Cursor IDE) e um modelo com recursos de chamada de ferramenta.

Você também deve ter o Python instalado.

Alguns bons modelos com chamada de ferramentas executados em máquinas de consumo são GPT-oss, DeepSeek R1 0528, Jan-v1-4b, Llama-3.2 3b Instruct e Pokee Research 7B.

Para instalar um modelo, vá até o ícone da lupa na barra lateral esquerda do LM Studio e procure por um. Os modelos que suportam ferramentas mostrarão um ícone de martelo próximo ao nome. Esses são os que você precisa.

A maioria dos modelos modernos acima de 7 bilhões de parâmetros suporta chamadas de ferramentas – Qwen3, DeepSeek R1, Mistral e arquiteturas semelhantes funcionam bem. Quanto menor o modelo, mais você precisará solicitar explicitamente o uso de ferramentas de pesquisa, mas mesmo modelos de 4 bilhões de parâmetros podem gerenciar o acesso básico à Web.

Depois de baixar o modelo, você precisa “carregá-lo” para que o LM Studio saiba que deve usá-lo. Você não quer que seu modelo de RPG erótico faça pesquisas para sua tese.

Configurando mecanismos de pesquisa

A configuração acontece por meio de um único arquivo mcp.json. A localização depende da sua aplicação: o LM Studio usa sua interface de configurações para editar este arquivo, o Claude Desktop procura em diretórios de usuários específicos e outros aplicativos têm suas próprias convenções. Cada entrada do servidor MCP requer apenas três elementos: um nome exclusivo, o comando para executá-lo e quaisquer variáveis ​​de ambiente necessárias, como chaves de API.

Mas você realmente não precisa saber disso: basta copiar e colar a configuração fornecida pelos desenvolvedores e ela funcionará. Se você não quiser mexer com edições manuais, no final deste guia você encontrará uma configuração, pronta para copiar e colar, para que você possa ter alguns dos servidores MCP mais importantes prontos para funcionar.

As três melhores ferramentas de busca disponíveis no MCP trazem pontos fortes diferentes. Brave foca na privacidade, Tavily é mais versátil e DuckDuckGo é o mais fácil de implementar.

Para adicionar DuckDuckGo, basta acessar lmstudio.ai/danielsig/duckduckgo e clicar no botão que diz “Executar no LM Studio”.

Em seguida, acesse lmstudio.ai/danielsig/visit-website e faça o mesmo, clique em “Executar no LM Studio”.

E é isso. Você acabou de dar ao seu modelo seu primeiro superpoder. Agora você tem seu próprio SearchGPT gratuitamente – local, privado e desenvolvido por Duckduckgo.

Peça-lhe para encontrar as últimas notícias, o preço do Bitcoin, o clima, etc., e ele lhe dará informações atualizadas e relevantes.

O Brave Search é um pouco mais difícil de configurar do que o DuckDuckGo, mas oferece um serviço mais robusto, rodando em um índice independente de mais de 30 bilhões de páginas e fornecendo 2.000 consultas gratuitas mensalmente. Sua abordagem que prioriza a privacidade significa nenhum perfil ou rastreamento do usuário, tornando-o ideal para pesquisas confidenciais ou dúvidas pessoais.

Para configurar o Brave, inscreva-se em brave.com/search/api para obter sua chave API. Requer verificação de pagamento, mas tem plano gratuito, então não se preocupe.

Uma vez lá, vá até a seção “Chaves de API”, clique em “Adicionar chave de API” e copie o novo código. Não compartilhe esse código com ninguém.

Em seguida, vá para o LM Studio, clique no pequeno ícone de chave inglesa no canto superior direito, depois clique na aba “Programa”, depois no botão Instalar e integração, clique em “Editar mcp.json”.

Uma vez lá, cole o seguinte texto no campo que aparece. Lembre-se de colocar a chave de API secreta que você acabou de criar entre aspas onde diz “sua corajosa chave de API aqui”:

{
"mcpServers": {
"brave-search": {
"command": "npx",
"args": ("-y", "@modelcontextprotocol/server-brave-search"),
"env": {
"BRAVE_API_KEY": "your_brave_api_key_here"
}
}
}
}

Isso é tudo. Agora sua IA local pode navegar na web usando o Brave. Pergunte qualquer coisa e ele lhe dará as informações mais atualizadas que puder encontrar.

Um jornalista que pesquisa notícias de última hora precisa de informações atuais de diversas fontes. O índice independente do Brave significa que os resultados não são filtrados por outros mecanismos de busca, proporcionando uma perspectiva diferente sobre temas controversos.

Tavily é outra ótima ferramenta para navegação na web. Oferece 1.000 créditos por mês e recursos de pesquisa especializados para notícias, códigos e imagens. Também é muito fácil de configurar: crie uma conta em app.tavily.com, gere seu link MCP no painel e pronto.

Em seguida, copie e cole a seguinte configuração no LM Studio, assim como fez com o Brave. A configuração fica assim:

{
"mcpServers": {
"tavily-remote": {
"command": "npx",
"args": ("-y", "mcp-remote", "https://mcp.tavily.com/mcp/?tavilyApiKey=YOUR_API_KEY_HERE")
}
}
}

Caso de uso: um desenvolvedor que depura uma mensagem de erro pode pedir ao seu assistente de IA para procurar soluções, com a pesquisa focada em código de Tavily retornando discussões do Stack Overflow e problemas do GitHub formatados automaticamente para fácil análise.

Lendo e interagindo com sites

Além da pesquisa, o MCP Fetch lida com um problema diferente: a leitura de artigos completos. Os mecanismos de pesquisa retornam trechos, mas o MCP Fetch recupera o conteúdo completo da página da web e o converte em formato markdown otimizado para processamento de IA. Isso significa que seu modelo pode analisar artigos inteiros, extrair pontos-chave ou responder perguntas detalhadas sobre páginas específicas.

Basta copiar e colar esta configuração. Não há necessidade de criar chaves de API ou algo parecido:

{
"mcpServers": {
"fetch": {
"command": "uvx",
"args": (
"mcp-server-fetch"
)
}

Você precisa instalar um instalador de pacote chamado uvx para executar este. Basta seguir este guia e você terminará em um ou dois minutos.

Isso é ótimo para resumo, análise, iteração ou até mesmo orientação. Um pesquisador poderia alimentá-lo com a URL de um artigo técnico e perguntar: “Resuma a seção de metodologia e identifique possíveis pontos fracos em sua abordagem”. O modelo busca o texto completo, processa-o e fornece uma análise detalhada que é impossível apenas com snippets de pesquisa.

Quer algo mais simples? Este comando agora é perfeitamente compreensível até mesmo para a IA local mais idiota.

“Resuma isso em três parágrafos e diga-me por que é tão importante: https://decrypt.co/346104/ethereum-network-megaeth-350m-token-sale-valuing-mega-7-billion”

Existem muitas outras ferramentas MCP para explorar, dando aos seus modelos capacidades diferentes. Por exemplo, MCP Browser ou Playwright permitem a interação com qualquer site – preenchimento de formulários, navegação e até mesmo aplicativos com JavaScript pesado que scrapers estáticos não conseguem lidar. Existem também servidores para auditorias de SEO, ajudando você a aprender coisas com os cartões Anki e aprimorando seus recursos de codificação.

A configuração completa

Se você não deseja configurar manualmente seu LM Studio MCP.json, aqui está um arquivo completo integrando todos esses serviços.

Copie-o, adicione suas chaves de API onde indicado, coloque-as em seu diretório de configuração e reinicie seu aplicativo de IA. Apenas lembre-se de instalar as dependências adequadas:

{
"mcpServers": {
"fetch": {
"command": "uvx",
"args": (
"mcp-server-fetch"
)
},
"brave-search": {
"command": "npx",
"args": (
"-y",
"@modelcontextprotocol/server-brave-search"
),
"env": {
"BRAVE_API_KEY": "YOUR API KEY HERE"
}
},
"browsermcp": {
"command": "npx",
"args": (
"@browsermcp/mcp@latest"
)
},
"tavily-remote": {
"command": "npx",
"args": (
"-y",
"mcp-remote",
"https://mcp.tavily.com/mcp/?tavilyApiKey=YOUR API KEY HERE"
)
}
}
}

Esta configuração lhe dará acesso ao Fetch, Brave, Tavily e MCP Browser, sem necessidade de codificação, sem procedimentos de configuração complexos, sem taxas de assinatura e sem dados para grandes corporações – apenas acesso à web funcional para seus modelos locais.

De nada.

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *