Em resumo
- AlphaEvolve, uma IA que “evolui” soluções de código, redescobriu e melhorou as provas para a conjectura de Kakeya de campo finito.
- Gemini Deep Think verificou a lógica e AlphaProof formalizou o resultado – criando um ciclo fechado de pesquisa de IA.
- O projeto mostra como a IA pode agora gerar, testar e provar ideias matemáticas, e não apenas prevê-las ou resumi-las.
Num exemplo notável de como a inteligência artificial está a remodelar a investigação científica, o Google DeepMind juntou-se a matemáticos de renome para aproveitar ferramentas de IA para resolver alguns dos enigmas mais difíceis da matemática.
A colaboração, anunciada esta semana, destaca um novo sistema de IA chamado AlphaEvolve que não apenas redescobre soluções conhecidas, mas também revela novos insights sobre problemas antigos.
“O Google DeepMind tem colaborado com Terence Tao e Javier Gómez-Serrano para usar nossos agentes de IA (AlphaEvolve, AlphaProof e Gemini Deep Think) para o avanço da pesquisa matemática”, tuitou Pushmeet Kohli, cientista da computação líder em iniciativas científicas e estratégicas do Google DeepMind, na quinta-feira. “Eles descobriram que o AlphaEvolve pode ajudar a descobrir novos resultados em uma série de problemas.”
Kohli citou um artigo recente que delineou os avanços e apontou para uma conquista notável: “Como um exemplo convincente, eles usaram AlphaEvolve para descobrir uma nova construção para a conjectura de Kakeya de campo finito; Gemini Deep Think então provou que estava correto e AlphaProof formalizou essa prova em Lean.”
Ele descreveu isso como “pesquisa matemática em ação com base em IA!” Tao também detalhou as descobertas em uma postagem no blog.
A conjectura de Kakeya
A conjectura de Kakeya do campo finito, comprovada pela primeira vez em 2008 pelo matemático Zeev Dvir, trata de uma questão aparentemente simples em espaços abstratos conhecidos como campos finitos – pense neles como grades onde os números se envolvem, como na aritmética modular. O quebra-cabeça pede o menor conjunto de pontos que possa conter uma “linha” completa em todas as direções possíveis, sem sobreposições desnecessárias. É como encontrar a maneira mais eficiente de desenhar flechas em todas as direções em um tabuleiro de xadrez, sem desperdiçar casas.
Em termos leigos, trata-se de empacotamento e eficiência em espaços matemáticos, com implicações para campos como teoria de codificação e processamento de sinais. O novo trabalho não anula a prova, mas refina-a com melhores construções – essencialmente, formas mais inteligentes de construir estes conjuntos que são mais pequenos ou mais precisos em determinadas dimensões.
O artigo detalha como o sistema de IA foi testado em 67 problemas matemáticos diversos de áreas como geometria, combinatória e teoria dos números.
“AlphaEvolve é um agente de codificação evolutivo genérico que combina as capacidades generativas de LLMs com avaliação automatizada em uma estrutura evolutiva iterativa que propõe, testa e refina soluções algorítmicas para problemas científicos e práticos desafiadores”, disseram os autores no resumo.
Uma abordagem darwiniana para matemática assistida por IA
Em sua essência, AlphaEvolve imita a evolução biológica. Começa com programas de computador básicos gerados por grandes modelos de linguagem e os avalia de acordo com os critérios de um problema. Programas bem-sucedidos são “mutados” ou ajustados para criar variações, que são testadas novamente em loop. Isso permite que o sistema explore rapidamente vastas possibilidades, muitas vezes identificando padrões que os humanos podem perder devido a restrições de tempo.
“O processo evolutivo consiste em dois componentes principais: (1) Um Gerador (LLM): Este componente é responsável pela introdução da variação… (2) Um Avaliador (normalmente fornecido pelo usuário): Esta é a ‘função de aptidão’”, afirma o artigo.
Para problemas matemáticos, o avaliador pode pontuar até que ponto um conjunto de pontos proposto satisfaz as regras de Kakeya, favorecendo projetos compactos e eficientes.
Os resultados são impressionantes. O sistema “redescobriu as soluções mais conhecidas na maioria dos casos e descobriu soluções melhoradas em vários”, segundo o resumo. Em alguns casos, até generalizou descobertas de números específicos para fórmulas que funcionam universalmente.
Esses ajustes refinam os limites anteriores em quantidades pequenas, mas significativas, como eliminar pontos extras em grades de dimensões superiores.
Sobrecarregando matemáticos
Tao, um matemático ganhador da Medalha Fields da UCLA, e Gómez-Serrano da Brown University, trouxeram experiência humana para orientar e verificar os resultados da IA. A integração com outras ferramentas DeepMind – Gemini Deep Think para raciocínio e AlphaProof para provas formais na linguagem de programação Lean – transformou essas descobertas brutas em matemática rigorosa.
A colaboração sublinha uma mudança mais ampla: a IA está a sobrecarregar os matemáticos.
“Esses resultados demonstram que a pesquisa evolutiva guiada por modelos de linguagem pode descobrir autonomamente construções matemáticas que complementam a intuição humana, às vezes igualando ou mesmo melhorando os resultados mais conhecidos, destacando o potencial para novas formas significativas de interação entre matemáticos e sistemas de IA”, diz o artigo.
Isso poderia significar inovações mais rápidas em áreas tecnológicas que dependem da matemática, como criptografia ou compressão de dados. Mas também levanta questões sobre o papel da IA na ciência pura – podem as máquinas realmente “inventar” ou apenas otimizar?
Este último esforço sugere que o campo está apenas começando.
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt




