Olá! Utilizamos cookies para oferecer melhor experiência, melhorar o desempenho, analisar como você interage em nosso site e personalizar conteúdo. Ao utilizar este site, você concorda com o uso de cookies.

Boa noite, Domingo 04 de Maio de 2025

Menu

Estudo divulgado

IA do Google supera medalhista de ouro humano em olimpíada de matemática

A inteligência artificial AlphaGeometry2 conseguiu resolver 88% dos problemas da Olimpíada Internacional de Matemática (IMO) dos últimos 25 anos

Geral | 12 de Fevereiro de 2025 as 17h 24min
Fonte: Galileu

Foto: Google DeepMind/Divulgação

Uma inteligência artificial criada pelo Google DeepMind, o principal centro de pesquisa em IA do Google, parece estar no mesmo nível de um medalhista de ouro em matemática. Em um estudo divulgado na última sexta-feira (7), o laboratório anunciou que a IA conseguiu resolver 88% dos problemas da Olimpíada Internacional de Matemática (IMO) dos últimos 25 anos, uma competição mundial para estudantes de ensino médio.

A IA, chamada AlphaGeometry2, é uma versão avançada do AlphaGeometry, sistema introduzido em janeiro de 2024. Considerada uma inteligência artificial geral (AGI) com raciocínio matemático avançado, o AlphaGeometry2 já havia alcançado um desempenho próximo ao de um medalhista de prata da IMO em junho do mesmo ano de seu lançamento. Naquela ocasião, em parceria com outra IA do Google, o AlphaProof, a dupla foi capaz de resolver quatro dos seis problemas da prova de 2024.

O AlphaGeometry2 utiliza um modelo de linguagem da família Gemini, que o auxilia a aplicar regras matemáticas para apresentar soluções possíveis para os problemas e chegar a demonstrações de teoremas de geometria. No entanto, para que a IA consiga resolver os desafios, as provas precisam ser convertidas para uma linguagem que ela reconheça, ou seja, uma linguagem matemática formal — basicamente uma versão simplificada dos enunciados, sem as palavras que ajudam a construir o seu sentido.

Ao "ler" o problema, a IA sugere possíveis etapas e construções em uma linguagem matemática para o sistema, que, ao seguir regras determinadas, valida esses passos em busca de consistência lógica. Para isso, o AlphaGeometry2 articula o modelo Gemini junto com uma base de dados que foi feita exclusivamente para o seu treinamento, contendo mais de 300 milhões de teoremas e provas de diferentes níveis de complexidade.

 

Medalha de ouro

Para esse novo desafio, os desenvolvedores selecionaram 45 questões de geometria da IMO dos últimos 25 anos, que foram então convertidas em 50 problemas formulados em linguagem matemática. As questões variavam de equações lineares a desafios que exigiam a movimentação de figuras geométricas em um plano. Desses 50 problemas, o AlphaGeometry2 conseguiu resolver 42, superando a pontuação média dos medalhistas de ouro, que é de 40,9.

Uma pontuação como essa em uma prova para alunos do ensino médio pode não parecer uma grande conquista. Porém, a IMO é a competição mais antiga e prestigiada para jovens matemáticos, ocorrendo todos os anos desde 1959. Somente os melhores estudantes de cada país são escolhidos para participar, dedicando milhares de horas de treinamento para enfrentar um exame que abrange álgebra, combinatória, geometria e teoria dos números.

Esse resultado é importante porque a habilidae de provar teoremas matemáticos, ou demonstrar logicamente um problema, exige raciocínio e a articulação de diversos conhecimentos para chegar à solução. O bom desenvolvimento dessas competências pode levar o AlphaGeometry2 e seu sistema híbrido a ser um recurso valioso em futuros modelos de IA.

 

Limitações

Embora seu desempenho tenha sido notável, os pesquisadores alertam para as limitações do sistema. Por exemplo, o AlphaGeometry2 não é capaz de resolver questões envolvendo equações não lineares, que demandam o uso de diferentes funções algébricas. Seu desempenho também foi abaixo do esperado nas questões classificadas como as mais desafiadoras, assim como nas que trabalham conteúdos que ainda não foram abordados nas competições.

Esses resultados irão ajudar a equipe responsável pelo AlphaGeometry2 a aprimorar cada vez mais o seu sistema híbrido, que ainda precisa de testes e melhorias para atingir o seu máximo potencial. Além disso, o estudo colabora para o debate sobre as diferentes formas de se programar uma inteligência artificial, seja para sua aplicação no campo matemático quanto no cotidiano.

“[Os] resultados apoiam ideias de que grandes modelos de linguagem podem ser autossuficientes sem depender de ferramentas externas [como mecanismos simbólicos]”, escreveu a equipe do DeepMind no artigo, “mas até que a velocidade [do modelo] seja melhorada e as alucinações sejam completamente resolvidas, as ferramentas permanecerão essenciais para aplicações matemáticas”.