Análise Sugere que o Progresso no Raciocínio de Modelos de IA pode Estagnar em Breve

Análise Sugere que o Progresso no Raciocínio de Modelos de IA pode Estagnar em Breve

Créditos da imagem: Anadmist / Getty Images

Um relatório da Epoch AI, uma organização de pesquisa sem fins lucrativos, alerta que o rápido progresso em modelos de IA focados em raciocínio pode em breve atingir um platô. A análise sugere que, no próximo ano, os ganhos de desempenho desses modelos podem começar a desacelerar.

OpenAI

Modelos de raciocínio — como o o3 da OpenAI — demonstraram recentemente fortes melhorias em benchmarks de IA, particularmente em áreas como matemática e programação. Esses modelos se destacam por aplicar mais esforço computacional a problemas complexos, embora isso normalmente resulte em uma conclusão de tarefas mais lenta em comparação com modelos tradicionais.

O desenvolvimento de modelos de raciocínio envolve primeiro o treinamento de um modelo padrão em grandes conjuntos de dados, seguido pelo aprendizado por reforço — um processo que fornece feedback para ajudar o modelo a aprimorar sua resolução de problemas.

Aprendizagem por Reforço Recebe um Grande Impulso em Poder Computacional

Até agora, laboratórios de IA como a OpenAI não investiram pesadamente em recursos computacionais na fase de aprendizado por reforço. Isso está começando a mudar. A OpenAI supostamente utilizou cerca de 10 vezes mais poder computacional para treinar seu modelo o3 em comparação com o o1, com a Epoch especulando que a maior parte desse aumento foi dedicada ao aprendizado por reforço. O pesquisador da OpenAI, Dan Roberts, também observou que a empresa pretende enfatizar ainda mais o aprendizado por reforço em futuros esforços de treinamento.

No entanto, de acordo com a Epoch, há um limite para a quantidade de computação que pode ser realisticamente usada no aprendizado por reforço, o que pode limitar os ganhos futuros.

De acordo com uma análise da Epoch AI, o escalonamento do treinamento do modelo de raciocínio pode ficar mais lento. Créditos da imagem: Epoch AI

Aprendizado por Reforço Avança Rapidamente, Mas Pode em Breve se Alinhar ao Progresso Geral da IA

Josh You, analista da Epoch e autor do relatório, observa que as melhorias de desempenho com o treinamento convencional em IA estão quadruplicando a cada ano, enquanto os avanços com o aprendizado por reforço aceleram dez vezes a cada três a cinco meses. Ele acrescenta que, por volta de 2026, o progresso no treinamento focado em raciocínio provavelmente se alinhará ao ritmo mais amplo de desenvolvimento da IA.

A análise da Epoch baseia-se em diversas premissas e incorpora declarações públicas de líderes da indústria de IA. No entanto, também argumenta que o escalonamento de modelos de raciocínio pode enfrentar obstáculos além do poder computacional — particularmente devido à significativa sobrecarga de pesquisa envolvida.

Modelos de Raciocínio

“You” observa: “Se a pesquisa em andamento exigir sobrecarga consistentemente alta, a escalabilidade dos modelos de raciocínio poderá ficar aquém das expectativas”. Ele acrescenta que o rápido aumento no poder computacional disponível é provavelmente um fator-chave para o progresso do modelo de raciocínio, tornando-o uma tendência importante a ser monitorada.

A possibilidade de que modelos de raciocínio atinjam em breve um teto de desempenho pode ser preocupante para a indústria de IA, que investiu pesadamente no desenvolvimento desses sistemas. Pesquisas já destacaram desvantagens importantes, incluindo altos custos operacionais e uma maior tendência a gerar informações falsas ou “alucinadas” em comparação com alguns modelos tradicionais.


Leia o Artigo Original TechCrunch

Leia mais Spotify Aprimora seu Recurso de DJ com IA e Suporte a Comandos de Voz

Share this post