Novo Estudo Mostra que a IA Enfrenta Excesso de Confiança e Incerteza

Créditos da imagem: Pixabay
De acordo com um novo estudo realizado por pesquisadores do Google DeepMind e da University College London, modelos de grande linguagem (LLMs) ocasionalmente carecem de confiança ao responder a perguntas e acabam descartando respostas corretas.
Modelos de grande linguagem (LLMs) são ferramentas avançadas de IA projetadas para compreender e produzir linguagem humana. Eles são amplamente utilizados em setores como finanças, saúde e TI para tarefas que envolvem raciocínio e tomada de decisões. Por isso, seu desempenho deve ser preciso e confiável, exigindo confiança consistente em suas respostas. No entanto, essa confiança pode vacilar.
Para garantir uma implantação segura, os LLMs fornecem pontuações de confiança juntamente com suas respostas. No entanto, como essas pontuações influenciam sua tomada de decisão ainda não está claro.
Em um estudo publicado no servidor de pré-impressão arXiv, pesquisadores descobriram que os LLMs frequentemente começam excessivamente confiantes em suas respostas, mas podem perder a confiança e revisá-las quando confrontados com um contra-argumento enganoso.
Avaliando a Confiança de Modelos de Grande Linguagem (LLMs)
Para explorar essa aparente contradição, os pesquisadores examinaram como os modelos de grande linguagem (LLMs) ajustam sua confiança e decidem se revisam suas respostas após receberem informações externas.
Eles começaram aplicando uma pergunta de escolha binária a um “LLM de resposta”. Após a resposta, um segundo modelo, um “LLM de aconselhamento”, forneceu orientação juntamente com uma pontuação de precisão. Esse conselho poderia apoiar, contradizer ou permanecer neutro em relação à resposta inicial. O LLM de resposta foi então solicitado a tomar uma decisão final. Em alguns casos, o modelo pôde visualizar sua resposta original durante essa etapa, enquanto em outros, não.
Resultados da Pesquisa
O estudo revelou que os LLMs são mais propensos a manter sua resposta original quando ela está visível para eles, sugerindo maior confiança. No entanto, quando a resposta inicial é ocultada, eles são mais propensos a mudar sua resposta. Além disso, os modelos tenderam a perder a confiança e revisar sua decisão com mais frequência quando confrontados com conselhos opostos, em comparação com quando o conselho era de apoio. Esse comportamento foi consistente em vários modelos, incluindo Gemma 3, GPT-4o e o1-preview.
“Nossas descobertas mostram que os LLMs divergem da tomada de decisão ideal de maneiras notáveis”, explicaram os pesquisadores. “Primeiro, eles apresentam um forte viés de apoio à escolha que reforça suas respostas iniciais, mesmo diante de evidências contraditórias. Segundo, embora os LLMs incorporem novas informações, eles o fazem de forma subótima, dando muito peso a conselhos opostos, o que leva a uma queda significativa na confiança em sua resposta original.”
Aprimorando Sistemas de IA
Isso é importante porque um número crescente de indústrias depende de LLMs. No entanto, a pesquisa destaca que esses modelos não seguem apenas a lógica, pois eles próprios exibem vieses e podem sofrer influências. Em interações prolongadas entre um humano e uma IA, informações recentes podem moldar desproporcionalmente a resposta da IA.
Reconhecer esse comportamento, juntamente com outras sutilezas na forma como os LLMs tomam decisões, é fundamental para o desenvolvimento de sistemas de IA mais seguros, confiáveis e melhor projetados.
Leia o Artigo Original Tech Xplore
Leia mais A IA pode Substituir seu Terapeuta? Novo Estudo Afirma que ainda Não