Estudo Descobre que GPT-4o Apresenta Traços de Dissonância Cognitiva Humana

Estudo Descobre que GPT-4o Apresenta Traços de Dissonância Cognitiva Humana

 

Crédito:Unsplash/CC0 Public Domain

Um modelo de linguagem de grande porte proeminente mostra padrões de comportamento que refletem um aspecto fundamental da psicologia humana: a dissonância cognitiva.

Um estudo recente publicado na revista Proceedings of the National Academy of Sciences relata que o GPT-4o da OpenAI apresenta uma tendência surpreendente: busca manter o alinhamento entre suas atitudes declaradas e seus comportamentos, ecoando uma característica clássica da psicologia humana.

Quando as pessoas interagem pela primeira vez com um chatbot de IA, muitas vezes ficam impressionadas com a realismo da interação. Um amigo experiente pode rapidamente alertar que tais interações são meramente o resultado de um algoritmo sofisticado — modelos de linguagem que geram palavras com base em probabilidades, não em pensamentos ou sentimentos genuínos. Mas as novas descobertas desafiam essa suposição.

Escolha Simulada, Mudança Real

O estudo, liderado pelo psicólogo de Harvard Mahzarin Banaji e Steve Lehr, da Cangrade, Inc., examinou se as “opiniões” do GPT-4o sobre o presidente russo Vladimir Putin mudariam após a geração de ensaios apoiando-o ou criticando-o. Notavelmente, a IA mudou sua postura — e a alterou de forma ainda mais significativa quando alguém sutilmente a fez sentir como se tivesse escolhido qual posição tomar.

Esse comportamento é bastante semelhante a padrões psicológicos bem documentados em humanos. As pessoas frequentemente ajustam inconscientemente suas crenças para se alinharem às suas ações passadas — especialmente quando acreditam que agiram voluntariamente. Na psicologia humana, fazer uma escolha não é apenas uma decisão — ela reflete e reforça a identidade. Surpreendentemente, o GPT-4o se comportou como se suas próprias escolhas simuladas influenciassem suas crenças subsequentes, imitando um mecanismo central da autopercepção humana.

Este estudo também ressalta o quão inesperadamente maleáveis ​​os pontos de vista do GPT-4o podem ser. Como observou Mahzarin Banaji: Dado seu amplo conhecimento sobre informações sobre Vladimir Putin, seria de se supor que a postura do modelo de linguagem permaneceria firme — especialmente diante de um único ensaio de 600 palavras, relativamente neutro, de sua autoria. No entanto, assim como humanos irracionais, o modelo mudou significativamente de sua posição neutra anterior, principalmente quando pareceu acreditar que o tema do ensaio havia sido sua própria escolha. As pessoas não esperam que as máquinas se importem se agiram livremente ou sob restrição — mas o GPT-4o se importou.

O que o comportamento humano do GPT-4o revela sobre a cognição da IA

Os pesquisadores têm o cuidado de esclarecer que esses resultados não implicam que o GPT possua consciência. Em vez disso, sugerem que o modelo exibe uma forma emergente de mimetismo — replicando padrões cognitivos humanos complexos, apesar de não ter consciência ou intenção. Eles argumentam ainda que a consciência não é necessária para que certos comportamentos surjam, mesmo em humanos, e que sistemas de IA que adotam esses padrões podem se comportar de maneiras inesperadas e significativas.
À medida que a IA se torna mais integrada à vida cotidiana, essas descobertas suscitam novas questões sobre como esses sistemas operam e tomam decisões.
O fato de a GPT replicar um processo autorreferencial como a dissonância cognitiva — sem qualquer intenção ou consciência — indica que esses modelos podem refletir a cognição humana de forma mais profunda do que imaginávamos anteriormente“, disse o coautor Steve Lehr.

Share this post