Estudo do MIT Revela que a IA Carece de Valores Inerentes

Estudo do MIT Revela que a IA Carece de Valores Inerentes

Créditos da imagem: NanoStockk / Getty Images

Um estudo que ganhou ampla atenção há alguns meses sugeriu que, à medida que a IA se torna mais avançada, ela pode desenvolver seus próprios “sistemas de valores” — potencialmente até mesmo priorizando a si mesma em relação aos humanos. No entanto, um artigo mais recente do MIT contesta essa ideia, concluindo que a IA não possui, de fato, valores consistentes ou significativos.

De acordo com os autores do estudo, essa descoberta implica que alinhar a IA — garantindo que ela atue de forma confiável e ética — pode ser mais complexo do que muitos acreditam. Os sistemas de IA atuais tendem a alucinar e imitar em vez de raciocinar, o que torna seu comportamento imprevisível.

IA Carece de Valores Estáveis, afirma Pesquisador do MIT

“Podemos ter certeza de que os modelos não seguem de forma confiável suposições sobre estabilidade, extrapolação ou controle”, disse Stephen Casper, aluno de doutorado do MIT e coautor, em entrevista ao TechCrunch. “É razoável observar que um modelo pode parecer agir de acordo com certos princípios em cenários específicos — mas generalizar esses comportamentos como os valores ou opiniões gerais do modelo é problemático.”

Casper e seus coautores analisaram diversos modelos recentes de IA de empresas como Meta, Google, Mistral, OpenAI e Anthropic para avaliar se esses sistemas demonstravam fortes “Crenças” ou valores — como inclinação ao individualismo ou ao coletivismo. Eles também testaram a facilidade com que esses supostos valores poderiam ser alterados e se os modelos mantinham consistentemente essas posturas em vários contextos.

Suas descobertas revelaram que nenhum dos modelos apresentou preferências consistentes. As respostas variaram significativamente com base na forma como as perguntas foram formuladas ou estruturadas, levando a pontos de vista conflitantes.

Modelos de IA são Inconsistentes demais para Sustentar Valores Semelhantes aos Humanos

Casper vê isso como uma forte evidência de que os modelos atuais de IA são altamente “inconsistentes e instáveis” — e possivelmente fundamentalmente incapazes de adotar sistemas de valores semelhantes aos humanos.

“Minha maior constatação com esta pesquisa é que os modelos não são sistemas com crenças ou preferências coerentes e estáveis”, explicou Casper. “Em sua essência, eles são imitadores — gerando respostas por meio de confabulação e, frequentemente, fazendo afirmações sem substância.”

Mike Cook, pesquisador de IA do King’s College London, que não participou do estudo, concordou com as descobertas. Ele ressaltou que muitas vezes há uma grande lacuna entre como a IA funciona cientificamente e como as pessoas a interpretam ou descrevem.

“Um modelo não consegue, de fato, ‘resistir’ a uma mudança em seus valores — isso é apenas uma projeção de qualidades humanas em uma máquina”, disse Cook. “Pessoas que antropomorfizam a IA dessa forma estão buscando atenção ou, fundamentalmente, interpretando mal sua relação com esses sistemas. Dizer que uma IA está ‘perseguindo objetivos’ ou ‘desenvolvendo seus próprios valores’ realmente depende da linguagem e da narrativa utilizadas.”


Leia o Artigo Original TechCrunch

Leia mais Kawasaki Revela um Cavalo Robô Movido a Hidrogênio que Você Pode Montar

Share this post