Usuários do X que Confiam no Grok para Verificação de Fatos Temem Desinformação

Usuários do X que Confiam no Grok para Verificação de Fatos Temem Desinformação

Créditos da imagem: AndreyPopov / Getty Images

Alguns usuários do X de Elon Musk estão recorrendo ao seu bot de IA, Grok, para checagem de fatos, levantando preocupações entre verificadores de fatos humanos de que isso poderia contribuir para a desinformação.

No início deste mês, o X introduziu um recurso que permite aos usuários marcar o Grok do xAI e fazer perguntas sobre vários tópicos, semelhante à forma como a Perplexity opera sua conta automatizada na plataforma.

Pouco depois do xAI lançar a conta automatizada do Grok, os usuários começaram a testar suas respostas. Em algumas regiões, incluindo a Índia, as pessoas começaram a solicitar checagens de fatos sobre declarações e perguntas relacionadas a pontos de vista políticos específicos.

Os verificadores de fatos se preocupam com essa tendência, pois assistentes de IA como Grok podem apresentar informações em um tom confiante, mesmo quando imprecisas. Casos anteriores de Grok espalhando desinformação e falsas alegações já foram observados.

Em agosto do ano passado, cinco secretários de estado pediram a Musk que fizesse mudanças essenciais no Grok depois que o assistente gerou informações enganosas que se espalharam nas mídias sociais antes da eleição dos EUA.

Chatbots de IA e a Disseminação de Desinformação

Outros chatbots de IA, incluindo o ChatGPT da OpenAI e o Gemini do Google, também foram encontrados produzindo informações imprecisas relacionadas às eleições. Além disso, pesquisadores de desinformação em 2023 descobriram que chatbots de IA como o ChatGPT poderiam facilmente gerar narrativas persuasivas, mas enganosas.

“Assistentes de IA como Grok são muito habilidosos em usar linguagem natural para fornecer respostas que soam humanas. Isso lhes dá um ar de autenticidade, mesmo quando suas respostas são completamente incorretas. Esse é o verdadeiro perigo aqui”, disse Angie Holan, diretora da International Fact-Checking Network (IFCN) na Poynter, em uma entrevista ao TechCrunch.

Um usuário do X pediu a Grok para verificar os fatos das alegações feitas por outro usuário

Verificadores de Fatos Humanos Garantem a Responsabilização por Meio de Fontes Verificadas

Ao contrário dos assistentes de IA, os verificadores de fatos humanos contam com várias fontes confiáveis ​​para verificar informações e assumir total responsabilidade por suas descobertas, com seus nomes e organizações publicamente anexados para manter a responsabilização.

Pratik Sinha, cofundador da plataforma de verificação de fatos sem fins lucrativos da Índia Alt News, destacou que, embora a Grok possa fornecer respostas convincentes, sua precisão depende inteiramente dos dados que recebe.

“A questão principal é: quem decide quais dados obtém? É aí que a influência do governo e outros fatores entram em jogo”, explicou ele.

“Há uma falta de transparência. Qualquer coisa que não seja transparente pode ser manipulada de várias maneiras, causando danos em última análise.”

No início desta semana, a conta da Grok no X admitiu em uma resposta que “poderia ser mal utilizada — para espalhar informações incorretas e violar a privacidade.”

No entanto, a conta automatizada não fornece nenhuma isenção de responsabilidade ao entregar respostas, o que significa que os usuários podem receber, sem saber, informações imprecisas se a IA gerar uma resposta enganosa ou fabricada — um risco conhecido com sistemas de IA.

Resposta de Grok sobre se pode espalhar desinformação (traduzido do hinglish)

“Ele pode fabricar informações para gerar uma resposta”, disse Anushka Jain, pesquisadora associada do Digital Futures Lab, sediado em Goa, em uma entrevista ao TechCrunch.

Incerteza sobre os dados de treinamento e salvaguardas de verificação de fatos da Grok

Também permanecem preocupações sobre o quanto a Grok depende de X postagens para dados de treinamento e quais salvaguardas ela tem em vigor para verificar informações. No verão passado, uma atualização pareceu conceder à Grok acesso padrão aos dados do usuário X, levantando mais questões sobre seu processo de verificação de fatos.

Outro problema com assistentes de IA como a Grok sendo integrados às mídias sociais é sua disseminação pública de informações, ao contrário de interações privadas de chatbot, como aquelas com o ChatGPT. Mesmo que um usuário reconheça que as respostas da IA ​​podem ser imprecisas, outros na plataforma ainda podem percebê-las como factuais.

Isso tem o potencial de causar danos sociais significativos. Na Índia, a desinformação disseminada pelo WhatsApp já levou à violência da multidão — incidentes que ocorreram antes do surgimento da IA ​​generativa, que agora torna a fabricação de conteúdo realista ainda mais fácil.

“Se você vir respostas suficientes da Grok, pode pensar: ‘A maioria delas parece precisa’, e isso pode ser verdade”, disse Holan, da IFCN. “Mas algumas estarão erradas. Pesquisas sugerem que modelos de IA podem ter taxas de erro de cerca de 20% e, quando falham, as consequências podem ser graves em situações do mundo real.”

“Ele pode fabricar informações para gerar uma resposta”, disse Anushka Jain, pesquisadora associada do Digital Futures Lab, sediado em Goa, em uma entrevista ao TechCrunch.

Também permanecem preocupações sobre o quanto a Grok depende de postagens X para dados de treinamento e quais salvaguardas ela tem em vigor para verificar informações. No verão passado, uma atualização pareceu conceder à Grok acesso padrão aos dados do usuário X, levantando mais questões sobre seu processo de verificação de fatos.

A Disseminação Pública de Informações Geradas por IA Apresenta Riscos de Desinformação

Outro problema com assistentes de IA como Grok sendo integrados às mídias sociais é a disseminação pública de informações, diferentemente das interações privadas de chatbots, como aquelas com ChatGPT. Mesmo que um usuário reconheça que as respostas da IA ​​podem ser imprecisas, outros na plataforma ainda podem percebê-las como factuais.

Isso tem o potencial de causar danos sociais significativos. Na Índia, a disseminação de desinformação via WhatsApp já levou à violência de multidões — incidentes que ocorreram antes do surgimento da IA ​​generativa, o que agora torna a fabricação de conteúdo realista ainda mais fácil.

“Se você vir respostas suficientes da Grok, pode pensar: ‘A maioria delas parece precisa’, e isso pode ser verdade”, disse Holan, da IFCN. “Mas algumas estarão erradas. Pesquisas sugerem que modelos de IA podem ter taxas de erro de cerca de 20% e, quando falham, as consequências podem ser graves em situações do mundo real.”


Leia o Artigo Original TechCrunch

Leia mais A xAI de Elon Musk Revela o seu mais Recente Modelo Principal, o Grok 3

Share this post

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *