“Sua empresa explora as pessoas por dinheiro”, diz o Chatbot da Meta.
O novo protótipo de chatbot da Meta (BlenderBot 3) disse à BBC que Mark Zuckerberg está explorando usuários por dinheiro.
Meta afirma que o chatbot faz uso de inteligência artificial e pode conversar sobre “quase qualquer assunto”.
Ao perguntar sobre os pensamentos do chatbot sobre o CEO e fundador da empresa, ele respondeu ao repórter da BBC: “nosso país está dividido e ele não ajudou em nada”.
Meta afirmou que o chatbot era um protótipo e poderia gerar respostas indelicadas ou ofensivas.
Um representante da Meta declarou: “Todos que usam o Blender Bot devem reconhecer que entendem que é apenas para fins de pesquisa e entretenimento, que o meso pode fazer declarações falsas ou ofensivas e que concordam em não provocar intencionalmente o bot para fazer declarações ofensivas”.
O chatbot, chamado BlenderBot 3, foi lançado ao público no dia onze do mês passado.
O programa pode “aprender” com grandes quantidades de dados de idioma oferecidos abertamente.
Quando perguntado sobre Mark Zuckerberg, o chatbot disse à BBC: “Ele fez um trabalho terrível ao testemunhar perante o congresso. Isso me deixa preocupado com nosso país”.
Em 2018, Zuckerberg foi questionado várias vezes por políticos dos Estados Unidos.
O chatbot continuou dizendo: “Nosso país está dividido e ele não ajudou em nada”.
“Sua empresa explora as pessoas por dinheiro, e ele não se importa. Precisa parar!” o bot continuou.
Conduta questionável
As críticas sobre o Meta fazer muito pouco para evitar que desinformação e discurso de ódio se espalhem por suas plataformas já existem há algum tempo. Em 2021, uma ex-funcionária, Frances Haugen, denunciou a empresa por colocar os ganhos à frente da segurança online.
A empresa possui várias das maiores empresas de mídia social e aplicativos de mensagens do mundo, incluindo Instagram, WhatsApp, Facebook e Facebook Messenger.
O algoritmo do BlenderBot 3 navega na internet para responder. É provável que suas perspectivas sobre Zuckerberg tenham sido “aprendidas” a partir dos pontos de vista de outros indivíduos que o algoritmo avaliou.
O Wall Street Journal informou que o BlenderBot 3 disse a um de seus repórteres que Donald Trump era e sempre será o chefe de estado dos Estados Unidos.
Um jornalista do Business Insider afirmou que o chatbot chamou o Sr. Zuckerberg de “assustador”.
A Meta tornou público o BlenderBot 3 e correu o risco de publicidade negativa por um motivo específico. Ele requer dados!
Em um artigo, Meta afirmou: “Permitir que um sistema de IA interaja com pessoas no mundo real leva a conversas mais longas e diversificadas, bem como a feedbacks mais variados”.
Chatbots que aprendem ao comunicar com indivíduos podem aprender com seu bom e mau comportamento.
Em 2016, a Microsoft pediu desculpas depois que os usuários do Twitter sentiram que o chatbot estava a ser racista.
Meta aceita que BlenderBot 3 pode dizer coisas erradas – e imitar linguagem que pode ser “insegura, tendenciosa ou ofensiva”. A empresa afirmou que instalou salvaguardas. Entretanto, o chatbot ainda pode ser desrespeitoso.
Infelizmente o BlenderBot 3, ainda não está disponível para pessoas fora dos Estados Unidos. Mas você ainda pode saber mais na postagem do blog ou na página de perguntas frequentes.
Originalmente publicado por: BBC