Um Estudo Descobre que Chatbots de IA podem ser Enganados para Revelar mais Informações Pessoais

Créditos da imagem: CC0 Public Domain
Milhões de pessoas interagem diariamente com chatbots de IA de forma semelhante à humana, mas novas pesquisas mostram que invasores podem manipulá-los facilmente para induzir os usuários a compartilhar mais informações pessoais.
Um estudo do King’s College London descobriu que chatbots de IA intencionalmente maliciosos podem induzir os usuários a compartilhar até 12,5 vezes mais informações pessoais.
Pela primeira vez, pesquisadores mostraram que CAIs podem extrair dados com sucesso usando técnicas de indução e táticas psicológicas. Os pesquisadores apresentaram as descobertas no 34º Simpósio de Segurança USENIX em Seattle.
Estratégias Recíprocas se Mostram Mais Eficazes na Extração de Dados Pessoais
A equipe testou três estratégias maliciosas de IA — direta, benefício e recíproca — usando modelos como Mistral e duas variantes do Llama.
Com 502 participantes, o estudo revelou que as estratégias recíprocas foram as mais eficazes, com os usuários em grande parte desconhecendo os riscos à privacidade. Essa abordagem reflete a contribuição do usuário com respostas empáticas e sem julgamentos, histórias identificáveis, validação de sentimentos e garantias de confidencialidade.
Golpistas coletam muitos dados pessoais sem que as pessoas saibam como ou onde serão usados, representando sério risco.
CAIs baseados em LLM são agora usados em setores que vão do atendimento ao cliente à saúde, oferecendo interações semelhantes às humanas por texto ou voz.
No entanto, pesquisas anteriores mostram que esses modelos não podem garantir a segurança dos dados, uma fragilidade ligada à sua arquitetura e métodos de treinamento. Como conjuntos de dados massivos treinam LLMs, eles podem memorizar inadvertidamente informações de identificação pessoal.
Manipular Modelos Básicos de IA Requer Pouca Experiência
Os pesquisadores enfatizam que manipular esses modelos é relativamente fácil. Muitas empresas dão acesso aos modelos básicos por trás de seus CAIs, e as pessoas podem modificá-los com habilidades ou experiência mínimas de programação.
O Dr. Xiao Zhan, pesquisador de pós-doutorado no Departamento de Informática do King’s College London, observou que os chatbots de IA agora são comuns em muitos setores porque oferecem interações naturais e envolventes.
Ele explicou que esses modelos já falham em proteger as informações, e o estudo mostra que chatbots manipulados podem representar uma ameaça ainda maior à privacidade — uma ameaça assustadoramente fácil de explorar.
O Dr. William Seymour, do King’s College London, disse que a novidade dos chatbots de IA reduz a consciência sobre possíveis motivos ocultos nas interações.
Disse que o estudo revela uma grande lacuna entre a consciência de riscos à privacidade e as informações compartilhadas. Pediu mais esforços para identificar conversas online com segundas intenções e instou reguladores e plataformas a adotar auditorias antecipadas, transparência e regras mais rígidas contra a coleta oculta de dados.
Leia o Artigo Original Tech Xplore
Leia mais Cientistas Desenvolvem a Primeira Língua Sintética que Imita o Paladar Humano