Prevê-se que a IA de Mau Actor Ameace Diariamente as Democracias até Meados de 2024
Um estudo recente prevê que a utilização deliberada da IA por “maus actores” para propagar danos em linha, em particular através da desinformação, ocorrerá diariamente até meados de 2024. Os resultados suscitam preocupações, especialmente tendo em conta que mais de 50 países, incluindo os EUA, têm eleições nacionais agendadas para este ano, com potenciais consequências globais baseadas nos resultados.
Antes do lançamento das versões mais recentes dos sistemas Generative Pretrained Transformer (GPT), os especialistas em IA previram que, até 2026, 90% dos conteúdos em linha serão gerados por computador sem envolvimento humano, o que conduzirá à proliferação da desinformação.
O pressuposto de que as grandes plataformas de redes sociais, devido às suas grandes bases de utilizadores, necessitam de regulamentação para atenuar os riscos é correto, levando a esforços legislativos como a Lei dos Serviços Digitais da UE e a Lei da IA. No entanto, os “maus actores” de menor dimensão, incluindo indivíduos, grupos e países que se envolvem intencionalmente em comportamentos prejudiciais, também exploram a IA.
Um estudo recente, liderado por investigadores da Universidade George Washington (GW), representa a análise científica quantitativa inicial que aborda a forma como estes maus actores podem utilizar indevidamente a IA e os sistemas GPT para propagar danos a nível mundial através das plataformas de redes sociais e explora potenciais soluções.
“Apesar das discussões generalizadas sobre os riscos da IA, nosso estudo é o primeiro a fornecer apoio científico a essas preocupações”, disse Neil Johnson, o principal autor do estudo. “Compreender o campo de batalha é crucial para vencer qualquer batalha”.
Mapeamento do Cenário Global em Linha
Os investigadores iniciaram o seu trabalho traçando a rede dinâmica de comunidades de redes sociais interligadas que constituem a população global em linha. Os utilizadores, que vão de poucos a vários milhões, aderem a estas comunidades com base em interesses comuns, incluindo interesses potencialmente nocivos. O estudo centrou-se nas comunidades “anti-X” extremas, em que cada comunidade apresenta um discurso de ódio definido, nacionalismo extremo e/ou racismo em pelo menos duas das suas 20 publicações mais recentes. Exemplos dessas comunidades anti-X incluem as que são contra os EUA, as mulheres, o aborto ou com sentimentos anti-semitas. Ao longo do tempo, as ligações entre estas comunidades formam grupos dentro e entre várias plataformas de redes sociais.
“Qualquer comunidade A pode estabelecer uma hiperligação para qualquer comunidade B se o conteúdo de B for do interesse dos membros de A”, explicam os investigadores. “A pode estar de acordo ou em desacordo com B. Esta hiperligação dirige a atenção dos membros de A para B, permitindo-lhes acrescentar comentários sem que os membros de B tenham conhecimento da ligação. Como resultado, os membros da comunidade B são expostos e potencialmente influenciados pelos membros da comunidade A”.
Analisar o Comportamento Malicioso da IA
Utilizando um modelo matemático, os investigadores determinaram as prováveis ocorrências e motivações por detrás da atividade de IA por parte de agentes maliciosos. Especificamente, identificaram que o sistema GPT mais básico, como o GPT-2, é suficiente e tem maior probabilidade de atrair agentes maliciosos em comparação com versões mais avançadas, como o GPT-3 ou -4. Esta preferência surge porque o GPT-2 pode replicar sem esforço o estilo humano e o conteúdo encontrado em comunidades online extremas, permitindo que os agentes maliciosos utilizem esta ferramenta básica para gerar conteúdo mais provocador, alterando subtilmente a estrutura de uma consulta online sem alterar o seu significado. Em contraste, o GPT-3 e o -4 incluem um filtro que restringe as respostas a pedidos potencialmente polémicos, impedindo a geração de tais resultados.
Os investigadores alertam para o facto de o ambiente em linha propício à atividade dos maus actores-da-IA envolver tanto as comunidades diretamente envolvidas como as comunidades tradicionais com as quais se ligam, criando um ecossistema em linha vulnerável com mais de mil milhões de indivíduos. Casos reais de ódio e extremismo não gerados por IA, associados a eventos como a COVID-19, o conflito Rússia-Ucrânia e as guerras entre Israel e o Hamas, ilustram as suas preocupações.
A previsão é que a atividade dos maus actores da IA se torne uma ocorrência diária até meados de 2024. Os investigadores basearam esta previsão em dados de proxy de incidentes históricos que envolvem a manipulação de sistemas electrónicos em linha, como os ataques de algoritmos automatizados de 2008 aos mercados financeiros dos EUA e os ciberataques chineses de 2013 às infra-estruturas dos EUA. Analisando estes conjuntos de dados, extrapolaram a frequência dos ataques, tendo em conta os actuais avanços tecnológicos em matéria de IA.
Riscos em Ano de Eleições
Dado que 2024 é um ano eleitoral importante, os investigadores destacam o impacto global das eleições em mais de 50 países, incluindo os EUA. Salientam o potencial de os maus actores explorarem a IA para disseminar e amplificar a desinformação durante estas eleições, colocando riscos substanciais para os direitos humanos, as economias, as relações internacionais e a paz mundial.
Em resposta a esta ameaça, os investigadores recomendam que as empresas de redes sociais adoptem estratégias para conter a desinformação, em vez de optarem por remover todos os conteúdos gerados por maus actores.
Tendo em conta a natureza dinâmica do panorama da IA, os investigadores introduziram um aviso nas conclusões do seu estudo. No entanto, o estudo sublinha os desafios substanciais decorrentes da utilização da IA por parte dos maus actores.
“Embora o ritmo acelerado da tecnologia e a evolução do cenário online tornem difícil prever o curso exato da futura IA de maus actores, as previsões deste artigo são, em rigor, especulativas”, observaram os investigadores. “No entanto, eles são quantitativos e testáveis, bem como generalizáveis, servindo como uma base tangível para o avanço das discussões sobre medidas políticas relacionadas ao mau ator-AI.”
Leia O Artigo Original: New atlas
Leia Mais: Cateter Aprimorado por Inteligência Artificial para Prevenção de ITUs sem Medicamentos.