Empresas e Investigadores em Crise com a Ascensão da IA Sobre-Humana

Crédito: Pixabay
Os executivos das principais empresas de IA estão a alimentar o hype de que a IA avançada em breve ultrapassará a inteligência humana, mas muitos investigadores vêem estas afirmações como meras tácticas de marketing.
A ideia de que uma inteligência de nível humano ou superior – frequentemente designada por inteligência geral artificial (AGI) – poderia emergir dos actuais métodos de aprendizagem de máquinas alimenta a especulação sobre um futuro que vai desde a prosperidade ilimitada até à extinção humana.
AGI no horizonte?
“Estão a surgir sistemas que se aproximam da AGI”, escreveu Sam Altman, CEO da OpenAI, num blogue no mês passado. Da mesma forma, Dario Amodei, da Anthropic, sugeriu que a AGI “poderia chegar já em 2026”. Estas previsões ajudam a justificar os enormes investimentos – totalizando centenas de biliões de dólares – que estão a ser canalizados para infra-estruturas de computação e recursos energéticos.
No entanto, nem toda a gente está convencida.
O cientista-chefe de IA da Meta, Yann LeCun, disse à AFP no mês passado que a simples expansão de grandes modelos de linguagem (LLMs), como os que alimentam o ChatGPT e o Claude, não conduzirá a uma IA de nível humano.
Especialistas questionam o caminho para a AGI
O seu ceticismo alinha-se com a opinião académica mais alargada. Um inquérito recente da Associação para o Avanço da Inteligência Artificial (AAAI), sediada nos EUA, revelou que mais de três quartos dos inquiridos acreditam que é improvável que a IAG resulte da mera expansão das abordagens actuais.
Alguns académicos argumentam que as afirmações das empresas – frequentemente acompanhadas de avisos sobre os riscos da AGI para a humanidade – são uma tática destinada a atrair a atenção.
As empresas “fizeram estes grandes investimentos e têm de os pagar”, disse Kristian Kersting, um dos principais investigadores de IA da Universidade Técnica de Darmstadt e membro da AAAI.
“Dizem: ‘Isto é tão perigoso que só eu o posso controlar’. De facto, até eu tenho medo, mas o génio já saiu da garrafa – por isso, vou assumir o fardo por ti”. No final, isso torna as pessoas dependentes deles”.
Apesar do ceticismo generalizado entre os investigadores, algumas figuras proeminentes, incluindo o físico vencedor do Nobel Geoffrey Hinton e o vencedor do Prémio Turing de 2018 Yoshua Bengio, alertaram para os perigos da IA avançada.
The Perils of Unchecked AI
“É como o The Sorcerer’s Apprentice de Goethe – você libera algo que não pode mais controlar”, disse Kersting, referindo-se a um poema em que um aprendiz perde o comando de uma vassoura encantada. Um equivalente moderno é a experiência de pensamento do maximizador de clips de papel: uma IA programada para produzir clips de papel poderia perseguir o seu objetivo de forma tão implacável que converteria toda a matéria do universo em clips de papel ou em máquinas para os criar – eliminando os humanos que pudessem tentar desligá-la.
Embora não seja intrinsecamente “má”, uma IA deste tipo não estaria devidamente alinhada com os valores e objectivos humanos.
Kersting reconhece estas preocupações, mas acredita que a inteligência humana é tão diversificada e sofisticada que levará muito tempo – se é que alguma vez chegará – para que a IA a iguale. Está mais preocupado com os riscos actuais, como a discriminação provocada pela IA nas interações humanas.
A aparente divisão entre os académicos e os líderes da indústria da IA pode resultar simplesmente de diferenças nas perspectivas de carreira, sugeriu Sean O hEigeartaigh, diretor do programa AI: Futures and Responsibility da Universidade de Cambridge.
“Se acreditarmos firmemente no poder das actuais técnicas de IA, é mais provável que nos juntemos a uma empresa que investe fortemente na sua concretização”, explicou.
Mesmo que figuras como Altman e Amodei sejam demasiado optimistas quanto ao rápido desenvolvimento da IAG e esta chegue muito mais tarde, O hEigeartaigh argumenta que a questão continua a merecer uma atenção séria. “Se a IAG acontecer, será o acontecimento mais significativo da história”, disse.
“Se se tratasse de outra coisa – por exemplo, a possibilidade de contacto extraterrestre até 2030 ou outra grande pandemia – dedicaríamos tempo a preparar-nos para ela.”
Um desafio fundamental, no entanto, é comunicar eficazmente estas preocupações aos decisores políticos e ao público.
As discussões sobre a IA superinteligente provocam frequentemente ceticismo. “Cria uma reação quase imune – soa a ficção científica”, observou O hEigeartaigh.
Leia o Artigo Original: TechXplore
Leia mais: Minúscula Bateria Nuclear Pode Alimentar Dispositivos Durante Décadas
Deixe um comentário