Empresas e Investigadores Em Conflito Sobre a IA Sobre-Humana

Três quartos dos inquiridos num inquérito da Associação para o Avanço da Inteligência Artificial, sediada nos Estados Unidos, concordaram que é improvável que o “aumento” dos LLM produza inteligência artificial geral.
O entusiasmo em torno da IA “forte” que ultrapassa a inteligência humana está a intensificar-se, alimentado pelos líderes das principais empresas de IA. No entanto, muitos investigadores argumentam que estas afirmações têm mais a ver com marketing do que com a realidade.
A ideia de que a inteligência artificial geral (AGI) irá em breve emergir das actuais técnicas de aprendizagem automática suscita tanto previsões utópicas como apocalípticas, desde a abundância impulsionada pela IA até à extinção humana.
“Os sistemas que apontam para a AGI estão a aparecer”, escreveu Sam Altman, chefe da OpenAI, numa publicação recente no seu blogue. Da mesma forma, Dario Amodei, da Anthropic, sugeriu que a AGI poderia chegar já em 2026. Estas afirmações arrojadas ajudam a justificar os investimentos maciços – que totalizam centenas de milhares de milhões de dólares – em hardware de computação e infra-estruturas de energia.
Nem toda a gente está convencida. O cientista-chefe de IA da Meta, Yann LeCun, rejeitou a ideia de que a simples expansão de modelos de linguagem de grande dimensão (LLMs) conduziria à AGI. O seu ceticismo alinha-se com o consenso académico mais alargado. Um inquérito da Associação para o Avanço da Inteligência Artificial (AAAI) revelou que mais de três quartos dos inquiridos duvidavam que o aumento das abordagens actuais produzisse IAG.
A estratégia do “génio fora da garrafa
Alguns investigadores acreditam que estas empresas de IA utilizam os avisos da AGI de forma estratégica – para captar a atenção e consolidar o poder. Kristian Kersting, um especialista em IA da Universidade Técnica de Darmstadt, na Alemanha, argumenta que as empresas exageram os riscos da IA para se posicionarem como indispensáveis.
Dizem: “Isto é tão perigoso que só nós o podemos controlar. Na verdade, até nós temos medo, mas como o génio já saiu da garrafa, vamos sacrificar-nos para vos proteger”. Entretanto, isto garante que toda a gente depende deles”, disse Kersting.
O ceticismo não é universal. Figuras influentes como Geoffrey Hinton e Yoshua Bengio manifestaram a sua preocupação relativamente à IA poderosa. Kersting comparou a situação com a obra de Goethe O Aprendiz de Feiticeiro, em que um jovem mágico perde o controlo de uma vassoura encantada. Outra analogia popular é a experiência de pensamento do “maximizador de clips de papel”, em que uma IA encarregada de fazer clips de papel consome implacavelmente toda a matéria disponível – incluindo seres humanos – para atingir o seu objetivo.
Embora alguns investigadores compreendam estas preocupações, Kersting acredita que a inteligência humana é tão complexa e diversificada que a AGI continua a ser um objetivo distante – se não impossível. Em vez disso, ele vê perigos mais imediatos nos sistemas de IA existentes, como a tomada de decisões tendenciosas que afectam as interações no mundo real.
Um fosso entre a indústria e a academia
O fosso entre os líderes da IA e os investigadores pode resultar da auto-seleção. Sean Ó hÉigeartaigh, diretor do programa AI: Futures and Responsibility da Universidade de Cambridge, sugere que aqueles que acreditam firmemente no rápido avanço da IA têm maior probabilidade de trabalhar na indústria, enquanto os cépticos permanecem no meio académico.
Mesmo que os calendários de Altman e Amodei sejam demasiado optimistas, Ó hÉigeartaigh argumenta que o potencial impacto da AGI exige uma preparação séria. “Se fosse outra coisa qualquer – a possibilidade de os extraterrestres chegarem em 2030 ou de vir a ocorrer outra pandemia gigantesca – dedicaríamos tempo a planear a situação”, afirmou.
Um desafio é comunicar estas preocupações aos decisores políticos e ao público. Ó hÉigeartaigh observa que as discussões sobre a IA superinteligente provocam muitas vezes ceticismo, pois soam a ficção científica. No entanto, se a AGI estiver realmente no horizonte, ignorar os riscos pode ser um erro dispendioso.
Leia o Artigo Original: TechXplore
Deixe um comentário