Normalmente, os Programadores de IA ignoram a Segurança em busca de Inovação — como os Regulamos sem Obstruir a Progressão?

Normalmente, os Programadores de IA ignoram a Segurança em busca de Inovação — como os Regulamos sem Obstruir a Progressão?

Os programadores de IA normalmente ignoram a segurança em busca de inovação – como devemos regulá-los sem obstruir a progressão?

Desde a transição da inteligência artificial (IA) do conceito para a realidade, os centros de pesquisa e desenvolvimento em todo o mundo correm para encontrar a próxima grande inovação em IA.

Esta competição é, em alguns casos, chamada “corrida de IA”. No entanto, na prática, existem centenas de “corridas de IA” com finalidades diferentes. Por exemplo, alguns centros de pesquisa competem para produzir IA de ‘marketing’ eletrónico, enquanto outros competem para integrar IA com equipamento militar. Algumas corridas são entre empresas privadas e outras entre países.

Como os cientistas de IA lutam para vencer a corrida selecionada, eles podem ignorar as questões de segurança para chegar à frente dos seus oponentes. No entanto, a aplicação de diretrizes de segurança ainda não foi desenvolvida, e a hesitação em gerir a IA pode ser justificada: pode sufocar a tecnologia, reduzindo as vantagens que a IA pode fornecer à humanidade.

A nossa pesquisa atual, realizada junto com o nosso colega de trabalho Francisco C. Santos, buscou identificar quais corridas de IA precisam ser gerenciadas por razões de segurança e quais precisam ser deixadas sem controle para evitar o desenvolvimento sufocante. A equipa fez isso usando uma simulação de teoria do jogo.

Supremacia da IA

Para regular a IA, é preciso pensar nos malefícios e nas vantagens da tecnologia. Os danos contra os quais a lei pode legislar consistem no potencial da IA ​​de vitimar comunidades carentes e o desenvolvimento de ferramentas autónomas. No entanto, as vantagens da IA, como melhor diagnóstico médico de células cancerígenas e modelagem climática inteligente, podem não existir se as diretrizes de IA forem também severas. Uma regulamentação razoável de IA certamente maximizaria as suas vantagens e também mitigaria os seus danos.

No entanto, com os EUA competindo com a China e a Rússia para alcançar a “supremacia da IA” — um claro benefício tecnológico sobre os rivais — os regulamentos não são uma prioridade. Isso, de acordo com a ONU, nos impulsionou direto para uma “região moral inadequada”.

Pesquisadores de IA e órgãos de governança, como a UE, pediram diretrizes imediatas para evitar o avanço da IA ​​fraudulenta. Ainda assim, o livro branco da UE sobre o assunto reconheceu ser difícil para os órgãos de administração lembrar qual corrida de IA terminará com IA antiética e qual, sem dúvida, terminará com IA valiosa.

A cabeça de um robô assassino dos filmes Terminator
A ONU está preocupada com o desenvolvimento de armas autónomas, como as apresentadas na franquia Terminator. Usa-Pyon / Shutterstock

Olhando com antecedência

Precisávamos saber quais corridas de IA devem ser priorizadas para uma diretriz, então a nossa equipa desenvolveu uma versão académica para simular corridas de IA teóricas. Em seguida, executamos essa simulação em milhares de desempenhos, ajustando variáveis ​​para antecipar precisamente como as corridas de IA do mundo real podem acontecer.

O ‘design’ inclui uma variedade de representantes digitais que representam concorrentes numa corrida de IA — como várias empresas de tecnologia, por exemplo. Cada representante designou arbitrariamente um comportamento, simulando como esses competidores agiriam numa corrida IA ​​real. Por exemplo, alguns representantes consideram cuidadosamente todas as informações e riscos de IA, mas outros assumem riscos excessivos pulando esses exames.

Cinco corredores de robôs em um fundo digital
Algumas ‘corridas de IA’ são como sprints: elas chegam à linha de chegada, com um produto de IA funcional, muito rapidamente. 
Blue Planet Studio / Shutterstock

O ‘design’, foi baseado na teoria dos jogos transformadores, usada no passado para entender precisamente como os comportamentos evoluem na gama de sociedades, indivíduos ou até mesmo os nossos genes. O modelo presume que os vencedores num jogo específico — no nosso caso, uma corrida de IA — levam todos os benefícios, como os biólogos sugerem que ocorre no desenvolvimento.

Ao apresentar os regulamentos na nossa simulação — sancionando o comportamento perigoso e recompensando o comportamento seguro —podemos então observar quais diretrizes maximizam com sucesso as vantagens e acabam a sufocar o desenvolvimento.

Aulas de administração

A variável que consideramos especificamente vital foi o “tamanho” da corrida — o tempo que as nossas corridas simuladas levaram para atingir o seu objetivo (um produto de IA adequado). Quando as corridas de IA tornaram-se imparciais prontamente, descobrimos que os rivais que havíamos codificado para negligenciar as medidas preventivas de segurança venciam constantemente.

Nessas corridas rápidas de IA, ou “corridas de IA”, as vantagens competitivas são obtidas por ser rápido, e aqueles que param para considerar a segurança e os valores constantemente perdem. Faria sentido regular esses sprints de IA para garantir que os itens de IA com que eles terminam sejam seguros e morais.

Por outro lado, a nossa simulação localizou que tarefas de IA de longo prazo, ou “maratonas de IA”, exigem leis com menos urgência. Isso porque os campeões das maratonas de IA não eram sempre aqueles que negligenciavam a segurança. Além disso, descobriu-se que controlar maratonas de IA os impedia de atingir a sua capacidade. Isso lembrava o excesso de regulamentação sufocante — o tipo que pode antagonizar as paixões da sociedade.

Com essas descobertas, será essencial para os reguladores desenvolverem por quanto tempo diferentes corridas de IA provavelmente durarão, aplicando várias diretrizes com base nas suas escalas de tempo esperadas. As nossas descobertas recomendam que um regulamento para todas as corridas de IA — de sprints a maratonas — sem dúvida resultará em alguns resultados que estão longe de ser perfeitos.

Não é tarde demais para criar regulamentos inteligentes e flexíveis para evitar IA antiética e prejudicial, enquanto mantém IA que pode beneficiar a humanidade. No entanto, tais políticas podem ser imediatas: a nossa simulação recomenda que as corridas de IA programadas para terminar o mais rápido serão as mais importantes para regular.


Leia o artigo original em A conversa.

Share this post