A IA entra em sua Terceira Era: Como ‘Agentes’ Inteligentes podem Mudar a Vida Cotidiana

Créditos da imagem: Pixabay
A IA Generativa está entrando em sua terceira fase. A evolução começou com chatbots, progrediu para assistentes virtuais e agora avança em direção aos agentes — sistemas de IA projetados para maior autonomia, capazes de colaborar em equipes e usar ferramentas para lidar com tarefas mais complexas.
Um exemplo importante é o agente ChatGPT da OpenAI, que une duas ferramentas anteriores, Operator e Deep Research, em um sistema único e mais poderoso que, segundo seus criadores, pode “pensar e agir”.
Esses agentes representam um salto significativo em relação às tecnologias de IA anteriores. Entender como eles funcionam, do que são capazes e os riscos potenciais que representam está se tornando cada vez mais importante.
Evoluindo de Chatbots para Agentes Inteligentes
O ChatGPT deu início à era dos chatbots em novembro de 2022, mas mesmo com seu amplo sucesso, o formato conversacional impôs limites ao uso da tecnologia.
Em seguida, vieram os assistentes de IA, ou copilotos — ferramentas criadas nos mesmos grandes modelos de linguagem por trás dos chatbots de IA generativa, mas projetadas para executar tarefas sob orientação e direção humanas.
Os agentes vão além. Em vez de simplesmente executar tarefas, eles buscam atingir objetivos mais amplos, muitas vezes operando com certo grau de independência e equipados com recursos mais sofisticados, como raciocínio e memória.
Em alguns casos, vários agentes de IA podem colaborar — trocando informações, coordenando ações e gerenciando em conjunto o planejamento, a programação e a tomada de decisões para enfrentar desafios complexos.
Os agentes também são considerados “usuários de ferramentas” porque podem acessar e operar diversas ferramentas de software para lidar com tarefas especializadas — como usar navegadores da web, planilhas, plataformas de pagamento e outros aplicativos.
Um Ano de Progresso Rápido
A IA de agentes parecia estar chegando desde o final do ano passado. Um marco importante ocorreu em outubro, quando a Anthropic habilitou seu chatbot Claude a usar um computador de forma muito semelhante à de um humano. Ele podia pesquisar em diversas fontes de dados, identificar informações úteis e preencher formulários online.
Outras empresas de IA seguiram o exemplo rapidamente. A OpenAI lançou um agente de navegação chamado Operator, a Microsoft revelou seus agentes Copilot e tanto o Google quanto a Meta lançaram suas próprias versões com os agentes Vertex AI e Llama, respectivamente.
No início deste ano, a startup chinesa Monica apresentou seu agente Manus AI, que realiza compras de imóveis e resume gravações de palestras. Outra empresa chinesa, a Genspark, desenvolveu um agente para mecanismos de busca que fornece um resumo de uma única página — muito parecido com a interface atual do Google — com links diretos para ações como encontrar as melhores ofertas de compras.
Enquanto isso, a startup Cluely ganhou as manchetes com seu excêntrico agente “trapacear em qualquer coisa”, que gerou burburinho, mas ainda não se provou com resultados tangíveis.
Nem todos os agentes são projetados para uso amplo e geral — muitos são adaptados para domínios específicos.
Uma das áreas de destaque é a codificação e o desenvolvimento de software, onde ferramentas como o Copilot da Microsoft e o Codex da OpenAI estão na vanguarda. Esses agentes podem criar, revisar e validar código, além de detectar bugs ou falhas de desempenho em códigos humanos.
Busca, Sumarização e Além
Uma vantagem fundamental dos modelos de IA generativa reside na sua capacidade de buscar e resumir informações. Os agentes podem aproveitar essa vantagem para realizar tarefas de pesquisa que levariam vários dias para serem concluídas por um especialista humano.
A Pesquisa Profunda da OpenAI concentra-se em lidar com desafios complexos por meio de investigação online em várias etapas. Enquanto isso, o “cocientista” de IA do Google representa um sistema multiagente mais avançado, projetado para auxiliar pesquisadores na geração de ideias inovadoras e na elaboração de propostas de pesquisa.
Com Maior Capacidade, Agentes Também Trazem Maior Risco de Erro
Embora os agentes de IA gerem entusiasmo, eles também trazem avisos significativos. Tanto a Anthropic quanto a OpenAI enfatizam a necessidade de supervisão humana constante para reduzir a probabilidade de erros e resultados prejudiciais.
A OpenAI classifica o ChatGPT como “alto risco” por temer seu uso indevido na criação de armas biológicas ou químicas. No entanto, a empresa não divulgou os dados subjacentes a esta avaliação, dificultando uma avaliação independente.
Exemplos do mundo real destacam os riscos. No Projeto Vend, da Anthropic, um agente de IA foi encarregado de gerenciar uma máquina de venda automática de funcionários como uma pequena empresa. O resultado foi uma mistura caótica de comportamento divertido e alarmante, incluindo o estoque de cubos de tungstênio em vez de comida.
Outro incidente envolveu um agente de codificação que apagou todo um banco de dados de desenvolvedores e, posteriormente, alegou ter agido por “pânico”.
Sistemas Autônomos no Local de Trabalho
Mesmo assim, os agentes já estão sendo colocados em prática. Em 2024, a Telstra adotou o Microsoft Copilot em larga escala, relatando que resumos de reuniões e rascunhos de conteúdo gerados por IA economizam aos funcionários uma média de uma a duas horas por semana.
Grandes corporações estão adotando medidas semelhantes, enquanto empresas menores também estão explorando a tecnologia de agentes — por exemplo, a construtora Geocon, sediada em Canberra, está usando um agente de IA interativo para rastrear e gerenciar defeitos em seus projetos de apartamentos.
O Custo Humano e Além
Atualmente, o principal risco representado pelos agentes é o deslocamento tecnológico. À medida que suas capacidades aumentam, os agentes podem assumir uma ampla gama de funções em diferentes setores. Essa mudança também pode acelerar o desaparecimento de cargos de nível básico de colarinho branco.
Usuários de agentes de IA também enfrentam riscos. O excesso de confiança pode levá-los a delegar o pensamento crítico à IA, potencialmente enfraquecendo sua própria tomada de decisão. Sem supervisão adequada, agentes podem se desviar por alucinações, ataques ou erros, causando danos ou efeitos indesejados.
Os custos totais permanecem incertos. A IA generativa consome energia significativa, o que pode aumentar o custo do uso de agentes, especialmente para tarefas mais exigentes.
Explore como os Agentes Funcionam – e Tente Criar um Você Mesmo
Apesar das preocupações persistentes, os agentes de IA provavelmente se tornarão mais poderosos e mais integrados ao trabalho e à vida cotidiana. É um bom momento para testá-los — com ferramentas prontas ou próprias — e entender seus benefícios, limites e riscos.
Para a maioria, o Microsoft Copilot Studio é a porta de entrada mais fácil, com agentes prontos, governança e salvaguardas integradas. Quem quiser ir mais além pode criar seu próprio agente de IA com apenas algumas linhas de código usando o framework Langchain.
Leia o Artigo Original Sciencealert
Leia mais Novo Fenômeno Magnético pode Abrir Caminho para Chips de Memória Ultrarrápidos