Como os Estados estão Estabelecendo Limites para a IA em Meio à Supervisão Federal Limitada

Como os Estados estão Estabelecendo Limites para a IA em Meio à Supervisão Federal Limitada

Crédito:Pixabay

Com pouca regulamentação federal, os estados lideram na criação de salvaguardas para IA, após o Congresso rejeitar pausar suas leis.

Vários estados já aprovaram leis que regem a IA, e todos os 50 introduziram legislação relacionada à IA em 2025.

Do ponto de vista regulatório, quatro áreas principais estão atraindo mais atenção: uso governamental da IA, aplicações na área da saúde, reconhecimento facial e IA generativa.

Uso Governamental da IA

Garantir a supervisão e a responsabilização é particularmente importante quando a IA é usada no setor público. A IA preditiva, usada para prever resultados, influencia decisões governamentais de serviços sociais a sentenças criminais.

No entanto, depender fortemente da tomada de decisão algorítmica pode introduzir riscos significativos, muitas vezes invisíveis. Entre eles, estão o preconceito racial e de gênero nos sistemas utilizados para a prestação de serviços governamentais.

Para abordar essas preocupações, muitas legislaturas estaduais apresentaram projetos de lei com o objetivo de regulamentar o uso de IA no setor público. Essas propostas se concentram na transparência, na proteção dos consumidores e na identificação de riscos potenciais associados à implantação de IA.

Diversos estados agora exigem que os desenvolvedores de IA divulguem os riscos potenciais associados aos seus sistemas.A Lei de IA do Colorado exige transparência e divulgação de riscos por desenvolvedores e usuários em decisões relevantes.

A lei ‘Direito à Computação’ de Montana exige gestão de riscos em IA crítica; Nova York cria órgãos para fiscalizar.

Inteligência Artificial na Saúde

Nos primeiros seis meses de 2025, legisladores em 34 estados propuseram mais de 250 projetos de lei de IA relacionados à saúde. Esses esforços legislativos geralmente se enquadram em quatro categorias principais: transparência, proteção ao consumidor, uso de IA por seguradoras e uso de IA por provedores de saúde.

Projetos de lei de transparência estabelecem quais informações os desenvolvedores de IA e as organizações que os implementam devem divulgar.

As medidas de proteção ao consumidor se concentram em prevenir vieses em sistemas de IA e garantir que as pessoas possam contestar decisões tomadas pela tecnologia.

A legislação relacionada às seguradoras aborda como as seguradoras usam a IA para determinar a cobertura e os pagamentos de saúde.

Projetos de lei relativos a aplicações clínicas regulam como os profissionais de saúde usam a IA para diagnóstico e tratamento.

Sistemas de Identificação e Monitoramento Biométrico

Nos EUA, as proteções de privacidade tradicionalmente se concentram em salvaguardar a autonomia individual da intrusão governamental — um princípio que também se aplica à vigilância facial. Nesse contexto, as tecnologias de reconhecimento facial levantam sérias preocupações com a privacidade e introduzem riscos relacionados ao viés algorítmico.

Usados em policiamento e segurança, sistemas de reconhecimento facial erram mais com pessoas de cor, como mostram pesquisas de Joy Buolamwini e Timnit Gebru, alertando para riscos a grupos marginalizados.

O viés também pode advir dos dados de treinamento usados para desenvolver esses algoritmos, especialmente quando as equipes de desenvolvimento carecem de diversidade racial e de gênero.

Até o final de 2024, 15 estados americanos haviam aprovado leis com o objetivo de coibir os danos do reconhecimento facial. Essas leis exigem divulgação de testes de viés, práticas de dados e supervisão humana na implantação de sistemas.

IA Sintética e Modelos Fundamentais

A rápida adoção da IA generativa tem levantado preocupações entre legisladores em vários estados. Em Utah, a Lei de Política de IA exige que, se solicitado, seja divulgada a IA generativa em interações, especialmente em casos de aconselhamento ou dados sensíveis. No entanto, os legisladores posteriormente limitaram a exigência a esses contextos específicos.

Em 2024, a Califórnia aprovou a AB 2013, exigindo que desenvolvedores divulguem em seus sites os dados usados para treinar sistemas de IA, incluindo modelos de base. Esses modelos são treinados em conjuntos de dados massivos e podem ser adaptados para executar múltiplas tarefas sem a necessidade de retreinamento.

Historicamente, os desenvolvedores de IA não têm sido transparentes sobre seus dados de treinamento. Essas leis buscam dar visibilidade e ajudar titulares de direitos autorais a lidar com o uso de seu conteúdo no treinamento de IA.

Esforços para Preencher a Lacuna

Na ausência de uma estrutura federal unificada, muitos estados intervieram com suas próprias leis de IA para preencher a lacuna regulatória. Embora crie desafios de conformidade para desenvolvedores de IA, essa abordagem também oferece supervisão valiosa em privacidade, direitos civis e proteção ao consumidor.

Em 23 de julho de 2025, o governo Trump anunciou que cortaria o financiamento de IA para estados com regulamentações consideradas onerosas.

A política pode desencorajar estados a adotar regras mais rígidas de IA, sob risco de perder financiamento federal e limitar sua capacidade de governar a tecnologia.


Leia o artigo original em: Tech Xplore

Leia mais:Dentes de Dinossauro Sugerem que o Ar Pré-Histórico era Surpreendentemente Pobre

Share this post