Como os Estados estão Estabelecendo Limites para a IA em Meio à Supervisão Federal Limitada

Crédito:Pixabay
Com pouca regulamentação federal, os estados lideram na criação de salvaguardas para IA, após o Congresso rejeitar pausar suas leis.
Vários estados já aprovaram leis que regem a IA, e todos os 50 introduziram legislação relacionada à IA em 2025.
Do ponto de vista regulatório, quatro áreas principais estão atraindo mais atenção: uso governamental da IA, aplicações na área da saúde, reconhecimento facial e IA generativa.
Uso Governamental da IA
Garantir a supervisão e a responsabilização é particularmente importante quando a IA é usada no setor público. A IA preditiva, usada para prever resultados, influencia decisões governamentais de serviços sociais a sentenças criminais.
No entanto, depender fortemente da tomada de decisão algorítmica pode introduzir riscos significativos, muitas vezes invisíveis. Entre eles, estão o preconceito racial e de gênero nos sistemas utilizados para a prestação de serviços governamentais.
Para abordar essas preocupações, muitas legislaturas estaduais apresentaram projetos de lei com o objetivo de regulamentar o uso de IA no setor público. Essas propostas se concentram na transparência, na proteção dos consumidores e na identificação de riscos potenciais associados à implantação de IA.
Diversos estados agora exigem que os desenvolvedores de IA divulguem os riscos potenciais associados aos seus sistemas.A Lei de IA do Colorado exige transparência e divulgação de riscos por desenvolvedores e usuários em decisões relevantes.
A lei ‘Direito à Computação’ de Montana exige gestão de riscos em IA crítica; Nova York cria órgãos para fiscalizar.
Inteligência Artificial na Saúde
Nos primeiros seis meses de 2025, legisladores em 34 estados propuseram mais de 250 projetos de lei de IA relacionados à saúde. Esses esforços legislativos geralmente se enquadram em quatro categorias principais: transparência, proteção ao consumidor, uso de IA por seguradoras e uso de IA por provedores de saúde.
Projetos de lei de transparência estabelecem quais informações os desenvolvedores de IA e as organizações que os implementam devem divulgar.
As medidas de proteção ao consumidor se concentram em prevenir vieses em sistemas de IA e garantir que as pessoas possam contestar decisões tomadas pela tecnologia.
A legislação relacionada às seguradoras aborda como as seguradoras usam a IA para determinar a cobertura e os pagamentos de saúde.
Projetos de lei relativos a aplicações clínicas regulam como os profissionais de saúde usam a IA para diagnóstico e tratamento.
Sistemas de Identificação e Monitoramento Biométrico
Nos EUA, as proteções de privacidade tradicionalmente se concentram em salvaguardar a autonomia individual da intrusão governamental — um princípio que também se aplica à vigilância facial. Nesse contexto, as tecnologias de reconhecimento facial levantam sérias preocupações com a privacidade e introduzem riscos relacionados ao viés algorítmico.
Usados em policiamento e segurança, sistemas de reconhecimento facial erram mais com pessoas de cor, como mostram pesquisas de Joy Buolamwini e Timnit Gebru, alertando para riscos a grupos marginalizados.
O viés também pode advir dos dados de treinamento usados para desenvolver esses algoritmos, especialmente quando as equipes de desenvolvimento carecem de diversidade racial e de gênero.
Até o final de 2024, 15 estados americanos haviam aprovado leis com o objetivo de coibir os danos do reconhecimento facial. Essas leis exigem divulgação de testes de viés, práticas de dados e supervisão humana na implantação de sistemas.
IA Sintética e Modelos Fundamentais
A rápida adoção da IA generativa tem levantado preocupações entre legisladores em vários estados. Em Utah, a Lei de Política de IA exige que, se solicitado, seja divulgada a IA generativa em interações, especialmente em casos de aconselhamento ou dados sensíveis. No entanto, os legisladores posteriormente limitaram a exigência a esses contextos específicos.
Em 2024, a Califórnia aprovou a AB 2013, exigindo que desenvolvedores divulguem em seus sites os dados usados para treinar sistemas de IA, incluindo modelos de base. Esses modelos são treinados em conjuntos de dados massivos e podem ser adaptados para executar múltiplas tarefas sem a necessidade de retreinamento.
Historicamente, os desenvolvedores de IA não têm sido transparentes sobre seus dados de treinamento. Essas leis buscam dar visibilidade e ajudar titulares de direitos autorais a lidar com o uso de seu conteúdo no treinamento de IA.
Esforços para Preencher a Lacuna
Na ausência de uma estrutura federal unificada, muitos estados intervieram com suas próprias leis de IA para preencher a lacuna regulatória. Embora crie desafios de conformidade para desenvolvedores de IA, essa abordagem também oferece supervisão valiosa em privacidade, direitos civis e proteção ao consumidor.
Em 23 de julho de 2025, o governo Trump anunciou que cortaria o financiamento de IA para estados com regulamentações consideradas onerosas.
A política pode desencorajar estados a adotar regras mais rígidas de IA, sob risco de perder financiamento federal e limitar sua capacidade de governar a tecnologia.
Leia o artigo original em: Tech Xplore
Leia mais:Dentes de Dinossauro Sugerem que o Ar Pré-Histórico era Surpreendentemente Pobre