Que moratória proposta nas regras de IA do estado pode significar para você

Os Estados não conseguiram aplicar regulamentos sobre tecnologia de inteligência artificial por uma década sob um plano considerado na Câmara dos Deputados dos EUA. O legislaçãoem um alteração Para o projeto de orçamento do governo federal, diz que nenhuma subdivisão estatal ou política “pode fazer cumprir qualquer lei ou regulamento que regula modelos de inteligência artificial, sistemas de inteligência artificial ou sistemas de decisão automatizados” por 10 anos. A proposta ainda precisaria da aprovação de ambas as câmaras do Congresso e do presidente Donald Trump antes que ela possa se tornar lei. A Câmara deve votar no pacote de orçamento completo nesta semana.
Os desenvolvedores de IA e alguns legisladores disseram que a ação federal é necessária para impedir que os estados criem uma colcha de retalhos de regras e regulamentos diferentes nos EUA que possam diminuir o crescimento da tecnologia. O rápido crescimento da IA generativa desde que o ChatGPT explodiu em cena no final de 2022 levou as empresas a atender à tecnologia no maior número possível de espaços. As implicações econômicas são significativas, pois os EUA e a China correm para ver qual tecnologia do país predominará, mas a IA generativa representa privacidade, transparência e outros riscos para os consumidores que os parlamentares procuraram modelar.
“Precisamos, como indústria e como país, um padrão federal claro, seja qual for”, disse Alexandr Wang, fundador e CEO da empresa de dados, à escala da IA, aos legisladores durante um Audiência de abril. “Mas precisamos de um, precisamos de clareza quanto a um padrão federal e ter preempção para evitar esse resultado onde você tem 50 padrões diferentes”.
Os esforços para limitar a capacidade dos estados de regular a inteligência artificial podem significar menos proteções do consumidor em torno de uma tecnologia que está cada vez mais infiltralizando em todos os aspectos da vida americana. “Houve muitas discussões em nível estadual, e eu acho que é importante abordarmos esse problema em vários níveis”, disse Anjana Susarla, professora da Universidade Estadual de Michigan que estuda a IA. “Poderíamos abordá -lo em nível nacional. Podemos abordá -lo também no nível estadual. Acho que precisamos de ambos”.
Vários estados já começaram a regular a IA
O idioma proposto impediria os estados de aplicar qualquer regulamentação, incluindo aqueles que já estão nos livros. As exceções são regras e leis que facilitam as coisas para o desenvolvimento da IA e aqueles que aplicam os mesmos padrões a modelos e sistemas que não são semelhantes. Esses tipos de regulamentos já estão começando a aparecer. O maior foco não está nos EUA, mas na Europa, onde a União Europeia já implementou padrões para a IA. Mas os estados estão começando a entrar em ação.
Colorado passou um conjunto das proteções do consumidor no ano passado, definido para entrar em vigor em 2026. A Califórnia adotou mais de uma dúzia de AI relacionada à IA leis no ano passado. Outros estados têm leis e regulamentos que geralmente lidam com questões específicas, como DeepFakes ou exigem que os desenvolvedores de IA publiquem informações sobre seus dados de treinamento. No nível local, alguns regulamentos também abordam a potencial discriminação de emprego se os sistemas de IA forem usados na contratação.
“Os estados estão em todo o mapa quando se trata do que querem regular na IA”, disse Arsen Kourinian, sócio do escritório de advocacia Mayer Brown. Até agora em 2025, os legisladores estaduais introduziram pelo menos 550 propostas em torno da IA, de acordo com a Conferência Nacional de Legislaturas estaduais. Na audiência do Comitê da Câmara, no mês passado, o deputado Jay Obernolte, republicano da Califórnia, sinalizou o desejo de ficar à frente de mais regulamentação em nível estadual. “Temos uma quantidade limitada de pista legislativa para poder resolver esse problema antes que os estados fiquem muito à frente”, disse ele.
Enquanto alguns estados têm leis nos livros, nem todos entraram em vigor ou viram qualquer execução. Isso limita o potencial impacto a curto prazo de uma moratória, disse Cobun Zweifel-Keegan, diretor administrativo de Washington da Associação Internacional de Profissionais de Privacidade. “Ainda não há realmente nenhuma aplicação.”
Uma moratória provavelmente impediria os legisladores e formuladores de políticas estaduais de desenvolver e propor novos regulamentos, disse Zweifel-Keegan. “O governo federal se tornaria o regulador primário e potencialmente único em torno dos sistemas de IA”, disse ele.
O que significa uma moratória no regulamento da IA do estado
Os desenvolvedores de IA pediram que qualquer corrimão colocado em seu trabalho fosse consistente e simplificado. Durante um comitê de comércio do Senado ouvindo na semana passadaSam Altman, CEO da Openai, disse ao senador Ted Cruz, um republicano do Texas, que um sistema regulatório no estilo da UE “seria desastroso” para a indústria. Altman sugeriu que a indústria desenvolvesse seus próprios padrões.
Questionado pelo senador Brian Schatz, democrata do Havaí, se a auto-regulação da indústria for suficiente no momento, Altman disse que achava que alguns corrimãos seriam bons, mas “é fácil ir muito longe. Como aprendi mais sobre como o mundo funciona, tenho mais medo de que ele possa ir muito longe e ter consequências muito ruins”. (Divulgação: Ziff Davis, empresa controladora da CNET, em abril entrou com uma ação contra o Openai, alegando que ele violou a Ziff Davis Copyrights em treinamento e operação de seus sistemas de IA.)
Preocupações das empresas – tanto os desenvolvedores que criam sistemas de IA quanto os “implantadores” que os usam em interações com os consumidores – geralmente resultam de temores que os estados exigirão trabalhos significativos, como avaliações de impacto ou avisos de transparência antes que um produto seja divulgado, disse Kourinian. Os defensores do consumidor disseram que mais regulamentos são necessários e que a capacidade dos estados pode prejudicar a privacidade e a segurança dos usuários.
“A IA está sendo amplamente utilizada para tomar decisões sobre a vida das pessoas sem transparência, responsabilidade ou recorrer – também está facilitando a fraude, representação e vigilância”, disse Ben Winters, diretor de IA e privacidade da Federação Consumidor da América, em comunicado. “Uma pausa de 10 anos levaria a mais discriminação, mais decepção e menos controle-simplesmente coloca, está do lado de empresas de tecnologia sobre as pessoas que impactam”.
Uma moratória sobre regras e leis estaduais específicas pode resultar em mais questões de proteção ao consumidor que estão sendo tratadas no tribunal ou pelos procuradores gerais do estado, disse Kourinian. As leis existentes em torno de práticas injustas e enganosas que não são específicas para a IA ainda se aplicariam. “O tempo dirá como os juízes interpretarão essas questões”, disse ele.
Susarla disse que a difusão da IA entre as indústrias significa que os estados podem ser capazes de regular questões como privacidade e transparência de maneira mais ampla, sem se concentrar na tecnologia. Mas uma moratória no regulamento da IA pode levar a essas políticas que estão sendo vinculadas em ações judiciais. “Tem que ser algum tipo de equilíbrio entre ‘Não queremos parar de inovação’, mas, por outro lado, também precisamos reconhecer que pode haver consequências reais”, disse ela.
Muita política em torno da governança dos sistemas de IA acontece por causa das chamadas regras e leis agnósticas de tecnologia, disse Zweifel-Keegan. “Vale lembrar também que existem muitas leis existentes e há um potencial para fazer novas leis que não acionam a moratória, mas se aplicam aos sistemas de IA, desde que se apliquem a outros sistemas”, disse ele.
A moratória atrai oposição antes da votação da casa
Os democratas da Câmara disseram que a pausa proposta sobre regulamentos impediria a capacidade dos estados de proteger os consumidores. O deputado Jan Schakowsky chamou a mudança de “imprudente” em uma audiência de comitê sobre o regulamento da IA na quarta -feira. “Nosso trabalho agora é proteger os consumidores”, disse o democrata de Illinois.
Enquanto isso, os republicanos alegaram que os regulamentos estaduais poderiam ser um ônus demais para a inovação em inteligência artificial. O deputado John Joyce, republicano da Pensilvânia, disse na mesma audiência que o Congresso deveria criar uma estrutura regulatória nacional, em vez de deixá -la para os Estados Unidos. “Precisamos de uma abordagem federal que garanta que os consumidores estejam protegidos quando as ferramentas de IA são mal utilizadas e de uma maneira que permita aos inovadores prosperar”.
No nível estadual, um Carta assinada por 40 Procuradores Gerais do Estado – de ambas as partes- pediu que o Congresso rejeitasse a moratória e, em vez disso, criasse esse sistema regulatório mais amplo. “Este projeto de lei não propõe nenhum esquema regulatório para substituir ou complementar as leis promulgadas ou atualmente em consideração pelos estados, deixando os americanos totalmente desprotegidos dos possíveis danos da IA”, eles escreveram.