Como uma moratória proposta nas regras de IA do estado pode afetar você

O Congresso encaixaria o freio em qualquer regras e leis estaduais ao redor inteligência artificial Sob o idioma no grande projeto de lei federal de gastos agora antes do Senado dos EUA. Os proponentes dizem que esse movimento ajudaria a indústria a crescer e a competir com os desenvolvedores de IA na China, enquanto os críticos dizem que isso limitaria o poder de qualquer pessoa, exceto o governo federal, de colocar a GuardaRails em torno de uma tecnologia que está rapidamente se tornando uma parte importante de nossas vidas.
O proposta Diz que nenhuma subdivisão estatal ou política “pode aplicar qualquer lei ou regulamento que regula modelos de inteligência artificial, sistemas de inteligência artificial ou sistemas de decisão automatizados” por 10 anos. Em maio, a Câmara dos Deputados votou por pouco para aprovar a conta de orçamento completo, que também inclui a extensão dos cortes federais de impostos de 2017 e cortes em serviços como o Medicaid e encaixe.
Os desenvolvedores de IA e alguns legisladores disseram que a ação federal é necessária para impedir que os estados criem uma colcha de retalhos de regras e regulamentos diferentes nos EUA que possam diminuir o crescimento da tecnologia. O rápido crescimento da IA generativa desde o OpenAi Chatgpt Explodido em cena no final de 2022 levou as empresas a se adequarem à tecnologia no maior número possível de espaços. As implicações econômicas são significativas, pois os EUA e a China correm para ver qual tecnologia do país predominará, mas a IA generativa representa privacidade, transparência e outros riscos para os consumidores que os parlamentares procuraram modelar.
“Precisamos, como indústria e como país, um padrão federal claro, seja qual for”, disse Alexandr Wang, fundador e CEO da empresa de dados, à escala da IA, aos legisladores durante um Audiência de abril. “Mas precisamos de um, precisamos de clareza quanto a um padrão federal e ter preempção para evitar esse resultado onde você tem 50 padrões diferentes”.
Nem todas as empresas de IA estão apoiando uma moratória, no entanto. Em um New York Times Op-edO CEO antrópico Dario Amodei chamou de “um instrumento muito franco”, dizendo que o governo federal deveria criar padrões de transparência para as empresas de IA. “Ter esse padrão nacional de transparência ajudaria não apenas o público, mas também o Congresso a entender como a tecnologia está se desenvolvendo, para que os legisladores possam decidir se é necessária mais ação do governo”.
Os esforços para limitar a capacidade dos estados de regular a inteligência artificial podem significar menos proteções do consumidor em torno de uma tecnologia que está cada vez mais infiltralizando em todos os aspectos da vida americana. “Houve muitas discussões em nível estadual, e eu acho que é importante abordarmos esse problema em vários níveis”, disse Anjana Susarla, professora da Universidade Estadual de Michigan que estuda a IA. “Poderíamos abordá -lo em nível nacional. Podemos abordá -lo também no nível estadual. Acho que precisamos de ambos”.
Vários estados já começaram a regular a IA
O idioma proposto impediria os estados de aplicar qualquer regulamentação, incluindo aqueles que já estão nos livros. As exceções são regras e leis que facilitam as coisas para o desenvolvimento da IA e aqueles que aplicam os mesmos padrões a modelos e sistemas que não são semelhantes. Esses tipos de regulamentos já estão começando a aparecer. O maior foco não está nos EUA, mas na Europa, onde a União Europeia já implementou padrões para ai. Mas os estados estão começando a entrar em ação.
Colorado passou um conjunto das proteções do consumidor no ano passado, definido para entrar em vigor em 2026. A Califórnia adotou mais de uma dúzia de AI relacionada à IA leis no ano passado. Outros estados têm leis e regulamentos que geralmente lidam com questões específicas como DeepFakes ou exigir que os desenvolvedores de IA publiquem informações sobre seus dados de treinamento. No nível local, alguns regulamentos também abordam a potencial discriminação de emprego se os sistemas de IA forem usados na contratação.
“Os estados estão em todo o mapa quando se trata do que querem regular na IA”, disse Arsen Kourinian, sócio do escritório de advocacia Mayer Brown. Até agora em 2025, os legisladores estaduais introduziram pelo menos 550 propostas em torno da IA, de acordo com a Conferência Nacional de Legislaturas estaduais. Na audiência do Comitê da Câmara, no mês passado, o deputado Jay Obernolte, republicano da Califórnia, sinalizou o desejo de ficar à frente de mais regulamentação em nível estadual. “Temos uma quantidade limitada de pista legislativa para poder resolver esse problema antes que os estados fiquem muito à frente”, disse ele.
Enquanto alguns estados têm leis nos livros, nem todos entraram em vigor ou viram qualquer execução. Isso limita o potencial impacto a curto prazo de uma moratória, disse Cobun Zweifel-Keegan, diretor administrativo de Washington da Associação Internacional de Profissionais de Privacidade. “Ainda não há realmente nenhuma aplicação.”
Uma moratória provavelmente impediria os legisladores e formuladores de políticas estaduais de desenvolver e propor novos regulamentos, disse Zweifel-Keegan. “O governo federal se tornaria o regulador primário e potencialmente único em torno dos sistemas de IA”, disse ele.
O que significa uma moratória no regulamento da IA do estado
Os desenvolvedores de IA pediram que qualquer corrimão colocado em seu trabalho fosse consistente e simplificado. Durante um comitê de comércio do Senado ouvindo na semana passadaSam Altman, CEO da Openai, disse ao senador Ted Cruz, um republicano do Texas, que um sistema regulatório no estilo da UE “seria desastroso” para a indústria. Altman sugeriu que a indústria desenvolvesse seus próprios padrões.
Questionado pelo senador Brian Schatz, democrata do Havaí, se a auto-regulação da indústria for suficiente no momento, Altman disse que achava que alguns corrimãos seriam bons, mas “é fácil ir muito longe. Como aprendi mais sobre como o mundo funciona, tenho mais medo de que isso tenha sido muito longe e tenha consequências muito ruins”. (Divulgação: Ziff Davis, empresa controladora da CNET, em abril entrou com uma ação contra o Openai, alegando que ele violou a Ziff Davis Copyrights em treinamento e operação de seus sistemas de IA.)
Preocupações das empresas, tanto os desenvolvedores que criam sistemas de IA e os “implantadores” que os usam em interações com os consumidores, geralmente decorrem de temores que os estados exigirão trabalhos significativos, como avaliações de impacto ou avisos de transparência antes que um produto seja divulgado, disse Kourinian. Os defensores do consumidor disseram que mais regulamentos são necessários e que a capacidade dos estados pode prejudicar a privacidade e a segurança dos usuários.
“A IA está sendo amplamente utilizada para tomar decisões sobre a vida das pessoas sem transparência, responsabilidade ou recorrer – também está facilitando a fraude, representação e vigilância”, disse Ben Winters, diretor de IA e privacidade da Federação Consumidor da América, em comunicado. “Uma pausa de 10 anos levaria a mais discriminação, mais decepção e menos controle-simplesmente coloca, está do lado de empresas de tecnologia sobre as pessoas que impactam”.
Uma moratória sobre regras e leis estaduais específicas pode resultar em mais questões de proteção ao consumidor que estão sendo tratadas no tribunal ou pelos procuradores gerais do estado, disse Kourinian. As leis existentes em torno de práticas injustas e enganosas que não são específicas para a IA ainda se aplicariam. “O tempo dirá como os juízes interpretarão essas questões”, disse ele.
Susarla disse que a difusão da IA entre as indústrias significa que os estados podem ser capazes de regular questões como privacidade e transparência de maneira mais ampla, sem se concentrar na tecnologia. Mas uma moratória no regulamento da IA pode levar a essas políticas que estão sendo vinculadas em ações judiciais. “Tem que ser algum tipo de equilíbrio entre ‘Não queremos parar de inovação’, mas, por outro lado, também precisamos reconhecer que pode haver consequências reais”, disse ela.
Muita política em torno da governança dos sistemas de IA acontece por causa das chamadas regras e leis agnósticas de tecnologia, disse Zweifel-Keegan. “Vale lembrar também que existem muitas leis existentes e há um potencial para fazer novas leis que não acionam a moratória, mas se aplicam aos sistemas de IA, desde que se apliquem a outros sistemas”, disse ele.
Uma proposta de moratória de 10 anos nas leis estaduais de IA está agora nas mãos do Senado, onde o Comitê de Comércio, Ciência e Transporte do Senado já realizou audiências sobre inteligência artificial.
O debate da IA se move para o Senado
Com o projeto de lei agora nas mãos do Senado dos EUA – e com mais pessoas tomando conhecimento da proposta – o debate sobre a moratória aumentou. Os senadores de ambos os partidos, incluindo a Republican Sens. Josh Hawley e Marsha Blackburn, manifestaram suas preocupações. No Senado, a medida pode ser retirada do orçamento por causa dos chamados Regra Byrdque proíbe qualquer coisa que não seja uma questão orçamentária de ser incluída em uma conta de reconciliação.
Qualquer que seja o projeto de lei que o Senado aprova também terá que ser aceito pela Câmara, onde passou pelas margens mais estreitas. Mesmo alguns membros da Câmara que votaram no projeto disseram que não gostam da moratória, a representante Marjorie Taylor Greene, uma aliada -chave do presidente Trump. O republicano da Geórgia Postado em X esta semana que ela é “adamamente se opôs” à moratória e que não votaria no projeto com a moratória incluída.
No nível estadual, um Carta assinada por 40 Procuradores Gerais do Estado – de ambas as partes- pediu que o Congresso rejeitasse a moratória e, em vez disso, criasse esse sistema regulatório mais amplo. “Este projeto de lei não propõe nenhum esquema regulatório para substituir ou complementar as leis promulgadas ou atualmente em consideração pelos estados, deixando os americanos totalmente desprotegidos dos possíveis danos da IA”, eles escreveram.