A indústria de tecnologia tentou reduzir o viés difundido da IA. Agora Trump quer acabar com seus esforços ‘acordados’

Cambridge, Mass. – Depois de retirar -se da diversidade de trabalho, programas de capital e inclusão, as empresas de tecnologia agora podem enfrentar um segundo acerto de contas sobre o trabalho de Dei nos produtos de IA.
Na Casa Branca e no Congresso liderado por republicanos, “acordou ai” substituiu Discriminação algorítmica prejudicial como um problema que precisa ser consertado. Os esforços anteriores para “avançar a equidade” no desenvolvimento de IA e reduzir a produção de “saídas prejudiciais e tendenciosas” são um alvo de investigação, de acordo com intimações enviadas para a Amazon, Google, Meta, Microsoft, OpenAI e outras 10 empresas de tecnologia no mês passado pelo Comitê Judiciário da Câmara.
E o ramo de definição de padrões do Departamento de Comércio dos EUA excluiu menções à justiça, segurança e “IA responsável” em seu apelo à colaboração com pesquisadores externos. Em vez disso, está instruindo os cientistas a se concentrarem em “reduzir o viés ideológico” de uma maneira que “permitirá a concorrer e a competitividade econômica humana”, de acordo com uma cópia do documento obtido pela Associated Press.
De certa forma, os trabalhadores de tecnologia estão acostumados a um chicote de prioridades orientadas a Washington que afetam seu trabalho.
Mas a última mudança levantou preocupações entre especialistas no campo, incluindo o sociólogo da Universidade de Harvard, Ellis Monk, que há vários anos foi abordado pelo Google para ajudar a tornar seus produtos de IA mais inclusivos.
Naquela época, a indústria de tecnologia já sabia que tinha um problema com o ramo da IA que treina máquinas para “ver” e entender as imagens. A visão computacional realizou ótima promessa comercial, mas ecoou os vieses históricos encontrados em tecnologias de câmera anteriores que retratavam pessoas negras e marrons sob uma luz pouco lisonjeira.
“Pessoas negras ou pessoas de pele mais escura entravam em cena e às vezes parecíamos ridículas”, disse Monk, um estudioso do colorismo, uma forma de discriminação baseada em tons de pele das pessoas e outros recursos.
O Google adotou uma escala de cor inventada pelo monge que melhorou como suas ferramentas de imagem de IA retratam a diversidade de tons de pele humana, substituindo um padrão de décadas originalmente projetado para médicos que tratam pacientes com dermatologia branca.
“Os consumidores definitivamente tiveram uma resposta positiva enorme às mudanças”, disse ele.
Agora, Monk se pergunta se esses esforços continuarão no futuro. Embora ele não acredite que sua escala de tom de pele de monge esteja ameaçada porque já está assumida em dezenas de produtos no Google e em outros lugares – incluindo telefones de câmera, videogames, geradores de imagens de IA – ele e outros pesquisadores temem que o novo humor esteja relaxando iniciativas futuras e financiamento para fazer com que a tecnologia funcione melhor para todos.
“O Google quer que seus produtos funcionem para todos, na Índia, China, África, etc. “Mas o financiamento futuro para esses tipos de projetos pode ser reduzido? Absolutamente, quando o humor político mudar e quando há muita pressão para chegar ao mercado muito rapidamente”.
Trump cortou Centenas de ciências, tecnologia e Subsídios de financiamento para a saúde Tocar nos temas DEI, mas sua influência no desenvolvimento comercial de chatbots e outros produtos de IA é mais indireta. Ao investigar empresas de IA, o deputado republicano Jim Jordan, presidente do Comitê Judiciário, disse que quer descobrir se o governo do ex -presidente Joe Biden “coagido ou conspirou com eles para censurar o discurso legal.
Michael Kratsios, diretor do Escritório de Política de Ciência e Tecnologia da Casa Branca, disse em um evento do Texas este mês que as políticas de IA de Biden estavam “promovendo divisões sociais e redistribuição em nome da equidade”.
O governo Trump se recusou a disponibilizar Kratsios para uma entrevista, mas citou vários exemplos do que ele quis dizer. Uma era uma linha de uma estratégia de pesquisa de IA da era Biden que dizia: “Sem controles adequados, os sistemas de IA podem amplificar, perpetuar ou exacerbar resultados desiguais ou indesejáveis para indivíduos e comunidades”.
Mesmo antes de Biden assumir o cargo, um crescente corpo de pesquisa e anedotas pessoais estava atraindo a atenção para os danos do viés da IA.
Um estudo mostrou A tecnologia de carros autônomos tem dificuldade em detectar pedestres de pele mais escura, colocando-os em maior perigo de serem atropelados. Outro estudo perguntando Geradores populares de texto para imagens de IA para fazer uma imagem de um cirurgião descobriram que eles produziram um homem branco cerca de 98% do tempo, muito mais alto do que as proporções reais, mesmo em um campo fortemente dominado por homens.
Software de correspondência de rosto para desbloquear telefones mal identificados em rostos asiáticos. Polícia em cidades dos EUA homens negros presos indevidamente Com base em partidas de reconhecimento de rosto falso. E há uma década, o próprio aplicativo de fotos do Google classificou uma foto de dois negros em uma categoria rotulada como “gorilas”.
Até cientistas do governo no primeiro governo Trump concluído em 2019 Essa tecnologia de reconhecimento facial estava tendo um desempenho desigual com base em raça, sexo ou idade.
A eleição de Biden impulsionou algumas empresas de tecnologia a acelerar seu foco na justiça da IA. A chegada de 2022 do ChatGPT da OpenAI adicionou novas prioridades, provocando um boom comercial em novos aplicativos de IA para compor documentos e gerar imagens, pressionando empresas como o Google a facilitar sua cautela e recuperar o atraso.
Então veio o Gemini AI Chatbot do Google – e uma implantação de produtos defeituosos no ano passado que o tornaria o símbolo de “acordou ai” que os conservadores esperavam se desfazer. Deixadas por conta própria, as ferramentas de IA que geram imagens de um prompt escrito tendem a perpetuar os estereótipos acumulados de todos os dados visuais em que foram treinados.
O Google não era diferente e, quando solicitado a retratar pessoas em várias profissões, era mais provável que favorecesse rostos e homens de pele mais clara e, quando as mulheres eram escolhidas, mulheres mais jovens, de acordo com a própria pesquisa pública da empresa.
O Google tentou colocar o Technical GuardRails para reduzir essas disparidades antes de lançar o gerador de imagens da AI da Gemini há pouco mais de um ano. Acabou compensar demais o viéscolocando pessoas de cor e mulheres em ambientes históricos imprecisos, como responder a um pedido de pais fundadores americanos com imagens de homens em trajes do século XVIII que pareciam ser negros, asiáticos e nativos americanos. O Google rapidamente se desculpou e puxou temporariamente o plugue do recurso, mas a indignação se tornou um grito de guerra assumido pelo direito político.
Com o CEO do Google Sundar Pichai sentado nas proximidades, vice -presidente JD Vance Usou uma cúpula de IA Em Paris, em fevereiro, para acalmar o avanço de “agendas sociais a -históricas absolutas através da IA”, nomeando o momento em que o gerador de imagens da AI do Google estava “tentando nos dizer que George Washington era negro ou que os Doughboys da América na Primeira Guerra Mundial eram, de fato, mulheres”.
“Temos que lembrar as lições desse momento ridículo”, declarou Vance na reunião. “E o que tiramos disso é que o governo Trump garantirá que os sistemas de IA desenvolvidos na América estejam livres de viés ideológico e nunca restringem o direito de liberdade de expressão de nossos cidadãos”.
Um ex -consultor científico de Biden que participou desse discurso, Alondra Nelson, disse que o novo foco do governo Trump no “viés ideológico” da IA é, de certa forma, um reconhecimento de anos de trabalho para abordar o viés algorítmico que pode afetar a habitação, as hipotecas, os cuidados de saúde e outros aspectos da vida das pessoas.
“Fundamentalmente, dizer que os sistemas de IA são ideologicamente tendenciosos é dizer que você identifica, reconhece e está preocupado com o problema do viés algorítmico, que é o problema com o qual muitos de nós ficamos preocupados há muito tempo”, disse Nelson, ex -diretor interino do escritório da Casa Branca e da Política de Ciência e Tecnologia que co-autor de um conjunto de princípios proteger os direitos e as liberdades civis nas aplicações de IA.
Mas Nelson não vê muito espaço para colaboração em meio à denegração de iniciativas de IA equitativas.
“Acho que nesse espaço político, infelizmente, isso é bastante improvável”, disse ela. “Os problemas que foram nomeados diferentes- discriminação algorítmica ou viés algorítmico, por um lado, e o viés ideológico, por outro- será lamentavelmente nos visto como dois problemas diferentes”.