Meta supostamente substituindo os seres humanos por IA para avaliar os riscos do produto

De acordo com a nova revisão de documentos internos da NPR, Meta está planejando substituir os avaliadores de risco humano por Aià medida que a empresa se aproxima da automação completa.
Historicamente, a Meta confiou em analistas humanos para avaliar os possíveis danos representados por novas tecnologias em suas plataformas, incluindo atualizações do algoritmo e recursos de segurança, parte de um processo conhecido como revisões de privacidade e integridade.
Mas em um futuro próximo, essas avaliações essenciais podem ser adquiridas por bots, pois a empresa procura automatizar 90 % deste trabalho Usando inteligência artificial.
Apesar de afirmar anteriormente que a IA seria usada apenas para avaliar lançamentos de “baixo risco”, a Meta agora está lançando o uso da tecnologia em decisões sobre segurança de IA, risco para jovens e integridade, que inclui informações erradas e moderação violenta de conteúdo, informou a NPR. Sob o novo sistema, as equipes de produtos enviam questionários e recebem decisões e recomendações de risco instantâneas, com os engenheiros assumindo maiores poderes de tomada de decisão.
Velocidade de luz mashable
Embora a automação possa acelerar as atualizações de aplicativos e os lançamentos de desenvolvedores, de acordo com as metas de eficiência da Meta, os especialistas dizem que também pode representar um risco maior para bilhões de usuários, incluindo ameaças desnecessárias à privacidade dos dados.
Em abril, o Conselho de Supervisão da Meta publicou um série de decisões Isso validou simultaneamente a posição da empresa em permitir a fala “controversa” e repreendeu a gigante da tecnologia por suas políticas de moderação de conteúdo.
“À medida que essas mudanças estão sendo lançadas globalmente, o conselho enfatiza agora que é essencial que a Meta identifique e aborda impactos adversos nos direitos humanos que podem resultar deles”, diz a decisão. “Isso deve incluir avaliar se a redução da dependência da detecção automatizada de violações de políticas pode ter consequências desiguais em todo o mundo, especialmente em países que sofrem crises atuais ou recentes, como conflitos armados”.
No início daquele mês, Meta fechou seu programa de verificação de fatos humanossubstituindo-o por anotações da comunidade de origem da multidão e confiando mais no seu algoritmo de modelagem de conteúdo-tecnologia interna que é conhecida por errar e sinalizar incorretamente a desinformação e outras postagens que violam a empresa recentemente Políticas de conteúdo revisadas.
Tópicos
Inteligência artificial
Meta