Estilo de vida

Como a IA moldou as eleições globais em 2024

2024 marcaram um grande ano para a democracia, com eleições realizadas em mais de 70 países representando quase metade da população mundial. Também foi chamado o ano da “eleição da IA” como especialistas avisado do estrago que a desinformação gerada pela IA poderia causar. Em 2023, a IA especialista Oren Etzioni contado Fortuna“Espero um tsunami de desinformação” e a jornalista Maria Ressa disse O mundo está enfrentando um “Armageddon habilitado para tecnologia”.

As principais empresas de tecnologia até criaram o Acordo de Tecnologia Para combater o uso enganoso de IA em 2024 eleições, citando preocupações Sobre como a “geração e distribuição intencional e não revelada do conteúdo eleitoral de IA enganoso pode enganar o público de maneiras que comprometem a integridade dos processos eleitorais”. Resto do mundo Os relatórios ao longo do ano sugerem que essas preocupações podem ter sido exageradas – ou extraviadas.

No início de 2024, Resto do mundo Definido para criar um rastreador de eleições de IA com o objetivo de entender as diferentes maneiras pelas quais as ferramentas de IA estavam sendo usadas, com foco em países fora do Ocidente. Ao longo do ano, repórteres de todo o mundo reuniram casos únicos e notáveis ​​das maneiras pelas quais a IA – principalmente a IA generativa – estava sendo usada nas eleições. Até o final do ano, o rastreador incluiu 60 inscrições de 15 países. As entradas observam o tipo de mídia criada com IA, incluindo texto, imagem, áudio e vídeo; A (s) plataforma (s) em que o conteúdo foi publicado e se espalhou; e o país em questão.

Em vez de um banco de dados abrangente, nosso rastreador de eleições de IA compilou um conjunto de dados escolhido a dedo, que ofereceu um vislumbre das inúmeras maneiras pelas quais políticos e cidadãos usaram a IA para criar conteúdo político que antecedeu – e após as eleições. A maioria das postagens que coletamos está concentrada na primeira metade do ano, porque foi quando os casos de uso exclusivos surgiram pela primeira vez e quando muitas eleições importantes ocorreram.

No final do ano, os especialistas observaram que os piores medos das pessoas sobre os efeitos negativos da IA ​​nas eleições não se materializaram. Pesquisadores de IA escreveu no MIT Technology Review Isso anteriormente diz respeito a que um ataque de fagos de DeepFakes e outras informações erradas geradas pela IA enganassem os eleitores. Meta relatado Em dezembro, não encontrou muita informação errada de IA em suas plataformas e foi capaz de removê-la ou rotulá-la rapidamente.

Especialistas que falaram com Resto do mundo Disse que, embora a IA não tenha efeitos catastróficos que influenciaram as eleições, ainda há razões para se preocupar, pois o conteúdo falso da IA ​​alcançou um grande público e os usuários de mídia social nem sempre são adeptos distintivo Conteúdo de IA do conteúdo autêntico.

“Quando se trata de IA e eleições (em 2024), eu literalmente vi a frase: ‘É o cachorro que não latiu’, mas na verdade eu acho que isso é um exagero significativo”, disse Vivian Schiller, diretora executiva da Aspen Digital, um programa do ASPEN Institute, com foco em tecnologia.

Testemunha, uma organização sem fins lucrativos do Brooklyn que ajuda as pessoas a usar a tecnologia para documentar violações dos direitos humanos, também acompanhou o uso de deepfakes nas eleições no ano passado. “O que vimos foi que havia linhas de falha claras emergindo da capacidade de jornalistas, verificações de fatos e sociedade civil para lidar, detectar e se comunicar em torno dos casos de Deepfake que eles tinham”, disse Sam Gregory, diretor executivo da organização. Ele observou que as ferramentas de detecção de IA nem sempre funcionavam efetivamente para fornecer resultados conclusivos e não tinham capacidade para lidar com diferentes sotaques ou tons de pele.

Na Índia, havia muitos exemplos de pessoas usando IA generativa para criar memes na preparação para as eleições gerais de junho do país. Nilesh Christopher, um antigo Resto do mundo O repórter que rastreou incidentes na Índia cobre o conteúdo eleitoral gerado pela IA desde 2020. Em 2024, ele percebeu que os primeiros casos de conteúdo gerado pela IA eram memes, como um vídeo do primeiro-ministro Narendra Modi transposto para o rapper Lil Yachty usando Viggle AI.

“O uso lúdico da IA ​​ou o uso de IA orientado ao engajamento foi maior em comparação com usos ou danos políticos”, disse Christopher a Resto do mundo. “Tornou -se outra ferramenta para gerar conteúdo barato”.

Alguns dos casos de uso de IA mais notáveis ​​foram para comunicação pelos políticos. Algumas semanas antes da eleição do Paquistão em fevereiro, por exemplo, a Suprema Corte proibiu os membros do Partido Tehreek-e-Iinsaf do ex-primeiro-ministro Imran Khan de usar seu símbolo tradicional. Todos os candidatos à PTI tiveram que usar novos símbolos individuais nas cédulas, criando confusão entre os eleitores. Em resposta, o PTI criou um chatbot para informar os cidadãos que seu candidato local era. Após a eleição, Khan fez um discurso da prisão com a ajuda da IA ​​também.

“Uma das maneiras mais poderosas das maneiras que a IA e a criação de imagens particularmente generativas podem fazer é transformar o discurso metafórico em imagens”, disse Gregory à Resto do mundo. “E eu acho que é tão obviamente o que está acontecendo com muita participação política em várias geografias”. Na África do Sul, por exemplo, os usuários de mídia social usaram a IA para criar imagens de como seria o país sob a liderança de Julius Malema. Em países como Indonésia, Sri Lanka e Índia, usuários e políticos ressuscitaram figuras políticas com IA para comentários ou endossos de campanha.

A maioria dos incidentes Resto do mundo O rastreado caiu em duas categorias: memes e comentários de cidadãos, ou comunicação política por candidatos. Mas também documentamos os usos prejudiciais da IA ​​generativa. No México, por exemplo, alguém usou IA generativa para criar uma foto nude falsa da candidata Mariana Rodríguez Cantú. Em Taiwan, um ator vinculado a Pequim divulgou vídeos gerados pela IA com desinformação sobre o ex-presidente Tsai ing-wen uma semana antes da eleição.

Mesmo o conteúdo que parece menos prejudicial a princípio pode ter consequências negativas. As postagens geradas pela IA pulando de uma plataforma para outra ou reposveram na mesma plataforma podem levar ao colapso do contexto, onde o conteúdo destinado a um grupo de pessoas se espalha além dessa bolha e é mal interpretado. Por exemplo, um usuário de mídia social usou a IA para criar fotos de líderes do partido indiano que apoiam as políticas de seus oponentes. O post original no Instagram foi publicado com a legenda “Política em um universo paralelo” e incluiu um aviso de que as imagens foram geradas pela IA. Mas essas imagens podem ser enganosas se fossem compartilhadas sem esse contexto.

Shukri Hassan, que analisou o conteúdo sul -africano para Resto do mundoO rastreador da AI, viu uma situação semelhante acontecer em sua própria vida. Embora ela tenha conseguido reconhecer imediatamente um vídeo gerado pela IA do ex-presidente Joe Biden ameaçando sanções à África do Sul, algumas pessoas em sua órbita pessoal achavam que era real.

“Na maioria das vezes, não acho que a tecnologia ainda tenha avançado o suficiente para enganar as pessoas de forma convincente a ponto de mudarem seus votos”, disse Hassan. “Mas, especialmente com a geração mais antiga, é difícil para eles compreender que alguém pode apenas carregar um vídeo antigo em uma plataforma e criar esse tipo de visual (falso)”.

Um novo relatório da Indonésia, com base em pesquisas realizadas pela empresa de pesquisa de fundação e mercado da Luminate, Ipsos, destacou as preocupações sobre o público em geral não conseguir identificar conteúdo gerado pela IA. (Luminate, que financia projetos para apoiar questões de governança e envolvimento dos cidadãos globalmente, subscrição Resto do mundoA cobertura da interseção da tecnologia e da democracia em 2024.) Dos 1.000 entrevistados, 63% disseram que o conteúdo gerado pela IA tinha o potencial de impactar suas próprias opiniões políticas pessoais. Mas dos 33% que disseram que o conteúdo gerado pela IA teve pouco ou nenhum impacto em suas opiniões pessoais, “42% admitem que não estão muito confiantes na identificação de conteúdo gerado pela IA”, afirmou o relatório.

Em um dezembro relatório Sobre o conteúdo das eleições globais em suas plataformas, a Meta observou que o conteúdo de IA relacionado às eleições representava menos de 1% de todas as informações erradas verificadas por fatos. Um mês depois, a empresa anunciou que estava encerrando seus programas de verificação de fatos e se mudando para as notas da comunidade no estilo X.

Schiller, da Aspen Digital, observou que a Meta – que possui o WhatsApp, o Facebook e o Instagram – é A Internet em muitos lugares ao redor do mundo. Meta própria observado O fato de suas “políticas e processos existentes se mostraram suficientes para reduzir o risco em torno do conteúdo generativo de IA” nas eleições de 2024. Portanto, as plataformas de mídia social que se afastam da verificação de fatos e rotulando o conteúdo como gerado pela IA “são extremamente preocupantes”, disse Schiller. “(X) se tornou muito não confiável. Meta interrompeu sua moderação de conteúdo. Essas são muitas das ferramentas cruciais que as pessoas usam.”
As eleições de 2024 foram um “ensaio de vestir”, disse Schiller Resto do mundo. “2024 foi um ano único em termos de volume de eleições nacionais em todo o mundo, sem precedentes. Mas as eleições continuam”, disse ela. “Há outra dúzia ou mais de eleições nacionais que estão acontecendo em 2025. E, portanto, a sofisticação (da IA) só vai ficar maior”.

Fonte

Artigos Relacionados

Botão Voltar ao Topo