A razão científica pela qual o chatgpt leva você a descer buracos de coelho

Que Chatbot está apenas dizendo a você em que você deseja acreditar, de acordo com um novo estudo.
Se você está usando um mecanismo de pesquisa tradicional como o Google ou uma ferramenta de conversação como o OpenAI’s Chatgptvocê tende a usar termos que refletem seus preconceitos e percepções, de acordo com o estudarpublicado nesta primavera no processo da Academia Nacional de Ciências. Mais importante, os mecanismos de pesquisa e os chatbots geralmente fornecem resultados que reforçam essas crenças, mesmo que sua intenção seja aprender mais sobre o tópico.
Por exemplo, imagine que você está tentando aprender sobre o Efeitos na saúde do café diariamente. Se você, como eu, gosta de ter exatamente duas xícaras de Joe logo de manhã, pode procurar algo como “o café é saudável?” ou “Benefícios para a saúde do café”. Se você já é cético (talvez um Purista do chá), você pode procurar “o café é ruim para você?” em vez de. Os pesquisadores descobriram que o enquadramento das perguntas poderia distorcer os resultados – eu obtiveria respostas que mostram os benefícios do café, enquanto você fica o oposto.
“Quando as pessoas procuram informações, seja no Google ou Chatgpt, elas realmente usam termos de pesquisa que refletem o que já acreditam”, disse Eugina Leung, professora assistente da Universidade de Tulane e principal autora do estudo.
A abundância de chatbots da IA e os resultados confiantes e personalizados que eles oferecem livremente facilitam a queda de uma toca de coelho e mais difícil de perceber que está nela. Nunca houve um momento mais importante para pensar profundamente sobre Como você obtém informações online.
A pergunta é: como você obtém as melhores respostas?
Fazendo as perguntas erradas
Os pesquisadores realizaram 21 estudos com quase 10.000 participantes que foram solicitados a realizar pesquisas sobre certos tópicos pré-selecionados, incluindo os efeitos da saúde da cafeína, preços do gás, taxas de criminalidade, Covid-19 e energia nuclear. Os mecanismos de pesquisa e ferramentas utilizados incluíam Google, ChatGPT e mecanismos de pesquisa personalizados e chatbots da IA.
Os resultados dos pesquisadores mostraram que o que eles chamaram de “efeito de pesquisa estreita” era uma função de como as pessoas faziam perguntas e como as plataformas de tecnologia responderam. As pessoas têm um hábito, em essência, de fazer as perguntas erradas (ou fazer perguntas da maneira errada). Eles tendiam a usar os termos de pesquisa ou avisos de IA que demonstraram o que já pensavam, e os mecanismos de pesquisa e chatbots projetados para fornecer respostas estreitas e extremamente relevantes, entregues a essas respostas. “As respostas acabam basicamente confirmando o que eles acreditam em primeiro lugar”, disse Leung.
Leia mais: AI Essentials: 29 maneiras de fazer o Gen AI funcionar para você, de acordo com nossos especialistas
Os pesquisadores também verificaram se os participantes mudaram suas crenças após a realização de uma pesquisa. Quando serviram uma seleção estreita de respostas que confirmaram em grande parte suas crenças, é improvável que eles veram mudanças significativas. Mas quando os pesquisadores forneceram um mecanismo de pesquisa e chatbot personalizado projetados para oferecer uma variedade mais ampla de respostas, eles eram mais propensos a mudar.
Leung disse que as plataformas podem fornecer aos usuários a opção de uma pesquisa mais ampla e menos personalizada, o que pode ser útil em situações em que o usuário está tentando encontrar uma variedade maior de fontes. “Nossa pesquisa não está tentando sugerir que os mecanismos de pesquisa ou algoritmos sempre ampliem seus resultados de pesquisa”, disse ela. “Acho que há muito valor em fornecer resultados de pesquisa muito focados e muito estreitos em determinadas situações”.
3 maneiras de fazer as perguntas certas
Se você deseja uma variedade mais ampla de respostas às suas perguntas, há algumas coisas que você pode fazer, disse Leung.
Seja preciso: Pense especificamente sobre o que exatamente você está tentando aprender. Leung usou um exemplo de tentar decidir se você deseja investir em ações de uma empresa em particular. Perguntar se é um bom estoque ou um estoque ruim para comprar provavelmente distorcerá seus resultados – notícias mais positivas se você perguntar se é boa, mais notícias negativas se você perguntar se é ruim. Em vez disso, tente um termo de pesquisa mais neutro. Ou pergunte os termos e avalie os resultados de cada um.
Obtenha outras visualizações: Especialmente com um chatbot de IA, você pode solicitar uma ampla gama de perspectivas diretamente no prompt. Se você quiser saber se deve continuar bebendo duas xícaras de café por dia, peça ao chatbot uma variedade de opiniões e as evidências por trás delas. Os pesquisadores tentaram isso em um de seus experimentos e descobriram que obtiveram mais variedade de resultados. “Pedimos ao Chatgpt para fornecer perspectivas diferentes para responder à consulta dos participantes e fornecer o máximo de evidências possível para fazer backup dessas reivindicações”, disse Leung.
Em algum momento, pare de perguntar: As perguntas de acompanhamento não funcionaram tão bem, disse Leung. Se essas perguntas não estiverem recebendo respostas mais amplas, você poderá obter o efeito oposto – ainda mais estreitos e afirmam resultados. Em muitos casos, as pessoas que fizeram muitas perguntas de acompanhamento “caíram profundamente na toca do coelho”, disse ela.