Ciência e tecnologia

Visão geral da IA ​​do Google Explique idiomas inventados com absurdo confiante

A linguagem pode parecer quase infinitamente complexa, com piadas e idiomas internos às vezes tendo significado para apenas um pequeno grupo de pessoas e parecendo sem sentido para o resto de nós. Graças à IA generativa, mesmo o significado sem sentido, significando esta semana, quando a Internet explodiu como uma truta de Brook sobre a capacidade das visões gerais da AI do Google Search de definir frases nunca antes proferidas.

O que você nunca ouviu a frase “explodiu como uma truta de riacho”? Claro, eu acabei de inventar, mas o resultado geral da IA ​​do Google me disse que é uma “maneira coloquial de dizer algo explodido ou se tornou uma sensação rapidamente”, provavelmente se referindo às cores e marcas atraentes do peixe. Não, não faz sentido.

Você tem atlas

A tendência pode ter começado em tópicos, onde o autor e o roteirista Meaghan Wilson Anastasios compartilhou o que aconteceu Quando ela procurou “saltos de plataforma de manteiga de amendoim”. O Google retornou um resultado referenciando um experimento científico (não real) no qual a manteiga de amendoim foi usada para demonstrar a criação de diamantes sob alta pressão.

Ele se mudou para outros sites de mídia social, como Bluesky, onde as pessoas compartilhavam as interpretações do Google sobre frases como “Você não pode lamber um texugo duas vezes”. O jogo: procure um romance, frase sem sentido com “significado” no final.

As coisas rolaram de lá.

Captura de tela de um post de bluesky de Sharon su @doodlyroeses.com que diz

Captura de tela de Jon Reed/CNET

Um post bluesky de Livia Gershon @Liviagershon.bsky.social que diz

Captura de tela de Jon Reed/CNET

Este meme é interessante por mais razões do que alívio cômico. Ele mostra como os grandes modelos de linguagem podem se esforçar para fornecer uma resposta que sons correto, não aquele que é correto.

“Eles foram projetados para gerar respostas fluentes e plausíveis, mesmo quando a entrada é completamente absurda”, disse Yafang LiProfessor Assistente da Faculdade de Negócios e Economia Fogelman da Universidade de Memphis. “Eles não são treinados para verificar a verdade. Eles são treinados para completar a frase”.

Como cola na pizza

Os significados falsos dos ditos inventados trazem de volta as memórias das histórias muito verdadeiras sobre as visões gerais da IA ​​do Google, dando respostas incrivelmente erradas a perguntas básicas-como quando sugeriu colocar cola na pizza para ajudar o queijo.

Essa tendência parece pelo menos um pouco mais inofensiva porque não se concentra em conselhos acionáveis. Quero dizer, espero que ninguém tente lamber um texugo uma vez, muito menos duas vezes. O problema por trás disso, no entanto, é o mesmo – um grande modelo de idioma, como o Gemini do Google por trás da visão geral da IA, tenta responder às suas perguntas e oferecer uma resposta viável. Mesmo que o que isso lhe dê um absurdo.

Um porta -voz do Google disse que as visões gerais da IA ​​são projetadas para exibir informações suportadas pelos principais resultados da Web e que têm uma taxa de precisão comparável a outros recursos de pesquisa.

“Quando as pessoas fazem pesquisas absurdas ou ‘falsas’, nossos sistemas tentarão encontrar os resultados mais relevantes com base no conteúdo limitado da Web disponível”, disse o porta -voz do Google. “Isso é verdade para a pesquisa em geral e, em alguns casos, as visões gerais da IA ​​também desencadearão um esforço para fornecer contexto útil”.

Este caso em particular é um “vazio de dados”, onde não há muitas informações relevantes disponíveis para a consulta de pesquisa. O porta -voz disse que o Google está trabalhando para limitar quando as visões gerais da IA ​​aparecem em pesquisas sem informações suficientes e impedindo -as de fornecer conteúdo enganoso, satírico ou inútil. O Google usa informações sobre consultas como essas para entender melhor quando as visões gerais da IA ​​devem e não devem aparecer.

Você nem sempre receberá uma definição inventada se pedir o significado de uma frase falsa. Ao elaborar o título desta seção, procurei “como cola no significado da pizza” e não desencadeou uma visão geral da IA.

O problema não parece ser universal no LLMS. Pedi a Chatgpt pelo significado de “Você não pode lamber um texugo duas vezes” e me disse que a frase “não é um idioma padrão, mas definitivamente sons Como o tipo de provérbio peculiar e rústico, alguém poderia usar. “No entanto, tentou oferecer uma definição de qualquer maneira, essencialmente:” Se você fizer algo imprudente ou provocar perigo uma vez, talvez não sobreviva para fazê -lo novamente “.

Leia mais: AI Essentials: 27 maneiras de fazer a Gen AI funcionar para você, de acordo com nossos especialistas

Puxando o significado do nada

Esse fenômeno é um exemplo divertido da tendência dos LLMs de inventar as coisas – o que o mundo da IA ​​chama de “alucinando”. Quando um modelo de geração AI alucina, produz informações que parecem ser plausíveis ou precisas, mas não estão enraizadas na realidade.

Os LLMs “não são geradores de fatos”, disse Li, eles apenas prevêem os próximos pedaços de linguagem lógicos com base em seu treinamento.

A maioria dos pesquisadores de IA em uma pesquisa recente relatou que duvidam que os problemas de precisão e confiabilidade da IA ​​sejam resolvidos em breve.

As definições falsas mostram não apenas a imprecisão, mas o confiante imprecisão do LLMS. Quando você pede a uma pessoa o significado de uma frase como “você não pode obter um peru de um Cybertruck”, você provavelmente espera que eles dizem que não ouviram falar e que isso não faz sentido. Os LLMs geralmente reagem com a mesma confiança de se você estiver pedindo a definição de um idioma real.

Nesse caso, o Google diz que a frase significa que o Cybertruck da Tesla “não é projetado ou capaz de fornecer perus de ação de graças ou outros itens semelhantes” e destaca “seu design distinto e futurista que não é propício ao transporte de bens volumosos”. Queimar.

Essa tendência humorística tem uma lição ameaçadora: não confie em tudo o que você vê em um chatbot. Pode estar inventando coisas do nada, e não indicará necessariamente que é incerto.

“Este é um momento perfeito para educadores e pesquisadores usarem esses cenários para ensinar às pessoas como o significado é gerado e como a IA funciona e por que isso importa”, disse Li. “Os usuários devem sempre permanecer céticos e verificar reclamações”.

Tenha cuidado com o que você procura

Como você não pode confiar em um LLM para ser cético em seu nome, você precisa incentivá -lo a pegar o que diz com um grão de sal.

“Quando os usuários entram em um prompt, o modelo apenas assume que é válido e passa a gerar a resposta precisa mais provável para isso”, disse Li.

A solução é introduzir ceticismo em seu prompt. Não peça o significado de uma frase ou idioma desconhecido. Pergunte se é real. Li sugeriu que você perguntasse “Isso é um verdadeiro idioma?”

“Isso pode ajudar o modelo a reconhecer a frase em vez de apenas adivinhar”, disse ela.



Fonte

Artigos Relacionados

Botão Voltar ao Topo