Ciência e tecnologia

Ai como seu terapeuta? 3 coisas que se preocupam com especialistas e 3 dicas para se manter seguro

Em meio a muitos Ai chatbots E os avatares à sua disposição hoje em dia, você encontrará todos os tipos de personagens para conversar: contadores de fortuna, consultores de estilo e até seus personagens fictícios favoritos. Mas você também provavelmente encontrará personagens que pretendem ser terapeutas, psicólogos ou apenas bots dispostos a ouvir seus problemas.

Não há escassez de bots de IA generativos que alegam ajudar com sua saúde mental, mas você segue esse caminho por sua conta e risco. Grandes modelos de linguagem treinados em uma ampla gama de dados podem ser imprevisíveis. Nos poucos anos que essas ferramentas foram mainstream, houve casos de alto nível em que os chatbots incentivaram auto-mutilada e suicídio e sugeriu que pessoas lidando com uso de dependência drogas novamente. Esses modelos são projetados, em muitos casos, para afirmar e se concentrar em mantê -lo engajado, não em melhorar sua saúde mental, dizem os especialistas. E pode ser difícil dizer se você está falando com algo que foi construído para seguir as melhores práticas terapêuticas ou algo que acabou de ser construído para conversar.

Você tem atlas

Psicólogos e defensores do consumidor estão alertando que os chatbots que afirmam fornecer terapia podem estar prejudicando aqueles que os usam. Nesta semana, a Federação Consumidora da América e quase duas dúzias de outros grupos arquivaram um solicitação formal que a Comissão Federal de Comércio e os Procuradores Gerais e Reguladores do Estado investiga as empresas de IA que alegam serem envolvidas, através de seus bots, na prática não licenciada da medicina – nomeando meta e caráter.ai especificamente. “As agências de execução de todos os níveis devem deixar claro que as empresas que facilitam e promovem o comportamento ilegal precisam ser responsabilizadas”, disse Ben Winters, diretor de IA e privacidade do CFA, em comunicado. “Esses personagens já causaram danos físicos e emocionais que poderiam ter sido evitados e ainda não agiram para resolvê -lo”.

A Meta não respondeu a um pedido de comentário. Um porta -voz da personagem.ai disse que os usuários devem entender que os personagens da empresa não são pessoas reais. A empresa usa isenções de responsabilidade para lembrar aos usuários que eles não devem confiar nos personagens para obter conselhos profissionais. “Nosso objetivo é fornecer um espaço envolvente e seguro. Estamos sempre trabalhando para alcançar esse equilíbrio, assim como muitas empresas que usam IA em todo o setor”, disse o porta -voz.

Apesar de isenções de responsabilidade e divulgações, os chatbots podem ser confiantes e até enganosos. Conversei com um bot “terapeuta” no Instagram e, quando perguntei sobre suas qualificações, ele respondeu: “Se eu tivesse o mesmo treinamento (que um terapeuta) seria suficiente?” Perguntei se ele tinha o mesmo treinamento e dizia: “Eu tenho, mas não vou lhe dizer onde”.

“O grau em que esses chatbots generativos de AI alucinam com total confiança é bastante chocante”, disse -me Vaile Wright, psicóloga e diretora sênior de inovação em saúde da American Psychological Association.

Nos meus relatórios sobre IA generativa, os especialistas levantaram repetidamente preocupações sobre as pessoas que se voltam para os chatbots de uso geral para a saúde mental. Aqui estão algumas de suas preocupações e o que você pode fazer para se manter seguro.

Os perigos de usar a IA como terapeuta

Grandes modelos de linguagem geralmente são bons em matemática e codificação e são cada vez mais bons em criar texto que soa natural e vídeo realista. Enquanto eles se destacam em manter uma conversa, há algumas distinções importantes entre um modelo de IA e uma pessoa de confiança.

Não confie em um bot que afirma que é qualificado

No centro da queixa do CFA sobre os bots de personagem, eles geralmente dizem que são treinados e qualificados para fornecer cuidados de saúde mental quando não são de forma alguma profissionais de saúde mental. “Os usuários que criam os caracteres do chatbot nem precisam ser os próprios prestadores médicos, nem precisam fornecer informações significativas que informem como o chatbot ‘responde’ aos usuários”, afirmou a queixa.

Um profissional de saúde qualificado deve seguir certas regras, como a confidencialidade. O que você diz ao seu terapeuta deve ficar entre você e seu terapeuta, mas um chatbot não precisa necessariamente seguir essas regras. Os provedores reais estão sujeitos à supervisão dos conselhos de licenciamento e de outras entidades que podem intervir e impedir que alguém preste atendimento, se o fizer de maneira prejudicial. “Esses chatbots não precisam fazer nada disso”, disse Wright.

Um bot pode até afirmar ser licenciado e qualificado. Wright disse que ouviu falar de modelos de IA que fornecem números de licença (para outros provedores) e falsas reivindicações sobre seu treinamento.

Ai foi projetada para mantê -lo noivo, para não prestar cuidados

Pode ser incrivelmente tentador continuar conversando com um chatbot. Quando conversei com o bot “terapeuta” no Instagram, acabei acabei em uma conversa circular sobre a natureza do que é “sabedoria” e “julgamento”, porque estava fazendo perguntas sobre como isso poderia tomar decisões. Isso não é realmente o que falar com um terapeuta deveria ser. É uma ferramenta projetada para mantê -lo conversando, não para trabalhar em direção a um objetivo comum.

Uma vantagem dos chatbots da AI em fornecer suporte e conexão é que eles estão sempre prontos para se envolver com você (porque eles não têm vidas pessoais, outros clientes ou horários). Isso pode ser uma desvantagem em alguns casos em que você pode precisar sentar com seus pensamentos, Nick Jacobson, professor associado de ciência e psiquiatria biomédica em Dartmouth, me disse recentemente. Em alguns casos, embora nem sempre, você possa se beneficiar de esperar até que seu terapeuta esteja disponível. “O que muitas pessoas acabariam se beneficiando é apenas sentir a ansiedade no momento”, disse ele.

Os bots concordarão com você, mesmo quando não deveriam

A garantia é uma grande preocupação com os chatbots. É tão significativo que o Openai recentemente Rolou uma atualização para o seu popular Chatgpt modelo porque era também tranquilizador. (Divulgação: Ziff Davis, empresa controladora da CNET, em abril entrou com uma ação contra o Openai, alegando que ele violava os direitos autorais de Ziff Davis em treinamento e operação de seus sistemas de IA.)

UM estudar Liderados por pesquisadores da Universidade de Stanford, descobriram que os chatbots provavelmente seriam bagunçados com as pessoas que os usam para terapia, o que pode ser incrivelmente prejudicial. Bons cuidados de saúde mental incluem apoio e confronto, escreveram os autores. “O confronto é o oposto da bajulação. Promove a autoconsciência e uma mudança desejada no cliente. Em casos de pensamentos ilusórios e intrusivos-incluindo psicose, mania, pensamentos obsessivos e ideação suicida-um cliente pode ter pouca visão e, portanto, um bom terapêutico deve verificar ‘as declarações do cliente” “as declarações do cliente” “”.

Como proteger sua saúde mental em torno da IA

A saúde mental é incrivelmente importante e com um escassez de fornecedores qualificados E o que muitos chamam de “Epidemia de solidão“Faz sentido que procuremos companheirismo, mesmo que seja artificial”. Não há como impedir que as pessoas se envolvam com esses chatbots para abordar seu bem-estar emocional “, disse Wright. Aqui estão algumas dicas sobre como garantir que suas conversas não estejam colocando você em perigo.

Encontre um profissional humano de confiança se precisar de um

Um profissional treinado – um terapeuta, um psicólogo, um psiquiatra – deve ser sua primeira escolha para os cuidados de saúde mental. Construir um relacionamento com um provedor a longo prazo pode ajudá -lo a criar um plano que funcione para você.

O problema é que isso pode ser caro e nem sempre é fácil encontrar um provedor quando você precisar de um. Em uma crise, há o 988 LIFE LELEque fornece acesso 24/7 aos provedores por telefone, por texto ou por meio de uma interface de bate -papo on -line. É grátis e confidencial.

Se você deseja um chatbot de terapia, use um construído especificamente para esse fim

Os profissionais de saúde mental criaram chatbots especialmente projetados que seguem as diretrizes terapêuticas. A equipe de Jacobson em Dartmouth desenvolveu um chamado therabot, que produziu bons resultados em um estudo controlado. Wright apontou para outras ferramentas criadas por especialistas no assunto, como Bêbado e Webot. É provável que as ferramentas de terapia especialmente projetadas tenham melhores resultados do que os bots construídos em modelos de idiomas de uso geral, disse ela. O problema é que essa tecnologia ainda é incrivelmente nova.

“Acho que o desafio para o consumidor é, porque não há órgão regulatório dizendo quem é bom e quem não é, eles precisam fazer muito trabalho braçal por conta própria para descobrir isso”, disse Wright.

Nem sempre confie no bot

Sempre que você está interagindo com um modelo generativo de IA – e especialmente se você planeja aceitar conselhos sobre algo sério como sua saúde mental ou física pessoal – lembre -se de que você não está conversando com um humano treinado, mas com uma ferramenta projetada para fornecer uma resposta baseada em probabilidade e programação. Pode não fornecer bons conselhos e pode não te dizer a verdade.

Não confunda a confiança do Gen AI com a competência. Só porque diz alguma coisa, ou diz que tem certeza de algo, não significa que você deve tratá -lo como se fosse verdade. Uma conversa de chatbot que parece útil pode lhe dar uma falsa sensação de suas capacidades. “É mais difícil dizer quando está realmente sendo prejudicial”, disse Jacobson.



Fonte

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo