Ciência e tecnologia

Os psicólogos estão pedindo guardrails em torno do uso da IA ​​para os jovens. Aqui está o que observar

AI generativa Os desenvolvedores devem tomar medidas para garantir que o uso de suas ferramentas não prejudique os jovens que os usam, a Associação Americana Psicológica alertou em um Consultor de saúde Terça-feira.

O relatório, compilado por um painel consultivo de especialistas em psicologia, pediu que as empresas de tecnologia garantam que haja limites com relacionamentos simulados, para criar configurações de privacidade apropriadas à idade e a incentivar usos saudáveis ​​da IA, entre outras recomendações.

Você tem atlas

A APA emitiu avisos semelhantes sobre tecnologia no passado. No ano passado, o grupo recomendou que Os pais limitam a exposição dos adolescentes aos vídeos produzidos por influenciadores de mídia social e gen ai. Em 2023, ele alertou sobre os danos que poderiam vir de Uso da mídia social entre jovens.

“Como as mídias sociais, a IA não é inerentemente boa nem ruim”, disse o chefe de psicologia da APA, Mitch Prindtein em comunicado. “Mas já vimos casos em que os adolescentes desenvolveram ‘relacionamentos’ prejudiciais e até perigosos com os chatbots, por exemplo. Alguns adolescentes podem nem saber que estão interagindo com a IA, e é por isso que é crucial que os desenvolvedores coloquem a Guardrails no lugar agora”.

A onda meteórica de ferramentas de inteligência artificial como o OpenAI’s Chatgpt e Google’s Gêmeos Os últimos anos apresentaram novos e sérios desafios para a saúde mental, especialmente entre os usuários mais jovens. As pessoas conversam cada vez mais com chatbots como se conversassem com um amigo, compartilhando segredos e confiando neles para companheirismo. Embora esse uso possa ter alguns efeitos positivos na saúde mental, também pode ser prejudicial, dizem os especialistas, reforçando comportamentos prejudiciais ou oferecendo conselhos errados. (Divulgação: Ziff Davis, empresa controladora da CNET, em abril entrou com uma ação contra o Openai, alegando que ele violou a Ziff Davis Copyrights em treinamento e operação de seus sistemas de IA.)

O que o APA recomendou sobre o uso da IA

O grupo pediu várias maneiras diferentes de garantir que os adolescentes possam usar a IA com segurança, incluindo a limitação do acesso a conteúdo nocivo e falso e protegendo a privacidade dos dados e as semelhanças de usuários jovens.

Uma diferença importante entre usuários adultos e pessoas mais jovens é que os adultos têm maior probabilidade de questionar a precisão e a intenção de uma saída de IA. Uma pessoa mais jovem (o relatório definiu adolescentes entre 10 e 25 anos) pode não ser capaz de abordar a interação com o nível apropriado de ceticismo.

Relacionamentos com entidades de IA como chatbots ou a ferramenta de interpretação de papéis Personagem.ai Também pode substituir os importantes relações sociais humanas e importantes que as pessoas aprendem a ter como se desenvolverem. “Pesquisas iniciais indicam que apegos fortes a personagens gerados pela IA podem contribuir para as lutas para aprender habilidades sociais e desenvolver conexões emocionais”, afirmou o relatório.

As pessoas na adolescência e no início dos 20 anos estão desenvolvendo hábitos e habilidades sociais que levarão para a idade adulta, e as mudanças na maneira como socializam podem ter efeitos ao longo da vida, disse Nick Jacobson, professor associado de ciência e psiquiatria biomédica de Dartmouth, que não estava no painel que produzia o relatório. “Esses estágios de desenvolvimento podem ser um modelo para o que acontece mais tarde”, disse ele.

O relatório da APA pediu que os desenvolvedores criassem sistemas que impedem a erosão das relações humanas, como lembretes de que o bot não é humano, juntamente com mudanças regulatórias para proteger os interesses dos jovens.

Outras recomendações incluíram que deve haver diferenças entre as ferramentas destinadas ao uso por adultos e aquelas usadas por crianças, como configurações apropriadas para a idade, sendo feitas inadimplência e desenhos feitos para serem menos persuasivos. Os sistemas devem ter supervisão humana e testes intensivos para garantir que estejam seguros.

Escolas e formuladores de políticas devem priorizar a educação em torno Ai alfabetização E como usar as ferramentas com responsabilidade, disse a APA. Isso deve incluir discussões sobre como avaliar as saídas de IA para viés e informações imprecisas. “Essa educação deve equipar os jovens com o conhecimento e as habilidades para entender o que é a IA, como funciona, seus potenciais benefícios e limitações, preocupações com a privacidade em relação aos dados pessoais e os riscos de dependência excessiva”, afirmou o relatório.

Identificando o uso seguro e inseguro da IA

O relatório mostra que os psicólogos enfrentam as incertezas de como uma tecnologia nova e de rápido crescimento afetará a saúde mental dos mais vulneráveis ​​a possíveis danos ao desenvolvimento, disse Jacobson.

“As nuances de como (ai) afeta o desenvolvimento social são realmente amplas”, ele me disse. “Esta é uma nova tecnologia que provavelmente é potencialmente tão grande em termos de seu impacto no desenvolvimento humano quanto na Internet”.

As ferramentas de IA podem ser úteis para a saúde mental e podem ser prejudiciais, disse Jacobson. Ele e outros pesquisadores de Dartmouth lançaram recentemente um estudo de um chatbot de AI que mostrou promessa em fornecer terapiamas foi projetado especificamente para seguir práticas terapêuticas e foi monitorado de perto. As ferramentas mais gerais da IA, disse ele, podem fornecer informações incorretas ou incentivar comportamentos prejudiciais. Ele apontou para questões recentes com a bajulação em um modelo de chatgpt, que openai eventualmente revertido.

“Às vezes, essas ferramentas se conectam de maneiras que podem parecer muito validadoras, mas às vezes podem agir de maneiras que podem ser muito prejudiciais”, disse ele.

Jacobson disse que é importante que os cientistas continuem pesquisando os impactos psicológicos do uso de IA e educar o público sobre o que aprendem.

“O ritmo do campo está se movendo tão rápido e precisamos de algum espaço para a ciência recuperar o atraso”, disse ele.

O APA oferecido sugestões Para o que os pais podem fazer para garantir que os adolescentes estejam usando a IA com segurança, incluindo a explicação de como a IA funciona, incentivando as interações humanos, enfatizando a imprecisão potencial das informações de saúde e revisando as configurações de privacidade.



Fonte

Artigos Relacionados

Botão Voltar ao Topo