Alunos de todas as idades começaram a interagir regularmente com chatbots, tanto dentro uma vez que fora da escola, por diversos motivos. O quão pouco se sabe sobre o impacto destas interações nos jovens foi trazido tragicamente à luz recentemente, em seguida o suicídio de um rapaz de 14 anos na Florida. O menino costumava usar Personagem.AIuma utensílio de IA generativa de role-playing, e conversou com Game of Thrones-personagem inspirado no aplicativo momentos antes de ele se matar com um tiro. A mãe do menino entrou com uma ação contra a Character.AI alegando que a empresa é responsável por sua morte, O jornal New York Times relatado.
Embora leste seja um caso extremo, há potencial para interações prejudiciais entre chatbots e jovens, diz Heidi Kar, psicóloga clínica e Distinguished Scholar para iniciativas de saúde mental, traumatismo e violência no The Education Development Center (EDC), uma organização sem fins lucrativos. devotado a melhorar a ensino global, entre outras iniciativas.
Cada vez mais pessoas estão recorrendo Chatbots de IA para amizades e até relacionamentos pseudo-românticos. Kar não se surpreende com o motivo pelo qual muitas pessoas em universal, incluindo estudantes, procuram relacionamentos com IA em vez de pessoas reais, uma vez que os chatbots lhes dirão o que querem ouvir, em vez de oferecer verdades duras. “Os relacionamentos na vida real com pessoas reais são difíceis, confusos e nem sempre são muito bons”, diz Kar.
Apesar disso, Kar acredita que existem maneiras pelas quais os chatbots podem ajudar a educar os alunos sobre saúde mental. É por isso que ela se uniu a Simon Richmond, designer instrucional de EDC, para ajudar a gerar Saúde Mental para Todosum programa do dedo de saúde mental que utiliza IA para ajudar a ensinar aos alunos as melhores práticas de saúde mental. O programa fundamentado em evidências foi projetado para fornecer treinamento em habilidades psicológicas para grandes populações de jovens em todo o mundo. Ele combina instruções e histórias interativas em áudio e integra chatbots de IA e interação ponto a ponto.
Kar e Richmond compartilham as melhores práticas desta iniciativa e discutem possíveis problemas em torno dos chatbots de IA e da saúde mental, muito uma vez que algumas maneiras pelas quais eles podem ajudar na saúde mental.
Desafios com IA e saúde mental
Kar diz que os educadores devem estar cientes de uma vez que seus alunos podem estar envolvidos em relacionamentos potencialmente prejudiciais com chatbots, mas a pesquisa sobre relacionamentos humanos com chatbots é limitada.
“A pesquisa comparável que temos até agora, na minha opinião, no campo da psicologia, vai para a indústria pornográfica”, diz ela. “As pessoas que recorreram à pornografia e se afastaram dos relacionamentos reais para obter qualquer tipo de satisfação sexual têm muita dificuldade em voltar aos relacionamentos reais. É a mesma teoria dos chatbots. A falsificação é fácil e pode ser incrivelmente satisfatória, mesmo que não tenha o mesmo paisagem físico.”
Richmond diz que ao projetar seu programa de saúde mental, eles evitaram a geração de pessoas “sim” de IA, que exclusivamente diriam às pessoas que interagem com elas o que elas querem ouvir.
“Há mais oportunidades de incremento pessoal quando você interage com um tanto que lhe revela verdades duras, onde há atrito envolvido”, diz ele. “A gratificação direta não leva ao aprimoramento pessoal e, portanto, nosso objetivo com esses personagens de IA é fornecer empatia, interatividade e um relacionamento caloroso, mas ainda assim fornecer as habilidades e os conselhos que os jovens precisam ouvir.”
Potencial para chatbots de IA ajudarem na ensino em saúde mental
Quando programados corretamente, Kar e Richmond acreditam que os chatbots de IA podem fornecer uma saída importante para os alunos.
“Há muitas sociedades em todo o mundo onde se fala sobre saúde mental e consciência emocional de maneiras muito diferentes”, diz Richmond. “Portanto, você pode ter relacionamentos humanos ricos com colegas e adultos, mas com uma cultura ao seu volta que não possui um vocabulário para falar sobre emoções ou sobre diferentes desafios de saúde mental.”
Os chatbots do programa de psicologia de Richmond e Kar são baseados em personagens que os alunos aprendem e com os quais se conectam. A IA foi projetada para fornecer exatamente esse tipo de saída para alunos que, de outra forma, não conseguiriam conversar sobre saúde mental.
“Esta é uma forma de estabelecer uma conversa com pessoas que possuem um vocabulário e um conjunto de habilidades que não existem na cultura ao seu volta”, diz Richmond.
Potencial do chatbot em nível pessoal
Além de ajudar com um currículo orientado para a ciência, Kar acredita que há um potencial inexplorado para usar as relações das pessoas com a IA para melhorar as suas relações no mundo real.
“Ao contrário dos personagens de IA que podem gerar seu próprio relacionamento com você, que tal focar nesse personagem de IA ajudando você a gerenciar melhor seus relacionamentos pessoais”, diz ela.
Por exemplo, em vez de uma IA proferir um tanto uma vez que “Sinto muito. Ninguém entende você, mas eu entendo você”, Kar gostaria de uma IA que dissesse coisas uma vez que: “O que você acha que tornaria isso melhor? Essa luta parece difícil. Uma vez que vamos superar isso?”
Ela acrescenta: “Há tantas coisas que sabemos que poderíamos programar em personalidades de IA sobre a interação humana e a melhoria de seus relacionamentos e solução de conflitos e uma vez que mourejar com a raiva, mas sempre tendo essa informação sobre uma vez que vamos resolver isso?”
No final das contas, Kar imagina uma conversa uma vez que: “’Você nunca teve uma namorada. Você realmente quer uma namorada. O que você acha que pode levar você até lá? Ao contrário do ‘Eu entendo você. Estou cá para sua abordagem.