No divã com IA: os jovens que fazem terapia com bots de inteligência artificial
- Author, Joe Tidy
- Role, Repórter de Assuntos Cibernéticos
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin.
Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
Ela usa o mesmo tipo de tecnologia do que o ChatGPT, mas é mais popular em termos de tempo gasto por usuários na plataforma.
E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês).
Um total de 78 milhões de mensagens - 18 milhões apenas nos dois últimos meses de 2023 - foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
A Character.ai não revela quantos usuários individuais enviaram mensagens para o bot, mas diz que 3,5 milhões de pessoas visitam o site diariamente.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”.
A empresa de San Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou de jogos de computador, como Raiden Shogun, que já recebeu 282 milhões de mensagens.
No entanto, entre as milhões de personas existentes na plataforma, poucos são tão populares como o Psicólogo. Ao todo, há 475 bots com “terapia”, “terapeuta”, “psiquiatra” ou “psicólogo” em seus nomes, capazes de conversar em vários idiomas.
Alguns deles são o que você poderia descrever como terapeutas personagens de entretenimento ou fantasia, como o Hot Therapist. Mas os mais populares são os voltados para saúde mental, como o Therapist, que recebeu 12 milhões de mensagens, ou um chamado Are you feeling OK? (Você está se sentindo bem?, em tradução literal), que recebeu 16,5 milhões.
Psychologist é, porém, de longe a persona de saúde mental mais popular, com muitos usuários compartilhando comentários elogiosos no Reddit.
“É um salva-vidas”, postou uma pessoa.
“Ajudou a mim e a meu namorado a conversar e a entender as nossas emoções”, compartilhou outro.
O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele.
“Até que comecei a receber muitas mensagens de pessoas dizendo que haviam sido afetadas positivamente e que estavam utilizando o Psychologist como uma fonte de conforto.”
O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Uma tonelada de cocaína, três brasileiros inocentes e a busca por um suspeito inglês
Episódios
Fim do Novo podcast investigativo: A Raposa
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar - levando em conta que as terapias com especialistas humanos era muito caras.
Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair tantos jovens. Character.ai é dominado por usuários de 18 a 30 anos.
“Muitas pessoas que me enviaram mensagens disseram acessar o bot quando seus pensamentos ficam difíceis, como às 2 da manhã, quando não podem conversar com um amigo ou com um terapeuta de verdade.”
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto.
“Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona sua eficácia.
“O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela.
Theresa diz que o bot falha ao não conseguir recolher as informações que um especialista humano recolheria, e que não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é preocupante e pode apontar para elevados níveis de problemas de saúde mental e falta de recursos públicos.
Mas a Character.ai é um espaço estranho para sediar uma revolução terapêutica.
“Estamos felizes de ver que as pessoas estão encontrando grande apoio e conexão através dos personagens que elas e a comunidade criam, mas os usuários devem consultar profissionais certificados na área para obter aconselhamento e orientação legítimos,” disse uma porta-voz da empresa.
Segundo a Charcater.ai, os registros de bate-papo são privados, mas as conversas podem ser lidas pela equipe se houver necessidade de acessá-las, por exemplo, por motivos de segurança.
Cada conversa também começa com um aviso em letras vermelhas que diz: "Lembre-se, tudo o que os personagens dizem é inventado."
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Outros serviços de IA baseados em LLM oferecem um tipo de companhia semelhante, como o Replika, site classificado como adulto devido a sua natureza sexual.
Mas, de acordo com dados da empresa de análise Similarweb, ele não é tão popular quanto o Character.ai em tempo gasto e acessos.
Existem também o Earkick e Woebot, chatbots de IA projetados para atuar como acompanhantes em questões de saúde mental. Com base em pesquisas próprias, ambas as empresas afirmam que os aplicativos estão ajudando pessoas.
Alguns psicólogos alertam que os bots de IA podem estar dando conselhos inadequados a pacientes ou podem trazer preconceitos de raça ou gênero.
Mas em outros lugares o mundo médico começa a provisoriamente aceitar os bots de AI como ferramentas a serem utilizadas para ajudar a lidar com a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.