Associate Professor in Computer Science
Até onde a inteligência artificial pode ajudar profissionais a tratar da saúde mental de pacientes? Ferramentas já têm sido usadas por aí, mostrando para a sociedade os limites da tecnologia como aliada no cuidado com a saúde.
Você já usou um aplicativo de psicólogo virtual? Diante do custo e da falta de acessibilidade à terapia, muitas pessoas têm tentado utilizar aplicativos para saúde mental, alguns baseados em inteligência artificial que buscam, através de conversas, cuidar da saúde mental. No entanto, o que se discute é a real eficácia de tais tratamentos, e como isso poderia acabar prejudicando a saúde mental dos pacientes.
Bom dia ouvintes da CBN,
A pandemia de covid-19 contribuiu para o agravamento de quadros de ansiedade e depressão. Dizem que nunca houve tanta necessidade de cuidados para saúde mental, ao mesmo tempo que há necessidade de custeio de profissionais especializados e tratamentos com medicamentos. Não precisa pensar muito pra entender que esse torna-se um problema que demanda soluções tecnológicas.
A pandemia certamente aumentou a frequência de atendimentos psicológicos online, pelo computador. Por outro lado, muita gente recorreu a aplicativos e serviços online para saúde mental e emocional, através de técnicas de aprendizado de máquina principalmente. Já existem milhares de aplicativos relacionados à saúde mental, de acordo com estimativas de associações de psiquiatria no mundo todo.
Esses aplicativos oferecem vários tipos de serviço, desde meditação guiada, monitoramento do humor ou até terapia por mensagens, não necessariamente escritas por terapeutas de carne e osso. As ideias por trás desses aplicativos são tudo menos novas. Já tem uns 60 anos que a tecnologia vem tentando fazer com que o computador nos escute e nos guie. Há tanto valor quanto risco em tentar fazer isso. A busca é compreensível pois o cuidado com a saúde mental é dispendioso, inadequado para o individuo em particular e inacessível para muita gente.
A explosão de chatbots como o chatGPT recentemente criou a esperança de que a inteligência artificial poderia de fato ajudar no suporte pessoas lidando com isolamento, depressão ou ansiedade. Através de algoritmos de aprendizado, registros de emoções poderiam ser rastreados, e através disso ajudar em diagnósticos, ou até na interação direta com o paciente.
Vou dar alguns exemplos do que estou falando. Existem alguns aplicativos conhecidos, como o Woebot (inglês), e o Cíngulo (em português), além de outros como o Ellie e o Happify, a maioria gratuitos, mas com a opção de assinar planos premium com o destravamento de todos os serviços.
No caso do Woebot, o serviço tenta imitar conversas com humanos, lembra do histórico de sessões anteriores e dá conselhos sobre sono, preocupação e estresse, bem como exercícios. Na maioria das vezes, o robô-terapeuta nos dá opções para expressarmos o que estamos sentindo. No Cíngulo, não conversamos com um robô. É mais um diário, onde registramos situações do dia e depois, recebemos uma análise. Na opção paga (R$ 399,90 no plano anual), há acompanhamento de psicólogos via chats.
A reclamação comum para esses aplicativos, no entanto, é que o chatbot acaba se tornando repetitivo, e a tentativa de ser empático soa falsa. Quando a gente fala em psicoterapia, pensamos logo em sessões periódicas, quando ficamos cara a cara com o terapeuta, falando sobre acontecimentos da vida e emoções. O profissional não analisa apenas esse conteúdo; tem também o uso das palavras, a velocidade da fala e os gestos. Até mesmo o silêncio fala muito. Um robô não é capaz de captar esses detalhes.
Recentemente, um aplicativo chamado Koko (com dois kas) fez um experimento polêmico. Nesse serviço, usuários aconselham outros usuários em questões de saúde mental. A empresa trocou algumas respostas dos usuários por respostas de uma IA baseada no GPT-3. O experimento foi cancelado depois de ter resultado em algo “estéril”, segundo reportado. As respostas eram consideradas elegantes, bem escritas, mas quase formulaicas, sem autenticidade. Isso mostra que um toque de humanidade é essencial em qualquer tratamento psicológico.
Tem também a questão ética. Os usuários deviam ser testados sem ter consciência disso? Fora de um contexto médico, dentro de serviços criados por engenheiros, será que a ajuda fornecida por um terapeuta robô vai ser sempre positiva? O próprio chatGPT apresenta uma cláusula de uso, para não ser aplicado para aconselhamento médico.
O medo dos profissionais é que, dada a dificuldade de se procurar atendimento profissional, adolescentes possam tentar usar essa tecnologia e, no caso de fracasso, simplesmente desistir de tratamentos, como se já tivesse feito algo que não funciona.
Um estudo conduzido pela Universidade de Cambridge em 2019 apontou que a terapia por meio de apps pode ser útil como coadjuvante da conduzida por profissionais, mas não os substitui. A própria Associação Americana de Psiquiatria recomenda o uso de alguns aplicativos conhecidos e confiáveis como coadjuvantes no tratamento.
Por fim, não se pode esperar que a tecnologia substitua os laços entre as pessoas, que são a base da nossa saúde mental. Não nada mágico na criação de relações saudáveis e significativas, só que elas quase sempre acabam nos curando.
Um abraço e até a próxima