As pesquisas mais recentes levantaram graves avisos sobre o uso de grandes modelos de idiomas, como ChatGPT em psicologia e psicoterapia. Pesquisas mostram que esses modelos têm limitações fundamentais na geração de informações psicologicamente úteis, especialmente na ausência de empatia e compreensão. Especialistas apontam que, embora esses modelos tenham um bom desempenho na geração de idiomas, eles geralmente não têm a sensibilidade necessária e a compreensão profunda ao lidar com problemas psicológicos complexos.
O estudo enfatiza ainda que grandes modelos de linguagem podem produzir sugestões ou informações enganosas ao lidar com tarefas de psicoterapia, o que pode afetar negativamente a saúde mental do paciente. Portanto, a pesquisa exige que o acadêmico e a indústria fortaleçam a cooperação e desenvolvam em conjunto modelos de linguagem especificamente para o campo da psicologia. Esses novos modelos precisam ser construídos em mais conjuntos de dados profissionais e benchmarks padrão para garantir sua eficácia e segurança em aplicações práticas.
Especialistas também sugerem que pesquisas futuras devem se concentrar em melhorar a inteligência emocional e a empatia desses modelos, para que possam entender e responder melhor às necessidades psicológicas humanas. Além disso, são necessários mecanismos de avaliação estritos para garantir que esses modelos possam realmente ajudar os pacientes quando aplicados à psicoterapia, em vez de representar riscos potenciais.
No geral, embora os grandes modelos de idiomas mostrem um grande potencial em vários campos, sua aplicação em psicologia e psicoterapia ainda precisa de cautela. Somente através de pesquisas e melhorias contínuas, essas tecnologias podem ser garantidas para servir a saúde mental humana com segurança e eficácia.