La última investigación ha planteado serias advertencias sobre el uso de modelos de idiomas grandes como ChatGPT en psicología y psicoterapia. La investigación muestra que estos modelos tienen limitaciones fundamentales en la generación de información psicológicamente útil, especialmente en ausencia de empatía y comprensión. Los expertos señalan que si bien estos modelos funcionan bien en la generación del lenguaje, a menudo carecen de la sensibilidad necesaria y la comprensión profunda al tratar con problemas psicológicos complejos.
El estudio enfatiza además que los modelos de lenguaje grande pueden producir sugerencias o información engañosas al tratar con tareas de psicoterapia, lo que puede afectar negativamente la salud mental del paciente. Por lo tanto, la investigación exige a los académicos e industriales que fortalezcan la cooperación y desarrolle conjuntamente modelos de lenguaje específicamente para el campo de la psicología. Estos nuevos modelos deben construirse en conjuntos de datos más profesionales y puntos de referencia estándar para garantizar su efectividad y seguridad en aplicaciones prácticas.
Los expertos también sugieren que la investigación futura debería centrarse en mejorar la inteligencia emocional y la empatía de estos modelos para que puedan comprender mejor y responder a las necesidades psicológicas humanas. Además, se necesitan mecanismos de evaluación estrictos para garantizar que estos modelos realmente puedan ayudar a los pacientes cuando se aplican a la psicoterapia, en lugar de plantear riesgos potenciales.
En general, aunque los modelos de idiomas grandes muestran un gran potencial en múltiples campos, su aplicación en psicología y psicoterapia aún necesita precaución. Solo a través de la investigación y la mejora continuas se pueden garantizar estas tecnologías para servir a la salud mental humana de manera segura y efectiva.