¿Puede Chat GPT sustituir a un psicólogo? Esto es lo que Tomás Mazza se plantea en un reciente podcast. Mazza es un influencer conocido por sus vídeos relacionados con la salud física y el deporte. Actualmente se está preparando para pelear en La Velada del Año V organizada por otro influencer, Ibai, y ha aprovechado para charlar en el podcast de René, ZZEN. En un fragmento de la entrevista, Mazza comenta que utiliza ChatGPT como si fuera un psicólogo. Es una herramienta que le ayuda a dormir, y habla de diferentes “beneficios”, como que no es un psicólogo “que te quiera atrapar para seguir haciendo sesiones”.
Antes de sacar cualquier conclusión, es necesario reflexionar sobre los beneficios y perjuicios reales de una IA para abordar problemas de carácter psicológico.
Chat GPT, IA y Psicología
Lo primero que debemos conocer es cómo funciona Chat GPT. A modo de resumen, las IAs como ChatGPT, son un modelo de lenguaje entrenado para mantener una conversación, con información sacada de textos de la web. Esta IA se va entrenando a lo largo del tiempo según las correcciones que vayan dando los usuarios, tratando de afinar la información que ofrece.
Beneficios de ChatGPT
Se ha demostrado que la IA es igual de competente o mejor para la conceptualización de casos por parte de profesionales. Además, a día de hoy, algunos profesionales usan estas herramientas a la hora de desarrollar una intervención psicológica.
En general, se ve que ChatGPT puede resultar útil cuando se introducen algunos datos básicos de los usuarios para generar diferentes opciones de tratamiento. Pero es necesario que cuente con esta información por parte de un profesional para tener unos resultados más eficaces.
Contras de ChatGPT
Los perjuicios del uso de esta herramienta provienen de la base para lo que está diseñada: se basa en los datos generales de la web, libros, etc. Y no toda la información que podemos encontrar en estos recursos es útil o, directamente, son una mentira o no está basada en evidencia científica.
Además, ChatGPT aprende de lo que le dicen los usuarios, lo cuál puede ser positivo para este modelo de lenguaje. Sin embargo, también puede ser entrenado de manera errónea.
Algunas de las limitaciones que se han encontrado son las siguientes:
- Falta en la fluidez del lenguaje y vocabulario limitado. Según una investigación, puede crear escenarios de “terapia” poco coherentes.
- Dependencia emocional. En este artículo se concluye que ChatGPT, en algunos casos, puede generar dependencia mediante su uso durante largos periodos de tiempo, tendencia a la soledad y aislamiento.
- Retroalimentación emocional. ChatGPT tiende a copiar el tono emocional del mensaje que le es enviado. Puede hacer que se entre en un bucle de retroalimentación de la emoción.
- Incapacidad para detectar situaciones de riesgo inmediato y fallos clínicos. En otra investigación, se muestra preocupación por la falta de detección de ChatGPT de situaciones de riesgo para el usuario, así como un juicio clínico equivocado.
- Privacidad. La IA utiliza las conversaciones para retroalimentarse. Existe el riesgo de que se expongan datos personales en caso de una brecha en la seguridad de ChatGPT.
Opinión personal
ChatGPT no puede, ni debe, sustituir a un psicólogo. Más allá de los riesgos comentados, ChatGPT está diseñado para complacer al usuario. No vas a obtener un no por su parte, sino que va a tratar de dar rodeos a la respuesta para que te resulte agradable. Esto de por sí ya puede generar un problema desde el punto de vista terapéutico.
Al mismo tiempo, debemos tener en cuenta que cuando un usuario hace uso de ChatGPT, lo hace sin el contexto de un profesional que atienda a la función que cumple la pregunta que se le está haciendo. No siempre es útil resolver la duda. Esto podría provocar que el propio ChatGPT agrave la dificultad de base que pueda tener la persona. Por ejemplo, sobre no saber gestionar las emociones de manera individual, querer tener en control y la respuesta a todo, etc.
Es fundamental, por lo tanto, un profesional que se encargue de valorar al usuario. Es este profesional el que puede hacer uso de ChatGPT, u otras herramientas, para conceptualizar el caso si fuese de ayuda, siempre que se respete la privacidad.
Conclusión
Respecto a Mazza, creo que transmite un mensaje dañino para para la profesión y peligroso para sus seguidores. Un psicólogo bien formado, que trabaje desde la evidencia, va a estar encantadísimo de dar el alta al usuario en cuanto se haya resuelto su dificultad. Divulga un mensaje que puede, por un lado, generar desconfianza hacia los psicólogos, y por otro, comunica a sus seguidores que ChatGPT puede sustituir a un psicólogo e incluso que es mejor, cosa completamente errónea.
Por lo tanto, en cuanto a que el psicólogo de Mazza sea Chat GPT, considero que es desaconsejable. En ocasiones puntuales puede suponer una ayuda para un profesional, siempre que tenga en cuenta la función detrás de su uso. Para ello, es una opción trabajar con un análisis funcional de cada caso, cosa que debe hacer un psicólogo.
Si quieres reservar una sesión online con un psicólogo de carne y hueso y que trabaje desde la evidencia, puedes consultar en este enlace.