'Las consultas a asistentes conversacionales basados en Inteligencia Artificial (chatbots) sin supervisión en personas vulnerables, que se han popularizado en el último año, pueden conllevar riesgos en la salud mental, según una revisión de estudios realizada por Itersia - Centro de Psicoterapia. Para la psicóloga Elisabet Sánchez, “cambiar el chatbot por el terapeuta puede provocar desde omisión de crisis clínicas hasta dependencia emocional sin respaldo real”, como ocurrió con el suicidio de un adolescente estadounidense que se enamoró de su asistente conversacional. “Estos sistemas pueden complementar, pero no reemplazar, la supervisión clínica humana en intervenciones de salud mental”, añade. Los estudios revelan un aumento de consultas con relación al estrés, ansiedad ,depresión y trastornos de la conducta alimentaria.
Su accesibilidad, la disponibilidad 24 horas, 7 días a la semana; y la capacidad de simular conversaciones empáticas les permite complementar, e incluso en ciertos contextos, suplir parcialmente la atención psicológica humana, sobre todo en zonas rurales donde es más complicado acceder a un profesional. Algunos de esos chatbots no están diseñados específicamente para la salud mental y forman parte de webs de videojuegos o de redes sociales, sin control de sus respuestas. “Los pacientes con problemas emocionales o de salud mental han cambiado las consultas de Dr. Google por Dr. ChatGPT y similares, donde consiguen una respuesta en tiempo real y a cualquier hora del día. La necesidad de inmediatez de la sociedad se ha trasladado a la consulta psicológica a los asistentes conversacionales”, apunta Sánchez.
Un estudio reciente publicado en JMIR Mental health relaciona la escasez mundial de profesionales de la salud mental, agravada por el aumento de las necesidades en este ámbito tras la COVID-19, con el creciente interés por aprovechar los grandes modelos lingüísticos para hacer frente a estos retos. Este trabajo sugiere que, si bien los modelos de IA generativa demuestran fortalezas en psicoeducación y conciencia emocional, su precisión diagnóstica, competencia cultural y capacidad para involucrar emocionalmente a los usuarios siguen siendo limitadas. Los pacientes, por su parte, manifestaron con frecuencia su preocupación por la fiabilidad, la precisión y la falta de compromiso emocional.
“El uso de chatbots de inteligencia artificial en psicoterapia plantea oportunidades importantes, pero también riesgos críticos cuando se utilizan sin supervisión profesional”, explica Sánchez. A medida que los modelos de lenguaje avanzan en empatía simulada y comprensión contextual, también aumentan los riesgos de interpretación errónea, omisión de signos clínicos graves, y dependencia inapropiada del sistema. Otro trabajo publicado en marzo de este año, resalta que los chatbots no están sometidos a un control de ética, lo que puede generar graves problemas.
Además, otra investigación reciente con pacientes que padecen ansiedad social encontró que quienes presentaban síntomas más graves tendían a confiar más en los chatbots, viéndolos como un sustituto emocionalmente seguro a la interacción humana. Sin embargo, esto puede reforzar patrones de evitación social y reducir la motivación para buscar ayuda profesional real. El estudio subraya la necesidad de establecer límites claros sobre el papel de los chatbots como herramientas de apoyo, no de reemplazo.
Principales problemas identificados
Desde Itersia - Centro de Psicoterapia se ha elaborado un listado con los principales riesgos que plantea esta tendencia.
1. Falta de detección de crisis y urgencias psicológicas
Los chatbots no están equipados para detectar o responder apropiadamente ante señales de riesgo como ideación suicida, psicosis o violencia doméstica. Su incapacidad para actuar en emergencias puede tener consecuencias fatales si se les confía la salud mental de una persona en crisis.
2. Falsa percepción de relación terapéutica
El realismo conversacional puede generar una ilusión de vínculo terapéutico, llevando al usuario a confiar emocionalmente en un agente sin conciencia, sin empatía real ni formación clínica. Esto puede distorsionar expectativas y generar dependencia emocional.
3. Consejos inadecuados o erróneos
A pesar de aparentar comprensión, los chatbots pueden ofrecer respuestas incorrectas o no basadas en evidencia, lo cual es riesgoso si el usuario sigue esas recomendaciones como si vinieran de un terapeuta acreditado.
4. Falta de adaptación a contextos clínicos complejos
Los modelos aún no comprenden matices culturales, históricos o de personalidad necesarios para realizar intervenciones clínicas sofisticadas. Esto puede resultar en respuestas simplistas o dañinas.
5. Ausencia de supervisión
Un chatbot no puede ser auditado como lo sería un profesional humano. En contextos no regulados, esto puede permitir el uso irresponsable o sin control ético de herramientas con impacto psicológico significativo.
Y algunas recomendaciones
Además, los especialistas de Itersia – Centro de Psicoterapia proponen una serie de lineamientos para maximizar los beneficios y minimizar los daños:
- Supervisión profesional constante: Todo uso de chatbots en salud mental debe estar integrado en un plan clínico guiado por psicólogos o psiquiatras.
- Uso como herramienta educativa o de seguimiento: Ideal para reforzar hábitos saludables, recordar pautas terapéuticas o facilitar reflexiones guiadas.
- Evaluación continua de calidad: Los sistemas deben estar auditados para garantizar que sus respuestas no promuevan desinformación ni dependencia.'
Fuente: Nota de prensa de Itersia de 26/06/2025 via COM Salud recibida en APISCAM
No hay comentarios:
Publicar un comentario