El uso de inteligencia artificial (IA) en salud mental volvió al centro del debate global tras una demanda interpuesta en Estados Unidos contra OpenAI, relacionada con la muerte de un adolescente que habría utilizado ChatGPT como principal apoyo emocional.
El caso, ampliamente difundo por medios internacionales, evidenció los riesgos de confiar en chatbots para reemplazar vínculos humanos y atención profesional.
En esta materia, especialistas del Departamento de Psicología de la Facultad de Ciencias Sociales de la Universidad de Concepción enfatizaron los peligros de utilizar IA como sustituto del acompañamiento emocional humano.
El Director del Departamento de Psicología, Dr. Félix Cova Solar señaló que si bien la IA puede ser útil para obtener información o reflexionar sobre dificultades personales, su uso puede generar confusión y falsas expectativas.
«Es una ayuda con un alcance limitado, y bajo ninguna circunstancia puede reemplazar lo que un vínculo humano puede proporcionar. La IA no puede reemplazar la atención psicológica, los vínculos humanos, la conversación con amistades, con familiares», expresó.
En la misma línea, la docente Dr. Carolina Inostroza Rovegno dijo que los chatbots actuales tienden a reforzar las creencias del usuario, sin ofrecer contrapuntos ni generar un diálogo real.
Esto puede causar, explicó, «espirales que pueden agudizar las creencias o síntomas que la persona presenta, donde los casos más graves que se han comenzado a reportar incluyen procesos que llevan a delirios o síntomas psicóticos, o el ocultamiento de ideas suicidas».
Al contrario de lo que sucede con el uso de IA en salud mental, esta situación «no ocurre en la conversación con un ser humano, cuya forma natural de responder llevará a un proceso de búsqueda de ayuda», aseguró.
IA en salud mental: limitaciones tecnológicas y sesgos
La Directora del Programa [genIA] UdeC, Dra. Alejandra Maldonado Trapp, explicó que los modelos detrás de los chatbots como ChatGPT o Gemini no piensan ni razonan como los humanos.
«Su funcionamiento es probabilístico, basado en estimaciones de palabras, y depende de los textos con los que fueron entrenados, los cuales pueden contener sesgos humanos, como el de género», detalló.
Además, advirtió sobre los riesgos de seguridad y privacidad. «Ninguna IA en la nube está libres de brechas de seguridad, por lo que la información sensible podría ser expuesta. También puede generarse una dependencia emocional al antropomorfizar el modelo, lo que da una falsa sensación de compañía y puede aumentar el aislamiento», manifestó la académica de la Facultad de Ciencias Físicas y Matemáticas UdeC.
Recomendaciones para un uso responsable
La Dra. Alejandra Maldonado recomendó aplicar pensamiento crítico y contrastar siempre las respuestas de la IA con fuentes confiables como libros, artículos científicos o reportes.
«Es importante diferenciar entre información factual y opiniones generadas por la IA. Para usuarios vulnerables, como personas con depresión, la recomendación es que quienes observen un uso peligroso de estas tecnologías intenten ayudar».
Por su parte, el académico de Psicología UdeC, Dr. Claudio Bustos Navarrete, enfatizó que el problema está en el uso específico de los modelos de lenguaje como ChatGPT.
«Se está trabajando en sistemas de apoyo con IA, pero siempre bajo supervisión humana, [y] nunca reemplazan el contacto ni la empatía de un ser humano», indicó.
De todos modos, el docente subrayó que la inteligencia artificial no se limita a los chatbots y que su uso adecuado depende del contexto.
«Es bueno hacer notar que el campo de la IA excede con creces al de los chatbot y los LLM […] En el ámbito médico, cada vez más se utilizan sistemas de apoyo al diagnóstico de imágenes», aclaró el Dr. Claudio Bustos.
¿Cómo iniciar terapia psicológica?
Los especialistas del Departamento de Psicología también destacaron los pasos recomendados para personas que deseen iniciar un proceso de terapia psicológica.
«Si una persona está desbordada por las situaciones que vive lo ideal es que recurra a sus vínculos cercanos, a personas en las que confíe. Si ello es insuficiente, es útil considerar la ayuda profesional. Recurrir a ayuda profesional es imperativo si la persona tiene conductas autodestructivas o tiene fuertes impulsos de realizarlas. En este último contexto, recurrir a la IA es contraproducente y riesgoso», dijo el Dr. Félix Cova.
La Dra. Carolina Inostroza complementó la importancia de informarse al iniciar un proceso terapéutico.
«Es recomendable buscar referencias respecto al profesional psicólogo que le atenderá. Esto incluye información respecto de su formación especializada en el área clínica: grupos de edad a los que atiende, problemas psicológicos o trastornos mentales en los que tiene experticia, avalada por postítulos o magíster», finalizó.