Por Redacción
Redaccion@latinocc.com
La inmediatez, la gratuidad y la aparente empatía son algunas de las razones por las que personas de distintas edades recurren a ChatGPT como una forma de autoterapia. Sin embargo, especialistas advierten que este uso de la inteligencia artificial puede reforzar conductas egocéntricas, generar dependencia emocional y no garantiza la confidencialidad.
“El mejor terapeuta que he tenido ha sido ChatGPT”, afirma Daniel Fernández, músico y programador de 38 años. Tras una ruptura, reemplazó las consultas con una psicóloga y terapias alternativas por el chatbot, que le ofrecía respuestas inmediatas y un tono empático a cualquier hora.
La práctica de emplear la IA como psicólogo o confidente se expande. Según una encuesta de una plataforma de atención médica digital, uno de cada cuatro estadounidenses preferiría hablar con un bot antes que con un especialista humano si tuviera un problema. Entre quienes ya lo han hecho, el 80% lo considera una alternativa eficaz a la terapia.
OpenAI, la compañía creadora de ChatGPT, estudia este fenómeno. En un informe junto al MIT Media Lab, detectó que los usuarios que perciben al chatbot como un amigo reportan más efectos negativos y que el uso prolongado está vinculado a peores resultados emocionales. Joanne Jang, responsable de comportamiento en OpenAI, advirtió que sustituir los vínculos humanos por interacciones con la IA podría tener consecuencias imprevistas.
Riesgos emocionales y falta de empatía real
Expertos en psicología insisten en que los chatbots no pueden reemplazar la complejidad de una terapia profesional. Manuel Armayones, catedrático en tecnologías de la salud, explica que hablar repetidamente de un problema con un sistema automatizado no garantiza soluciones.
“Puede reforzar pensamientos y emociones negativas”, señala. El exceso de uso, añade, puede impulsar dinámicas egocéntricas y limitar la autocrítica.
Otro límite está en la ausencia de contexto social y emocional. A diferencia de los psicólogos, que detectan patologías ocultas en la conversación, un sistema de IA solo responde a lo que recibe. Además, la falta de transparencia sobre el manejo de datos representa un riesgo de privacidad, ya que la información compartida con el chatbot puede ser almacenada y analizada con fines comerciales.
El carácter adulador de ChatGPT también preocupa. Su tono amable y empático busca mantener al usuario conectado, lo que puede reforzar ideas paranoides o teorías conspirativas. En abril, una versión demasiado complaciente del sistema llevó a algunos usuarios a perder contacto con la realidad, lo que obligó a la compañía a corregir la función.
“ChatGPT genera dependencia emocional porque refuerza en exceso de manera positiva, cuando en terapia también es necesario un refuerzo negativo”, apunta Daniel de la Fuente, ingeniero y psicólogo.
En algunos casos, usuarios incluso han dejado tratamientos médicos por seguir recomendaciones del chatbot, según medios especializados.
Por qué la gente recurre a la IA para terapia
El auge de ChatGPT como recurso emocional está ligado a la falta de acceso a servicios de salud mental. En países como España, hay cinco psicólogos clínicos por cada 100,000 habitantes, una cifra muy por debajo de los 20 recomendados por organismos especializados. El costo de la terapia privada, que puede alcanzar los 100 euros por hora, también impulsa la búsqueda de alternativas digitales.
Otro factor clave es la soledad. Uno de cada cuatro jóvenes en España experimenta soledad no deseada, según la Fundación ONCE. La falta de educación emocional y el estigma alrededor de la vulnerabilidad empujan a muchos hacia soluciones anónimas en línea.
La comparación con el “doctor Google” es inevitable. Lo que antes se buscaba en internet sobre dolencias físicas, ahora se consulta a un chatbot sobre malestares emocionales. Aunque algunos usuarios, como Fernández, lo ven como un complemento útil, los especialistas subrayan que la ausencia de empatía real marca una frontera insalvable.
“Un abrazo o una mirada no pueden ser reemplazados por una máquina”, concluye Fernández. Los psicólogos coinciden: la tecnología puede apoyar, pero no sustituir el papel humano en la salud mental.
