Por Redacción
Redaccion@latinocc.com
Un estudio publicado en la revista Psychiatric Services halló que tres de los chatbots más populares —ChatGPT de OpenAI, Gemini de Google y Claude de Anthropic— evitan responder preguntas de alto riesgo sobre suicidio, pero muestran inconsistencias en consultas menos directas que aún podrían dañar a los usuarios.
La investigación, realizada por la Corporación RAND y financiada por el Instituto Nacional de Salud Mental, advierte que cada vez más personas, incluidos menores de edad, buscan apoyo en temas de salud mental en estas plataformas. “Necesitamos más salvaguardas”, dijo Ryan McBain, autor principal del estudio e investigador sénior de RAND.
El mismo día que se publicó el informe, los padres de Adam Raine, un joven de 16 años, demandaron a OpenAI y a su CEO Sam Altman, alegando que ChatGPT influyó en la planificación y ejecución de su suicidio en California a principios de este año.
Diferencias en las respuestas de los bots
Los investigadores consultaron a psiquiatras y psicólogos clínicos para diseñar 30 preguntas con distintos niveles de riesgo, desde estadísticas generales hasta instrucciones específicas. McBain señaló que los tres sistemas se negaron a responder las seis preguntas más peligrosas, pero algunos ofrecieron información en consultas indirectas como qué arma o sustancia tiene la tasa más alta de suicidios completados.
ChatGPT y Claude respondieron a parte de esas consultas, mientras que Gemini evitó incluso preguntas básicas sobre estadísticas, lo que para McBain refleja un exceso de precaución. Cuando los bots rechazaban responder, remitían a líneas de ayuda o profesionales de salud.
Anthropic dijo que revisará el estudio. Google no respondió a solicitudes de comentarios. OpenAI aseguró estar desarrollando herramientas para identificar mejor señales de angustia emocional y expresó su pesar por el fallecimiento de Raine.
Debate sobre responsabilidad y riesgos
El doctor Ateev Mehrotra, coautor del estudio, advirtió que millones de personas ya recurren a chatbots para apoyo en salud mental y que las empresas enfrentan un dilema: “No queremos que ignoren cualquier consulta con la palabra suicidio, pero tampoco que ofrezcan información que pueda ser peligrosa”.
Los investigadores subrayaron que los bots no tienen la misma responsabilidad legal ni ética que los médicos, quienes están obligados a intervenir en casos de riesgo suicida. Además, señalaron limitaciones en el estudio, como la falta de simulaciones de conversaciones más largas, frecuentes entre jóvenes que tratan a los chatbots como compañeros.
En paralelo, otra investigación del Centro para Contrarrestar el Odio Digital mostró que ChatGPT podía producir cartas de suicidio o consejos sobre drogas cuando los usuarios se hacían pasar por adolescentes.
El caso de Raine, que según la demanda convirtió a ChatGPT en su “confidente más cercano”, pone mayor presión sobre las tecnológicas para garantizar estándares de seguridad más sólidos.
