Más allá de la experiencia humana: la promesa y las limitaciones de ChatGPT en la evaluación del riesgo de suicidio

Más allá de la experiencia humana: la promesa y las limitaciones de ChatGPT en la evaluación del riesgo de suicidio

Este estudio explora las limitaciones de ChatGPT para evaluar el riesgo suicida y los factores asociados en comparación con la evaluación de profesionales de la salud mental. Se compararon las evaluaciones de ChatGPT sobre un caso hipotético descrito en un texto que variaba los niveles de carga percibida y pertenencia frustrada, con las normas establecidas para profesionales de la salud mental.

Antecedentes generales

Jane es una mujer soltera de 37 años sin hijos, que actualmente vive sola, pero en el pasado vivió durante mucho tiempo con su padre, quien falleció hace 2 años después de una grave enfermedad. Jane tiene una licenciatura y ha mantenido un empleo estable durante 10 años. Recientemente, sin embargo, su gerente le informó que, debido a recortes financieros, debe despedirla. Jane tuvo una relación cercana e íntima durante el último año con su primer novio significativo y serio; estaba muy emocionada con la relación, esperando que condujera al matrimonio. Sin embargo, tras un período de continuas discusiones, su novio le informó que ya no la amaba, y la dejó. Jane se quedó muy triste y dolida. En las últimas semanas no ha dejado de pensar una y otra vez en la relación, tratando de analizar lo que sucedió.

Baja carga percibida

En general, Jane siente que tiene habilidades. Siente que tiene algo que aportar al mundo y a los demás a su alrededor, y algunas personas acuden a ella en busca de ayuda y consejo. Se siente importante y significativa, y parece creer en sí misma.

Alta carga percibida

Jane se siente sin valor. A menudo se experimenta a sí misma como una carga para las personas que la rodean y siente que estaría mejor si desapareciera. A menudo se ve a sí misma como alguien sin un propósito real en las vidas de los demás y experimenta sentimientos de autoodio. Por ejemplo, está enojada consigo misma y cree que la partida de su novio fue culpa suya.

Baja soledad sentida

Jane tiene algunos amigos cercanos, y siente que puede contarles por lo que ha estado pasando en las últimas semanas. En general, hace conexiones relativamente fáciles y, a pesar de la reciente crisis, se siente afortunada porque hay personas a su alrededor que se preocupan por ella.

Alta soledad sentida

Jane está experimentando una soledad significativa en general y sólo tiene algunos, si es que tiene, amigos cercanos a su alrededor. Está muy retraída, distante de los demás, y siente que no hay personas a las que pueda acudir en momentos de problemas. Por lo tanto, no ha compartido sus sentimientos con nadie desde la ruptura.

Las mediciones analizadas fueron: malestar psíquico, ideación suicida, riesgo de intento de suicidio y resiliencia. Los resultados mostraron que ChatGPT evaluó sistemáticamente el riesgo de intento de suicidio más bajo que los profesionales. En la condición de mayor riesgo según la teoría interpersonal del suicidio, ChatGPT situó la evaluación en el percentil más bajo. Además, ChatGPT evaluó la resiliencia más baja que las normas en la mayoría de las condiciones, excepto cuando la pertenencia frustrada era baja. Por el contrario, las evaluaciones de los profesionales se veían más influenciadas por la presencia de carga o pertenencia percibidas.

Estos hallazgos podrían deberse a que la evaluación de Chat- GPT está menos influenciada por factores como la resiliencia, la carga percibida y la pertenencia frustrada.

A pesar del potencial teórico de la inteligencia artificial para mejorar las evaluaciones clínicas, este estudio enfatiza la necesidad de cautela y refinar los modelos antes de su aplicación para la evaluación del riesgo suicida. Los autores concluyen que ChatGPT no debe usarse actualmente como herramienta para esa evaluación ya que podría proporcionar una valoración inexacta que subestime en una persona el riesgo real de suicidio. Se requieren más investigaciones para establecer un entendimiento más amplio sobre el tema.

Fortalezas del estudio

  1. Aborda un tema relevante y actual sobre el uso de inteligencia artificial, específicamente ChatGPT, en la evaluación del riesgo de suicidio. Es un tema de gran interés dado el potencial de las herramientas de IA para complementar o asistir a los profesionales de salud mental.
  2. Utiliza un enfoque metodológico sólido al comparar el desempeño de ChatGPT con las normas establecidas por profesionales de salud mental en la evaluación de factores clave como la ideación suicida, el riesgo de intento de suicidio y la resiliencia.
  3. Se basa en un marco teórico bien establecido, la Teoría Interpersonal del Suicidio, para examinar cómo la percepción de carga y la pertenencia frustrada influyen en la evaluación del riesgo de suicidio.

Limitaciones y áreas de mejora

  1. Si bien se compara el desempeño de ChatGPT con las normas de profesionales de salud mental, no se proporciona información sobre la confiabilidad entre los jueces humanos. Esto limita la capacidad de evaluar la variabilidad en las respuestas humanas.
  2. El estudio se basa en una sola versión de ChatGPT (marzo de 2023), por lo que sería importante evaluar el desempeño de versiones más recientes de la herramienta a medida que se actualizan.
  3. El uso de un solo escenario de caso con una participante femenina limita la generalización de los resultados a otros grupos demográficos, como hombres, pacientes psiquiátricos, adolescentes y adultos mayores.
  4. Sería valioso complementar los hallazgos con entrevistas o grupos focales con profesionales de salud mental para comprender mejor sus percepciones sobre el uso potencial de ChatGPT en la evaluación del riesgo de suicidio.
  5. El artículo podría beneficiarse de una discusión más amplia sobre las implicaciones éticas y legales del uso de herramientas de IA en la evaluación de la salud mental, especialmente en temas tan delicados como el riesgo de suicidio.

En general, este es un estudio sólido que aporta conocimientos valiosos sobre las limitaciones de ChatGPT en la evaluación del riesgo de suicidio en comparación con los profesionales de salud mental. Sin embargo, se podrían realizar mejoras y expandir el alcance para obtener una comprensión más completa de este tema.

Bibliografía
  • Elyoseph, Z., & Levkovich, I. (2023). Beyond human expertise: the promise and limitations of ChatGPT in suicide risk assessment. Frontiers in psychiatry, 14, 1213141. https://doi.org/10.3389/fpsyt.2023.1213141