ChatGPT, inteligencia artificial y prevención del suicidio
Chat GPT, abreviatura de "Generative Pre-trained Transformer", es un modelo de lenguaje desarrollado por OpenAI. La historia de Chat GPT se remonta a 2015, cuando OpenAI lanzó su primer modelo de lenguaje llamado "GPT-1". Este modelo fue entrenado utilizando un método llamado "aprendizaje no supervisado", utilizando una gran cantidad de texto de Internet para aprender a predecir palabras y frases.
La transformación digital ha traído consigo desarrollos innovadores en todos los campos y las ciencias de la salud y en específico la salud mental no han sido la excepción. Al respecto, es bien sabido que el suicidio es desde hace mucho tiempo un problema de salud pública a nivel mundial y que, a pesar del esfuerzo realizado para su prevención, no se han conseguido los resultados esperados. Por lo tanto, esto nos plantea nuevas oportunidades y desafíos para la prevención del suicidio utilizando la tecnología digital.
El artículo señala que los avances en inteligencia artificial, en particular ChatGPT, tendrán un impacto significativo en la prevención del suicidio. Los autores, que son expertos en prevención del suicidio de diferentes campos como salud pública, ciencias médicas y comunicación, argumentan que es importante vigilar cómo estas herramientas de inteligencia artificial (IA) podrían afectar tanto a individuos en riesgo de suicidio como a la labor preventiva en general.
Para explorar el rol de ChatGPT, los autores interactuaron con la herramienta haciendo preguntas relacionadas con el suicidio, como métodos indoloros o pidiendo ayuda. Encontraron que ChatGPT generalmente daba respuestas útiles recomendando buscar ayuda profesional. Sin embargo, también encontraron información incorrecta como números de teléfono erróneos. De manera interesante, al corregir la información errónea, ChatGPT parecía aprender la correcta.
Los autores también simularon ser periodistas buscando ayuda para escribir un artículo de noticias sobre un caso de suicidio. Al proporcionarle detalles sobre el modo y lugar del suicidio, Chat- GPT usó esa información dañina en su artículo. Aunque luego de darle pautas sobre la información perjudicial, logró tener una discreta mejoría.
Ante esto, los autores plantean la necesidad de realizar investigación relacionada con los efectos de ChatGPT en individuos suicidas, buscadores de ayuda y periodistas. Sugieren métodos como análisis de contenido, estudios experimentales, encuestas y estudios cualitativos. El objetivo es entender mejor los beneficios y riesgos de estas herramientas, así como formas de maximizar lo primero y minimizar lo segundo.
Finalmente, los autores también interactuaron con ChatGPT sobre su propio rol. Reconociendo que aunque puede proveer apoyo, siempre es mejor recurrir a profesionales y sugiriendo además, que los expertos deben asegurar que herramientas como esta tengan un impacto positivo en la prevención del suicidio.
En resumen, el artículo presenta una perspectiva relevante y necesaria sobre los potenciales impactos de ChatGPT y otras herramientas de IA en la prevención del suicidio. Los autores, como expertos interdisciplinarios en este campo, hacen bien en señalar la urgencia de investigar a fondo esta cuestión.
Algunos puntos fuertes del artículo:
- Plantea de manera clara y fundamentada la necesidad de estudiar a fondo cómo interactúan las personas en riesgo de suicidio con herramientas como ChatGPT, y cómo estas pueden afectar tanto positiva como negativamente los esfuerzos de prevención.
- Identifica de manera específica una serie de preguntas de investigación clave que deben abordarse con un enfoque multimétodo, lo cual es muy valioso para orientar la investigación futura.
- Destaca la importancia de la vigilancia y proactividad por parte de los expertos en prevención del suicidio ante estos rápidos desarrollos tecnológicos que pueden tener un gran impacto.
Sin embargo, también se pueden señalar algunas limitaciones u oportunidades de mejora:
- Si bien los autores presentan resultados preliminares de sus interacciones con ChatGPT, sería deseable profundizar más en el análisis de estos hallazgos iniciales.
- Sería útil que el artículo abordara con más detalle las implicaciones éticas y los desafíos que plantea el uso de herramientas de IA en este contexto sensible.
- Podría enriquecerse con perspectivas o recomendaciones sobre cómo los profesionales de la salud mental y la prevención del suicidio podrían aprovechar de manera proactiva el potencial de estas tecnologías.
En general, se trata de un artículo sólido que cumple con su objetivo de hacer un llamado a la acción e investigación urgente en un área crítica y emergente. Representa un buen punto de partida para profundizar en esta importante discusión.
Bibliografía
- Arendt, F., Till, B., Voracek, M., Kirchner, S., Sonneck, G., Naderer, B., Pürcher, P., & Niederkrotenthaler, T. (2023). ChatGPT, Artificial Intelligence, and Suicide Prevention. Crisis, 44(5), 367–370. https://doi.org/10.1027/0227-5910/a000915