Predicción de psicopatología usando machine learning en redes sociales
El diccionario de la RAE define a la inteligencia artificial como “la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”. El uso de la inteligencia artificial (IA) se ha extendido a diferentes áreas de la vida cotidiana, algunas de sus aplicaciones son muy comunes y para muchas personas podrían pasar desapercibidas. Tal es el caso de las redes sociales (RS), donde la IA recopila información y mediante algoritmos (entendidos como procesos informáticos con reglas bien definidas) se pueden realizar diferentes tareas, como clasificar datos o predecir –con cierto margen de error, desde luego– las decisiones que tomará alguna persona.
Un subtipo de IA es el llamado “machine learning” (ML) o “aprendizaje automático”. Este tipo de IA puede ir aprendiendo, es decir, que después de haberse fijado un proceso o algoritmo, el robot o computadora puede generar nuevos algoritmos que le permitan llegar a decisiones más precisas o finas, sin necesidad de ser acotado o calibrado por un operador humano. Hay diferentes subtipos de ML, en términos generales se dividen en supervisados y no supervisados, el primer tipo depende de que el operador humano proporcione patrones de clasificación de los datos antes de que el algoritmo los analice; en el caso de los no supervisados, el algoritmo es quien identifica patrones, es decir, solo se explica cómo son las variables, sin haber recibido una clasificación previa.
Las técnicas de ML pueden usarse para diferentes propósitos en medicina y en la salud mental en general: Por ejemplo, se pueden analizar datos de imágenes cerebrales para saber si se puede integrar un diagnóstico con estas técnicas, lo cual requiere compararse con el criterio establecido o “gold standard” que normalmente es la interpretación de un imagenólogo. También se han hecho comparaciones con datos de expedientes clínicos de acuerdo con los diagnósticos de los pacientes a fin de analizar si el tipo de síntomas descritos en las notas clínicas pueden predecir el diagnóstico final. Lo que es un hecho es que se necesitan grandes cantidades de datos (normalmente cientos a miles) para que puedan utilizarse las técnicas de ML.
Las redes sociales (RS) representan una fuente de datos amplia, y son usadas por miles de millones de personas en todo el orbe. Además, se ha descrito que muchas personas comparten estados emocionales o cambian el contenido escrito o de imágenes en sus RS de acuerdo con su estado de ánimo o al contenido del pensamiento. Esto ha sido utilizado por las compañías que generan y albergan a las RS y este uso de tal información ha sido incluso motivo de controversia (Stempel & Raymond, 2023).
En el caso de la salud mental, dada la relevancia que tienen las RS para las personas que buscan atención oportuna. Se ha propuesto identificar algunos datos en las RS que ayuden a ubicar a las personas con riesgo de cursar con algún padecimiento o trastorno y, en dado caso, a establecer programas o medidas encaminadas a proporcionar la ayuda buscada.
Por ejemplo, en un estudio realizado por Eichstaedt et al. (2018), analizando solamente el lenguaje de lo que publicaron en Facebook 683 usuarios en los últimos 6 meses, antes de acudir a un servicio de urgencias, y de los cuales 114 terminaron con un diagnóstico de depresión, que se pudo predecir de manera aceptable (similar a escalas de tamizaje para depresión) en aquellos a los que se les integró el diagnóstico de depresión (con un área bajo la curva o AUC = 0.69). Algunos de los predictores relevantes incluyeron tristeza, hostilidad o sensación de soledad, preocupaciones e incluso rumiaciones. Lo anterior se realizó mediante el software Phyton y se analizaron palabras solas (unigramas) o frases de dos palabras (bigramas) para un total de 5381 palabras que después fueron agrupadas en 200 tópicos y analizadas en librerías de estudios previos del lenguaje para finalmente ingresarlas en modelos de regresión para predecir el diagnóstico.
En una revisión sistemática realizada por Lejeune et al. (2022), se propusieron identificar aquellos estudios que identificaron episodios psicóticos en redes sociales, de 93 estudios encontrados bajo los criterios de “psychosis, AI, social media”, solo 7 cumplieron con los criterios de ser observacionales y tener un diagnóstico relativamente certero. Los estudios que tuvieron mejor calidad usaban procesamiento natural del lenguaje (NLP) y como técnica de análisis el “support vector machine”. Tuvieron una buena sensibilidad, especificidad y área bajo la curva para identificar el diagnóstico solo de psicosis, pero no de esquizofrenia. Por otra parte, en este estudio se menciona la utilidad que podría tener el seguimiento en RS de personas con ultra alto riesgo de esquizofrenia para prevenir o identificar episodios de acuerdo con estos resultados, sin embargo, también se mencionan los problemas éticos, es decir que no cualquier persona va a aceptar que se analice el contenido de lo que comparte en RS.
En otro estudio realizado, Roy et al. (2020) generaron un algoritmo que llamaron “Suicide Artificial Intelligence Prediction Heuristic (SAIPH)” capaz de predecir riesgo de pensamientos suicidas analizando datos públicos en Twitter. Esto lo hicieron por medio de redes neurales (una más de las técnicas de ML) que incluían constructos como el estrés, la soledad, la desesperanza, depresión, ansiedad e insomnio. Usando 512,526 tweets de 283 personas con ideación suicida y 3,518,494 tweets de 2655 personas controles se pudo predecir la aparición de tales pensamientos en un área bajo la curva de 0.88 (95% IC 0.86–0.90).
En el campo de las adicciones, en un estudio publicado por Curtis et al. (2023) se plantearon analizar publicaciones de Twitter y Facebook de personas con trastorno por uso de sustancias (TUS), que estaban en programas de rehabilitación para predecir quienes tenía más posibilidades de tener recaídas o abandonar el tratamiento. Para ello les dieron seguimiento a 269 pacientes, generando lo que llamaron “fenotipos digitales” mediante análisis denominado TRANSFORMER que es un tipo de Machine Learning de aprendizaje profundo utilizado también en aparatos como Alexa o Siri o en programas de traducción. Se dio seguimiento a 269 pacientes a los 30, 60 y 90 días y comparando estos fenotipos digitales con la escala Abridged Addiction Severity Index 6ª edición (ASI-6). La clasificación mediante el fenotipo digital tuvo una adecuada predicción de recaída con un área bajo la curva de 0.81, catalogando a los participantes como de bajo o alto riesgo de abandono.
En un artículo publicado por Loch et al. (2022), se hace mención de la importancia de que los métodos de Machine Learning sean usados también de manera sensata, es decir, los resultados deben ser interpretados adecuadamente, ya que al haberse generado modelos “aprendidos” de forma automática, puede haber variables que no están asociadas como tal a la fisiopatología de un trastorno y aun así insertarse en el modelo. Un ejemplo de lo anterior se ejemplifica en un estudio publicado en el año 2018. En dicho estudio se analizó si un método de ML podía interpretar las radiografías tórax para diagnosticar neumonía. El modelo fue bueno en la población inicial en la que se generó, sin embargo, cuando se trató de replicar no tuvo el mismo desempeño. Los investigadores encontraron que el modelo en realidad había insertado datos que provenían de la máquina de rayos X de la Unidad de Cuidados Intensivos; tales pacientes tenían más riesgo por obvias razones, entonces el modelo insertó “metadatos” que en realidad tenían que ver con las características del equipo de rayos X más que con las características clínicas. Este tipo de interpretaciones espurias son conocidas también como el fenómeno de Clever Hans, por la historia de un caballo de principios del siglo pasado que aparentemente resolvía problemas matemáticos, pero al final se demostró que esto era falso y que en realidad el caballo interpretaba señales de las personas a su alrededor.
Es bien sabido que las plataformas de las RS pueden identificar estado de ánimo en sus usuarios, porque de hecho ellos usan IA para decidir qué contenidos mostrarle a cada persona. Esto ha generado polémica por el hecho de que estos datos pueden usarse para promover un mayor tiempo de uso de las RS. En EUA se han iniciado diferentes procesos de demanda para tratar de que las RS hagan algo al respecto. Como consecuencia, las diferentes plataformas de RS han incluido guías para su uso adecuado, sobre todo dirigidas a niños y adolescentes. Esto también puede abrir el debate sobre la posibilidad de que estas mismas plataformas pudieran recomendar a ciertos usuarios buscar ayuda, instalar chatbots (cuadros de diálogos que también usan IA para interactuar con los usuarios y brindar atención). En este sentido, los profesionales de la salud tendrán la obligación de llevar estas discusiones a los foros encargados de sensibilizar y a la vez dar herramientas a las personas encargadas de generar tales regulaciones, de tal forma que se puedan implementar algoritmos que ayuden a canalizar a las personas en riesgo para que reciban la atención necesaria.
- Hiram Ortega Ortiz
Bibliografía
- Cataldo, I., Lepri, B., Neoh, M. J. Y., & Esposito, G. (2021). Social Media Usage and Development of Psychiatric Disorders in Childhood and Adolescence: A Review. Frontiers in Psychiatry, 11, 508595. doi: 10.3389/fpsyt.2020.508595
- Curtis, B., Giorgi, S., Ungar, L., Vu, H., Yaden, D., Liu, T., Yadeta, K., & Schwartz, H. A. (2023). AI-based analysis of social media language predicts addiction treatment dropout at 90 days. Neuropsychopharmacology, 48(11), 1579-1585. doi: 10.1038/s41386-023-01585-5
- Eichstaedt, J. C., Smith, R. J., Merchant, R. M., Ungar, L. H., Crutchley, P., Preoţiuc-Pietro, D., Asch, D. A., & Schwartz, H. A. (2018). Facebook language predicts depression in medical records. Proceedings of the National Academy of Sciences of the United States of America, 115(44), 11203-11208. doi: 10.1073/pnas.1802331115
- Lejeune, A., Robaglia, B. M., Walter, M., Berrouiguet, S., & Lemey, C. (2022). Use of Social Media Data to Diagnose and Monitor Psychotic Disorders: Systematic Review. Journal of Medical Internet Research, 24(9), e36986. doi: 10.2196/36986
- Loch, A. A., Lopes-Rocha, A. C., Ara, A., Gondim, J. M., Cecchi, G. A., Corcoran, C. M., Mota, N. B., & Argolo, F. C. (2022). Ethical Implications of the Use of Language Analysis Technologies for the Diagnosis and Prediction of Psychiatric Disorders. JMIR Mental Health, 9(11), e41014. doi: 10.2196/41014
- Roy, A., Nikolitch, K., McGinn, R., Jinah, S., Klement, W., & Kaminsky, Z. A. (2020). A machine learning approach predicts future risk to suicidal ideation from social media data. NPJ Digital Medicine, 3, 78. doi: 10.1038/s41746-020-0287-6
- Stempel, J., & Raymond, N. (2023). Social media companies must face youth addiction lawsuits, US judge rules. Reuters. Retrieved from https://www.reuters.com/legal/judge-says-social-media-companies-must-face-lawsuits-over-harm-children-2023-11-14/