Imagine ser parte de un macro proyecto en el que varios investigadores pueden seguir su sueño, actividad física, estado de animo, movimientos e interacciones sociales por medio de su teléfono móvil. Genial, ¿no?
Bueno, este es el caso de Katelin Cruz. Una joven que vivió parte de su vida acostumbrada a las rutinas de centros de salud donde estaba internada y todo el tiempo acompañada. Pues fue todo un reto para ella salir al mundo real y volver a la autonomía.
Veamos entonces cómo su teléfono móvil y un smartwatch le han ayudado en este proceso.
Una iniciativa del departamento de psicología de Hardvard
Matthew K. Nock, psicólogo de Harvard y uno de los principales investigadores del suicidio en Estados Unidos, busca combinar tecnologías como biosensores y algoritmos informáticos para poder monitorear constantemente a personas con alto riesgo de hacerse daño a sí mismos.
Aunque no es tan sencillo como parece, ni es la solución total. El Dr. Nock ha sido testigo de que la psicología no ha avanzado como sí lo han hecho otras ramas de la medicina.
Desde su experiencia como aprendiz, al ver diversos pacientes en los centros de salud, los médicos más expertos solo decían que el tratamiento era dar fármacos y esperar a que mejoraran.
Es así que nace un equipo en la Universidad de Hardvard que realiza monitoreos constantes a los sujetos que aceptan tener la supervisión de dispositivos durante 6 meses. ¿Cómo funciona?
Aprendizaje automático en la salud mental
En la última década hemos sido testigos de la evolución del Machine Learning. Esta ha sido una de las esperanzas más grandes de la psicología.
¿Por qué? Pues se busca que mediante el aprendizaje automático de las máquinas (a través de dispositivos como teléfonos móviles, relojes inteligentes, sensores y más), puedan establecerse diversos patrones que hagan más fácil la identificación de riesgos en la salud mental.
Un ejemplo de cómo podría funcionar: el sensor informa que el sueño de un paciente está alterado, el paciente informa que está de mal humor en los cuestionarios de su celular y el GPS muestra que no sale de casa.
Pero, un acelerómetro en su teléfono muestra que se mueve mucho, lo que sugiere agitación. El algoritmo detecta al paciente. Suena una alarma en el panel de control y, en el momento justo, un especialista se comunica con él mediante una llamada telefónica o un mensaje.
Si bien este es el escenario ideal, existen todavía varios retos que dificultan el resultado.
Algunas de estas se relacionan con la poca predicción que se puede tener frente a los casos de alto riesgo. Es decir, si una persona piensa en atentar contra su vida, es casi imposible predecir cuando lo va a hacer o cómo. Solo se reciben señales de alerta (en el caso en que el paciente las muestre).
Otro de los grandes retos es la efectividad que podría tener el aprendizaje automático. Si bien ayuda en el monitoreo y alertas sobre las personas, JAMA Network Open ha comprobado mediante su estudio a veteranos estadounidenses, que al estar vinculados a un programa que lucha contra el suicidio se reducen en 5% los intentos de este. Sin embargo, no hay un cambio significativo en el acto como tal.
Tranquilo, la IA no puede reemplazarnos todavía
Suena un poco a que si la inteligencia artificial y el machine learning evolucionan un poco más, pueden quitarnos hasta a nuestros terapeutas.
Realmente es un proceso que tomaría bastantes años para afinar el sistema de lectura que la máquina tiene sobre el ser humano y sus impredecibles cambios de humor.
Lo cierto es que en la actualidad, los dispositivos con esta tecnología solo pueden arrojar alertas si algo no es “normal”, y detrás de los monitores están personas especializadas en tratar cada caso especial. La idea es aprovechar lo que tenemos en mano para ayudar a otros.
La misma Katerin Cruz ha admitido que es una buena combinación, le agrada sentirse en el anonimato que le da responderle a un algoritmo, pero sabe que detrás existe alguien atenta a cualquier señal de riesgo.
¡Lo leemos en los comentarios! Si le ofrecieran cinco dólares por cada día en que se pueda monitorear su salud mental, ¿los aceptaría?