En la actualidad vivimos en un planeta inseguro y violento, y nuestro país no es la excepción. Estos factores de riesgo contribuyen de manera importante al desarrollo de enfermedades mentales y adicciones, y en ese clima crecen los niños, lo que genera poblaciones muy afectadas.
La salud mental es un concepto que involucra el equilibrio emocional, conductual, cognoscitivo, el bienestar subjetivo, la capacidad de afrontar adecuadamente el estrés, la autonomía, la autorrealización de las capacidades intelectuales, realizar sus habilidades y la capacidad de convivir armoniosamente con los semejantes.
De acuerdo con la Encuesta Nacional de Epidemiología Psiquiátrica en México (ENEP), se estima que los trastornos mentales afectan a casi el 30% de la población. Se ha documentado que entre el 1 y 2% de la población adulta ha intentado suicidarse y la tasa de suicidios consumados tiene una tendencia al alza, en este sentido en la actualidad, el suicidio es la segunda causa de muerte entre los 15 y los 29 años (OMS, 2018). Es decir, de 10 jóvenes tres de ellos padecerán algún trastorno mental.
Sabiendo cuán profundamente unidos pueden estar los jóvenes con la tecnología, los expertos de la Universidad de Texas en Austin están investigando cómo la inteligencia artificial (IA) podría ayudar a los jóvenes que enfrentan problemas de salud mental.
“Desde mensajes de texto hasta publicaciones en las redes sociales, existen algoritmos que pueden procesar ese lenguaje y detectar patrones de comportamiento, incluso emociones y sentimientos“, explica el profesor S. Craig Watkins, fundador del Institute for Media Innovation en el Moody College of Communication.
Watkins se ha asociado con un equipo de estudiantes graduados de la Escuela de Información (iSchool) para investigar el poder de lo que llaman “IA conducida por valores“. Su proyecto explora cómo la tecnología impulsada por IA puede eliminar o reducir las barreras para adolescentes o adultos jóvenes que buscan ayuda relacionada a su salud mental.
Las barreras pueden incluir la falta de conocimiento acerca de los recursos disponibles, el costo y los sitios accesibles, así como el estigma y la vergüenza que a menudo se asocian con la salud mental. El objetivo de Good Systems, investigación interdisciplinaria universitaria, es mejorar la IA para usarla en beneficio de la sociedad.
“La IA puede analizar el contenido que las personas crean, las conversaciones en las que participan, las comunidades a las que están conectadas y qué información buscan en la red. Todas estas cosas podrían servir para identificar el inicio de un problema de salud mental o de alguien que actualmente está lidiando con problemas“, dice Watkins.
El grupo, está colaborando con expertos en salud mental, grupos de defensa de la infancia y, fundamentalmente, con jóvenes. “Necesitamos ser más transparentes y asertivos sobre la incorporación de perspectivas, valores e intereses más diversos en términos de lo que la IA puede y debe ser para la sociedad“.
Otro tema que están investigando es cómo el análisis de esta información personal, por parte de AI, introduce profundas preguntas éticas. El sector de la salud ha lidiado con problemas de privacidad digital durante algún tiempo, a medida que se construyen más y más plataformas tecnológicas para ayudar a administrar la prestación de atención médica.
Uno de los temas que el equipo está investigando es cómo introducir la IA u otras tecnologías para detectar, rastrear y analizar los patrones de comportamiento de las poblaciones más jóvenes. Un territorio ético aún no explorado de la privacidad digital.
Watkin dice que, por un lado, el problema es la necesidad de proteger la información de las personas. “Si se trata de niños pequeños o adolescentes, ¿cómo respetas su derecho a la privacidad? ¿Cómo respetas su vulnerabilidad potencial?”.
Por otro lado, está la obligación de reaccionar ante la necesidad de ayudar a un joven con problemas. Si el comportamiento en línea de una persona sugiere que tiene ideas suicidas, por ejemplo, las implicaciones de vida o muerte sugieren una obligación de actuar. “Si la tecnología que usa un joven indica que está considerando suicidarse o está involucrada en una ideación suicida, probablemente debería haber protocolos para ayudar a intervenir y brindarles la atención que necesitan“, dice Watkin .
El potencial de la IA para mejorar el acceso a la atención psicológica y aumentar la detección temprana de enfermedades mentales, dice, justifica el esfuerzo por encontrar el equilibrio adecuado sobre el tema.
“Como cualquier tipo de tecnología, la IA solo transformará la salud mental si se infunde con valores humanistas“, dijo el Dr. Octavio N. Martinez, director ejecutivo de la Fundación UT Hogg para la Salud Mental.
Watkins y su equipo probarán en el campo un prototipo de aplicación móvil desde finales de abril hasta mediados de mayo. El resultado de las pruebas de campo, guiarán las acciones posteriores, que culminarán en un producto terminado en algún momento durante el verano.
Fuente: UT News