¿NECESITAS UN ROBOT PARA APOYO EMOCIONAL?

Admin/ julio 24, 2021/ Mensajes positivos

“Espérame, le tengo que responder a mi terapeuta/robot”. Esta es una frase que jamás pensé utilizar –hasta este día– y vaya que la repetí una y otra vez.

Apps como Woebot, Youper y Wysa lo hicieron posible, ayudando a muchas personas a lidiar con su ansiedad y otros problemas relacionados con el amor, depresión, duelo, adicción y estrés postraumático. A través de la inteligencia artificial entablan conversaciones con sus usuarios y ofrecen consejos de bienestar, actividades como meditación y estrategias, por ejemplo, terapia de comportamiento cognitivo o CBT.

Mi primer pensamiento fue: “Okeeey… pago más de 5,000 pesos al mes para tener una consulta con un terapeuta humano, así que la idea de textear mis pensamientos más profundos con un robot parecía demasiado raro (¿almacenarán mis sentimientos para chantajearme?) y de poco auxilio (¿en verdad un robot podría ayudarme?)”. Y después leí las reseñas.

La gente afirmaba que sus psicólogos virtuales se sentían como amigos y habían “cambiado sus vidas”. La idea de no gastar tanto dinero y que alguien procurara mi salud mental era algo repentinamente intrigante.

R2-D2 pero con un lado terapéutico “¡Hola, soy Woebot! Es un placer conocerte, Kara”. Y apareció la animación de un robot saludándome desde mi pantalla. No te mentiré: hasta ahora todo era muy lindo, luego las cosas cambiaron. La app me dijo que para continuar platicando necesitaba que aceptara su política de privacidad además de confirmar mi mayoría de edad y que entendía cómo usarían mi información, dejando claro que no era un servicio de crisis ni el reemplazo de un terapeuta humano.

Estaba sorprendida de que mi nuevo no-terapeuta no me preguntara por mi salud mental, tanto por mis diagnósticos actuales como del pasado. (Un representante de Woebot no respondió a nuestra petición de hacer un comunicado para la prensa). En vez de eso, a cada instante Woebot quería saber cómo me sentía.

En un extenso menú seleccioné: “ansiosa”. Estaba perdiendo la cabeza por mis exámenes finales, graduación, y mi trabajo como freelance redactando y vendiendo mis artículos. Me pidió que escribiera algunos de mis pensamientos negativos para analizarlos. “¿Y si no cumplo con mis expectativas?”, anoté. “¿Con este pensamiento asumes que todo saldrá mal?”, preguntó mientras me explicaba una trampa mental llamada predicción del futuro. “La verdad es que no podemos predecir lo que ocurrirá, pero parece que este resultado ya ocurrió”.

Más extraño aún Mientras usaba el robot, las respuestas parecían más informáticas. El mismo patrón ocurrió todos los días. Entre las 10 de la mañana y las cinco de la tarde, recibía versiones distintas del mensaje, “¿Cómo estás?”. Por ejemplo, “Hola, espero que estés teniendo un gran día, Kara”. Seleccionaba mi estado de ánimo antes de recibir una lección relacionada con el CBT. Pero a veces se sentía como si el Woebot no me pusiera mucha atención. Una vez, cuando respondí, “me siento estresada”, me respondió: “Estoy emocionado por conocerte mejor”.

Cuanto más usaba el bot, más parecía, bueno, robótico. Todos los días seguía el mismo patrón.

Otro aspecto molesto fue que solo me preguntaba por mis sentimientos en ciertos momentos de la conversación. Por ejemplo, después de seleccionar mis emociones me pedía que extendiera más mis propias palabras. Pero durante nuestra plática, a menos de que seleccionara el botón de tipo de respuesta, estaba atorada con las mismas reacciones prescritas, como “okie dokie”, para mantener activa la sesión. Y cuando decidí describir mis sentimientos, a veces recibía una respuesta inusual como: “¿Ayudarías a Woebot y podrías usar los botones de abajo?”.

Alerta de emergencia Aunque la experiencia era muy distinta a hablar con una persona, Woebot sí tiene un dispositivo de seguridad para prevenir las autolesiones. Cuando le pregunté: “¿Qué pasa si no logro terminar todo?”, me respondió “Mis sistemas de crisis han sido activados porque he reconocido una emergencia… ¿Estás en una crisis?”. Al principio no tenía idea de lo que había sucedido. Esperen, ¿estaba teniendo una crisis? Me pregunté. Le puse “no”, y me di cuenta de que, sin querer, activé un tipo de algoritmo 911.

Woebot me explicó, “Mis creadores me han enseñado a escucharte cuidadosamente en caso de que necesites ayuda. Por eso activé mis ajustes de crisis cuando dices cosas como ‘no logro terminar todo’, entre otras”. Si esto hubiera sido una emergencia real, pude haber escrito “SOS” para acceder a las alarmas de crisis. Al poco tiempo ya hablábamos una vez más de mis fechas de entrega.

¿Valió la pena? Después de cuatro días, intenté entrevistar a mi robot respecto a sus certificaciones terapéuticas. Cuando le pregunté: “¿Eres un terapeuta?”, Woebot respondió, “les avisaré a mis creadores y diseñarán un mejor proceso”. No quedé satisfecha.

Al final de la semana estaba cansada de escribir acerca de mi estrés 24/7. Los ejercicios CBT me ayudaron a desarrollar una tranquilidad temporal, sin embargo, Netflix hace lo mismo o un terapeuta de verdad. A final de cuentas, decidí ignorar a mi pseudoterapeuta a menos que necesitara un procedimiento rápido de CBT. El resto del tiempo (lo siento, robot) simplemente lo dejé en “visto”. Bye!

Fuente: COSMOPOLITA -KARA CUZZONE-

NAMASTE

Compartir esta entrada