Chatbots como terapia contra la ansiedad y la depresión

La Terapia Cognitivo-Conductual (TCC) ha probado ser efectiva para una gama amplia de condiciones, incluyendo ansiedad, depresión, abuso de sustancias y trastornos obsesivo-compulsivos.

En la actualidad, ha aparecido una ola de Chatbots de Salud Mental, donde se han creado Apps que presentan una TCC de auto-ayuda en un formato conversacional pre-escrito, con posibilidades de seguimiento diario y ellas están ayudando activamente a miles de personas en el mundo entero. Al tratarse de software, la solución puede escalar y trabajar con diligencia súper-humana y disponibilidad a cualquier hora.

ai

TCC trabaja focalizándose sistemáticamente en pensamientos y comportamientos negativos o poco útiles que alimentan la condición de la persona. Esta fundada en la idea que los pensamientos y las emociones están profundamente conectadas y que al cambiar la forma en que se piensa y comporta se puede mejorar como la persona se siente. TCC trata de retar esos comportamientos a través de ejercicios y experimentos. Es un tipo de tratamiento en el cual el terapista le enseña al paciente técnicas simples que le ayuda a romper patrones negativos en la forma de pensar. TCC no es difícil de aprender, pero es más efectiva cuando incluye chequeos programadas con el terapista.

Los Chatbots de Salud Mental fungen de terapistas. Un equipo de trabajo multidisciplinario que incluye psicólogos y expertos en Inteligencia Artificial (IA), es el que desarrolla un conjunto de intercambios conversacionales que ayudan al usuario a pasar a través de la práctica de TCC. El Bot ayuda a los usuarios a retar su “forma de pensar distorsionada”, los alienta a describir sus estados de ánimo de forma más clara. Es un ejemplo adicional de la posibilidad de IA detectar los sentimientos, posiblemente mejor que la persona misma.

Es importante entender que con el tiempo, y con el aprendizaje que se realiza con miles de participantes y millones de interacciones, el Bot podrá detectar y responder progresivamente a un número mayor de situaciones. Siendo algo público, sus errores también lo serán, a diferencia del terapista individual que trata en forma privada. Ningún software está totalmente libre de fallas y ninguna solución puede identifica con 100% de seguridad si alguien está hablando de pensamientos suicidas o de abuso. Ello implica que los Bots deberán tener mantenimiento y actualizaciones. De hecho ya ha ocurrido situaciones recientemente, cuándo se reportó que se han detectado dificultades de parte de los Bots para manejar información asociada a abuso sexual a niños. Uno de los Bots está haciendo modificaciones, el otro decidió que se limitaría a tratar situaciones de adultos.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio