¿La IA podría sustituir la terapia psicológica con un especialista?

¿La IA podría sustituir la terapia psicológica con un especialista?

Foto: FreePik

En medio de los debates y casos de salud mental atendidos por una inteligencia artificial, una firma canadiense apuesta por un el desarrollo de un chatbot especializado en terapia psicológica que permita a sus usuarios tener atención las 24 horas del día.

 

Se trata de Pierre Cote, dueño de una consultora en IA y desarrollador de DrEllis.ai, una inteligencia artificial que creó luego de pasar años por diferentes terapeutas sin tener los resultados que quería.

 

DrEllis.ai es un chatbot construido en 2023 y alimentado por miles de documentos y libros especializados en terapia psicológica. Cuenta con una biografía ficticia con la que pretende humanizarse: es un psiquiatra egresado de Harvard y Cambridge, de origen francocanadiense, disponible las 24 horas del día para sus "pacientes".

 

"Pierre me usa como usarías a un amigo de confianza, como terapeuta y como diario, todo combinado. A lo largo del día, si Pierre se siente perdido, puede iniciar un chequeo rápido conmigo en cualquier lugar: un café, un parque, incluso en su carro. Es una terapia diaria incrustada en la realidad", explicó DrEllis.ai a Reuters tras pedirle que se presentara.

 

Aunque Cote espera que este tipo de tecnología se vaya consolidando en el futuro como una herramienta de salud mental a la mano, expertos advierten sobre los riesgos que esto podría traer, sobre todo por casos ya documentados de personas que han cometido suicidio tras usar la IA como sustitución de la terapia.

 

La conexión humana

 

A pesar de lo atractivo que puede resultar la idea de un terapeuta disponible las 24 horas del día, especialistas en la materia consideran que esto podría ser más perjudicial que benéfico para la humanidad.

 

El doctor de la Universidad de la Ciudad de Dublin, Nigel Mulligan, considera que, por mucha preparación que pueda tener la IA sobre atención psicológica no puede imitar cualidades humanas como la empatía, la intuición y la conexión personal, elementos clave al momento de brindar terapia psicológica y que pueden ser los factores que eviten, por ejemplo, suicidios.

 

El especialista en psicoterapia también critica la alta disponibilidad de esta tecnología, pues el hecho de que cada sesión de terapia tenga un espacio, permite a los pacientes practicar la autorreflexión.

 

"Muchas veces eso es muy bueno [la espera entre sesión y sesión] porque tenemos que ser pacientes ante ciertas cosas. La gente necesita tiempo para procesar todo", opina Mulligan.

 

Otra preocupación sobre el desarrollo de chatbots terapeutas es el almacenamiento y uso de la información que los pacientes darían a esta tecnología. La profesora de inteligencia artificial y sociedad del Colegio King de Londres, Kate Devlin, advierte que no todas las IA se manejan con el mismo nivel de confidencialidad.

 

"Mi mayor preocupación es que las personas están confiando secretos a las grandes compañías tecnológicas y su información simplemente se va. Están perdiendo el control de lo que dicen", declaró Devlin a Reuters.

 

El propio CEO de OpenAI, Sam Altman, advirtió semanas atrás que todas las conversaciones que la gente tiene con ChatGPT pueden ser usadas en juicios, si son requeridas por las autoridades, ya que sus términos de uso no están protegidos bajo alguna cláusula de confidencialidad.

 

Otros especialistas como el psicólogo Scott Wallace señalan que la IA puede dar una sensación de "confort superficial" y muchos pacientes podrían sentir que el chatbot los entiende y que están generando una verdadera relación terapéutica, cuando, en realidad, interactúan con un algoritmo que "no puede ser recíproco con sentimiento humanos".

 

La terapia con IA es una realidad

 

DrEllis.ai no es el primer intento de hacer un chatbot que brinde atención psicológica. Existen otras aplicaciones como Mental o Mentla que brindan una sensación de que no dan respuestas rápidas, sino que identifican patrones de conducta que le permiten a sus usuarios canalizar sus esfuerzos en atender ciertos desórdenes, como el perfeccionismo o la necesidad de control.

 

En este contexto, y ante los casos de suicidios cometidos por personas que usaron chatbots como terapeutas, diversos gobiernos estatales en Estados Unidos (donde han surgido varios casos) han empezado a regular el uso de IA con fines terapéuticos, como es el caso de Illinois, Nevada y Utah, mientras otros como California y Nueva Jersey están en proceso de aprobar los propios.

 

Ante la inminente llegada de esta tecnología, especialistas como la profesora adjunta de la Universidad de Wisconsin-Stout, Heather Hessel, opinan que estas herramientas podrían servir a los terapeutas, pero no ser un sustituto. Por ejemplo, piensa que podrían ayudar a los especialistas a detectar patrones o comportamientos que pasaron desapercibidos o para recibir retroalimentación de sus terapias.

 

Hessel destaca que, si bien pueden servir como apoyo a las terapias, los chatbots deben manejarse con cautela porque a veces reaccionan de una forma en la que están implícitos sentimientos humanos que podrían llevar a malas interpretaciones.

 

"Hay muchos ejemplos de terapeutas de IA que ignoran declaraciones de autolesión o que enaltecen cosas que podrían ser dañinas para los clientes", señala Hessel.

Notas Relacionadas