¿Inteligencia Artificial como apoyo emocional?

Inteligencia artificial y salud mental.



En 2013 se estrenó la película protagonizada por Joaquin Phoenix y Scarlett Johansson Her (Ella). El film duplicó en ganancias el presupuesto original y fue nominada a varios Golden Globes e incluso a los premios Oscar. Una de las particularidades de Her es que, si bien la trama sigue la historia de Theodore y Samantha, solo Joaquin Phoenix puede ser visto en pantalla. Scarlett Johansson no hace ninguna aparición en escena y solo es posible escuchar su voz a lo largo de toda la película. Y es que su personaje, Samantha, no es realmente una mujer, sino un sistema operativo creado utilizando inteligencia artificial, especialmente diseñado para acompañar a Theodore.

La trama de Her puede parecer una idea novedosa, pero la realidad es que la comunicación con sistemas de inteligencia artificial o IA llevan mucho tiempo aquí. De hecho, Spike Jonze, el creador y director de Her se inspiró en un chat que ofrecía a sus usuarios mensajería instantánea con un bot ya a principios de los 2000 para escribir el guión de la película. Sin embargo, la autenticidad y la sofisticación con la que hoy logran operar estas herramientas es inédita. Tanto así, que especialistas en el área creen que es posible utilizar estas tecnologías para apoyar a las personas en uno de los aspectos más delicados y personales de la vida: el manejo de las emociones y el cuidado de la salud mental.

Cuestionamientos éticos

A principios de este año, un tweet del especialista en psicología de la Universidad de Princeton y Ph.D en Media Arts and Sciences del MIT, Robert Morris causó revuelo en la red social. En él explicaba que mediante el sistema chatGPT se había puesto a prueba la funcionalidad de IA para proveer de ayuda psicológica a casi 4 mil usuarios. Con casi 15 mil interacciones en Twitter, el público tuvo una reacción que probablemente no fue la que Morris esperaba al compartir la noticia. Los usuarios de Koko —la plataforma utilizada por Morris y su equipo para prestar ayuda emocional virtual— no habían estado recibiendo simplemente apoyo de especialistas online. Habían interactuando con los bots creados utilizando el sistema de IA pero que, a su vez, se retroalimentaban y perfeccionaban a medida que recibían respuestas y comentarios de los potenciales pacientes.

Si bien el creador de la herramienta explicó que chatGPT a través de la plataforma Koko solo fue una iniciativa de ayuda entre pares y que cada interacción con una entidad virtual estuvo supervisada por especialistas en salud mental, la respuesta del público fue, a lo menos, negativa. Las principales críticas giraban en torno a los cuestionamientos éticos que suscita el dejar a cargo de un sistema artificial un tema tan delicado como la salud mental y el escepticismo generalizado a que, por muy sofisticada que sea la herramienta, esta logre alguna vez reemplazar efectivamente el apoyo emocional de un par, un ser sintiente.

Sanndy Infante, psicóloga especialista en trastornos del ánimo del Centro Clínico del Ánimo y la Ansiedad y docente universitaria de la cátedra de Ética Profesional, explica que hay distintos aspectos que deben considerarse al momento de analizar el uso de una herramienta como esta. “Desde la perspectiva de la bioética existen una serie de principios que psicólogos y psiquiatras deben respetar”, explica. Uno de ellos es el de la autonomía del paciente. Es decir, cada uno actúa libremente conforme a un plan de tratamiento. “El uso de esta tecnología no necesariamente implicaría un perjuicio en este sentido siempre que los usuarios estén conscientes e informados de estar interactuando con una herramienta digital”, comenta. Sin embargo, aclara que no solo basta con estar informados, sino que debe haber también una voluntad explícita de someterse a este tipo de dinámica digital y que no debe haber ningún tipo de coacción de por medio.

Otro de los principios que es clave considerar según la especialista es el de la no maleficencia —lo que se hace no genera de manera intencionada daño al otro— que aplica no solo para quien entrega ayuda, sino también al usuario. Explica que, para cumplir con este principio bioético hay que considerar quién está detrás de la herramienta. Agrega que este tipo de IA se puede ver como algo inocuo, como una forma de soporte que no reemplaza un tratamiento psicológico o psiquiátrico, pero existe siempre la posibilidad de que algo salga mal. Y frente a eso, no es claro cómo puede establecerse la responsabilidad. “Hay cosas que entrega la experiencia profesional y el acto clínico mismo que no las puede entregar una máquina”. Algunos de estos elementos serían la lectura emocional del otro, la empatía y el vínculo terapéutico según la especialista. “Existen muchos estudios que apoyan la idea de que lo más beneficioso para el paciente en una terapia es el vínculo terapéutico”, aclara. Algo que según el propio creador de Koko podría eventualmente superarse si las personas establecen rapport con el software. “Quizás estamos tan desesperados por ser escuchados y tener algo que nos preste atención sin distraerse, sin mirar el celular o revisar el email, quizás anhelamos eso de forma tan profunda que llegaremos a convencernos que la máquina realmente se preocupa por nosotros”, comenta el creador a través de Twitter.

Pero incluso si la necesidad de contención de las personas hace que finalmente sean capaces de pasar por alto el hecho de que se está interactuando con AI, todavía existen aprensiones de parte de los especialistas. “¿Qué nivel de comprensión tiene la persona de que la máquina no está realmente entendiendo, no está siendo empática y que lo que le está dando es una respuesta predeterminada y estándar?”, plantea Sanndy.

¿Resultados positivos?

A pesar de las críticas, los resultados que obtuvo Koko mientras estuvo disponible su función IA fueron, para su creador, positivos. Morris explicitó que los mensajes generados por el sistema de inteligencia artificial tuvieron una evaluación considerablemente más positiva que aquellos emitidos únicamente por seres humanos y que, además, la utilización de esta herramienta tecnológica permitió reducir en un 50% los tiempos de respuesta. En este sentido, Sanndy Infante explica que, a pesar de todas las salvedades y resguardos que requiere la utilización de este tipo de tecnología, efectivamente existen instancias en las que podría ser de ayuda. “Podría funcionar como un proxy o una forma de vincular al paciente con una verdadera fuente de apoyo adecuada”, comenta. En este sentido, el chat, mediante la inteligencia artificial podría reconocer situaciones que planteen los usuarios y sugerir líneas de ayuda o profesionales idóneos para lo que se está buscando pero no para generar un proceso de contención efectivo. “Podría servir para generar redes de apoyo, para saber dónde consultar y así ahorrar tiempo”, comenta. Pero finalmente Sanndy, quién además cuenta con experiencia trabajando en lingüística computacional, aclara que la salud mental no es una receta de cocina y que la subjetividad de los seres humanos rebasa las capacidades de la programación de un código.

Y es que ejemplos de relaciones entre personas e inteligencia artificial abundan en la ciencia ficción pero no así los finales felices en este ámbito. La película de Steven Spielberg, Inteligencia Artificial —que narra la historia de una familia que adopta a un androide con forma humana capaz de sentir emociones como el amor y la empatía luego de haber perdido a uno de sus hijos—, es una de las referencias que, probablemente, la mayoría conoce. Una muestra del vínculo que potencialmente podríamos desarrollar las personas con formas de inteligencia artificial. Sin embargo, hasta ahora incluso para los creadores de guiones de ficción ha sido posible vislumbrar todas las posibles complicaciones que este uso de la tecnología podría generar. Porque, tal como lo planteó el propio Robert Morris a través de sus redes sociales, por muy avanzada que sea la tecnología, en el campo de las emociones, la inteligencia artificial solo es capaz de emular. Y eso marca una enorme diferencia para las personas. “La empatía simulada se siente extraña, vacía”, comentó. “Las máquinas no han vivido experiencias humanas y cuando dicen frases como ‘eso debe ser difícil para ti’ o ‘te entiendo’, suena poco auténtico”. Por muy sofisticado que llegue a ser, un software nunca será capaz de transmitir algunos de los pilares fundamentales del apoyo emocional: sentir que alguien se preocupa, toma tiempo de su día para dedicarle a alguien más y mostrar cariño y empatía por lo que otro siente.

Lee también en Paula:

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.