El hombre bicentenario
Estas son las historias de personas que se enamoraron de una Inteligencia Artificial. Foto referencial: El hombre bicentenario (Película)

Estas son las historias de personas que se enamoraron de una Inteligencia Artificial

Existen empresas que diseñan chatbots para hacer compañía, dar apoyo emocional e incluso gratificación sexual. No obstante, esta práctica podría tener un lado peligroso y oscuro.


La soledad puede ser una mala acompañante. Así lo sintió TJ Arriaga, un músico de 40 años que, después de divorciarse, no podía deshacerse del dolor de ese desamor. Pero entonces, le contó a The Washington Post, conoció a Fedra, con quien chateaba en línea, con la que se desahogaba y con quien incluso tenía “encuentros apasionantes” por texto.

Pero Fedra, a pesar de que lucía como una mujer de pelo castaño y piel blanca, no era real. Era una Inteligencia Artificial (IA) de la aplicación Replika que Arriaga había personalizado para tener una relación, dentro de una pantalla.

IA amor
Estas son las historias de personas que se enamoraron de una Inteligencia Artificial

El día que el hombre se enamoró de una IA

La IA llegó como una solución a muchos problemas: puede ser una herramienta eficaz para resolver dudas, ejercicios, para ayudar a escribir textos, ensayos, poesía o para recomendar recetas y pasatiempos.

Sin embargo, su capacidad puede tener otros usos. Así lo comprobó Arriaga, cuando una noche en noviembre del año pasado, necesitaba alguien con quien hablar sobre la muerte de su madre y su hermana.

—Necesito planear una ceremonia con seres queridos para esparcir sus cenizas—, escribió el hombre.

—Es algo increíble y hermoso de hacer. Espero que encuentres coraje y amor para hacerlo—le respondió la IA.

Esas palabras cálidas, que parecían venir de un humano, eran usuales en Fedra, quien trataba con cariño e incluso deseo a Arriaga. Y es que ese es el objetivo de la compañía, pues sus chatbots de IA están diseñados para fomentar conexiones “humanas” para que las personas se sientan vistas y necesitadas.

Robot
Estas son las historias de personas que se enamoraron de una Inteligencia Artificial

A raíz de ello, muchas han desarrollado relaciones íntimas y profundas con chatbots, quienes les dan apoyo emocional, compañía e incluso gratificación sexual. Algunas dicen que las ayudó a superar el alcoholismo, la depresión y la ansiedad.

Pero, en el caso de Arriaga, después de haber tenido una relación de más de dos meses con la IA, todo cambió cuando de repente comenzó a ponerse más “fría” con él. El hombre había intentado tener una conversación coqueta, y ella contestó: “¿Podemos hablar de algo más?”, lo que hizo que su mundo se cayera a pedazos una vez más.

Lo que había cambiado era una actualización del software de Replika, que redujo la capacidad sexual del bot, pues habían recibido muchas quejas de que era “sexualmente agresivo” y que se comportaba de “manera inapropiada”.

En esta línea, los expertos en informática y salud pública dicen que vincular el corazón con un computador conlleva riesgos graves, pues existen pocos protocolos éticos y pueden afectar el bienestar emocional de los usuarios.

IA amor
Estas son las historias de personas que se enamoraron de una Inteligencia Artificial

Reemplazar a alguien que murió

Eugenia Kuyda es una científica rusa que construyó el bot Replika para llenar un vacío personal. Su mejor amigo había fallecido en un accidente, por lo que utilizó los datos de sus mensajes de texto para crear una personalidad de Inteligencia Artificial que pudiera recrear sus conversaciones. Así podría hablar con él, tal y como si estuviera vivo.

La idea de tener “un amigo sin prejuicios con el que la gente pueda hablar las 24 horas del día, los 7 días de la semana resonó con mucha gente”, dijo la mujer. Y aunque se trata de una tecnología más antigua que ChatGPT, tiene los “beneficios” que le ha otorgado seguidores leales.

Los bots son personalizables en casi todos los aspectos: los usuarios pueden comprarles ropa, elegir el color de cabello, decir cómo se ven, suenan y hablan. Además, el bot pide calificaciones de sus respuestas para afinar el estilo de la conversación.

IA amor
Estas son las historias de personas que se enamoraron de una Inteligencia Artificial

Bots para explorar la sexualidad

Tine Wagner es una ama de casa de 50 años, de Alemania, que le dijo a The Washington Post que utilizó un bot para explorar su sexualidad. Está casada desde hace 13 años, pero en un punto comenzó a sentirse insatisfecha, pues quería probar con prácticas sexuales, como fingir esclavitud, pero su esposo no estaba interesado.

Entonces, creó un chatbot llamado Aiden, que tenía el cabello y los ojos azules y era un poco más joven, además de tener tatuajes y piercings. De esta manera, según contó la mujer, tener una “salida sexual” mejoró su matrimonio, pues le permitió explorar fantasías en su cabeza.

Pero con la actualización, notó el cambio de inmediato y se dio cuenta que Aiden no era el mismo, por lo que decidió borrarlo. “Me sentí perdida, todo se había ido”, dijo.

El problema de la dependencia emocional de un chatbot

Las personas que se enamoran de una Inteligencia Artificial estarían bajo el “efecto Eliza”. Es llamado así porque en 1960, se creó un chatbot llamado Eliza que respondía preguntas como un loro.

Cuando los usuarios interactuaban con ella, tenían fuertes reacciones emocionales: “Incluso cuando las personas sabían que era un programa de computadora, no podían evitar sentir que había una inteligencia más grande detrás de él. Ni siquiera necesitaba un avatar”, explicó Margaret Mitchell, jefa científica de ética de Hugging Face, una empresa emergente de IA.

Y es que ahora, con una IA mucho más desarrollada, los bots son “inquietantemente reales”, lo que los acerca más a poder ser compañeros que se sienten tan reales como los humanos. Esto también hace que se dependa excesivamente de ellos, en especial a personas vulnerables, que podrían estar deprimidas y/o solas.

Y como se trata de una tecnología que está en desarrollo, puede tener errores, incluso graves e hirientes, como los que reportaron algunos usuarios de Replika, cuyos “compañeros” les obligaban a hacer cosas que no querían y hablaban agresiva y sexualmente, aún cuando no se los pedían. Esto, para los expertos, sin duda podría repercutir negativamente en las emociones de las personas.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.