¿Cuáles son los límites de la Inteligencia Artificial?

ENMOS3CQDVGYDD6FE5RMPBWOFE

Una nueva patente aprobada para Microsoft permite a la compañía realizar robots conversacionales de personas reales, personajes históricos o ficticios. Este tipo de tecnología, advierten especialistas, podría conllevar peligros a la seguridad de los datos personales.


La noticia se hizo viral rápidamente. Microsoft, gigante multinacional de tecnología, registró una patente que le permitiría, una vez más, realizar chatbots. La nueva licencia para experimentar en el área, que ya los llevó años atrás a crear una serie de aplicaciones software dotadas con Inteligencia Artificial (IA), los facultaría para crear robots conversacionales sobre una entidad o persona específica (o una versión de esta), pasada o presente. En lo concreto, su nueva creación los haría crear robots digitales inspirados en personas vivas, muertas, personajes históricos o ficticios, lo que abre la discusión sobre los límites éticos de la IA.

Hay antecedentes: el caso de Tay, lanzado por Microsoft en 2016. El robot conversacional, que la empresa creó para ser utilizado en Twitter, se nutría de los comentarios en la red social y de la interacción que tenía con los usuarios. El invento duró 16 horas en línea, porque se transformó en un bot racista y extremista. Comentarios aludiendo a lo positivo del holocausto, adulaciones a Hitler, entre otros, llevaron a la multinacional a disculparse en las redes.

Previo a eso, en 2014, tuvieron un éxito en el área con la creación de XiaoIce, que fue levantado en distintas plataformas en China e incluso escribió su propio libro de poesía –el primero de autoría por una Inteligencia Artificial–, fue presentadora de noticias en su país y se ha presentado como cantante y compuesto canciones, entre otras cosas. Sumaron en Japón el ejemplo de Rinna y, en países de habla inglesa, al bot Zo para la plataforma KiK.

Pero estos ejemplos, algunos aún vigentes como XiaoIce (que se independizó de Microsoft en 2020), están lejos de lo que la empresa podría hacer ahora. La licencia en cuestión se refiere a crear bots conversacionales con información de una persona específica. Fotografías, datos de voz, mails, mensajes de texto, datos o comandos de diálogo, publicaciones en redes sociales, cartas escritas a mano, datos de transacciones, ubicación geográfica, entre otras, serían solicitadas para poder recrear la personalidad de la persona específica.

Los riesgos en la patente de Microsoft, dice la abogada Michelle Azuaje, no son éticos. “Lo primero es más jurídico, porque se habla de replicar la personalidad no solo de alguien fallecido, que es el fin más loable, sino que ocupan el término ‘persona pasada o presente’. Y una persona presente es una persona viva actualmente. Esto nos puede llevar a que de repente no vas a saber quién está del otro lado y puede incluir riesgos de seguridad, como fraude o estafa”, comenta la doctora en Derecho y coordinadora del proyecto Inteligencia Artificial y Derecho de la Universidad Autónoma (UA).

Eso sí, en la patente se especifica que, en el caso de referirse a una persona determinada, también puede apuntar hacia a uno mismo “o a una versión de uno mismo (uno mismo a una edad en particular o etapa de la vida)”. Por ejemplo, alguien podría encargar un bot conversacional sobre su persona a la edad de 15 años, para así poder interactuar con este. Pero también uno del momento presente. A la idea de crear un equipo conversacional, se le añade la de incluir un modelo en 2D o 3D del sujeto en cuestión, para que la experiencia digital sea así mucho mayor.

“En la medida que no ponemos límites, se van a poder replicar personas vivas y los riesgos son incluso mayores. Éticamente, desde el punto de vista de los fallecidos, existe algo que se llama ‘Personalidad pretérita’ y, aunque una persona haya muerto, hay ciertos rasgos de tu personalidad que se protegen post mortem”, añade la abogada Michelle Azuaje.

La profesional puntualiza que en Chile, la regulación de la Inteligencia Artificial “no está bien desarrollada” y que lo máximo que se ha hecho es avanzar en la construcción de una política nacional en torno al área. “Lo que hay es una declaración de intenciones, pero uno no ve cómo se va a ejecutar”, dice ella, que luego agrega: “Estamos bastante deficientes, porque no había manera de dimensionar el tipo de aplicaciones en IA que se están utilizando hoy en día. Lo que tenemos es algo pensado para otras cosas, así que hay que repensarlo y adaptarlo a estos nuevos problemas. Esa política, en este momento, está en consulta pública y debería poder recoger estos problemas”.

Peligros con la identidad

En el caso de crear bots inspirados en personas específicas, la doctora en Derecho y coordinadora del proyecto Inteligencia Artificial y Derecho de la Universidad Autónoma precisa que de concretarse se tiene que explicitar que se está hablando con un software de IA. Sobre esto, en caso de no hacerse, dice que se puede generar una pérdida de la percepción sobre la realidad “y eso es preocupante”, porque también puede prestarse para la inseguridad de la información.

“No sabes con quién estás hablando ni a quién le estás entregando tu información. No sabes qué harán con ella, entonces si le vamos a dar esos derechos a alguien, tiene que haber límites”, apunta la abogada Michelle Azuaje. Además, añade que también se debe especificar quiénes pueden acceder al desarrollo de estos bots, si solo familiares de la persona o quien quiera hacerlo.

Uno de los casos recientes más conocidos es el de Roman Mazurenko. Fallecido en 2015, “volvió a la vida” tres meses de la mano de su mejor amiga, Eugenia Kuyda. La mujer juntó todas sus conversaciones con Mazurenko, le pidió lo mismo al círculo cercano de él y recopiló poco más de 10 mil textos. El resultado fue un bot de conversación que responde como su amigo, pero que no fue aprobado por todo su entorno. “Ella no tuvo mayor problema, porque alimentó el chatbot con sus propias conversaciones, pero los familiares no se sintieron cómodos con usarlo, porque decían que habían errores y que no era él”, recuerda la abogada, sobre el experimento que luego dio luz a la aplicación de IA de acompañamiento Replika.

En la vereda de la ética, la especialista en propiedad intelectual dice que el mayor problema con la IA es que es una tecnología que aún desconocemos del todo. “Como aún no llega a su máximo poder de desarrollo, sería ideal fijar los límites ahora. En estos casos particulares todavía no hay conciencia, pero es lo que se quiere alcanzar y es el fin último de la IA. Los límites hay que ponerlos por si eso se alcanza”, comenta.

”La IA debe estar siempre al servicio de la ciudadanía”, dice el gerente de unidad de soluciones de negocio del Grupo Datco, Juan González. “Si está siendo utilizada y controlada por las personas, debe seguir siendo así. No se puede dejar al libre albedrío y tiene que estar siempre normado, para que no se puedan generar distorsiones. Éticamente, esta debe utilizarse siempre no para el reemplazo de los humanos, sino para maximizar nuestras capacidades”, dice el ingeniero informático. Esta tecnología funciona con datos entregados por sus controladores y acciona en base al tipo de algoritmo que se le programe. El problema es que, en caso de tener datos sesgados, puede funcionar de esa misma manera.

Además de no reemplazar a las personas en la cadena productiva, González dice que la IA debe dirigirse no solo a no dañar en aspectos físicos, sino también en el ámbito psicológico o que, debido al sesgo en los datos, pueda afectar a ciertos grupos de personas. “Si a una IA le pides que busque patrones respecto a la decisión de si contratar o no a una persona para una faena minera, si tiene que elegir entre un hombre o una mujer, probablemente elegirá al primero por el comportamiento de contratación de los últimos 20 años. Y eso no puede ser así”, dice el informático.

Añade que, otro de los puntos más relevantes, es con respecto a la privacidad de la información: “Como se tiende a tomar datos privados de las personas, hay que proteger la privacidad acerca de estos. Y el otro gran conflicto existente, es que estos algoritmos tienen que ser lo más transparentes posibles”.

Estilo “Black Mirror”

Respecto al caso de Microsoft, González recuerda un episodio de la serie de Netflix “Black Mirror”, en que una mujer acepta un chatbot de su marido recién fallecido. En el capítulo se pueden ver escenas en la que el sesgo en la información entregada puede afectar. En una de ellas, ambos personajes pretenden intimar cuando el bot está inserto en un cuerpo artificial, pero este le indica que no sabe cómo proceder porque nunca hablaron de eso por escrito y no tiene respaldo de ello en los datos entregados para su programación. “En ese caso, generaste una laguna en la toma de decisiones y no supo cómo actuar. Lo interpretó como algo bueno, ¿Qué pasa si un bot lo interpreta como un ataque?”, comenta.

En el caso de Datco, que entrega servicios de provisión de infraestructura, proyectos integrales de informática y comunicaciones a distintas empresas, aplican la IA de diferentes maneras. Una de ellas es la realidad aumentada, que ha ayudado a optimizar los procesos de producción y de trabajo de sus clientes. Con esta, el usuario debe ponerse un cintillo con el cual se le proyectará información en su campo visual que le permite realizar sus labores.

“Antes, un externo tenía que visitar una planta desde Suecia, Inglaterra o Estados Unidos para arreglar un motor. Con esta tecnología no es necesario que viaje para hacer el diagnóstico inicial, porque un operador local puede estar frente al objeto y aparece, con la realidad aumentada, una flecha que indica exactamente qué tornillo sacar con la información que te entregan de manera remota”, explica. Además, también entrega, por ejemplo, datos de temperatura de un artículo, si van a reparar un motor se coloca la información sobre qué piezas hay que modificar, planos sobre cómo ensamblar algo, entre otras alternativas.

“La Inteligencia Artificial podría llegar a aprender por sí misma si integrara un algoritmo que permita que aprenda indiscriminadamente”, dice González, y recuerda el caso de Bob y Alice. Ambos bots, creados en 2017 por Facebook con la intención que aprendieran a negociar, tuvieron que ser apagados al poco tiempo, puesto que comenzaron a dialogar en un idioma completamente distinto al de sus creadores.

Según lo que se comentó en ese entonces, la Inteligencia Artificial de ambos consideró que parte del lenguaje humano era inconsistente e inservible, por lo que lo deformaron y crearon uno propio más práctico. “Ese también es un riesgo ético y por eso todos los algoritmos deben ser transparentes y controlados por los humanos. Los dejaron libres, que aprendieran lo que quisieran y el problema fue que autogeneraban algoritmos. Se podían dar órdenes a sí mismos”, afirma.

“La última palabra la debe tener siempre el humano, porque la Inteligencia Artificial va a aprender, pero lo hará de acuerdo a las personas y entorno conceptual que se le entreguen y se decida que aprenda. Como sucedió con Microsoft y Tay. Twitter no es el mejor lugar, porque es un sitio de opiniones sesgadas”, dice Felipe Araya, director ejecutivo y creador de Sima, el primer robot educativo hecho en Chile.

Al momento de entregar información para la AI, dice el ingeniero mecánico, hay que tener completa certeza que esta puede ser sesgada y que, incluso en beneficio del hombre, debe tomarse con precaución. Menciona el caso de Watson, desarrollada por IBM y que puede realizar diagnósticos de cáncer. Pero el problema surgió cuando el sistema comenzó a recomendar, para el cuidado de la enfermedad, tratamientos peligrosos y que podían incluso causar la muerte.

Datos para Inteligencia Artificial

En cuanto a la patente de Microsoft, dice que aún falta desarrollo en la tecnología para crear una conciencia artificial. “Porque incluso todos estos modelos, que ahora se podrían hacer chatbots de personas, aún falta para llegar a la conciencia que es ser capaz de darte cuenta de tu propia existencia. Esperamos que no sea muy pronto”, dice Araya, quien luego recalca la importancia en la privacidad de los datos en estos casos.

“Se necesitan datos para crear Inteligencia Artificial. Y, a pesar de que ya le entregamos demasiados a las empresas dueñas de los algoritmos, como Google, Facebook, u otros, utilizarlos después de muertos puede tener complicaciones éticas que van mucho más allá del uso comercial que ellos hacen”, plantea. Eso sí, este proyecto tiene cualidades positivas y negativas. “Porque lo de Microsoft, como herramienta de terapia, es bueno. Pero trae un riesgo con respecto a la manipulación de las personas que están vivas. Si bien puedes acceder a este sistema e interactúan contigo como lo haría una persona viva, ¿Dónde está el límite entre que la empresa puede traerte a esa persona de vuelta, pero no te quiera vender publicidad?”, añade.

El ingeniero mecánico detrás de Sima afirma que es importante regular el avance la Inteligencia Artificial y que de hecho, “por eso mismo la ONU ha lanzado lineamientos donde habla de algoritmos, y que en general los desarrollos tecnológicos últimamente se están viendo influenciados por los sesgos de los creadores”. Con respecto a la misma Organización, incluso el Comité para la Eliminación de la Discriminación Racial presentó en 2020 una guía con recomendaciones para los agentes de seguridad que ocupasen Inteligencia Artificial, para reducir la discriminación racial a la que puede inducir esta tecnología en las detenciones policiales.

Sumado al caso de la ONU, la Unesco se embarcó, en 2019, en un proceso de dos años para elaborar el primer instrumento normativo mundial para el uso ético de la IA. El trabajo incluirá consultas realizadas a la comunidad científica, representantes de las distintas culturas y sus perspectivas éticas, minorías, Gobiernos, privados, entre otros.

El primer borrador del documento fue publicado en septiembre pasado y está disponible en el sitio web de la organización. “Se supone que tendrá la misma fuerza que la declaración universal de los Derechos Humanos, porque las cuestiones éticas y jurídicas con respecto a la Inteligencia Artificial son realmente para preocuparse. A lo mejor nunca llegamos a esa súper inteligencia, pero si llegamos y es muy tarde para poner límites...”, reflexiona Michelle Azuaje, abogada de la UA.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.

La disrupción digital es aquella transformación radical y profunda de los modelos de negocio de una empresa. Es un proceso muy beneficioso, pero no es sencillo. En esta entrevista, Juan José de la Torre, CEO de Raven y especialista en disrupción, explica los fundamentos de este proceso y cómo abordarlo.