Tendencias

Gabriela Arriagada: “La inteligencia artificial vino a poner el centro en el humano de nuevo”

En medio de la carrera por desarrollar herramientas cada vez más avanzadas con IA y de los esfuerzos desde el sector público por establecer normas y protecciones para los ciudadanos, la filósofa del Instituto de Éticas Aplicadas de la UC advierte sobre la necesidad de abordar la transformación ética que esta revolución implica. Su propuesta: un modelo que anticipe escenarios con su multiplicidad de desafíos, incorpore la incertidumbre respecto del futuro y abandone la idea tecnocentrista.

Gabriela Arriagada, filósofa del Instituto de Éticas Aplicadas de la Universidad Católica. MARIO TELLEZ

En el centro de todo, la persona. Por ejemplo, la persona llamada Gabriela Arriagada Bruneau, enfrentada desde niña a los problemas de un mal diseño. Recurrentes crisis respiratorias, bronquitis ocho veces al año, todo sin razón aparente. Nadie podía explicar por qué ella era distinta a los demás. Hasta que encontró la respuesta. “Me descubrí autista y empecé a ver una serie de injusticias que viví toda mi vida”, recuerda. La explicación para sus problemas de salud: el llamado “burnout autista”, definido como “el estado de agotamiento físico, mental y emocional prolongado que surge por la sobrecarga de estrés y la exigencia de adaptarse al entorno social y sensorial”.

“Eso me hizo darme cuenta de una injusticia constante en la ciencia, en el conocimiento científico, en que empecé a estudiar mucho más la filosofía de la ciencia”, recuerda. “Decía: estamos haciendo ciencia mal, ¿quiénes están decidiendo estos paradigmas?, ¿a quiénes estamos estudiando?, ¿por qué no recibí un diagnóstico? Porque no había datos para mí, porque no se habían estudiado, no había informes”. La ética de los datos cobraba así para una joven filósofa una dimensión poderosamente personal.

El estallido de escándalos como el de Cambridge Analytica y de Compas -un sistema algorítmico de predicción de reincidencia criminal utilizado en Florida que demostró un marcado prejuicio contra la población afroamericana- fueron para Arriagada ejemplos poderosos de la urgencia de investigar en torno a las dimensiones éticas en el desarrollo y adopción de las tecnologías que comenzaban a anticipar la revolución en ciernes.

“Empecé a darme cuenta de que estaba surgiendo este nuevo tema, que era una conversación ética sobre tecnología, algoritmos, datos. Esta fue la primera conversación. Antes de la inteligencia artificial llegaron los algoritmos y los datos, que eran la base de todo”, recuerda. Como en las grandes historias, una cosa llevó a la otra.

“Me di cuenta de que los datos iban a ser el nuevo insumo para tomar decisiones; dije tengo que meterme aquí, porque veo y he sufrido injusticias que tienen que ver con el paradigma científico, quiero hacer un aporte que me permita cambiar las cosas. Sé que suena como soñar en grande, pero esa fue mi mayor motivación para meterme en el tema de la ética de la inteligencia artificial”, apunta.

Luego vendría el tsunami: en noviembre de 2022 la empresa OpenIA libera su más reciente versión de Chat GPT para uso público y de pronto muchos empiezan a experimentar y a tomar posiciones frente al uso de la IA. Meses después, los principales líderes científicos del área proponen una moratoria en el desarrollo de estas herramientas, en una carta que quedaría en la historia como un acto testimonial en momentos en que la represa que había contenido la salida de los desarrollos de IA de las principales empresas tecnológicas del mundo comenzaba inexorablemente a reventar.

“Cuando eso explota, de alguna manera creo que uno entra en un estado de emergencia, sobre todo en mi rol en la ética de inteligencia artificial. Casi como un rol social: tengo que entender esto, tengo que meterme a estudiarlo, es casi una responsabilidad civil. Entonces pasé de estudiar sesgos en general, a meterme mucho en el tema de modelos de lenguaje”, dice.

Tras un recorrido académico que la ha llevado por la Universidad de Edimburgo (donde cursó su máster en filosofía y ética) y la Universidad de Leeds (donde se doctoró en Filosofía, especializada en éticas aplicadas), Arriagada regresó a su alma mater, la Universidad Católica, para integrarse al Instituto de Éticas Aplicadas y al Instituto de Ingeniería Matemática y Computacional de la misma universidad. Hoy, además, lidera el equipo de ética de LatamGPT, el modelo latinoamericano desarrollado desde el Centro Nacional de Inteligencia Artificial (Cenia), donde ella es investigadora.

Mientras desde la academia se discuten estos asuntos y en el Congreso discutimos sobre una ley de IA, el mercado avanza. Open AI acaba de lanzar Sora 2 y hace más urgente la discusión sobre los videos falsos, por ejemplo. ¿Qué diagnóstico haces sobre eso?

He tenido la suerte y la pena de conocer a muchas personas que estaban trabajando en estas grandes compañías y que se han ido, precisamente porque su radar, su brújula ética, les dice que esto se está haciendo mal, el rigor científico no existe, los parámetros éticos son irresponsables. Hay que entender que no todo se tiene que transformar en un valor y creo que lo más peligroso, más allá del tema incluso económico, es que esto se está transformando en una batalla de quién llega primero, quién es capaz de generar esa inteligencia artificial general, sin importar el costo. Existe esa ambición que es como el viaje a la luna. Este es nuestro nuevo viaje a la luna: quién llega primero a esa súper inteligencia artificial. Y eso es extremadamente peligroso.

Ha planteado que la discusión nos obliga a volver a preguntarnos cosas básicas, como la definición misma de “humanidad”. ¿Puede ser que, por el contrario, la carrera por la IA termine reflejando lo peor de la naturaleza humana?

Siempre digo que la inteligencia artificial vino a poner el centro en el humano de nuevo. Porque en los años 80, 90 y 2000 hubo este afán, tanto científico como tecnológico, de avanzar, de llegar a ese futuro; creíamos ingenuamente en este paradigma de que la ciencia no tiene valores, de que la ciencia es objetiva, de que la ciencia avanza y nos da muchas cosas positivas. Por eso tenemos grandes científicos, tenemos muchos avances, pero perdimos toda esa narrativa humana, emocional, social. Una de las cosas más preocupantes de la tecnología es precisamente que las personas las adoptan y establecen vínculos que no tienen una interacción significativa, que son malas interpretaciones. Y ahí hay algo muy interesante, porque no es que la inteligencia artificial saque lo más oscuro; yo creo que refleja lo que perdimos. El hecho de que nos vaciamos de ese sentimiento, de ese conocimiento más holístico que perdimos por este afán científico y tecnológico en todas estas décadas y nos deja acá despojados diciendo: en realidad, lo que yo necesito es salud mental, conectarme con un otro, entender cuáles son mis límites. Más que nuestro lado más oscuro, creo que está revelando que estábamos despojados de sentido. Y eso es algo súper potente.

En el marco de la discusión de la ley de IA ha ido al Congreso a dar su opinión. Pero plantea que necesitamos abordar este desafío con otra mirada, con otro modelo…

He aprendido junto a mis colegas abogados que la ley no viene a solucionar muchas cosas. Por sí sola, en lo único que se transforma es que vamos a establecer líneas de compliance. Como empresas, gobiernos, instituciones que dicen: tenemos nuestros principios, les hacemos caso. Pero por cómo funciona la inteligencia artificial, tenemos cómo esto se va a ramificar o cómo va a evolucionar. Los paradigmas normativos pueden ser muy beneficiosos, pero funcionan en estructuras que están en un contexto específico. Y el contexto de la inteligencia artificial es dinámico. Y va a seguir transformándose en un año, en dos años, en tres años. Tú le preguntas a cualquier experto en inteligencia artificial y te va decir yo no sé dónde vamos a estar en cinco años. Ahí es donde este escenario de posibles futuros nos permite entender y dimensionar y estar preparados para la multiplicidad de cuestiones éticas de las que tenemos que hacernos cargo. Debemos tener análisis sobre cuáles son los riesgos reales a corto, largo, mediano plazo, ¿cómo podrían interactuar entre ellos? ¿En qué queremos poner esfuerzos? Se trata también de identificar qué es lo más riesgoso para nosotros. Los riesgos que tienen en China, que tienen en Europa y que tenemos nosotros son muy diferentes en términos de sostenibilidad, en términos de responsabilidad. Entonces, ¿cómo articulamos eso? Son preguntas sistémicas que no se están haciendo. Nos estamos mirando a nuestros propios pies. Es, para ponerlo muy simple, como hacemos con los riesgos de desastres. No basta con simular un desastre. Yo puedo tener información sobre esa simulación, puedo saber que viene un terremoto, puedo saber qué tengo que hacer. Pero también tengo que tener en cuenta que en ese escenario futuro hay múltiples miniescenarios que podrían llegar a ocurrir. Si yo no sé cómo manejar eso y cómo moverme en ese entorno ético, voy a hacerme un daño a mí mismo.

¿Se saca algo con tener una ley de inteligencia artificial?

Sí, es importante tener una legislación. Las legislaciones son marcos que nos permiten establecer límites, pero son el punto de partida, no el punto final. Creo que es importante fomentar en esta ética de riesgo y de escenario futuro, y una ética aplicada profesional y ciudadana, que recordemos que nosotros somos agentes morales, por naturaleza. Depende de nosotros tomar buenas decisiones. Retomar esta idea cívica, social, personal, de que somos agentes morales. La legislación nos da un marco de referencia, pero la ética te ayuda a modelar comportamientos.

¿Qué cree que es lo más importante que dejamos de ver cuando discutimos sobre IA?

Es que cuando hablamos de la inteligencia artificial se habla sobre la tecnología misma, sobre sus impactos y consecuencias, se habla de esta idea responsable que se traduce a una serie de lineamientos tanto técnicos como normativos, pero nadie está integrando esto como un saber o un conocimiento desde la transformación ética que implica. La inteligencia artificial, a pesar de ser una herramienta, a pesar de ser una tecnología, opera de manera muy diferente a otras. Opera porque, sobre todo con la inteligencia artificial generativa, nosotros tenemos la capacidad de crear, manipular, intencionar ciertos contenidos y ciertas interacciones. Y eso hace que las personas cambien sus percepciones de valores y normas que son extremadamente importantes para una sociedad. Si bien se habla de ética de inteligencia artificial, falta discusión sobre una metodología, una transición de los principios a una deliberación concreta. Debemos bajar esto e integrarlo de manera transversal, es un ingrediente sustancial en este nuevo escenario. Eso es lo más urgente, que entendamos que la capacidad de liberación ética crítica en entornos de tecnología no basta con lo normativo, no basta con una serie de principios y con una gobernanza responsable, sino que es algo mucho más profundo, tiene que ver con capacitaciones y educación profesional y ciudadana que nos permitan a todos tomar mejores decisiones.

Más sobre:Especial La TerceraGabriela Arriagadainteligencia artificial

⚡¡Extendimos el Cyber LT! Participa por un viaje a Buenos Aires ✈️ y disfruta tu plan a precio especial por 4 meses

Plan digital +LT Beneficios$1.200/mes SUSCRÍBETE