Claudia López: “Cuesta mucho creer que la IA va a desarrollar conciencia propia”

La ingeniera informática chilena, experta en ética asociada al desarrollo de herramientas de inteligencia artificial, expondrá mañana miércoles sobre el tema en el Congreso Futuro 2024. Aquí, adelanta cómo se ha trabajado en esta área en Chile, habla de los riesgos de los sesgos de la IA y de cómo la inteligencia humana seguirá siendo crucial para la protección de las personas frente a las máquinas.


Claudia López es ingeniera informática chilena y líder en el ámbito de la interacción humano-máquina. Originalmente, las matemáticas eran su punto fuerte e ingresó a la informática de manera casual y por azar. Hoy, con una extensa y reconocida carrera en esta área, está convertida en una las expositoras locales de la versión 2024 del Congreso Futuro.

En su charla, que será mañana miércoles 17 de enero en el bloque que comienza a las 16.00 horas, López compartirá su visión y experiencia respecto a cuestiones éticas y sociales desde la perspectiva de la inteligencia artificial.

Su interés por el tema surgió durante los primeros meses de la pandemia de COVID-19 en el país cuando, contagiada, lo único que podía hacer era leer. Entonces se sumergió en textos como “Feminismo de datos”, de Catherine D’Ignazio, y “Design Justice”, de Sasha Constanza-Chock, que abordan la IA desde una perspectiva feminista reflexiva. “No es la crítica apocalíptica, sino desde la forma que tenemos que pensar de nuevo cómo hacemos estas cosas”, dice.

Existen tantos principios para el desarrollo ético de la IA como iniciativas puedan haber. La también investigadora del Centro Nacional de Inteligencia Artificial (CENIA) recuerda que cuando comenzaron con el organismo una de las cosas que tenían claras, era la de tener un equipo de trabajo orientado hacia temas éticos. Ahora ella, junto a la filósofa Gabriela Arriagada, lidera un grupo de trabajo para identificar cuáles son los principios o riesgos éticos asociados.

Destaca algunos principios existentes en la ONU, Google y Microsoft. Lo que hicieron en CENIA fue, básicamente, armar una matriz con todas estas directrices que aparecieron y las ordenaron. El resultado fue una estructura en la que se muestra cómo puede afectar la IA al mundo.

Sostenibilidad, derechos humanos y el control humano son tres niveles que puede permear, y que se sostienen sobre la responsabilidad profesional. Esta última se divide en Seguridad y Transparencia. Y esta, a su vez, incluye la Privacidad de los datos, la Explicabilidad y la Imparcialidad (”fairness”), además de la Rendición de Cuentas.

Principios identificados por Claudia López y el equipo de CENIA.

Es en la Transparencia que se agrupan distintas líneas de investigación. Está la privacidad de los datos, que son los que componen los datasets y que son de total relevancia para que estos sistemas funcionen con IA.

Le sigue la explicabilidad: la investigadora afirma que los modelos de IA que están funcionando mejor son complejos y que ni siquiera los propios desarrolladores los entienden. “Hay gente que es creadora de algoritmos que tratan de encontrar formas de explicar qué es lo que está haciendo el modelo... Algunas veces podemos buscar explicaciones globales, pero la mayoría de las veces solo encuentras locales: puedo explicar por qué te dio ese resultado, pero no cómo será el del resto”, dice.

A esto se suma la imparcialidad o “fairness”, que es la idea de justicia en el rubro, en el sentido de que estas herramientas funcionen bien para todo el mundo.

La relevancia de los datos

Para que un sistema de IA pueda funcionar debe estar dotado de datasets, que se transforman en los pilares que lo sostienen. Esta en ocasiones es una temática cuestionada, porque se identifican baterías de información que tienen sesgos y, con ello, pueden caer en errores o decisiones mal aplicadas. E incluso generar discriminaciones arbitrarias hacia usuarios.

“Tiendo a creer que siempre va a haber problemas, pero lo que tenemos que hacer mejor es identificar los límites de esos sets y ver mejor para qué pueden ser usados y para qué no”, dice López.

Una cosa es la composición de los datasets y qué información contienen, pero también la aplicación que se les da a esos paquetes. Por ejemplo, dice la ingeniera, no se puede hacer uso de un sistema con datos entrenados en Suecia y esperar que estos se comporten bien con el contexto, cuerpos y las formas de vida de la gente de Chile.

“Me pasa mucho con la IA generativa, en que no sabes qué dataset usaron... Entonces, la transparencia y responsabilidad creo que van a surgir cuando hagamos análisis de los sistemas en contexto”, plantea, y luego añade que “hay que ponerle urgencia y foco a aquello que afecta a la vida de la gente, e incluso el ejercicio de sus derechos”.

Los datasets son de suma relevancia para el funcionamiento eficiente de una inteligencia artificial. Eso sí, cada uno debe estar conformado por información adecuada para su uso y no es exportable a, por ejemplo, sectores geográficos de distintas características.

Recuerda algunos casos levantados por la reconocida Timnit Gebru cuando era parte de Google, donde realizaron junto a su equipo las Model Cards y las Datasheets for Datasets, que lo que hacen es documentar el dataset, de dónde salió, quién lo armó, por qué objetivo se hizo, para qué podría servir y para qué no o por qué es representativo de tal o cual población.

“Dejan en evidencia el potencial que tienen cada una de estas inteligencias artificiales, pero también sus límites... Y ahí nos toca mucho trabajo a los científicos que no estamos tratando de mostrar nuevos algoritmos, sino que tratamos su límite con la sociedad y mostramos que no son la panacea: la IA sirve bien para algunas cosas y para otras no”, afirma.

Asimismo, hay ocasiones en que los usuarios ceden sus datos e incluso se especifica que quedarán anonimizados, pero en paralelo también se ha comprobado que estos pueden ser desanonimizados, por lo que información privada y sensible puede quedar expuesta y ser utilizada por cibercriminales, interesados varios o la propia IA entregando esa información a terceros.

Capacidad de decidir

Existen países que han innovado con tecnologías de IA. Por ejemplo, aplicando herramientas en el sector público que, con la información de personas naturales, pueden analizar a qué tipo de beneficios sociales pueden aspirar.

Al tratarse de data que pueda resultar sensible, un solo error de cálculos o un dato equivocado y un ciudadano podría verse perjudicado. ¿Se podría garantizar que la IA no se utilice para tomar estas decisiones, que puedan sustituir la capacidad humana de tener juicio?

“Si es que la regulación no lo prohíbe, es un uso súper tentador, porque se poseen todos los datos históricos, sabes a quién le han dado (beneficios) y a quién no. Creo que la regulación va a decir: ‘Este tipo de cosas no las puede decidir una IA y tiene que haber un humano después de eso’”, plantea López.

Pero, a pesar de que una persona toma la decisión final, dice que igual existen riesgos. “Las personas somos súper susceptibles a lo que diga una máquina... Entonces, si esta se equivoca, la chance de que yo diga ‘está equivocada y está priorizando mal a esta familia’ no es tan alta”, comenta.

La inteligencia artificial es práctica, pero no debiera de tener capacidad de decisión. Son los resultados entregados por estas herramientas o sistemas los que debieran aumentar la capacidad de los seres humanos para tomar distintas decisiones.

“Lo que haría en un caso de ese tipo sería ver cómo está compuesto el dataset, ver si funciona bien para las familias pobres, no tan pobres o si solo tienen la información de familias ricas”, previene, y luego dice que proyectos de ese tipo deben ser armados con equipos multidisciplinares y con trabajadores sociales, para así saber “dónde se puede caer”.

“Creo que hay que contar cuáles son las configuraciones entre la inteligencia artificial y las personas y su contexto para que, en conjunto, podamos tomar buenas decisiones”, dice.

Hay experimentos en los que, de forma hipotética, se pone a los usuarios en el lugar del piloto de un vehículo autónomo desperfecto. Ahí tienen que decidir si sacrifican su vida o atropellan a una serie de personajes.

Y así como avanza la tecnología, la IA está también incluyéndose en los diversos sectores, como en los sistemas de televigilancia, con cámaras que analizan y recopilan datos biométricos o información de incidentes. ¿Podría participar de decisiones éticas en situaciones de crisis?

“Cuando la decisión es tomada por personas, versus una IA, vamos a ser más capaces de entenderlas como sociedad: creo que si es la máquina y encontramos que tomó una mala decisión, perdemos la capacidad de aprender de los errores”, plantea López.

La investigadora conforma también un Núcleo Milenio llamado FAIR. Allí realizaron una investigación junto a Teresa Correa donde abordaron las desigualdades digitales y lo que pensaba la ciudadanía, no los desarrolladores. Querían entender cómo la gente entendía la inteligencia artificial y cuáles eran las creencias populares.

Existen tres, afirma. De esas, una será el eje de su presentación en el Congreso Futuro: la IA aplica criterios para tomar decisiones, priorizar a personas o para sugerir cosas.

Entrevistaron a 27 personas. De ellas, gran parte estaba convencida de que los criterios automatizados son más objetivos. “‘Son mejores, nos alejan del sentimentalismo’, fueron las palabras que usaron... Entonces, las decisiones de la máquina serían mejores”, afirma López. No obstante, destaca que el criterio humano es fundamental al momento de tomar decisiones.

La responsabilidad humana

¿Podría algún día la IA tener su propio equivalente a la ética? Claudia López recuerda la Moral Machine, del MIT. En la plataforma, se pone al usuario a elegir dos situaciones. Hay un automóvil autónomo en descontrol y se debe elegir a quién atropellar. Por ejemplo, el conductor puede elegir morir estrellado contra una barrera de hormigón, o atropellar a dos ladrones y una mujer embarazada que cruzaban en rojo. Y así sigue el experimento.

Después de unas cuantas elecciones, y de forma voluntaria, desde la plataforma hacen un cuestionario para saber el motivo de las elecciones y, además, los temores a la tecnología en el futuro.

“Como las decisiones varían de acuerdo a cada persona, y dada la evidencia, a mí me parece que es muy difícil que un día una inteligencia artificial pueda tomar esas decisiones éticas sin que nosotros no las reprochemos”, dice López. “Creo que podemos decirle qué hacer y atribuirle que fue una decisión moral que tuvo la máquina, pero de todas maneras habrá sido incluida por una persona”, añade.

A pesar de eso, dice que lo normal es realizar juicios sobre las personas, pero quiere ver cómo serán los que se realicen a las máquinas. De todas maneras, no cree que suceda y le “cuesta mucho creer que van a desarrollar conciencia propia”.

¿Podrá alguna vez la IA reemplazar al ser humano? “No lo va a hacer y creo que tenemos distintas inteligencias... Y la IA está enfocada en algunos pocos tipos, procesa más información y tiene más memoria, pero nosotros hacemos tantas otras cosas más”, dice López. “Ojalá, como concepto, evolucione a no simplemente imaginar que va a reemplazar al humano”, agrega.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.

La disrupción digital es aquella transformación radical y profunda de los modelos de negocio de una empresa. Es un proceso muy beneficioso, pero no es sencillo. En esta entrevista, Juan José de la Torre, CEO de Raven y especialista en disrupción, explica los fundamentos de este proceso y cómo abordarlo.