Ética e inteligencia artificial: los desafíos que enfrenta el futuro digital

Ética e inteligencia artificial: los desafíos que enfrenta el futuro digital.

La acelerada integración de la inteligencia artificial en diversos sectores plantea interrogantes cruciales sobre moral, privacidad y responsabilidad. ¿Está preparado Chile para abordar los dilemas éticos que acompañan esta revolución tecnológica? ¿Se puede regular y supervisar una tecnología que evoluciona tan rápidamente?


En un mundo donde la inteligencia artificial (IA) está cada vez más presente, los desafíos éticos que esta tecnología implica son ineludibles. La capacidad de la IA para analizar grandes cantidades de datos y tomar decisiones autónomas, tiene el potencial de transformar industrias y mejorar vidas, a decir de los expertos. No obstante, esta misma capacidad también trae consigo riesgos que no pueden ser ignorados. ¿Cómo se protege la privacidad en un entorno dominado digitalmente? ¿Cómo se evita que la integridad de niños, niñas y adolescentes no se vea afectada por el uso indebido de esta tecnología? ¿De qué manera se garantiza que los algoritmos sean justos y no perpetúen sesgos?

Según el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación, Chile ostenta hoy el primer lugar en Latinoamérica en capacidades para desarrollar inteligencia artificial. Uno de los elementos clave para ello fue haber publicado su primera Política Nacional de IA en 2021, de modo que fenómenos como Chat GPT y la IA generativa no tomaron al país por sorpresa. Además, detallan desde esa cartera, hoy se cuenta con una segunda versión actualizada de la Política Nacional de IA, con foco en los aspectos éticos y de gobernanza, mediante un proceso que recogió los resultados de la metodología RAM de la Unesco.

Gabriela Arriagada, académica UC e investigadora del Centro Nacional de Inteligencia Artificial (Cenia) y autora del libro Los sesgos del algoritmo, explica que para empezar a conversar sobre ética e IA, lo primero es entender por qué esta tecnología no puede regularse en sí misma. “Es una tecnología abierta, de rápido desarrollo, en constante cambio y además tiene muchas especificaciones, por lo tanto, tratar de regular la tecnología en sí misma es casi contraproducente”, señala. Lo que sí se puede regular, dice ella, son sus impactos, sus riegos y su manejo, es decir, el rol que cumplen los seres humanos en el desarrollo de la IA.

El enfoque que plantea esta investigadora se alinea con prácticas internacionales como las de Estados Unidos y la Unión Europea, que apuntan a regular los procesos de diseño y creación de la IA, así como las políticas públicas asociadas, para limitar usos inaceptables y proteger el impacto social negativo.

Uno de los principales desafíos en la implementación de la IA es la falta de educación, tanto tecnológica como ética. Arriagada indica que en Chile hay una falta profunda y transversal de contenidos curriculares en educación básica, media y universitaria sobre esos temas. “Identificamos una falta transversal no solo de contenidos, sino también de la articulación de la ética dentro de carreras que son estratégicas para el desarrollo del país”, comenta.

La académica enfatiza en la importancia de integrar la ética en la educación como una acción crucial para formar una masa crítica de profesionales capacitados para abordar estos desafíos. “La ética debe ser vista no como un agregado, sino como parte fundamental del desarrollo transversal de los profesionales que vamos a tener en nuestro país”.

Cuando se habla de ética e IA, enfatiza la investigadora del Cenia, el problema base es la falta de educación y no solo en las capas más altas de la educación, sino desde las etapas más tempranas, la enseñanza básica y media. Pero al mismo tiempo, para implementarla desde el inicio de la escolaridad, es esencial tener evidencia clara sobre el impacto de la IA en los aprendizajes antes de escalar su uso, explica Marcela Colombres, directora de Aprendizaje para el Futuro de Fundación Chile.

“También hay desafíos éticos que la implementación de la IA enfrenta en la educación”, plantea Colombres. Estos incluyen la privacidad de datos, la ciberseguridad, los sesgos y la discriminación, así como la autonomía. “Ante esta realidad, hay que tener claras las reglas del juego, hay una necesidad de regular en tiempos adecuados, que existan leyes claras”, expresa.

Para mitigar algunos de estos desafíos como el sesgo y la discriminación en los sistemas de IA utilizados en la educación, es positivo que Chile cuente hoy con una Política Nacional de Inteligencia Artificial, que enmarca ciertos ámbitos de acción y prioridades, aseguran desde Fundación Chile. También tener una propuesta de ley lo ven como un avance significativo, pero puntualizan que es clave avanzar en un marco regulatorio específico para el sector educacional.

Ética y sesgos

Uno de los grandes desafíos de la IA, plantean las expertas consultadas, son los sesgos intrínsecos que trae consigo esta tecnología. Gabriela Arriagada detalla que hay varias medidas que se pueden tomar para que no se amplifiquen desigualdades existentes, pero advierte que estas deben funcionar de manera ecosistémica y sinérgica.

La ciencia no se ha quedado de brazos cruzados en este aspecto, afirma Arriagada, porque se ha hecho bastante esfuerzo para no seguir perpetuando desigualdades existentes. “Por un lado, se han tomado medidas en cuestiones técnicas, generando nuevas prácticas para monitorear, minimizar y entender los sesgos. Pero también hay otro aspecto que tiene que ver con cuestiones cognitivas, con posiciones científicas, con los sesgos propios de los investigadores, de las instituciones, y para mitigarlos hay que buscar puentes de comunicación, lenguas comunes, un vocabulario que entregue resultados realmente representativos”, manifiesta.

Proyecto de ley

En mayo de este año, el Ministerio de Ciencia ingresó un proyecto de ley de inteligencia artificial que busca promover la creación, desarrollo, innovación e implementación de sistemas de IA que garanticen la protección de la salud, la seguridad y los derechos fundamentales de las personas, protegiendo así a los consumidores frente a los peligros que ciertos usos poco éticos de la IA puedan provocar.

Desde el ministerio explican que este proyecto busca permitir y promover la innovación y crecimiento de los usos positivos de esta tecnología. La propuesta de ley promueve acciones de autorregulación y regulación basadas en riesgos, clasificándolos entre sistemas de IA de riesgo inaceptable, de alto riesgo, de riesgo limitado, y sin riesgo evidente.

Conforme a ello, el proyecto plantea una serie de principios éticos internacionalmente aceptados que deberán observar los sistemas de IA desarrollados, comercializados y/o utilizados en el territorio nacional y establece una serie de reglas, dependiendo del nivel de riesgo aplicable.

Asimismo, se determina un mecanismo de gobernanza basado en la creación de un Consejo Asesor Técnico de IA, además del fortalecimiento de las capacidades del ministerio en IA y el ejercicio de la función fiscalizadora y de cumplimiento a cargo de la Agencia Nacional de Protección de Datos Personales. Por último, se crea un régimen de sanciones administrativas y civiles por incumplimiento de las disposiciones de esta ley.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.