Innovación en la era de la IA: ¿Cómo llevamos de la mano los avances y la regulación?

El doctor John Atkinson es profesor titular y Director del magister en Inteligencia Artificial de Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibañez.

Hoy el mundo vive la revolución de la Inteligencia Artificial a distintas velocidades, dice John Atkinson, director del magister en esta materia de la UAI. Mientras que Estados Unidos tiene el monopolio de herramientas que utilizan IA -un desarrollo donde la regulación va un paso más atrás -, en Europa la sobre-regulación ha generado desincentivos, pérdida de competitividad tecnológica y caída en rankings de innovación. ¿Cómo manejamos los riesgos y a la vez no detenemos los avances? Esa es la gran pregunta, y Chile podría tener una buena respuesta.


Chile atraviesa montañas rusas constantemente debido a su dependencia en áreas como la alimenticia, energética y, recientemente, la tecnológica, entre otras. Sin embargo, el problema es más de fondo y, entre otros factores, tiene de base la falta de diversificación en la matriz productiva y complejidad económica, esta última representada como el valor agregado que se utiliza en un producto o servicio para su elaboración.

En el Índice de Complejidad Chile se encuentra en el puesto número 72 de 133 países, con -0,18, que es muy bajo y que expresa lo básico de nuestra matriz productiva y la poca capacidad de demandar trabajos altamente calificados. A esto se suma una excesiva, y a veces arriesgada, dependencia tecnológica de otros países.

Un caso que ha tomado relevancia a nivel internacional es el grupo extremadamente centralizado de empresas de inteligencia artificial (IA), principalmente norteamericanas, que no sólo han desarrollado y comercializado nuevas tecnologías, sino que han monopolizado el uso de muchos datos y/o fuentes de conocimientos.

El riesgo de ello es bastante multidimensional, pero uno de ellos destaca: desde finales del 2022, mucha de la atención internacional se centró en la empresa OpenAI, que desarrolló varias tecnologías tales como ChatGPT y DALL-E entre otras. Y hacia fines de 2023 se generó una polémica muy mediática por la que sería la aparente renuncia de su CEO, Sam Altman, que finalmente no se concretó.

Asesorando a muchas empresas, me tocó observar con estupor cómo esta teleserie turca de un CEO que renunciaba o se quedaba no sólo tenía frenada la inversión de varias empresas debido al futuro de OpenAI, sino de variados servicios que estaban entregando y que dependían fuertemente de aplicaciones como ChatGPT.

Prácticamente, variados negocios se “detuvieron” esperando lo que acontecía con UNA sola empresa.

En Chile, esto ha pasado significativamente no sólo en el sector privado, sino también en el público. En mayo de 2023 el Estado, a través del Ministerio de Hacienda, contrató servicios de herramientas como ChatGPT, que pueden ser muy útiles para automatizar varios servicios que proporciona el Estado de Chile. Sin embargo, este tipo de aplicaciones no son muy robustas aún, han tenido problemas de privacidad de datos, producen resultados inconsistentes cada cierto tiempo, y hasta han generado información falsa.

Sam Altman logró presionar a la junta de OpenAI para que le restituyera como director ejecutivo. FOTO: ELIZABETH FRANTZ/REUTERS
Hacia fines de 2023, la renuncia del CEO de OpenAI, Sam Altman, que finalmente no se concretó, provocó una preocupación e incertidumbre en las empresas que han contratado los servicios de ChatGPT.

Esto es doblemente preocupante si se considera que las actuales regulaciones internacionales de la IA justamente abordan los problemas y riesgos de estas y otras tecnologías que usamos a diestra y siniestra. 

Por otro lado, aunque la tecnología ofrece numerosos beneficios, también conlleva varios riesgos y desafíos tales como la pérdida de habilidades prácticas y cognitivas, desigualdad digital, privacidad y seguridad de datos, interrupción del trabajo y la economía, además de fallas tecnológicas.

Usualmente pensamos en bienes escasos naturales como el agua o en “monopolios” de la comercialización de electricidad, entre otros. Sin embargo, se nos olvida que, en esta sociedad de la información, existen bienes y conocimiento que se han hecho más estratégicos y tácticos, incluso de seguridad nacional: los datos y la IA.

Sin desmedro de los riesgos y la sobre dependencia tecnológica, existen más riesgos potenciales en el uso y aplicación de las tecnologías. La IA está progresando rápidamente y muchas empresas están cambiando su enfoque hacia el desarrollo de sistemas que puedan actuar y lograr objetivos de forma mucho más autónoma. Los aumentos en las capacidades y la autonomía pronto podrían amplificar enormemente el impacto de la IA, pero a la vez traer otros riesgos que incluyen daños sociales a gran escala, usos maliciosos y una pérdida irreversible del control humano sobre los sistemas autónomos.

La respuesta es flexibilizar

Recientemente, una aerolínea internacional importante había desplegado un sistema de auto-atención de clientes con tecnologías recientes de IA generativa. Sin embargo, en forma irresponsable y sin supervisión humana, la empresa dejó operando al bot que sin darse cuenta generó una “oferta” falsa a un pasajero. Este hizo valer sus derechos y demandó a la aerolínea por no entregarle lo que le había ofrecido el bot.

La respuesta de la empresa empeoró las cosas: “No nos podemos hacer responsables de las acciones que toma el bot”.  No sólo se deben mejorar las capacidades de los sistemas de IA actuales, sino que generar conciencia sobre los usos responsables de esta.

Tal como el ejemplo, muchos sistemas actuales de IA todavía carecen de capacidades importantes y es incierto el tiempo que tomará desarrollarlas. Sin embargo, muchas empresas y universidades están desplegando rápidamente recursos y desarrollando técnicas para aumentar las capacidades de IA, y la inversión en entrenamiento de modelos de última generación se triplica anualmente.

Sin embargo, estos sistemas de IA con mayores capacidades tienen impactos mayores. Especialmente a medida que la IA iguala y supera a los trabajadores humanos en capacidades y rentabilidad, esperamos un aumento masivo en la implementación, las oportunidades y los riesgos de la IA.

Si se gestiona con cuidado y se distribuye de manera justa, la IA podría ayudar, por ejemplo, a la humanidad a curar enfermedades, elevar los niveles de vida y proteger los ecosistemas. Pero junto con estas capacidades también podrían venir riesgos a gran escala: amplificación de la injusticia social, erosionar la estabilidad social, permitir actividades criminales a gran escala y facilitar la guerra autónoma, y la manipulación masiva.

Así, sin suficiente precaución, podríamos perder el control de los sistemas autónomos de IA, haciendo que la intervención humana sea ineficaz. El cibercrimen a gran escala, la manipulación social y otros daños podrían escalar rápidamente. De ahí que deberíamos ser proactivos, pues los costos de no estar preparados superan con creces los de una preparación prematura. Debemos anticiparnos a la amplificación de los daños actuales, así como a los nuevos riesgos, y prepararnos para los mayores riesgos antes de que se materialicen.

Especial Anuario IA SciFi
"A medida que la IA iguala y supera a los trabajadores humanos en capacidades y rentabilidad, esperamos un aumento masivo en la implementación, oportunidades y riesgos de la IA", dice John Atkinson.

El esfuerzo para abordar estos potenciales riesgos usualmente viene en la forma de nuevas regulaciones, principios y normas internacionales. Sin embargo, la sobre-regulación internacional, especialmente en iniciativas producidas en la Comunidad Europea, han generado efectos indeseados: desincentivos a la innovación, pérdida de competitividad tecnológica y caída en rankings de innovación, entre otros. Actualmente, existen solamente dos empresas europeas de tecnología que se destacan dentro de las 30 más importantes del mundo: SAP (Alemania) y ASML (Holanda).

¿Cómo manejamos los riesgos y a la vez no desincentivamos la innovación?

Quizás la clave está en la flexibilidad, pues el problema es un desafío complejo que requiere un enfoque equilibrado y multifacético, que venga de la mano de varias estrategias:

  • Desarrollo de Marcos Regulatorios Flexibles: Los marcos regulatorios deben ser lo suficientemente flexibles como para adaptarse a los rápidos avances tecnológicos y que a la vez permita que el desarrollo tecnológico e innovación de un país avance. Esto incluye normas o regulaciones que se actualicen con frecuencia para mantenerse al día con los desarrollos tecnológicos.
  • Ética y Gobernanza en IA: Se requiere de principios éticos claros y robustos que aseguren que los sistemas de IA sean transparentes y que sus decisiones puedan ser explicadas. Por otro lado, se necesita IA responsable en que identifique claramente los responsables de las acciones de un sistema de IA y los mecanismos de supervisión correspondientes.
  • Fomento de la Colaboración Público-Privada: Se requiere promover la colaboración entre el estado, la industria y las universidades para compartir y transferir conocimientos y mejores prácticas:
  • Inversión en Investigación y Desarrollo: Se pueden ofrecer subvenciones y financiamiento a startups y proyectos innovadores en IA, como también la creación o fortalecimiento de centros de excelencia en IA que permitan impulsar la innovación y formación de talentos en la industria local.
  • Educación y Capacitación: desarrollando programas de formación y capacitación para preparar a la fuerza laboral para el futuro de la IA, como también en educación continua.
  • Promoción de la IA Responsable:  fomentando prácticas responsables para desarrollar y promover la adopción de normas voluntarias y buenas prácticas en la industria, como también iniciativas de autorregulación, que permita a las empresas adoptar códigos de conducta y políticas de autorregulación.
  • Evaluación de Impacto y Mitigación de Riesgos: Implementar evaluaciones de impacto y planes de mitigación de riesgos antes de la implantación de herramientas de IA, realizando evaluaciones de impacto ético y social, como también desarrollando y ejecutando planes para mitigar posibles riesgos asociados.

Algunas décadas atrás existía una serie de televisión norteamericana muy popular llamada originalmente “El hombre de los seis millones de dólares” (erróneamente traducida como “El hombre nuclear”), que narra la vida de un astronauta y piloto de pruebas que súbitamente tiene un grave accidente que le destruye las piernas, brazos, y ojos. Sin embargo, gracias a tecnologías biónicas desarrolladas por el Gobierno se le ofrece instalarle piernas, brazos y ojos biónicos, de modo que tuviera increíbles poderes. El slogan era: “Podemos reconstruirlo, tenemos la tecnología”.

Así, creo que hemos tenido muchos altibajos por varios años, pero tenemos un potencial Chile “biónico”: podemos reconstruirnos, tenemos los recursos humanos, el ecosistema, y la infraestructura.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.

La disrupción digital es aquella transformación radical y profunda de los modelos de negocio de una empresa. Es un proceso muy beneficioso, pero no es sencillo. En esta entrevista, Juan José de la Torre, CEO de Raven y especialista en disrupción, explica los fundamentos de este proceso y cómo abordarlo.