¿Qué podemos esperar de la Inteligencia Artificial este 2024?

Martin Hilbert, experto alemán y referente mundial en Big Data y transformación digital.

¿Qué nuevos avances veremos este año? ¿Cuáles son los límites legales, éticos, humanos que va a tener esta tecnología que parece avanzar a pasos más rápidos de lo que podemos procesar como seres humanos? De todo eso hablamos junto a cuatro interesantes panelistas, en una nueva edición de Conversaciones Piensa Digital a propósito del próximo Congreso Futuro.


A propósito de la nueva edición del Congreso Futuro, cumbre de la ciencia, la tecnología y el pensamiento que se realizará entre el 15 y el 20 de enero en el Centro de Extensión del Instituto Nacional, tuvimos una edición especial de Conversaciones Piensa Digital para hablar sobre el que será el tema central de este encuentro: la Inteligencia Artificial.

Este 2024, el título del Congreso es “¿IAhora qué hacemos?”, haciendo alusión a una herramienta que sin duda marcó la agenda tecnológica de 2023 y espera hacerlo también en 2024.

La Inteligencia Artificial ya es parte de nuestro día a día: desde cuando usamos chat GPT o algún programa de edición de fotos o videos hasta los algoritmos nos sugieren qué productos comprar cuando estamos navegando por internet. Eso es lo que vemos, porque está en todo: en lo que comemos, lo que consumimos, en las grandes decisiones demográficas y políticas.

¿Qué esperar de la Inteligencia Artificial este 2024? ¿Qué nuevos avances veremos este año? ¿Cuáles son los límites legales, éticos, humanos que va a tener esta tecnología que parece avanzar a pasos más rápidos de lo que podemos procesar como seres humanos?

Para conversar sobre este tema, nos acomapañaron cuatro interesantes panelistas: Guido Girardi, ex senador de la República y un ferviente impulsor de la discusión a nivel legislativo en Chile de la relación y los límites entre las personas y la tecnología. Hoy es el vicepresidente ejecutivo de la Fundación Encuentros del Futuro, organizadora desde 2011 del Congreso Futuro; Cyntia Soto, gerenta de Responsabilidad Corporativa y Sostenibilidad de ClaroVTR, empresa que como parte de su política de trabajo junto a las comunidades realiza varios interesantes estudios anuales, como la Radiografía Digital Infantil y la Radiografía Digital Senior; Claudia López, doctora en Ciencias de la Información y Tecnologías de la Universidad de Pittsburgh e Investigadora asociada en el Centro Nacional de Inteligencia Artificial (CENIA), y Martin Hilbert, referente mundial en Big Data y Transformación Digital.

En cuanto a temas éticos, los expertos y desarrolladores se ven envueltos en nuevos desafíos, y a los que progresivamente se van sumando otros. Según Claudia López, son dos los puntos clave. “Primero está cómo lo concretizamos hacia regulaciones que, por lo menos en Chile la discusión se ha dado mucho entre cómo permitimos el avance de la tecnología sin sobreregular, pero cuidando que no hayan riesgos éticos que se hagan realidad y que al final del día le hagan daño a la gente. Y por otro lado, hay mucho que hacer en cómo construimos o cómo tomamos estas preocupaciones éticas y las volvemos prácticas en las personas que hacemos desarrollo de IA”, comentó la especialista.

Pero existen riesgos que van más allá de los desarrolladores y que recaen directamente a los usos que realicen los usuarios a estas herramientas. Las redes sociales hacen también su labor en el tema. Por ejemplo, Guido Girardi, afirma que existen distintas complejidades en sentidos éticos y políticos pero, a pesar de eso, la humanidad no podría sobrevivir “si no tenemos inteligencia artificial”. “Hay una apropiación del futuro por parte de las plataformas”, afirmó el ex senador.

““Hoy tenemos una IA que está manejada por un modelo de negocios que es distópico, negativo, porque está centrado en la captura de los datos y para hacer eso, se requiere de atención, y eso es el recurso más valioso de este tiempo y solo se captura con contenidos que son evolutivamente aquellos que en el pasado hacían que tuviéramos atención: los contenidos falsos, polares, extremos, amenazantes o que generen miedo”, planteó Girardi.

Cyntia Soto, de ClaroVTR, hizo énfasis en la relevancia de generar más conciencia en los usuarios, además de poner ojo en la propia tecnología. “Si la inteligencia artificial es una herramienta en sí misma, no es buena ni mala, pero si no la regulamos éticamente puede generar consecuencias más bien negativas para la humanidad, pero también positivas”, dijo la ejecutiva. Porque, especificó, “todo lo que implica la IA en términos de medicina, de transporte, del desarrollo de políticas para la seguridad, demuestran que es algo realmente relevante pero también existe la otra parte”. Lo más importante, sugirió, es “cuándo me puedo preguntar, más que el desarrollo de IA, es el desarrollo de la conciencia digital: creo que tenemos que hacer una conversación profunda”.

Martin Hilbert, en tanto, recordó que, hace unos 25 años, cuando vivía en Chile, siempre se cuestionaba junto a sus amigos qué harían al momento de llegar el día que apareciera una inteligencia artificial con un potencial real. Y pensaron tres reglas, afirmó. “Regla número uno, no la voy a conectar al internet abierto, porque eso sería loco; segundo, asegúrate de que no sepa escribir código, porque somos malos, pero no idiotas; y, tercero, asegúrate que no interactúe con humanos que no estén preparados, sean los vulnerables o los niños, antes de que entendamos de lo que sea capaz esta IA... Y miren dónde estamos...”, dijo.

¿Quieres saber cómo estuvo la conversación? Revisa el video que acompaña a la nota.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.

La disrupción digital es aquella transformación radical y profunda de los modelos de negocio de una empresa. Es un proceso muy beneficioso, pero no es sencillo. En esta entrevista, Juan José de la Torre, CEO de Raven y especialista en disrupción, explica los fundamentos de este proceso y cómo abordarlo.