Los desafíos y oportunidades que abre la inteligencia artificial

Esta nueva tecnología abre grandes oportunidades para la humanidad, pero uno de sus grandes desafíos es asegurar que no se utilice como potente arma para la desinformación.



Cuando en marzo del año pasado un grupo de expertos y ejecutivos de la industria tecnológica -entre ellos Elon Musk y el cofundador de Apple, Steve Wozniak- alertó en una carta pública sobre la necesidad de pausar por algunos meses el desarrollo del entrenamiento de los sistemas de inteligencia artificial (AI) más potentes que GPT-4, hasta entender mejor sus implicancias, se encendieron todo tipo de alertas, ante el riesgo de que la humanidad estuviera desarrollando una tecnología con el poder de volverse en contra de sí misma. El 2023 fue entonces el año en que todo el mundo comenzó a hablar de la IA, coincidiendo con el hecho que esta tecnología empezó a masificarse, gracias al auge de empresas como ChatGPT y varias otras.

Tal como lo muestra la edición especial que La Tercera dedica a la IA, la irrupción de esta tecnología -sin duda el mayor hito tecnológico desde el surgimiento de Internet- abre nuevas preguntas e inquietudes porque se trata de una herramienta cuyos alcances desconocemos, pero a la vez es altamente prometedora, porque además de facilitar una serie de tareas y poder llevarlas cabo con un grado de perfección y velocidad inimaginables -abriendo con ello insospechadas ganancias de productividad en las empresas y personas-, acelerará la generación de conocimiento y a su vez el desarrollo de nuevas tecnologías.

Si 2023 fue el año en que empezó la masificación de la IA, 2024 previsiblemente será el año en que tendrá lugar un intenso debate para introducir regulaciones a esta tecnología, ya que por su carácter hay coincidencia en que resulta riesgoso dejar que su uso y límites quede sólo a criterio de las grandes empresas desarrolladoras. La Unión Europea ha pasado a ser por estos días el primer bloque en que ha acordado una regulación integral sobre IA, mientras que en Estados Unidos se multiplican las voces que piden al gobierno y al Congreso acelerar la implementación de nuevas regulaciones.

Un aspecto central que aquí está en juego es cómo asegurar que frente a una tecnología con la capacidad de generar en forma instantánea textos con la misma habilidad que lo haría un humano, y de crear imágenes y sonidos que muchas veces resultan indistinguibles de la realidad misma, su uso no se preste para manipulaciones a gran escala, algo de lo cual de hecho ya está ocurriendo, pues la IA ha sido aprovechada por gobiernos y sectores inescrupulosos para generar enormes volúmenes de contenidos que apuntan a la desinformación. Un reciente estudio de Freedom House (“El poder represivo de la inteligencia artificial”) ha revelado que la IA ha tenido el efecto de multiplicar la censura gubernamental en Internet, porque estas tecnologías también permiten identificar rápida y eficazmente contenidos incómodos para los gobiernos, lo que facilita la censura selectiva o la persecución o acoso hacia las voces disidentes. Los conflictos en Gaza o en Ucrania también han dejado al descubierto enormes contenidos destinados a la manipulación.

Las audiencias parecen estar más alertas sobre la proliferación de contenidos falsos. Un estudio internacional de Ipsos llevado a cabo en 29 países -entre ellos Chile- muestra que el 74% de los encuestados cree que la IA está haciendo más fácil generar historias falsas o imágenes altamente realistas. Asegurar información confiable, con fuentes verificables, es entonces uno de los grandes retos que impone esta nueva tecnología, donde el papel que jugarán los medios de comunicación tradicionales resulta indispensable, pues al contar con profesionales y estándares éticos están en mejor pie para llevar a cabo esa función.

Sin embargo, la tarea de asegurar información confiable se está viendo dificultada por una serie de razones, entre ellas, la predilección de las audiencias más jóvenes por consumir contenidos noticiosos a través de plataformas -un entorno particularmente propicio para la difusión de contenidos falsos- y el ambiente de desconfianza generalizada en que parece estar la población, lo que hace que no solo se desconfíe de estos generadores de contenido, sino que eventualmente el manto de sospechas se disemine sobre todos.

En el debate sobre un nuevo marco regulatorio desde luego no solo está dotarse de nuevas herramientas legales que permitan desincentivar los contenidos falsos, sino también asegurar que los medios tradicionales no terminen sucumbiendo producto de estas tecnologías, que muchas veces utilizan los contenidos generados por los medios para alimentar sus propios chatbots sin ningún pago por la propiedad intelectual. La demanda que The New York Times interpuso recientemente en contra de OpenAI y Microsoft debería marcar precedentes al respecto, si bien es posible que en 2024 se intensifiquen las alianzas entre medios y desarrolladores de estas tecnologías, donde existan beneficios compartidos por el uso de los contenidos periodísticos. El caso de Australia, donde la regulación favoreció un acuerdo entre medios de comunicación, Google y Facebook, también abre caminos interesantes.

Es fundamental asimismo que desde ya se avance en mayores estándares de transparencia, donde cualquier contenido generado a través de IA se identifique como tal, lo cual sería un avance fundamental para ayudar a discriminar lo falso de lo cierto.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.