Qué desafíos plantean los acelerados avances de la IA en la política y gobernanza internacional
En conversación con La Tercera, el catedrático de Políticas Públicas, Gobernanza y Tecnología Innovadora en la Universidad Técnica de Múnich, el Dr. Urs Gasser, descifra las claves para entender el escenario actual y el rol de actores internacionales como Estados Unidos, Europa y China.
La inteligencia artificial (IA) y los acelerados avances que se desarrollan en esta área de la tecnología han planteado nuevas preguntas sobre los potenciales beneficios y las preocupaciones que se deben tener en el ámbito de la política y la gobernanza a nivel internacional.
Dentro de este escenario, la regulación es uno de los puntos que genera más debate entre los especialistas y los líderes mundiales.
Mientras los partidarios de imponer menos regulaciones sugieren que esto puede contribuir a impulsar la innovación, el desarrollo y la implementación de mejoras en la vida de las personas, quienes abogan por una postura más precavida sostienen que se deben evaluar detenidamente los posibles riesgos antes de introducir nuevos sistemas a gran escala.
Algunos expertos tecnológicos incluso han comparado el impacto de la IA en la sociedad con el que tuvo la creación del Internet y los aparatos que la mayoría de las personas utilizan durante su rutina para comunicarse y cumplir con sus labores, tanto profesionales como personales.
El cofundador de Microsoft, Bill Gates, escribió en marzo de 2023 en su blog personal, Gates Notes, que “el desarrollo de la IA es tan fundamental como la creación del microprocesador, la computadora personal, Internet y el teléfono móvil”.
“Cambiará la forma en que las personas trabajan, aprenden, viajan, reciben atención médica y se comunican. Industrias enteras se reorientarán en torno a ella. Las empresas se distinguirán por su buen uso”, agregó el magnate, quien actualmente se dedica a la filantropía.
El catedrático de Políticas Públicas, Gobernanza y Tecnología Innovadora en la Universidad Técnica de Múnich (TUM), el Dr. Urs Gasser, es uno de los investigadores que se ha centrado en estudiar las implicancias sociales y regulatorias de las nuevas tecnologías, lo que incluye tanto la IA como la computación en la nube y la tecnología cuántica.
Gasser, quien también es rector de la Hochschule für Politik (HfP) y decano de la Facultad de Ciencias Sociales y Tecnología de la TUM, además es miembro del Grupo de Trabajo sobre Gobernanza y Regulación Resilientes del Foro Económico Mundial (FEM) y del Grupo de Expertos de Alto Nivel (HLEG) de la UNESCO sobre la implementación de la recomendación sobre IA, entre otros comités.
En el marco de su participación en el primer congreso internacional sobre Estandarización en Tecnología del Programa de Derecho, Ciencia y Tecnología UC, el investigador conversó con La Tercera en profundidad sobre cuáles son los desafíos que plantean los acelerados avances de la IA en la gobernanza internacional.
Durante años hemos hablado sobre los bots y cómo se han utilizado para la desinformación con fines políticos. Hoy además hablamos de fenómenos como el uso de deepfakes. ¿Cómo los diferentes gobiernos y facciones están enfrentando estos desafíos y cómo se puede avanzar en la IA mientras se evalúan los potenciales riesgos?
—Esa es una pregunta realmente enriquecedora. Desafortunadamente, no hay una respuesta corta, así que aquí hay un par de consideraciones.
Primero que todo, es cierto que en los últimos años hemos visto un progreso tremendo en los avances de la IA como tecnología. Y, por supuesto, ChatGPT fue como la era del iPhone, donde el poder de la IA se volvió más tangible para los usuarios cotidianos.
Ahora bien, incluso antes de aquello, los gobiernos han comenzado a pensar en maneras de conducir la dirección principal del desarrollo de esta tecnología. Los reguladores en Estados Unidos, Europa, China y otros lugares comprendieron desde muy temprano que la IA es prometedora para la sociedad.
Por ejemplo, puede usarse para mejorar la atención médica, hacer que los sistemas de transporte sean más eficientes y personalizar las experiencias de aprendizaje.
Hay una extensa lista de beneficios, pero también hay una larga lista de riesgos, desde invasiones a la privacidad hasta riesgos de seguridad, incluso para la democracia. Como mencionas, ahí están la desinformación, los videos falsos y los deepfakes.
Esto conlleva a potenciales desafíos. Los gobiernos se dan cuenta de que existe un mundo en el que la tecnología en sí misma puede utilizarse para cosas maravillosas, pero también para otras terribles. Entonces, la pregunta es: ¿qué debe hacer un gobierno?
Cada gobierno aborda el tema de forma diferente. En esencia, los gobiernos deben decidir cuál es el momento adecuado para intervenir y comenzar a regular la IA.
Este es un problema que se presenta con cada nueva tecnología que surge. Ya sea Internet, la computación en la nube o, si miramos al futuro, la tecnología cuántica o la neurotecnología.
Los reguladores deben preguntarse cuál es el momento adecuado para intervenir, lo que se conoce como el dilema de Collingridge, que plantea dos asuntos.
Uno es que, como regulador, se puede empezar a regular pronto, cuando las tecnologías aún están en desarrollo. La ventaja acá es que se tiene más control al tener menos participantes, ya que la tecnología aún no está disponible y todavía está en el laboratorio. Así se puede controlar más estrictamente hacia dónde se dirige.
La desventaja es que quizás aún no comprendas del todo qué hará la tecnología una vez que la sociedad la adopte e interactúe con las personas e instituciones.
Por lo tanto, no tienes necesariamente una idea clara de cómo se concretarán algunas de estas esperanzas y estos riesgos. Y con eso, si decides intervenir pronto, podrías tener más control, pero podrías abordar el problema equivocado. O, de hecho, podrías intervenir de una manera que frene la innovación.
En el otro extremo del espectro está el decir: “Bueno, primero innovemos y no regulemos, y veamos qué sucede con la tecnología una vez que salga de los laboratorios”.
En esencia, así puedes aprender más sobre cuáles son los riesgos y beneficios reales. Y luego, como gobierno o sociedad, empiezas a corregir el rumbo.
El problema con eso es que puedes tener una mejor comprensión de hacia dónde ir, pero la tecnología puede ya estar generalizada y ampliamente adoptada. Y no puedes volver a “meter al genio en la botella”. Es decir, puedes tener una mejor comprensión, pero menos control. Y ese es el dilema.
¿Qué diferencias vemos entre las principales potencias mundiales en cuanto a sus tendencias a la regulación?
—Este es el primer punto que quiero plantear. Se observa una actitud cultural y una tradición legal diferentes en las distintas regiones a la hora de intervenir.
Los europeos prefieren intervenir con prontitud, incluso si no sabemos exactamente qué facilitará y cambiará la tecnología en la sociedad.
La idea es que Europa tiene esta noción de precaución, es decir, se inclina más bien por la prevención. Existe el riesgo de sofocar la innovación, pero no amenazamos los derechos humanos, ni la democracia ni los valores democráticos, y preservamos el Estado de derecho.
Otros países, como Estados Unidos en particular, tienen una visión muy diferente. No solo con la IA, esto es un patrón: dejan que florezca primero, para ver la innovación. Tienden a considerar que la innovación debe ocurrir primero a nivel técnico.
Por razones culturales, pero también económicas y geopolíticas, en Estados Unidos hay un énfasis mucho mayor en la innovación y, en ocasiones, más restricciones a la hora de implementar una regulación específica.
Esto a veces se resume con el lema: Estados Unidos innova y Europa regula cuando se trata de nuevas tecnologías.
Por supuesto, también hay países como China, con razones muy diferentes para regular y cómo hacerlo.
El resto del mundo está intentando determinar qué modelo seguir.
El presidente Donald Trump y muchos de sus partidarios han manifestado durante años su rechazo contra lo que han descrito como la “burocracia gubernamental” y contra ciertos consensos internacionales. ¿Cómo Estados Unidos podría controlar la balanza entre innovación y prevenir potenciales riesgos en el escenario actual?
—La situación en Estados Unidos es muy complicada actualmente. La administración anterior, la del ahora expresidente Joe Biden, intentó encontrar un punto medio, un equilibrio, como usted sugiere, creando principalmente instrumentos de derecho indicativo.
Había una carta de derechos para la IA que estableció una hoja de ruta para la sociedad, tanto para las empresas como para los gobiernos, en lo que respecta al desarrollo de la IA, pero también a su uso.
Era una documento sobre cómo considerar las implicancias de estas tecnologías en materia de derechos civiles y humanos, pero también en aspectos como el futuro del trabajo, la democracia, la resiliencia y similares.
La administración Biden persiguió encontrar un equilibrio entre un enfoque de laissez-faire hacia la innovación y una especie de sobrerregulación.
El segundo elemento fue crear un marco que guiara a las agencias gubernamentales sobre cómo usar la IA y cómo implementarla para su propia misión y dentro de las áreas de su responsabilidad.
Por ejemplo, la Administración de Alimentos y Medicamentos (FDA) o el Departamento de Transporte, etc. En cada una de estas áreas, la IA desempeña un papel importante. La tarea consistía en analizar sector por sector y agencia por agencia, y determinar cuál es el uso responsable de la IA.
Esta fue la doble estrategia de Biden para encontrar un punto medio.
Ahora llegó la administración Trump y el mundo ha cambiado desde entonces. Y creo que, en vista de las fuertes tensiones geopolíticas que observamos actualmente, en particular entre Estados Unidos y China y esta rivalidad, se observa una reconsideración de este enfoque de contención, incluso si ya era un enfoque bastante intermedio en comparación con la respuesta europea, que incluye la Ley de IA.
Recientemente, Trump básicamente dijo que “tenemos que repensar todo el asunto”, con lo que sugirió realmente que se tienen que redoblar los esfuerzos en innovación en Estados Unidos.
Planteó que se deben eliminar algunas de las cargas “burocráticas” y regulatorias para las empresas que trabajan en IA, para que así puedan innovar a toda velocidad y Estados Unidos pueda asegurar su ventaja en esta área frente a sus competidores globales.
Su estrategia, aunque no lo dice textualmente, se traduce en que, en lugar de intentar regular la tecnología, se debe establecer un estándar exportando la infraestructura tecnológica a las aplicaciones y extendiéndola al mundo. Bajo el argumento de que, en cierto modo, esto es más fuerte que cualquier regulación.
La idea es que si se desarrollan las herramientas y la mayor parte del mundo adopta estos productos, software, modelos, marcos de gobernanza, enfoques de ciberseguridad, etc, entonces se tendrá de facto un rol de liderazgo global no solo en tecnología, sino que también en las reglas por las que opera esta tecnología.
En medio de la carrera por la IA, especialmente entre potencias como Estados Unidos, Europa y China, el factor económico es uno de los más fuertes en las conversaciones, aunque también hay elementos que son políticos o incluso filosóficos. ¿Cómo este punto intercede en las intenciones de regular?
—Lo que planteas es un punto muy importante. Como hablamos al inicio de la conversación, se puede argumentar que existen tradiciones y actitudes hacia la tecnología que configuran el enfoque regulatorio, como abordamos en los ejemplos de Europa y Estados Unidos.
Con la IA está ocurriendo un fenómeno realmente interesante: la carrera tecnológica, como acabas de describir, se ha convertido en una competencia entre diferentes enfoques regulatorios.
Es cierto que Europa, que adoptó el enfoque de regular proactivamente la IA en diversas áreas de aplicación con la Ley de IA, ahora está empezando a reconsiderarlo.
Esto se debe a un desacuerdo político interno con algunos Estados miembros, que están más preocupados que otros. Además, la Comisión Europea también ha sugerido que quizás la Unión Europea se ha excedido con ciertos tipos de regulación, incluido el régimen de protección de datos, y que es necesario recalibrar algunas de estas leyes para que Europa sea más competitiva.
El año pasado, el ex primer ministro de Italia, Mario Draghi, publicó un reporte importante: el Informe Draghi. Este informe, encargado por la Comisión Europea, analizaba la competitividad de Europa.
Una de las conclusiones fue que Europa tiene un problema y necesita invertir masivamente, entre otras áreas, en el desarrollo científico y tecnológico. En segundo lugar, que necesita desregular y reducir la carga regulatoria, especialmente para los emprendedores y las pequeñas y medianas empresas, precisamente en relación con la competencia global que considera a China y Estados Unidos como los grandes bloques.
Como decías, ahora se observa que las realidades económicas y las dimensiones geopolíticas adquieren mayor prioridad, comienzan a llevar a una reconsideración de algunas de estas decisiones regulatorias anteriores.
Por lo tanto, se puede argumentar que, en cierto modo, la realidad prevalece sobre los principios morales y éticos.
Sin embargo, no se trata de que Europa vaya a desechar la Ley de IA ni a eliminar la ley del Reglamento General de Protección de Datos (GDPR), por supuesto que no. Pero está empezando a ajustarse y reajustarse. Y creo que esa es la forma en que Europa aborda el dilema de que, por un lado, necesita ser más competitiva.
Europa también quiere asegurar su propia soberanía, lo cual también es un gran debate, como por ejemplo, qué tan dependiente es de las cadenas de suministro de China o de la tecnología de Estados Unidos. Y cómo puede, en este nuevo clima, redoblar sus esfuerzos para crear una mayor resiliencia.
Y no solo lo vemos en IA, sino también defensa, que obviamente es un gran debate en este momento, en el que Europa tiene que reforzar su propia capacidad.
También lo vemos en campos como el de la salud y la medicina. Por ejemplo, Europa depende en gran medida de la fabricación de medicamentos de China. Y esto se convierte en un desafío si las relaciones ya no son tan estables como antes.
Por lo tanto, es una situación realmente complicada en este momento.
Actualmente, la IA generativa es utilizada por numerosos usuarios de todo el mundo para crear videos, fotos, textos y más. A nivel general, ¿crees que se está educando adecuadamente a la población sobre los beneficios y riesgos que trae consigo esta tecnología, o es más bien una conversación que se ha quedado limitada a los círculos de especialistas y académicos?
—Lamentablemente coincido con esa evaluación. Estamos en gran medida a ciegas y no sabemos qué estamos haciendo ni hacia dónde nos dirigimos a medida que adoptamos la IA a gran escala. Diría que esto es cierto para los usuarios comunes que quizás no tienen los niveles necesarios de conocimiento.
Existe el concepto de alfabetización en IA. El sistema educativo empieza a ponerse al día e intenta incorporarla en los programas escolares, etc. Sin embargo, esto lleva tiempo, así que nos estamos quedando atrás en la actualización del sistema educativo.
Por otro lado, esto solo aplica a quienes tienen el beneficio de la educación formal. Y, por supuesto, hay una gran parte del mundo en donde el acceso a la educación es un desafío y no deberíamos darlo por sentado.
No obstante, iría un paso más allá. Creo que incluso entre los expertos desconocemos realmente cómo funcionan ciertas aplicaciones de IA. Por lo tanto, el debate se centra en las cajas negras, y resulta muy difícil, por ejemplo, explicar cómo funcionan realmente los sistemas complejos de IA, en particular los basados en aprendizaje automático y aprendizaje profundo.
Y, en general, creo que lo que está ocurriendo a medida que la tecnología sigue evolucionando es el auge de la IA agéntica, donde las IA no solo ofrecen una respuesta, sino que comienzan a actuar, realizar tareas y tomar decisiones.
¿Qué significa esto para el futuro? ¿Cómo las máquinas y los humanos pueden interactuar de forma significativa y cuál de los enfoques que hemos esbozado en términos de regulación de la gobernanza conducirá realmente a un futuro mejor?
Simplemente no lo sabemos. Y eso es realmente fascinante. Es un momento interesante para que las sociedades, incluyendo expertos, políticos, periodistas y, en última instancia, ciudadanos y empresas, intentemos comprenderlo.
Es fascinante, pero también muy arriesgado, porque muchas cosas pueden salir mal rápidamente. Es una apuesta arriesgada, y más vale que aprendamos rápido.
A continuación encontrarás las grabaciones de los dos días del primer congreso internacional sobre Estandarización en Tecnología del Programa de Derecho, Ciencia y Tecnología UC, las cuales incluyen las presentaciones del Dr. Urs Gasser.
Lo último
Lo más leído
1.
3.
Promoción 75 aniversario: suscríbete hasta el 2 de octubre y participa del sorteo por 2 pasajes a B.Aires ✈️
Plan digital + LT Beneficios$1.300/mes SUSCRÍBETE