Parlamento Europeo aprueba el primer conjunto de reglas integrales del mundo para la inteligencia artificial

Legisladores votan sobre la Ley de Inteligencia Artificial, el 14 de junio de 2023, en el Parlamento Europeo en Estrasburgo, este de Francia. Foto: AP

El siguiente paso son las negociaciones a tres bandas que involucran a los países miembros, el Parlamento y la Comisión Europea, posiblemente enfrentando más cambios a medida que intentan ponerse de acuerdo sobre la redacción.


Los legisladores en Europa aprobaron el miércoles el primer conjunto de reglas integrales del mundo para la inteligencia artificial, superando un obstáculo clave a medida que las autoridades de todo el mundo se apresuran a controlar la IA.

La votación del Parlamento Europeo es uno de los últimos pasos antes de que las reglas se conviertan en ley, lo que podría servir de modelo para otros lugares que trabajen en regulaciones similares.

El esfuerzo de un año por parte de Bruselas para elaborar barreras de seguridad para la IA se ha vuelto más urgente a medida que los rápidos avances en chatbots como ChatGPT muestran los beneficios que puede traer la tecnología emergente y los nuevos peligros que plantea.

Aquí hay un vistazo a la Ley de Inteligencia Artificial de la UE:

¿Cómo funcionan las reglas?

La medida, propuesta por primera vez en 2021, regirá cualquier producto o servicio que utilice un sistema de inteligencia artificial. La ley clasificará los sistemas de IA según cuatro niveles de riesgo, desde mínimo hasta inaceptable.

Las aplicaciones más riesgosas, como la contratación o la tecnología dirigida a los niños, enfrentarán requisitos más estrictos, que incluyen ser más transparentes y utilizar datos precisos.

La aplicación ChatGPT se ve en un iPhone en Nueva York, el 18 de mayo de 2023. Foto: AP

Dependerá de los 27 Estados miembros de la UE hacer cumplir las reglas. Los reguladores podrían obligar a las empresas a retirar sus aplicaciones del mercado.

En casos extremos, las infracciones podrían generar multas de hasta 40 millones de euros (43 millones de dólares) o el 7 % de los ingresos globales anuales de una empresa, que en el caso de empresas tecnológicas como Google y Microsoft podrían ascender a miles de millones.

¿Cuáles son los riesgos?

Uno de los principales objetivos de la UE es protegerse contra cualquier amenaza de IA para la salud y la seguridad y proteger los derechos y valores fundamentales.

Eso significa que algunos usos de la IA están absolutamente prohibidos, como los sistemas de “puntuación social” que juzgan a las personas en función de su comportamiento.

También está prohibida la IA que explota a las personas vulnerables, incluidos los niños, o utiliza la manipulación subliminal que puede resultar en daño, por ejemplo, un juguete parlante interactivo que fomenta un comportamiento peligroso.

Las herramientas policiales predictivas, que procesan datos para pronosticar quién cometerá delitos, también están fuera.

Los legisladores reforzaron la propuesta original de la Comisión Europea, el poder ejecutivo de la UE, al ampliar la prohibición del reconocimiento facial remoto en tiempo real y la identificación biométrica en público. La tecnología escanea a los transeúntes y usa IA para hacer coincidir sus rostros u otros rasgos físicos con una base de datos.

No se aprobó una enmienda polémica para permitir excepciones de aplicación de la ley, como encontrar niños desaparecidos o prevenir amenazas terroristas.

Los sistemas de IA utilizados en categorías como el empleo y la educación, que afectarían el curso de la vida de una persona, enfrentan requisitos estrictos, como ser transparentes con los usuarios y tomar medidas para evaluar y reducir los riesgos de sesgo de los algoritmos.

La mayoría de los sistemas de inteligencia artificial, como los videojuegos o los filtros de spam, entran en la categoría de riesgo bajo o nulo, dice la comisión.

¿Qué pasa con ChatGPT?

La medida original apenas mencionaba los chatbots, principalmente al requerir que se etiquetaran para que los usuarios sepan que están interactuando con una máquina. Posteriormente, los negociadores agregaron disposiciones para cubrir la IA de propósito general como ChatGPT después de que explotó en popularidad, sometiendo esa tecnología a algunos de los mismos requisitos que los sistemas de alto riesgo.

El logotipo de ChatGPT y las palabras IA Inteligencia Artificial se ven en esta ilustración tomada el 4 de mayo de 2023. Foto: Reuters

Una adición clave es el requisito de documentar minuciosamente cualquier material con derechos de autor utilizado para enseñar a los sistemas de IA cómo generar texto, imágenes, video y música que se parezcan al trabajo humano.

Eso permitiría a los creadores de contenido saber si sus publicaciones de blog, libros digitales, artículos científicos o canciones se han utilizado para entrenar algoritmos que alimentan sistemas como ChatGPT. Entonces podrían decidir si su trabajo ha sido copiado y buscar reparación.

¿Por qué son tan importantes las normas de la UE?

La Unión Europea no es un gran jugador en el desarrollo de IA de vanguardia. Ese papel lo asumen Estados Unidos y China. Pero Bruselas a menudo juega un papel de establecimiento de tendencias con regulaciones que tienden a convertirse en estándares globales de facto y se ha convertido en pionera en los esfuerzos para apuntar al poder de las grandes empresas tecnológicas.

El tamaño del mercado único de la UE, con 450 millones de consumidores, hace que sea más fácil para las empresas cumplir que desarrollar diferentes productos para diferentes regiones, dicen los expertos.

Pero no se trata solo de una represión. Al establecer reglas comunes para la IA, Bruselas también está tratando de desarrollar el mercado infundiendo confianza entre los usuarios.

“El hecho de que esta sea una regulación que se pueda hacer cumplir y que las empresas sean responsables es significativo”, porque otros lugares como Estados Unidos, Singapur y Gran Bretaña simplemente han ofrecido “orientación y recomendaciones”, dijo Kris Shrishak, tecnólogo y miembro principal de la Consejo Irlandés para las Libertades Civiles.

“Otros países podrían querer adaptar y copiar” las reglas de la UE, dijo.

Las empresas y los grupos industriales advierten que Europa debe encontrar el equilibrio adecuado.

Sam Altman, director ejecutivo de OpenAI respaldado por Microsoft y creador de ChatGPT, habla durante una charla en la Universidad de Tel Aviv, Israel, el 5 de junio de 2023. Foto: Reuters

“La UE se convertirá en líder en la regulación de la inteligencia artificial, pero aún está por verse si liderará la innovación de la IA”, dijo Boniface de Champris, gerente de políticas de la Asociación de la Industria de la Computación y las Comunicaciones, un grupo de lobby para las compañías tecnológicas.

“Las nuevas reglas de IA de Europa deben abordar de manera efectiva los riesgos claramente definidos, al tiempo que dejan suficiente flexibilidad para que los desarrolladores entreguen aplicaciones de IA útiles en beneficio de todos los europeos”, dijo.

Sam Altman, director ejecutivo del fabricante de ChatGPT, OpenAI, expresó su apoyo a algunas medidas de seguridad en la IA y se unió a otros ejecutivos de tecnología para advertir sobre los riesgos que representa para la humanidad. Pero también ha dicho que es “un error poner una regulación estricta en el campo en este momento”.

Otros están tratando de ponerse al día con las reglas de la IA. Gran Bretaña, que abandonó la UE en 2020, compite por un puesto en el liderazgo de la IA. El primer ministro Rishi Sunak planea organizar una cumbre mundial sobre seguridad de IA este otoño.

“Quiero hacer de Reino Unido no solo el hogar intelectual, sino también el hogar geográfico de la regulación global de seguridad de la IA”, dijo Sunak en una conferencia tecnológica esta semana.

¿Qué sigue?

Podrían pasar años antes de que las reglas entren en vigencia por completo. El siguiente paso son las negociaciones a tres bandas que involucran a los países miembros, el Parlamento y la Comisión Europea, posiblemente enfrentando más cambios a medida que intentan ponerse de acuerdo sobre la redacción.

Se espera la aprobación final para fines de este año, seguida de un período de gracia para que las empresas y organizaciones se adapten, a menudo alrededor de dos años.

Brando Benifei, un miembro italiano del Parlamento Europeo que codirige su trabajo sobre la Ley de IA, dijo que impulsarían una adopción más rápida de las reglas para tecnologías de rápida evolución como la IA generativa.

Para llenar el vacío antes de que la legislación entre en vigor, Europa y EE.UU. están redactando un código de conducta voluntario que los funcionarios prometieron a fines de mayo que se redactaría en unas semanas y podría ampliarse a otros “países de ideas afines”.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.