La Unión Europea da el primer paso para regular la inteligencia artificial ante rápido avance de plataformas como ChatGPT

El logotipo de ChatGPT y las palabras Inteligencia Artificial se ven en esta ilustración tomada el 4 de mayo de 2023. Foto: Reuters

Tras la abrumadora votación de este jueves en el Parlamento Europeo a favor de un proyecto de reglamento para garantizar el "desarrollo ético" de esta tecnología, la UE se propone ser el primer bloque a nivel mundial en adoptar un marco legal integral para limitar los excesos de la IA, pero al mismo tiempo garantizar la innovación.


Las autoridades en todo el mundo se apresuran a redactar normas para la inteligencia artificial. También en la Unión Europea, donde un borrador de legislación pasó por una votación crucial este jueves. Dos años después de que la Comisión Europea presentara su propuesta de reglamento para la IA, los diputados del Parlamento Europeo votaron por abrumadora mayoría a favor de un proyecto de reglamento para garantizar el “desarrollo ético” de esta tecnología en rápida evolución que ha suscitado preocupación por la desinformación, la privacidad, la vigilancia, la discriminación, el plagio, la suplantación de identidad e incluso el futuro de la democracia.

El texto aprobado este jueves con una amplia mayoría -84 votos a favor, 7 en contra y 12 abstenciones- en una sesión conjunta de las comisiones de Libertades Civiles y Mercado Interior, añadió nuevas disposiciones al texto original propuesto por la Comisión Europea presentado en abril de 2021, sobre todo nuevas obligaciones sobre los llamados modelos generativos de base, como ChatGPT, el chatbot desarrollado por OpenAI que ha revolucionado la industria tecnológica desde su lanzamiento a finales de noviembre.

Pero podrían pasar años hasta que las normas entren en vigencia. Los legisladores de la UE votarán el borrador en una sesión plenaria a mediados de junio. El texto pasará después a negociaciones a tres bandas con los 27 Estados miembros, el Parlamento y la Comisión Europea, en las que experimentar más cambios en el tira y afloja entre las diferentes partes. La autorización final se espera para fines de año o principios de 2024 como tarde, lo que se vería seguido por un período de gracia para que compañías y organizaciones se adapten a la norma, que suele tomar unos dos años.

Un teléfono inteligente con el logotipo de ChatGPT sobre la placa madre de un computador. Foto: Reuters

El comisario detrás de la propuesta legislativa, Thierry Breton, manifestó su esperanza de que la denominada AI Act (Ley de Inteligencia artificial) pueda entrar en vigor en los 27 Estados miembros a más tardar en 2025.

Con esta iniciativa, la UE se propone ser el primer bloque a nivel mundial en adoptar un marco legal integral para limitar los excesos de la IA, pero al mismo tiempo garantizar la innovación. “Estamos a punto de lograr un hito legislativo en el panorama digital no solo en Europa, sino para todo el mundo”, celebró el eurodiputado italiano Brando Benifei sobre el texto legislativo, que en el año escaso que lleva siendo trabajado en la Eurocámara ha recibido más de 3.000 enmiendas. El parlamentario socialdemócrata y uno de los relatores de la propuesta legislativa agregó que “Europa quiere un enfoque ético, basado en el ser humano”.

La IA va a ser algo que “va a estar acechándonos de alguna manera durante el resto de nuestras vidas”, constató por su parte el presidente de la Comisión de Libertades Civiles, el español Juan Fernando López Aguilar.

Con la nueva normativa europea, los eurodiputados quieren garantizar que los sistemas de IA “estén supervisados por personas, sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente”, explica un comunicado de prensa. Los europarlamentarios “también quieren tener una definición uniforme de IA diseñada para ser tecnológicamente neutra, de modo que pueda aplicarse a los sistemas de IA de hoy y de mañana”.

El proyecto regirá cualquier producto o servicio que emplee un sistema de inteligencia artificial. La ley clasificará los sistemas en cuatro niveles de riesgo, de mínimo a inaceptable. Las solicitudes que se consideren de más riesgo tendrán requisitos más estrictos, como presentar datos más transparentes y precisos. Funcionaría como un “sistema de gestión de riesgo para IA”, dijo Johann Laux, experto del Oxford Internet Institute.

Los sistemas de IA en categorías de alto riesgo, como empleo y educación, que afectan a la trayectoria vital de una persona, tendrán duros requisitos como ser transparentes con los usuarios y establecer evaluaciones de riesgo y medidas de compensación. Se categorizan como de “alto riesgo” los sistemas de IA que puedan “influir a votantes en campañas políticas”, así como los de recomendación que usan las plataformas sociales. El Ejecutivo de la UE dice que la mayoría de los sistemas de IA, como videojuegos o filtros de spam, caen en las categorías de bajo o ningún riesgo.

Según The Associated Press, uno de los principales objetivos es vigilar contra cualquier amenaza de las IA para la salud y la seguridad y proteger los derechos y valores fundamentales. Eso implica que algunos usos quedan absolutamente vedados para las IA, como los sistemas de “puntuación social” que juzgan a la gente en función de su comportamiento o sistemas que pretenden manipular, como juguetes interactivos parlantes que fomentan un comportamiento peligroso.

La bandera europea en la sede del Parlamento Europeo en Estrasburgo, Francia, el 18 de abril de 2023. Foto: AP

Para evitar escenas como las de la película Minority Report, los negociadores reforzaron la propuesta al votar la prohibición de herramientas policiales predictivas, que revisan datos para predecir dónde se cometerán crímenes y quién los cometerá. Los eurodiputados también incluyen en la lista de prohibiciones los sistemas de categorización biométrica que usen “características sensibles” como el género, raza, etnia, religión u orientación política, salvo para su uso “terapéutico”.

Con el fin de evitar un Gran Hermano estatal en el futuro, también apoyaron una prohibición generalizada del reconocimiento facial remoto salvo por algunas pequeñas excepciones de seguridad, como prevenir una amenaza terrorista específica. Esa tecnología escanea a las personas que pasan por un lugar y utiliza inteligencia artificial para buscar sus rostros en una base de datos.

“Las cámaras de reconocimiento facial de las calles o el análisis en vivo del metraje de las videocámaras de vigilancia se deberán parar”, dijo Ella Jakubowska, analista de la ONG europea en defensa de los derechos digitales EDRi, en declaraciones al diario El País. Tampoco estará permitido hacer búsquedas de personas a partir de imágenes, cerrándole las puertas a aplicaciones del tipo Clearview. “Esa es una muy buena noticia”, opinó la experta británica.

¿Qué hay de ChatGPT?

La propuesta original de 108 páginas, asegura The Associated Press, apenas mencionaba los chatbots, y tan sólo requería que estuvieran identificados para que los usuarios supieran que estaban interactuando con una máquina. Los negociadores añadieron después cláusulas para cubrir sistemas de inteligencia artificial con fines generales como ChatGPT, que los somete a algunos de los mismos requisitos que los sistemas de alto riesgo.

Un elemento clave que se ha añadido es el requisito de documentar de forma meticulosa cualquier contenido protegido por derechos de autor empleado para enseñar a las IA a generar textos, imágenes, videos o música que parezcan una creación humana. Eso permitiría a los creadores de contenido saber si sus publicaciones en blogs, libros digitales, artículos científicos o canciones pop se han utilizado para entrenar a los algoritmos con los que funcionan sistemas como ChatGPT. Entonces podrían decidir si su obra ha sido copiada y pedir indemnizaciones.

El logotipo de OpenAI se muestra cerca de una respuesta de su chatbot de IA ChatGPT en su sitio web. Foto: Reuters

El objetivo es “evitar una sociedad controlada basada en la IA”, explicó Benifei, uno de los líderes en los esfuerzos de la Eurocámara para legislar este campo. “Creemos que estas tecnologías podrían utilizarse para el mal además de para el bien, y consideramos que los riesgos son demasiado altos”.

Pero no es sólo una cuestión de prohibiciones. Al establecer normas comunes para la inteligencia artificial, Bruselas también intenta desarrollar el sistema al dar confianza a los usuarios, dijo Laux. “La idea es que, si puedes convencer a la gente para que confíe en la inteligencia artificial y las aplicaciones, también las utilizará más”, aseguró el experto del Oxford Internet Institute. “Y cuando la utilicen más, desbloquearán el potencial económico y social de la IA”.

¿Y si se incumplen las normas? Según el texto modificado, las empresas que incumplan las normas podrían enfrentarse a multas de hasta 40 millones de euros o el 7% de su facturación anual mundial, la cantidad que resulte más elevada, que en el caso de firmas tecnológicas como Google o Microsoft podrían ascender a miles de millones.

La CCIA, un grupo de presión de defensa de las grandes compañías digitales, reaccionó afirmando que, si bien “el Parlamento introdujo algunas mejoras en el texto”, por otro lado, estaba “abandonando el enfoque basado en el riesgo” de la propuesta de la Comisión Europea.

“La mejor forma de que la UE inspire a otras jurisdicciones es garantizar que la nueva normativa habilite, y no inhiba, el desarrollo de aplicaciones útiles de IA”, dijo Boniface de Champris, director de políticas para Europa de la CCIA.

Los pasos de EE.UU. y China

A comienzos de abril, el diario The Wall Street Journal informó que la administración del Presidente estadounidense Joe Biden había comenzado a examinar si era necesario verificar las herramientas de inteligencia artificial como ChatGPT, en medio de la creciente preocupación de que la tecnología podría usarse para discriminar o difundir información dañina.

Así, en un primer paso hacia una posible regulación, el Departamento de Comercio emitió una solicitud pública formal de comentarios sobre lo que llamó medidas de responsabilidad, incluido si los nuevos modelos de IA potencialmente riesgosos deberían pasar por un proceso de certificación antes de su lanzamiento.

En tanto, el principal regulador de internet de China propuso controles estrictos que, de adoptarse, obligarían a las empresas chinas de inteligencia artificial a garantizar que sus servicios no generen contenido que pueda alterar el orden social o subvertir el poder estatal.

Un hombre con una mascarilla pasa frente a una valla publicitaria que anuncia la empresa de tecnología china Huawei en la PT Expo en Beijing, el 14 de octubre de 2020. Foto: AP

Esta semana la policía china dijo que recientemente detuvo a un usuario de ChatGPT en la provincia de Gansu por supuestamente usar el chatbot impulsado por IA para crear una noticia falsa sobre un accidente de tren inexistente. Se trata de una de las primeras aplicaciones de la nueva ley china de deepfake que entró en vigor el 10 de enero. Prohíbe varias categorías de medios falsos producidos por “tecnologías de síntesis profunda”, como el aprendizaje automático y la realidad virtual, pero solo ofrece definiciones vagas para muchas de estas clases prohibidas, consignó The Associated Press.

En marzo, algunas figuras destacadas de la industria tecnológica, incluido Elon Musk, firmaron una carta en la que pedían a los laboratorios de inteligencia artificial que detuvieran el entrenamiento de los sistemas de IA más potentes durante al menos seis meses, citando “profundos riesgos para la sociedad y la humanidad”. La misiva llegó apenas dos semanas después de que OpenAI anunciara GPT-4, una versión aún más potente de la tecnología que impulsa ChatGPT.

Geoffrey Hinton, considerado el “padrino de la inteligencia artificial”, confirmó a comienzos de mayo que dejó su puesto en Google para alertar sobre los “peligros” de la tecnología que él mismo ayudó a desarrollar. “Me fui para poder hablar sobre los peligros de la IA sin tener en cuenta cómo esto afecta a Google”, dijo Hinton en un tuit.

En una entrevista con The New York Times, Hinton se sumó a las preocupaciones sobre el potencial de la inteligencia artificial para eliminar puestos de trabajo y crear un mundo en el que muchos “ya no serán capaces de saber qué es verdad”. También señaló el asombroso ritmo de avance, mucho más allá de lo que él y otros habían previsto.

“La idea de que estas cosas pudieran llegar a ser más inteligentes que las personas, unos pocos lo creían”, comentó Hinton al periódico. “Pero la mayoría pensaba que no era así. Y yo también. Pensaba que faltaban de 30 a 50 años o incluso más. Obviamente, ya no pienso eso”.

Hinton, en un discurso de apertura de 2021 en el Instituto Indio de Tecnología de Bombay, ya había manifestado sus temores frente a la inteligencia artificial. En esa oportunidad, según CNN, señaló que la IA impulsaría la atención sanitaria, pero también crearía oportunidades para las armas autónomas letales. “Esta perspectiva me parece mucho más inmediata y mucho más aterradora que la de que los robots tomen el control, que creo que está muy lejos”, vaticinó.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.