Columna de Isabel Cornejo y Roberto Cippitani: Los desafíos de la ley de IA de la Unión Europea



La Ley de Inteligencia Artificial de la Unión Europea fue aprobada por el Parlamento Europeo el pasado 14 de marzo y el texto deberá sucesivamente ser adoptado por el Consejo de los Ministros. La ley confirma el enfoque basado en el respeto a los derechos humanos que ha venido siguiendo la regulación de la UE sobre las tecnologías, tal como se observa en otros ámbitos, por ejemplo, en la reglamentación de los datos personales y no personales. Este enfoque difiere de otras formas de intervención reguladora basadas en el soft law de otros sistemas jurídicos, como en EE.UU. o China, y aún más en organizaciones internacionales como la OCDE o Unesco.

La opción legislativa permite proteger de manera vinculante la dignidad y los derechos humanos. Además, el enfoque legislativo crea una mayor seguridad jurídica determinando la confianza en el uso de la IA. Por eso, la ley reconoce que la IA contribuye a generar beneficios económicos, medioambientales y sociales y que puede “generar riesgos y menoscabar los intereses públicos y los derechos fundamentales”.

Algunos de estos riesgos se consideran no aceptables y, por eso, el artículo 5 prohíbe las relativas a ciertas aplicaciones (por ejemplo: los sistemas de evaluación social y categorización de las personas; la policía predictiva; la manipulación del comportamiento). Por otro lado, se prevén obligaciones para los proveedores de sistemas “de alto riesgo”, en cuanto pueden afectar los derechos fundamentales, en materias como las infraestructuras críticas, la educación, el empleo, los servicios públicos, la salud, la seguridad, la justicia.

Además, la ley introduce un sistema de gobernanza a nivel europeo y nacional, con el establecimiento de autoridades de supervisión, con poderes incluso sancionatorios, y de un Comité europeo.

Sin embargo, adoptar una ley en el ámbito de la ciencia y tecnología de rápida evolución, puede no prever o abarcar los cambios tecnológicos o hasta limitar la innovación. Frente a ello, la ley de la IA intenta limitar estos efectos negativos con varias soluciones: la elaboración de documentos de implementación por parte del Comité europeo; el apoyo a la creación de sandboxes regulatorios; la previsión de códigos de conductas; la revisión periódica del listado de las prácticas prohibidas y de los sistemas de alto riesgo.

De todas maneras, un papel esencial lo tendrá la jurisprudencia, especialmente la del Tribunal de Justicia de la Unión Europea, que tiene la última palabra en términos de interpretación del derecho supranacional y que es importante sobre todo para buscar una coherencia en la complejidad normativa.

Al final de cuentas, la vía de la UE a la reglamentación de la IA será eficiente solo si considera el inicio de un proceso normativo, que comprende la producción de fuentes legislativas y de intervenciones no legislativas más rápidas de implementar.

Por Isabel Cornejo, investigadora IID, U. Autónoma de Chile, y Roberto Cippitani, codirector Cátedra ISAAC, U. Nacional de Educ. a Distancia, Madrid

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.