Videovigilancia algorítmica en los JJ.OO. de París: ¿por qué es preocupante?

Oficiales de policía patrullan en la plaza Trocadero cerca de la Torre Eiffel como parte del plan de seguridad Vigipirate, en París, Francia, el 25 de marzo de 2024. Foto: Reuters

A cuatro meses del lanzamiento de los Juegos Olímpicos y Paralímpicos de París, la atención se centra en la videovigilancia "aumentada", cuyo uso fue autorizado por Francia. Una tecnología que intriga tanto como preocupa.


Un evento excepcional requiere un sistema extraordinario. Para garantizar la seguridad de los Juegos de París 2024 y los 15 millones de visitantes previstos, el Estado tiene la intención de hacer todo lo posible. Cada día se desplegarán unos 35.000 policías y gendarmes, incluidos los de las unidades de élite del GIGN, el Raid y la BRI, 20.000 soldados y otros tantos guardias de seguridad privada... Pero también cámaras de vigilancia dopadas con inteligencia artificial para apoyarlos. ¿Cuántos? Misterio. Cuando se le preguntó recientemente sobre el tema, el ministro del Interior, Gérald Darmanin, dijo que era “demasiado pronto” para dar una cifra.

Dos pruebas se llevaron a cabo los días 3 y 5 de marzo, durante los conciertos de la banda británica Depeche Mode en el Accor Arena de París. Todavía no se trataba de probar la videovigilancia algorítmica per se, sino sólo de “probar y configurar soluciones de software” en tiempo real, dijo el Ministerio del Interior. “Todos los semáforos están en verde”, dijo el prefecto de la policía de París, Laurent Nuñez, al final de la primera prueba. Por otro lado, esto no es suficiente para tranquilizar a las asociaciones de libertades civiles que consideran que, al autorizar la experimentación de esta tecnología, el Estado francés está abriendo la caja de Pandora de la vigilancia masiva.

¿De qué estamos hablando?

La videovigilancia algorítmica (VSA) consiste en acoplar cámaras de vigilancia con un software cuyos algoritmos se supone que son capaces de detectar automáticamente eventos predefinidos en tiempo real en medio de un flujo continuo de imágenes. Esto es para facilitar el trabajo de los agentes que operan en las salas de control. En Niza, la VSA se utiliza para detectar infracciones del Código de Circulación, agrupaciones, contar peatones y patinetes en un eje determinado, etc. En Aulnay-sous-Bois, en la región parisina, se utiliza para localizar objetos abandonados, vertidos ilegales, incendios o movimientos de multitudes.

Una vista muestra una cámara de vigilancia mientras la policía francesa comienza a probar la videovigilancia de multitudes asistida por inteligencia artificial en el período previo a los Juegos Olímpicos en París, el 6 de marzo de 2024. Foto: Reuters

La videovigilancia “aumentada” ya se está probando a nivel municipal en varias decenas de municipios de Francia. Pero a nivel nacional, es una primicia. Al menos oficialmente. El pasado mes de noviembre, el medio de investigación Disclosure reveló que la policía nacional había estado utilizando desde 2015 un software de análisis de imágenes de videovigilancia desarrollado por la empresa israelí Briefcam en el más absoluto secreto.

¿En qué marco legislativo se utiliza?

El uso de la videovigilancia algorítmica está previsto esta vez “con carácter experimental” en el artículo 10 de la Ley de los Juegos Olímpicos y Paralímpicos promulgada en mayo de 2023. Se indica que la VSA podrá utilizarse en eventos deportivos, recreativos o culturales hasta el 31 de marzo de 2025. Es decir, mucho después del período de los Juegos.

El texto enfatiza que el procesamiento algorítmico no emplea “ningún sistema de identificación biométrica, no procesa ningún dato biométrico y no implementa ninguna técnica de reconocimiento facial”. “Una línea roja”, dijo Gérald Darmanin. Cada uso también deberá estar sujeto a un decreto prefectural, previa consulta con la Comisión Nacional de Tecnología de la Información y Libertades Públicas (CNIL).

Un hombre camina cerca de una bandera con el logo de los Juegos Olímpicos y Paralímpicos de París 2024 en la capital francesa, el 25 de marzo de 2024. Foto: Reuters

Un decreto emitido durante el verano especifica los ocho eventos anormales que el software tendrá que buscar en medio de las imágenes captadas por las cámaras: la presencia o el uso de un arma, un inicio de fuego, una persona en el suelo, un paquete abandonado, cruzar una zona prohibida, un movimiento de multitudes, una densidad demasiado alta y no respetar la dirección del tráfico.

¿Dónde se desplegará?

La videovigilancia algorítmica podrá realizarse a través de cámaras instaladas en el interior o cerca de los lugares de acogida de los eventos, en el transporte o a bordo de los drones que sobrevolarán los distintos recintos. “Probablemente debería desplegarse de manera limitada” este verano, dijo en enero el delegado interministerial para los Juegos, Michel Cadot. Según él, estas llamadas cámaras “inteligentes” deben utilizarse sobre todo “en zonas de alta densidad, por ejemplo, en el centro de París, alrededor de los sitios y antes de los controles”.

El mercado de la VSA se ha dividido entre cuatro empresas francesas: Wintics, Videtics, ChapsVision y Orange Business. Cada uno tiene su propia zona geográfica. Wintics desplegará sus herramientas en la región Isla-de-Francia y en el transporte, Videtics en tres regiones del sur y ultramar, ChapsVision en el resto de Francia. Orange Business se encargará de supervisar el transporte en caso de fallo por parte de Wintics.

¿Por qué se critica su uso?

La crítica se centra principalmente en los efectos disuasorios que este tipo de tecnología puede tener sobre las libertades. “Cuando sabes que te están vigilando, vas a tender a cambiar tu comportamiento, a autocensurarte, tal vez a no ejercer ciertos derechos”, dice Katia Roux, especialista en tecnología y derechos humanos de la sección francesa de Amnistía Internacional. “Cualquier vigilancia en el espacio público es una injerencia en el derecho a la privacidad. De acuerdo con el derecho internacional, debe ser necesario y proporcional a un objetivo legítimo”, explica. “Corresponde a las autoridades demostrar que no hay forma menos intrusiva de garantizar la seguridad. Sin embargo, esta demostración no se ha hecho”, agrega.

La Torre Eiffel se ve al fondo mientras París realiza una prueba técnica para barcos como parte de los preparativos para el desfile fluvial en el Sena para la ceremonia de apertura de los Juegos Olímpicos, el 17 de julio de 2023. Foto: Reuters

Otra crítica se refiere al propio funcionamiento de la inteligencia artificial, en la que se basa la videovigilancia algorítmica. Una tecnología aparentemente neutra, pero en realidad desarrollada con datos que potencialmente incluyen sesgos discriminatorios que podría amplificar. “En otros países que han desarrollado este tipo de vigilancia del espacio público, vemos un uso desproporcionado que apunta a ciertos grupos de la población que ya están marginados”, subraya Katia Roux.

Por encima de todo, las organizaciones de libertades civiles temen que la experimentación con la videovigilancia algorítmica allane el camino para formas de uso más intrusivas. “Es un pie en la puerta que anuncia aplicaciones más problemáticas, como el reconocimiento facial en un futuro próximo”, advierte Félix Tréguer, investigador asociado del CNRS (Centro Nacional para la Investigación Científica) y miembro de la asociación La Quadrature du net.

¿Qué nos depara el futuro después de los Juegos Olímpicos?

Si bien el experimento con videovigilancia algorítmica finalizará el 31 de marzo de 2025, el Gobierno anunció que la tecnología podría hacerse permanente. “Si demuestra su valía y con garantías, puede utilizarse para grandes eventos”, dijo en septiembre la ministra de Deportes, Amélie Oudéa-Castera. El Senado, por su parte, ya se ha preparado para el futuro. El pasado mes de junio, la Cámara Alta aprobó un proyecto de ley sobre reconocimiento biométrico en espacios públicos, que allana el camino para el ensayo del reconocimiento facial a efectos de investigaciones judiciales y de lucha contra el terrorismo durante un período de tres años. El texto aún debe ser debatido en la Asamblea.

¿Se está preparando Francia para seguir el ejemplo de otros países que organizan grandes eventos deportivos reforzando su sistema de seguridad postolímpico? En 2012, los Juegos Olímpicos de Londres provocaron el despliegue masivo de cámaras de vigilancia en las calles de la capital. Seis años después, el Mundial de Fútbol en Rusia fue una oportunidad para experimentar con el reconocimiento facial, que todavía está vigente hoy en día. En 2020, los Juegos de Tokio fueron precedidos por una endurecimiento legislativo ampliamente criticado.

En vísperas de los Juegos de París, Amnistía Internacional pide algo más que promesas. La ONG pide una ley que prohíba el reconocimiento facial con fines de identificación en espacios públicos. “Ya que fue presentada como una línea roja en los debates, no puede ser una línea punteada; tiene que ser robusta”, afirma Katia Roux. De lo contrario, se podría caer en una vigilancia generalizada.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.