Esa no soy yo: La historia de nueces, estafa y fallas de reconocimiento facial de Beatriz

reconocimiento-facial

Beatriz Sotomayor -sin antecedentes penales- no entiende cómo su imagen apareció en un set que se exhibió a un vendedor de nueces que fue estafado con un cheque falso en diciembre de 2018, cuando ella estaba, según pudo corroborar, en Puerto Montt. La mujer cree que fue víctima de un falso reconocimiento facial por parte de la PDI. En investigaciones aseguran que eso no es así, aunque no pueden revelar cómo se incorporó la imagen de Beatriz al perfil de sospechosos.


Imputada por estafa. Beatriz Sotomayor Fontealba fue notificada el lunes 13 de mayo en Puerto Montt por un comisario de la Brigada de Delitos Económicos de la Policía de Investigaciones de que la Fiscalía Metropolitana Centro Norte tenía un caso serio en su contra: la acusaban de haber engañado a un vendedor de Paine entregándole un cheque falso por $3,3 millones a cambio de 550 kilos de nueces. La transacción fraudulenta la había efectuado en Independencia el miércoles 5 de diciembre del año pasado y había sido reconocida fehacientemente por la víctima en un set de fotografías que le había sido exhibido.

El problema para Beatriz es que ella, asegura, no había cometido ningún ilícito y podía corroborarlo con facilidad: ese día había marcado registro de asistencia en la municipalidad de Puerto Montt, donde trabaja, y había compartido posteriormente con compañeros de oficina que podían atestiguar que había estado en el sur del país y no en la capital apropiándose de un camión de frutos secos. "Además, no tengo cuenta en el banco que se usó para engañar al señor que me acusa. No soy una estafadora", dice.

La gran duda que tiene es cómo su imagen apareció en el set que se exhibió al denunciante: "Tengo el rostro delgado, uso lentes, no tengo nada muy especial. Tampoco tengo antecedentes penales, entonces no sé cómo llegaron a mí. La fotografía que me mostraron en la orden era de mi carnet de identidad. No supieron explicarme por qué figuraba yo de imputada. Viajo a Machu Pichu ahora y pregunté si iba a tener problemas para salir".

-Yo quisiera saber por qué estaba en esas fotos- apunta Beatriz.

Desde la PDI no aclaran esta incógnita. Precisan que "ella es parte de un proceso investigativo en curso del que no se pueden dar más detalles" y que se rige por el "Protocolo Interinstitucional de Reconocimiento de Imputados" que está vigente desde el año 2013. Éste contempla una confección de al menos 10 fotografías que son presentadas al denunciante.

¿Cómo se llega a estar en esa muestra? En la PDI no pueden entregar detalles, pero dicen que no fue por cámaras. Para Beatriz, sin embargo, la alternativa más plausible, en la búsqueda de entender la situación, es que su caso sea uno de los falsos positivos que abundan los software de reconocimiento facial -son "como un tiro al aire con ese nivel de error", comenta-, y que están en cuestionamiento por su implementación en distintos centros comerciales.

En un oficio de la PDI Consejo para la Transparencia (CPLT) de diciembre de 2018 respecto de cómo se estaba trabajando este tema en el Mall Plaza Los Domínicos, donde se habían instalado cámaras, se precisó que se utilizan bases internas de perfiles biométricos que, en algunos casos, se cotejaban con este "Gran hermano" privado.

"Respecto del funcionamiento del software de reconocimiento facial, comienza con la detección de un rostro proporcionado por un video o imagen, se obtienen las características morfológicas de la persona las que se cotejan con una base de datos biométricos interna, entregando un porcentaje de identificación que determina la similitud entre ambos sujetos. En relación a los patrones biométricos utilizados en los algoritmos de reconocimiento facial son propios de la empresa HERTA S.A., y la PDI utilizó el sistema (tiempo real) en modalidad de prueba y en calidad de usuarios, no teniendo participación en el desarrollo de este software de reconocimiento facial".

El software Herta, se especificó en ese escrito, se estaba usando solo en modo de prueba y en las dependencias del Centro Nacional de Análisis Criminal. Sus resultados distaban de ser eficientes: "entre mayo y junio pasado se realizaron pruebas al sistema, que concluyeron que el 90% de las identificaciones fueron 'falsos positivos', es decir con errores en la persona apuntada".

En el CPLT, Jorge Jaraquemada, presidente de la entidad, coincide en esta apreciación: "De comprobarse este caso, para nosotros es de extrema gravedad, porque cuestiona al sistema al usar una tecnología intrusiva de forma incorrecta y sin una legislación actualizada y eficaz que le otorgue a la ciudadanía los instrumentos que la protejan ante un tratamiento ilícito de sus datos. Necesitamos con urgencia poner al día la normativa para que el propio Consejo para la Transparencia garantice el derecho a la protección de datos personales. Todos coincidimos que la Seguridad Pública es un bien a preservar y perfeccionar, pero muy distinto es que personas inocentes tengan que sufrir este problema y, finalmente, paguen justos por pecadores", adujo.

Pablo Viollier, Analista de Políticas Públicas de Derechos Digitales, plantea que "los mecanismos de reconocimiento facial están demostrando sumamente impreciso. El del mal de Los Domínicos tenía un 90% de falsos positivos, el sistema que se instaló en Londres tiene 96% de falsos positivos y el de Nueva York 100%. Pero se insiste en invertir en un fracaso tan rotundo, falla entre el 90 y el 100% de los casos".

En paralelo, consigna "se presta para abusos, sesgos, para que personas inocentes pasen por culpable, es un tema que es sensible, pero al gobierno parece no importarle la afectación a garantías civiles y derechos fundamentales".

Para Beatriz, ese punto es crucial: "¿Qué hubiera pasado si yo no hubiera podido demostrar que estaba en Puerto Montt? ¿Se habría asumido que yo era la estafadora".

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.