¿Y si tengo en mi celular una foto de mi bebé bañándose? Críticas de usuarios hacen que Apple retrase lanzamiento de función que escanearía las fotos de tu teléfono en busca de abuso infantil

Un empleado en la tienda de Apple en Nueva York. Foto: AP

La nueva herramienta debutaría esta semana, pero tras las ola de críticas sobre su real función, la empresa decidió posponer su lanzamiento.


Apple está retrasando un sistema que habría escaneado las fotos de los clientes en busca de signos de abuso sexual infantil después de las feroces críticas de los defensores de la privacidad, que temían que pudiera preparar el escenario para otras formas de seguimiento.

La compañía había anunciado la función a principios de agosto, junto con otras herramientas destinadas a proteger a los niños y erradicar la pornografía ilícita, y rápidamente enfrentó las preocupaciones de que crearía una puerta trasera a través de las muy preciadas medidas de privacidad de la compañía. Apple se apresuró a contener la controversia en las siguientes semanas, diciendo que recurriría a un auditor independiente para supervisar el sistema, pero la protesta persistió.

“El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de material de abuso sexual infantil”, dijo Apple en un comunicado el viernes. “Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”.

Un mural comercial de Apple en Berlín. Foto: AFP

La reacción se ha sumado al creciente escrutinio de Apple en los últimos meses. A principios de esta semana, la compañía acordó cambiar sus políticas de App Store para abordar las críticas de que es anticompetitivo. Y los empleados se han vuelto cada vez más molestos sobre los problemas dentro de la empresa, incluida la falta de equidad salarial.

La Junta Nacional de Relaciones Laborales de EE.UU. está investigando dos quejas de trabajadores que se originaron por preocupaciones sobre la seguridad en el lugar de trabajo y la falta de transparencia salarial.

Apple había planeado un trío de nuevas herramientas diseñadas para ayudar a combatir el material de abuso sexual infantil, bautizada por la empresa como CSAM, sigla en inglés de Child Sexual Abuse Material. Incluyeron el uso del asistente digital Siri para denunciar el abuso infantil y acceder a recursos relacionados con CSAM, así como una función en Mensajes que escanea los dispositivos operados por niños en busca de imágenes explícitas entrantes o salientes.

La tercera característica fue la más controvertida: una que analizaría la biblioteca de un usuario en iCloud Photos en busca de imágenes explícitas de niños. Si se descubría que un cliente tiene tales imágenes en su biblioteca, Apple sería alertado, realizaría una revisión humana para verificar el contenido y luego reportaría al usuario a la policía.

Los defensores de la privacidad, como la Electronic Frontier Foundation, advirtieron que la tecnología podría usarse para rastrear otras cosas además de la pornografía infantil, lo que abre la puerta a “abusos más amplios”. No les tranquilizó el plan de Apple de traer al auditor y ajustar el sistema, diciendo que el enfoque en sí no puede evitar socavar el cifrado que protege la privacidad de los usuarios.

En sus intentos por defender la nueva función, Apple instruyó al personal sobre cómo responder preguntas sobre el tema. También dijo que el sistema solo marcaría los casos en los que los usuarios tuvieran alrededor de 30 o más imágenes potencialmente ilícitas.

Apple también está lejos de ser la única en tomar estas medidas. Facebook ha tenido durante mucho tiempo algoritmos para detectar este tipo de imágenes subidas a sus redes sociales, y YouTube de Google analiza videos en su servicio en busca de contenido explícito o abusivo que involucre a niños. Adobe tiene protecciones similares para sus servicios en línea.

La función CSAM de Apple funcionaría asignando una llamada clave a cada una de las imágenes del usuario y comparando las claves con las asignadas a las imágenes dentro de una base de datos de material explícito. A algunos usuarios les ha preocupado que puedan verse implicados por simplemente almacenar imágenes de, digamos, su bebé en una bañera. Pero es poco probable que las imágenes personales de los padres de sus hijos estén en una base de datos de pornografía infantil conocida, a la que Apple haría referencia cruzada como parte de su sistema.

El logo de Apple en una tienda de Bélgica en Bruselas. Foto: Reuters

Apple también intentó sofocar las preocupaciones de que los gobiernos espíen a los usuarios o rastreen fotos que no son pornografía infantil. Dijo que su base de datos estaría compuesta por imágenes provenientes de múltiples organizaciones de seguridad infantil, no solo del Centro Nacional para Niños Desaparecidos y Explotados, como se anunció inicialmente. La empresa también planea utilizar datos de grupos en regiones operadas por diferentes gobiernos y dijo que el auditor independiente verificará el contenido de su base de datos.

También solo afecta a las fotos que los clientes cargan en sus cuentas de iCloud. Apple ha dicho que rechazará cualquier solicitud de los gobiernos para utilizar su tecnología como un medio para espiar a los clientes.

La función estaba programada para entrar en vigor antes de fin de año, lo que podría eclipsar una serie de anuncios de productos de Apple que se esperan en las próximas semanas. La compañía está lanzando iPhone, iPad, AirPod y Mac actualizados, así como un nuevo Apple Watch más grande, dijeron personas familiarizadas con el tema.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.