Un peligroso deepfake genera desnudos a partir de fotos de mujeres vestidas

fake

La aplicación llamada DeepNude puede realizar ese reprochable proceso con cualquier imagen, abriendo un escalofriante mundo de posibilidades.


Una nueva aplicación basada inteligencia artificial vuelve a poner sobre la mesa el debate sobre las implicaciones éticas y los potenciales peligros de la tecnología deepfake.

Desde Vice cuentan que existe una aplicación llamada DeepNude que es capaz de tomar la foto de una mujer completamente vestida y crear una nueva imagen donde aquella persona supuestamente aparece desnuda.

Como explica la propia página (vía The Next Web) el proceso para crear las imágenes falsas es muy sencillo y solo requiere subir una foto, recortarla para que se centre en la persona y el sistema creará la imagen. Eso sí, pese a que DeepNude funcionaría con todo tipo de imágenes, en Vice acotan que operaría mejor con fotos donde la persona está mostrando más piel.

Por otra parte, esta aplicación solo funciona en mujeres,  ya que al cargar fotos de un hombre simplemente reemplaza sus pantalones con una vulva.

Cualquiera con acceso a Internet y un computador con Windows pude descargar DeepNude de manera gratuita sin ningún tipo de obstáculo, e incluso hay una versión pagada de la aplicación que cuesta $99 dólares.

Y, aunque ambas versiones incluyen marcas de agua que identifican a las fotos de desnudos como falsas, Vice advierte que esa identificación es muy fácil de eliminar.

En ese panorama, aunque los resultados de la aplicación no siempre serían los suficientemente buenos para pasar como reales, los problemas y cuestionamientos que levanta un software de este tipo son evidentes.

Pese a que la piel generada por la inteligencia artificial se ve borrosa y pixelada, a resoluciones más bajas o cuando se ven brevemente, las imágenes falsas fácilmente se pueden confundir con fotos reales, y podrían causar un daño grave a la vida de las mujeres que son objeto de estas alteraciones.

El creador de la aplicación identificado como "Alberto" justificó la publicación de este peligroso software señalando que hizo DeepNude por curiosidad y solo por "diversión".

"No soy un voyeur, soy un entusiasta de la tecnología", dijo el sujeto, antes de añadir que cualquiera podría hacer lo mismo con tutoriales de Photoshop. Algo que evidentemente no quita que su app es una forma de facilitar potenciales daños y manipulaciones a otras personas.

"También me dije: la tecnología está lista (y al alcance de todos)", comentó "Alberto". "Así que si alguien tiene malas intenciones tener DeepNude no cambia mucho. Y si no lo hago alguien más lo hará en un año".

Los deepfakes no son un fenómeno nuevo, pero pese a que su aplicación ha sido cuestionada por sus usos para la difusión de noticias falsas y los videos pornográficos falsos de celebridades, aún permanecen en una área gris de la legislación.

Es decir, por ejemplo, pese a que el uso de deepfakes para generar desnudos puede ser tachado como difamación; no hay políticas concretas para eliminar este contenido de las redes sociales y otras plataformas y así evitar su difusión.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.