Qué es un “deepfake”, y por qué deberías estar preocupado de esta tecnología

Las 28 personas que aparecen en la imagen, no existen. Fueron creadas con tecnología deepfake.

Pueden ser fotos, videos o clips de audio alterados usando inteligencia artificial para que parezcan auténticos, y ya son objetivo de planes preventivos en Facebook y Twitter. Dos chilenos en Nueva York, expertos en el área, cuentan detalles de la tecnología, mientras trabajan en lo que llaman el "Photoshop del futuro".


Hoy, las aplicaciones que utilizan la cámara en los dispositivos móviles son cada vez más avanzadas. Cada cierto tiempo es posible ver algunas como FaceApp analizar nuestro rostro para hacerlo más joven, anciano, situarnos en lugar de un actor en nuestra película favorita, quitarnos granos, agregarnos orejas de animales o incluso crear videos falsos que parecen muy reales.

Pero estas aplicaciones son sólo la entrada a un contenido digital que se ha vuelto rápidamente accesible para las masas, denominados “deepfakes”. En términos simples, el término se refiere a videos manipulados u otras representaciones digitales producidas por inteligencia artificial sofisticada, produciendo imágenes y sonidos que parecen ser reales.

Uno de los primeros deepfakes fue creado por la Universidad de Washington en 2017, con el expresidente Obama hablando sobre los peligros de la información y noticias falsas. Curiosamente, el video también es falso, ya que sólo se trataba del actor y director estadounidense Jordan Peele, que transfirió sus propios movimientos faciales a las características faciales de Obama, utilizando tecnología deepfake.

El problema es que con los avances tecnológicos disponibles hoy -basta una computadora y acceso a internet- estos videos se están volviendo cada vez más sofisticados y accesibles. Tras el experimento de la Universidad de Washington, otro video similar pero de este año, mostró una escena de la película Volver al Futuro, originalmente protagonizada por Michael J. Fox y Christopher Lloyd, pero sustituidos por un convincente deepfake con Tom Holland y Robert Downey Jr. Si bien el resultado no es perfecto y conserva las voces originales, sí podría engañar a más de alguno, considerando además que fue hecho de forma casera.

Hoy, sólo los más detallistas podrán fijarse en pequeñas pistas que dan cuenta de una falsificación. Existen leves aspectos visuales notorios como las orejas, ojos, bordes borrosos de la cara, piel demasiado suave, la iluminación y las sombras, que pueden ayudar a una detección.

Sin embargo, encontrar estos indicios es cada vez más difícil a medida que la tecnología deepfake se vuelve más avanzada. Un estudio publicado en octubre en Telematics and Informatics en base a seis meses de investigaciones realizadas este año reveló que en internet existen casi 50 mil videos deepfake, y sólo un 60% de los encuestados fueron capaces de descubrirlos, mientras que un 39% admitió haber compartido contenido falso creado con esta tecnología.

Esta mujer no existe. Fue creada en base a decenas de fotografías y procesada con la inteligencia artificial de Runway, programa creado por dos chilenos en Nueva York.

Impacto profundo

Técnicamente, el deepfake es una mezcla de “deep learning” (aprendizaje profundo en inglés) y “falso”, un subconjunto de inteligencia artificial referido a algoritmos que pueden aprender y tomar decisiones inteligentes por sí mismos. Así, es posible que estos sistemas puedan producir una falsificación muy convincente al estudiar fotografías y videos de una persona desde múltiples ángulos, para luego imitar su comportamiento y patrones de habla.

Este tipo de dudas abre los cuestionamientos éticos y legales a esta tecnología, ya que muchas personas podrían creer que algo es real cuando no lo es. Tal como ocurrió con el video de Obama, en unos años más esta herramienta podría ser utilizada para perjudicar a algún candidato, haciendo que diga cosas que nunca dijo, y por consiguiente influir en una elección.

Por suerte, ya hay quienes están alertando sobre esta tecnología. Un informe del MIT de 2018 determinó que un deepfake puede ser “un arma perfecta para los proveedores de noticias falsas que quieren influir en todo, desde los precios de las acciones hasta las elecciones”.

“Las herramientas de inteligencia artificial ya se están utilizando para poner imágenes de los rostros de otras personas en los cuerpos de las estrellas del cine para adultos y poner palabras en la boca de los políticos”, señaló Martin Giles, jefe de la oficina de San Francisco de MIT Technology Review.

¿Se pueden detectar?

Así como la inteligencia artificial es capaz de crear deepfakes, también puede detectarlos. Hoy, cada vez más investigadores se están enfocando en su detección, y buscando una forma de regularla.

Compañías como Facebook y Microsoft han tomado iniciativas para detectar y eliminar este tipo de contenido, gracias a una colaboración con las mejores universidades de Estados Unidos que busca crear una gran base de datos de videos falsos para ser investigados. Los frutos se vieron este año, cuando Microsoft presentó un software que puede ayudar a detectar fotos o videos “deepfake”, buscando combatir este contenido antes de las pasadas elecciones presidenciales de Estados Unidos.

El software, llamado “Video Authenticator” analiza una imagen o cada fotograma de un video, buscando evidencia de manipulación que podría ser invisible a simple vista. Microsoft además incorporó este sistema a su plataforma de computación en la nube Azure, permitiendo a los creadores de fotos o videos agregar datos en segundo plano que se pueden usar para verificar si las imágenes resultaron alteradas.

Así funciona "Runway", el software creado por los chilenos Cristóbal Valenzuela y Alejandro Matamala.

El photoshop del futuro

Cristóbal Valenzuela y Alejandro Matamala son dos chilenos que residen actualmente en Estados Unidos, donde se conocieron mientras hacían un magíster en la Universidad de Nueva York sobre investigación y desarrollo en inteligencia artificial. Allá, junto a su otro socio, Anastasis Germanidis, invirtieron su tiempo en crear una interfaz, algoritmos y software para usar los deepfakes en algo distinto: la creación de contenido audiovisual, a través de una herramienta digital que permita trabajar de forma automatizada. Lo llamaron “Runway”.

“Nos enfocamos en algo que no había sido explotado anteriormente, como la industria creativa, cine, TV, radio, aspectos que tienen componentes humanos y no lo habíamos visto antes”, cuentan a La Tercera. “Runway está basado en esta idea de múltiples algoritmos de inteligencia artificial -unos 400- para hacer múltiples cosas, como animar personas en tiempo real, prediciendo el movimiento de la cara y usando texturas o luz para crear la ilusión de movimiento. Otros, hacen cosas distintas, como escribir una nota periodística o un guión para una película”, dice Valenzuela.

“Existen modelos o algoritmos que se pueden entrenar en la misma plataforma, entregándole datos, y éste ‘aprende’ de estos patrones, para después entregar un resultado similar al original. De esta forma, al introducir una cara por ejemplo, el sistema puede automáticamente entender cuáles son sus principales características, generando un rostro nuevo. Podemos incluso cambiar su mirada, ojos, orejas, pelo, boca, y mantener lo demás. Es como el futuro de Photoshop”, sostiene.

Ambos señalan que la idea es generar contenido hiperrealista de forma sencilla, y por eso Runway puede descargarse o utilizarse online, con un modelo de suscripción que ya se está utilizando en universidades, cine y efectos especiales.

“Son modelos de inteligencia artificial que permiten hacer cosas que antes no se podían, como crear personas sintéticas, editar caras, cuerpos, que antes necesitaban un estudio de Hollywood. Nosotros apostamos que de aquí a cinco años cualquier persona con un computador podrá hacer una película con un celular, incluyendo edición y efectos especiales automatizados por la plataforma”, cuenta Matamala.

De izquierda a derecha: Alejandro Matamala, Anastasis Germanidis y Cristóbal Valenzuela, creadores de Runway.

En relación a los peligros de estas tecnologías, señalan que tal como Photoshop es capaz de detectar si estoy editando algún billete, Runway acepta algunos contenidos, y otros no, como pornografía por ejemplo. “Si alguien quiere hacer fake news nosotros podemos poner barreras. Eso también depende de la comunidad que se auto regula y ellos mismos saben qué se puede hacer y qué no”, explican.

“Si esto va a afectar la manera en que las cosas van a ser percibidas, es una pregunta que aparece con cada nueva tecnología. A fines de los 80 con Photoshop estábamos preocupados porque nadie iba a creer las imágenes que estábamos viendo, y hoy existe una industria creativa vinculada a esta tecnología”, dice Valenzuela.

Agrega que “hay temas éticos que resolver, pero al mirar históricamente, el miedo que algo nos arruine el futuro ha existido desde los primeros libros. Es lo mismo que ocurrió con el origen del cine: uno de los primeros cineastas mostró un tren en una estación, y la gente al ver el tren acercándose, arrancaba. Hay que educar a la gente, y después saber qué es cierto o no”.

“En este caso, estamos recién viendo cómo viene el tren”, sostiene.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.