El debate tras las imágenes virales del Papa a la moda y Trump arrestado

Mucho creyeron que esta foto de Francisco I vestido a la moda era real.

Recientemente, fotos creadas por Inteligencia Artificial sobre figuras públicas han dado la vuelta al mundo, sin que muchas personas pudieran detectar que eran falsas. La popularización de la herramientas para generar este tipo de contenidos podrían estar llevando los problemas de desinformación a una nueva etapa.


A fines de marzo, durante los días en que se comentaba la posibilidad de que se presentaran cargos penales contra Donald Trump, un popular periodista británico publicó en su cuenta de Twitter, con casi 300.000 seguidores, fotos creadas por inteligencia Artificial del expresidente siendo arrestado.

Aunque en el tweet original contaba que él había creado las imágenes, las fotos rápidamente se descontextualizaron y en muchos casos fueron difundidas como reales, llegando a aparecer en canales de televisión internacionales.

Las supuestas imágenes de Trump siendo arrestado se divulgaron incluso en medios de comunicación internacionales.

Pocos días después, un hombre de 31 años en Estados Unidos, creó por diversión fotos del Papa Francisco utilizando una chaqueta larga tipo puffer, que aunque rompía con las tradicionales vestimentas del Sumo Pontífice, mantenía una línea estética que la hacía ser verosímil. La foto también se viralizó rápidamente generando confusión sobre si era real o no.

Ambas fotos, la de Trump y la del Papa, fueron creadas con MidJourney, una de las herramientas más populares para crear imágenes con Inteligencia Artificial y, además, una de las que permite mayor precisión y capacidad de edición. Sus resultados están a la vista y abren un debate sobre cómo su mal uso o su descontextualización pueden profundizar los problemas de desinformación que hay asociados actualmente a las redes sociales.

Una tendencia que se consolida

Según explica Francisco Kemeny, creador digital experto en Inteligencia Artificial, la tecnología detrás de estos contenidos se desarrolló hace muchos años. “Igual como muchas cosas relacionadas con la Inteligencia Artificial, son desarrollos o tecnología que existen hace ya varios años, décadas en algunos casos. Este concepto de las imágenes falsas se llama deepfake o falsos profundos. Yo diría que lo escuché la primera vez hace unos 8 o 10 años, casi. En el fondo es una creación de un contenido falso que se ve tan real que es indistinguible de la realidad”, dice.

A pesar de sus años de existencia, Kemeny recalca que la diferencia ahora es la democratización de esta tecnología a través de herramientas muy intuitivas y populares como es MidJourney. “Hoy día se está volviendo accesible y eso está cambiando un poco el paradigma, porque ahora cualquiera puede crear una imagen como la del Papa. La tecnología se ha vuelto al alcance de todos y yo creo que ese es el gran cambio”, señala.

La democratización de estas herramientas y lo que ha pasado en las últimas semanas parece predecir que próximamente las imágenes creadas por Inteligencia Artificial podrían ser la base de una nueva generación de fake news, un fenómeno que se cultiva idealmente en climas políticos tensos.

Por ejemplo, durante los últimos días se difundió a través de redes sociales un deep fake que utilizaba la imagen del fallecido suboficial mayor de Carabineros Daniel Palma, en el que su rostro era animado y una voz de fondo se hacía pasar por él para dar a conocer un supuesto mensaje contra el gobierno. Este tipo de contenidos probablemente se verá cada vez más seguido, con las próximas elecciones en Estados Unidos como uno de escenarios perfectos para la proliferación de imágenes así.

“El destino de la política de Estados Unidos va a estar movido muy fuertemente por el contenido deep fake o estas imágenes falsas que la gente no alcanza a distinguir de la realidad. Vamos a empezar a ver cosas como, por ejemplo, fotos del hijo de Biden bailando con prostitutas en un cabaret y van a tener que salir a desmentir que eso no pasó. Entonces se viene una época muy interesante respecto a la incertidumbre que se puede llegar a generar, dado esta capacidad de crear desinformación a través de algo que tú estás viendo, una foto. Esa dinámica yo creo que va a ser usada y va a manipular mucho de la conversación política que viene en los próximos meses”, opina Kemeny.

Tips para no caer

En el nuevo escenario que comienza a replantearse, será aún más difícil tener un control sobre cuáles contenidos en redes sociales son reales y cuáles no. “Ya estamos invadidos con cadenas de WhatsApp, posteos en Twitter y redes sociales, y creo que la impermeabilidad de personas para creer una noticia falsa, lamentablemente, tras todos los esfuerzos que se han hecho en los últimos años, va a quedar caduca con este nuevo tipo de tecnología”, opina Alejandro Alaluf, periodista experto en tecnologías.

Alaluf plantea que en este contexto, la búsqueda inversa de fotografías, que permite conocer el origen de una imagen debiera convertirse en una práctica cotidiana.

“El problema es que el porcentaje que puede ocupar una herramienta como la que te comento va a ser muy mínimo. Entonces, siempre van a existir personas que van a caer. Finalmente esto tiene que ver con un tema de incidencia antropológica. Con todo lo que sabemos del cuento del tío, del phishing, de las estafas piramidales, de todos los tipos de formas digitales y análogas que hay para engatusar a la gente, después de múltiples reportajes, denuncias en televisión, en periódicos, redes sociales, de amigos, de conocidos, la gente aún sigue cayendo”, señala.

Cuando se observa en detalle un foto creada por Inteligencia Artificial, se puede descubrir que sus componentes se parecen más a pinceladas que a elementos reales.

Por su parte, Francisco Kemeny dice que el gran consejo para prevenir caer en desinformación es “que como espectadores tenemos que tomar todo como falso primero y luego salir a verificarlo”.

Una de las formas de chequear si una imagen fue creada por Inteligencia Artificial es hacerle zoom a la fotografía en cuestión, ya que en los detalles se pueden descubrir imprecisiones con la realidad o una textura que parece más un pincelazo que una forma nítida.

También es recomendable fijarse en detalles como las manos y los ojos, donde suelen concentrarse los fallos. “Lo que hace la Inteligencia Artificial es buscar el espacio intermedio más probable. Eso es lo que trata de hacer con una cara, con una mano o con unos ojos. Y en el caso de las manos y los ojos, la cantidad de variantes y variaciones son tan amplias que es muy difícil achuntarle con exactitud”, explica Kemeny.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.

La disrupción digital es aquella transformación radical y profunda de los modelos de negocio de una empresa. Es un proceso muy beneficioso, pero no es sencillo. En esta entrevista, Juan José de la Torre, CEO de Raven y especialista en disrupción, explica los fundamentos de este proceso y cómo abordarlo.