Martin Hilbert, experto en redes digitales: “Los algoritmos encontraron nuestras debilidades y las están aprovechando”

"Está claro: los algoritmos nos conocen a nosotros mucho mejor que nosotros mismos. De partida, ya no puedes esconderte de ellos, porque el patrón de desplazamientos que les manda tu celular es casi tan único como tu ADN. Aunque tú me digas “mi celular es anónimo”, no cuesta nada ponerle nombre a ese patrón", cuenta.




El académico de la Universidad de California, que alertó sobre la intervención de Cambridge Analytica en la campaña de Trump un año antes de que estallara el escándalo, asegura que las democracias están mucho peor protegidas que en 2016 de las armas digitales, y que las elecciones de este año en Estados Unidos serán “lucha libre en el barro”. Para Hilbert, alemán que vivió en Chile como funcionario de la Cepal (de ahí su coloquial castellano), las nuevas tecnologías están sembrando una crisis tan seria como el calentamiento global y, más aún, “un desafío existencial” para la especie humana.

¿Los algoritmos nos están conociendo mejor que nosotros a ellos?

Está claro: los algoritmos nos conocen a nosotros mucho mejor que nosotros mismos. De partida, ya no puedes esconderte de ellos, porque el patrón de desplazamientos que les manda tu celular es casi tan único como tu ADN. Aunque tú me digas “mi celular es anónimo”, no cuesta nada ponerle nombre a ese patrón. Hace un par de meses descubrieron que un alto oficial del Departamento de Defensa de Estados Unidos fue a una protesta contra el gobierno. ¿Cómo lo pillaron? Porque llevó el celular. También sabemos, desde Edward Snowden, que la NSA puede identificar en segundos la voz y la ubicación de cualquier persona en el mundo, aunque no uses el celular: basta que en el café donde estás conversando haya un celular cerca. Pero la novedad más radical es que, llenando los algoritmos con big data, en muchos sentidos nos estamos volviendo transparentes para ellos.

Saben qué comemos, qué compramos, a qué hora dormimos, con quién nos juntamos…

Ya pueden saber muchísimo más que eso. Por ejemplo, si tú tienes en Facebook cinco fotos de tu cara, ellos pueden decir con un 87% de precisión si eres homosexual o heterosexual. Simplemente aprendieron que hay detalles en tu cara, vinculados al balance hormonal, que se correlacionan con esa probabilidad. También pueden verte la cara y saber si mientes, observando tus ojos y la dilatación de tus vasos capilares. Así que la cara de póquer ya no existe, al menos para ellos. Y como te das cuenta, todo este conocimiento está creando posibilidades inéditas de manipulación social y psicológica.

Y con esas posibilidades, modelos de negocios más o menos cuestionables.

Así es. Lo que el mundo digital ha creado es un nuevo paradigma productivo basado en la escasez de la atención humana, ese es el recurso a explotar. Por lo tanto, las compañías que dominan este mundo son las que estudian el comportamiento social y lo convierten en tecnologías para atrapar tu atención: Google, Apple, Amazon, Facebook, Microsoft. Esas empresas son mucho más valiosas que los gigantes industriales y tienen más cash que los bancos. Lo interesante es que llevamos 20 años -desde que Kasparov perdió contra el Deep Blue de IBM, en 1997- discutiendo sobre cuándo la tecnología va a sobrepasar nuestras capacidades. Pero perdimos de vista que las máquinas, para explotarnos, lo que necesitan es aprovechar nuestras debilidades. Y lo que ha pasado en los últimos años es que se enfocaron precisamente en eso.

¿En qué debilidades?

Tu anhelo de conexión, tu vanidad, tu narcisismo…, debilidades tenemos muchas. Y los psicólogos tienen una lista de unos 200 “sesgos cognitivos”, como les llaman. Siempre sobreestimamos la probabilidad de ganarnos la lotería y subestimamos la de matarnos por no ponernos el cinturón. Y esto es predecible: somos irracionales, pero predeciblemente irracionales. Por eso los algoritmos encontraron nuestras debilidades y las están aprovechando para lo que están programadas: capturar la atención de la gente, que es la fuente de dinero. Entonces, si una chica de 14 años quiere saber cómo comer mejor y ve un video en YouTube, ¿cuál va a ser la primera recomendación del próximo video? Uno sobre anorexia, porque es mucho más probable que lo vea. Y si ella es débil, se va a ir por ese camino. Estos algoritmos buscan a los más débiles entre nosotros y ahí nos pegan bajo el cinturón. En mi campo de estudios, esta dinámica la conocemos hace mucho tiempo.

¿A qué dinámica se refiere?

Por ejemplo, desde los años 30 se ha investigado si los medios te hacen más violento o no. Y el juicio siempre ha estado muy claro: no hacen más violento a cualquiera, pero a la gente con predisposición a la violencia la hacen mucho más violenta, porque socializan sus debilidades, le dicen que es normal. Y ahora que conocen a cada persona por separado, los algoritmos pueden ir directamente a estas debilidades. Se llaman “tecnologías persuasivas” y logran su fin último si te vuelven adicto, incapaz de desviar tu atención de ellas. Hoy, en el mundo, una persona se conecta en promedio dos horas al día a las redes sociales, incluyendo YouTube. Y en América Latina, tres horas y media, son los líderes mundiales. Y muchos de los expertos que están detrás, como los que inventaron Instagram, estudiaron en un laboratorio que hubo en Stanford en los años 90, donde se escribieron varios libros que literalmente te enseñan a crear adictos. Nir Eyal, un señor muy interesante, publicó en 2014 un libro que se llama Hooked (Enganchado). Es realmente una receta para hacer a la gente adicta a las redes sociales, y acá fue un best seller. El año pasado escribió otro que se llama Indistractable (Indistraíble), ahora con recetas para impedir que exploten tu atención. Pero seguir esos consejos es un empleo de tiempo completo.

Aun cuando todos sabemos descansar de las redes nos haría bien.

De hecho, se hizo un estudio donde un grupo de personas tenía que apagar Facebook durante un mes. Y pasaron dos cosas. Uno, estuviste menos informado políticamente, pero te involucraste más con la política y estuviste mucho menos polarizado. Dos, tu bienestar en cuatro áreas -felicidad, satisfacción con la vida, depresión y ansiedad- aumentó tanto como el equivalente a ganar 10 mil dólares más al año. O sea, puedes ganar mil dólares extra al mes o apagar Facebook por cuatro semanas y tienes el mismo efecto en tu bienestar. Pero las tecnologías hicieron a la gente tan adicta, que ya es muy difícil salir. Y el éxito de las noticias falsas también tiene que ver con esta guerra por la atención.

¿Cómo así?

Porque las noticias falsas explotan dos sesgos intrínsecos a nuestra naturaleza. Uno es el sesgo de confirmación: si una información refuerza tu opinión, se ha encontrado que es 90% menos probable que la identifiques como falsa. Y, a la vez, tienes una memoria 70% más robusta de un hecho falso si coincide con lo que habrías creído: aunque te digan que es falso, tú dices “no, no, yo me acuerdo que eso pasó”. Y el otro es el sesgo de novedad. Nosotros descendemos de ancestros que prestaron una atención desproporcionada a cosas novedosas. Los que no lo hicieron, se extinguieron, se los comió el tigre. Entonces, vemos algo nuevo y ponemos los ojos ahí. Así las noticias falsas, que siempre son más novedosas, obtienen en las redes 20 veces más retuits y con cada retuit llegan a dos veces más personas. O más bien, los titulares falsos, porque ya sabes que el 70% de las cosas que la gente retuitea en las redes ni las lee.

Va a pasar con esta entrevista, seguramente.

Sí, aunque ojalá por novedosa y no por falsa. ¿Sabes lo que dice el tipo que inventó el botón de retuit? “Mejor le hubiéramos dado un arma a un niño de cuatro años”. Es la peor arma que hemos inventado, porque los algoritmos nos pillaron ahí el punto débil y lo aprovechan. Uno siempre se imagina que estas compañías estudian la psicología humana y que luego Mark Zuckerberg se va al subterráneo con el Joker y el Pingüino y ahí fuman puros, toman whisky y piensan cómo dominar el mundo. No es así. No hay muchos psicólogos en Silicon Valley. Simplemente, hacen pruebas ciegas de A/B: ponen dos versiones de un botón o de un comercial y ven dónde la gente hace más clics. Es decir, estas tecnologías encuentran nuestras debilidades no a propósito, sino a ciegas, por ensayo y error. Y así siempre encuentran que la gente comparte más lo novedoso y lo que confirma su opinión.

LUCHA LIBRE

Después de la elección de Trump en 2016, se habló mucho sobre cómo proteger a la democracia de estas herramientas. Cuatro años después, ¿estamos mejor o preparados?

Estamos mucho peor. Por ambos frentes: las tecnologías y las instituciones.

Partamos por las tecnologías.

Ahí hay dos fenómenos muy preocupantes. Primero, han sofisticado mucho la microfocalización, esto de mandarte el comercial más apropiado a tu perfil psicosocial, como lo hizo Cambridge Analytica. Segundo, han permitido masificar de tal manera el ruido falso, que ya es muy fácil usar el poder de la confusión. Solo para dimensionar: los estudios están estimando que las personas que usan YouTube diariamente, que son 2.000 millones en el mundo, ven en promedio dos a tres minutos diarios de conspiraciones irracionales: que la Tierra es plana, que la llegada a la Luna fue un show de Hollywood, que debes huir de las vacunas, etc. En el mundo hay 1.800 millones de musulmanes y 2.200 millones de cristianos. Si la misma cantidad de gente ve dos o tres minutos al día de teorías conspirativas, es casi una religión nueva. Y una vez que viste ese tipo de videos, empiezas a dudar de todo. La intervención de los rusos en la elección de 2016 también enseñó que hay recetas muy simples para intoxicar con mentiras las redes sociales. Crean tres cuentas en paralelo: la primera inventa el rumor, la segunda lo confirma, la tercera lo retuitea y la cosa se difunde. Entonces, la base de verdad es mucho más débil que hace cuatro años, la gente duda mucho más.

De hecho, ya es sabido que los piratas rusos, en vez de ocultar su huella, exageran su importancia para que la gente crea que están detrás de todo.

Sí, porque su objetivo es que no creas en nada. Porque donde hay confusión completa, el poder de la ley regresa a manos del rey. La Revolución Francesa luchó porque el orden lo diera la ley, no el rey que decía “el Estado soy yo”. Pero si no hay verdad posible, los hechos ya no cuentan y, por lo tanto, las reglas tampoco. ¿Y qué hago yo, adónde me voy? Tengo que buscar al rey. Por eso crear confusión es un arma tan potente para los populistas y los autoritarios.

¿Le preocupa más el poder digital de los Estados o el de las empresas?

El poder excesivo es de temer en cualquier caso. Mira el uso que el Estado chino les está dando a los macrodatos con su “sistema de crédito social”…

Hay que portarse bien.

Si te pasas una luz roja, o si uno de tus amigos mete la pata, te quitan puntos y quizás ya no puedes comprar un pasaje de avión o pierdes la escuela para los niños. Es un Gran Hermano convertido en el juego de la vida, literalmente. Pero el poder de las empresas también es brutal, porque sus códigos de programación ya son, de facto, leyes internacionales. Cualquier código implementado a gran escala es político. Ya tenemos estudios muy elocuentes sobre lo factible que es cambiar intenciones de voto simplemente alterando el orden de las noticias que te muestran. Quien programa el algoritmo de búsqueda tiene ese poder. Y solo hay 20 países en el mundo que tienen un PIB más alto que la fortuna sumada de los 10 empresarios digitales más ricos: Bezos, Gates, Slim, Ellison, Zuckerberg, Page y algunos chinos. Entonces, ¿quién manda el mundo? ¿Los representantes que elegimos o estos 10 señores que deciden qué información mostrarte? Mira, esta crisis es por lo menos tan seria como el calentamiento global o una pandemia, porque esto decide qué información tenemos sobre esos fenómenos. Y hoy esa decisión está en las manos de 10 señores.

Tienes bastante contacto con la gente de Silicon Valley. ¿Comparten tu preocupación o siguen en la euforia del juguete nuevo?

Yo creo que empieza a haber dos grupos. Algunos intentan crear nuevas tecnologías para arreglar esto, como el blockchain, que puede ayudar bastante en transparencia y descentralización. Pero las empresas más grandes se debaten entre tomar ciertas medidas paliativas y tirar la toalla por completo. Zuckerberg, por ejemplo, dijo el año pasado: “Vamos a invertir heavy en seguridad, 3.700 millones de dólares”. Y todo el mundo dijo “guau, es mucho dinero”, pero para Facebook es el 5% de su retorno. Facebook es como un periódico -el más leído del mundo- donde el 100% del personal trabaja en ventas y nadie se preocupa del contenido. Y estas compañías ganan mucha plata con las campañas políticas. Todos hablan de Cambridge Analytica porque ahí alguien robó datos, pero Facebook ofrece el mismo servicio. Sabemos que, en 2016, equipos de Facebook, de Twitter y de Google estaban diariamente en la sede de la campaña de Trump. Básicamente, ellos la dirigieron. El jefe de campaña era un joven que hizo la página web de un show televisivo de Trump, The Apprentice, pero el tipo no sabía nada de elecciones.

¿Y por qué dice que las instituciones también están peor?

Porque el problema les crece frente a los ojos y no atinan a regular el mundo digital. Si tú le cuentas tus pecados al cura, él no puede venderle esa información a quien le ofrezca más dinero. Ni tu psicólogo, ni tu abogado. Tiene que haber una ley fiduciaria para el uso de tecnologías persuasivas, tal como las hay para los otros casos donde se mezcla información íntima, debilidades personales y poder.

Por lo que se lee en artículos sobre el tema, en la campaña electoral de este año en Estados Unidos se va a recurrir sin pudor a estas herramientas.

Sí, esto va a ser lucha libre en el barro, muy feo. Y Facebook también se prepara para eso. A Zuckerberg le hinchaban las pelotas hace años por el problema de la privacidad, y él nunca reaccionó. Google tampoco. Pero ahora que viene esta elección, anunció que Facebook ha cambiado su visión y que quieren ser líderes mundiales en asegurar privacidad a la gente. Entonces, encriptó WhatsApp y aseguró que ni siquiera él puede leer lo que pasa ahí. ¿Por qué hizo eso? Porque si ahora se mete un ruso, él podrá decir “oiga, yo no tenía cómo saber, si no puedo leer los mensajes”. ¡Para que no le vuelvan a hacer juicio, por eso lo hizo! Y ya dijo que este año Facebook no va a censurar nada que venga de campañas políticas. En otras palabras: señores, sáquense los guantes, aquí no hay reglas. Unos 200 empleados de Facebook escribieron una carta de protesta muy fuerte, diciendo que eso no puede ser, que los avisos pagados no equivalen a discursos políticos. Pero él no reaccionó.

Pero también tiene un argumento atendible: si él decide qué mensaje puede circular y cuál no, es el nuevo emperador del mundo.

Sí, es un problema grande. Pero a ver, en la elección pasada corrió por Facebook un aviso que decía: “Mande un mensaje por WhatsApp al 188 para votar por Hillary Clinton”. Y hubo gente que mandó ese mensaje y no fue a votar. ¿Eso no lo va a censurar mientras lo paguen políticos? Él dice “ay, es muy difícil resolver eso, Facebook es muy grande”. Pero en 2012, cuando Facebook estaba por caerse, porque se perdió el negocio móvil, Zuckerberg dijo: “No voy a recibir a nadie en mi oficina que no me hable de tecnología móvil”. Y le tomó apenas un año cambiar la compañía por completo. O sea, si él quiere, lo puede arreglar. Pero, de nuevo, también es culpa de los gobiernos que no lo regulan. Alemania está regulando a Facebook, especialmente con los discursos de odio, y lo obligaron a reaccionar. Y en octubre pasado, la Corte Europea dijo que cualquier país europeo puede pedirle a Facebook borrar contenido a nivel global. Ahí hay una decisión que empieza a devolver el poder a los países. Pero los gobiernos todavía no la aprovechan.

Y otros gobiernos aprovechan precisamente la desregulación.

Bueno, ya sabemos de unos siete países cuyos gobiernos intervinieron con herramientas digitales en los procesos electorales de otros países, entre ellos Rusia, China, Irán y también Venezuela. Y que las fábricas de trolls de los rusos difunden sistemáticamente noticas falsas. El problema es que también puedes manipular sin mentiras. En Filipinas, la campaña de Duterte creó grupos de vecinos en redes sociales, supuestamente espontáneos, y cuando los grupos ya eran grandes empezaron a llenarlos de noticias sobre crímenes. Eran noticias reales, pero abajo, en los comentarios, ellos vinculaban los crímenes con el narcotráfico y así crearon una histeria completamente desproporcionada. Y terminaron eligiendo a un tipo que prometía matar a cualquiera que tenga que ver con drogas. Son cosas que también deberían tener en cuenta en Chile, ahora que tienen por delante elecciones tan importantes.

¿Lo han llamado alguna vez para asesorar campañas políticas en Chile?

Sí. Pero lo he rechazado inmediatamente.

Y según lo que alcanzó a percibir, ¿qué tan iniciados están en el uso político de estas tecnologías?

Son un poco naif todavía, pero eso no me tranquiliza, porque el comando de Trump no es tanto más sofisticado, solo que se junta con estas empresas. El otro día busqué las campañas políticas de Chile en Facebook Ad Library y por ahora no compran muchos comerciales en Facebook. Pero los medios ya han reportado que Piñera en 2017 contrató a una compañía chilena vinculada con Silicon Valley -y que recibió dineros de la Corfo- para tener perfiles de los votantes, así que es muy probable que ya estén contratando empresas especializadas. Lo más importante es que la gente esté informada y sea consciente de estas posibilidades, por eso doy este tipo de entrevistas.

¿Cree que hoy, en un país tecnologizado como Estados Unidos, se puede ganar una elección sin guerra sucia digital?

Es una muy buena discusión. Por ejemplo, en California sacaron una ley que prohíbe los deepfakes, los videos manipulados que pueden mostrar a un político diciendo cualquier cosa. Son muy peligrosos, porque ya se ha estudiado que eso no sale de tu memoria, aunque te digan después que era falso. En China los prohibieron hace tres semanas, te vas preso si inventas un deepfake sin avisar, aunque no sea político. California los prohibió para fines políticos. Y un grupo de demócratas propuso a la dirección del partido asumir una postura oficial: no vamos a usar deepfakes, ni bots, ni granjas de trolls, nosotros hacemos campaña limpia. Y el comando decidió que no pueden prometer eso. O sea, está claro: no hay guantes, es lucha libre. Y comparado con 2016, ahora ni siquiera tendremos supervisión del Estado, porque el señor a cargo de coordinar todos los servicios de inteligencia es un amigo de Trump que tiene una carrera como troll en Twitter.

En Chile, desde el 18 de octubre ha circulado mucha información falsa en las redes, de lado y lado, pero en general viene de gente que inventa cosas por su cuenta. O sea, la manipulación no viene solo desde arriba.

Por cierto. Como te decía, estas herramientas se descubren mucho por ensayo y error, no hace falta una gran conspiración. Pero también puedes hacerlo desde arriba sin que se note, lo que se llama astroturfing. En Estados Unidos, como la gente ya dice “está lleno de contenido falso, Facebook y Google nos lavan el cerebro”, dijeron: “Vayamos a los medios locales, que son más creíbles”. Hace dos años empezaron a crear miles de sitios web locales -les llaman pink slime- que reportan lo que pasa en tu barrio, pero se descubrió que son cadenas, porque usan la misma IP o usan los mismos servicios para monitorear su éxito. Y la gente que dejó confiar en lo global, en los grandes medios, empezó a seguirlos. ¡Y están totalmente manipulados! No, esto va a ser muy feo para las democracias. Y es triste, porque ya sabemos lo que puede pasar, pero no hay ninguna entidad gubernamental a cargo. Es como estar en el año 1932 y ver que algo se te viene encima, pero no tienes cómo pararlo. Eso es lo que a mí, especialmente como alemán, no me deja tranquilo.

Y de haber voluntad, ¿cuáles serían las soluciones?

Básicamente, hay cuatro vías posibles. O las tecnologías se autorregulan, o los gobiernos las regulan, o surgen nuevas tecnologías que reemplacen a las actuales, o surge gente nueva que nos reemplace a nosotros. Ninguna es muy fácil. De las tres primeras ya hablamos un poco. La cuarta es la que tiene más potencial a largo plazo, pero la más difícil.

¿Qué quiere decir con gente nueva?

Hay que asumir que la mente humana no es ningún rival para esta tecnología. Tú dices “no, ahora solo voy a ver un video en YouTube de cinco minutos y solo voy a chequear Facebook porque recién me llegó una notificación”. Y 40 minutos después, dices “¡chuta, qué pasó!”. ¿Y sabes qué pasó? Había un supercomputador apuntando a tu cerebro. ¡Tu cerebrito no tenía ninguna chance! Él te conoce, sabía exactamente por dónde agarrarte y te agarró. Yo he empezado a interesarme cada vez más en la pregunta por la conciencia, porque la cuestión es: ¿Los humanos somos algo más que máquinas de procesar información y traducirla en emociones y razonamientos? Si solo somos eso, estamos en problemas, porque procesando información ellos son exponencialmente mejores. Nuestras emociones nos sobrepasan, y nos autoidentificamos con nuestras ideas, vanidades y juicios. Entonces, si la humanidad quiere sobrevivir a estas tecnologías, tendrá que producir un salto de conciencia. Este no es solo un problema político o sociológico, es un desafío existencial. La evolución lleva apenas 100 mil años con nosotros, y si resulta que el sapiens no fue tan sapiens, porque con sus máquinas se autodestruyó, para la madre naturaleza no es problema: lo va a intentar otra vez. Cien mil años no son nada, los dinosaurios tenían 175 millones. Entonces, crear regulaciones y nuevas tecnologías son buenas soluciones inmediatas. Pero al final, si queremos coexistir con máquinas que van a pensar mejor que nosotros y nos van a conocer mejor, la humanidad tendrá que evolucionar hacia una forma de conciencia no apegada a procesos de información, sean biológicos o artificiales. Suena loco, pero creo que a ese momento crítico de la evolución humana nos estamos dirigiendo.

Comenta