Cuando a Luciano Floridi lo invitaron a viajar a Chile para participar de una nueva versión del Festival Puerto de Ideas en Valparaíso, su mente inmediatamente viajó al pasado. Pensó en Adelqui Millar, un actor y director de cine mudo nacido en Concepción que emigró a Europa para desarrollar una carrera legendaria. Con una sutil internacionalización de su apellido, Migliar protagonizó películas mudas en Holanda, y cuando el cine sonoro irrumpió, supo adaptarse a la revolución. Convertido en director, Migliar trabajó en Joinville, Francia, donde los estudios Paramount establecieron una factoría para hacer filmes sonoros en español. Así dirigió quizás el más legendario, “Las luces de Buenos Aires”, en 1931, protagonizado por quien estaba destinado a la grandeza: Carlos Gardel. Años más tarde, Migliar trabajó con otra actriz argentina que alcanzaría la fama: Eva Duarte, que luego sería Eva Perón. “Adelqui es una de las figuras más fascinantes y a la vez desconocidas del cine chileno”, comenta Raúl Camargo, director del Festival de Cine de Valdivia, donde en 2020 se iba a rendir un homenaje póstumo a Millar, que fue cancelado por la pandemia.

Floridi escuchaba historias de este tipo en casa, porque Adelqui Migliar era su abuelo materno. De modo que aterrizar por primera vez en Chile hace un par de días fue una ocasión para saldar una pequeña deuda familiar. Ayer en la tarde, el renombrado filósofo italiano inauguró el Festival Puerto de Ideas Valparaíso con una charla titulada “El futuro de la democracia en la sociedad de la información”.

Entre sus muchas afiliaciones y atribuciones, Floridi dirige el Laboratorio de Ética Digital de la Universidad de Oxford, y es académico en varias otras universidades en Europa y Estados Unidos. Con el centro de su trabajo centrado en la filosofía de la información, la revolución digital se ha transformado en su hábitat intelectual natural. Y aunque, como es de imaginarse, Floridi se une al creciente coro de especialistas que advierte sobre los riesgos de la desinformación, el deterioro de la política y el mal uso de la Inteligencia Artificial, dista de ser un pesimista.

De hecho, tanto como el mal uso de la IA, le preocupa el riesgo de que sea subutilizada. Y por eso cree que desde la ética se pueden hacer aportes concretos, no para limitar desarrollos, sino para hacerlos posible. Por ejemplo, Floridi estuvo en el panel de ética del European Medical Information Framework, lanzado en 2013 con el objetivo de desarrollar soluciones técnicas y de gobernanza para mejorar el uso y acceso a la información de salud digitalizada para efectos de investigación, en gran medida valiéndose de Inteligencia Artificial.

Por eso, lamenta que gran parte del imaginario colectivo sobre la IA habite en fantasías apocalípticas prestadas de la ciencia ficción. Es, dice, una gran distracción. Como plantea en un video de su laboratorio en Oxford, “Robocop no viene”. Por mucho que su abuelo haya creado mundos en el cine con y sin sonido, Floridi no quiere perder tiempo con el mundo no real.

Inteligencia artificial. Foto: AP

“Es una gran distracción. Tenemos problemas serios. Imagina el impacto de la IA en, por ejemplo, el agua limpia. ¿Tenemos o no sistemas inteligentes, manejados por humanos, para proveer agua limpia a 800 millones de personas cada día. Esos son los que no tienen agua limpia. O imagina el mercado laboral, o los impuestos. En cualquier país. ¿Quieres tener una mejor distribución de los impuestos? Bueno, la IA puede estar ahí como un problema o como una solución. O selección de postulantes. ¿Problema o solución? Son asuntos grandes, éticos, políticos, sociales. Entonces, dejemos de preguntarnos tonteras, como si Robocop es posible o cosas así. O si la IA se va a robar mi trabajo. Pero es lo que se destaca en la mala prensa porque vende. Si te digo “mira hay grandes problemas, son aburridos, tienes que trabajar mucho para entender algo”. Oh no. Pero si te digo “Mañana se acaba el mundo!”, entonces empiezas a prestar atención. Bueno, no es el fin del mundo pero podría significar que tendremos muchos problemas si no lo pensamos con mucho cuidado, ahora.

Quizás la principal advertencia de Floridi está antes del uso de tal o cual tecnología, sino que en todo el mundo no existen todavía suficientes acuerdos, visiones compartidas que permitan desarrollar marcos de acción. Y eso pasa por ciertas definiciones fundamentales.

Lo tuyo, lo mío y lo nuestro

Usted ha planteado que el problema de privacidad no debe abordarse como un tema de “propiedad” de los datos, no como un problema económico, sino como parte esencial de nuestra identidad.

Esta es una idea que espero que madure y se entienda. En el pasado el problema de la privacidad era simplificado pensando “ok, tengo mi data, mi información, quiero dárselo a alguien, quizás pueda pagar por eso”. O “no quiero venderlo a nadie, sólo quiero compartirla. O sea “mi data”, “mi información”, “mi espacio”, “mi casa”. Y por lo tanto cualquier vulneración era invasión de propiedad: vienes a mi casa sin autorización. Esa es una manera muy economicista, y me atrevería a decir, muy estadounidense.. Pero hay otro modelo, más europeo, que mira “mi información” no como algo que me pertenece, como mi casa, sino como algo que me hace ser quien soy. Imagina que digo “mi mano”. No es que sea propietario de mi mano, la mano es parte de mi, no te la puedes llevar. Hay una diferencia. Entonces cuando digo “mi data” tengo que interpretarlo más como “mi identidad, qué me hace ser quien soy”. Obviamente hay cosas irrelevantes: qué comí esta mañana al desayuno. Pero por ejemplo mis preferencias políticas, o mi orientación de género, o incluso cosas que sólo quiero compartir con mi esposa y nadie más, aunque sea una broma tonta. Mucha información es privada en ese sentido, es para mi disfrute, no para compartir con los demás, porque es parte mía, es lo que me constituye. Por ejemplo recuerdos, o fotos que me recuerdan experiencias, varía mucho. Entonces cuando pensamos en proteger la privacidad, normalmente pensamos en qué es bueno para todos, pero luego cada uno de nosotros tiene su propia esfera privada. Y estoy en contra de la visión de que la puedes vender, poner en el mercado. Además, trato de explicarle a cualquiera que dice “deberían pagar por mi data”, de que si le fueran a pagar sería un dólar al año. A lo más. No es que estés sentado en miles de dólares de valor. A nadie le importa. Van a valorar mi data en el mismo sentido en que valoran un grano de arena en la playa. Quieres la playa, no el grano de arena. La privacidad como propiedad, un valor económico, algo que puedo monetizar, no creo que esa sea la manera correcta de abordarlo.

FILE - The Twitter splash page is seen on a digital device, Monday, April 25, 2022, in San Diego. Twitter is once again adding gray “official” labels to some prominent accounts, Thursday, Nov. 10. The company, in its second chaotic week after billionaire Elon Musk took over, had rolled out the labels earlier this week, only to kill them a few hours later. (AP Photo/Gregory Bull)

No es sólo un asunto personal, sino global. ¿Qué tan relevante entonces es ponerse de acuerdo en algunos puntos clave al abordar este aspecto, para acordar cierto margen de trabajo?

Es crucial. Los consensos, los acuerdos en torno al buen uso está tornándose en algo más urgente, porque este problema -como muchos, basta mirar lo que pasa con el medioambiente- no es algo que podamos resolver individualmente. El ejemplo que uso es el de un auto que no arranca. Necesitas cinco personas: cuatro empujando y uno manejando. Pero necesitan coordinarse,. Si yo voy, empujo y vuelvo a mi casa, sería idiota pensar que he cumplido mi deber, Fui, empujé, volví a casa. Pero ¿empujé con los demás? ¿había alguien manejando? No. Lo que necesito hacer es asegurarme de que lo hagamos al mismo tiempo. Lo que trato de comunicar es que hay un umbral por debajo el cual el esfuerzo individual no es mejor que nada; es nada. Llegar a acuerdos en esto es esencial.

¿Cuáles son los problemas más urgentes de los que hacerse cargo?

Lo que más me preocupa -espero que no sea muy filosófico- es el problema anterior: coordinación. Luego, cualquier problema que tengamos, como el mal uso de la Inteligencia Artificial, o su subutilización, o el uso de plataformas para afectar la política de mala manera, o lo que vemos en Twitter. Todos estos problemas, si tenemos coordinación, en términos de acciones a nivel internacional, ahí tenemos la posibilidad de hacernos cargo.

Hablábamos del concepto de privacidad. ¿Qué otros conceptos cree que deberían reconsiderarse en la era de la Inteligencia Artificial?

Te daré un par de ejemplos. Tenemos una buena historia de conceptos que han hecho una gran cantidad de trabajo en el pasado. Buenos conceptos, como “democracia”, por ejemplo. Pero, como sugieres en tu pregunta, necesitamos dar vuelta la página. En la segunda parte del siglo XX construimos algunas democracias liberales muy decentes en todo el mundo. Y hemos progresado. Creo que debemos elaborar sobre eso, mejorar, actualizar. Debemos construir una nueva sociedad para este nuevo mundo digital. Déjame darte un par de ejemplos. Democracia y la administración de la sociedad: venimos de una tradición que piensa en términos de objetos. Típica expresión es la Res Publica, la cosa pública. Eso es lo que administramos. Hoy no tenemos que estar tan preocupados de “cosas”, de “objetos”, sino mucho más de procesos, relaciones, que hacen que las cosas sean lo que sean. Pasar de la Res Publica a la Ratio Publica, la relación pública que nos mantiene unidos. Pensar no en ciudadanos sino en ciudadanía. El problema, por ejemplo, con los migrantes se transforma en una cuestión de “¿pueden participar en la ciudadanía?” en lugar de “tú eres un ciudadano, tú no eres ciudadano; tú eres una cosa, tú eres otra cosa”. No. Es una red en la cual algunos nuevos miembros pueden unirse, o no, pero son parte de una red. Por ponerlo en términos más generales, necesitamos pasar, en términos del pensamiento político, del mecanismo a las redes. Pasar de pensar que cada uno es una entidad por sí sola y luego nos juntamos, pensar que hay ciudadanos, y luego familias, y luego sociedad, y luego política. Esa es una manera antigua, del siglo XX, de pensar en términos de mecanismo, que no nos habilita para pensar en los cambios de hoy. Hoy tienes que pensar en términos de redes, donde por ejemplo el Estado es una interfaz. La administración pública es la interfaz entre mí, el individuo, y el resto de la red. Cuando te quejas de la administración pública te quejas de una interfaz que no está funcionando. No está entregando los servicios, no te está habilitando para interactuar con el resto del sistema. Empiezas a pensar de esta manera, en la democracia como una red, Ratio Publica, y entonces tienes una oportunidad de resolver problemas. El mecanismo te trata como piezas de un motor en un gran mecanismo y el individuo no está empoderado, está en el fondo de este enorme mecanismo. Necesitamos evolucionar en nuestro vocabulario político y nuestra manera de pensar, luego tenemos una oportunidad de entender los problemas y ahí podemos hacernos cargo. De otro modo el riesgo es no entender lo que está pasando.

¿Cree que debemos sacar lecciones al ver la historia de Elon Musk controlando Twitter?

Creo que es no es una historia buena; hay mucho que aprender de ella, no estoy seguro de que lo haremos. Porque la gente que debería aprender son los estadounidenses. Y no parecen ser suficientemente cuidadosos. Permitir ese tipo de acumulación de poder, riqueza e influencia en un individuo particular -hoy es Musk, ayer era otro, mañana será otro- es siempre riesgoso. Es malo para la democracia, es malo para la justicia social, es malo para la información balanceada y confiable. La esencia de la democracia es una competencia sana, legal, confiable para mejorar las cosas. De manera que siempre tengamos al menos dos fuentes de información, al menos dos Twitter, al menos dos Facebook, al menos dos Google. No está sucediendo. Esta concentración de poder, basada en un círculo de individuos, a veces un individuo como Elon Musk, es tremendamente peligroso. No estoy diciendo que vaya a ser un desastre, quizás todo ande bien, pero es un poco como tener los dedos cruzados: esperamos que resulte bien. Pero las buenas políticas no se basan en lo que se espera, en los dedos cruzados. Si hay algo que realmente debería cambiar en la cultura estadounidense es esta idea de que algunos monopolios están bien.

Se reportó de hecho que Musk despidió a un equipo que se dedicaba a la ética de Inteligencia Artificial en Twitter...

Es una mala señal, porque algo que nos preocupa a todos es que Twitter, que es una herramienta que pierde dinero pero es poderosa políticamente, caiga en malas manos. Y con malas manos me refiero por ejemplo a alguien que cree que hay sólo un derecho y ese derecho es la libertad de expresión. Por supuesto no hay nada malo con ella, pero en las democracias reales uno sabe que también hay otros derechos, y esos derechos necesitan una negociación. Toda la desinformación, la propaganda, la intoxicación del discurso, eso es lo que enfrentamos como un gran riesgo. Ojalá, crucemos los dedos, que eso no pase. Pero como dije, tener los dedos cruzados no es una política.

Puerto de Ideas: “La encrucijada ética entre robots y algoritmos”. Luciano Floridi y Massimo Turatto. Domingo 13 de noviembre, 12.30 hrs. Aula Magna de la Universidad de Valparaíso.