Columna de Rafael Rincón-Urdaneta: Lecciones para navegar en la era de la Inteligencia Artificial

Inteligencia Artificial


Si espera leer aquí lo de siempre —adaptarse, reinventarse, un nuevo mindset, abrazar el cambio, resiliencia y tal—, le adelanto que no es lo que hay. No aportaría mucho más en esa línea. Y aunque tales consejos algo o bastante acierten, pueden quedarse cortos en el momento que está modelando el vertiginoso desarrollo de la inteligencia artificial (IA).

En sintonía con mi columna anterior, no tengo idea de lo que viene. Ni los genios del rubro lo saben a ciencia cierta. Apenas distingo, entre preguntas y esperanza, posibles escenarios futuros. No por gurú, claro, sino porque leo y escucho a los que sí saben… y los que sí saben —algunos— están preocupados. Entienden que una IA mucho más poderosa puede traernos beneficios increíbles —ya lo ha demostrado— y al mismo tiempo serios enredos si no la gobernamos con sabiduría. La buena noticia es que los científicos están trabajando en domesticar a la “bestia” para asegurar que los riesgos sean manejables. La pregunta para nosotros los mortales, desde nuestras modestas posiciones de liderazgo, es ¿qué toca hacer? Planteo, de momento, tres cosas nada nuevas; lecciones de la vida y la historia que vale recordar. Tres cosas —ahora sí— del mindset del líder estratégico que nos ayudarán en la era de la IA.

La primera es asumir en serio el compromiso ético. Aunque Harari dice que por primera vez hemos creado algo que nos quita poder, la verdad es que también nos da bastante. Explica que el uso de la IA con fines dañinos podría servir a dictadores: “Un nuevo régimen en el siglo XXI tendrá herramientas mucho más poderosas. Así que las consecuencias podrían ser mucho más desastrosas. Es algo a lo que no sé si la humanidad podrá sobrevivir”.

Geoffrey Hinton, el “padrino de la IA”, dijo recientemente temer que las tecnologías en el futuro amenacen a la humanidad. Que, digamos, se desarrollen armas verdaderamente autónomas como “robots asesinos”. Imaginemos —y el ejemplo es suyo— que un tirano belicoso da a soldados robots la capacidad de crear sus propios subobjetivos. Es decir que, para llegar al aeropuerto, pueden configurar el subobjetivo de conseguir un taxi… y así llamar a un Uber (!). ¿No podrían también crear subobjetivos como “necesito obtener más poder” para lograr mejor sus fines?. Dato: Paul Scharre trata muy bien las armas autónomas y la competencia geopolítica de la IA en sus libros Army of None y Four Battlegrounds.

¿Qué tiene que ver esto con “nuestras modestas posiciones de liderazgo”? Pues usted y yo ya tenemos a mano recursos suficientes para fastidiar al mundo. Podemos, por ejemplo, crear noticias falsas y sofisticadas manipulaciones audiovisuales y esparcirlas intencional o inocentemente. ¿Qué tal pedirle a MidJourney, una herramienta para crear imágenes con IA, mostrar a Donald Trump siendo arrestado o al Papa, muy a la moda, envuelto en un abrigo reñido con la estética eclesiástica? Como esto ya sucedió, Midjourney anunció el fin de las pruebas gratuitas tras la polémica por las fotos falsas de Su Santidad y del expresidente estadounidense. ¿No podríamos, con nuestras empresas, organizaciones o partidos, ocasionar daños de variadas magnitudes usando algoritmos adictivos con propósitos turbios o engañando a millones? Los escenarios catastrofistas no tienen por qué ser inevitables; para eso el superpoder de la IA exige una “superresponsabilidad” y eso que Natan Sharansky llama “claridad moral”.

Segundo: juicio. Entre las acepciones de la Real Academia Española, el juicio es nuestra facultad humana para distinguir el bien del mal y lo verdadero de lo falso, «estado de sana razón opuesto a locura o delirio» y «cordura o sensatez». Apartando lo de perder la cabeza y las consideraciones éticas y morales ya referidas, vemos una clara demanda de conocimiento y uso de la razón. Esto no es obvio hoy, cuando se oye que la razón no es lo importante sino la empatía o las emociones. O que el conocimiento está en Google, por lo que perdemos tiempo aprendiendo lo que «ya encontramos en internet».

Brynjolfsson y McAfee, en The Second Machine Age (2014), explican que la Revolución Industrial, de la primera era de las máquinas, nos permitió superar las limitaciones de la fuerza muscular (humana y animal) y generar cantidades masivas de energía. Pero, en esta segunda era, las computadoras y otros avances digitales están haciendo por el «poder mental» —la capacidad de usar nuestros cerebros para comprender y dar forma a nuestros entornos— lo que la máquina de vapor y sus descendientes hicieron por el muscular. Sospecho que más.

Nuestro potencial actual para buscar, procesar, compartir y usar datos e información es descomunal. Pero para convertir eso en conocimiento valioso no bastan los clics. Se necesita saber… mentes preparadas y con sabiduría para buscar, filtrar, contextualizar, interpretar, aplicar, apreciar, crear valor, etcétera. El filósofo español Gregorio Luri, entusiasta del “conocimiento poderoso” y de la buena educación, insiste en no abandonarlos por nada del mundo. Y en El capitalismo cognitivo recuerda que la “élite cognitiva” es un hecho inevitable. Obedece a cierta metamorfosis del capitalismo, que estaría dejando de ser material (mercantilista e industrial) para pasar a ser inmaterial (cognitivo). El autor plantea diez tesis que merecen una lectura detenida, pero destaco la importancia del capital intelectual, la acumulación de conocimiento y las STEM (Science, Technology, Engineering and Mathematics). No veo cómo los tomadores de decisiones y líderes estratégicos sobrevivirían sin suficientes conocimiento, juicio, criterio, razón y capacidad de análisis para sacar el mayor provecho de la tecnología, cuya principal función es amplificar las capacidades humanas, no reemplazarnos. Ni hablar del aprendizaje permanente y del pensamiento estratégico.

Finalmente, la visión. Decía Jonathan Swift que es el arte de ver lo invisible para otros. Es pensar y proyectar con cierta claridad, dentro de lo humanamente factible, el futuro con imaginación y sabiduría. El buen líder estratégico es visionario, no adivino. No hace clic en el touchscreen de su bola de cristal para que los datos y la IA hablen, pero tiene capacidad para comprender el pasado y el presente, las tendencias, la naturaleza humana y esbozar futuros posibles —subráyense las eses del plural porque son probabilidades, no una certeza—. Así toma decisiones (a veces erradas), identifica oportunidades y amenazas y piensa en soluciones. Si un visionario no sabe lo que sucederá en tiempos de IA, sí posee conocimiento para comprender qué pasa y qué podría pasar. No se es visionario en la ignorancia. Las tecnologías exponenciales —véase Ley de Moore— ya demostraron que no entenderlas y subestimarlas puede ser fatal. Y lo que vemos con la IA o la computación cuántica, por ejemplo, ya desafía a los más clarividentes.

Suelo añadir un cuarto elemento: la actitud. Listemos aquí el coraje, la resiliencia, la originalidad y esas cosas. Pero será otro día. Hoy quería sólo defender la idea de que el liderazgo estratégico no es una cuestión de pura acción, cartas Gantt o eslóganes. Es un increíble desafío ético e intelectual que la IA, por cierto, también está poniendo a prueba. En tiempos de inteligencia artificial, los valores y la inteligencia natural de los mejores tendrán la última palabra.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.