
Imaginación moral y ética del riesgo ante la IA

Vivimos una época de vértigo. La aceleración tecnológica y en particular el despliegue vertiginoso de la inteligencia artificial (IA), nos obliga a pensar no solo en lo que esta tecnología puede hacer, sino en lo que nos hace como sociedad. Recientemente, en el seminario “El futuro que no logramos ver”, organizado en el marco de los 75 años de La Tercera, discutimos justamente esto: los desafíos de la IA no se reducen a su eficiencia técnica, sino a cómo redistribuye poder, responsabilidades y vulnerabilidades en nuestras vidas.
Hasta ahora, gran parte de la ética de la IA ha sido reactiva: llega tarde, cuando los daños ya se han materializado y los riesgos se vuelven evidentes. Pero frente a un futuro incierto y cambiante, este enfoque es insuficiente. Necesitamos un cambio de paradigma: pasar de la ética que juzga hechos consumados a una ética que se atreva a anticipar y a imaginar y que sea capaz de orientar las decisiones antes de que los problemas estallen.
Aquí entra en juego un concepto fundamental: la imaginación moral. Lejos de ser un ejercicio de fantasía, es una práctica de responsabilidad. Como recuerda Martha Nussbaum, significa colocarse en el lugar de otros, los que están, los que estarán, los que aún no existen, y ensayar mentalmente las consecuencias de nuestras decisiones. Implica pensar en comunidades futuras, en generaciones por venir, en ecosistemas tecnológicos que aún no conocemos. No es literatura especulativa: es ética en acción.
Pero esta imaginación necesita herramientas para aterrizarse en lo concreto. Ahí aparece la metodología de escenarios futuros. No se trata de hacer predicciones lineales ni de apostar por “el” futuro más probable, sino de abrir un abanico de futuros plausibles y ponerlos sobre la mesa. Escribir narrativas, explorar incertidumbres críticas, detectar señales tempranas. El valor no está en adivinar o predecir el porvenir, sino en preparar a nuestras instituciones, empresas y comunidades para navegar bajo condiciones de incertidumbre extrema.
A esto se suma la ética del riesgo, que nos obliga a hacernos preguntas incómodas: ¿qué riesgos son aceptables y para quién?, ¿quién decide en un contexto de desigualdad estructural? Estas no son sólo cuestiones técnicas, sino políticas y morales. Y responderlas exige deliberación democrática, no algoritmos diseñados entre cuatro paredes.
La conjunción entre imaginación moral, escenarios futuros y ética del riesgo nos ofrece un horizonte distinto: uno en el que la IA deja de ser vista como un mero producto tecnológico para ser reconocida como un fenómeno profundamente sociotécnico. Cada algoritmo encarna una visión de mundo, reparte responsabilidades y configura futuros.
Por eso, lo verdaderamente innovador no será crear máquinas más autónomas, sino cultivar instituciones, culturas organizacionales y marcos normativos capaces de anticipar riesgos, distribuir responsabilidades con justicia y ejercitar una imaginación moral colectiva. Solo así podremos mirar de frente “ese futuro que no logramos ver” y atrevernos, con lucidez, a configurarlo en vez de temerlo.
Por Gabriela Arriagada Bruneau, profesora Asistente, Instituto de Éticas Aplicadas UC e Instituto de Ingeniería Matemática y Computacional UC
COMENTARIOS
Para comentar este artículo debes ser suscriptor.
Lo Último
Lo más leído
2.
3.
⚡ Cyber LT: participa por un viaje a Buenos Aires ✈️
Plan digital +LT Beneficios$1.200/mes SUSCRÍBETE