Por Tamara AgnicDel dato al propósito

Las herramientas de inteligencia artificial (IA) se han instalado con fuerza en el mundo corporativo chileno. Según el índice de transformación digital de la Cámara de Comercio de Santiago (CCS) y PMG Chile, la adopción de IA en procesos de gestión se ha duplicado en los últimos años, especialmente en pymes y grandes empresas. La analítica avanzada de datos es ya parte de la nueva infraestructura de gestión, y su expansión parece imparable.
Sin embargo, este progreso plantea una pregunta fundamental: ¿sabemos realmente para qué usamos toda esa información?
Vivimos la era de los datos. Las organizaciones recopilan, procesan y analizan información a una velocidad sin precedentes. Pero el verdadero desafío no está en la capacidad tecnológica, sino en el sentido con que se usa. La relevancia de este fenómeno para el compliance radica justamente en su dimensión ética: en cómo definimos qué se mide, cómo se interpreta y con qué propósito se utiliza.
El riesgo es evidente. En muchos ámbitos, el compliance se ha transformado en un proceso automatizado: matrices de riesgo preprogramadas, alertas que nadie revisa con criterio, decisiones basadas en algoritmos que no entienden el contexto ni los valores detrás de una organización. Cumplir se vuelve una rutina mecánica, cuando el verdadero sentido del cumplimiento es precisamente lo contrario: hacer lo correcto, con conciencia y propósito.
No se trata solo de qué datos se utilizan, sino de qué valores guían su uso. La creciente preocupación global sobre los sesgos en sistemas de IA y los efectos de la automatización sin supervisión humana tiene un trasfondo ético profundo. Los algoritmos pueden replicar discriminaciones o injusticias invisibles, contrarias a los principios de integridad que el compliance busca promover.
Por eso, las organizaciones deben realizar evaluaciones éticas del uso de la analítica de datos, identificando riesgos y diseñando medidas correctivas que prioricen la ética por sobre la eficiencia. En procesos de selección, por ejemplo, los algoritmos pueden sesgar la contratación o la evaluación de desempeño si no se incorporan métricas de equidad o revisiones humanas. En el ámbito financiero, los sistemas de scoring pueden penalizar injustamente a ciertos grupos si no se detectan sesgos de origen. La automatización sin conciencia puede convertirse en una nueva forma de exclusión.
Hablar de gobernanza de datos es, por tanto, hablar de gobernanza ética. No basta con asegurar la calidad o la trazabilidad de la información: se requiere una cultura que integre principios de transparencia, equidad y sostenibilidad en todo el ciclo de decisión. Los comités de auditoría, compliance y sostenibilidad deben evolucionar desde la función de control hacia la de interpretación estratégica, capaces de conectar indicadores con propósito y métricas con sentido.
La IA no es enemiga de la ética, pero necesita un marco de integridad que la gobierne. Las herramientas pueden potenciar la transparencia y la rendición de cuentas si se usan con criterio humano, pero requieren educación, vigilancia y una formación ética a la altura de la transformación tecnológica que vivimos.
Ha llegado la hora de la formación en ética digital y tecnológica: una nueva competencia organizacional que complemente la integridad financiera y administrativa. Porque, al final, el desafío no es tener más datos, sino más conciencia sobre cómo los usamos.
En la era de los algoritmos, la integridad sigue siendo nuestro mejor sistema operativo.
*La autora de la columna es directora de empresas y socia de Eticolabora
COMENTARIOS
Para comentar este artículo debes ser suscriptor.
Lo Último
Lo más leído
1.
2.
4.















