Por María Paz HermosillaCuando el algoritmo decide, la transparencia no es opcional

Hoy, un número creciente de decisiones públicas relevantes —desde la asignación de beneficios hasta la priorización de atenciones o la detección de enfermedades— se apoya en sistemas automatizados. Sin embargo, pese a su impacto directo en la vida de las personas, estos algoritmos suelen operar con escasa visibilidad pública. No se trata de una hipótesis futurista, sino de una constatación empírica.
Durante los últimos cinco años, el Repositorio Algoritmos Públicos, desarrollado por el GobLab de la Escuela de Gobierno Universidad Adolfo Ibáñez, ha cumplido una función clave: hacer visible lo que el propio Estado no sistematiza. Gracias a un monitoreo continuo de fuentes públicas, hoy sabemos que el uso de algoritmos en el sector público chileno ha crecido de manera sostenida, pero también que la información disponible sobre ellos sigue siendo fragmentada, superficial y, en muchos casos, inexistente.
Esta experiencia es reveladora por dos razones. Primero, demuestra que la automatización ya es parte estructural de la acción estatal, no una etapa experimental. Segundo, evidencia que confiar exclusivamente en recomendaciones, guías voluntarias o buenas intenciones institucionales no ha sido suficiente para asegurar transparencia significativa. Aun cuando existen herramientas y estándares técnicos disponibles, su adopción sigue siendo excepcional.
Chile ha avanzado en modernización digital y pronto contará con una nueva Ley de Protección de Datos Personales que eleva los deberes de información y explicabilidad respecto de decisiones automatizadas. Sin embargo, estos avances no reemplazan la necesidad de una obligación clara y transversal de transparencia algorítmica, especialmente desde la lógica del derecho de acceso a la información pública.
Es urgente avanzar en una reforma a la Ley de Transparencia. Incorporar de manera explícita la publicidad activa de los sistemas de decisiones automatizadas permitiría transformar aprendizajes acumulados —como los que ha generado el Repositorio— en un estándar institucional. No se trata de exigir la apertura irrestricta del código, sino de garantizar información comprensible, relevante y proporcional a los riesgos, bajo la supervisión de un órgano garante como el Consejo para la Transparencia.
La pregunta ya no es si el Estado debe usar algoritmos. Esa discusión quedó atrás. La pregunta urgente es bajo qué reglas, con qué niveles de escrutinio y con qué garantías para las personas. En un Estado de derecho, ninguna decisión pública que afecte significativamente a la ciudadanía debería quedar fuera de la luz pública, aun —o especialmente— cuando la toma una máquina.
Por María Paz Hermosilla, directora del GobLab, Escuela de Gobierno UAI
COMENTARIOS
Para comentar este artículo debes ser suscriptor.
Lo Último
Lo más leído
Casi nadie tiene claro qué es un modelo generativo. El resto lo leyó en La Tercera
Plan Digital + LT Beneficios$6.990 al mes SUSCRÍBETE












