Columna de Tomás Sánchez: Inteligencia artificial, más que detener, regular



En los últimos meses, hemos quedado asombrados con los últimos modelos de inteligencia artificial, y siguen integrándose nuevas aplicaciones a OpenAI. Por lo mismo, Elon Musk, Steve Wozniak y más de mil líderes tecnológicos llamaron a pausar el desarrollo para reflexionar y regular sobre los riesgos asociados.

Días después, un artículo de Eliezer Yudkowsky fue taxativo: debemos detener los desarrollos con el peso de la fuerza. Su argumento es que “hoy, nadie realmente sabe cómo funcionan estos modelos, por lo tanto, no sabemos cómo evolucionará su comportamiento, ni cuándo podría desalinearse de nuestros intereses”. Si aceptásemos esta tesis, hay que reconocer que es inviable. Necesitaríamos de la ONU, EE.UU. y China alineados en perseguir a quienes desafíen este mandato. Siendo realistas, solo queda regular en forma urgente.

La UE espera promulgar una legislación este año; la Casa Blanca tiene equipos estudiando riesgos económicos y sociales; Italia prohibió el uso de Chat GPT, y Alemania está interesado en crear ecosistemas soberanos. Esto es en serio. Lo complejo es que, para protegernos de los riesgos y aprovechar las oportunidades, las aristas son innumerables. Simplificando, abordaré tres.

Lo primero es reglamentar cómo los modelos deben ser desarrollados para minimizar riesgos; protocolos a seguir por las empresas y un monitoreo adecuado para tomar las acciones correctivas a tiempo. Esto es de una envergadura técnica enorme, y probablemente seguiremos los pasos de EE.UU. y Europa.

Segundo, debemos jerarquizar oportunidades y riesgos económicos y sociales. Tal como se regula el mercado financiero, considerando riesgos sistémicos, operacionales y directos, aquí sucede lo mismo. Necesitamos abordar las oportunidades por separado, distinguiendo industrias y niveles operativos. Diferenciar su aplicación en un gobierno corporativo, de los canales de atención del Estado o en una sala de clases.

Este ejercicio busca minimizar el impacto laboral, mientras no descartamos los avances en productividad. Tácticas e incentivos específicos en cada industria deben ser bien pensados para incrementar la productividad de cada empresa, sin un costo social pronunciado. Conscientes de que, en el largo plazo, diferenciaremos entre sociedades que supieron adoptar la inteligencia en forma virtuosa y aquellas que no.

Tercero, debemos tomar resguardos en seguridad y privacidad. Debemos pensar en esto con tres escenarios en mente: operación normal, crisis y desalineación. En el primero, el acceso a datos privados, su uso y gobernanza deben ser estrictamente monitoreados. A su vez, es necesario catalogar los riesgos según dónde se esté aplicando la IA, diferenciando, por ejemplo, con normas más estrictas su uso en salud que como asistente personal.

En el escenario de crisis, imaginemos que un algoritmo apuesta “todo” en la bolsa en contra de la acción de un banco, gatillando una crisis financiera mientras seguía su objetivo de rentabilidad; o, bien, que accede y comparte públicamente información clasificada, dado que encontró un “resquicio” en sus condiciones de borde, y, nuevamente, esto iba en línea con su mandato. ¿Cuál sería la respuesta y quién asume la responsabilidad legal?

Por último, no basta con regulación, es imperioso definir cortafuegos y planes de acción para cuando un algoritmo se desalinee de su mandato, presentando problemas de agencia.

Por Tomás Sánchez, autor de “Public Inc.”, investigador asociado, Horizontal

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.