Columna de Ricardo Seguel: La pausa responsable que exige la IA

descarga (3)



Recientemente, un grupo de expertos en inteligencia artificial (IA) y ejecutivos de la industria tecnológica pidieron una pausa de seis meses en el entrenamiento de los poderosos sistemas de IA, argumentando que se trata de una potencial amenaza para la humanidad.

La declaración toma importancia, porque la realizan personas que han estado involucradas en el desarrollo de la inteligencia artificial y están entre los más visionarios de la tecnología en los últimos 40 años. Es muy relevante comprender que es un llamado de preocupación ante el avance del uso sin control de la inteligencia artificial y la burbuja que se está generando sobre ella. La opinión pública debe comprender los alcances y limitaciones de la inteligencia artificial, la cual puede ser entrenada y utilizada con sesgos ideológicos, y con fines no éticos ni morales. Las personas deben conocer que puede ser utilizada para fines que ayuden a la humanidad, pero también como un arma para destruir o para influir en las decisiones de las personas.

Coincido en que la propuesta no es pausar el avance tecnológico, sino regular su uso. Con la capacidad de cómputo casi ilimitado que hoy está disponible en la nube, las compañías tecnológicas más grandes del mundo o aquellos países con gobiernos en una carrera armamentista podrían hacer uso indiscriminado del entrenamiento de componentes de inteligencia artificial para sacar provecho para sus propios fines; por lo que es tremendamente importante que los líderes tecnológicos mundiales acuerden un uso ético. De lo contrario, los países y las organizaciones de Estados deberán intervenir con una regulación que limite su mal uso.

No hay riesgo en pausar el entrenamiento de la IA; el riesgo es no regular que ese entrenamiento se realice con data sintética, errónea y sin haber sido validada su veracidad. El riesgo de utilizar ese tipo de data y modelos sesgados de inteligencia es bastante crítico para que las personas las utilicen creyendo que no hay error y por tanto ser engañadas con fines políticos, sociales, de salud pública, de educación, entre otros, que incluso afecten la seguridad de un país.

Fiscalizar este tipo de progreso digital es muy difícil. Por eso, el llamado es a que los compañías y Estados que tienen la tecnología y capacidad de cómputo para entrenar la inteligencia artificial regulen que su uso no sea indiscriminado, sino más bien que haya un marco ético y con alcances morales. La gran mayoría de las empresas, instituciones públicas y países que no tienen esta capacidad tecnológica para desarrollar IA serán sus principales usuarios y los que potencialmente se podrían ver afectados por la intención y sesgo con el cual fueron creadas.

Aún queda mucho por hacer para continuar desarrollando la inteligencia artificial. La academia debería tomar un rol de abogar por el buen uso de ella y generar marcos y guías que limiten la ética de los algoritmos y modelos de entrenamiento. En países subdesarrollados como el nuestro, es importante que se enseñe al público en general de los beneficios, riesgos e impactos que tiene el uso de la IA en nuestras labores diarias. La inteligencia artificial no va a conquistar el mundo, aquellos que tienen la capacidad de cómputo ilimitada hoy podrían hacerlo utilizándola para sus propios fines.

Por Ricardo Seguel, director ejecutivo Startup School UAI y académico de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.