Columna de Danielle Zaror: Inteligencia artificial en el dominio militar



Hace unos días la Unión Europea (UE) aprobó su primera ley general de inteligencia artificial (IA). La tramitación de esta iniciativa ha sido seguida de cerca por una serie de países que miran a la UE como un modelo regulatorio a seguir.

La nueva ley general de IA de la UE propuso un marco de acción ambicioso, que tiene como eje el respeto de los derechos individuales a través de un sistema que tolera diversos niveles de riesgo, entre ellos, el riesgo mínimo, riesgo limitado, alto riesgo y riesgo inaceptable que está presente en aquellos casos en que se amenace la vida de las personas. En esta última materia, sin embargo, se ha excluido a las herramientas de IA militar. Lo anterior es una paradoja, pues, por un lado, la UE aparece como un modelo a seguir en materia de respeto a los derechos humanos en el entorno digital, pero, por otro, es el bloque que más ha invertido a través del Fondo Europeo de Defensa en el desarrollo de IA con fines militares, es decir, de aquellos que generan un riesgo inaceptable.

Y es justamente en el uso de la IA en el dominio militar donde la discusión escasea y, en consecuencia, hay menos niveles de acuerdo sobre lo que se debe hacer para regular su uso. En Naciones Unidas, la conversación sobre el uso de armas autónomas (AWS, por sus siglas en inglés) capaces de identificar y atacar un objetivo sin intervención humana, no ha avanzado como debería; la idea del nivel de control y transparencia que se debe tener sobre ellas ha sido bloqueada por los intereses de aquellos países que las desarrollan y de aquellos que las usan.

En efecto, a falta de reglas, las prácticas de la guerra han ido configurándose como las únicas reglas vigentes, y es así como el diseño de estas “herramientas” se vuelve significativo a la hora de evaluar las consecuencias “performativas” del instrumento. Dicho de otro modo, son las decisiones de diseño tomadas por expertos técnicos y los jerarcas corporativos las que definirán qué se hace y qué no en el dominio militar. Es más, hay voces que incluso señalan que son las empresas que desarrollan la IA las que deben establecer los límites de la industria y no los responsables políticos porque no hay forma que una persona ajena a la industria pueda entender lo que es posible. Valga recordar que gran parte de los desarrolladores de IA militar están en Estados Unidos, país que representa en muchos aspectos, un antagonista en términos regulatorios de la UE.

Chile, como muchos países del sur global, ha estado fuera de estas conversaciones a todo nivel (gobierno, sociedad civil, academia y sector privado) y es urgente comenzar a formar capital humano que conforme una masa crítica para los años que vienen. Configurar un bloque con una postura clara e independiente de los imperios digitales entrega una autonomía estratégica, la que se vuelve esencial en un mundo que se está llenando de conflictos, que tiene dos horrorosas guerras en curso y donde el uso de estas herramientas parece estar lejos de prohibirse.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.