Editorial

La necesaria regulación de la Inteligencia Artificial

Frente a la difusión sin control de imágenes o contenidos trucados con alto realismo, o el uso no consentido de imágenes y voz que incluso pueden ser utilizados para cometer delitos, es necesario avanzar en regulaciones más exhaustivas sobre IA, un desafío que también alcanza a Chile.

El reciente escándalo que se produjo a raíz de la generación de imágenes sexualizadas de niñas mediante Inteligencia Artificial (AI), abrió a nivel internacional un debate acerca de la necesidad de regular de manera mucho más efectiva estas tecnologías. Su capacidad para generar de manera instantánea imágenes, videos y sonidos con un nivel de fidelidad impresionante ha llevado a que muchos ya no logren distinguir cuándo se está frente a una imagen real, versus otra generada por IA. Algo similar ocurre en materia de contenidos: la IA es capaz de generar todo tipo de textos y documentos cuya redacción ya no es posible de ser distinguida de la de un humano.

Así, no hay duda de que la IA es la herramienta más revolucionaria de nuestro tiempo, con enormes ventajas para empresas y personas, pero a la vez también puede ser un arma para causar daño o manipular audiencias, lo que exige nuevas regulaciones que permitan minimizar estos riesgos. Aun cuando hay experiencias como la Online Safety Act del Reino Unido, o la legislación de la Unión Europa, es un hecho que en la mayor parte del mundo las legislaciones sobre IA están recién en fase de elaboración -es el caso de Chile- o rápidamente se ven superadas por fenómenos no previstos, y de allí que este aspecto debería ser un asunto prioritario en materia de políticas públicas.

Se estima que en 2025 circularon alrededor de ocho millones de “deepfakes”, un enorme volumen que desde luego pone de relieve uno de los peligros más evidentes que conlleva la IA mal utilizada, como es la desinformación. Los medios de comunicación tienen la capacidad de poder filtrar y discernir entre contenidos falsos y auténticos, gracias al chequeo y la experiencia en la elaboración de noticias. Pero ese rol de verificación no existe en las redes sociales, siendo un campo fértil para la difusión de contenidos manipulados. Con imágenes de enorme realismo, y dándole apariencia de verosimilitud a los contenidos, resulta sencillo predisponer a las audiencias y activar todo tipo de sesgos.

De momento no parece haber regulaciones que aseguren sanciones efectivas y desincentiven estas prácticas, pero debe ser motivo de especial preocupación que las personas en muchos casos ya no sepan si lo que están viendo es real o no, o si los contenidos que reciben por diversas plataformas son ciertos o no. Vivir en ese ambiente de desconfianza e incertidumbre, además de insoportable, causa un enorme daño a la sociedad. Una exigencia básica sería que todo aquel contenido generado por medio de IA sea debidamente transparentado al usuario, en forma clara, porque de ese modo al menos sabe a lo que se enfrenta, pero eso necesariamente debe ser acompañado por regulaciones mucho más estrictas.

Las personas hoy se enfrentan al dilema de lo que ocurre con su propia imagen e incluso su voz, que también pueden ser manipuladas mediante IA y difundidas o utilizadas sin ningún control. Entre los casos más dramáticos se cuentan aquellos donde imágenes de personas son trucadas para aparecer en situaciones que nunca han ocurrido -por ejemplo, posar desnudos- o en situaciones comprometedoras, algo impensado hasta hace solo un tiempo. Semejante práctica puede ocasionar graves daños reputacionales o secuelas psicológicas, un daño que sobre todo se amplifica cuando se trata de menores de edad. Un estudio en el que participó Unicef determinó que 1,2 millones de niños y niñas en 11 países han sido víctimas de manipulaciones de sus imágenes -con contenido sexual explícito- mediante “deepfakes”, lo que da cuenta de la magnitud del problema.

Los fraudes mediante el uso de la voz también van en aumento, gracias a que la IA puede imitar voces y ejecutar conversaciones con alto realismo. El caso más emblemático probablemente es el que ocurrió con la empresa Arup, una firma de ingeniería del Reino Unido que fue desfalcada en más de US$ 20 millones producto de que un ejecutivo creyó que su jefatura, a través de una videollamada, le estaba dando instrucciones para transferir estos recursos, cuando en realidad era una simulación mediante IA. Esto no solo implica que las empresas deben aumentar sus controles antifraude, también las propias personas, sino que además lleva a preguntarse por las eventuales implicancias penales de personas cuya voz o imagen son utilizadas para cometer delitos.

Dinamarca ha sido uno de los países pioneros en introducir legislaciones que buscan proteger la imagen de las personas. En tal sentido, hay un acuerdo político amplio para que las personas tengan el derecho de tomar acciones legales si su voz o imagen son utilizadas en “deepfakes”. La idea detrás de esta legislación es reconocer que las personas son las dueñas de su voz, imagen y rasgos faciales.

En el campo de las universidades hay un debate abierto hasta dónde se puede permitir el uso de la IA en las labores académicas, pero más aún cómo impedir el plagio. Ya es común que distintos planteles alrededor del mundo utilicen plataformas que permiten detectar plagios –esto se ha vuelto necesario considerando que algunos estudios muestran que más del 90% de los profesores no son capaces de detectar por sí mismos un plagio con IA, y ni siquiera los mismos lingüistas pueden a estas alturas discernir entre un texto elaborado por un humano versus otro de IA-, y aunque dichas herramientas se han sofisticado notablemente, sigue en pie el delicado tema de cómo evitar que alumnos o profesores que han hecho honestamente su trabajo sean sancionados si acaso la herramienta insiste en que hubo plagio. Tampoco puede obviarse el riesgo de que se estén formando profesionales que no dominen bien los conocimientos de su especialidad, apoyándose en la IA. Es una materia que también cabría explorar si requiere ser regulada, y no necesariamente dejarla entregada al criterio de cada universidad.

En nuestro país ya se discute un proyecto de ley que regula los sistemas de inteligencia artificial, pero no se hace cargo de una serie de consideraciones como las que se han expuesto aquí, de modo que siendo un primer paso, el desafío legislativo para 2026 es embarcarse en el debate de una regulación mucho más exhaustiva de la IA.

Más sobre:ImagenComunicacionesUniversidadesRegulación

Lo más leído

Plan Digital + LT Beneficios por 3 meses

Infórmate mejor y accede a beneficios exclusivos$6.990/mes SUSCRÍBETE