Inteligencia artificial: ¿cómo proteger a los niños?

Inteligencia artificial: ¿cómo proteger a los niños?

Según una investigación compartida por Wired, revista estadounidense especializada en tecnología, en 2023 hubo un incremento del 54% en deepfakes pronográficos no consentidos




El diccionario de Cambridge define a los deepfakes como videos o grabaciones de sonido que reemplazan la cara o la voz de alguien con la de otra persona, de una manera que parece real. Y aunque todos alguna vez hemos reído con deepfakes, ¿qué pasa cuando los niños son los protagonistas?

En abril, un canadiense de 61 años fue condenado a más de 36 meses de prisión por crear, a través de deepfakes, videos falsos de pornografía infantil. El juez provincial Benoit Gagnon expresó su preocupación por el caso en la sentencia emitida ese mismo mes. “El uso de la tecnología deepfake en manos criminales es escalofriante. Este tipo de software permite cometer delitos que podrían implicar prácticamente a todos los niños de nuestras comunidades”, afirmó. “Un simple fragmento de video de un niño disponible en las redes sociales o un video de niños grabado en un lugar público, podría convertirlos en víctimas potenciales de pornografía infantil”.

En septiembre, un hombre fue condenado a dos años y medios de prisión por el mismo delito en Corea del Sur y, ese mismo mes en España, un grupo de madres de niñas entre 12 y 17 años denunciaron la creación de desnudos sin su consentimiento por parte de compañeros de curso. “El cerebro no distingue entre vivir algo, recordar algo, o imaginar algo”, dice Maribel Corcuera, psicóloga infantil. “Ver un video pornográfico con tu cara, es casi como si lo hubieses vivido (…) Que a un niño le ocurra algo así le va a marcar su personalidad e identidad, sin lugar a duda”.

Según una investigación compartida por Wired, revista estadounidense especializada en tecnología, en 2023 hubo un incremento del 54% en deepfakes pronográficos no consentidos. Un sondeo publicado por ActiveFence en un foro de la dark web también reveló cifras estremecedoras: un 80% de los 3.000 encuestados afirmaron que habían utilizado o tenían intención de usar herramientas de Inteligencia Artifical (IA) para crear imágenes de abusos sexuales a menores.

Andrés Bustamante, experto en inteligencia artificial y fundador de Authomata.io, advierte sobre la facilidad para crear videos o imágenes falsas. “Hoy es muy fácil hacer deepfakes (…) No requieres saber de tecnologías avanzadas, se puede aprender tan solo viendo tutorial en YouTube”, explica. “No solo van a haber adultos tratando de hacer videos de pornografía infantil, sino que también van a haber niños que se lo hagan a otros niños para molestarlos y que lo pasen mal”.

Bustamante deposita la responsabilidad en los padres para evitar este tipo de delitos. “Tienen que entender que es su responsabilidad limitar el internet”, afirma. “Deben enseñarles a sus hijos sobre ciber seguridad, es decir, explicarles que no deben hablar con desconocidos ni tampoco compartir su número, mail, contraseñas, dirección o datos personales. También tienen que ser cuidadosos con los enlaces y las descargas y por supuesto, que cuando hayan acosos en líneas sepan denunciar”.

Para lograr esto, Andrés propone trabajar desde la concientización: “Los niños deben entender la importancia de la privacidad y lo fácil que es hacer deepfakes. También deben ser conscientes de su huella digital, es decir, que todo lo que hagan en redes va a quedar guardado hasta que se sean más grandes. De esta manera, existe más autocontrol por parte de ellos”.

La psicóloga y el experto en inteligencia artificial concuerdan en que, si bien es importante que los niños sean conscientes de la existencia de los deepfakes, antes de comunicarle que sus fotos pueden ser utilizadas con fines sexuales, es importante que previamente haya una conversación sobre sexualidad. “Hay que tener un discurso claro, porque no puedes hablarle sobre deepfakes al mismo niño al que le hablas sobre la cigüeña”, dice Bustamante. “Cuando se entiende la sexualidad de una manera sana, uno puede llegar a explicar otras cosas como la pornografía infantil”, agrega Corcuera.

Inteligencia artifical en los colegios

“Si bien la herramienta puede proporcionar respuestas rápidas y fáciles a las preguntas, no desarrolla habilidades de pensamiento crítico y resolución de problemas, que son esenciales para el éxito académico y de por vida”. Así Jenna Lyle, subsecretaria de prensa de las escuelas públicas de Nueva York, comunicaba la prohibición del uso de Chat GPT en los establecimientos no privados.

Y es que su llegada no pasó desapercibida. Gracias a los inmensos volúmenes de información que Chat GPT posee, el modelo de inteligencia artificial se ha convertido en una guía. ¿Cuánto es 16x58? ¿Quién conquistó Chile? ¿Qué poema puedo dedicarle a mi mamá? ¿Cuál es la mejor manera para pedirle perdón a mi pareja? Chat GPT lo sabe todo.

Por esa misma razón, desde los establecimiento educacionales han visto con recelo su llegada; más que un aliado, parece ser una amenaza. Lejos de recolectar, analizar y sintetizar información, ahora los estudiantes tienen la posibilidad de recorrer un camino mucho más corto y fácil gracias al modelo de inteligencia artificial. ¿Cuál es el impacto que podría tener en el aprendizaje de los estudiantes?

“Absolutamente la capacidad analítica y crítica de los niños se va a ver afectada”, afirma Maribel Corcuera. “La mejor manera en la que aprende un ser humano es desde lo que lo emociona o desde que lo motiva positivamente y desde la práctica (…) Cuando la actividad te la dan hecha no se generan conexiones neuronales, es como ver televisión. Si le pido a Chat GPT que me explique las etapas de la revolución francesa, no es lo mismo que recolectar la información de aquí y de allá (…) Los niños no están aprendiendo a aprender, a crear, y a sintetizar. (…) Pero, por otro lado, la inteligencia artificial podría, por ejemplo, ser usada por los profesores para generar elementos didácticos súper interesantes para enseñar”.

Aunque los efectos de la inteligencia artificial son discutibles, lo innegable es que llegó para quedarse. “La inteligencia artificial, así como cualquier tecnología, es una herramienta y por lo mismo, finalmente siempre recae en la persona que la usa la responsabilidad de tener el criterio de darle un buen uso”, afirma Carlos Aspillaga, investigador de Cenia.

Corcuera enfatiza en la importancia de generar un balance y compensar su uso. “No se puede dejar a los niños fuera de la tecnología, eso es imposible. Lo importante no es que la usen, lo que importa es que no dejen de hacer cosas”. Por eso, Maribel recomienda que los niños realicen actividad física diaria, sociabilicen de manera presencial con sus amigos un par de veces a la semana y tengan tiempos de ocio sin celulares. También sugiere quitarles los aparatos electrónicos al menos una hora antes de dormir y poseer control parental para regular la cantidad de horas que pueden estar en redes sociales y las páginas web a las que pueden ingresar.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.