Facebook admite que su sistema de inteligencia artificial falló en detectar videos del atentado terrorista en Nueva Zelandia

Facebook-Local News
AP

El ataque fue retransmitida en directo en la función de video en vivo de la plataforma y fue vista unas 4.000 veces antes de que Facebook retirase la imagen por primera vez.


La multinacional estadounidense Facebook admitió este jueves que su sistema de inteligencia artificial para detectar contenido no permitido en la red social "no es perfecto" y que falló a la hora de reconocer el vídeo del atentado terrorista del viernes en Nueva Zelandia, que causó 50 muertos en dos mezquitas.

La acción fue retransmitida en directo en la función de video en vivo de la plataforma y fue vista unas 4.000 veces antes de que Facebook retirase la imagen por primera vez, aunque posteriormente hubo internautas que intentaron, con éxito o no, volver a colgar el video más de un millón de veces.

En una entrada en el blog de la compañía, el vicepresidente de gestión de producto de Facebook, Guy Rosen, explicó que, aunque la inteligencia artificial ha logrado un "progreso masivo en muchas áreas en los últimos años" que les permite ser "proactivos" en la detección de contenidos, el sistema "no es perfecto".

"La inteligencia artificial se basa en datos de entrenamiento, lo que significa que necesita miles de ejemplos de contenido para que pueda detectar ciertos tipos de texto, imágenes o vídeos", apuntó Rosen, quien explicó que fue por eso por lo que en el caso de la retransmisión en directo del atentado, el sistema no funcionó.

"Necesitamos proveer a nuestros sistemas de grandes volúmenes de datos, algo que resulta difícil puesto que, afortunadamente, este tipo de sucesos no son habituales", indicó el vicepresidente de la empresa, quien aseguró que la inteligencia artificial sí funciona en los casos de la desnudez, la propaganda terrorista y la violencia gráfica.

Rosen también apuntó al "reto" que supone discernir entre contenidos como el del atentado y otros "visualmente similares, pero inocuos", como por ejemplo las retransmisiones en directo de partidas de videojuegos en los que el protagonista dispara contra personas.

Además de Facebook, el portal de videos propiedad de Alphabet (matriz de Google) Youtube también indicó esta semana haber retirado "decenas de miles" de videos del ataque en su plataforma y aseguró que lo ocurrido "no tiene precedentes" en la plataforma "tanto por su escala como por su rapidez".

La primera ministra neozelandesa, Jacinda Ardern, anunció hoy la prohibición de las armas militares semiautomáticas y rifles de asalto, con algunas excepciones, como respuesta al atentado presuntamente perpetrado por el australiano Brenton Tarrant, quien utilizó dos armas semiautomáticas modificadas en su ataque.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.