Twitter es "tóxico para las mujeres" según Amnistía Internacional

TWITTER019-1023x573

Cerca del 7% de los tuits que reciben mujeres destacadas en puestos gubernamentales y el periodismo fueron considerados abusivos o problemáticos según un estudio de esta organización.


Las mujeres llevan años diciéndole a Twitter que reciben muchos insultos en esa plataforma. Un nuevo estudio de Amnistía Internacional, el organismo defensor de los derechos humanos, trata de evaluar hasta qué punto.

Resulta que son muchos. Cerca del 7% de los tuits que reciben mujeres destacadas en puestos gubernamentales y el periodismo fueron considerados abusivos o problemáticos. Las mujeres de color eran 34% más propensas a recibir ataques que las blancas. Más específicamente, las mujeres negras fueron 84% más propensas que las blancas a ser mencionadas en tuits problemáticos.

Después de un análisis que finalmente incluyó casi 15 millones de tuits, Amnistía Internacional publicó las conclusiones y, en su informe, describió a Twitter como un "lugar tóxico para las mujeres". La organización, quizás más conocida por sus iniciativas para liberar a los presos políticos internacionales, ha comenzado a prestar atención a las empresas de tecnología e instó a la red social a "poner a disposición datos significativos y completos sobre la magnitud y la naturaleza del abuso en su plataforma y sobre la manera en que lo está abordando".

"Twitter se ha comprometido públicamente a mejorar la salud colectiva, la apertura y la cortesía de la conversación pública en nuestro servicio", dijo Vijaya Gadde, jefa de asuntos legales, políticas y confianza y seguridad de Twitter, en una declaración en respuesta al informe. "La salud de Twitter se mide por la manera en que ayudamos a fomentar un debate, conversaciones y un pensamiento crítico más sanos. Por el contrario, los insultos, la automatización maliciosa y la manipulación restan valor a la salud de Twitter. Estamos comprometidos a responsabilizarnos públicamente por el progreso en este sentido".

Patrullaje

Junto con la startup de inteligencia artificial Element AI, con sede en Montreal, el proyecto denominado "Troll Patrol "comenzó con los tuits dirigidos a casi 800 mujeres periodistas y políticas de Estados Unidos y el Reino Unido. Más de 6.500 voluntarios analizaron 288.000 publicaciones y etiquetaron las que contenían lenguaje insultante o problemático ("contenido dañino u hostil" que no necesariamente supera el umbral de abuso). Cada tweet fue analizado por tres personas, según Julien Cornebise, director de la oficina de Element en Londres, y expertos en violencia y insultos contra las mujeres también revisaron la calificación de los voluntarios.

El proyecto también apuntó a usar esos juicios humanos para crear y probar un algoritmo de aprendizaje automático que podría detectar los insultos; en teoría, el tipo de cosas que una red social como Twitter podría usar para proteger a sus usuarios. El equipo de Cornebise utilizó el aprendizaje automático para extrapolar el análisis generado por personas a un conjunto completo de 14,5 millones de tuits que mencionan las mismas cifras. También se aseguraron de que los tuits examinados por los voluntarios fueran representativos y que las conclusiones fueran precisas. Luego, su equipo utilizó los datos creados para entrenar un algoritmo de detección de insultos y comparó las conclusiones del algoritmo con las de los voluntarios y expertos.

"El abuso verbal en sí mismo es muy contextual y lo que se percibe como tal puede variar de una región a otra", dijo Cornebise. "Hay demasiada sutileza y el contexto y los algoritmos todavía no pueden resolver eso". Tal vez las mujeres de Twitter podrían ayudarlos.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.