Facebook dice que sus reglas se aplican a todos. Los documentos de la empresa revelan una élite secreta que está exenta

Un programa conocido como XCheck le ha dado a millones de celebridades, políticos y otros usuarios de alto perfil un trato especial, un privilegio que genera muchos abusos.


Mark Zuckerberg ha dicho públicamente que Facebook permite a sus más de tres mil millones de usuarios hablar en igualdad de condiciones con las élites de la política, la cultura y el periodismo, y que sus estándares de comportamiento se aplican a todos, sin importar su estatus o fama.

En privado, la compañía ha construido un sistema que ha eximido a los usuarios de alto perfil de algunas o todas sus reglas, según documentos de la compañía revisados por The Wall Street Journal.

El programa, conocido como “verificación cruzada” o “XCheck”, fue inicialmente pensado como una medida de control de calidad para las acciones tomadas contra cuentas de alto perfil, incluidas celebridades, políticos y periodistas. Hoy en día, protege a millones de usuarios VIP del proceso de ejecución normal de la empresa, según muestran los documentos. Algunos usuarios están “incluidos en la lista blanca”, que son inmunes a las acciones de cumplimiento, mientras que a otros se les permite publicar material que infrinja las reglas en espera de las revisiones de los empleados de Facebook que a menudo nunca llegan.

A veces, según muestran los documentos, XCheck ha protegido a figuras públicas cuyas publicaciones contienen acoso o incitación a la violencia, violaciones que normalmente darían lugar a sanciones para los usuarios habituales. En 2019, permitió a la estrella del fútbol internacional Neymar mostrar fotos de desnudos de una mujer, que lo había acusado de violación, a decenas de millones de sus fanáticos antes de que Facebook eliminara el contenido.

Las cuentas de la lista blanca compartían afirmaciones incendiarias de que los verificadores de hechos de Facebook consideraban falsas, incluido que las vacunas son mortales, que Hillary Clinton había encubierto “redes de pedófilos” y que el entonces presidente Donald Trump había llamado a todos los refugiados que buscaban asilo “animales”, según los documentos.

Una revisión interna de 2019 de las prácticas de inclusión en listas blancas de Facebook, marcadas como privilegiadas entre abogado y cliente, encontró que el favoritismo hacia esos usuarios era generalizado y “no defendible públicamente”.

“En realidad, no estamos haciendo lo que decimos que hacemos públicamente”, dijo la revisión confidencial. Calificó las acciones de la empresa como “un abuso de confianza” y agregó: “A diferencia del resto de nuestra comunidad, estas personas pueden violar nuestros estándares sin ninguna consecuencia”.

A pesar de los intentos de controlarlo, XCheck creció hasta incluir al menos 5,8 millones de usuarios en 2020, según muestran los documentos. En su lucha por moderar con precisión un torrente de contenido y evitar la atención negativa, Facebook creó niveles de élite invisibles dentro de la red social.

Al describir el sistema, Facebook ha engañado al público y a su propia Junta de Supervisión, un organismo que Facebook creó para garantizar la responsabilidad de los sistemas de aplicación de la empresa.

En junio, Facebook le dijo a la Junta de Supervisión por escrito que su sistema para usuarios de alto perfil se usaba en “una pequeña cantidad de decisiones”.

En una declaración escrita, el portavoz de Facebook Andy Stone dijo que las críticas a XCheck eran justas, pero agregó que el sistema “fue diseñado por una razón importante: crear un paso adicional para que podamos hacer cumplir con precisión las políticas sobre el contenido que podrían requerir más comprensión”.

Dijo que Facebook ha sido preciso en sus comunicaciones a la junta y que la compañía continúa trabajando para eliminar gradualmente la práctica de las listas blancas. “Gran parte de este material interno es información obsoleta unida para crear una narrativa que pasa por alto el punto más importante: Facebook mismo identificó los problemas con verificación cruzada y ha estado trabajando para abordarlos”, dijo.

Andy Stone
Andy Stone, portavoz de Facebook.

Los documentos que describen XCheck son parte de una amplia gama de comunicaciones internas de Facebook revisadas por The Wall Street Journal. Demuestran que Facebook sabe, con todo lujo de detalles, que sus plataformas están plagadas de fallas que causan daño, a menudo en formas que solo la empresa comprende completamente.

Además, según muestran los documentos, Facebook a menudo carece de la voluntad o la capacidad para abordarlos.

Este es el primero de una serie de artículos basados en esos documentos y en entrevistas con decenas de empleados actuales y anteriores.

Al menos algunos de los documentos han sido entregados a la Comisión de Bolsa y Valores y al Congreso por una persona que busca protección federal como denunciante, según personas familiarizadas con el asunto.

La ambición declarada de Facebook ha sido durante mucho tiempo conectar a las personas. A medida que se expandió en los últimos 17 años, de estudiantes universitarios de Harvard a miles de millones de usuarios globales, luchó con la complicada realidad de unir voces dispares con diferentes motivaciones, desde personas que se desean felices cumpleaños hasta carteles de la droga mexicanos que hacen negocios en la plataforma. Esos problemas consumen cada vez más a la empresa.

Una y otra vez, los documentos muestran, en los EE.UU. y en el extranjero, los propios investigadores de Facebook han identificado los efectos nocivos de la plataforma, en áreas que incluyen la salud mental de los adolescentes, el discurso político y la trata de personas. Una y otra vez, a pesar de las audiencias del Congreso, sus propias promesas y numerosas exposiciones en los medios, la empresa no las arregló.

A veces, la empresa se contuvo por temor a dañar su negocio. En otros casos, Facebook hizo cambios que resultaron contraproducentes. Incluso las iniciativas favoritas de Zuckerberg se han visto frustradas por sus propios sistemas y algoritmos.

Los documentos incluyen informes de investigación, discusiones de empleados en línea y borradores de presentaciones para la alta gerencia, incluido el Sr. Zuckerberg. No son el resultado de quejas ociosas, sino más bien el trabajo formal de equipos cuyo trabajo era examinar la red social y descubrir cómo podría mejorar.

Ofrecen quizás la imagen más clara hasta ahora de cuán ampliamente se conocen los problemas de Facebook dentro de la empresa, hasta el propio CEO. Y cuando Facebook habla públicamente sobre muchos de estos temas, a legisladores, reguladores y, en el caso de XCheck, a su propia Junta de Supervisión, a menudo proporciona respuestas parciales o engañosas, enmascarando cuánto sabe.

Un área en la que la empresa no ha tenido problemas es la rentabilidad. En los últimos cinco años, durante los cuales ha estado bajo un intenso escrutinio y agitado por un debate interno, Facebook ha generado ganancias de más de US$ 100 mil millones. Actualmente, la empresa está valorada en más de 1 billón de dólares.

Justicia dura

Para los usuarios comunes, Facebook aplica una especie de justicia dura al evaluar si las publicaciones cumplen con las reglas de la compañía contra el acoso, el contenido sexual, el discurso de odio y la incitación a la violencia. A veces, los sistemas automatizados de la empresa eliminan o entierran sumariamente el contenido sospechoso de violaciones de las reglas sin una revisión humana. En otras ocasiones, el material marcado por esos sistemas o por los usuarios es evaluado por moderadores de contenido empleados por empresas externas.

Zuckerberg estimó en 2018 que Facebook se equivoca en el 10% de sus decisiones de eliminación de contenido y, dependiendo de la acción de aplicación que se tome, es posible que a los usuarios nunca se les diga qué regla violaron o se les dará la oportunidad de apelar.

Los usuarios designados para la revisión de XCheck, sin embargo, reciben un trato más deferente. Facebook diseñó el sistema para minimizar lo que sus empleados han descrito en los documentos como “incendios de relaciones públicas”: atención de los medios negativa que proviene de las acciones de cumplimiento fallidas tomadas contra los VIP.

Si los sistemas de Facebook concluyen que una de esas cuentas podría haber infringido sus reglas, no eliminan el contenido, al menos no de inmediato, indican los documentos. Enrutan la queja a un sistema separado, con empleados de tiempo completo mejor capacitados, para niveles adicionales de revisión.

La mayoría de los empleados de Facebook pudieron agregar usuarios al sistema XCheck, dicen los documentos, y una auditoría de 2019 encontró que al menos 45 equipos de la empresa participaron en la lista blanca. Por lo general, no se les dice a los usuarios que han sido etiquetados para un tratamiento especial. Una guía interna para la elegibilidad de XCheck cita calificaciones que incluyen ser “de interés periodístico”, “influyente o popular” o “relaciones públicas riesgosas”.

Neymar, la estrella del fútbol brasileño cuyo nombre completo es Neymar da Silva Santos Jr., se clasificó fácilmente. Con más de 150 millones de seguidores, la cuenta de Neymar en Instagram, propiedad de Facebook, es una de las más populares del mundo.

d
El Instagram de Neymar.

Después de que una mujer acusó a Neymar de violación en 2019, publicó videos de Facebook e Instagram defendiéndose y mostrando a los espectadores su correspondencia de WhatsApp con su acusador, que incluía su nombre y fotos de ella desnuda. Acusó a la mujer de extorsionarlo.

El procedimiento estándar de Facebook para manejar la publicación de “imágenes íntimas no consensuadas” es simple: elimínelo. Pero Neymar estaba protegido por XCheck.

Durante más de un día, el sistema impidió que los moderadores de Facebook eliminaran el video. Una revisión interna del incidente encontró que 56 millones de usuarios de Facebook e Instagram vieron lo que Facebook describió en un documento separado como “pornografía de venganza”, exponiendo a la mujer a lo que un empleado se refirió en la revisión como abuso de otros usuarios.

“Esto incluyó que el video se volvió a publicar más de 6.000 veces, intimidación y acoso sobre su personaje”, encontró la revisión.

Las pautas operativas de Facebook estipulan que no solo se deben eliminar las fotos de desnudos no autorizados, sino que también se deben eliminar las cuentas de las personas que las publican.

“Después de escalar el caso al liderazgo”, dijo la revisión, “decidimos dejar las cuentas de Neymar activas, una desviación de nuestra política habitual de desactivación de perfiles de ‘un solo golpe’”.

Neymar negó la acusación de violación y no se presentaron cargos en su contra. La mujer fue acusada por las autoridades brasileñas de difamación, extorsión y fraude. Se retiraron los dos primeros cargos y se absolvió del tercero. Un portavoz de Neymar dijo que el atleta se adhiere a las reglas de Facebook y declinó hacer más comentarios.

d
Trinidade, la mujer que acusó a Neymar.

Las listas de las personas inscritas en XCheck estaban “dispersas por toda la empresa, sin un gobierno o propiedad claros”, según un “Plan Get Well” del año pasado. “Esto da como resultado no aplicar XCheck a aquellos que plantean riesgos reales y, por otro lado, aplicar XCheck a aquellos que no lo merecen (como cuentas abusivas, infractores persistentes). Estos han creado incendios de relaciones públicas “.

En la práctica, Facebook parecía más preocupado por evitar errores que por mitigar los abusos de alto perfil. Una revisión de Facebook en 2019 de los principales errores de XCheck mostró que de 18 incidentes investigados, 16 involucraron instancias en las que la empresa cometió un error en las acciones tomadas contra usuarios destacados.

Cuatro de los 18 se refirieron a acciones coercitivas inadvertidas contra el contenido de Trump y su hijo, Donald Trump Jr. Otras acciones coercitivas fallidas se tomaron contra las cuentas de la senadora Elizabeth Warren, la modelo Sunnaya Nash y el propio Zuckerberg, cuyas preguntas y respuestas de los empleados transmitidas en vivo se habían suprimido después de que un algoritmo lo clasificara como que contenía información errónea.

Extrayendo contenido

Históricamente, Facebook se contactaba con algunos usuarios VIP que violaban las políticas de la plataforma y proporcionaba una “ventana de autocorrección” de 24 horas para eliminar el contenido infractor por su cuenta antes de que Facebook lo eliminara y aplicara sanciones.

Stone, el portavoz de la compañía, dijo que Facebook ha eliminado ese beneficio, que todavía estaba vigente durante las elecciones de 2020. Se negó a decir cuándo terminó.

A veces, extraer contenido de la cuenta de un VIP requiere la aprobación de los altos ejecutivos de los equipos de comunicaciones y políticas públicas, o incluso del Sr. Zuckerberg o la directora de operaciones Sheryl Sandberg, según personas familiarizadas con el asunto.

En junio de 2020, surgió una publicación de Trump durante una discusión sobre las reglas ocultas de XCheck que tuvo lugar en la plataforma de comunicaciones internas de la compañía, llamada Facebook Workplace. El mes anterior, Trump dijo en una publicación: “Cuando comienza el saqueo, comienza el tiroteo”.

Un gerente de Facebook notó que un sistema automatizado, diseñado por la compañía para detectar si una publicación viola sus reglas, calificó la publicación de Trump como 90 de 100, lo que indica una alta probabilidad de que violara las reglas de la plataforma.

Para una publicación de usuario normal, tal puntuación daría lugar a que el contenido se elimine tan pronto como una sola persona lo informe a Facebook. En cambio, como reconoció públicamente Zuckerberg el año pasado, él personalmente hizo la llamada para dejar el cargo. “Tomar una decisión manual como esta parece menos defendible que la puntuación y la acción algorítmica”, escribió el gerente.

La cuenta de Trump fue cubierta por XCheck antes de su suspensión de dos años de Facebook en junio. También lo son los miembros de su familia, el Congreso y el Parlamento de la Unión Europea, junto con alcaldes, activistas cívicos y disidentes.

Si bien el programa incluyó a la mayoría de los funcionarios del gobierno, no incluyó a todos los candidatos a cargos públicos, lo que a veces otorgó efectivamente a los titulares en las elecciones una ventaja sobre los aspirantes. La discrepancia fue más frecuente en las carreras estatales y locales, según muestran los documentos, y los empleados estaban preocupados de que Facebook pudiera estar sujeto a acusaciones de favoritismo.

Stone reconoció la preocupación, pero dijo que la compañía había trabajado para abordarla. “Hicimos múltiples esfuerzos para asegurarnos de que tanto en las carreras federales como en las no federales, tanto los aspirantes como los titulares estuvieran incluidos en el programa”, dijo.

El programa cubre prácticamente a cualquiera en los medios de comunicación o que tenga un seguimiento sustancial en línea, incluidas estrellas de cine, presentadores de programas de entrevistas por cable, académicos y personalidades en línea con muchos seguidores. En Instagram, XCheck cubre cuentas de personas influyentes de animales populares, incluido “Doug the Pug”.

En la práctica, la mayoría del contenido marcado por el sistema XCheck no se sometió a revisión posterior, según muestran los documentos.

Incluso cuando la compañía revisa el material, las demoras en la aplicación de la ley como la de las publicaciones de Neymar significan que el contenido que debería haber sido prohibido puede extenderse a grandes audiencias. El año pasado, XCheck permitió que las publicaciones que violaban sus reglas se vieran al menos 16,4 mil millones de veces, antes de ser eliminadas, según un resumen del programa a fines de diciembre.

Facebook reconoció hace años que las exenciones de cumplimiento otorgadas por su sistema XCheck eran inaceptables, con protecciones otorgadas a veces a lo que llamó cuentas abusivas y violadores persistentes de las reglas, muestran los documentos. Sin embargo, el programa se expandió con el tiempo, con decenas de miles de cuentas agregadas el año pasado.

Además, Facebook ha pedido a los socios de verificación de datos que cambien retroactivamente sus hallazgos en publicaciones de cuentas de alto perfil, renunció a los castigos estándar por propagar lo que clasifica como información errónea e incluso modificó los cambios planificados en sus algoritmos para evitar consecuencias políticas.

“Facebook actualmente no tiene un firewall para aislar las decisiones relacionadas con el contenido de las presiones externas”, afirma un memorando de septiembre de 2020 de un científico investigador senior de Facebook, que describe las intervenciones diarias en su proceso de elaboración y aplicación de reglas por parte del equipo de políticas públicas de Facebook y los altos ejecutivos de Facebook. .

Un memorando de diciembre de otro científico de datos de Facebook fue más contundente: “Facebook habitualmente hace excepciones para actores poderosos”.

Llamadas fallidas

Zuckerberg siempre ha enmarcado su posición sobre cómo moderar el contenido controvertido como una de neutralidad basada en principios. “No queremos convertirnos en árbitros de la verdad”, dijo al Congreso en una audiencia el año pasado.

El sistema de aplicación especial de Facebook para usuarios VIP surgió del hecho de que sus sistemas humanos y automatizados de aplicación de contenido fallan regularmente en las llamadas.

Parte del problema son los recursos. Si bien Facebook ha anunciado sus gastos en un ejército de moderadores de contenido, todavía no es capaz de procesar por completo el torrente de contenido generado por el usuario en sus plataformas. Incluso asumiendo una dotación de personal adecuada y una tasa de precisión más alta, tomar millones de decisiones de moderación al día aún implicaría numerosas llamadas de alto perfil con el potencial de malas relaciones públicas.

Facebook quería un sistema para “reducir los falsos positivos y la carga de trabajo humana”, según un documento interno. El sistema XCheck se configuró para hacer eso.

Para minimizar el conflicto con los usuarios promedio, la compañía ha mantenido opacas durante mucho tiempo sus notificaciones de eliminación de contenido. Los usuarios a menudo describen en Facebook, Instagram o plataformas rivales lo que dicen que son errores de eliminación, a menudo acompañados de una captura de pantalla del aviso que reciben.

Facebook presta mucha atención. Una presentación interna sobre el tema el año pasado se tituló “Usuarios que toman represalias contra las acciones de Facebook”.

“Literalmente, todo lo que dije fue feliz cumpleaños”, publicó un usuario en respuesta a una eliminación fallida, según la presentación.

“¿Aparentemente Facebook no permite ahora quejarse de los colores de pintura?” se quejó otro usuario después de que Facebook marcara como discurso de odio la declaración de que “los colores de pintura blanca son los peores”.

“A los usuarios les gusta hacernos capturas de pantalla de la forma más ridícula”, decía la presentación, señalando que a menudo se indignan incluso cuando Facebook aplica correctamente sus reglas.

Si ser criticado por los usuarios cotidianos es desagradable, molestar inadvertidamente a los prominentes es potencialmente embarazoso.

El año pasado, los algoritmos de Facebook malinterpretaron una publicación de hace años de Hosam El Sokkari, un periodista independiente que una vez dirigió el servicio de noticias árabes de la BBC, según una “revisión de incidentes” realizada en septiembre de 2020 por la compañía.

En la publicación, condenó a Osama bin Laden, pero los algoritmos de Facebook malinterpretaron la publicación como un apoyo al terrorista, lo que habría violado las reglas de la plataforma. Los revisores humanos coincidieron erróneamente con la decisión automatizada y rechazaron la apelación del Sr. El Sokkari.

Como resultado, la cuenta del Sr. El Sokkari no pudo transmitir un video en vivo poco antes de una aparición pública programada. En respuesta, denunció a Facebook en Twitter y a la propia plataforma de la empresa en publicaciones que recibieron cientos de miles de visitas.

Facebook se revirtió rápidamente, pero poco después eliminó por error más publicaciones de El Sokkari que criticaban a figuras musulmanas conservadoras.

El Sokkari respondió: “El equipo de apoyo árabe de Facebook obviamente ha sido infiltrado por extremistas”, tuiteó, una afirmación que provocó más revueltas dentro de Facebook.

Después de buscar la opinión de 41 empleados, Facebook dijo en un informe sobre el incidente que XCheck se mantuvo con demasiada frecuencia “reactivo y impulsado por la demanda”. El informe concluyó que XCheck debería ampliarse aún más para incluir a destacados periodistas independientes como El Sokkari, para evitar futuros ojos negros de relaciones públicas.

A medida que XCheck se multiplicaba para abarcar lo que los documentos decían son millones de usuarios en todo el mundo, revisar todo el contenido cuestionable se convirtió en una nueva montaña de trabajo.

Estado de la lista blanca

En respuesta a lo que los documentos describen como una subinversión crónica en los esfuerzos de moderación, muchos equipos de Facebook optaron por no hacer cumplir las reglas con cuentas de alto perfil, la práctica conocida como lista blanca. En algunos casos, el estado de lista blanca se otorgó con poco registro de quién lo había otorgado y por qué, según la auditoría de 2019.

“Este problema es omnipresente y afecta a casi todas las áreas de la empresa”, afirma la revisión de 2019, citando la auditoría. Llegó a la conclusión de que las listas blancas “plantean numerosos riesgos legales, de cumplimiento y de legitimidad para la empresa y perjudican a nuestra comunidad”.

Un plan para arreglar el programa, descrito en un documento el año siguiente, decía que las exenciones generales y las publicaciones que nunca se revisaron posteriormente se habían convertido en el núcleo del programa, lo que significa que la mayoría del contenido de los usuarios de XCheck no estaba sujeto a aplicación. “Actualmente revisamos menos del 10% del contenido de XChecked”, decía el documento.

Stone dijo que la compañía mejoró esa proporción durante 2020, aunque se negó a proporcionar datos.

El margen de maniobra otorgado a destacadas cuentas políticas sobre desinformación, que la compañía reconoció de forma limitada en 2019, desconcertó a algunos empleados responsables de proteger las plataformas. Las cuentas de alto perfil presentaban mayores riesgos que las normales, señalaron los investigadores, pero eran las menos vigiladas.

“Estamos exponiendo conscientemente a los usuarios a información errónea que tenemos los procesos y recursos para mitigar”, dijo un memorando de 2019 de los investigadores de Facebook, llamado “La lista blanca política contradice los principios fundamentales declarados de Facebook”. Sitio web de tecnología La información previamente informada sobre el documento .

En un caso, los usuarios de la lista blanca política compartían artículos de sitios web de medicina alternativa que afirmaban que un médico de Berkeley, California, había revelado que la quimioterapia no funciona el 97% de las veces. Las organizaciones de verificación de hechos han desacreditado las afirmaciones, señalando que la ciencia está tergiversada y que el médico citado en el artículo murió en 1978.

En un comentario interno en respuesta al memorando, Samidh Chakrabarti, un ejecutivo que encabezó el Equipo Cívico de Facebook, que se enfoca en el discurso político y social en la plataforma, expresó su malestar con las exenciones.

“Una de las razones fundamentales por las que me uní a FB es que creo en su potencial para ser una fuerza profundamente democratizadora que permite que todos tengan la misma voz cívica”, escribió. “Así que tener diferentes reglas sobre el habla para diferentes personas es muy preocupante para mí”.

Otros empleados dijeron que la práctica estaba en desacuerdo con los valores de Facebook.

“La toma de decisiones de FB sobre la política de contenido está influenciada por consideraciones políticas”, escribió un economista de la división de ciencia de datos de la empresa.

“Separe la política de contenido de la política pública”, recomendó Kaushik Iyer, entonces ingeniero principal del equipo de integridad cívica de Facebook, en un memorando de junio de 2020.

Buzzfeed informó anteriormente sobre elementos de estos documentos .

Ese mismo mes, los empleados debatieron en Workplace, la plataforma interna, sobre las ventajas de hacer público el programa XCheck.

A medida que la propuesta de transparencia atrajo a docenas de emojis de “me gusta” y “amor” de colegas, el Sr. Chakrabarti del Equipo Cívico intervino en el gerente de producto que supervisaba el programa XCheck para ofrecer una respuesta.

Las preocupaciones sobre la equidad eran reales y XCheck había sido mal administrado, escribió el gerente de producto, pero “tenemos que equilibrar eso con el riesgo comercial”. Dado que la empresa ya estaba tratando de abordar las fallas del programa, el mejor enfoque era la “transparencia interna”, dijo. dijo.

El 5 de mayo, la Junta de Supervisión de Facebook confirmó la suspensión de Trump, a quien acusó de crear un riesgo de violencia en relación con los disturbios del 6 de enero en el Capitolio en Washington. También criticó las prácticas de cumplimiento de la compañía, recomendando que Facebook articule más claramente sus reglas para personas prominentes y desarrolle sanciones para los infractores.

Como una de las 19 recomendaciones, la junta pidió a Facebook que “informe sobre las tasas de error relativas y la coherencia temática de las determinaciones realizadas a través del proceso de verificación cruzada en comparación con los procedimientos de ejecución ordinarios”.

Un mes después, Facebook dijo que estaba implementando 15 de las 19 recomendaciones. El de la divulgación de datos de verificación cruzada fue uno de los cuatro que dijo que no adoptaría.

“No es factible rastrear esta información”, escribió Facebook en sus respuestas. “Hemos explicado este producto en nuestra sala de redacción”, agregó, enlazando a una publicación de blog de 2018 que declaraba “eliminamos contenido de Facebook, sin importar quién lo publique, cuando rompe nuestros estándares”. La revisión interna de Facebook de 2019 había citado previamente esa misma publicación de blog como engañosa.

Los documentos de XCheck muestran que Facebook engañó a la Junta de Supervisión, dijo Kate Klonick, profesora de derecho en la Universidad de St. John. La junta fue financiada con un compromiso inicial de $ 130 millones de Facebook en 2019, y la compañía le dio acceso especial a la Sra. Klonick para estudiar la formación del grupo y sus procesos.

“¿Por qué gastarían tanto tiempo y dinero en la creación de la Junta de Supervisión y luego le mentirían?” dijo de Facebook después de revisar la documentación de XCheck a solicitud del Journal. “Esto lo va a socavar por completo”.

En una declaración escrita, un portavoz de la junta dijo que “ha expresado en múltiples ocasiones su preocupación por la falta de transparencia en los procesos de moderación de contenido de Facebook, especialmente en relación con la gestión inconsistente de las cuentas de alto perfil de la empresa”.

Facebook está tratando de eliminar la práctica de las listas blancas, según muestran los documentos y confirmó el portavoz de la compañía. La compañía estableció el objetivo de eliminar la inmunidad total para las violaciones de “alta gravedad” de las reglas de FB en la primera mitad de 2021. Una actualización de marzo informó que la compañía estaba luchando por controlar las adiciones a XCheck.

“Las listas VIP siguen creciendo”, escribió un gerente de producto del Equipo de Prevención de Errores de Facebook. Anunció un plan para “detener la hemorragia” bloqueando la capacidad de los empleados de Facebook para inscribir nuevos usuarios en XCheck.

Una posible solución permanece fuera de la mesa: mantener a los usuarios de alto perfil con los mismos estándares que todos los demás.

“No tenemos sistemas creados para hacer esa diligencia adicional para todas las acciones de integridad que pueden ocurrir para un VIP”, decía su memo. Para evitar cometer errores que podrían enojar a los usuarios influyentes, señaló, Facebook instruiría a los revisores a adoptar un enfoque amable.

“Vamos a indexar para asumir buenas intenciones en nuestros flujos de revisión y nos apoyaremos en ‘inocentes hasta que se demuestre lo contrario’”, escribió.

El plan, escribió el gerente, fue “generalmente” respaldado por el liderazgo de la empresa.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.