Pasar al contenido principal

Estimado Mark Zuckerberg:

¿Qué tienen en común el Museo de Arte de Filadelfiauna parlamentaria danesa, y un presentador de noticias de Filipinas? Todos ellos han sido objeto de una aplicación incorrecta de los estándares de la comunidad de Facebook. Pero a diferencia del usuario medio, cada una de estas personas y entidades que recibieron la atención de los medios de comunicación, pudieron ponerse en contacto con el personal de Facebook y, en algunos casos, recibieron una disculpa y la restauración de su contenido. Para la mayor parte de las personas, el contenido que Facebook elimina rara vez se restaura y algunos usuarios pueden ser expulsados de la plataforma incluso en caso de error.

Cuando Facebook apareció por primera vez en nuestras pantallas, los usuarios que infringían sus reglas y a los cuales se les removía el contenido o se les desactivaba su cuenta, recibían un mensaje que les informaba que la decisión era definitiva y sin lugar a apelación. Fue recién en 2011, después de años de esfuerzos por parte de organismos de derechos humanos, que su empresa añadió un mecanismo para apelar las desactivaciones de cuentas, y sólo en 2018 Facebook inició un proceso para remediar la apropiación ilícita de ciertos tipos de contenido. Esas apelaciones están disponibles para artículos retirados por desnudez, actividad sexual, incitación al odio o violencia gráfica.

Este es un avance positivo, pero no es suficiente.

Hoy, desde las organizaciones de la sociedad civil abajo firmantes, hacemos un llamamiento a Facebook para que proporcione un mecanismo para que todos sus usuarios puedan apelar las restricciones de contenido y, en todos los casos, para que la decisión apelada sea revisada de nuevo por un moderador humano.

La misión declarada de Facebook es dar a la gente el poder de construir comunidad y hacer que el mundo se acerque más. Con más de dos mil millones de usuarios y una amplia variedad de funciones, Facebook es la principal plataforma de comunicación mundial. Sabemos que reconoce la responsabilidad que tiene para prevenir el abuso y mantener a los usuarios seguros. Como sabe, las empresas de redes sociales, entre ellas Facebook, tienen la responsabilidad de respetar los derechos humanos, y los organismos internacionales y regionales de derechos humanos tienen una serie de recomendaciones específicas para mejorar, en particular en lo que se refiere al derecho al recurso.

Facebook está muy por detrás respecto a sus competidores en cuanto a permitir a sus usuarios el debido proceso1 Sabemos, por años de investigación y documentación, que los moderadores de contenido humano, así como los algoritmos de aprendizaje automatizado, son propensos a cometer errores, y que incluso las tasas de error más bajas pueden resultar en millones de usuarios silenciados al operar a una escala masiva. Sin embargo, los usuarios de Facebook solo pueden apelar las decisiones sobre el contenido en un conjunto limitado de circunstancias, y es imposible que los usuarios sepan cuán extendidos son los retiros de contenido erróneo sin una mayor transparencia por parte de Facebook. 2

Aunque reconocemos que Facebook puede y de hecho da forma a sus Estándares Comunitarios de acuerdo con sus valores, la compañía, sin embargo, tiene la responsabilidad de respetar la expresión de sus usuarios y usuarias de la mejor manera posible. Además, grupos de la sociedad civil de todo el mundo han criticado la forma en que las normas comunitarias de Facebook muestran sesgos y se aplican de manera desigual en diferentes idiomas y contextos culturales. Ofrecer un mecanismo de remedio efectivo, así como una mayor transparencia, contribuirá en gran medida a apoyar la expresión del usuario.

A principios de este año, un grupo de defensores y académicos presentó los Principios de Santa Claraobre Transparencia y Rendición de Cuentas en la Moderación de Contenidos, que recomiendan un conjunto de estándares mínimos para la transparencia y apelaciones significativas. Este conjunto de recomendaciones es coherente con el trabajo del Relator Especial de la ONU sobre la promoción del derecho a la libertad de expresión y de opinión, David Kaye, quien recientemente pidió un "marco para la moderación de los contenidos en línea generados por usuarios que sitúe los derechos humanos en su centro". También es coherente con los Principios Rectores de las Empresas y los Derechos Humanos de las Naciones Unidas, que articulan las responsabilidades de las empresas en materia de derechos humanos.

En concreto, pedimos a Facebook que incorpore los Principios de Santa Clara en sus políticas y prácticas de moderación de contenidos y que proporcione:

Aviso: Explicar claramente a los usuarios por qué su contenido ha sido restringido.

  • Las notificaciones deben incluir, al menos, la cláusula específica de las normas comunitarias que se supone ha violado el contenido borrado.

  • La notificación debe ser lo suficientemente detallada para permitir al usuario identificar específicamente el contenido restringido y debe incluir información sobre cómo se detectó, evaluó y eliminó el contenido.

  • Las personas deben tener información clara sobre cómo apelar la decisión.

Apelaciones: Proporcionar a los usuarios la oportunidad de apelar las decisiones de moderación de contenido

  • Los mecanismos de apelación deben ser muy accesibles y fáciles de utilizar

  • Las apelaciones deben estar sujetas a revisión por una persona o panel de personas que no estuvieron involucradas en la decisión inicial.

  • Los usuarios deben tener el derecho de proponer nuevas pruebas o material para ser consideradas en su opinión.

  • Las apelaciones deben resultar en una pronta determinación y respuesta al usuario.

  • Toda excepción al principio de las apelaciones universales debe ser claramente divulgada y compatible con los principios internacionales de derechos humanos. and compatible with international human rights principles.

  • Facebook debería colaborar con otras partes interesadas para desarrollar nuevos mecanismos independientes de autorregulación para los medios sociales que permitan una mayor rendición de cuentas3

Números: Emitir informes periódicos de transparencia sobre la aplicación de las normas comunitarias.

  • Presentar datos completos describiendo las categorías de contenido del usuario que están restringidas (texto, foto o video; violencia, desnudos, violaciones de derechos de autor, etc.), así como el número de piezas de contenido que fueron restringidas o eliminadas en cada categoría.

  • Incorporar datos sobre cuántas acciones de moderación de contenido fueron iniciadas por un reporte (flag) de un usuario, un programa de reportes por usuarios de confianza (trusted flagger program) o por la aplicación proactiva de los Estándares Comunitarios (por ejemplo, mediante el uso de un algoritmo de aprendizaje automático).

  • Incluya datos sobre el número de decisiones que fueron apeladas efectivamente o que se determinó que se habían tomado por error.

  • Incluya datos que reflejen si la empresa realiza alguna auditoría proactiva de sus decisiones de moderación no apeladas, así como los índices de error que la empresa encontró.

ARTICLE 19, Electronic Frontier Foundation, Center for Democracy and Technology, and Ranking Digital Rights

Fundación Ciudadano Inteligente 
7amleh - Arab Center for Social Media Advancement 
Access Now 
ACLU Foundation of Northern California 
Adil Soz - International Foundation for Protection of Freedom of Speech 
Africa Freedom of Information Centre (AFIC) 
Albanian Media Institute 
American Civil Liberties Union 
Americans for Democracy & Human Rights in Bahrain (ADHRB) 
Arab Digital Expression Foundation 
Artículo 12 
Asociación Mundial de Radios Comunitarias América Latina y el Caribe (AMARC ALC) 
Association for Progressive Communications 
Brennan Center for Justice at NYU School of Law 
Bytes for All (B4A) 
CAIR San Francisco Bay Area 
CALAM 
Cartoonists Rights Network International (CRNI) 
Cedar Rapids, Iowa Collaborators 
Center for Independent Journalism - Romania 
Center for Media Studies & Peace Building (CEMESP) 
Child Rights International Network (CRIN) 
Committee to Protect Journalists (CPJ) 
Digital Rights Foundation 
EFF Austin 
El Instituto Panameño de Derecho y Nuevas Tecnologías (IPANDETEC) 
Electronic Frontier Finland 
Elektronisk Forpost Norge 
Foro de Periodismo Argentino 
Foundation for Press Freedom - FLIP 
Freedom Forum 
Fundación Acceso 
Fundación Ciudadano Inteligente 
Fundación Datos Protegidos 
Fundación Internet Bolivia.org 
Fundación Vía Libre 
Fundamedios - Andean Foundation for Media Observation and Study 
Garoa Hacker Club 
Gulf Center for Human Rights 
HERMES Center for Transparency and Digital Human Rights 
Hiperderecho 
Homo Digitalis 
Human Rights Watch 
Idec - Brazilian Institute of Consumer Defense 
Independent Journalism Center (IJC) 
Index on Censorship 
Initiative for Freedom of Expression - Turkey 
Instituto Nupef 
International Press Centre (IPC) 
Internet without borders 
La Asociación para una Ciudadanía Participativa ACI Participa 
MARCH 
May First/People Link 
Media Institute of Southern Africa (MISA) 
Media Rights Agenda (MRA) 
Mediacentar Sarajevo 
New America's Open Technology Institute 
NYC Privacy 
Open MIC (Open Media and Information Companies Initiative) 
OpenMedia 
Pacific Islands News Association (PINA) 
Panoptykon Foundation 
PEN America 
PEN Canada 
Peninsula Peace and Justice Center 
Portland TA3M 
Privacy Watch 
Raging Grannies 
ReThink LinkNYC 
Rhode Island Rights 
SFLC.in 
SHARE Foundation 
SMEX 
South East Europe Media Organisation 
Southeast Asian Press Alliance (SEAPA) 
SumOfUs 
Syrian Archive 
Syrian Center for Media and Freedom of Expression (SCM) 
t4tech 
Techactivist.org 
The Association for Freedom of Thought and Expression 
Viet Tan 
Vigilance for Democracy and the Civic State 
Visualizing Impact 
Witness


Véase el informe de EFF Who Has Your Back? del año 2018 y el Ranking Digital Rights Indicator G6.

2 Vea los indicadores de las secciones F4 y F8 en Ranking Digital Rights y el reporte “Transparency Reporting Toolkit: Content Takedown Reporting” de New America’s Open Technology Institute.

Por ejemplo, véase el informe de política del ARTICLE 19, "Autorregulación y discurso de odio en las plataformas de redes sociales".