Consejo de Redes Sociales (CRS): Llevando los Estándares Internacionales de Derechos Humanos a la moderación de contenidos en las Redes Sociales

La contractualización de la regulación del discurso (sobre la base de las condiciones de servicio y las normas comunitarias de las empresas de redes sociales) no proporciona una transparencia y una protección adecuadas de los Derechos Humanos. Pero la creación de deberes de moderación de contenidos en la legislación –ejemplificada por la ley Alemana NetzDG– también es problemática, pues genera sistemas en los que se privatiza la aplicación del derecho penal.

Por Pierre François Docquir, 28 de Octubre de 2019. Traducción realizada por JJ Martínez Layuno, co-capitán de Data.Democracia, bajo autorización de CIGI.

Cada vez más, recurrimos a las plataformas de redes sociales para acceder a información e ideas que estructuran la agenda y el contenido de los debates públicos (Newman et al. 2019). Las grandes empresas de redes sociales se han elevado a una posición de dominio del mercado en la que tienen un grado considerable de control sobre lo que sus usuarios ven u oyen a diario. Puede que sepamos que la moderación y la distribución del contenido –en otras palabras, la composición del feed de los usuarios y la accesibilidad y visibilidad del contenido en las redes sociales– se producen mediante una combinación de procesos de toma de decisiones humanos y algorítmicos. Sin embargo, en general las prácticas actuales ofrecen muy poca transparencia y prácticamente ningún remedio a los usuarios individuales cuando su contenido se retira o se degrada (ARTÍCULO 19 2018, 15).

Las prácticas actuales de moderación de contenidos –hechas en base a una combinación de procesos humanos y algorítmicos– ofrecen muy poca transparencia y prácticamente ningún remedio a los usuarios individuales cuando su contenido se retira o se degrada.

Esta situación se ha convertido en un problema importante para las sociedades democráticas. Las responsabilidades de las mayores empresas de redes sociales son actualmente objeto de debate en los círculos legislativos, políticos y académicos de todo el mundo, pero muchas de las numerosas iniciativas que se han presentado no tienen suficientemente en cuenta la protección de la libertad de expresión y otros Derechos Fundamentales. Existe un fuerte consenso entre los expertos internacionales en materia de libertad de expresión de que la contractualización de la regulación del discurso (es decir, una empresa controlando su propia plataforma de redes sociales sobre la base de las condiciones de servicio y las normas de la comunidad) no proporciona una transparencia y una protección adecuadas de la libertad de expresión y otros Derechos Humanos (ibíd.).  Por otra parte, la creación de deberes de moderación de contenidos en la legislación –ejemplificada por la Ley Alemana para la Aplicación de la Ley en la Red (NetzDG)– tiende a generar sistemas en los que se encomienda a agentes privados la aplicación del derecho penal y otras disposiciones jurídicas nacionales, en plazos breves y con la amenaza de multas muy elevadas (ARTÍCULO 19, 2017). Ambos tipos de sistemas aumentan la fragmentación de las obligaciones jurídicas de las empresas de redes sociales, provocando una situación en la que los usuarios individuales tienen poco o ningún recurso para abordar la eliminación precipitada de contenidos y sin ofrecer ninguna garantía de protección de las libertades individuales.

El panorama de los medios de comunicación y la diversidad de funciones que cumplen las empresas de tecnología han evolucionado a un ritmo acelerado y seguirán haciéndolo. La democracia requiere ahora que emprendamos un proceso de aprendizaje colectivo para organizar la moderación del contenido en línea de manera compatible con los requisitos de las normas internacionales sobre la libertad de expresión. Desde esta perspectiva, cada vez se reconoce más la necesidad de un mecanismo capaz de garantizar una supervisión pública eficaz de la moderación de contenidos en las plataformas de las redes sociales.

El CRS ofrece un espacio intermedio sin el cual es probable que las empresas de redes sociales apliquen mecanismos y ejecuten decisiones que no cumplen con las normas internacionales de Derechos Humanos.

ARTÍCULO 19, una destacada organización mundial de libertad de expresión, ha propuesto la creación del “Consejo de Redes Sociales” (CRS), un modelo de mecanismo de rendición de cuentas integrado por múltiples partes interesadas. El CRS proporciona un foro abierto, transparente, independiente y responsable para abordar las cuestiones relativas a la moderación de contenidos en las plataformas de las redes sociales sobre la base de las normas internacionales de Derechos Humanos. El modelo del CRS se basa en un enfoque de supervisión de la moderación de contenidos voluntario: los participantes (plataformas de redes de sociales y todas las partes interesadas) se inscriben en un mecanismo que no crea obligaciones jurídicas. Su fuerza y eficacia se basan en el cumplimiento voluntario por parte de las plataformas, cuyo compromiso, al suscribirse, es respetar y ejecutar de buena fe las decisiones (o recomendaciones) del CRS. Esta propuesta fue respaldada por el Relator Especial de las Naciones Unidas, David Kaye, quien recomendó en abril de 2018 que “todos los segmentos del sector de las TIC que moderan el contenido o actúan como observadores (gatekeepers) deberían hacer del desarrollo de mecanismos de responsabilidad (como un consejo de redes sociales) en todo el sector una prioridad máxima” (Asamblea General de las Naciones Unidas 2018, párrafo 72).

Como espacios en los que participan múltiples interesados, transparentes, responsables e independientes, los CRS podrían dar forma a la libertad de expresión en todos los aspectos de la moderación y distribución de contenido en línea en todas las plataformas de redes sociales.

ARTICULO 19 previó inicialmente que el Consejo de Redes de Sociales tuviera un alcance ambicioso: una red de Consejos de Redes de Sociales nacionales o regionales encargados de proporcionar orientación general a las plataformas de redes sociales y de decidir sobre las denuncias individuales presentadas por los usuarios. La idea era que funcionaran sobre la base de las normas internacionales de derechos humanos y se coordinaran a través de un Consejo de Redes Sociales Internacional. Como espacios en los que participan múltiples interesados, transparentes, responsables e independientes, los consejos podrían dar forma a la libertad de expresión en todos los aspectos de la moderación y distribución de contenido en línea en todas las plataformas de redes sociales. Esto abarcaría desde la integración de normas internacionales en las decisiones de suprimir o dar de baja cierto contenido, hasta la garantía de una exposición a la diversidad más amplia posible de información e ideas mediante un mecanismo de distribución algorítmica que se optimiza al estar basada en derechos humanos.

El modelo de CRS propone un enfoque voluntario para la supervisión de la moderación del contenido.

ARTÍCULO 19, junto con el Relator Especial de las Naciones Unidas sobre la promoción y protección del derecho a la libertad de opinión y de expresión y la Incubadora de Política Digital Global de la Universidad de Stanford, presentó esta propuesta en una reunión de trabajo de académicos, organizaciones de la sociedad civil y empresas de redes sociales, que generó intensos debates, como consta en el informe de la conferencia resultante (Global Digital Policy Incubator, ARTÍCULO 19 y Kaye, 2019). Esta conferencia y otras reuniones posteriores han contribuido a arrojar luz sobre las problemáticas, grandes y pequeñas, planteadas por el proyecto de crear un CRS –véanse, por ejemplo, los comentarios de la Electronic Frontier Foundation (McSherry, 2019). Hay diferentes visiones sobre cuáles deberían ser los papeles y funciones exactas de este nuevo mecanismo, dónde debería establecerse o cómo interactuaría con otras iniciativas (como la creación de una junta de supervisión por Facebook) (ARTÍCULO 19 2019).

Un primer punto de debate es la elección de las normas que deberían presidir la supervisión de la moderación de los contenidos. Si bien existe un consenso cada vez mayor en cuanto a que las normas internacionales de derechos humanos proporcionan el marco jurídico universal adecuado, puede haber diferentes formas de aplicar este conjunto de normas. El CRS podría simplemente referirse a estas reglas directamente, y la interpretación autoritativa por los tribunales internacionales, regionales y los mecanismos especiales proporcionaría toda la orientación necesaria para informar las decisiones del CRS. Otra opción sería adoptar un Código de Principios de Derechos Humanos para la moderación del contenido. La adaptación específica de las normas internacionales a la moderación del contenido en línea mediante la adopción de un código de principios garantizaría que el CRS funcionara bajo una orientación más estricta que la referencia amplia a las normas internacionales. En ambos casos, como ocurre generalmente con la aplicación de las normas internacionales, un cierto “margen de apreciación” ­­­–o margen de flexibilidad­­– formaría parte del mecanismo del CRS. Esta flexibilidad permitiría diferenciar la aplicación de las normas internacionales entre las distintas empresas y sus respectivos productos (por ejemplo, Facebook es diferente de Twitter). También daría margen a las empresas para adoptar sus propias opiniones sobre el discurso que se permite en sus plataformas, aunque el dominio del mercado daría lugar a un margen de maniobra más estrecho a este respecto.

Otro punto de divergencia es si el CRS debería tener un papel de juez o consultiva. En una capacidad consultiva, proporcionaría una orientación general a las empresas de redes sociales sobre la compatibilidad de las condiciones de servicio o las normas comunitarias con las normas internacionales sobre Derechos Humanos. En esta configuración, el CRS sería un foro abierto en el que las partes interesadas podrían elaborar recomendaciones u observaciones. La alternativa sería dar al CRS la facultad de examinar decisiones individuales. En estos casos, el Consejo tendría entonces que decidir si, en las circunstancias particulares de un caso, la decisión adoptada por la plataforma de redes sociales se ajustó a los requisitos de las normas internacionales de Derechos Humanos. Ese mecanismo debería ser accesible a todos. También debería haber reglas de procedimiento claras y precisas sobre cuestiones como las condiciones de admisibilidad, plazos, admisibilidad de las pruebas, los elementos cubiertos por la confidencialidad, el intercambio de argumentos y opiniones, los elementos de publicidad, así como la adopción y publicación de las decisiones.

Los CRS locales, anclados en el contexto local, con sus miembros muy familiarizados con las complejidades de las circunstancias lingüísticas, sociales, culturales, económicas y políticas del país, aportarían una mayor credibilidad a todo el sistema al producir una comprensión matizada que un foro internacional distante no puede alcanzar.

ARTÍCULO 19 examinó las diversas orientaciones posibles de un CRS, así como algunas cuestiones más técnicas como el reglamento o el mecanismo de financiamiento, en un documento de antecedentes en apoyo de una consulta online actual [1]. En esa perspectiva, la cuestión no es tanto si los CRS deben establecerse a nivel mundial o a nivel nacional –hay fuertes argumentos para cada uno– sino cómo podrían funcionar todos juntos. Los CRS locales, anclados en el contexto local, con sus miembros muy familiarizados con las complejidades de las circunstancias lingüísticas, sociales, culturales, económicas y políticas del país, aportarían una mayor credibilidad a todo el sistema al producir una comprensión matizada que un foro internacional distante no puede alcanzar. Además, podrían desarrollar soluciones adaptadas al contexto local. Por su parte, el CRS mundial aportaría un sentido de universalidad al sistema: elaboraría un Código Universal de Principios de Derechos Humanos sobre moderación de contenido, y proporcionaría un marco para que los CRS nacionales resuelvan las divergencias. Es posible que un CRS local pueda aportar una valiosa experiencia local al Comité de Supervisión que está construyendo Facebook, en caso de que ese experimento particular resulte compatible con las normas internacionales de Derechos Humanos; un memorando de entendimiento entre la junta de supervisión y un CRS local podría proporcionar un marco dentro del cual el Comité podría buscar ideas específicas del órgano local.

En este momento, hay varias iniciativas legislativas que se basarían en mecanismos de autorregulación, dentro de un marco legal de co-regulación, bajo el pretexto de poner fin rápidamente a la diseminación de contenido perjudicial a menudo vagamente definido. El CRS ofrece un modelo que puede garantizar una forma de co-regulación que asegure plenamente la protección del Derecho Fundamental a la Libertad de Expresión. Además, el modelo del CRS ofrece un espacio intermedio entre el organismo estatal encargado de supervisar el mecanismo de autorregulación y las empresas de redes sociales, sin el cual es probable que las empresas apliquen mecanismos y ejecuten decisiones que no cumplen con las normas internacionales de Derechos Humanos.

El CRS no es la única idea que trata de abordar la cuestión de la moderación del contenido como un asunto de urgente importancia democrática –véase, por ejemplo, la propuesta de un consejo de normas de moderación (McKelvey, Tworek y Tenove 2019) y el modelo de Global Partners Digital (Bradley y Wingfield 2018). Esta cuestión no sólo se plantea como el air du temps, sino que también está surgiendo en el punto exacto de convergencia entre los objetivos e intereses de los grupos de Derechos Humanos y los de las plataformas de las redes sociales: evitar los escollos de los enfoques legislativos severos que suelen ir acompañados de sanciones desproporcionadas; contribuir a restablecer la confianza de los usuarios mediante la transparencia y la rendición de cuentas; proporcionar una forma de reglamentación eficaz pero flexible, que pueda adaptarse fácilmente a la constante evolución de las plataformas tecnológicas; y garantizar que la moderación del discurso se haga sobre la base universal del derecho internacional. ARTICULO 19 insta a los miembros interesados del público a que participen explorando su presentación sobre el CRS y a que compartan sus ideas en una encuesta pública [2].


Nota del autor

[1] Los puntos de vista en este artículo no reflejan necesariamente las posiciones de ARTÍCULO 19.

[2] Se invita a los lectores a ver el documento de consulta y a completar la encuesta de consulta en http://www.article19.org/resources/social-media-councils-consultation/; la encuesta cierra el 30 de noviembre de 2019. Por favor, visiten http://www.article19.org/resources/social-media-councils-consultation/ para más información y para completar la encuesta antes del 30 de noviembre de 2019.

Obras citadas

ARTÍCULO 19. 2017. “Alemania: La ley para mejorar la aplicación de la ley en las redes sociales”. Análisis jurídico. Londres, Reino Unido: ARTÍCULO 19. http://www.article19.org/wp-content/uploads/2017/09/170901-Legal-Analysis-German-NetzDG-Act.pdf.

———. 2018. “Derechos de paso lateral: Regulación de la palabra por contrato.” Informe de política. Londres, Reino Unido: ARTÍCULO 19. http://www.article19.org/wp-content/uploads/2018/06/Regulating-speech-by-contract-WEB-v2.pdf.

———. 2019. “Junta de supervisión de Facebook: Recomendaciones para la supervisión enfocada en los derechos humanos”. 27 de marzo. http://www.article19.org/resources/ facebook-oversight-board-recomendaciones-para-la-supervisión centrada en los derechos humanos/.

Bradley, Charles y Richard Wingfield. 2018. “Un modelo de regulación de contenidos en línea por plataformas que respete los derechos”. Mayo. Londres, Reino Unido: Global Partners Digital. http://www.gp-digital.org/content-regulation-laws-threaten-our-freedom-of-expression-we-need-a-new-approach/.

Global Digital Policy Incubator, ARTÍCULO 19 y David Kaye. 2019. Social Media Councils: Del concepto a la realidad. Informe de la conferencia, febrero. Stanford, CA: Incubadora de Política Digital Global. https://cyber.fsi.stanford.edu/gdpi/content/social-media-councils-concept-reality-conference-report.

McKelvey, Fenwick, Heidi Tworek y Chris Tenove. 2019. “Cómo un consejo de estándares podría ayudar a frenar el contenido online perjudicial”. Policy Options, 11 de febrero. https://policyoptions.irpp.org/magazines/february-2019/standards-council-help-curb-harmful-online-content/.

McSherry, Corynne. 2019. “Consejos de Redes Sociales”: Una mejor manera de avanzar, escaparate, o policía del discurso global?” Fundación Frontera Electrónica, 10 de mayo. http://www.eff.org/fr/deeplinks/2019/05/social-media-councils-better-way-firward-lipstick-pig-or-global-speech-police.

Newman, Nic, Richard Fletcher, Antonis Kalogeropoulos y Rasmus Kleis Nielsen. 2019. Informe de Noticias Digitales del Instituto Reuters 2019. Oxford, Reino Unido: Instituto Reuters para el Estudio del Periodismo. http://www.digitalnewsreport.org/.

Asamblea General de las Naciones Unidas. 2018. Informe del Relator Especial para la promoción y protección del derecho a la libertad de opinión y de expresión. A/HRC/38/35, 6 de abril. https://undocs.org/pdf?symbol=en/A/HRC/38/35.

Las opiniones expresadas en este artículo/multimedia son las de su(s) autor(es) y no reflejan necesariamente los puntos de vista del CIGI o de su Junta Directiva.

Sobre el autor

Pierre François Docquir

Pierre François Docquir es investigador y experto en los ámbitos de la legislación sobre Derechos humanos y el Derecho y la reglamentación de Internet y los medios de comunicación. Es el jefe del Programa de Libertad de Medios de Comunicación en ARTÍCULO 19 después de unirse a la organización en 2015 como oficial jurídico superior. Anteriormente fue vicepresidente del Conseil Supérieur de l’Audiovisuel en Bélgica y fue investigador en la Universidad Libre de Bruselas, donde obtuvo su doctorado en derecho en 2009.

First published in English by the Centre for International Governance Innovation, copyright 2019.

Acerca de Data.Democracia

Data.Democracia es una iniciativa para mejorar la relación entre democracia y tecnología. La traducción de los ensayos de la colección “Models for Platforms Governance” constituye un esfuerzo de difusión para pensar en políticas públicas tecnológicas colaborativas, internacionalmente coordinadas y con base local.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: