La censura es la alteración o supresión indebida del discurso, la escritura, las fotografías u otras formas de comunicación, basada en que dicho contenido puede considerarse -de acuerdo a sus propios criterios--subversivo, obsceno, pornográfico, políticamente inaceptable o perjudicial para el bienestar público. Algunos gobiernos y entidades privadas usan esta figura para eliminar contenido por razones que ellos califican como de seguridad nacional, para evitar discursos de odio, proteger a niños y otros grupos, restringir la opinión política o religiosa, y evitar la calumnia o la difamación.
Aunque creamos que las plataformas digitales son fuentes neutrales de información, la realidad es que las redes sociales están retirando información y suspendiendo cuentas, amparándose en los términos y condiciones establecidas por ellas. En otras palabras, cuentan con el poder suficiente para delimitar sobre qué temas se puede debatir de manera abierta y establecen el tono de comunicación pública en su plataforma.
En las actuales circunstancias es importante determinar si la decisión de estas plataformas de bloquear algunos contenidos es parte de sus prerrogativas como empresas privadas o si están atentando contra el derecho fundamental a la libertad de expresión.
Las redes sociales manejan el poder suficiente para delimitar de qué temas se puede debatir de manera abierta en su plataforma y establecen el tono de comunicación pública.
En 1996, Estados Unidos, a través de la sección 230 de la Communications Decency Act, estableció que "ningún proveedor o usuario de un servicio de ordenadores interactivo deberá ser tratado como el publicador o emisor de ninguna información de otro proveedor de contenido informativo".
Esa norma estableció que empresas como Facebook, Twitter y Google eran plataformas y no editores de contenidos, por lo que se les eximía de responsabilidad sobre las publicaciones de usuarios y el contenido publicado en sus redes sociales. En ese sentido, se podría entender que controlar los contenidos y eliminarlos conforme a sus propias reglas los calificaría como editores de contenidos y, por lo tanto, fuera de la protección de la sección 230.
En Estados Unidos se ha considerado que en las relaciones de tipo privado -como en una red social--no existe la protección del derecho a la libertad de expresión. No podemos quedarnos tranquilos con la idea de que la autorregulación no debe tener límites. Por el contrario, debemos cuestionar si el hecho de vigilar y moderar el contenido de los usuarios constituye o no una violación de la libertad de expresión.
Un ejemplo claro de los extremos a los que ha llegado la autoregulación de las plataformas es lo acontecido con Donald Trump y algunos de sus seguidores durante sus últimos días de mandato presidencial. Si bien la controversia se remonta a los años de su primera campaña presidencial, el último hito de censura del mandatario y las plataformas se produjo el 6 de enero de 2021, en el contexto de una tumultuosa certificación de los votos del Colegio Electoral.
Twitter señaló que la cuenta de Trump permanecería bloqueada durante 12 horas y que la prohibición podría extenderse si no borraba varios de sus tuits donde rechazaba los resultados de las elecciones y parecía incitar a la violencia. El 7 de enero de 2021, Facebook también señaló que consideraba muy altos los riesgos de permitir que Trump siga usando sus servicios y que extenderían el bloqueo de sus cuentas en Facebook e Instagram de manera indefinida o, por lo menos, durante las siguientes dos semanas.
A diferencia de Estados Unidos, en Europa se ha reconocido la protección de la libertad de expresión en las relaciones de tipo privado. Uno de los casos más emblemáticos fue el de Glawischnig-Piesczek vs. Facebook Ireland, que llegó a discutirse en la Corte Europea de Justicia y sentó un precedente: las redes sociales no están obligadas a monitorear los contenidos que se publican en sus redes y que los tribunales de cualquier jurisdicción podrían obligar no sólo a la eliminación local, sino mundial, de mensajes o comentarios que, desde su punto de vista restrictivo, violaran la ley local.
Tras revisar ambas corrientes, queda claro que, por más imparcialidad que prediquen los CEO de las plataformas antes mencionadas, es necesario establecer criterios objetivos para cuestionar o bloquear los contenidos que se publican en las plataformas. Resulta arbitrario que sean las propias compañías quienes puedan eliminar contenidos solo porque no compartan la misma ideología política, escudándose en su condición de empresa privada, como sucedió en el caso del expresidente Trump o debemos preferir que sean las autoridades quienes definan qué clase de contenidos deben ser eliminados. ¿Qué criterios establecerías? Déjanos tu opinión.
Las redes sociales manejan el poder suficiente para delimitar de qué temas se puede debatir de manera abierta en su plataforma y establecen el tono de comunicación pública.
Socio fundador de Revoredo Abogados y Board Member de Internet Society Perú. Abogado y Master in Law por Temple University – James E. Beasley School of Law. Ha sido asesor de la Alta Dirección de la SUNAT, asesor legal en el Banco Wiese y asociado del Estudio Rubio Leguía & Normand y Gerente Legal de Telefónica del Perú.
Bajo la normativa existente, los desarrolladores de software tienen derechos morales y patrimoniales sobre sus creaciones.