Parler Ban: ¿Deberían las plataformas en línea ser responsables del contenido de los usuarios?

Parler Trump social media platform

No se puede culpar a la mayoría de los malasios, incluso a los adictos a las redes sociales, por no saber qué es Parler. Sin embargo, los gigantes tecnológicos Apple, Google y Amazon han prohibido recientemente la aplicación en sus plataformas, citando preocupaciones de que se esté utilizando para promover la violencia. ¿Por qué tanto alboroto y por qué debería importarme?

Porque el fiasco de Parler plantea una pregunta increíblemente importante que resuena no solo en los Estados Unidos, sino también en Malasia. Es decir; ¿Deberían las plataformas en línea ser consideradas (legal y moralmente) responsables del contenido publicado por sus usuarios?

Antes de su (efectiva) desaparición, Parler se promocionaba regularmente como una alternativa libre de “libertad de expresión” frente a sus rivales mucho más moderados, Twitter y Facebook. Sus críticos dicen que la aplicación fue utilizada por alborotadores para planificar, alentar y ejecutar la violenta violación del edificio del Capitolio de Estados Unidos el 6 de enero.

Durante años, las plataformas de redes sociales han sido acusadas de no hacer lo suficiente para frenar todo, desde la propaganda terrorista y el reclutamiento (piense en los videos de ISIS) hasta teorías de conspiración y noticias falsas, discursos de odio e incitaciones a la violencia. El presidente de los Estados Unidos, Donald Trump, es posiblemente un reincidente en las dos últimas categorías, pero la gran tecnología se abstuvo anteriormente de censurar cualquiera de sus publicaciones, a pesar de las intensas y crecientes críticas.

En 2018, al explicar por qué todavía no había prohibido a Trump, Twitter dijo: “Bloquear a un líder mundial de Twitter o eliminar sus controvertidos Tweets ocultaría información importante que la gente debería poder ver y debatir”. Basta decir que el pensamiento de la empresa ha cambiado claramente desde los recientes disturbios en el Capitolio de los Estados Unidos, que el presidente estadounidense está acusado de incitar. Al prohibir (finalmente) a Trump ahora, Twitter está concediendo efectivamente que tiene la responsabilidad moral de vigilar el contenido de sus usuarios, incluso un presidente estadounidense en ejercicio.

Pero esto no tiene precedentes. Más cerca de casa, el ex primer ministro Mahathir Mohamad se metió en problemas con Facebook y Twitter en octubre pasado por sus comentarios publicados sobre la violencia extremista en Francia. Sus publicaciones declararon que “los musulmanes tienen derecho a estar enojados y matar a millones de franceses por las masacres del pasado”, fueron rápidamente borradas por ambas plataformas de redes sociales. ¿Podrían haber sobrevivido sus comentarios si se hubieran publicado en Parler?

Respondiendo a la prohibición de Apple de la aplicación, el CEO de Parler, John Matze, espetó: “Aparentemente, creen que Parler es responsable de TODO el contenido generado por el usuario en Parler. Por lo tanto (sic) por la misma lógica, Apple debe ser responsable de TODAS las acciones tomadas por sus teléfonos. Cada coche bomba, cada conversación ilegal por teléfono celular, cada crimen ilegal cometido en un iPhone, Apple también debe ser responsable “.

Pero si aplicaciones como Parler han mostrado toda renuencia a moderar el contenido del usuario o actuar contra el contenido problemático señalado por sus anfitriones y usuarios, ¿cómo vamos a pensar en plataformas que eliminan el contenido de usuario ilegal u ofensivo una vez que se dan cuenta de ello? ¿Deberían seguir siendo responsables?

Una vez más, más cerca de casa, el portal de noticias local Malaysiakini está siendo juzgado por desacato al tribunal por los comentarios publicados por sus lectores. El portal dijo que eliminó los comentarios problemáticos poco después de conocerlos. Pero la fiscalía argumentó que esto era insuficiente: los comentarios deberían haberse eliminado antes y Malaysiakini debería haber hecho más comentarios moderados.

Está previsto que el Tribunal Federal, el tribunal más alto del país, se pronuncie sobre el caso este viernes, pero es posible que se produzca un retraso debido a la nueva MCO. Independientemente de la decisión de la corte, este debate en curso sobre la libertad y la responsabilidad (especialmente quién es responsable y en qué medida) es ciertamente global, ciertamente consecuente y ciertamente está lejos de terminar.

(Imagen: Reuters vía BBC)

0 Shares