Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

Vea al denunciante de Facebook dar un paso adelante en una nueva entrevista condenatoria de 60 Minutes

Durante las últimas dos semanas, es posible que haya visto uno de los muchos informes condenatorios del Wall Street Journal sobre Facebook. Desde la salud mental de las chicas adolescentes hasta los problemas del tráfico de drogas, WSJ dejó caer el micrófono sobre una variedad de temas.

Bueno, resulta que gran parte de esa información provino de Frances Haugen, una ex empleada de Facebook convertida en denunciante que tomó un montón de información interna de la empresa antes de presentar quejas ante las agencias federales.

Ahora, ella está hablando en 60 Minutes y es absolutamente tan malo (o tal vez peor) como pensabas. Compruébalo a continuación:

En la entrevista, habla de muchas cosas, incluido cómo Facebook tiene un conflicto de intereses entre sus usuarios y cómo ganar dinero. Esencialmente, cuanto más tiempo estés comprometido, más dinero gana Facebook. ¿Y cómo mantiene a la gente comprometida por más tiempo? Mostrándoles contenido divisivo.

También tomó informes que analizaban cómo Facebook le está mintiendo al público acerca de lograr un progreso significativo contra el odio. Un informe decía: “Estimamos que podemos actuar tan solo entre el 3% y el 5% del odio y aproximadamente el 0,06% de V&I [Violence and Incitement] en Facebook.” Este informe fue de este año.

Naturalmente, Facebook vio el especial de 60 minutos y emitió una respuesta. Lena Pietsch, directora de comunicaciones de políticas de Facebook, respondió al informe de 60 Minutes con las siguientes declaraciones:

“Todos los días, nuestros equipos deben equilibrar la protección del derecho de miles de millones de personas a expresarse abiertamente con la necesidad de mantener nuestra plataforma como un lugar seguro y positivo. Continuamos realizando mejoras significativas para abordar la propagación de información errónea y contenido dañino. Sugerir que fomentemos el mal contenido y no hagamos nada simplemente no es cierto “.

En respuesta a la afirmación de que la investigación interna sugiere que la empresa no está haciendo lo suficiente para combatir el odio, la desinformación y la conspiración:

“Hemos invertido mucho en personas y tecnología para mantener segura nuestra plataforma, y ​​hemos hecho de la lucha contra la desinformación y la provisión de información autorizada una prioridad. Si alguna investigación hubiera identificado una solución exacta a estos complejos desafíos, la industria tecnológica, los gobiernos y la sociedad los habrían resuelto hace mucho tiempo. Tenemos una sólida trayectoria en el uso de nuestra investigación, así como la investigación externa y la estrecha colaboración con expertos y organizaciones, para informar cambios en nuestras aplicaciones “.

En respuesta a cómo la empresa supera la seguridad del usuario con fines de lucro:

“Alojar contenido que incite al odio o al odio es malo para nuestra comunidad, malo para los anunciantes y, en última instancia, malo para nuestro negocio. Nuestro incentivo es brindar una experiencia segura y positiva para los miles de millones de personas que usan Facebook. Por eso hemos invertido tanto en seguridad y protección “.

En respuesta a la afirmación de que Facebook pone más ojos en el contenido polarizador y odioso:

“El objetivo del cambio de clasificación de Interacciones Sociales Significativas está en el nombre: mejorar la experiencia de las personas al priorizar las publicaciones que inspiran interacciones, en particular conversaciones, entre familiares y amigos, lo que según las investigaciones es mejor para el bienestar de las personas, y despriorizar el contenido público. La investigación también muestra que la polarización ha estado creciendo en los Estados Unidos durante décadas, mucho antes de que existieran plataformas como Facebook, y que está disminuyendo en otros países donde ha aumentado el uso de Internet y Facebook. Tenemos nuestro papel que desempeñar y continuaremos haciendo cambios consistentes con el objetivo de hacer que la experiencia de las personas sea más significativa, pero culpar a Facebook ignora las causas más profundas de estos problemas y la investigación “.

En respuesta a la afirmación de que Facebook se volvió menos seguro después de que se implementaron medidas de seguridad, y luego se revertió:

“Pasamos más de dos años preparándonos para las elecciones de 2020 con inversiones masivas, más de 40 equipos en toda la empresa y más de 35,000 personas trabajando en seguridad y protección. Al introducir gradualmente y luego ajustar las medidas de emergencia adicionales antes, durante y después de las elecciones, tomamos en cuenta las señales específicas en las plataformas y la información de nuestro compromiso continuo y regular con la aplicación de la ley. Cuando esas señales cambiaron, también lo hicieron las medidas. Es incorrecto afirmar que estos pasos fueron la razón del 6 de enero: las medidas que necesitábamos se mantuvieron vigentes hasta febrero, y algunos, como no recomendar grupos nuevos, cívicos o políticos, permanecen vigentes hasta el día de hoy. Todo esto fue parte de una estrategia mucho más larga y amplia para proteger las elecciones en nuestra plataforma, y ​​estamos orgullosos de ese trabajo “.

Asegúrese de ver la entrevista completa arriba, ya que es solo la punta del iceberg. ¿Que pasa ahora? El tiempo lo dirá, pero todo esto apenas está comenzando.

¿Tienes alguna idea sobre esto? Háganos saber más abajo en los comentarios o lleve la discusión a nuestro Twitter o Facebook.