¿Cuál es el papel de YouTube en la radicalización?

Un importante debate sobre la causa del extremismo de YouTube ha dominado los últimos días. Un estudio reciente afirma que el algoritmo de YouTube no recomienda videos a los usuarios que radicalicen a las personas.

Un nuevo artículo sobre el algoritmo de YouTube radicalizar razón hizo que la polémica volviera a estallar. El artículo, escrito por Mark Ledwich y Anna Zaitsev, afirma que YouTube no recomienda videos similares después de un video extremista. El artículo, que aún no ha sido evaluado en una revista revisada por pares, afirma que el algoritmo de YouTube protege los principales canales de medios contra el contenido independiente.

Otros expertos que trabajan en este campo respondieron al artículo de Leidwich y Zaitsev. Los expertos criticaron el método del artículo y dijeron que el algoritmo solo necesitaba hacer tal evaluación. algunos del factor Dijeron que la ciencia de datos por sí sola no puede responder a esta pregunta.

La socióloga Zeynep Tüfekçi, que primero trabajó en el campo de la tecnología, afirmó que YouTube desempeñó un papel en la radicalización en su artículo publicado en el New York Times. Tüfekçi, los usuarios de los videos recomendados de YouTube se están volviendo cada vez más al contenido excesivo Dijo que estaba dirigiendo. Zeynep Tüfekçi escribió que los videos sobre carreras conducen a ultramaratones, videos sobre vacunas a teorías de conspiración y videos de política a videos como negaciones del Holocausto.

Si no se controlan los algoritmos, los extremistas se apoderarán de los medios

Guillaume Chaslot, exempleado de YouTube, discutió en detalle los argumentos de Zeynep Tüfekçi. Chaslot, las recomendaciones de YouTube son en realidad teorias de conspiracion y dice que está sesgado hacia los videos que son fundamentalmente incorrectos, pero así es como la gente pasa más tiempo en el sitio.

Máximos tiempos de visualización posibles al siguiente nivel la extracción es la base de los algoritmos de YouTube. La falta de transparencia de YouTube como empresa hace imposible la lucha contra la radicalización. Sin transparencia, es difícil encontrar formas de mejorar esta situación.

YouTube no está solo en su falta de transparencia. Muchas organizaciones, desde empresas hasta agencias gubernamentales, hablan de sus grandes sistemas. transparente sin comportarse Muchos sistemas, desde los sistemas que permiten que los niños sean colocados en las escuelas hasta la determinación de puntajes de crédito, usan algoritmos de aprendizaje automático. Generalmente, las instituciones y empresas no dan ninguna explicación sobre cómo estos sistemas toman decisiones.

Necesidad de explicar cómo funciona el sistema de recomendación

Los sistemas de aprendizaje automático a menudo son es grande y complejo. Estos sistemas se definen generalmente como cajas negras donde entra información y emerge información y acción. Es por eso que tratar de entender cómo funciona el sitio sin saber exactamente cómo funcionan los algoritmos como el sistema de recomendaciones de YouTube es como tratar de entender cómo funciona un automóvil sin abrir el capó.

Para prevenir el extremismo y el extremismo, las empresas y las agencias gubernamentales pueden ser más transparentes sobre los algoritmos que utilizan. Hay dos formas de lograr esta transparencia. Primero, contra explicaciones fácticas envío. Para las contraexplicaciones, la lógica básica del algoritmo se puede explicar sin explicar toda la lógica. Cuando un banco determina su puntaje de crédito, una declaración como “” puede ser una definición simple pero efectiva para el funcionamiento del sistema.

El segundo método es la prueba y verificación de algoritmos. Backtesting de algoritmos y continuamente comprobación, Puede prevenir sugerencias falsas. La auditoría del algoritmo de YouTube puede revelar qué videos recomienda primero la función de recomendación.

Hacer declaraciones contrafactuales o verificar algoritmos es un proceso difícil y costoso, pero extremadamente importante. porque la alternativa para la humanidad puede producir peores resultados. Si los algoritmos no se controlan y no se controlan, los teóricos de la conspiración y los extremistas pueden apoderarse gradualmente de los medios.

Fuente: https://thenextweb.com/syndication/2020/01/30/scientists-are-arguing-over-youtubes-role-in-online-radicalization/

Publicaciones relacionadas

Botón volver arriba