Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

El algoritmo de YouTube presuntamente sigue recomendando videos de extremistas a los espectadores

YouTube, entre otras plataformas de redes sociales, ha estado eliminando y eliminando videos que considera propaganda extremista o contenido racial. Sin embargo, también se descubrió que la plataforma propiedad de Alphabet estaba haciendo todo lo contrario, recomendando a los espectadores contenido extremista similar.

Según un estudio realizado por la Liga Anti Difamación (ADL) en los EE. UU., El grupo encontró que a uno de cada 10 participantes se le recomendó un video de un canal extremista, mientras que a dos de cada 10 participantes se les dieron sugerencias de videos de canales “alternativos”. En el corazón de estas recomendaciones no era otro que el algoritmo de recomendación de YouTube.

El problema con el algoritmo de YouTube está lejos de ser nuevo. Durante años, las advertencias internas y las quejas de que la cadena de código detrás de las sugerencias de YouTube se hizo eco de los ejecutivos de YouTube. Si bien YouTube limitó las recomendaciones de dichos videos, deshabilitó los comentarios e incluso prohibió la publicidad de dicho contenido, no los eliminó.

(Fuente de la imagen: Getty.)

Tampoco ayuda que YouTube haya sido la plataforma a la que recurren muchos extremistas, especialmente aquellos que predican la supremacía blanca y las teorías de la conspiración. Como era de esperar, algunos de estos canales incluso pertenecían a personas que participaron en los mortíferos disturbios del 6 de enero, cuando una turba violenta irrumpió en el Capitolio de los EE. UU., Incitada por el ex presidente de los EE. UU., Donald Trump.

(Fuente: TechXplore)