Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

Twitter está estudiando sus propios algoritmos para ver qué “daños no intencionales” causan

Twitter anunció esta semana que analizaría en profundidad sus algoritmos de aprendizaje automático. Si bien cosas como el aprendizaje automático pueden ser una gran herramienta, también pueden ser dañinas ya que, en última instancia, se alimenta de información de humanos que pueden mostrar sesgos, incluso si no es intencional.

En Twitter, estos algoritmos juegan un papel en lo que ves como temas recomendados, e incluso las imágenes están sujetas a sesgos. Uno de los ejemplos más conocidos se puede encontrar aquí, donde las imágenes de Mitch McConnell y Barack Obama dejaron de mostrar la imagen de McConnell.

En la publicación, Twitter señala que analizará tres cosas principales:

Un análisis de sesgo racial y de género de nuestro algoritmo de recorte de imágenes (prominencia) Una evaluación de la equidad de nuestras recomendaciones de la línea de tiempo de inicio en todos los subgrupos raciales Un análisis de las recomendaciones de contenido para diferentes ideologías políticas en siete países

Twitter dice que utilizará los hallazgos no solo para estudiar cómo funcionan sus sistemas, sino también para usar la información para mejorar la experiencia de la plataforma para todos en la plataforma social. La publicación señala que los hallazgos pueden “dar lugar a cambios en nuestro producto, como eliminar un algoritmo y dar a las personas más control sobre las imágenes que twittean”.

Recientemente, el CEO de Twitter, Jack Dorsey, señaló que eventualmente quería que los usuarios no solo pudieran ver más algoritmos de la compañía, sino que también permitieran a las personas elegir los algoritmos que se utilizan para presentarles recomendaciones y anuncios.

¿Tienes alguna idea sobre esto? Háganos saber más abajo en los comentarios o lleve la discusión a nuestro Twitter o Facebook.