Twitter analizará las deficiencias de sus algoritmos para detectar daños no intencionales
Cyl dots mini

Twitter analizará las deficiencias de sus algoritmos para detectar daños no intencionales

Dispositivo móvil con la aplicación Twitter. Foto: EP

Utilizará sus hallazgos "para mejorar la experiencia que la gente tiene en Twitter".

Twitter ha anunciado su nuevo plan para entender la forma en que se comporta el algoritmo de su red social, con el objetivo de descubrir los potenciales daños que puedan producirse con su uso, como el sesgo racial y de género en el recorte de imágenes.

 

La compañía tecnológica es consciente de que el uso de su algoritmo de aprendizaje automático puede tener un impacto en "cientos de millones de tuits al día", y que el propio diseño del sistema "puede ayudar a iniciar un comportamiento diferente" del que se pretendía que tuviera.

 

Por ello, en ha informado en su blog de su plan para " evaluar los daños no intencionales posteriores o actuales en los algoritmos" que se usan en la red social para poder priorizar los problemas que en la compañía abordarán en primer lugar.

 

Un equipo de trabajo interdisciplinar, el equipo 'Ética, transparencia y responsabilidad del aprendizaje automático' (Meta, por sus siglas en inglés) se encargará de los análisis, que en un primer momento adoptará tres líneas de estudio: el sesgo racial y de género en el recorte de imágenes (prominencia), las recomendaciones de la línea de tiempo de inicio en todos los subgrupos raciales y las recomendaciones de contenido para diferentes ideologías políticas en siete países.

 

Según ha destacado la compañía, "las soluciones técnicas por sí solas no resuelven los posibles efectos dañinos de las decisiones algorítmicas". Por ello, Meta estudiará cómo los sistemas de la plataforma y utilizará sus hallazgos "para mejorar la experiencia que la gente tiene en Twitter".