January 17, 2022

Así es como funciona el algoritmo de Facebook

Se ha culpado al algoritmo de alimentación de noticias de Facebook por avivar el odio sectario, dirigir a los usuarios hacia el extremismo y las teorías de la conspiración e incentivar a los políticos a adoptar posiciones más divisivas. Está en el centro de atención gracias a las oleadas de revelaciones de los documentos de Facebook y el testimonio de la denunciante Frances Haugen, quien argumenta que está en el centro de los problemas de la empresa.

Pero, ¿cómo funciona exactamente y qué lo hace tan influyente?

Si bien la frase “el algoritmo” ha adquirido connotaciones siniestras, incluso míticas, es, en su nivel más básico, un sistema que decide la posición de una publicación en el servicio de noticias basándose en predicciones sobre las preferencias y tendencias de cada usuario. Los detalles de su diseño determinar qué tipos de contenido prosperan en la red social más grande del mundo y qué tipos languidecen, lo que a su vez da forma a las publicaciones que todos creamos y las formas en que interactuamos en su plataforma.

Facebook no se lanza de forma integral datos sobre las proporciones reales de publicaciones en el feed de cualquier usuario o en Facebook en su conjunto. Y el feed de cada usuario está altamente personalizado para sus comportamientos. Pero una combinación de documentos internos de Facebook, información disponible públicamente y conversaciones con personas internas de Facebook ofrece una idea de cómo los diferentes enfoques del algoritmo pueden alterar drásticamente las categorías de contenido que tienden a prosperar.

Cuando Facebook lanzó News Feed, en 2006, fue bastante simple. Mostraba una lista personalizada de actualizaciones de actividad de amigos, como “Athalie actualizó su foto de perfil” y “James se unió a la red de San Francisco, CA”. La mayoría se generaron automáticamente; no existía una “publicación”, solo actualizaciones de estado en tercera persona, como “Ezra se siente bien”. A partir de 2009, un algoritmo de clasificación relativamente sencillo determinaba el orden de las historias para cada usuario, asegurándose de que las cosas jugosas, como la noticia de que un amigo “ya no estaba en una relación”, aparecieran cerca de la parte superior.

Durante los últimos 12 años, casi todo lo relacionado con el algoritmo de suministro de noticias ha cambiado. Pero el principio de colocar las cosas jugosas en la parte superior, o al menos las cosas que probablemente interesen a un usuario determinado, se ha mantenido. El algoritmo tiene simplemente se volvió cada vez más sofisticado hasta el punto de que hoy en día puede tomar más de 10,000 señales diferentes para hacer sus predicciones sobre la probabilidad de que un usuario interactúe con una sola publicación, según Jason Hirsch, director de política de integridad de la compañía.

Sin embargo, el sistema de clasificación de las fuentes de noticias no es un misterio total. Dos elementos cruciales están completamente bajo el control de los empleados humanos de Facebook y dependen de su ingenio, su intuición y, en última instancia, sus juicios de valor. Los empleados de Facebook deciden en qué fuentes de datos puede basarse el software para hacer sus predicciones. Y deciden cuáles deberían ser sus objetivos, es decir, qué resultados medibles maximizar y el importancia relativa de cada uno.

[How Big Tech got so big: Hundreds of acquisitions]

Los tesoros de documentos internos han ofrecido una nueva perspectiva sobre cómo Facebook toma esas decisiones críticas, y cómo piensa y estudia las compensaciones involucradas. Los documentos, revelaciones hechas a la Comisión de Bolsa y Valores de EE. UU. Y entregadas al Congreso en forma redactada por el asesor legal de Haugen, fueron obtenidas y revisadas por un consorcio de organizaciones de noticias, incluido The Washington Post. Han centrado la atención de los legisladores en el algoritmo de Facebook y si este y otros algoritmos de recomendación similares en otras plataformas deben regularse.

Defendiendo el algoritmo de Facebook, el jefe de asuntos globales de la compañía, Nick Clegg, dijo a ABC “This Week” a principios de este mes que es en gran medida una fuerza para el bien, y que eliminar las clasificaciones algorítmicas daría lugar a “más, no menos” discursos de odio y desinformación en las personas. alimenta.

En sus primeros años, el algoritmo de Facebook priorizó señales como me gusta, clics y comentarios para decidir qué publicaciones amplificar. Los editores, las marcas y los usuarios individuales pronto aprendieron cómo crear publicaciones y titulares diseñados para inducir me gusta y clics, lo que dio lugar a lo que se conoció como “clickbait”. En 2013, editores advenedizos como Upworthy y ViralNova estaban acumulando decenas de millones de lectores con artículos diseñados específicamente para jugar con el algoritmo de alimentación de noticias de Facebook.

Facebook se dio cuenta de que los usuarios estaban cada vez más recelosos de los titulares teaser engañosos, y la compañía recalibró su algoritmo en 2014 y 2015 para degradar el clickbait y centrarse en nuevas métricas, como la cantidad de tiempo que un usuario pasa leyendo una historia o viendo un video, e incorporando encuestas sobre qué contenido encontraron los usuarios más valioso. Casi al mismo tiempo, sus ejecutivos identificaron el video como una prioridad comercial y utilizaron el algoritmo para impulsar los videos “nativos” compartidos directamente en Facebook. A mediados de la década de 2010, las noticias se inclinaron hacia contenido ingenioso y producido profesionalmente, especialmente videos que llamarían la atención de la gente.