Hace casi tres años, Meta anunció una colaboración con más de una docena de investigadores independientes para analizar el impacto que Facebook e Instagram tuvieron en las elecciones de 2020. Tanto Meta como los investigadores prometieron que el proyecto, basado en importantes volúmenes de datos internos, ofrecerÃa un análisis independiente sobre temas como la polarización y la desinformación.
Recientemente se obtuvieron los primeros resultados de estas investigaciones en forma de cuatro artÃculos revisados por pares publicados en las revistas Science y Nature. Estos estudios ofrecen una nueva visión intrigante sobre cómo los algoritmos de Facebook e Instagram afectaron lo que los usuarios veÃan antes de las elecciones presidenciales de 2020.
Un estudio publicado en Nature examinó el efecto de las llamadas "cámaras de eco", es decir, cuando los usuarios están expuestos a una gran cantidad de fuentes "afines". Si bien los investigadores confirmaron que la mayorÃa de los usuarios en Estados Unidos ven la mayorÃa de su contenido proveniente de amigos, páginas y grupos "afines", señalaron que no todo este contenido es explÃcitamente polÃtico o relacionado con noticias. También encontraron que reducir la cantidad de contenido "afÃn" disminuyó el compromiso, pero no cambió de manera medible las creencias o actitudes de los usuarios.
Estos hallazgos sugieren que los efectos de las cámaras de eco a menudo se malinterpretan y no son tan perjudiciales como se cree. Otro estudio analizó el efecto de los feeds cronológicos en comparación con los generados algorÃtmicamente. Este tema cobró especial relevancia en 2021 gracias a las revelaciones de la denunciante Frances Haugen, quien abogó por volver a los feeds cronológicos. No sorprendentemente, los investigadores concluyeron que los feeds algorÃtmicos de Facebook e Instagram "influyeron en gran medida en las experiencias de los usuarios".
El estudio encontró que el feed cronológico redujo drásticamente el tiempo que los usuarios pasaban en la plataforma, disminuyó su interacción con el contenido y modificó la mezcla de contenido que se les mostraba. Los usuarios veÃan más contenido de amigos moderados ideológicamente y fuentes con audiencias mixtas, más contenido polÃtico, más contenido de fuentes no confiables y menos contenido clasificado como incivil o que contenÃa palabras ofensivas en comparación con el feed algorÃtmico.
Sin embargo, los investigadores señalaron que el feed cronológico no causó cambios detectables en las actitudes polÃticas, el conocimiento o el comportamiento fuera de lÃnea de los usuarios.
Por otro lado, la investigación realizada por Science, se centró en el impacto del contenido compartido en el perÃodo previo a las elecciones de 2020. Los investigadores encontraron que eliminar el contenido compartido "reduce sustancialmente la cantidad de noticias polÃticas, incluido el contenido de fuentes no confiables", pero no "afecta significativamente la polarización polÃtica ni ninguna medida de actitudes polÃticas a nivel individual".
Además, los investigadores analizaron las noticias polÃticas que aparecieron en los feeds de los usuarios, considerando si eran de tendencia liberal o conservadora. Concluyeron que Facebook está "substancialmente segregado ideológicamente", pero que esta segregación ideológica se manifiesta más en el contenido publicado por páginas y grupos que en el contenido publicado por amigos. También encontraron que los usuarios conservadores tenÃan más probabilidades de ver contenido de fuentes "no confiables" y artÃculos calificados como falsos por los verificadores de datos externos de la compañÃa.
Aunque algunos de los hallazgos parecen favorecer a Meta, que ha argumentado durante mucho tiempo que el contenido polÃtico es solo una pequeña parte de lo que la mayorÃa de los usuarios ven, una de las conclusiones más destacadas de la investigación es que no existen soluciones evidentes para abordar la polarización en las redes sociales. "Los resultados de estos experimentos no muestran que las plataformas no sean el problema, pero sà demuestran que no son la solución", declaró David GarcÃa, de la Universidad de Konstanz, quien formó parte del equipo de investigación.
En resumen, estas investigaciones ofrecen una visión más completa y matizada sobre el impacto de los algoritmos de Meta en las elecciones de 2020. Si bien hay algunas conclusiones que respaldan a Meta, también se destacan aspectos problemáticos y se plantea la necesidad de encontrar soluciones para abordar la polarización en las redes sociales.