¿Cuáles son las armas de Facebook para frenar la desinformación?
Las noticias manipuladas se revisan continuamente en la plataforma a través de verificadores de publicaciones. Y para evitar que el contenido pernicioso se propague, la red prioriza los post de cuentas cercanas y preferenciales. También mantinene una línea constante de capacitación de organizaciones de ‘fast checking’ y en intervención de controladores de contenidos. Las advertencias en cuentas que buscan el debate y las provocaciones, como las provenientes del medio ruso RT, son visibles.
En la principal red social del grupo Meta, la regulación de la desinformación pasó de las advertencias a la eliminación y suspensión de cuentas que divulgan información falsa. Así lo hizo público la misma plataforma en el 2020, cuando anunció un control más estricto a las ‘fake news’ con un nuevo proceso de verificación.
El control se intensificó tras polémicas como la denuncia por una supuesta venta de información de 87 millones de usuarios a la consultora política Cambridge Analytica, que le costó a Facebook una multa de USD 5.000 millones, impuesta en el 2019.
El problema salió a la luz con decenas de reportajes e informes donde se indicó que la red social persuadió a votantes del Reino Unido para mostrarse a favor del referéndum del Brexit, en el 2016, con publicaciones erróneas que posteriormente fueron eliminadas.
Para recuperar su reputación la plataforma invirtió en la implementación de un proceso de comprobación que se hizo más visible luego del 2020. Así lo recuerda Roberto Moreano, docente de Periodismo de la UDLA y experto en periodismo digital.
Esa inversión, explica Moreano, se evidenció en distintas aristas como en la capacitación de organizaciones de ‘fast checking’ y en intervención de controladores de contenidos. Las advertencias a manera de contexto que ahora se observan en algunas publicaciones de medios, también se aplicaron.
En determinadas noticias del canal Russia Today (RT en Español) en esta red, por ejemplo, las aclaraciones que da Facebook sobre su procedencia aparecen junto a cada post (anexo 1).
En el 2018, la regulación más estricta de FB ya dio sus frutos con una primera identificación pública de 82 páginas creadas en Irán y que incumplieron reglamentos base de Facebook, sobre “comportamiento falso coordinado”.
Lea también: Rafael Correa, entrevistador estrella de RT, canal propagandístico de Putin
El contenido desde Rusia, en la mira
La campaña desinformativa proveniente desde Rusia, en el contexto de la guerra con Ucrania, también fue identificada en esta red en septiembre del 2022. En ese año, Facebook detectó al menos 1.600 cuentas falsas que se utilizaban para la difusión de noticias manipuladas y malintencionadas.
El contenido se introdujo en países como Italia, Alemania, Francia, Reino Unido, y claro, Ucrania. Y los hallazgos continuaron en los meses siguientes y hasta en el 2023.
El estudio ‘Desinformación y Guerra’ sobre verificación de imágenes rusas falsas sobre este conflicto, y divulgadas por la revista Íconos en enero del 2023, analizó a ocho plataformas y concluyó que Facebook alojó la mayor cantidad de imágenes manipuladas desde Rusia. El análisis se realizó en publicaciones difundidas entre enero y abril del 2022.
Este uso preferencial del que se vale el poder político en redes como Facebook, para persuadir a los usuarios, está estrechamente ligado a lo emocional. Así lo comenta Pablo Escandón, docente de comunicación de la Universidad Andina Simón Bolívar.
“Quienes están buscando posicionar un tipo de relato recurren a estos espacios, donde está una gran parte de personas para generar conversación, diálogos, debates y todo lo que provoque y lleve a la gente a discutir algo”, enfatiza el docente.
Para Escandón, los grupos políticos ya saben cómo “influir emocionalmente sobre cierto grupo de usuarios” en redes como Facebook, donde prima lo visual. De allí que los comentarios a distintas publicaciones se difunden casi sin mesura, y como consecuencia, la conversación motiva al algoritmo a posicionar dicho contenido.
Pero, aunque las publicaciones en Facebook -que incluyen contenido político y polémico- provoquen todo tipo de reacciones y debates, sí pasan por filtros y regulaciones. Eso se puede observar, por ejemplo, en una transmisión en vivo que el canal RT realizó la noche del 21 de agosto del 2023. Ese día se conoció que el entonces candidato Daniel Noboa y la opción del correísmo, Luisa González, se enfrentarían en el balotaje por la Presidencia de Ecuador.
El post que fue publicado tres veces alcanzó las 7.000 visualizaciones al menos hasta el 28 de febrero del 2024 y obtuvo 221 likes, 35 reacciones y 70 comentarios. Sin embargo, de los mismos solo se visualizan 16 comentarios en total y en ninguno de ellos aparecen insultos, amenazas, frases negativas u otra reacción malintencionada.
A decir de Escandón, en momentos electorales como aquella primera vuelta para elegir al Primer Mandatario ecuatoriano se vuelve más evidente el control que aplica Facebook a las publicaciones. Pero eso no quiere decir que hay una censura total de contenidos.
Lea también: Sanciones rusas al banano se levantaron, tras ataques mediáticos de satanización
El algoritmo, la clave para discernir las publicaciones
Cristian Espinosa, director de Cobertura Digital, coincide en que aunque Facebook ha intentado aplicar algunos procesos de regulación incluso a través de verificadores externos no han resultado ser “lo suficientemente rápidos” para detener a toda la desinformación que circula en este espacio. Uno de los inconvenientes, añade Espinosa, es que hay menos contenido en tiempo real que se vuelve más difícil para analizar.
Lo que hace esta red, a través de su algoritmo, es seleccionar el contenido que le resulte más relevante para cada usuario de acuerdo con sus preferencias. De allí que, al ingresar a la ventana de inicio de cada perfil, las primeras noticias o post que aparecen en cada cuenta provienen de contactos o grupos más frecuentados y cercanos a cada persona.
“Facebook busca controlar qué tipo de contenido le llega a cada usuario dependiendo sus preferencias y lo que va aprendiendo del usuario mismo”, explica el experto Joako Cadena, experto en Marketing Digital, en una de sus clases virtuales disponibles en línea.
Por todo eso, la creación de cuentas falsas para la difusión de la información pierde terreno de a poco en esta plataforma, donde el seguimiento a las cuentas consideradas falsas no se queda solo en el intento. De hecho, una de las pistas para detectarlas es la cantidad mínima de seguidores, tal y como lo comentó Nathaniel Gleicher, responsable de políticas de seguridad de Facebook, en enero del año pasado.
Y aunque la revisión del origen de una publicación depende de un par de clics, la contrastación de información aún es un paso que omite la mayoría de los usuarios que navegan en esta red social. Esa fue una de las conclusiones que se desprendieron del estudio ‘La era de la desinformación y de las noticias falsas en el ambiente político ecuatoriano de transición’, publicado por la Universidad San Francisco de Quito en el 2019.
Las autoras de este análisis, Fernanda Tusa y María Belén Durán, coinciden en que los usuarios “simplemente comparten (el contenido) por impulso, por el simple hecho de que esa publicación refuerza sus creencias e ideologías”.
Lea también: La desinformación rusa se enmascara con el libre debate de ideas