La red social suprimió durante el mes de marzo “centenares de miles” de contenidos sobre la COVID-19 que “podían representar un peligro inminente para la salud”.
Facebook alertará directamente a sus usuarios cuando consulten informaciones falsas relacionadas con el nuevo coronavirus, anunció el jueves su presidente, Mark Zuckerberg.
La red social suprimió durante el mes de marzo “centenares de miles” de contenidos sobre la COVID-19 que “podían representar un peligro inminente para la salud”, como por ejemplo publicaciones que afirmaban que la lejía permitía curarse del virus.
Los usuarios que pinchen en este tipo de informaciones falsas, las comenten o compartan recibirán un mensaje en su hilo de actualidad, incitándoles a consultar fuentes seguras como el sitio de la Organización Mundial de la Salud (OMS), indicó Zuckerberg en un blog de Facebook.
Zuckerberg defendió también los esfuerzos de la red social para “limitar la difusión de la desinformación sobre la COVID-19”.
Facebook aseguró haber redirigido “cerca de 2.000 millones de usuarios”, es decir, la casi totalidad de sus “miembros”, hacia informaciones procedentes de las autoridades de salud pública, mediante su “Centro de información COVID-19”, disponible en cada hilo de actualidad.
Resultado: “más de 350 millones de usuarios pincharon en nuestros mensajes pedagógicos”, según Zuckerberg.
Las contribuciones de las 60 organizaciones de fact-checking que trabajan con Facebook en el mundo, como la AFP, también serán destacadas en el “Centro de información”.
Si una información resulta ser falsa o imprecisa, pero no representa un “peligro inminente”, la red social le colocará una “etiqueta de advertencia”.
Unos 40 millones de publicaciones ya recibieron esta etiqueta en marzo, disuadiendo a los usuarios de consultar sus contenidos en el 95% de los casos, según Facebook.
Muchos observadores como la ONG Avaaz habían denunciado la incapacidad de Facebook de frenar la difusión de informaciones falsas, con consecuencias graves.
“Facebook está en el epicentro de esta crisis de desinformación”, comentó Fadi Quran, responsable de Avaaz, en un comunicado.
“Pero la empresa da hoy un paso importante para limpiar este ecosistema tóxico, al convertirse en la primera red social que alerta a sus usuarios expuestos a informaciones falsas sobre el coronavirus y les redirige hacia informaciones que pueden salvar vidas”.
Whatsapp, que pertenece a Facebook, también puso en marcha a principios de abril nuevas medidas para luchar contra la desinformación. Sus usuarios solo pueden transferir mensajes virales a un único contacto a la vez, para limitar la propagación de ‘fake news’.
La AFP trabaja en más de 30 países y en doce idiomas en el programa “Third party fact-checking” de verificación de contenidos desarrollado por Facebook. Dentro de este programa, que fue lanzado en diciembre de 2016, Facebook remunera a unos 60 medios de todo el mundo, de información general o especializados, para usar sus fact-checks en su plataforma y en Instagram.
Si uno de estos medios detecta que una información es falsa o engañosa, los usuarios de Facebook y Instagram tienen menos posibilidades de verla aparecer entre sus noticias de actualidad. Y si alguien intenta compartir esta información, la plataforma le propone la lectura del artículo con la correspondiente verificación. Facebook no elimina ninguna publicación. Los medios que participan tienen total libertad en la elección y tratamiento de los temas que desean verificar.
Los medios participantes son totalmente libres en la elección y el tratamiento de los temas.