Déformation
Face à la désinformation politique, en amont des européennes, Facebook a eu la modération la plus efficace, YouTube la pire.
Pendant la campagne des élections européennes, Facebook aurait été le meilleur élève en matière de lutte contre la désinformation, YouTube le pire. Ce sont du moins ce qu’indiquent les résultats du travail de la Fundación Maldita, une plateforme journalistique espagnole dédiée à la lutte contre la désinformation.
Dans un rapport publié le 11 juin, Maldita constate que 45 % des contenus de désinformation n’ont été traités d’aucune manière visible par les réseaux sociaux. Cela dit, les disparités sont grandes d’une plateforme à l’autre et d’un sujet à l’autre : dans 57 % des cas, la désinformation concernant les sujets de migration n’a pas du tout été modérée. Une problématique d’autant plus flagrante du côté de TikTok et de YouTube, qui n’ont, chacun, réagi à aucune des publications fausses sur le sujet. De même, la désinformation s’attaquant à l’intégrité des élections n’a été modérée que dans 44 % des cas.
Effets positifs du fact-checking en contexte
Conflit entre Israël et le Hamas / Gaza, climat ou encore institutions européennes, en termes de sujet, Maldita a choisi les thématiques « les plus courantes liées aux élections » et celles « mentionnées dans le DSA comme particulièrement pertinent en termes de risques systémiques ».
En pratique, la Fondation indique avoir analysé le parcours de 1 321 publications de désinformation débunkées par le réseau européen de fact-checkers Elections24Check et publiées entre le 1er février et le 6 juin 2024 dans 26 pays européens.
Elections24Check est une initiative réunissant une quarantaine d’entités de fact-checking de l’Union européenne. Le but : constituer une base de données de fact-checking des discours politiques et de débunker les fausses informations détectées en ligne en contexte électoral.
Une association logique : Maldita se prononce ouvertement en faveur des logiques de modération affichant des fact-checking aux côtés des publications problématiques. De fait, de nombreuses études démontrent que l’ajout de fact-checking directement sur les publications erronées a un effet concret de réduction de leur diffusion.
Meta affiche plus de contexte, TikTok dépublie plus vite
Selon les travaux de la Fondation, chez Meta, Facebook a pris des actions contre 88 % des publications problématiques, contre 70 % pour Instagram. Dans la grande majorité (77%) des cas, du côté de Facebook, il s’agissait d’ajouter des étiquettes indiquant l’existence de fact-checking et de fournir un contexte supplémentaire, de manière relativement cohérente d’un sujet à l’autre.
Instagram, de son côté, a recouru aux étiquettes dans un peu plus d’un cas sur deux en général. La désinformation liée aux sujets climatiques n’a été modérée que dans un cas sur trois, tandis que l’intégralité des publications liées à la guerre en Ukraine se sont vues accolées des éléments de contexte.
Si TikTok n’a agi que contre 40 % des publications, la plateforme les a le plus souvent dépubliées (32 % des contenus en question). Sur les 8 % restant, le réseau social a affiché un panneau d’information avec un lien vers « des informations sur les élections européennes ». Aucune des publications liées aux questions de migration n’ont été modérées, tandis que l’intégralité de celles liées à l’intégrité des élections a été supprimée.
X et YouTube ont été les deux plateformes les moins réactives, X ne réagissant d’aucune manière dans 70 % des cas. Dans près de 15 % des cas, la principale action de modération a consisté à ajouter des Community Notes. Le réseau a aussi recouru, dans une plus faible mesure, à l’affichage d’étiquettes génériques (sur 5,5 % des contenus), à de la suspension de comptes (1,54 %) et à de la limitation de visibilité (0,2 % des contenus étudiés).
Le réseau social se démarque par ailleurs par la présence de 18 des 20 fausses informations les plus virales en amont des élections européennes. Toutes y avaient dépassé 1,5 million de vues.
Quant à YouTube, la plateforme n’a opéré aucune action visible sur 75 % des publications de désinformation recensées, dont certaines ont atteint les 500 000 vues. Lorsqu’action il y a eu, il s’est agi, dans 80 % des cas, d’ajouter « une étiquette générique » ou de signaler « la source de la vidéo comme média d’État, sans fournir d’explication sur le fait que le contenu était faux ».
Pour ces deux dernières plateformes, les publications les plus sujettes à modération sont celles liées à la guerre menée par Israël contre le Hamas à Gaza.