Meta remplace le fact-checking par une modération collective inspirée de X

Meta remplace le fact-checking par une modération collective inspirée de X Meta expérimente un nouveau modèle de modération sur ses plateformes. Les utilisateurs peuvent désormais ajouter des annotations aux publications jugées trompeuses, un système déjà en place sur X.

Meta a officiellement lancé un nouveau système de modération collective, directement inspiré des community notes de X. L'objectif affiché est de remplacer le programme de fact-checking jugé trop politisé par Mark Zuckerberg. Aux États-Unis, cette transition est déjà en cours, et la maison mère de Facebook, Instagram et WhatsApp envisage un déploiement mondial. Cependant, cette approche pose de nombreuses questions sur son efficacité contre la désinformation.

Un modèle inspiré de X

Depuis le 14 mars, Meta permet aux utilisateurs de publier des "notes de contexte" sur des publications potentiellement trompeuses. Ce système repose sur un principe simple : des contributeurs sélectionnés peuvent ajouter des précisions ou rectifier des informations en s'appuyant sur des sources. Si ces ajouts sont validés par une diversité d'utilisateurs, ils sont publiés. Contrairement au fact-checking, ces annotations n'affectent pas la visibilité des publications concernées.

L'algorithme utilisé pour cette modération est basé sur celui de X, mis en open source par Elon Musk. Meta a précisé qu'il pourrait évoluer avec le temps afin de mieux s'adapter aux spécificités de ses plateformes.

Vers une suppression mondiale du fact-checking ?

Meta a déjà annoncé qu'il comptait supprimer totalement ses programmes de fact-checking aux États-Unis. À terme, cette suppression pourrait être étendue à l'ensemble des pays où le groupe opère. Cependant, plusieurs réglementations locales, notamment en Europe, pourraient freiner cette évolution.

En France, où Meta collabore avec des organismes comme l'Agence France-Presse pour la vérification des faits, le gouvernement a réagi. Clara Chappaz, ministre chargée du Numérique, a déclaré selon Mac4ever que Meta devait prouver que son nouveau système respecte la législation en vigueur, notamment le Digital Services Act.

Un système qui suscite des interrogations

L'abandon progressif du fact-checking soulève des préoccupations quant à l'efficacité des community notes. Ce système repose sur un jugement collectif et un algorithme plutôt que sur l'expertise de vérificateurs professionnels. Mark Zuckerberg défend cette approche en affirmant qu'elle serait plus neutre et moins biaisée que l'ancien modèle. Mais plusieurs experts estiment que cette méthode pourrait être exploitée par des groupes organisés cherchant à manipuler l'information.

Casey Newton, journaliste spécialisé dans la tech, souligne que "Meta affirme depuis longtemps qu'il ne veut pas être un 'arbitre de la vérité', mais (le groupe) a financé ces arbitres au cours des dernières années, et il n'est pas certain que quelqu'un se lève pour les remplacer", citée par Sud Ouest.

Un futur incertain pour la lutte contre la désinformation

Si Meta maintient son cap, la modération collective pourrait remplacer définitivement le fact-checking sur Facebook, Instagram et Threads. Le groupe a toutefois reconnu que la transition serait progressive et qu'une phase d'évaluation était en cours. Pour l'instant, les "notes de contexte" ne sont visibles que par les équipes internes de Meta avant d'être publiées plus largement.

Reste à savoir si cette approche permettra réellement de lutter efficacement contre la désinformation ou si elle ouvrira la porte à une diffusion plus large de contenus trompeurs. Les législateurs européens et les observateurs du numérique suivront de près cette transformation qui pourrait redéfinir la modération des réseaux sociaux dans les années à venir.