Modération de contenu sur les réseaux sociaux : une bombe à retardement pour les marques !

Sur les réseaux sociaux, rares sont les utilisateurs n'ayant jamais été témoins, à un moment donné, de commentaires hostiles ou inappropriés sur le Web.

Cela peut partir d’une phrase relativement inoffensive comme « C’est vraiment nul ce que tu fais » et se poursuivre en escalade avec l’usage d’un langage allant loin dans l’ignominie, flirtant avec le racisme, l’homophobie, le sexisme ou la haine. Pour les marques, gérer ces excès représente un vrai défi. Sans la mise en place d’une modération instantanée, la toxicité de ces commentaires peut avoir des effets dévastateurs sur ses utilisateurs et sur son image. D’autant que si elles sur-modèrent leurs réseaux sociaux, elles risquent de se voir reprocher une tendance excessive au jugement ou une incapacité à comprendre leur audience. Une équation qui peut sembler complexe à résoudre, à moins que la technologie ne s’en mêle.

Des contenus toxiques qui menacent directement les marques

Dans un monde numérique où les comportements toxiques sont de plus en plus présents (5,4 % des commentaires publiés en ligne sont de nature toxique1), gagner la confiance de sa communauté est plus essentiel que jamais pour les marques. Chaque organisation devrait en faire une stratégie de premier plan, afin que leurs utilisateurs puissent vivre une expérience positive, dans un espace où ils se sentent en sécurité et où la liberté d’expression est préservée.

À l’heure où la plupart d’entre nous sommes connectés, attirer l’attention des internautes ou la perdre peut se jouer en une fraction de seconde. Dans bien des cas, les marques n’ont qu’une seule et unique chance de faire bonne impression. Il est donc essentiel qu’elles comprennent qu’un seul commentaire toxique peut conduire l’utilisateur à se désengager. Selon Businesswire, 40 % des internautes quittent une plate-forme après leur première confrontation avec des mots offensants. Ils sont également susceptibles de communiquer leur mauvaise expérience aux autres utilisateurs, ce qui peut entraîner des dommages graves et potentiellement irréparables pour la marque.

Des commentaires mal modérés qui peuvent coûter cher

Pour autant, des commentaires mal modérés peuvent coûter très cher.  L’entreprise Nestlé en a fait les frais en 2010 sur ses réseaux sociaux, lorsque des militants écologistes de Greenpeace ont mis en place une campagne pour communiquer sur l’impact négatif de ses fournisseurs d’huile de palme sur l’habitat des orangs-outans en Indonésie. La campagne est très vite devenue virale sur les réseaux sociaux. La réponse de Nestlé : faire retirer la vidéo de Greenpeace en l’accusant de violation du droit d’auteur. Les commentaires négatifs apparaissant sur ses propres canaux ont, par ailleurs, été purement et simplement supprimés. En essayant de dissimuler le problème, la marque n’a fait que le mettre en lumière, aggravant sa situation et sa réputation.

Et les marques ne peuvent pas vraiment compter sur les plateformes sociales pour les aider dans leur modération. Selon la Commission européenne, seuls 62,5 % des contenus haineux sont retirés. Ce qui signifie qu’un volume important de contenu non modéré peut facilement avoir un impact sur des personnes ou des entreprises. Le machine learning auquel ont recours ces plates-formes, comme Facebook ou Instagram, affiche un taux d’erreur qui peut aller jusqu’à 40 % alors qu’il est aujourd’hui technologiquement possible de ramener ce taux à 2 ou 3 %. Le type de modération automatique utilisée à ce jour représente encore un véritable obstacle à la liberté d’expression, dans la mesure où il n’est pas suffisamment efficace pour détecter toutes les subtilités linguistiques et peut facilement s’apparenter à de la censure lorsque les algorithmes réagissent de façon excessive.

La toxicité en ligne : un défi pour les marques aujourd’hui et demain

Pour mettre en place une modération intelligente, automatisée et en temps réel, suffisamment maligne pour sanctionner sans excès, les marques ne peuvent donc compter que sur elles-mêmes. La modération manuelle n’est pas une option lorsque l’on sait qu’en plus d’être une tâche stressante et chronophage, un modérateur humain a besoin de 10 secondes pour analyser et modérer un seul commentaire. Imaginez la situation lorsque cent mille commentaires sont postés en même temps. Même avec la meilleure volonté du monde, il est tout simplement impossible de suivre le flux.

Sur les réseaux sociaux, filtrer les mots-clés est insuffisant et cela sera d’autant plus vrai, demain, dans le Métavers, lorsqu’en plus des mots, il faudra gérer des paroles et gestes physiques. Par ailleurs, on ne modère pas les discussions sur un forum dédié à des fans de football de la même façon que sur une page Facebook de jouets pour enfants. Les marques doivent être capables de faire la différence entre un individu qualifiant un autre individu de « connard » sur son site et un individu racontant qu’on l’a qualifié de « connard ». De plus, de nouvelles formes d’insultes, de jurons et de harcèlement peuvent aussi bien être créées à partir d’émojis ou en langage SMS qu’en prose classique. Les outils d’IA déployés doivent donc pouvoir comprendre leur signification dans chaque contexte et en temps réel.

Ainsi, une modération intelligente est une modération qui combine recours mécaniques et recours linguistiques pour préserver cet incroyable outil qu’est Internet et garantir la rentabilité, la santé et la qualité de vie des personnes et des entreprises.

1*Étude réalisée par la société Bodyguard.ai, entre juillet 2021 et juillet 2022, sur un échantillon de 170 877 461 commentaires générés par les communautés en ligne de plus de 1 200 comptes de réseaux sociaux de ses clients (Facebook, Instagram, Twitter, YouTube, Twitch), rédigés dans 6 langues différentes (anglais, français, espagnol, italien, portugais et allemand).

Contenus toxiques : insultes, haine, misogynie, menaces, racisme, phobie à l’encontre des populations LGBTQIA+, harcèlement sexuel et moral, body shaming, spam, ou encore arnaques.