Facebook est-il coupable de manipulation émotionnelle ?

Facebook manipulation émotionnelle 0614 Le réseau social a modifié les flux d'actualités de 700 000 utilisateurs dans le cadre d'une étude qui pose de réels problèmes en matière d'éthique.

Historiquement plutôt laxiste en matière de protection de la vie privée de ses utilisateurs, Facebook a récemment fait de nombreux efforts, clarifiant notamment ses paramètres de confidentialité, proposant un mode de partage de localisation plus intime ou permettant aux utilisateurs de se connecter anonymement aux applications (sauf aux yeux de Facebook). Autant d'initiatives louées par une communauté qui se disait que, devenu mature (et suite à Prism), le réseau social consentait enfin à devenir transparent... Mais Facebook a semble-t-il été rattrapé par ses vieux démons, lui qui vient de se faire accusé d'avoir manipulé les émotions de ses utilisateurs pour les besoins d'une expérience. En cause, la publication d'une étude sur la "contagion émotionnelle" sur Internet, résultat d'une manipulation des flux d'actualités de 700 000 utilisateurs. Durant une semaine en janvier 2012, certains ont ainsi été arbitrairement exposés à des messages majoritairement positifs, d'autres des statuts plutôt négatifs et un dernier groupe à des messages neutres. Les résultats de cette étude sont apparus au sein d'une revue scientifique américaine, le 17 juin dernier. 

Facebook s'abrite derrière ses conditions d'utilisation

Au-delà des résultats, qui montrent que les "manipulations" ont une très légère d'incidence sur le comportement des utilisateurs (les internautes qui ont été exposés à moins de posts positifs n'ont posté que 0,1% de mots positifs en moins), c'est surtout la méthodologie de l'étude qui fait débat, beaucoup y voyant la preuve du peu de cas que font les géants de l'Internet de leurs communautés. Evidemment, Facebook n'a pas jugé bon de prévenir les cobayes de l'expérience dont il faisait l'objet et se retranche désormais derrière sa politique d'utilisation des données. Politique que les utilisateurs acceptent de facto lors de leur inscription et qui l'autorise à utiliser des informations pour "de l'analyse de data, des tests, de la recherche et l'amélioration du service". Une posture que beaucoup jugent bancale. "Facebook aurait dû idéalement chercher des volontaires et mettre en place une case à cocher indiquant leur accord pour être le sujet d'études psychologiques occasionnelles", explique par exemple Forbes. Une infraction au cadre légal et éthique des recherches comportementales qui pose d'autant plus question qu'elle concerne une société qui a prise directe sur les données de près d'1,5 milliard d'utilisateurs dans le monde.

Tous les géants d'Internet jouent sur la présentation d'une page pour trouver la plus adéquate

Alors que le tollé suscité par l'étude allait grandissant, l'un des analystes qui a planché sur le rapport a plaidé la bonne foi. "Nous avions peur que l'exposition à des statuts négatifs n'encourage les gens à ne plus venir sur le réseau social", indique-t-il sur son profil. Mais au fond, de quoi parle-t-on ? Ni plus ni moins que de la variation d'un élément de présentation, en l'occurrence les statuts diffusés sur le fil d'actualités, en fonction des audiences pour déterminer quelles sont les méthodes les plus efficaces. Soit la définition même de l'A/B testing. Une expérimentation que la plupart des grandes entreprises du Web réalisent en permanence, qu'il s'agisse d'améliorer le taux de clic d'une landing page ou de diminuer le taux de rebond d'une page de contenus. Une expérimentation à laquelle Facebook se livre quotidiennement.

L'importance de pouvoir faire un opt-out

S'il parait illusoire et contre-productif de vouloir supprimer ce genre de pratiques, il parait indispensable d'inciter les géants de l'Internet à mieux communiquer dessus... Au moins en donnant les moyens aux internautes de se retirer de telles expériences via un opt-out. Un débat qui s'était déjà posé sur l'utilisation des cookies à des fins publicitaires. Cette transparence est d'autant plus nécessaire qu'à l'heure du big data, la transformation d'Internet en un véritable laboratoire du comportement humain n'est pas sans poser des problèmes éthiques. Quand bien même prévaudrait la maxime "Si c'est gratuit, c'est que c'est vous le produit".

Facebook