Facebook a manipulé les émotions de ses utilisateurs à fins de recherche

 

Facebook a modifié la timeline de près de 700 000 de ses utilisateurs afin de mener une étude sur la contagion émotionnelle sur les réseaux sociaux. Les résultats ont été publiés le 17 juin dernier, mais il posent une question éthique importante : Facebook a-t-il le droit de modifier ses algorithmes pour manipuler le comportement de ses utilisateurs ?

facebook-phone-2013

Facebook peut-il impunément modifier la timeline de ses utilisateurs pour influer sur leur comportement ? De fait, il le peut, comme le révèle cette étude parue le 17 juin dernier qui porte le doux nom de « Experimental evidence of massive-scale emotional contagion through social networks » (que l’on pourrait traduire : « Preuve expérimentale de la contagion émotionnelle à grande échelle sur les réseaux sociaux »). Sur le fond, cette étude s’avère très intéressante. Elle pose la question de savoir si les gens ont des comportements qui diffèrent suivant qu’ils sont exposés à une timeline remplie de contenu positif ou négatif. Concrètement, est-ce qu’une personne dont le flux d’actualité est rempli de billets positifs sera incitée à publier des choses plus positives, et inversement, est-ce qu’elle publiera des choses négatives si sa timeline possède un grand nombre de contenus avec des émotions négatives ?

Pour répondre à cette question, les chercheurs – affiliés à Facebook – ont modifié les algorithmes de la timeline de 689 000 utilisateurs (anglophones uniquement) de Facebook afin de procéder à l’expérience. Certains de ces utilisateurs ont été soumis à une timeline contenant uniquement du contenu neutre ou positif provenant de leurs amis Facebook tandis que d’autres ont eu un fil d’actualité neutre ou négatif. Et les chercheurs ont ainsi regardé comment les utilisateurs de ces timelines modifiées ont réagi.

Après analyse, il s’avère que, oui, l’affichage de contenu positif ou négatif a une influence sur les utilisateurs des réseaux sociaux. « Les états émotionnels peuvent se transmettre aux autres par un phénomène de contagion émotionnelle, ce qui peut mener les personnes à ressentir les mêmes émotions sans qu’elles ne s’en rendent compte ». Plus loin l’étude ajoute : « Quand le nombre d’expressions positives est réduit, les personnes publient moins de contenus positifs et plus de contenu négatifs. Quand les expressions négatives sont réduites, le schéma inverse se produit. » En clair, si vous avez des amis déprimés, vous serez plus enclins à publier du contenu négatif sur Facebook.

Si cette étude s’avère très intéressante pour le grand public et surtout pour Facebook, cette manipulation des données de Facebook a des fins de recherches psychologiques (ou sociales ?) a choqué de nombreux internautes. Des journaux américains tels que Slate, The Atlantic ou encore Forbes se sont interrogés sur la morale d’une telle pratique. Car légalement, Facebook précise dans ces conditions d’utilisations que la société américaine se réserve le droit d’utiliser les informations de ses utilisateurs « pour des opérations internes, dont le dépannage, l’analyse de données, les tests, la recherche et l’amélioration des services ». Mais est-ce éthique pour autant ? Katy Waldman, une journaliste de Slate.com souligne avec justesse : « Facebook a délibérément rendu des milliers de personnes tristes ». Surtout, de nombreux internautes s’inquiètent de voir Facebook modifier aussi discrètement les informations des utilisateurs et de pouvoir ainsi les manipuler facilement.

Face au tollé provoqué par la publication de cette étude, Facebook tente de rassurer ses utilisateurs. Isabel Hernandez, une porte-parole de Facebook a ainsi précisé à l’AFP : « cette recherche a été menée pendant seulement une semaine et aucune donnée utilisée n’était liée au compte d’une personne en particulier ». Adam D. I. Kramer, l’un des coauteurs de l’étude rajoute également sur Facebook : « Le but de toutes nos recherches, chez Facebook, est de savoir comment l’on peut améliorer nos services. Pour avoir écrit et préparé cette expérience, je peux vous assurer que notre objectif n’a jamais été de rendre quiconque malheureux. Je peux comprendre pourquoi cette étude a inquiété des gens, et moi et mes co-auteurs sommes désolés de la façon dont la publication a décrit les recherches et l’anxiété que cette étude a créée. » Il n’est pas certain que tout le monde soit plus rassuré après ces déclarations…


Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.