Sans le savoir, près de 700 000 utilisateurs anglophones de Facebook ont été « manipulés » par le réseau social, associé à des scientifiques, pour voir si les émotions exprimées par leurs contacts influençaient leur humeur.
Cette recherche, menée pendant une semaine, du 11 au 18 janvier 2012 par Facebook et des scientifiques des universités Cornell et de Californie à San Francisco, portait sur la « contagion émotionnelle ».
Les flux d’actualité de 689 003 personnes, choisies au hasard, ont ainsi été modifiés pour faire apparaître soit davantage de messages positifs, soit davantage de messages négatifs. Et les messages postés par les utilisateurs « surveillés » étaient ensuite décryptés pour savoir s’ils étaient influencés par l’humeur ambiante.
L’étude, publiée dans la revue scientifique américaine Comptes rendus de l’Académie nationale des sciences (PNAS) le 17 juin, a constaté que les utilisateurs ciblés commençaient à utiliser davantage de mots négatifs ou positifs selon l’ampleur des contenus auxquels ils avaient été « exposés ».
« Les états émotionnels sont communicatifs et peuvent se transmettre par un phénomène de contagion, conduisant les autres personnes à ressentir les mêmes émotions sans en être conscientes. »
Selon les auteurs, « ces résultats montrent la réalité d’une contagion émotionnelle de masse via les réseaux sociaux ». D’autres recherches se sont déjà penchées sur ce phénomène, mais cette étude est unique au sens où ses auteurs « ont manipulé », selon leurs propres mots, les données. Ils ont d’ailleurs pris soin de souligner que la recherche était « compatible avec la politique d’utilisation des données à laquelle tous les utilisateurs doivent souscrire en créant un compte Facebook ».
Facebook se justifie
Leur étude, d’abord passée inaperçue dans les grands médias américains, suscite néanmoins une attention grandissante sur la toile après des articles publiés samedi sur Slate et sur les sites du magazine The Atlantic et de Forbes. « C’est sans doute légal, mais est-ce éthique ? », s’est demandé The Atlantic dans son article.
Certains internautes ont exprimé « leur trouble profond » ou qualifié la méthode utilisée « d’alarmante » ou de « démoniaque ». « Facebook a manipulé son “fil d’actualité” pour une expérience psychologique. Le moment est venu de fermer votre compte Facebook », s’échauffait un utilisateur sur Twitter.
Susan Fiske, de l’université de Princeton, qui a édité la recherche, a indiqué à The Atlantic avoir contacté les auteurs pour leur faire part de ses préoccupations quant à leurs travaux. Ils lui ont dit que les autorités de leurs universités avaient approuvé ces travaux « car Facebook, apparemment, manipule systématiquement le contenu des informations diffusées ».
Sollicitée par l’AFP, Mme Fiske a reconnu que les questions éthiques soulevées par cette étude « ont sans aucun doute touché une corde sensible. Mais je pense que c’est à Facebook d’apporter une réponse aux inquiétudes » de ses utilisateurs.
Facebook, plus grand réseau social avec plus d’un milliard d’utilisateurs, a rejeté les accusations. « Cette recherche a été menée pendant seulement une semaine et aucune donnée utilisée n’était liée au compte d’une personne en particulier », a indiqué une porte-parole, Isabel Hernandez.
« Nous faisons des recherches pour améliorer nos services (…) et une grande partie consiste à comprendre comment les gens répondent à différents contenus positifs ou négatifs. Nous examinons soigneusement les recherches que nous faisons et avons un processus interne d’examen très strict. »