- English
- Français
Publié le 27 février dans Le Figaro
Imaginez regarder des vidéos mettant en scène des théories du complot, des meurtres ou encore des discours de haine, tous les jours, presque sans interruption. C'est ce que vivent quotidiennement les modérateurs chargés de repérer les contenus problématiques sur Facebook. Le site spécialisé The Verge est allé à leur rencontre dans un centre à Phoenix, aux États-Unis, exploité par un sous-traitant du réseau social: Cognizant. Plusieurs anciens ou actuels employés, qui s'expriment de manière anonyme, révèlent y vivre une expérience douloureuse faite de stress post-traumatique ou de pensées suicidaires.
Dans le monde, environ 30.000 personnes s'occupent de la modération chez Facebook. Près de la moitié sont directement employées par le réseau social pour écrire ou mettre à jour ses «standards de la communauté», des règles internes sur la modération des contenus, et veiller à leur application. L'autre moitié travaille, dans sa majorité, pour des entreprises sous-traitantes, comme Cognizant à Phoenix, et se chargent directement de la modération, en analysant les signalements des internautes de contenus potentiellement problématiques.
Régulièrement sous drogue
Interrogés par le média américain, une douzaine d'entre eux affirment être payés en moyenne 28.800 dollars par an (contre 240.000 dollars pour un employé classique chez Facebook). Beaucoup de modérateurs quittent leur poste moins d'un an après avoir été embauchés. «Une poignée d'erreurs de jugement par semaine» suffit pour être licencié et seulement 9 minutes par jour sont «dédiées au bien-être», expliquent-ils. Une politique sévère qui ne facilite pas le quotidien douloureux de ces modérateurs. Plusieurs d'entre eux précisent en effet être victimes de stress post-traumatique ou de pensées suicidaires et avouent même être régulièrement sous drogue pour tenir le coup face à des vidéos parfois insoutenables ; d'autres encore pratiquent des activités sexuelles dans les cages d'escalier pour décompresser.
Plus problématique encore, l'enquête raconte que certains modérateurs ne distinguent plus le vrai du faux et commencent à croire aux propres théories conspirationnistes qu'ils sont censés combattre sur Facebook. Certaines contre-vérités, comme le fait que la Terre soit plate, que l'Holocauste n'ait pas existé ou encore que le 11 septembre ne soit pas une attaque terroriste, sont des idées répandues dans le centre de modération de Phoenix.
D'autres rédactions comme celle de Bloomberg ont également enquêté sur les conditions de travail de ces modérateurs. Dans un article publié ce lundi, le média révèle notamment qu'un autre sous-traitant de Facebook, Accenture, interdit à ses employés de répondre à des appels téléphoniques personnels ou de quitter le bâtiment où ils travaillent pour faire une pause.
«Beaucoup à faire»
Facebook a réagi à ces révélations dans un communiqué. «Nous allons continuer à écouter nos modérateurs, nos partenaires et les médias», détaille Justin Osofsky, vice-président du réseau social. «Nous demandons à tous nos partenaires de nous faire remonter le plus possible les problèmes qu'ils peuvent rencontrer, et même de façon anonyme via notre ligne d'assistance téléphonique dédiée». Le réseau social confesse qu'il y a encore «beaucoup à faire» sur le sujet et prévoit de tenir un sommet en avril pour discuter du bien être mental et d'autres aspects négatifs du travail de modération.
Ce n'est pas la première fois que Facebook fait face à de lourdes critiques sur sa politique de modération. En septembre dernier, la chaîne Arte diffusait un documentaire, «Les nettoyeurs du web - The Cleaners», montrant le quotidien de modérateurs aux Philippines. Le Figaro s'est également rendu dans une entreprise sous-traitante de Facebook à Barcelone en novembre dernier et avait pu constater de visu les conditions de travail de ces modérateurs, suivi par cinq psychologues en permanence dans les bureaux. Malgré des efforts récents d'ouverture, Facebook est notoirement très secret sur ses efforts de modération. On ignore le nom de la plupart de ses partenaires, ainsi que la localisation de la majorité de ses centres de contrôle.
Pour tenter d'améliorer ses performances dans le domaine, Facebook a par ailleurs développé, en plus de ses modérateurs humains, des outils automatiques de reconnaissance basés sur des technologies d'intelligence artificielle. Ces derniers sont censés repérer, avant ou après la publication, des contenus problématiques. Ils sont très efficaces pour détecter des contenus terroristes ou pornographiques mais pêchent quand il s'agit d'images ou de textes faisant référence à du harcèlement ou à du discours de haine. Dans ces cas précis, l'avis humain reste indispensable, quitte à en payer le prix fort.