Lu dans la presse
|
Publié le 30 Novembre 2018

Internet - Visite dans l’un des très secrets centres de modération de Facebook

A Barcelone, dans les bureaux du Competence Call Center, 800 personnes décident chaque jour du sort de contenus problématiques publiés sur le réseau social.

Publié le 29 novembre dans Le Monde

C’est un grand open space lumineux, dans lequel travaillent quatre-vingts personnes, installées à des bureaux flambant neufs. Le gris soutenu de la moquette est toujours intact, les murs encore trop blancs, impersonnels. A l’exception d’un grand sticker, dont la forme, connue du monde entier, apporte un indice sur ce qui se trame précisément dans cette pièce : un grand pouce bleu, celui de l’iconique « J’aime » de Facebook.

Dans cette tour rutilante de Barcelone, ils sont huit cents, répartis dans six open spaces sur plusieurs étages, à travailler pour le réseau social. Ou plus précisément, pour CCC (Competence Call Center), un sous-traitant de Facebook, à qui l’entreprise délègue, comme à d’autres, la modération des contenus publiés par les internautes.

Leur mission ? Nettoyer la plateforme des publications interdites par les règles de Facebook. Pornographie, contenus haineux, propagande terroriste… Dans le logiciel qu’ils utilisent, les contenus signalés par les internautes – mais aussi par un système d’intelligence artificielle – leur sont envoyés. Pour chacun d’entre eux, ils doivent trancher : supprimer le post ou le laisser en ligne. En cas de doute, en référer à la hiérarchie. Leur bible : les « standards de la communauté » Facebook, les règles, très pointues, du réseau social, qui expliquent par exemple que l’on peut montrer des fesses à condition que le plan soit large, mais pas un téton, sauf s’il s’agit d’une œuvre d’art ou d’une campagne sur le cancer du sein.

Une parole sous contrôle

Ce logiciel, nous ne le verrons pas. Pas plus que nous ne verrons ces modérateurs travailler. A notre arrivée dans l’open space, un joyeux brouhaha emplit les lieux, celui des salariés papotant, toujours à leur poste, mais la main loin de leur souris. Sur leurs quatre-vingts écrans, la même image, immobile, celle de la page d’accueil colorée des standards de la communauté.

Une mise en scène : en présence d’une journaliste, tout doit s’arrêter. Hors de question, pour Facebook, que nous puissions ne serait-ce qu’apercevoir un écran en fonction. « C’est pour respecter la vie privée des utilisateurs, puisqu’on voit le nom des personnes qui ont publié les contenus », précise-t-on chez Facebook, qui a organisé la visite.

Lors de ce passage express – quelques minutes seulement dans l’open space –, pas moins de quatre personnes nous accompagnent. Interdiction de prendre la moindre photo. A la place, Facebook nous fournit ses propres images. Nous restons près des murs, à quelques mètres des modérateurs, à qui nous n’adressons pas la parole. Ce sera pour plus tard : on nous accordera un petit quart d’heure pour rencontrer cinq salariés triés sur le volet, sous contrôle de leur patron et d’une représentante de Facebook.

Nous ne faisons pas les difficiles. Cela fait trois ans que nous demandons au plus grand réseau social au monde (plus de deux milliards d’utilisateurs actifs) de nous laisser accéder à un de ses centres de modération. Un droit qu’elle n’avait quasiment jamais accordé à aucun journaliste. En ce mois de novembre 2018, l’entreprise a finalement accepté d’entrouvrir très légèrement ses portes, en proposant à douze journalistes européens d’accéder à ce centre.

« On commence à s’ouvrir »

Un pas qui semble énorme pour Facebook. Jusqu’à récemment, le plus grand secret régnait autour de ses pratiques en la matière. Qu’il s’agisse des règles de modération, confuses et grossièrement résumées sur le site, ou du fonctionnement de ses équipes de modération, dont on ne savait rien. Pour l’entreprise américaine, le sujet est une question extrêmement sensible, qui lui a valu scandales et accusations de censure comme de laxisme.

Les attentats de 2015 ont marqué un tournant. L’utilisation de Facebook par l’organisation Etat islamique pour mener sa propagande et recruter a mis en lumière de gros manquements. Les gouvernements ont alors commencé à hausser le ton, menacer, et même, dans le cas de l’Allemagne, légiférer : dans le pays, depuis janvier, les plates-formes risquent 50 millions d’euros d’amende si les contenus illégaux restent en ligne plus de vingt-quatre heures.

Face à l’urgence, Facebook s’est retroussé les manches. Trois ans plus tard, ses efforts ont fini par payer. La propagande terroriste est devenue rare sur le réseau social, même si d’autres problèmes graves sont apparus, comme la désinformation. Facebook est par exemple accusé par l’ONU d’avoir laissé des appels à la haine proliférer en Birmanie contre les Rohingya, victimes de massacres.

Face aux inquiétudes, l’entreprise a décidé de donner plus d’informations sur son processus de modération. L’an dernier, treize ans après sa création, Facebook lâchait enfin un chiffre : ses équipes de modération étaient composées de 4 500 personnes dans le monde. Aujourd’hui, l’échelle a changé. Facebook revendique 30 000 personnes mobilisées sur ces sujets, dont la moitié sont de petites mains de la modération, chargées d’examiner 2 millions de contenus par jour.

« Il y a du secret, mais on commence vraiment à s’ouvrir, car on essaie, très sincèrement, de protéger les gens », assure David Geraghty, qui dirige, chez Facebook, les équipes de modération. Depuis le Competence Call Center de Barcelone, il évoque la mise en ligne des règles internes de modération, très détaillées, ou la publication, depuis mai, d’un « rapport de transparence » sur les contenus modérés.

Lire l'article en intégralité

Nos réseaux sociaux en direct

Votre demande a bien été prise en compte.
Nous vous remercions de votre intérêt.