- English
- Français
Publié le 12 mai dans Le Monde
Les pratiques de Twitter en matière de modération des contenus valent au réseau social d’être assigné en justice, alors que l’Assemblée nationale doit se pencher mercredi sur une loi censée accroître les obligations pesant sur les réseaux sociaux sur ce sujet. Quatre associations – l’Union des étudiants juifs de France (UEJF), J’accuse, SOS-Racisme et SOS-Homophobie – ont assigné lundi 11 mai l’entreprise en référé devant le tribunal judiciaire de Paris, selon l’assignation que Le Monde a pu consulter.
Les associations réclament que le tribunal nomme un expert judiciaire pour « se faire remettre tout document » par Twitter concernant les « moyens matériels et humains » que l’entreprise consacre à la modération des messages illégaux. La loi impose en effet aux réseaux sociaux de « concourir à la lutte » contre un certain nombre de contenus (racisme, antisémitisme…), en particulier en mettant en place des mécanismes de signalement, en avertissant les autorités le cas échéant et en rendant publics les moyens qu’ils y consacrent.
Cet expert judiciaire que les associations espèrent voir désigner pourra réclamer de surcroît les « nombre, localisation, nationalité, langue et profil » des personnes chargées de modérer les contenus chez Twitter, mais aussi le nombre de signalements reçus par Twitter portant sur de l’incitation à la haine raciale ou les crimes contre l’humanité, les « critère et nombre des retraits » de contenus, ainsi que « le nombre » de signalements effectués aux autorités, « en particulier au parquet […] au cours des trois dernières années au titre de l’apologie des crimes contre l’humanité et de l’incitation à la haine raciale ».
Cette action en justice a été entreprise à la suite d’un testing, réalisé par trois de ces associations (UEJF, SOS-Homophobie, SOS-Racisme) et rendu public mardi 12 mai, pour évaluer les pratiques de modération de Twitter, régulièrement accusé de laxisme en la matière.
Les associations, en lien avec leurs statuts respectifs, ont ciblé les discours racistes (« antiasiatiques, antiarabes, antimusulmans, antichrétiens, antiroms, antinoirs »), anti-LGBTQ et antisémites. Elles ont établi une liste de mots-clés (comme par exemple « fdp de chinois », « youpin de merde », « fuck les pd »), puis effectué une recherche sur Twitter les ciblant. Elles ont ensuite sélectionné 1 100 d’entre eux, qu’elles ont estimé être illicites au regard du droit français. Les associations les ont signalés à Twitter, en utilisant le mécanisme prévu en dessous de chaque tweet, comme n’importe quel internaute aurait pu le faire.
Entre trois et cinq jours plus tard, elles sont venues constater le sort réservé aux commentaires signalés. Seuls 126 – soit 11 % – avaient été retirés par les équipes de Twitter. Nous n’avons pu vérifier cette part de contenus non supprimés, mais, des 10 messages haineux cités en exergue dans l’assignation par les associations, tous étaient encore en ligne vendredi 8 mai en fin d’après-midi.
Les associations ont également mené un testing sur des commentaires similaires postés sur Facebook et se disent beaucoup plus satisfaites du taux de retrait (67 %). La comparaison est cependant difficile, à la fois parce que les commentaires sont nécessairement différents, et d’autre part parce que le nombre de messages signalés était beaucoup moins élevé (78 seulement).
Les associations n’ont pas de mots assez durs contre Twitter. « A ce point d’inaction, à défaut d’une complicité au sens juridique du terme, il s’agit tout du moins d’une complicité morale », estiment-elles ainsi. « Ce que montre ce testing, c’est une inaction massive de la part d’une plate-forme qui refuse manifestement de mettre les moyens humains nécessaires à la modération des contenus que son activité génère », juge Dominique Sopo, le président de SOS-Racisme. « Twitter est devenu une décharge à ciel ouvert, c’est le cancre des réseaux sociaux », tacle l’avocat de l’UEJF, Stéphane Lilti.
Ce n’est pas la première fois que Twitter est accusé de laxisme en matière de modération. Il y a quatre ans, les mêmes associations avaient déjà réalisé un testing témoignant de graves lacunes de YouTube, Facebook et Twitter. Elles avaient aussi assorti ce travail d’une assignation en justice, qui avait débouché sur une médiation entre elles et les principaux réseaux sociaux. « Cette conciliation avait échoué, c’est aussi pour cela qu’on demande la nomination d’un expert judiciaire, car il pourra aller sur place et demander les documents », explique Noémie Madar, la présidente de l’UEJF.
Si les autorités françaises estiment désormais que Facebook réalise un travail correct en matière de modération des contenus haineux, Twitter fait encore figure d’épouvantail. Ce n’est pas le cas qu’en France : dans son pays d’origine, les Etats-Unis, le réseau fait aussi régulièrement l’objet de critiques sur les contenus qu’il laisse prospérer.
Par ailleurs, la pandémie continue d’affecter les capacités de l’entreprise – comme celles d’autres réseaux sociaux similaires – à modérer les contenus. En effet, elle a basculé comme beaucoup vers le télétravail, ce qui perturbe la tâche de ses équipes et accentue le recours à des systèmes de détection automatique, par nature plus imprécis. A la mi-mars, alors que débutait le confinement mondial, Twitter anticipait des « erreurs » de modération. Sollicité, le réseau social n’a pas souhaité faire de commentaires.