Lu dans la presse
|
Publié le 5 Novembre 2020

France - Cyberharcèlement : "Sur les réseaux sociaux, la modération nécessite des moyens humains beaucoup plus importants"

Après l’assassinat de Samuel Paty et dans un contexte de prolifération des « fake news », le chercheur en sciences de l’information Romain Badouard revient, dans un entretien au « Monde », sur le besoin de moyens humains dans la lutte contre la diffusion de contenus potentiellement dangereux sur les réseaux sociaux.

A l'occasion de la Journée internationale contre la violence et le harcèlement à l’école, Twitter France donne quelques conseils et outils complémentaires pour se protéger en ligne.

Publié le 5 novembre dans Le Monde

Comment lutter contre la diffusion de contenus potentiellement dangereux sur les réseaux sociaux, tout en préservant la liberté d’expression ? Pour Romain Badouard, chercheur en sciences de l’information et de la communication à l’université Paris-II Panthéon-Assas, et auteur d’un ouvrage qui vient de paraître sur la régulation des réseaux sociaux (Les Nouvelles Lois du Web. Modération et censure, Seuil, 128 pages, 11,80 euros), une régulation démocratique des contenus passe par des procédures plus transparentes et un équilibre entre les rôles des pouvoirs publics, de la société civile et des plates-formes. Ces dernières devraient aussi revoir leur modèle économique.

Comment analysez-vous le rôle des réseaux sociaux dans l’assassinat du professeur d’histoire-géographie Samuel Paty, le 16 octobre ?

A son origine, l’affaire de Conflans-Sainte-Honorine relève d’une forme malheureusement assez banale de cyberharcèlement, le nom du professeur et de son collège ayant été clairement cités dans l’une des vidéos. Dans le droit français, le cyberharcèlement se caractérise par une attaque répétée contre un individu, visant à lui porter préjudice, et se distingue du discours de haine qui appelle à la discrimination ou à la violence vis-à-vis d’un groupe, ce qui ne semble pas être le cas dans cette affaire.

Les réseaux sociaux ont ici joué le rôle de tragique de chambre d’écho à l’indignation d’un parent d’élève, qui aurait dû être traitée dans la sphère privée. C’est la publicisation de cette colère qui a conduit à l’issue dramatique que l’on connaît. Le phénomène n’a rien d’étonnant : la colère fait partie des vecteurs d’attention les plus efficaces sur les réseaux sociaux. Plus les contenus sont indignés, plus ils sont regardés, et plus les algorithmes vont les rendre visibles car ils augmentent ainsi le temps d’exposition des internautes à des contenus publicitaires, sources de revenus pour les plates-formes.

Comment expliquer que ces vidéos mettant en cause le professeur aient pu circuler sans être supprimées ?

L’enquête judiciaire devra déterminer à quelle étape la régulation n’a pas fonctionné. Il semble que ces vidéos aient été signalées par des internautes, mais les modérateurs ne disposent généralement que de quelques secondes pour prendre une décision. Ce type de contenu indigné, outre qu’il est monnaie courante, n’est pas facile à traiter. On est là dans une zone grise, où certes on invective nommément un professeur, mais sans qu’un appel à la violence puisse être clairement identifié.

Une chose est sûre, la modération sur les réseaux sociaux nécessiterait des moyens humains beaucoup plus importants que ceux dont elle dispose aujourd’hui. Facebook compte 15 000 modérateurs [pour le monde entier], un nombre important, mais qui reste dérisoire par rapport à celui des contenus publiés [par près de 2 milliards d’utilisateurs quotidiens]. La plate-forme gouvernementale Pharos, dont le but est de lutter contre les contenus illégaux en ligne, manque elle aussi cruellement de moyens.

Que pensez-vous des propositions du gouvernement pour réguler les réseaux sociaux ?

C’est une méthode très française d’appeler à une nouvelle loi lorsqu’on veut montrer qu’on agit. Mais pour l’instant, elle relève plus de la communication que d’une réflexion aboutie. La pénalisation de la divulgation d’informations privées sur une personne dans le but de lui nuire est une piste intéressante, mais concrètement, le délit de mise en danger de la vie d’autrui existe déjà dans le droit français, y compris par la divulgation d’informations personnelles. L’enjeu est moins la loi en elle-même, que les moyens que l’on met en œuvre pour l’appliquer, en renforçant les effectifs de Pharos par exemple, ou en articulant mieux les signalements à des procédures judiciaires.

De la même façon, il est dangereux d’appeler à modifier la Constitution pour pouvoir ressortir des cartons la proposition de loi Avia [portée par la députée LRM de Paris, Laetitia Avia], qui a été censurée par le Conseil constitutionnel le 18 juin. L’une de ses principales mesures, qui visait à laisser vingt-quatre heures aux plates-formes pour modérer un contenu, sous peine d’une amende importante, a été jugée liberticide, car elle risquait d’entraîner la suppression de nombreux contenus légitimes. Tout l’enjeu est d’articuler la lutte efficace contre la haine en ligne et la légitime protection de la liberté d’expression.

Comment tenir les deux bouts ?

Certaines idées de la loi Avia sont intéressantes sans être liberticides, comme la mise en place d’un « bouton unique » de signalement, bien visible sur l’ensemble des plates-formes, qui permettrait de faciliter la procédure.

Une autre approche vise à imposer aux plates-formes, plutôt qu’une obligation de résultats comme dans la loi Avia, une obligation de moyens, en contrôlant ensuite qu’elles s’y astreignent. La Commission européenne expérimente cette méthode, avec la participation de la France. L’échelle européenne reste le bon niveau pour agir. A partir de décembre, Bruxelles doit présenter une révision des directives européennes sur le marché du numérique, qui comporte un volet sur la régulation des plates-formes. Ce Digital Services Act est encore en discussion, et il serait souhaitable qu’il conduise à une uniformisation des exigences européennes.

Ces approches ne risquent-elles pas de donner un pouvoir exorbitant aux plates-formes ?

C’est vrai que les Etats leur délèguent un pouvoir de censure qui était jusqu’à présent celui des juges. En tant qu’espaces de discussions privés, il est normal que les réseaux sociaux disposent d’outils de modération. Mais ces espaces privés sont aussi devenus les arènes du débat public. Or les standards de publication restent ceux d’une politique privée de modération, en dehors de toute procédure judiciaire.

La situation est d’autant plus problématique que, face au volume de contenus à traiter, les plates-formes ont mis en place des outils de détection automatique, ce qui entraîne des problèmes de censure abusive. Il est urgent que des procédures transparentes de modération se mettent en place. L’audit des algorithmes de détection est une partie de la solution, mais on en est encore loin. De nouveaux droits, dont celui de faire appel, doivent au minimum accompagner cette généralisation de la modération algorithmique.

Certaines plates-formes évoluent vers la reconnaissance de ces droits, comme YouTube, qui a mis en place une procédure d’appel dès 2010. Facebook en a fait de même à partir d’avril 2018. D’après leurs rapports de transparence, la part de contenus qui sont restaurés après appel est d’environ 10 % à 15 % dans le cas des discours de haine, ce qui représente un volume important. Ces procédures d’appel peuvent être améliorées, notamment en justifiant publiquement les critères de décision. La décision de Facebook de créer un conseil de surveillance, chargé de juger les litiges sur les contenus supprimés, va dans ce sens, en déléguant ce pouvoir de décision à des personnalités indépendantes.

Quels peuvent être les leviers d’action de la société civile contre la violence dans ce contexte ?

La régulation des réseaux sociaux n’est pas seulement l’affaire des plates-formes ou de l’Etat. Des associations commencent à s’organiser pour signaler collectivement les contenus haineux et élaborer des contre-discours, comme les collectifs #jesuislà, inspirés de ce qui se fait en Suède [où a été lancé en 2016 le groupe Facebook #jagärhär – #jesuislà, en suédois – pour lutter contre les dérives homophobes ou racistes sur les réseaux sociaux].

Il faut citer également des organisations comme l’Institute for Strategic Dialogue (ISD) en Europe ou le Dangerous Speech Project aux Etats-Unis. En portant la contradiction aux auteurs de contenus problématiques, ces initiatives montrent au public que la violence en ligne n’est pas légitime. La proposition de Marlène Schiappa [ministre déléguée auprès du ministre de l’intérieur, chargée de la citoyenneté] de créer des unités de contre-discours républicain va dans ce sens.

Plus largement, l’éducation aux médias délivrée aux collégiens ou lycéens devrait être proposée aux générations de leurs parents et grands-parents, qui restent peu sensibilisés aux conséquences de leurs partages. Des études américaines montrent que les comptes de seniors sont des vecteurs importants de fausses informations. Parmi ceux qui ont partagé les vidéos du parent d’élève de Conflans, parce qu’ils se sont indignés de ce qu’ils considéraient être un cas de discrimination à l’école, combien savaient que nommer ainsi un professeur relève d’une pratique de cyberharcèlement ?

La lutte contre les discours de haine passe aussi par les entreprises. Les annonceurs disposent d’un levier d’action puissant, par la pression qu’ils peuvent exercer sur les plates-formes pour que leurs contenus publicitaires ne soient pas associés à des discours haineux et de fausses informations. En touchant directement à leur modèle économique, ils les poussent à modérer davantage. C’est de l’équilibre entre ces différents pouvoirs – la loi, les plates-formes, le marché publicitaire, les internautes – que peut naître une modération réellement démocratique.

Est-il utopique d’imaginer changer à terme l’architecture des plates-formes ?

L’économie de l’attention a joué un rôle important dans l’assassinat de Samuel Paty, en favorisant la circulation de contenus qui suscitaient l’indignation. Cet aspect ne doit pas être oublié au moment où l’on cherche à mieux encadrer la régulation. Certains préconisent de « lutter contre le réchauffement médiatique », selon la formule du sociologue Dominique Boullier, en concevant à la source une architecture différente, des formes de design plus respectueuses de l’attention et qui n’incitent pas à partager aussi rapidement ses émotions. Associer les internautes à la définition des règles de publication et à leur application est aussi une piste intéressante.

La régulation des contenus passe par une régulation plus globale de l’économie de l’attention. La question est sensible car elle touche au modèle économique des plates-formes, mais elle mérite d’être posée.