Tribune
|
Publié le 22 Mai 2015

Racisme – antisémitisme : le non-respect de leurs obligations légales par des sociétés étrangères sur le Net

Viralité des messages, impunité des auteurs, Marc Knobel a choisi de faire le constat de la haine sur Internet.
 

Par Marc Knobel, Historien, Directeur des Etudes du CRIF, publié sur le Blog du CRIF le 21 mai 2015
Dans une page quelconque d’un compte sur Facebook, on proclame: « Arnaque à la Shoah plus de 42 millions de dollars détournés... » Là, une vidéo du négationniste Robert Faurisson y a été déposée. Ailleurs, on peut lire : « Mensonges sur l'extermination des Juifs pendant la Seconde Guerre mondiale ». Plus loin, quelqu’un a déposé ceci: « Auschwitz: la surprenante vérité occultée: pourquoi les chambres à gaz sont un mythe ». Une autre page proclame « Vaincre l'oligarchie pour les générations futures », elle s'ouvre sur une vidéo de Faurisson. Quant aux dieudonnistes de Haute-Savoie, ils ont déposé une vidéo négationniste: « La vérité sur les camps de concentration: les preuves! » Ailleurs encore, le « Mouvement Quenellier via Quenellesat », affiche « l'hymne de l'ananas » avec « six millions de vue ». Un peu plus loin encore, une caricature immonde et un champ d'ananas... Que dire également des dénigrements, des insultes, des appels aux meurtres, à la pendaison, à la lapidation… que nous trouvons fréquemment sur Twitter ?
Voilà donc le type de messages que nous pouvons lire ici ou là.
Que faire ?
L’équipe digitale du CRIF -dont les missions consistent (entre autres) à centraliser les informations, former des modérateurs, expertiser des dossiers et adresser des signalements- signale quelques-uns de ces comptes à Facebook. Elle signale également des vidéos déposées sur YouTube, dont les contenus contreviennent aux dispositions pénales en matière de lutte contre le racisme, l’antisémitisme et les discriminations.
A leur connaissance, l’équipe porte donc les contenus illicites que Facebook et YouTube devraient retirer ou en rendre l’accès impossible, conformément à l’article 6-1 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, car les liens Facebook ou Twitter incitaient gravement à la provocation publique à la discrimination à la haine ou à la violence, nationale ou religieuse (art. 23, 24 alinéas 6 et 7, art. 42 de la loi du 29 juillet 1881) et constituent également l’infraction d’injure raciale publique (art 23, 29, 33 alinéas 3 et 4, art 42 de la loi du 29 juillet 1881).
Mais voilà.
Quelques jours plus tard, nous recevions une étrange réponse de Facebook : « Les liens, s’ils ont prêté à de nombreuses discussions, n’ont pas été retirés pour diverses raisons ».
Lesquelles ?
1° Soit parce qu’ils ne sont pas considérés par Facebook comme un discours de haine explicite.
2° Soit parce qu’il s’agirait d’un discours politique ( ?)
3° Soit parce que selon Facebook, ces messages ne seraient pas explicitement négationnistes.
Prenons quelques exemples.
A)    La cellule digitale signale à Facebook, cette caricature antisémite : l’on voit un Rabbin se tenant devant l'entrée de Birkenau avec la légende « Chacun son business... » Qu’un Rabbin, dans une caricature immonde, parle de « business », devant l’entrée de ce camp d’extermination aurait dû alerter le modérateur de Facebook.
B)    Dans un autre signalement, l’équipe digitale du CRIF pointe un compte qui publie une quarantaine de photographies de journalistes prétendument de confession juive, avec la légende « Les faces de pioches à boycotter si on veut éviter d’avoir l’esprit pollué : les jew.rnalistes ! » Dans sa réponse, FB indique : « il n’y a là pas de discours de haine explicite » et « ce n’est pas une attaque contre les Juifs. » Qu’est-ce donc alors que cela ? Un petit jeu virtuel ? Un joujou à sa maman ?!
C)    Autre exemple. Lu sur un compte FB : « Les cerveaux sont les Juifs néoconservateurs/trotskistes pharisiens. Ils veulent nous créer "le meilleur des mondes" à leur manière, par la ruse, la trahison et le terrorisme. Il faudrait tous les supprimer pour que le monde respire mieux. Mais c'est écrit dans nos livres et pas en latin ; le jour où ils croiront triompher, nous leur règlerons leur compte de façon définitive… » Ce compte est donc signalé par l’équipe digitale du CRIF. Dans sa réponse, FB indique qu’ils ont examiné notre rapport du commentaire de… : « Merci d’avoir pris le temps de signaler quelque chose qui vous semble contraire à nos standards de la communauté. Ces signalements jouent un rôle important pour faire de Facebook un environnement sûr et accueillant. Nous avons examiné le commentaire que vous avez signalé comme contenant une menace de violence crédible et avons déterminé qu’il n’allait pas à l’encontre de nos Standards de la communauté» … l'excuse par excellence de Facebook, lorsqu’ils retoquent un de nos signalements. Le compte n’a donc pas été supprimé. Qu’est-ce donc que cette mascarade et cette grave déficience au niveau de la modération ?
D)    A noter que les commentaires racistes et antisémites font (aussi) l'objet de signalements par la cellule digitale du CRIF à la Plateforme d'Harmonisation, d'Analyse, de Recoupement et d'Orientation des Signalements (PHAROS), qui permet de signaler les comportements illicites sur Internet.
Le CRIF rencontre Facebook et Twitter
Dans le cadre des rencontres régulières que la cellule digitale entretient avec les principaux acteurs des réseaux sociaux, nous rencontrons Monika Bickert, Head of Global Policy Management de Facebook. Nous lui exprimons notre incompréhension et notre désarroi. Le dialogue fut courtois, sans pour autant que nous n’obtenions dans un premier temps satisfaction.
Quelques jours plus tard, Monica Bickert répondait à quelques questions dans le Figaro (8 octobre 2014).
Nous lisions ceci :
« De nombreux événements difficiles ont lieu chaque jour dans le monde, et certains de nos utilisateurs veulent y sensibiliser leurs amis. C’est pourquoi nous autorisons le partage des contenus choquants tant que ce n’est pas dans le but de célébrer la violence. Les contenus qui font l’apologie de la violence sont en revanche totalement interdits. » Plus loin : «  D’une façon générale, avec 1,32 milliard de personnes sur Facebook ; nous comptons sur notre communauté pour nous signaler les contenus qui paraissent sensibles. Nous mettons à leur disposition un système de signalement anonyme d’abus. Lorsqu’un utilisateur nous signale un contenu sensible, il est ensuite consulté par une équipe d’employés formés dans ce but. Cette équipe est composée de plusieurs centaines de personnes qui parlent plus d’une vingtaine de langues. Pour la France, par exemple, il existe une équipe d’employés francophones basés à Dublin, en Irlande. Dans le cadre du contrôle des contenus abusifs, nous collaborons aussi avec des associations sur des sujets spécifiques comme la lutte contre la haine raciale, le harcèlement, la lutte contre le suicide, ou encore la pédophilie. »
De la même manière, l’équipe digitale du CRIF a rencontré à plusieurs reprises Patricia Cartes, global head of trust and safety chez Twitter, afin de lui exprimer son mécontentement à cet égard.
Et dans la réalité…
Certes, il existe des équipes employées à ce but, c’est-à-dire, la modération. Cependant, qu’en est-il dans la réalité ?
1° Lors d’une réunion, nous demandions justement à Monika Bickert (Facebook), combien de Français ou de francophones sont employés à cet effet ? Il est quand même pour le moins étonnant que celle qui coordonne toutes les équipes de FB à travers le monde ne soit pas en mesure de nous expliquer combien ils sont, comment ils travaillent (à Dublin et non à Paris). Et, lorsque des collègues de l’équipe digitale du CRIF se sont rendus à Dublin, au siège de Facebook, en mai 2015, ils n’ont obtenu aucune réponse.
De qui se moque-t-on ?
2° Certes, Facebook (ou Twitter) collabore avec différentes associations, mais à quoi sert donc cette collaboration si les contenus signalés et explicités ne sont pas prioritairement pris en compte ?
3° Certes, Facebook (ou YouTube) met à la disposition des internautes un système de signalement anonyme d’abus. Mais à quoi sert-il donc ? Les retours que nous en avons des internautes sont désastreux. Les contenus signalés ne sont pas souvent pris en compte… Lire l’intégralité.