Président de la Commission pour les relations avec les Musulmans
C’est un constat hélas retrouvé à chaque sondage auscultant la montée de l’antisémitisme, en France comme dans la plupart des pays occidentaux : les plus jeunes y sont les plus perméables ; la détestation d’Israël alimente la flambée ; et la mémoire de la Shoah, jadis pare-feu, semble de plus en plus fragile chez les moins de 25 ans, avec une méconnaissance plus ou moins angoissante selon les enquêtes.
Accompagnant un recul catastrophique de la lecture, Internet est devenu la source principale d’information chez les moins de 25 ans : le smartphone est pour eux l’outil principal de partage de l’actualité ; mais alors que tous les médias y sont accessibles, leur consultation est écrasée par celle des réseaux sociaux ; réseaux devenus une moulinette infernale, où l’émotion, la possibilité de tout commenter et l’illusion de comprendre le monde extérieur séduisent en priorité les esprits les plus faibles ; pire encore, les algorithmes de ces réseaux amplifient la viralité des contenus haineux : tropes antisémites ; négationnisme de l’Holocauste ; théories conspirationnistes anti-juives se retrouvent très souvent au détour d’un simple clic ; et cela, en raison de leurs algorithmes souvent opaques : comment l’expliquer ? Pourquoi de simples programmes informatiques, première utilisation massive de l’intelligence artificielle, sont-ils devenus des apprentis sorciers dans des sociétés de plus en plus éclatées ?
Pour les directions des différents réseaux sociaux, l’audimat est l’objectif ultime. Il faut retenir les utilisateurs en leur servant des contenus les engageant à rester le plus longtemps possible. Leur logique n’a rien d’éthique, il s’agit uniquement de multiplier le plus possible les réactions, « like », commentaires, etc. Les « algorithmes de recommandation » vont interpréter les réactions, même négatives, comme un signal positif ; et cela favorise les contenus les plus extrêmes. On pourrait débattre à l’infini sur les réseaux, simple miroir d’une société polarisée ou cause de la montée des extrêmes : c’est le vieux débat de la poule et de l’œuf. En pratique, la haine va se propager, plus ou moins vite selon le réseau, en « engageant » l’utilisateur au départ neutre vers des contenus inconnus par lui, en créant des « bulles de filtre » ; ou, pour ceux déjà tentés par des messages haineux, vers une chaîne de recommandations de plus en plus radicales. Chaque plateforme a un algorithme adapté à son format (texte, vidéo, images), ce qui affecte la vitesse et l'ampleur de la diffusion de la haine antisémite. Une analyse comparative peut révéler des vulnérabilités spécifiques à chacune d’entre elles : saluons ici le grand travail effectué par l’ADL (« Anti Defamation League ») aux États-Unis.
Réseau largement apprécié par les plus jeunes – quoi que talonné maintenant par Instagram – la plateforme chinoise est de plus en plus dénoncée dans le monde. Dans un éditorial récent sur France Inter, Anne Rosencher la qualifiait ainsi : « cet algorithme chinois, c’est la guerre par d’autres moyens ». Il a été ainsi démontré qu’il est l'un des plus agressifs pour la découverte de contenus, en servant des vidéos courtes et particulièrement addictives basées sur des signaux comme le temps de visionnage. Le contenu anti israélien a été ainsi massivement encouragé, surtout après le 7 octobre 2023 où le ratio était de 54 contre 1 pour les publications pro-israéliennes. Conséquence directe, les tropes antisémites y sont encouragés dans la foulée. La quasi-absence de modération humaine n’apporte aucun correctif. Faut-il s’en étonner ? Tik Tok, maintenant sous contrôle aux États-Unis mais pas dans l’Union européenne, favorise en parallèle l’entrisme islamiste comme le dévoilait une note récente du ministère de l’Intérieur.
Moins important au niveau de son audimat, mais plus élitiste par la présence exceptionnelle d’acteurs de la vie politique et médiatique, ce réseau joue les apprentis sorciers différemment. Son algorithme priorise les posts « engagés » et « viraux ». L’utilisateur a deux modes d’entrée, l’un reprenant les publications des comptes suivis ; et un autre dit « For You » ; qui recommande du contenu de comptes non suivis mais « faisant le buzz ». Sous Elon Musk, les changements ont fortement réduit la modération : seulement 22 % des contenus haineux signalés sont supprimés.
Ces deux plateformes ont des publics différents, Facebook réseau « historique » ayant un public nettement plus âgé et sans doute moins réactif que le second. Ils utilisent des algorithmes basés sur les groupes, les « like » et les partages, favorisant les communautés fermées : la haine peut y incuber, mais aussi des mobilisations parfois violentes, comme on l’a vu lors de la crise des Gilets Jaunes. Meta a des outils de modération qui semblent plus robustes ; mais les « groupes privés » – et qui sont par définition plus opaques –, peuvent avoir une influence encore plus pernicieuse.
L'analyse comparative révèle que les plateformes vidéo propagent la haine plus lentement mais de manière plus immersive, tandis que les textuelles (comme X) la rendent virale instantanément. L'algorithme de YouTube recommande des vidéos longues basées sur l'historique de visionnage, ce qui peut transformer une recherche innocente en exposition à du contenu haineux (par exemple, du négationnisme de la Shoah). Par ailleurs – et les chiffres doivent être pires après deux ans de guerre à Gaza –, le rapport 2024 de Fondapol / AJC sur l’antisémitisme révélait que 31 % des utilisateurs de cette plate-forme éprouvaient de l’antipathie pour Israël : c’était à l’époque la pire sur ce plan-là.
Jean Corcos
- Les opinions exprimées dans les billets de blog n'engagent que leurs auteurs -