Lu dans la presse
|
Publié le 19 Octobre 2021

Monde - Haine en ligne : les outils de modération de Facebook jugés dérisoires dans des documents internes

Les systèmes de détection de contenus haineux par intelligence artificielle de Facebook ne seraient efficaces que sur un faible pourcentage de publications problématiques.

Publié le 18 octobre sur le site de BFMTV

Un peu plus de 0,5% de son bénéfice net. C’est ce qu’a investi Facebook pour rémunérer des modérateurs humains en 2019 pour contrer les publications haineuses, selon des documents internes du Wall Street Journal révélés ce 17 octobre. Avec un total de 104 millions de dollars investis dans ce domaine pour un bénéfice de plus de 18 milliards de dollars sur l’année, l’entreprise cherche à automatiser au maximum ses outils de lutte contre la haine en ligne pour limiter les coûts. Problème, selon ces mêmes documents, ces outils se sont montrés largement inefficaces contre la haine en ligne.

Dans une note publiée à la mi-2019, un ingénieur de Facebook estimait que les systèmes d’intelligence artificielle - pourtant souvent vantés par l’entreprise - avaient supprimé des publications haineuses qui ne représentaient que 2% des contenus consultés enfreignant les règles de la plateforme.

 

Une intelligence artificielle très imparfaite

Ces données vont dans le sens d’autres rapports internes partagés par le Wall Street Journal, cette fois plus récents. Des documents datant de mars 2021 - déjà évoqués par la lanceuse d'alerte Frances Haugen - évoquent une efficacité de “3 à 5%” des systèmes automatisés de Facebook pour supprimer des contenus haineux.

Toujours selon les mêmes sources, plusieurs exemples ont récemment montré les limites de l’intelligence artificielle de Facebook pour détecter des contenus violents. Cette dernière aurait ainsi échoué à détecter des fusillades, ou des vidéos d’accidents de voiture montrant des corps démembrés.

De telles critiques s’étaient notamment multipliées après les attentats de Christchurch de mars 2019 (Nouvelle-Zélande), lorsqu’un terroriste suprémaciste avait assassiné 50 personnes et retransmis sur Facebook, Twitter et YouTube les images de la tuerie. Les plateformes avaient alors été pointées du doigt pour les retraits parfois tardifs de la séquence.

Malgré la part limitée de l’investissement de Facebook dans ses modérateurs humains, l’entreprise a cherché à réduire les coûts au cours de l’année 2019, suggèrent par ailleurs les documents.

L’entreprise a ainsi limité l’appel à des modérateurs humains, tout en ajoutant des éléments de “friction” dans les outils de signalement destinés aux utilisateurs, afin de faire chuter le nombre d’alertes envoyées.

 

Barrière de la langue

Les documents reviennent sur un autre point régulièrement évoqué par les critiques de Facebook: la capacité encore bien plus limitée de ses outils de modération à détecter des contenus dans des autres langues que l’anglais.

Parmi les exemples cités figure l’Afghanistan, particulièrement concerné par la multiplication de publications haineuses selon un rapport datant du mois de janvier, mais dont seulement “0,23%” ont été supprimées.

Un autre rapport interne, datant cette fois de mars 2021, s’inquiète du sort des musulmans dans l’Assam (Inde), souvent visés par des contenus haineux sur Facebook.

“L’Assam nous inquiète particulièrement car nous n’avons pas n’avons pas d’outil de classification comprenant l’assamais [la langue locale, ndlr]” précise le document.
Par le passé, Facebook avait régulièrement été alerté par des ONG concernant la profusion de propos haineux à l'encontre des Rohingyas en Birmanie. Là encore, ses systèmes automatisés rencontraient de lourdes difficultés pour analyser les contenus en birman. En 2015, la plateforme n'employait que quatre modérateurs parlant birman pour quelque 7,3 millions d'utilisateurs dans le pays.

Interrogé sur le sujet de la modération de la haine en ligne, un porte-parole de l’entreprise précise que ces chiffres ne concernent que les publications retirées grâce aux outils automatisés.

Elle assure par ailleurs que la situation s’est améliorée avec une chute de 50% de la prévalence de contenus haineux depuis le début de l’année 2021. Sans toutefois partager la source de ses recherches, elle estime que sur 10.000 contenus Facebook consultés par les internautes, cinq seulement contiennent des contenus haineux.