L’entreprise donne pour la première fois des détails sur sa modération…

C’est un premier pas. Mardi, Facebook a publié un bilan chiffré de ses efforts pour supprimer de sa plateforme les contenus contrevenant à ses règles d’utilisation, qu’il s’agisse d’images à caractère sexuel, de commentaires haineux ou de propagande terroriste. L’entreprise n’a en revanche pas donné de détails sur le nombre de contenus supprimés par erreur.

Selon ce rapport inédit, qui s’inscrit dans des efforts de transparence du groupe confronté au scandale Cambridge Analytica, Facebook a supprimé, au premier trimestre 2018 :

• 3,4 millions d’images violentes ou assorties d’avertissements, presque le triple du trimestre précédent. Grâce aux progrès de l’intelligence artificielle, dans près de 86 % des cas, ces images ont été détectées par le réseau avant même d’avoir été préalablement signalées, et elles ont représenté moins de 0,3 % des contenus visionnés sur sa plateforme entre janvier et mars.

• 21 millions d’images de nudité ou d’activité sexuelle (hors pédopornographie), autant que fin 2017. Cela représente moins de 0,1 % des contenus visionnés, et dans près de 96 % des cas les images sont supprimées avant tout signalement. Parfois avec trop de zèle, comme lorsque le réseau censure certaines œuvres d’art pourtant tolérées par ses règles, à l’image de La liberté guidant le peuple de Delacroix.

• 1,9 million de contenus de propagande terroriste, soit 73 % de plus qu’au 4e trimestre 2017. Grâce à des améliorations technologiques, 99,5 % des contenus supprimés l’ont été avant tout signalement.

• 2,5 millions de messages de haine (56 % de plus qu’au trimestre précédent), mais seuls 38 % ont été détectés avant tout signalement. Le groupe explique avoir du mal à repérer ces messages car l’intelligence artificielle peine encore à trier le bon grain de l’ivraie.

• 837 millions de contenus de spam.

• 583 millions de faux comptes, “dont la plupart l’ont été quelques minutes après leur inscription“, ce qui s’ajoute “aux millions de tentatives de création de faux comptes” déjouées quotidiennement par le réseau. Malgré ces mesures, le groupe a estimé que les faux comptes représentaient 3 à 4 % de ses comptes actifs au premier trimestre.

7.500 personnes contrôlent les contenus

Venue présenter ces données à Paris, la responsable de la politique du groupe en matière de contenus et d’antiterrorisme, Monika Bickert, a expliqué que Facebook allait continuer ses efforts pour améliorer l’application de ses règles, tout en s’efforçant de mieux expliquer ses procédures.

Elle a précisé en outre que le groupe, comme il s’y était engagé l’an dernier, avait recruté 3.000 personnes supplémentaires pour contrôler les contenus litigieux. “Nous en étions en début d’année à plus de 7.500 personnes (dédiées à cette tâche, contre 4.500 un an plus tôt) et ce nombre va continuer d’augmenter“, a-t-elle souligné.

Source : AFP

LAISSER UN COMMENTAIRE

Votre commentaire...
Saisissez votre nom