Comment fonctionne le contenu modéré sur Facebook ? – Comment Facebook modère-t-il le contenu ?
Publié le : 11 mars 2019 / Mise à jour à partir du : 11 mars 2019 - Auteur : Konrad Wolfenstein
Un problème clé que Facebook a résolu est la question de la modération du contenu qui viole ses conditions de service. Une question épineuse qui est liée aux questions de liberté d’expression et au fonctionnement de Facebook en tant que forum public. Facebook interdit les contenus violents, sexuellement explicites et généralement offensants. Ce contenu est signalé manuellement par les utilisateurs et examiné par le personnel, qui détermine si une publication a violé certaines dispositions de la politique de l'entreprise. Twitter et YouTube utilisent également un système similaire pour surveiller le contenu de leurs réseaux sociaux.
La plupart de ces travaux sont sous-traités à des tiers. Les modérateurs de contenu sur Facebook sont bien moins payés que les employés réguliers de Facebook. La rémunération annuelle des modérateurs de contenu varie de seulement 1 404 dollars par an pour les modérateurs travaillant dans d'autres pays comme l'Inde et le Bangladesh, à 28 800 dollars par an pour les travailleurs tiers travaillant chez Facebook aux États-Unis.
Facebook a du mal à résoudre son problème de modération de contenu. En 2009, alors que le réseau ne comptait que 120 millions d'utilisateurs actifs par mois, il n'employait que 12 personnes pour modérer le contenu des publications signalées par chaque utilisateur. Avec une portée mondiale d'environ 2,3 milliards d'utilisateurs, la société emploie environ 15 000 personnes pour visualiser et supprimer en ligne des contenus violents, sexuellement explicites et offensants.
Un problème central auquel Facebook est confronté est la question de la modération des contenus qui enfreignent ses termes et conditions, une question épineuse étroitement liée aux questions de liberté d'expression et de fonctionnement de Facebook en tant que forum public. Facebook interdit les contenus violents, sexuellement explicites et généralement offensants. Ce contenu est signalé manuellement par les utilisateurs et examiné par les employés, qui déterminent si une publication a enfreint des conditions spécifiques de la politique de l'entreprise. Twitter et YouTube utilisent également un système similaire pour surveiller le contenu diffusé sur leurs réseaux sociaux.
La majeure partie de ce travail est sous-traitée à des tiers. Les modérateurs de contenu sur Facebook sont terriblement moins payés que les employés salariés réguliers de Facebook. Le salaire annuel des modérateurs de contenu varie de seulement 1 404 dollars par an, pour les modérateurs qui travaillent dans d'autres pays comme l'Inde et le Bangladesh, à 28 800 dollars par an pour les travailleurs tiers qui travaillent aux États-Unis. Les employés de Facebook gagnent en moyenne 240 000 dollars par an.
Facebook a du mal à résoudre son problème de modération de contenu. En 2009, alors que le réseau ne comptait que 120 millions d'utilisateurs actifs par mois, il n'employait que 12 personnes pour modérer le contenu de chaque publication signalée par un utilisateur. Avec désormais une portée mondiale d'environ 2,3 milliards d'utilisateurs, l'entreprise emploie environ 15 000 personnes pour visualiser et supprimer les contenus violents, sexuellement explicites et offensants sur Internet.
Vous trouverez plus d'infographies sur Statista