Vous avez peut-être déjà été choqués par l’apparition d’un contenu que vous jugiez particulièrement inapproprié dans votre fil d’actualités Facebook. Vous avez même peut-être déjà pu signaler un contenu à caractère pornographique ou violent sur Twitter. Mais vous êtes-vous déjà demandés comment fonctionnait exactement la modération sur les réseaux sociaux ?
Si les réseaux sociaux peuvent être des outils de partage exceptionnels, ils sont aussi le théâtre de dérives extrêmes en tout genre. C’est la raison pour laquelle la Commission Européenne a décidé d’intervenir en fin 2016, en soumettant un « code de bonne conduite » aux plateformes telles Twitter, Youtube ou encore Facebook.
L’enjeu pour ce code de bonne conduite ? Faire en sorte que les plateformes s’engagent à « examiner en moins de 24 heures la plupart des signalements valables de discours haineux illégaux et à supprimer ce type de contenu ou à en bloquer l’accès, si nécessaire ».
Une amélioration notable dans la gestion des contenus sensibles
Deux ans et demi plus tard, le quatrième rapport de la Commission européenne sur l’action de ces grands groupes confirme une amélioration significative dans la gestion de ces contenus indésirables et dangereux sur leurs plateformes, avec désormais 89% des contenus problématiques signalés par la Commission européenne évalués en moins de 24 heures contre les 40% estimés en 2016.
Le meilleur élève du lot reste Facebook, qui parvient à modérer dans le temps imparti 92,6% des publications signalées, notamment grâce à ses outils d’intelligence artificielle. Mais c’est avant tout grâce à une armada d’environ 15 000 personnes dans le monde entièrement dédiées à la modération, et dont la gestion est essentiellement confiée à des agences de prestataires externes.
Cependant, ces améliorations n’arrivent évidemment pas sans coûts, et les coulisses de ces opérations semblent assez effrayantes. En effet, depuis quelques années, de nombreux médias se sont intéressés aux méthodes employées par ces grands groupes pour assurer un environnement plus ou moins sain à leurs utilisateurs, notamment le média américain The Verge qui s’est attardé sur le cas de la gestion de la modération sur la plateforme Facebook.
Un processus de recrutement douteux des modérateurs
L’enquête menée par le journaliste Casey Newton, qui se concentre en particulier sur les cas du site de modération situé à Tampa en Floride et gérée par la société Cognizant, est assez édifiante : les conditions de travail décrite par les modérateurs employés par les sociétés de prestataires auxquelles Facebook a confié la modération de ses contenus semblent assez surréalistes, en particulier sur le sol américain.
On y apprend la détresse profonde que ressentiraient les modérateurs qui, selon plusieurs témoignages récoltés, ne seraient que des personnes lambda sans formation au préalable dans la gestion émotionnelle d’une exposition constante à des contenus tels que de la torture, des meurtres ou encore de la pornographie infantile.
Pire encore, la vérification des antécédents médicaux des futurs employés ne serait pas la priorité du processus de recrutement des modérateurs, puisque quelqu’un ayant des antécédents de dépression pourrait quand même être embauché et affecté à la modération de contenus sensibles, comme ce fut le cas de l’ex-employé Shawn Speagle, l’un des rares ayant accepté de témoigner à visage découvert.
Certains modérateurs affirment même avoir été embauchés – voire même débauchés – sans qu’on ne leur explique clairement la véritable nature des tâches exactes du poste qu’ils occuperaient. Ces derniers témoignent n’avoir découvert que le travail ne consisterait essentiellement qu’à modérer ces contenus qu’une fois embauchés et mis devant le fait accompli.
Des conditions de travail inquiétantes
Le métier de modérateur consiste, entre autre, à regarder au minimum 15 à 30 secondes de chaque vidéo jugée sensible, à raison de 100 à 200 publications par jour. Sans compter que sur le site de modération de Tampa de Cognizant, les salariés n’ont droit qu’à deux pauses de 15 minutes et une pause déjeuner de 30 minutes par jour, avec en bonus 9 minutes de « pause bien-être » au cas où ils se sentiraient submergés par la charge émotionnelle du travail et auraient besoin de se détendre.
Ajouté à cela le fait que les lois de l’état de Floride n’obligent pas les employeurs à donner à leurs salariés des arrêts maladie et que, par conséquent, les salariés du site de Tampa n’ont droit qu’à cinq heures de congé personnel par période de paie. Résultat ? Des salariés forcés à travailler, même malades, sous peine d’être licenciés, avec toutes les complications sanitaires que cela peut engendrer.
Un accompagnement psychologique quasi inexistant
Et pour couronner le tout, l’accompagnement psychologique – que l’on penserait particulièrement poussé pour une tâche aussi délicate que celle-ci – est décrit comme au mieux inefficace et inapproprié, au pire quasi inexistant. L’exemple raconté par Shawn Speagle de son manager qui, à un moment où il lui exprimait sa détresse après une rude journée de modération, lui aurait tendu un seau de lego pour qu’il y joue et puisse ainsi décompresser, est assez stupéfiant.
Sans un accompagnement psychologique digne de ce nom, certains modérateurs se seraient vus diagnostiquer, sans surprise, des troubles de stress post-traumatique et une dégradation de leur état de santé telle que quand un modérateur nommé Keith Utley a fait une crise cardiaque à son bureau et est décédé peu de temps après avoir été amené à l’hôpital, certains – y compris son père – n’ont pas hésité à faire le lien avec ses conditions de travail, même si cette théorie reste à l’heure actuelle improuvée.
D’autres modérateurs auraient succombé aux différents discours de haine ou autres théories du complot auxquels ils sont constamment exposés sans filtre. Certains seraient même tombés dans une paranoïa extrême au point de conserver une arme sur eux même sur leurs lieux de travail. La crainte que l’un des employés finisse par craquer et commette une tuerie de masse dans les locaux de l’entreprise semble planer au-dessus de certains salariés, renforçant ainsi l’atmosphère profondément anxiogène qu’ils disent subir au quotidien.
Des règles de modération assez opaques
Si vous n’êtes jamais tombés sur des vidéos d’adolescents qui torturent et tuent un iguane en le martelant sur le sol, ou encore d’un homme qui tue des chiots à coups de batte de baseball (exemples de vidéos décrites dans l’article de The Verge), c’est grâce au travail de modération continue de milliers de personnes qui ont parfois beaucoup de mal à juger de la réelle efficacité de leur métier, voire même de bien comprendre les règles de modération à appliquer.
Un modérateur raconte, par exemple, avoir reçu pour instruction de ne pas supprimer de la plateforme une vidéo au contenu pourtant jugé indéniablement inapproprié, afin de soi-disant aider les autorités à arrêter les coupables, sans qu’aucune enquête ne soit finalement lancée sur cette vidéo.
Autre exemple de l’opacité de la politique de modération de Facebook sur certains points, la possibilité pour le moins étonnante de poster une vidéo de quelqu’un jouant avec un fœtus humain sans enfreindre les règles, « tant que la peau [du foetus] est translucide ».
Des objectifs de performance toujours plus élevés
La pression du résultat qui semble être exercée avec un tel zèle sur les modérateurs prestataires découle directement des objectifs de performance fixés par le client Facebook. Et avec les mesures mises en place par la législation européenne, cette course aux résultats n’est malheureusement pas prête de se terminer. Car ce n’est pas uniquement aux Etats-Unis que les pratiques de modération de Facebook sont étudiées à la loupe.
Le président français Emmanuel Macron a lui-même annoncé qu’une « délégation de régulateurs français » avait été chargée depuis le 1er janvier 2019, et ce pendant une période de six mois, d’analyser et de tester « en immersion » ces pratiques. Les résultats de cette enquête approfondie par les experts sur l’algorithme et les pratiques humaines de Facebook dans le cadre de la modération de contenus pourraient ainsi déboucher sur une nouvelle réglementation au niveau national et européen.
Que compte faire Facebook ?
De son côté, la direction de Facebook est bien évidemment consciente de la situation et a annoncé être en train de travailler sur divers projets pour améliorer les conditions de travail de ses modérateurs, telle la création d’une « équipe internationale de résilience ». Cette équipe est ainsi censée améliorer le bien-être des salariés, renforcer l’efficacité de la sélection des modérateurs à l’embauche avec une meilleur analyse des profils, améliorer la formation de ces salariés avant qu’ils ne commencent la modération, et même offrir un véritable suivi psychologique par des professionnels aux personnes qui cesseraient leurs activités de modération.
Malheureusement, ces mesures semblent assez floues pour le moment, hormis la décision d’augmenter les salaires horaires et leurs outils en préparation qui permettront aux modérateurs de flouter automatiquement les visages dans les vidéos sensibles ou couper le son à certains moments, histoire de réduire leur impact psychologique. Pour le reste, Facebook avoue ne pas pouvoir faire grand chose de plus pour le moment, se retrouvant face à « tellement de couches de complexité légale à l’international », selon Chris Harrison, le chef de l’équipe de résilience actuellement en construction par Facebook.
De la chaire à canon bientôt obsolète
Il est donc assez regrettable de constater qu’une fois de plus, la santé -mentale et physique – d’une minorité de personnes est sacrifiée sur l’autel du confort du plus grand nombre. Il est même assez ironique que cette course effrénée à la modération pour assainir les plateformes – aussi légitime soit-elle – se soit faite sous l’impulsion de pressions gouvernementales, sans que l’on ne s’intéresse réellement au prix à payer par certains pour atteindre les objectifs fixés pour le confort des utilisateurs.
Les modérateurs semblent être les grands oubliés des réseaux sociaux, ou plutôt les grands ignorés. Les mesures annoncées par Facebook, et le fait que la modération ait été essentiellement confiée à des entreprises externes en disent long sur l’intérêt réel que la firme porte à ces acteurs pourtant indispensables à la qualité du service proposé. Et il semble clair que l’entreprise n’entend pas faire des pieds et des mains pour ces soldats de première ligne, cette chaire à canon qui sera bientôt une main d’oeuvre obsolète remplacée par des outils informatiques en cours de développement.