Facebook Live: de nouvelles règles de modération du contenu
Par Roch Courcy
Facebook a publié de nouvelles directives concernant la façon dont ses employés traiteront les vidéos en direct controversées diffusées sur sa plateforme.
Cette communication de Facebook survient peu de temps après que Facebook Live ait été utilisé pour diffuser diverses fusillades survenues aux États-Unis.
Les exemples les plus frappants ont été l’utilisation qu’en ont faite Diamond Reynolds, qui a diffusé en direct la mort de son fiancé Philando Castile, tué par un policier lors d’un contrôle routier – et Michael Kevin Bautista, qui a diffusé l’échange de coups de feu à Dallas qui s’est terminé par la mort de cinq policiers.
Dans son annonce expliquant les règles de la communauté spécifiques à Facebook Live, le réseau social résume bien la principale ambivalence des plateformes de diffusion en direct : « [Facebook Live] nous permet d’observer les meilleurs moments dans la vie des personnes, mais nous permet aussi d’être témoins du pire. […] La vidéo en direct s’avère être un outil puissant en temps de crise — pour couvrir les événements, mais aussi demander de l’aide».
En s’ouvrant au monde et en voulant montrer la souffrance qu’elle vivait, la vidéo en direct de Diamond Reynolds a cumulé plus de 5,3 millions de vues. Ces situations soulèvent des questions éthiques très importantes, la principale étant: quel type de contenu diffusé en direct est acceptable?
Pour répondre aux besoins et pour décider de quelles vidéos peuvent rester sur la plateforme et quelles vidéos doivent être retirées, Facebook dispose d’une équipe de modérateurs de contenu qui travaillent 24/7.
N’importe quel utilisateur peut signaler une vidéo qui, selon lui, contient du «contenu questionnable». Si la vidéo est signalée par plus d’une personne, un modérateur la vérifiera. Facebook précise aussi que «si une vidéo devient virale, un modérateur la vérifiera aussi, et ce peu importe si un signalement ait été déposé ou non».
Pour s’acquitter de cette difficile tâche, Facebook indique «avoir des modérateurs à travers le monde entier capables de comprendre jusqu’à 36 langues différentes».
Dans le cas de vidéos en direct violentes, Facebook décidera de retirer une publication «si elle célèbre ou fait l’apologie de la violence ou si, au contraire, elle condamne la violence ou si elle témoigne d’une situation où la violence est présente et qu’elle doit être montrée».
Dans les deux derniers cas, Facebook  «autorisera la diffusion de la vidéo, mais toutefois, la vidéo ne sera pas en lecture automatique ni visible par les utilisateurs de moins de 18 ans». Selon le réseau social, les modérateurs n’ont pas besoin de retirer la vidéo en direct pour ajouter un avertissement. Justement, la vidéo de Diamond Reynolds a été temporairement retirée de Facebook une heure après, mais Facebook a précisé qu’il s’agissait plutôt d’une erreur technique.
Pour résumer ses règles, Facebook affirme que ce sont le contexte et le degré qui importent le plus. Par exemple, si une personne est témoin d’une fusillade et utilise Facebook Live pour faire connaître la situation ou pour aider à retrouver le tireur, «[nous allons] permettre la diffusion en direct. Toutefois, si une personne utilise la même vidéo pour se moquer des victimes ou glorifier la fusillade, ça ne passera pas ».
Bref, les règles laissent beaucoup de place à la subjectivité des modérateurs. Alors que l’un d’eux peut autoriser la diffusion malgré des signalements, un autre peut l’arrêter si les signalements se poursuivent. Fait important à noter: les règles ne précisent pas la procédure à suivre au cas où les utilisateurs pensent qu’une vidéo a été retirée injustement.
Que pensez-vous de ces règles?