De la censure démocratique

Facebook et ses presque 2 milliards d’utilisat·eur·rice·s est le premier réseau social mondial. Avec ce rang vient aussi toute une flopée de contenus dangereux, que ce soit par leur message ou leur violence. Le Guardian a récemment rendu public une partie des instructions données par le réseau social à ses modérat·eur·rice·s. Celles-ci ne font qu’accentuer les interrogations autour d’une censure qui est manifestement dysfonctionnelle.

Des instructions floues

Un des éléments qui semblent ressortir de cette documentation est le fait que Facebook centre sa modération autour de la notion de victime. Ainsi, il est possible d’envoyer des messages de haine à certains groupes et si ceux-ci sont tournés d’une certaine manière, ils ne seront pas supprimés. Il est possible de désigner tous les terroristes comme musulmans, mais pas les musulmans comme terroristes. Cela est dû au fait que « les musulmans, contrairement aux terroristes, sont un groupe protégé ». Plus globalement, si une personne ou un groupe est victime d’un phénomène, les messages de haine les mentionnant seront supprimés, mais pas les autres. À cela s’ajoute des groupes dits « protégés ». 
 
Exemple de catégorie protégée Image : The Guardian
Cependant, les règles prescrivent aussi un besoin de groupe clairement défini. Ainsi, les blondes et les chinois·es ne seront pas traités de la même manière. Insulter les blondes est permis, mais la même chose vis à vis des chinois·es ne l’est pas car iels sont un groupe plus « clairement défini ». 
La politique de Facebook relative aux menaces de violences. Une croix signale un contenu à supprimer. Image: The Guardian
 
Il en ressort donc un sentiment d’imprécision, de flou autour de ce qui doit ou ne doit pas être censuré sur le réseau social.  Le problème ? En cas de doute, c’est l’inaction qui l’emporte.

Une censure discutable en pratique

Cette incohérence théorique se retrouve aussi en pratique. Ainsi, des phénomènes comme le revenge porn (fait de divulguer une vidéo pornographique d’une personne dont on veut se venger sans son consentement) et plus généralement les contenus pornographiques du site seront souvent traités de manière incorrecte : on se souvient du bannissement de L’Origine du monde de Courbet ou encore de celle de la petite fille au napalm. Facebook interdit les images d’enfants nus, sauf si celles-ci sont « newsworthy ». De nouveau, un terme flou. 
Une diapositive de la politique de facebbok relative au « Revenge Porn ». Image : The Guardian

 

 
Cela s’applique aussi aux menaces : si celles-ci restent suffisamment indirectes, elles ne seront pas supprimées, ça n’est que si elles désignent des cibles précises que les ingénieurs de Facebook supprimeront ces messages. La justification de cela serait la désinhibition qu’apporte l’écran. En d’autres termes, on considère comme normal un comportement car lié à un certain état. C’est un peu comme si on minimisait les actions d’un sportif vis à vis d’une journaliste, « par ce qu’il était bourré » (coucou TPMP !).
 
Enfin, dernière grosse incohérence de cette modération « gruyère » : la distinction personne privée/figure publique. Dès lors qu’un·e utilisat·eur·rice acquiert une certaine notoriété, la censure autour de son compte se fait moindre car elle ou il est une figure « publique ». Mais attention, on ne cesse pas non plus toute surveillance : on peut par exemple déverser un torrent de haine sur Rihanna, mais les évocations de violences domestiques seront bannies car elle en a été victime. 
Il existe enfin des éléments plus problématiques : 
 
Facebook sait s’adapter aux régimes répressifs et censurer tout un ensemble de contenu que les régimes ne veulent pas voir apparaître. Cette coopération pose la question de savoir pourquoi dans les autres pays, une telle censure des contenus indésirables ne peut pas être mise en place.
 
Il y a aussi le fait que les propos négationnistes ne sont supprimés que dans une poignée de pays : ceux où Facebook risque des poursuites. L’argent serait-il donc le seul argument pour une meilleure modération ?

Comment expliquer tous ces problèmes ?

Une première explication se situe du côté des employé·e·s : mal payé·e·s, peu nombreu·x·ses, mal formé·e·s, mal suivi·e·s, surmené·e·s… Iels ne peuvent pas effectuer leur travail dans de bonnes circonstances. Si on les compare avec les censeu·r·se·s d’autres sociétés, on voit bien les différences : un·e censeu·r·se « classique » est formé· e pendant six mois, puis suivi·e tout au long de sa carrière par un·e médecin afin de construire des stratégies de recul face aux images. De plus, on limite l’exposition et on rend valorisant leur travail (exemple : mission de lutte contre les abus sur enfants). Chez Facebook, la formation est courte, la mission seulement celle de censurer, le rythme de travail effréné (~ 10 secondes pour faire un choix) et le suivi psychologique limité. Comment alors être efficace ?
 
Comment ensuite ne pas évoquer le but principal de l’entreprise Facebook : réaliser un profit. La question posée plus haut semble avoir trouvé sa réponse. Cela est cynique mais pas délirant : une modération efficace est coûteuse. Cette dépense, aux yeux du réseau social, est à l’heure actuelle non rentable, les incitations à la modération n’étant pas contraignantes.
 
Enfin, une dernière raison explique cette liberté : les valeurs libérales du réseau. Par-dessus tout est valorisée la liberté d’expression en son sein. Or, toute modération est une limite à cette liberté et parfois il est difficile de définir la limite à la censure. Cet équilibre est précaire, et Facebook ne peut pas risquer de le faire basculer. En un sens, cette décision se tient : censurer n’est pas régler le problème, le soin palliatif ne guérit pas. Nos démocraties sont les premières à défendre le fait que la censure ne tait pas les idées. Offrir un espace sécurisé à tou·te·s est important, mais trop le stériliser ne fera que conduire à une migration de la violence vers des endroits plus discrets où elle se développera impunie. On peut penser ici aux forums 4chan et 8chan qui créent par ailleurs eux aussi un débat autour de la liberté d’expression en leur sein… 
Définir la limite entre liberté d’expression et censure injuste est quasi impossible. On peut reprocher à Facebook son échec d’efficacité tant théorique que pratique. Néanmoins, sa mission est ardue et ne pourra jamais être « parfaitement » remplie.
On peut ainsi conclure cet article par une citation d’un ancien juge de la cour suprême américaine, Potter Stewart : 
« Censorship reflects a society’s lack of confidence in itself. » – « La censure est le reflet du manque de confiance d’une société en elle-même. »17
Pas encore de commentaires

Les commentaires sont fermés