Tribune. Le fondateur de Facebook, Mark Zuckerberg, a annoncé, le 15 novembre, qu’il avait formé une équipe de 30 000 modérateurs pour écarter du réseau social les contenus les plus polémiques, et qu’il allait constituer, d’ici à fin 2019, une « cour d’appel » devant laquelle les utilisateurs pourront exercer un recours lorsqu’une de leurs publications est supprimée. Cette annonce est passée relativement inaperçue en France, alors qu’elle marque un revirement majeur dans la façon dont la liberté d’expression est appréhendée sur Internet.
Le paradigme initial des plates-formes numériques était en effet de publier, sans les revoir, les contenus transmis par les utilisateurs (texte, image, vidéo). Seules les publications signalées comme nuisibles par les utilisateurs étaient éventuellement retirées. Cette neutralité des plates-formes est toutefois devenue inacceptable aux yeux du public, et on a notamment pu s’interroger sur le maintien, pendant des mois, de pages Facebook appelant au massacre des Rohingya en Birmanie.
Un filtrage systématique des contenus s’est donc progressivement imposé, s’appuyant d’une part sur des machines programmées pour apprendre (intelligence artificielle), et d’autre part sur des êtres humains. Facebook admet supprimer à un rythme de 2 millions par jour les publications considérées comme trompeuses, violentes, ou contenant de la nudité.
Ses propres règles
La plate-forme a également reconnu programmer ses algorithmes pour rendre moins visibles certaines publications, qui sont licites, mais que le réseau préfère écarter (borderline content). Facebook, qui se rapproche de plus en plus d’un média, retire donc de la vue des utilisateurs des contenus qui ne sont interdits par aucune loi. Tout citoyen a dès lors le droit de s’interroger sur les choix qui sont faits par la plate-forme pour déterminer ce que l’être humain doit voir et ne doit pas voir.
Les démocraties résolvent généralement cette question par l’application d’une loi préalablement débattue au Parlement : on peut donner à voir tout ce que la loi ne prohibe pas. Facebook, qui opère dans plus de 100 pays, a choisi de ne se référer à la loi d’aucun d’entre eux et de fabriquer, seul, ses propres règles, les community standards. Ce texte est remarquable en ce qu’il est une des normes juridiques qui s’appliquent au plus d’êtres humains dans le monde (2,2 milliards).
Par Benoît Huet( Lemonde)