Facebook censure la réunion en ligne de l’IYSSE sur la menace de coup d’État de Trump

Par Kevin Reed
19 novembre 2020

Lundi, Facebook a bloqué l’annonce sur sa page événements d’une réunion en ligne organisée conjointement par l’«International Youth and Students for Social Equality» (IYSSE) à l’Université du Michigan et à la Wayne State University.

La réunion virtuelle, prévue pour le jeudi 19 novembre de 20 h à 21 h 30, porte le titre: «Le coup d’État électoral de Trump et la menace de la dictature». Lorsque les membres de l’IYSSE ont tenté de programmer la réunion comme un événement Facebook, ils ont été bloqués et un avis est arrivé avec le message suivant «On a supprimé l’événement, car il va à l’encontre de nos normes communautaires. Rendez-vous dans votre boîte de réception de soutien pour en savoir plus».

On n’a pas fourni d’autre explication sur la manière dont la réunion avait violé les normes communautaires de Facebook. Aucune information supplémentaire ne se trouvait non plus la boîte de réception de soutien du compte Facebook, comme indiqué dans le message.

Facebook censorship of IYSSE event page

Le fait que le blocage de l’événement était un acte de censure politique de la part de Facebook — que ce soit par le biais d’une intelligence artificielle ou d’un moniteur humain — est prouvé par le fait que lorsque les organisateurs ont changé l’événement pour le titre générique «Réunion IYSSE», le message d’avertissement a disparu et l’événement a été programmé sans problème.

La censure de Facebook contre l’IYSSE est un exemple de la façon dont la suppression sans précédent du discours politique qui a été déployée par les plateformes de réseaux sociaux avant le 3 novembre, a été intensifiée dans les deux semaines qui ont suivi les élections américaines de 2020.

La fermeture de comptes — comme la suspension par Twitter du compte de l’«International Youth and Students for Social Equality (US)» mercredi dernier — la suppression, la «vérification de faits» et le «ralentissement de la propagation de la désinformation» ont été intensifiés après les élections par les monopoles technologiques sur la base de politiques totalement antidémocratiques et autoritaires.

Twitter a clairement indiqué jeudi dernier que son régime de censure des informations d’avant les élections, qui consiste à «étiqueter, mettre en garde et bloquer les informations à l’avance», se poursuivra indéfiniment et que certains «changements significatifs de produits» qui empêchent les tweets d’être «amplifiés» sur la plateforme ont été rendus permanents.

Vijaya Gadde, responsable juridique, politique et confiance & sécurité de la société a déclaré avec Kayvon Beykpour, co-fondateur de Twitter, dans un post sur son blogue Twitter: «nous voulons être très clairs sur le fait que nous ne considérons pas notre travail comme accompli — notre travail ici continue, et nos équipes apprennent et améliorent la façon de relever ces défis».

Gadde et Beykpour ont rapporté qu’entre le 27 octobre et le 11 novembre, environ 300.000 tweets avaient été étiquetés «pour un contenu contesté et potentiellement trompeur». Ils ont ajouté que 456 tweets étaient recouverts par un message d’avertissement et «avaient des caractéristiques d’engagement limitées (les tweets originaux pouvaient être cités mais pas retweetés, répondu ou aimés)».

Le blogue indiquait que les messages de Twitter, de manière préemptive, mettent en cause certains contenus des messages — ces mises en garde apparaissent en tête du journal des utilisateurs afin de discréditer de manière préventive la «désinformation» — pendant la période spécifiée «de tels messages ont paru 389 millions de fois. Ils sont apparus dans le calendrier des personnes et dans Search, et ont rappelé aux gens que les résultats des élections étaient susceptibles d’être retardés, et que le vote par courrier était sûr et légitime».

Gadde et Beykpour ont reconnu qu’on avait rendu les mesures permanentes, dans un effort pour ralentir la diffusion d’«informations trompeuses» sur Twitter, réduisant en fait le partage global. Ils ont écrit dans le blogue que l’un des changements de produit maintenu en place — incitant les utilisateurs à faire des commentaires avant de retweeter le tweet d’un autre utilisateur — avait conduit à une baisse de 20 pour cent de l’ensemble du partage de messages sur la plateforme.

En plus du blocage des événements décrit ci-dessus, Facebook a continué à placer des étiquettes de vérification de faits sur chaque article ou lien partagé qui mentionne les élections américaines, les bulletins de vote ou les résultats des élections. Les étiquettes de vérification de faits relient les utilisateurs au centre d’information de Facebook sur l’élection, qui présente les contenus du Bipartisan Policy Center et de la National Conference on Citizenship, deux organisations vouées à la protection du système bipartite.

En raison de l’ampleur de Facebook — 2,7 milliards d’utilisateurs dans le monde et 4,75 milliards d’articles postés sur la plateforme chaque jour — la société s’appuie fortement sur l’apprentissage automatique et la technologie de traitement de langage naturel pour examiner les articles et les supprimer, les étiqueter comme «désinformation» ou en limiter la diffusion sur la plate-forme. En outre, Facebook emploie une armée de 35.000 spécialistes de la révision de contenu qui travaillent avec des organismes tiers chargés de vérifier les faits.

Interrogé par la Columbia Journalism Review sur le processus utilisé par l’entreprise pour identifier la «désinformation», un représentant de Facebook a déclaré: «Si l’un de nos partenaires indépendants de vérification de faits détermine qu’un contenu contient de la désinformation, nous utilisons la technologie pour identifier des versions quasi identiques sur Facebook et Instagram».

En expliquant sa censure post-électorale, Facebook a publié une déclaration disant qu’il prenait des mesures supplémentaires «pour empêcher ce contenu d’atteindre plus de gens». Parmi les mesures prises figurent des «démonstrations de contenu sur Facebook et Instagram» dont «nos systèmes prédisent» qu’il peut s’agir de désinformation, «y compris des affirmations démenties sur le vote».

(Article paru d’abord en anglais le 18 novembre 2020)