Modération du contenu : une étude invite à délaisser l’automatisation et privilégier l’autorégulation

Wikipédia comprend 55 millions d’articles dans 300 langues - des bénévoles fournissent le contenu de l’encyclopédie. [Unsplash/Luke Chesser]

Une nouvelle étude, mandatée par des eurodéputés, invite à privilégier la « perspective holistique » en matière de modération du contenu en ligne employée par les plateformes régulées par les communautés d’utilisateurs elles-mêmes, comme Wikipédia.

« Les plateformes en ligne ne sont pas seulement utilisées pour l’humour, les bébés mignons et les photos de chats. Ce sont des espaces publics essentiels qui influencent le débat public et le comportement humain », souligne une nouvelle étude publiée lundi (3 mai) et commissionnée par le Groupe des Verts/Alliance libre européenne au Parlement européen, en amont des négociations autour du Digital Markets Act (DMA) et du Digital Services Act (DSA).

L’objectif de la recherche est de promouvoir les plateformes qui s’autorégulent plutôt que celles des géants comme Facebook ou Instagram qui font davantage appel à de l’automatisation et de l’intelligence artificielle – même si les premières n’en sont pas complètement exemptes.

Facebook ne sera pas "arbitre de la vérité" mais prend son rôle "au sérieux"

Dans le cadre des « Conversations avec Facebook« , le réseau social a organisé mercredi (17 mars) un échange sur le thème de la lutte contre la désinformation. L’occasion pour le géant numérique américain de revenir sur sa stratégie en matière de « fake news ».

Les auteurs y ont passé au crible les politiques de modération de 5 plateformes gérées en grande partie par leur propre communauté : Wikipedia, diaspora*, Mastodon, Der Standard et Slashdot.

Pour recueillir des données, des analyses qualitatives et des entretiens avec les modérateurs et administrateurs de ces plateformes en ligne, ainsi qu’une exploration de la littérature scientifique à ce sujet, ont été menées.

Automatiser la modération du contenu « n’est pas une solution »

À la lumière de leur recherche, les auteurs estiment que l’automatisation des processus de modération « n’est pas une solution ». Ils expliquent que les algorithmes utilisés sont « généralement biaisés » et que les ordinateurs sont incapables de comprendre le contexte.

Les inconvénients existent également lorsque ces filtres passent en dernière étape par une révision humaine, ce qui est le cas pour Wikipedia, Mastodon et Der Standard ; l’étude pointe du doigt la charge psychologique que peut engendrer un contenu préjudiciable pour la personne ainsi qu’une possible atteinte à la liberté d’expression pendant que le contenu est en attente de modération.

Alors que le Parlement européen validait la semaine dernière l’obligation pour les plateformes de retirer tout contenu terroriste en ligne sous un délai d’une heure, le rapport rappelle par ailleurs que « des délais trop courts pour le retrait du contenu créent une pression inutile sur les plateformes pour qu’elles utilisent des outils automatisés très problématiques ».

Règlement européen : les plateformes en ligne ont désormais une heure pour retirer le contenu terroriste

Le règlement européen relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne a été adopté aujourd’hui (28 avril), sans vote final, par le Parlement européen, malgré l’opposition de plusieurs organisations et eurodéputés.

La suppression pure et simple du contenu n’est pas non plus la réponse, selon eux. « Il s’agit simplement d’un pansement pour un problème déjà existant », note la tribune rédigée par les eurodéputés Alexandra Geese, Marcel Kolaja, Patrick Breyer, Kim Van Sparrentak, Rasmus Andresen, à l’initiative de l’étude.

Sans compter que cette pratique pourrait inciter les « trolls » à poster davantage, entraver le contenu qui expose des violations des droits de l’Homme et, plus généralement, nuire à la liberté d’expression, explique l’étude.

Elle suggère plutôt de renforcer la transparence de leur stratégie de modération, notant par exemple que « le fait de fournir des explications sur la suppression d’un message diminue la probabilité de suppression future des messages des utilisateurs modérés, alors que la suppression simple sans explication augmente en fait la probabilité qu’un utilisateur subisse une suppression de message à l’avenir » et invite à davantage s’inspirer des pratiques d’autorégulation par les utilisateurs comme c’est le cas pour les plateformes passées à la loupe – même si les auteurs reconnaissent qu’il s’agit d’un processus plus lent et qui peut être manipulé.

En février dernier, la Fondation Wikimedia, maison mère de Wikipedia, annonçait le lancement d’un nouveau « Code de conduite universel »visant à notamment à « prévenir l’abus de pouvoir et d’influence pour intimider les autres » et « lutter contre l’introduction délibérée de contenus faux ou inexacts ».

« La modération de contenu dirigée par la communauté semble être très efficace, car elle offre des modèles alternatifs de modération descendante », concluent-ils.

L'Assemblée nationale adopte de nouvelles règles contre la haine en ligne

L’Assemblée Nationale a voté hier plusieurs mesures pour renforcer l’arsenal législatif en matière de régulation de la haine en ligne.

Subscribe to our newsletters

Subscribe