Modération du contenu terroriste en ligne : la Commission se veut rassurante après le cri d’alerte des associations

L'article 4 du règlement prévoit notamment que les « fournisseurs de services d’hébergement [devront supprimer] les contenus à caractère terroriste ou en bloquent l’accès dans un délai d’une heure à compter de la réception de l’injonction de suppression ». [keport/Shutterstock]

La Commission européenne cherche à rassurer après que 61 organisations ont adressé une lettre ouverte aux eurodéputés appelant les législateurs à s’opposer à la proposition de règlement de l’Union européenne relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne qui devrait être votée le 28 avril prochain au Parlement.

« Nous demandons instamment au Parlement européen de rejeter cette proposition, car elle pose de graves menaces aux droits et libertés fondamentaux, en particulier la liberté d’expression et d’opinion, la liberté d’accès à l’information, le droit à la vie privée et l’État de droit », écrivent plusieurs associations, dont Amnesty International, la Quadrature du Net, la Ligue des droits de l’Homme ou encore Reporters sans frontières, dans une lettre ouverte publiée la semaine dernière.

C’est notamment l’article 4 du règlement qui inquiète les signataires. En l’état, il prévoit que les « fournisseurs de services d’hébergement [devront supprimer] les contenus à caractère terroriste ou en bloquent l’accès dans un délai d’une heure à compter de la réception de l’injonction de suppression ».

« Ces règles sont nécessaires pour lutter contre les contenus en ligne diffusés par les terroristes afin de propager leur message, de radicaliser et de recruter des adeptes, ainsi que de faciliter et de diriger des activités terroristes », explique une représentante officielle de la Commission européenne à EURACTIV France.

Si l’intention est louable, les organisations craignent que le « court délai imposé » n’incite « fortement les plateformes à déployer des outils automatisés de modération de contenu ». Or « parce qu’il est impossible pour les outils automatisés de différencier invariablement le militantisme, les contre-discours, et la satire à propos du terrorisme du contenu considéré comme terroriste lui-même, une automatisation accrue entraînera à terme la suppression de contenus légaux comme le contenu journalistique, le traitement discriminatoire des minorités et de certains groupes sous-représentés » peut-on lire dans la lettre.

Le traitement automatique de la modération du contenu ferait ainsi craindre l’installation d’une forme de censure par les algorithmes, selon les associations qui anticipent le zèle des hébergeurs face à la législation.

Mais la Commission se justifie en soulignant que « compte tenu du volume considérable de contenus diffusés sur de nombreuses plateformes, des outils automatisés sont nécessaires pour détecter les contenus terroristes potentiels. Une intervention purement humaine ne serait pas assez rapide pour faire face aux tactiques agressives des terroristes.« 

Elle précise : « Le contenu détecté par les outils automatisés ne sera pas nécessairement supprimé automatiquement ; les décisions de suppression seront soumises à une surveillance et à une vérification humaines. »

Et d’ajouter : « Les outils automatisés ne sont donc pas des filtres automatiques de téléchargement », contraitement à l’interprétation du texte qu’ont fait les associations.

« Aucun garde fou » 

Le texte prévoit également que ces injonctions de suppression de contenu soient ordonnées par des « autorités compétentes », pas nécessairement nouvelles ou créées à cette fin et désignées arbitrairement par les États membres.

« Nous pensons néanmoins que seuls les tribunaux ou les autorités administratives indépendantes faisant l’objet d’un contrôle judiciaire devraient avoir le pouvoir d’émettre des injonctions de suppression de contenu », soulignent les signataires. En outre, c’est surtout l’absence de « garde fou » qui est pointé du doigt par les associations.

« Les mesures introduites par la proposition de règlement seront facilement manipulables à des fins de censure politique par des gouvernements sans scrupule. Les premières victimes de ces abus seront les journalistes, les artistes, les lanceurs d’alerte, les opposants politiques et les communautés religieuses marginalisées, notamment musulmanes », explique Chloé Berthélémy, conseillère politique à European Digital Rights, à EURACTIV France.

« Chacune des mesures s’accompagne de garanties solides et efficaces, notamment de procédures de plainte et de recours judiciaires. Sans cette législation sur les contenus terroristes en ligne, les entreprises continueraient à appliquer leurs propres mesures, mais uniquement sur une base volontaire et sans aucune des garanties en place », répond-on à la Commission.

Le texte introduit par ailleurs plusieurs obligations pour les plateformes, notamment en matière de transparence. L’article 8 prévoit par exemple que les « fournisseurs de services d’hébergement définissent, dans leurs conditions commerciales, leur politique de prévention de la diffusion de contenus à caractère terroriste » et qu’ils devront publier « des rapports annuels sur la transparence relatifs aux mesures prises ».

L'Assemblée nationale adopte de nouvelles règles contre la haine en ligne

L’Assemblée Nationale a voté hier plusieurs mesures pour renforcer l’arsenal législatif en matière de régulation de la haine en ligne.

Subscribe to our newsletters

Subscribe