Bruxelles demande aux médias sociaux d’agir contre les propos haineux

Apps Facebook Social Media Media Social Network [Max Pixel]

La Commission européenne souhaite que les plateformes Internet retirent les publications illégales plus rapidement et envisage d’élaborer une nouvelle loi à ce sujet pour satisfaire des pays comme la France et l’Allemagne.

Les nouvelles orientations de la Commission demandent aux entreprises de médias sociaux comme Facebook, Twitter et YouTube, de retirer les contenus illégaux tels que la propagande terroriste et le discours de haine, et de s’assurer que cela ne circule pas sur Internet en utilisant des technologies de surveillances des publications partagées par les utilisateurs.

Ces orientations renforcent la position de la Commission sur la manière dont les plateformes doivent réagir à des publications illégales. Pour l’heure, l’exécutif européen s’en tient à une approche volontariste, mais ces nouvelles lignes directrices auront un impact politique. La Commission a publié sa communication le 28 septembre, soit un jour avant que les chefs d’État de l’UE se rencontrent en Estonie lors d’un sommet dédié à la politique numérique.

Plus tôt dans l’année, Berlin a adopté une loi controversée exigeant des médias sociaux qu’ils suppriment les propos haineux d’Internet dans les 24 heures suivant le signalement. Dans le cas contraire, ces entreprises se verront imposer une lourde amende. La France et d’autres pays européens ont exprimé leur intérêt dans l’élaboration d’une telle loi nationale.

La Commission veut éviter que les États membres créent chacun une loi différente à travers l’UE. Les nouvelles lignes directrices sont donc un moyen pour la Commission de faire davantage pression sur les sociétés de la tech. Si cette approche volontariste n’encourage pas davantage les entreprises à retirer les contenus illégaux, la Commission a annoncé qu’elle proposerait une loi européenne contraignante d’ici mai 2018.

« Nous ne pouvons pas accepter un Far West numérique, nous devons agir », a déclaré la commissaire à la Justice, Věra Jourová.

La responsable de la justice européenne supervise un accord non contraignant datant de 2016 et passé entre la Commission d’une part, et Google, Facebook, Twitter et Microsoft d’autre part. Cet accord encourage ces entreprises à supprimer en moins de 24 heures la plupart des contenus illégaux diffusés par les utilisateurs.

Résultat, entre mai 2016 et juin 2017, les sociétés ont retiré 59 % des contenus illégaux. Durant cette même période, elles ont examiné 51 % des signalements des utilisateurs sur des contenus illégaux en moins de 24 heures.

Le bureau de Věra Jourová analysera à nouveau les effets de l’accord en début d’année prochaine, avant que la Commission annonce si, oui ou non, elle propose une loi.

« Internet montre de plus en plus sa vilaine facette. Les discours de haine ne sont pas seulement des mots, ils peuvent mener à des violences réelles contre des personnes réelles dans la vraie vie », a-t-elle affirmé.

Les discours de haine sont interdits à travers l’UE, mais leur définition varie selon les États membres. L’exécutif a annoncé qu’il envisageait de fixer une limite de temps concrète pour le retrait par les entreprises des contenus illégaux.

Les nouvelles orientations demandent aussi aux médias sociaux d’utiliser des technologies de détection automatique pour identifier les contenus illégaux en utilisant des algorithmes, de les supprimer, et de s’assurer qu’ils ne sont pas publiés à nouveau sous une autre forme, ou via un compte utilisateur différent.

L’Allemagne met les GAFA sous pression face aux discours de haine

Un nouveau projet de loi allemand prévoit de condamner à une amende pouvant aller jusqu’à 50 millions d’euros les médias sociaux qui ne suppriment pas les discours haineux. La Commission européenne réfléchit à une proposition similaire.

Selon la Commission, il est important que les entreprises embauchent des personnes qui vérifient les publications signalées comme illégales, surtout pour les cas où le taux d’erreur est élevé et où une contextualisation est nécessaire ». Facebook a embauché des centaines de nouveaux employés en Allemagne après l’adoption par le Bundestag cet été de la loi nationale sur les médias sociaux.

Les entreprises de la tech et les groupes de libertés civiles préviennent quant à eux que les technologies automatisées pour détecter les contenus illégaux pourraient obliger les médias sociaux à constamment surveiller ce que partagent les utilisateurs et donc à restreindre la liberté d’expression en cas de nombreuses suppressions de publications.

EDiMA, une association bruxelloise représentant les plateformes en ligne comme Facebook, Google et Twitter, soutient que la demande de garantie que les publications illégales ne réapparaissent pas est particulièrement difficile à satisfaire pour les entreprises de médias sociaux.

Les eurodéputés et les groupes de lobbys à Bruxelles sont divisés sur l’utilisation des technologies automatisées. Certaines estiment qu’elles sont trop zélées et qu’elles censureront les utilisateurs des médias sociaux.

« Je suis convaincu qu’une approche européenne commune est nécessaire si nous voulons préserver un marché unique numérique véritable », a déclaré l’eurodéputée libérale néerlandaise, Marietje Schaake. Elle et 23 autres eurodéputés ont demandé à la Commission en début d’année de proposer une loi contraignante pour que les sociétés retirent les contenus illégaux.

Marietje Schaake affirme que si la Commission propose une loi au printemps prochain, elle devra protéger la liberté d’expression et ne pas compromettre une autre loi européenne garantissant la non-responsabilité des plateformes en ligne face aux contenus illégaux partagés par leurs utilisateurs.

En effet, la directive sur le commerce en ligne exonère les plateformes de toute responsabilité si elles ne sont pas au courant des contenus illégaux publiés. Toutefois, elles doivent les retirer dans les plus brefs délais une fois que les publications en question notifiées. La Commission reconnaît que le temps exact de réaction d’une plateforme dépend du type de contenu illégal.

« Quand l’enjeu est grand, par exemple en cas d’incitations à des actes terroristes, une suppression rapide est particulièrement importante et peut être sujette à des délais spécifiques », indique la communication de la Commission.