Paris milite pour une loi européenne contre les contenus terroristes

L’ambassadeur français pour le numérique a déclaré que la France favoriserait une législation européenne en matière d’utilisation des réseaux sociaux à des fins terroristes. [Marco Paköeningrat/Flickr]

La France a lancé une initiative en faveur d’une législation européenne contre les contenus terroristes sur les réseaux sociaux.

La France mène une initiative avec le Royaume-Uni et l’Allemagne pour faire pression sur les plateformes en ligne afin qu’elles suppriment rapidement les contenus à caractère terroriste.

La Commission européenne élabore quant à elle un plan d’action pour encourager les entreprises telles que YouTube, Facebook et Twitter à utiliser des outils technologiques automatisés pour identifier ce type de contenu et le supprimer ainsi dans l’heure, selon un document de travail de l’exécutif, obtenu par des journalistes.

L’UE durcit le ton sur les contenus à caractère terroriste en ligne

Les plateformes en ligne devraient supprimer les publications promouvant le terrorisme dans l’heure suivant leur signalement, selon un document de travail de la Commission européenne.

« Nous travaillons en toute confiance et très étroitement avec la Commission sur l’utilisation d’Internet à des fins terroristes. Avec la Commission européenne et Europol, cela fonctionne très bien. Nos efforts se renforcent mutuellement », a déclaré David Martinon, ambassadeur français pour le numérique.

La Commission devrait publier un plan d’action pour une nouvelle recommandation non contraignante à l’égard des plateformes technologiques dans les prochaines semaines. Julian King, le commissaire britannique en charge de l’Union européenne de la sécurité, se charge de la rédaction du document.

David Martinon estime que l’approche renforcée de l’UE vis-à-vis des grandes entreprises technologiques découle de l’initiative franco-britannique de l’été dernier. Emmanuel Macron, le président français, et Theresa May, la Première ministre britannique, ont convenu en juin 2017 de rendre les plateformes légalement responsables si elles ne commencent pas à supprimer davantage de contenu à caractère terroriste. « Nous avons donné élan à ce plan avec les Britanniques », a déclaré David Martinon.

Emmanuel Macron a confié la responsabilité d’assurer la liaison avec la Silicon Valley à David Martinon, lorsqu’il l’a nommé au poste d’ambassadeur pour le numérique en novembre.

Selon David Martinon, le président français est très au courant des questions technologiques et motivé à définir une nouvelle approche pour contrôler la réponse des plateformes face au terrorisme. « Il est intéressé et il fait pression, ce qui est positif. »

La plupart des pays n’ont pas désigné d’ambassadeurs chargés de la politique technologique. Cependant, le Danemark a nommé Casper Klynge ambassadeur danois pour le numérique en mai dernier, six mois avant que David Martinon entre en fonction. Casper Klynge partage son temps entre la Silicon Valley, Pékin et Copenhague, alors que David Martinon se trouve à Paris.

Après l’accord franco-britannique en juin, les responsables français et britanniques ont décidé d’inclure l’Allemagne dans leurs discussions avec les entreprises, selon David Martinon.

Marche arrière de la Commission face aux publications illégales sur Internet

La Commission européenne fait marche arrière sur l’obligation pour les plateformes en ligne de supprimer les contenus haineux.

David Martinon ne craint pas que le Brexit creuse un fossé entre les pays qui ont permis à l’Europe de définir sa position sur les réponses que doivent avoir les réseaux sociaux face à l’utilisation de leurs réseaux à des fins terroristes. « Je ne vois pas cela comme un gros problème. Il y a une discussion autour de la législation européenne et nous allons la favoriser », a-t-il déclaré.

Cependant, certains contenus à caractère illégal signalés aux entreprises technologiques proviennent d’Europol, l’office européen de police, et l’adhésion du Royaume-Uni à Europol n’est pas garantie après le Brexit. Theresa May a toutefois défendu l’adhésion du Royaume-Uni à l’office européen de police et au mandat d’arrêt européen lors de la conférence de Munich sur la sécurité.

Selon David Martinon, le Royaume-Uni est « vraiment déterminé à réformer les réponses des plateformes face au contenu à caractère terroriste. »

« La perte d’effet structurant sur les actions contre la radicalisation pourrait avoir une répercussion significative, à la fois pour le Royaume-Uni et l’UE. Le Royaume-Uni est un acteur majeur et un partenaire précieux en ce qui concerne ses compétences en matière d’application de la loi », a déclaré Kate Cox, une analyste principale du think tank britannique RAND.

Les pressions exercées par les gouvernements français, britannique et allemand à l’égard des réseaux sociaux ont permis de faire pression pour que la Commission s’attaque au fonctionnement des entreprises dans l’UE. La version du plan d’action de la Commission qui a fait l’objet d’une fuite n’oblige cependant pas juridiquement les entreprises à supprimer ce type de contenu.

Cependant, la situation pourrait encore évoluer. L’exécutif européen a publié un document le mois dernier déclarant qu’il « examine des mesures plus précises pour améliorer les réponses des entreprises au contenu à caractère terroriste en ligne, avant de décider si une loi est nécessaire ».

Une technologie automatisée

L’un des éléments controversés du document de travail de la Commission est la volonté d’encourager les entreprises à développer une technologie automatisée pour détecter plus rapidement les contenus illégaux. Pour les groupes dede défense des libertés civiles, ce type de technologie viole la vie privée des utilisateurs.

David Martinon admet être sceptique quant à l’idée de laisser les plateformes faire tout le boulot, « parce que cela revient à leur donner les clés du monde ». Leur demander d’agir rapidement tout en assurant une supervision indépendante des contenus supprimés signifie de donner à ces entreprises une charge de travail considérable.

« Quand elles nous disent qu’elles ont investi beaucoup dans l’intelligence artificielle et parviennent à présent à détecter et supprimer 98 à 99 % des contenus terroristes avant leur publication, c’est un résultat très positif », ajoute-t-il. Facebook et Google utilisent déjà l’intelligence artificielle pour surveiller les publications de leurs utilisateurs.

Le sujet est poussé par certains des plus grands États membres, qui ont entamé des dialogues avec les géants du secteur, et n’a rencontré aucune opposition des États plus passifs.

Récemment, l’Allemagne a pris de l’avance appliquant une loi visant à obliger les plateformes à supprimer les publications contenant des propos haineux, sous peine d’amendes allant jusqu’à 50 millions d’euros.

Subscribe to our newsletters

Subscribe