Une loi européenne contre les abus sur les enfants pourrait ouvrir la voie à une surveillance de masse

La dérogation ePrivacy n’est qu’une législation provisoire qui sera remplacée par un règlement sectoriel destiné à lutter contre toutes formes d’abus commis sur des enfants. [vchal/Shutterstock]

Des experts en sécurité ont averti que les outils utilisés par les géants de la technologie pour détecter toutes formes d’abus commis sur des enfants en ligne présentent de graves risques pour la sécurité et la vie privée. Cela suscite de nombreuses inquiétudes quant à la prochaine législation européenne.

La technologie en question est appelée le « client-side scanning » (CSS). Les autres techniques utilisées par les autorités policières pour détecter les abus sur les enfants et d’autres crimes majeurs dans les services de messagerie cryptés, comme WhatsApp ou Telegram, s’appuient sur des portes dérobées pour accéder aux données cryptées. En revanche, le CSS permet d’analyser les données personnelles de l’appareil.

Cette technologie est déjà utilisée aux États-Unis par Apple qui a annoncé en août que l’entreprise utiliserait le CSS pour analyser les photothèques stockées sur les iPhones afin de détecter les images d’abus commis sur des enfants.

Apple a toutefois fait marche arrière face à la réaction des cyberactivistes et a annoncé qu’elle reportait son projet. Des techniques similaires sont déjà utilisées par d’autres géants de la technologie, comme Microsoft, Google ou Facebook.

Le rapport, publié jeudi 14 octobre par des experts en sécurité de renom, met en garde contre le caractère beaucoup plus invasif de cette technologie par rapport aux propositions précédentes destinées à assouplir le cryptage, et contre le risque de voir cette technologie transformée à l’avenir en un outil de surveillance de masse.

Ces outils de reconnaissance de contenu sont pilotés par l’intelligence artificielle (IA) et sont conçus pour détecter les images qui présentent des comportements abusifs envers les enfants en les comparant à des images connues de toutes formes d’abus sur enfants – ce que l’on appelle le « hachage perceptuel ».

La dérogation ePrivacy, adoptée par le Parlement européen en juillet, permet aux fournisseurs de services de mettre en place des mesures volontaires afin de scanner les conversations privées dans les services de messagerie cryptés.

Le Parlement européen autorise le filtrage des messages en ligne pour détecter les abus sur les enfants

Le Parlement européen a adopté mardi 6 juillet la version définitive de la dérogation « vie privée et communications électroniques » (ePrivacy).

La position de l’Europe sur le chiffrement des données

La dérogation ePrivacy n’est qu’une législation provisoire qui sera remplacée par un règlement sectoriel destiné à lutter contre toutes formes d’abus commis sur des enfants. La Commission européenne devrait proposer ce règlement début décembre.

La nouvelle législation pourrait introduire des dispositions obligeant ou incitant les entreprises à analyser les conversations privées cryptées pour lutter contre les abus sur les enfants en ligne, a déclaré Chloé Berthélémy, conseillère politique chez European Digital Rights.

La Commission européenne a déjà fait de la lutte contre les abus sur les enfants en ligne, l’une de ses principales priorités. Dans sa stratégie pour une lutte plus efficace, la Commission a identifié le chiffrement de bout en bout comme un obstacle, puisqu’il permet d’ouvrir les portes à un usage criminel.

Si la Commission affirme que ces méthodes de filtrage ne porteront pas atteinte à la vie privée, le rapport des experts en cybersécurité laisse entendre le contraire.

« De par sa nature, le CSS crée de graves risques pour la sécurité et la vie privée de l’ensemble de la société, tandis que l’aide qu’il peut apporter aux services répressifs est au mieux problématique », peut-on lire dans le rapport.

Le CSS, qui rendrait les dispositifs personnels consultables à l’échelle industrielle, affecterait également les citoyens respectueux de la loi. Le rapport souligne par ailleurs que l’utilisation de cette technologie entraînerait une importante demande d’extension de son champ d’application, ce qui intensifierait encore le degré de surveillance.

« Les mesures requises pour limiter les abus les plus évidents restreignent tellement l’espace de conception que l’on se retrouve avec quelque chose qui ne pourrait pas être très efficace comme outil de contrôle », a déclaré Ross Anderson, l’un des auteurs du rapport.

« Si les institutions européennes devaient rendre son utilisation obligatoire (…) elles exposeraient leurs citoyens à toute une série de préjudices évitables », a-t-il ajouté.

Subscribe to our newsletters

Subscribe