Élections européennes : la Commission publie des lignes directrices pour prévenir les risques numériques

Les réseaux sociaux, qui figurent sur les listes, peuvent influencer les élections, notamment via des contenus générés par l’IA, tels que les deepfakes, ou la désinformation.

La Commission européenne a publié mardi (26 mars) des lignes directrices dans le cadre du règlement sur les services numériques (Digital Services Act, DSA) concernant les mesures à prendre en ligne pour atténuer les risques qui pourraient avoir une incidence sur l’intégrité des élections.

Les élections européennes de juin approchent et dix pays européens se préparent également à organiser des élections présidentielles et législatives cette année.

Entré en vigueur le 17 février, le DSA régit la manière dont les acteurs de la toile doivent traiter les contenus illégaux et préjudiciables en ligne.

L’année dernière, la Commission a annoncé la première série de très grandes plateformes en ligne (very large online platforms, VLOP) et de très grands moteurs de recherche (very large online search engines, VLOSE). Ces listes ont depuis lors été mises à jour.

On y retrouve des plateformes telles que les réseaux sociaux Instagram et TikTok, des moteurs de recherche tels que Google Search et Bing, et des plateformes de vente en ligne telles qu’AliExpress et Zalando, qui peuvent

Les réseaux sociaux peuvent influencer les élections, notamment via des contenus générés par l’IA tels que les deepfakes ou la désinformation — raison pour laquelle la Commission a publié mardi des lignes directrices addressées aux plateformes et moteurs désignés, recommandant des mesures d’atténuation et des bonnes pratiques à mettre en œuvre avant, pendant et après les scrutins.

Les plateformes qui décident de ne pas suivre ces lignes directrices doivent démontrer une efficacité équivalente. La Commission prévoit un test de résistance à la fin du mois d’avril.

En cas de manquement, l’exécutif de l’UE pourra réclamer des informations supplémentaires ou bien ouvrir une enquête formelle pouvant déboucher sur de lourdes sanctions.

Avec le DSA, « l’Europe est le premier continent à disposer d’une législation visant à lutter contre les risques systémiques des plateformes en ligne qui peuvent avoir des effets négatifs réels sur nos sociétés démocratiques », a souligné mardi le commissaire européen chargé du Numérique, Thierry Breton.

« Nous utilisons pleinement tous les outils offerts [par le DSA] afin que les plateformes ne soient pas utilisées pour manipuler nos élections, tout en préservant la liberté d’expression », a-t-il ajouté.

Des lignes directrices adaptées au contexte

La Commission demande aux grandes plateformes et aux grands moteurs de mettre en place des équipes internes dotées de ressources suffisantes.

Les lignes directrices suggèrent d’appliquer des mesures de réduction des risques adaptées au contexte spécifique des élections, mais également à chaque région. Il s’agit notamment de promouvoir les informations officielles sur les processus électoraux, de lancer des programmes d’éducation aux médias, d’adapter les systèmes de recommandation pour responsabiliser les utilisateurs et de réduire la monétisation et la viralité des contenus préjudiciables.

Lors d’une conférence de presse mardi, un responsable de la Commission a indiqué qu’une évaluation des risques spécifique à chaque élection de l’UE était requise dans le cadre du DSA et que les plateformes « doivent vérifier si elles ont suffisamment de modérateurs de contenu sur le terrain, et s’ils ont une connaissance de la situation locale, car chaque élection est différente ».

Il a également indiqué que la Commission enquêtait sur X pour non-conformité potentielle avec le DSA, se disant préoccupé par le fait que ce réseau social pourrait ne pas disposer de suffisamment de modérateurs de contenu pour traiter tous les risques de manière adéquate.

Publicités politiques

Selon les lignes directrices, les publicités politiques doivent être clairement identifiées, anticipant ainsi le futur règlement de l’UE sur la publicité politique, qui vise à accroître la transparence des campagnes politiques, en particulier en ligne.

Le but est ici de prévenir d’éventuelles manipulations, comme celles liées au scandale de Cambridge Analytica.

En novembre dernier, les colégislateurs de l’UE sont parvenus à un accord sur la proposition de loi sur la publicité politique, notamment sur le ciblage et le rôle d’un nouveau registre public européen reprenant les publicités.

Deepfakes

La Commission suggère que les très grandes plateformes et les très grands moteurs en ligne, qui pourraient être utilisés pour générer ou diffuser des contenus issus de l’IA générative, évaluent et traitent les risques liés à cette usage de l’IA.

Il s’agit notamment d’étiqueter les contenus générés par l’IA comme étant des « deepfakes » (sons, vidéos, photos manipulées), d’adapter les conditions d’utilisation en conséquence et de veiller à ce que des mesures d’exécution appropriées soient en place.

Meta et TikTok ont déjà annoncé qu’ils exigeraient que les contenus générés par l’IA soient étiquetés, en particulier dans le contexte des prochaines élections européennes.

Le Parlement européen utilise également Instagram (Meta) et TikTok (ByteDance) pour la campagne des élections de juin.

TikTok a également annoncé mardi la publication d’un code de pratique décrivant les efforts déployés pour promouvoir des informations fiables avant les élections européennes.

Le Parlement européen fera campagne sur TikTok, malgré les risques de sécurité

Le projet du Parlement européen de faire campagne sur TikTok, alors que plusieurs institutions de l’UE ont banni le réseau social des appareils utilisés par son personnel l’année dernière en raison de problèmes liés à la cybersécurité, soulève de nombreuses questions.

Désinformation

La Commission encourage la collaboration avec les autorités européennes et nationales, les experts indépendants et les organisations de la société civile afin de faciliter l’échange d’informations avant, pendant et après les élections. L’objectif est de permettre la mise en œuvre de mesures d’atténuation efficaces, notamment en ce qui concerne la manipulation de l’information et l’ingérence étrangères, la désinformation et la cybersécurité.

La manipulation de l’information et ingérence étrangères désigne les efforts délibérés — et souvent secrets — déployés par des entités étrangères pour manipuler l’information ou influencer l’opinion publique dans un autre pays pour des raisons politiques, stratégiques et de sécurité. Cela peut prendre la forme de diffusion de campagnes de propagande mensongères ou d’ingérence dans les processus démocratiques, comme les élections.

La Commission recommande aussi la mise en œuvre d’un mécanisme de réponse aux incidents spécifique aux élections, afin de faire face rapidement aux évènements inattendus et minimiser leur impact sur les résultats et la participation des électeurs.

Désinformation, IA : en amont des élections européennes, Meta prend des mesures

Lundi (26 février), Meta a annoncé qu’elle se pencherait sur la lutte contre la désinformation et les risques posés par l’intelligence artificielle (IA) en vue des élections européennes de juin 2024.

Période postélectorale

Dans ses lignes directrices, l’exécutif de l’UE recommande une évaluation de l’efficacité des mesures mises en œuvre après les élections. Les très grandes plateformes et très grands moteurs en ligne doivent publier des versions non confidentielles de ces évaluations, afin de permettre au public de donner son avis sur les stratégies d’atténuation des risques.

Les lignes directrices prévoient la participation du public et la collaboration avec les coordinateurs nationaux des services numériques, en insistant sur la nécessité que l’examen soit réalisé par un tiers, pour garantir le respect des droits fondamentaux dans le cadre des mesures d’atténuation.

Les coordinateurs des services numériques, prévus dans le DSA, font le lien entre les autorités de régulation et les plateformes en ligne.

Cependant, à ce jour, huit États membres ne les ont pas encore nommés, malgré la date limite qui était fixée au 17 février.

Meta et TikTok attaquent la Commission européenne en justice au sujet de la redevance annuelle prévue par le DSA

Meta et TikTok vont attaquer la Commission européenne en justice au sujet de la redevance de surveillance annuelle que les entreprises visées par le règlement sur les services numériques (DSA) doivent payer.

[Édité par Anne-Sophie Gayet]

Inscrivez-vous à notre newsletter

S'inscrire