Les deepfakes des Le Pen rappellent que la modération de contenus est encore insuffisante à l’approche des élections

Type de contenu:

Actualités Basé sur des faits, soit observés et vérifiés directement par le journaliste, soit rapportés et vérifiés par des sources bien informées.

Les visages de Marine Le Pen et de Marion Maréchal ont été intégrés sur des vidéos volées à des influenceuses. [EPA-EFE/JIM LO SCALZO]

Des vidéos deepfakes de jeunes femmes, prétendument membres de la famille Le Pen, faisant la promotion de partis d’extrême droite français, sont devenues virales en ligne, relançant le débat sur l’efficacité de la modération des contenus à l’approche des élections européennes de juin.

C’est à l’heure où les derniers sondages prévoient la montée des groupes d’extrême droite que cette série de deepfakes — des montages vidéo réalisés avec l’intelligence artificielle (IA) — est devenue virale.

Ces dernières semaines, sur TikTok, sont apparues des vidéos montrant des jeunes femmes, prétendant être membres de la famille Le Pen, à la plage, au ski ou encore dansant en sous-vêtements tout en parlant des élections européennes et en se moquant des personnes racisées en France. Certaines vidéos des trois « nièces » Le Pen, Amandine, Chloé et Lena Maréchal, ont été visionnées plus de 2 millions de fois.

Les visages de Marine Le Pen et de Marion Maréchal ont été intégrés sur des vidéos volées à des influenceuses.

Les deepfakes devenus viraux semblent promouvoir des partis d’extrême droite Rassemblement national (Identité et Démocratie, ID) et Reconquête ! (Conservateurs et Réformistes européens, CRE) et mentionnent à plusieurs reprises les élections européennes.

Le Rassemblement national, en tête des sondages en France, a désigné Jordan Bardella comme tête de liste pour les élections européennes, tandis que Marion Maréchal, la nièce de Marine Le Pen, est la tête de liste du parti Reconquête ! d’Eric Zemmour.

Certains des comptes TikTok diffusant ces vidéos semblent avoir été supprimés depuis mardi (16 avril).

La famille de Mme Le Pen a déclaré qu’elle n’était « pas très heureuse » des faux comptes, tandis que Reconquête ! a signalé le contenu à TikTok.

Un administrateur anonyme du compte de Lena Marechal a qualifié l’action d’« expérience sociale » qui n’avait « rien de politique », auprès de BFM TV.

« La robe que je vais porter pour la victoire de Jordan [Bardella] », dit Amandine Le Pen dans une vidéo où elle est déguisée en Jeanne d’Arc, figure historique française à laquelle le Rassemblement national fait souvent référence.

« Quand tu te balades à Paris, tu vois plus de voiles que de baguettes de pain », ou encore « Mohamed c’est le mec qui insulte le RN, mais qui finit dans mes DM », peut-on entendre dire la fausse nièce en tenue légère.

Jordan Bardella a affirmé samedi dernier (13 avril) qu’il s’agissait d’une « utilisation malveillante » de l’IA samedi sur BFM TV. Le candidat à l’élection européenne a appelé à une plus grande régulation des contenus générés par l’IA.

L’ironie

La secrétaire d’État au Numérique, Marina Ferrari a souligné lundi (15 avril) l’ironie de la situation, étant donné que 0les députés du Rassemblement national avaient voté contre une disposition interdisant la publication en ligne de deepfakes utilisant l’IA sans le consentement des personnes concernées.

Le Rassemblement national et les partis de gauche se en effet sont opposés la semaine dernière à l’Assemblée nationale au projet de loi visant à sécuriser et réguler l’espace numérique (SREN), craignant des « mesures autoritaires ».

Le projet de loi SREN vise à adapter les mesures européennes sur la modération de contenus en ligne, dans le cadre du Règlement sur les services numériques (DSA), à la législation française, entre autres objectifs législatifs.

Les sénateurs reprochent au gouvernement le retard pris par la loi de sécurisation des espaces numériques

Mardi (2 avril), les sénateurs français ont critiqué le gouvernement d’Emmanuel Macron pour le retard de huit mois du processus législatif sur le projet de loi visant à sécuriser et réguler l’espace numérique (SREN), pointant le manque d’efficacité dans l’élaboration du texte.

À la traîne

La France et près d’un tiers dautres États membres de l’UE, accuse un retard dans l’application de cette loi clé, malgré l’approche des élections européennes de juin. Ces États devaient nommer leur autorité administrative de coordination avant le 17 février 2024.

Les autorités nationales ont pour mission de désigner les organisations responsables de signaler les contenus illicites aux plateformes, appelées signaleurs de confiance.

Les plateformes doivent en priorité prendre des décisions de modération sur les contenus signalés par ces organisations, qui pourraient inclure des contenus politiques tels que les vidéos des prétendues nièces de Marine Le Pen.

Même si la France n’a pas encore officiellement désigné l’autorité audiovisuelle Arcom comme autorité de coordination du DSA, l’organisme a commencé à recueillir les candidatures pour les signaleurs de confiance.

Julie Carel, associée chez Momentum Avocats, a indiqué à Euractiv que les principaux enjeux à long terme pour les signaleurs de confiance seront le recrutement, la formation et la sécurisation de budgets suffisants pour garantir leur opérationnalité.

Selon Mme Carel, « il y aura une période de latence le temps que l’Arcom soit désignée comme coordinateur national [dès l’entrée en vigueur de la loi SREN d’ici quelques semaines] et valide les dossiers des candidats signaleurs de confiance. S’en suivra un temps de latence opérationnel pendant lequel les entités désignées devront former leurs équipes de modération et notification ».

Application du DSA

Malgré les retards, elle souligne que « le DSA est d’application directe, et il est entré en vigueur le 17 février 2024 ». Même si les législations nationales n’ont pas encore été adaptées, les entreprises y sont tenues en raison de l’application directe des actes de l’UE.

Cependant, les vidéos virales révèlent que la modération des contenus n’est pas encore parfaite, comme le montrent certains incidents notoires.

En septembre 2023, notamment, quelques jours avant les élections législatives slovaques, un clip audio deepfake présentant le candidat Michal Šimečka (Progressive Slovakia, Renew) comme admettant avoir truqué l’élection s’est rapidement propagé, ce qui pour certains aurait influencé le vote en faveur de son adversaire, Robert Fico (Smer, S&D).

Face aux préoccupations grandissantes quant à la manipulation électorale par les deepfakes, vingt plateformes ont pris l’engagement en février de « lutter contre l’utilisation abusive de l’IA lors des élections de 2024 ».

Par ailleurs, la Commission européenne a désigné l’IA générative comme un risque pour l’intégrité du processus électoral dans ses lignes directrices relatives au DSA.

En mars, elle avait en outre examiné neuf des plus grandes plateformes de l’UE sur leur utilisation de l’IA générative afin d’évaluer leur conformité avec le DSA.

La Commission européenne ouvre une enquête sur les publicités ciblées et l’IA générative

La Commission européenne a demandé aux neuf grandes plateformes technologiques des informations sur leur utilisation des publicités ciblées et de l’intelligence artificielle (IA) générative afin d’évaluer leur conformité avec le règlement sur les services numériques (DSA).

 

[Édité par Anna Martino]

Inscrivez-vous à notre newsletter

S'inscrire