L’Autriche veut lutter contre les deepfakes alors que cette technologie est de plus en plus utilisée

Il s’agit d’un « risque considérable pour la politique de sécurité, car l’identification de l’influence artificielle est difficile à prouver ou à retracer », a déclaré le ministre autrichien de l’Intérieur, Gerhard Karner, lors d’une conférence de presse mercredi. [MDV Edwards/Shutterstock]

Le gouvernement autrichien a publié mercredi (25 mai) un plan d’action pour lutter contre les « deepfakes », dans le but de mieux combattre la désinformation et les discours de haine. Plusieurs textes législatifs visent également à lutter contre ce problème croissant au niveau européen.

La progression du numérique, qui a été accélérée par la pandémie, entraîne une augmentation rapide des « deepfakes », un type de contenu média alimenté par l’intelligence artificielle (IA) qui dépeint quelqu’un faisant ou disant des choses qui ne se sont jamais réellement produites.

Il s’agit d’un « risque considérable pour la politique de sécurité, car l’identification de l’influence artificielle est difficile à prouver ou à retracer », a déclaré le ministre autrichien de l’Intérieur, Gerhard Karner, lors d’une conférence de presse mercredi.

Fin 2020 déjà, une équipe spéciale interministérielle a été lancée sur la question, impliquant la chancellerie fédérale autrichienne, le ministère de la Justice, le ministère de la Défense et le ministère des Affaires étrangères.

Cette task force s’est penchée sur le sujet, ce qui a conduit à la publication du plan d’action, qui prévoit quatre domaines d’action : « Structures et Processus », « Gouvernance », « Recherche et Développement », et « Coopération internationale ». La sensibilisation au sujet est élargie et renforcée auprès de la population.

Le gouvernement autrichien a souligné que la réglementation des vidéos deepfakes doit tenir compte des droits fondamentaux et des droits de la personne en vigueur, et qu’une attention particulière doit être accordée à la protection spéciale de la liberté d’expression et de la liberté artistique.

« Les deepfakes sont utilisés pour manipuler l’opinion publique et les processus démocratiques, ou pour cibler des individus de manière haineuse sur le Net », a déclaré la ministre de la Justice, Alma Zadic.

Le potentiel des deepfakes

Le Parlement autrichien part du principe que des deepfakes sont publiés chaque jour, car il n’est plus nécessaire de disposer d’un logiciel sophistiqué pour les créer. Le professeur Hany Farid de l’université de Berkeley prévoit même que d’ici à trois à cinq ans, il ne sera plus possible de distinguer les faux des vrais.

Si tous les deepfakes ne sont pas de nature malveillante, ils peuvent également être utilisés à des fins non hostiles, comme la satire, et la majorité d’entre eux sont utilisés pour porter atteinte à la réputation de personnes par le biais de fausses vidéos pornographiques diffamatoires.

Dans un rapport de la startup néerlandaise Sensity, cette utilisation constitue plus de 90 % des cas, et le nombre de vidéos générées a doublé tous les six mois entre fin 2018 et 2020 seulement.

Outre le matériel à caractère pornographique, qui touche davantage les femmes, les deepfakes peuvent également être dangereux dans le cadre de la vie politique. En mars 2022, une vidéo manipulée du président ukrainien Volodymyr Zelensky a circulé, dans laquelle M. Zelensky semblait demander à l’armée ukrainienne de se rendre.

Une étude réalisée en 2021 par le Panel for the Future of Science and Technology a révélé que « les risques associés aux deepfakes peuvent être de nature psychologique, financière et sociétale, et leurs impacts peuvent aller du niveau individuel au niveau sociétal ».

L’étude a donc recommandé aux pouvoirs publics de prévenir et de combattre les effets négatifs de cette technologie et d’intégrer des solutions dans leurs cadres législatifs.

Législation européenne pour lutter contre les deepfakes

En réponse, plusieurs dossiers législatifs européens abordent la question des deepfakes, tels que la loi sur les services numériques (Digital Services Act, DSA) et la loi sur l’intelligence artificielle (IA).

Le projet de rapport du Parlement européen sur la loi sur l’IA du 20 avril a souligné « l’émergence d’une nouvelle génération de contenus manipulés numériquement, également connus sous le nom de deepfakes ». En raison de leur potentiel de fraude, les deepfakes devraient être soumis à la fois aux exigences de transparence et aux exigences de conformité des systèmes d’IA à haut risque.

Cela ne signifie pas que les systèmes d’IA à haut risque sont interdits, mais la conformité « rend ces systèmes plus dignes de confiance et plus susceptibles de réussir sur le marché européen », soulignent les co-rapporteurs.

En outre, le DSA prévoit l’obligation pour les très grandes plateformes en ligne de procéder à une évaluation des risques, notamment la manipulation intentionnelle de leurs services, qui pourrait avoir un impact négatif sur la protection de la santé publique, des mineurs, du discours de la société civile, des élections, de la sécurité, etc.

Patrick Breyer, député européen du Parti pirate allemand et rapporteur du DSA, a déclaré à EURACTIV que si ces considérants non contraignants pouvaient aider en tant que contre-mesures, dans les cas de manipulation intentionnelle, « l’intelligence humaine est nécessaire ».

Comme il pourrait être impossible de décider si l’on a affaire à un deepfake, la détection de telles créations sera une question de « compétences des médias et de contre-recherche » à l’avenir, a déclaré M. Breyer.

Les députés européens finalisent le rapport préliminaire sur l'IA

Les deux co-rapporteurs du Parlement européen ont finalisé le rapport préliminaire sur l’intelligence artificielle (IA) lundi, couvrant les points sur lesquels ils ont trouvé un terrain d’entente.

 

Subscribe to our newsletters

Subscribe