Von der Leyen s’engage à « aller plus loin » contre l’IA qui porte atteinte aux droits fondamentaux

"Je tiens à vous assurer que la Commission prend très au sérieux vos préoccupations concernant la protection des droits fondamentaux", a écrit Mme von der Leyen dans une lettre datée du 29 mars. [Shutterstock]

La Commission européenne pourrait « aller plus loin » dans l’introduction de règles plus strictes pour les technologies d’intelligence artificielle (IA) qui présentent un risque pour les droits fondamentaux, selon une lettre écrite par la présidente von der Leyen aux eurodéputés, obtenue par EURACTIV.

Dans une réponse écrite à une récente lettre multipartite de 116 eurodéputés qui demandait à la Commission de s’attaquer aux risques pour les droits fondamentaux soulevés par certaines applications d’IA « à haut risque », Mme von der Leyen a assuré aux législateurs de l’UE que l’exécutif tiendrait compte de leurs préoccupations lors de la rédaction de la législation à venir.

« Je tiens à vous assurer que la Commission prend très au sérieux vos préoccupations concernant la protection des droits fondamentaux », a écrit Mme von der Leyen dans cette lettre datée du 29 mars.

La présidente de la Commission a également cité la législation à venir qui sera introduite par la Commission le 24 avril, et a déclaré qu’elle viserait à promouvoir une IA « qui soit transparente et digne de confiance. »

« Nous envisageons des règles obligatoires applicables à tous les systèmes d’IA qui présentent un risque élevé pour les droits ou la sécurité des personnes. Dans le cas d’applications qui seraient tout simplement incompatibles avec les droits fondamentaux, nous devrons peut-être aller plus loin », a déclaré Mme von der Leyen.

Les eurodéputés appellent à mieux réguler l'intelligence artificielle face aux discriminations

« Nous nous sommes battus durant des décennies pour affirmer nos valeurs d’inclusion, de non-discrimination, de multilinguisme et de diversité culturelle. Ces valeurs doivent aussi être reflétées en ligne », selon la rapporteure Sabine Verheyen.

Un livre blanc sur l’IA

Le suivi par la Commission du livre blanc sur l’intelligence artificielle publié l’année dernière détaillera la manière dont les applications à « haut risque » seront réglementées au niveau européen. L’initiative présentée l’année dernière a jeté les bases de nouvelles règles contre les technologies d’IA jugées à « haut risque », ainsi que les technologies employées dans des secteurs critiques de l’économie, notamment les soins de santé, les transports, la police, le recrutement et le système juridique.

Dans le même temps, s’adressant récemment à la commission spéciale du Parlement européen sur l’intelligence artificielle la semaine dernière, le directeur général adjoint de la DG Connect de la Commission, Khalil Rouhana, a noté que le suivi du 24 avril sur l’IA établirait le champ des applications à « haut risque », qui seraient bien définies, a-t-il dit.

Toutefois, une approche aussi ciblée risque de diviser les nations de l’UE, certains acteurs, comme l’Allemagne, demandant un champ plus large de technologies pouvant être considérées comme « à haut risque ».

De l’autre côté du débat, l’année dernière, quatorze pays de l’UE ont défini leur position sur la future réglementation de l’intelligence artificielle, exhortant la Commission européenne à adopter une « approche de droit souple ».

« Nous devrions nous tourner vers des solutions non contraignantes, telles que l’autorégulation, l’étiquetage volontaire et d’autres pratiques volontaires, ainsi qu’un processus de normalisation solide, en complément de la législation existante qui garantit le respect des normes essentielles de sécurité et de sûreté », indiquait le document, dirigé par le Danemark et signé par les ministres du numérique d’autres poids lourds de la technologie de l’UE comme la France, la Finlande et l’Estonie.

Subscribe to our newsletters

Subscribe