La présidence tchèque de l’UE définit la voie à suivre pour les discussions sur la loi sur l’IA

La présidence tchèque a pour objectif de parvenir à une approche générale sur la loi sur l'IA d'ici décembre. [Best Icon Studio/Shutterstock]

La future présidence tchèque du Conseil de l’UE a partagé un document de travail avec les autres gouvernements de l’UE afin de recueillir leurs points de vue sur la définition de l’intelligence artificielle (IA), les systèmes à haut risque, la gouvernance et la sécurité nationale.

Le document, obtenu par EURACTIV, servira de base à la discussion au sein du groupe de travail sur les télécommunications le 5 juillet, dans le but de fournir un texte de compromis mis à jour d’ici au 20 juillet. Les États membres seront ensuite invités à fournir des commentaires écrits sur le nouveau compromis d’ici au 2 septembre.

« La présidence tchèque a identifié quatre questions majeures non résolues qui nécessitent une discussion plus approfondie et pour lesquelles il serait crucial de recevoir des instructions des États membres afin de faire passer les négociations à l’étape suivante », indique le document.

Ce document est le premier de la présidence tchèque, qui ne commencera officiellement qu’en juillet. Le projet indique la continuité avec la direction prise par la présidence française du Conseil de l’UE (PFUE) et fournit les principaux sujets sur lesquels les Tchèques se concentreront.

Définition

Le document interne note qu’un « grand nombre » de pays de l’UE ont remis en question la définition de ce qui constitue un système basé sur l’IA, estimant que la définition actuelle est trop large et ambiguë, et qu’elle risque donc de couvrir également de simples logiciels.

Par ailleurs, une question apparentée est de savoir dans quelle mesure la Commission devrait pouvoir modifier, par le biais du droit dérivé, l’annexe I du règlement, celle qui définit les techniques et les approches de l’intelligence artificielle.

La présidence tchèque propose différentes solutions pour répondre à ces préoccupations.

L’option la plus modérée consiste à maintenir la proposition de la Commission ou à opter pour la formulation proposée par la PFUE, en ajoutant quelques éléments de clarification par l’inclusion de références telles que l’apprentissage, le raisonnement et la modélisation.

Dans ce scénario, l’exécutif européen conserve ses pouvoirs délégués, et les modifications ne peuvent intervenir que par le biais d’une procédure législative ordinaire.

Les autres possibilités impliquent une définition plus étroite couvrant les systèmes d’IA développés soit uniquement par des techniques d’apprentissage automatique, soit par l’apprentissage automatique et des approches basées sur la connaissance.

Dans ce cas, l’annexe I est supprimée et les techniques d’IA sont intégrées directement dans le texte, soit dans le préambule de la loi, soit dans l’article correspondant. La Commission n’aurait le pouvoir d’adopter des actes d’exécution que pour clarifier les catégories existantes.

Systèmes à haut risque

L’annexe III de la loi sur l’IA comprend une liste d’applications d’IA considérées comme à haut risque pour le bien-être humain et les droits fondamentaux. Toutefois, pour certains États membres, la formulation est trop large et les cas d’utilisation couverts ne devraient être que ceux pour lesquels une analyse d’impact a été réalisée.

Dans ce cas, l’option la plus prudente consiste à maintenir le texte selon le compromis français.

En revanche, les pays de l’UE peuvent plaider pour la suppression ou l’ajout de certains cas d’utilisation ou pour rendre la formulation plus précise.

La présidence tchèque a également proposé d’ajouter un élément supplémentaire, à savoir des critères de haut niveau pour évaluer ce qui constitue, en pratique, un risque important. Les fournisseurs évalueraient alors eux-mêmes si leur système répond à ces critères.

Une autre façon de restreindre la classification serait de distinguer si le système d’IA fournit une prise de décision entièrement automatisée, qui serait automatiquement à haut risque, ou s’il ne fait qu’informer les décisions humaines.

Dans ce dernier cas, le système ne serait considéré comme à haut risque que si les informations générées par l’IA sont significatives dans la prise de décision. Toutefois, la Commission devra préciser ce qu’est une contribution considérable par le biais d’une législation secondaire.

Il est demandé aux pays de l’UE de déterminer si la Commission doit conserver le pouvoir d’ajouter de nouveaux cas à haut risque à l’annexe, si elle doit également être en mesure de supprimer des cas d’utilisation dans certaines conditions ou si ces pouvoirs doivent être supprimés.

Loi européenne sur l'IA : la présidence française de l'UE souhaite l'alignement avec le nouveau cadre législatif

La France propose plusieurs changements à la loi sur l’intelligence artificielle (IA) afin d’obtenir un meilleur alignement de ce cadre législatif. Les changements concernent notamment la désignation des autorités compétentes et la base de données sur l’IA à haut risque.

Gouvernance et mise en œuvre

Plusieurs pays de l’UE se sont inquiétés du fait que le « cadre de gouvernance trop décentralisé au niveau national » du règlement pourrait limiter l’application effective de la législation, notamment parce qu’ils craignent de ne pas avoir les capacités et l’expertise suffisantes pour faire appliquer les règles de l’IA.

Parallèlement, la présidence tchèque note que la législation devrait offrir « un certain niveau de flexibilité pour le droit et les spécificités nationales » et que « la délégation des pouvoirs d’application à un niveau plus central nécessite également des considérations pratiques et budgétaires minutieuses ».

Comme l’a précisé la présidence française, le cadre de gouvernance actuel suit le règlement de l’UE sur la surveillance du marché, avec des autorités nationales aux commandes, un Comité de l’IA pour la coordination et les interventions de la Commission sont limitées aux cas extrêmes.

Une autre manière de procéder consisterait à soutenir davantage les États membres en mettant en place des centres d’essai de l’Union, un groupe d’experts et un mécanisme d’urgence permettant d’accélérer l’aide.

Le Comité de l’IA pourrait également être renforcé pour aider les autorités nationales et disposer d’un mandat plus explicite basé sur le règlement sur les dispositifs médicaux en guidant et en coordonnant les activités de surveillance du marché.

Enfin, la Commission pourrait être habilitée à ouvrir des enquêtes directes dans des circonstances exceptionnelles, mais cela « suppose des implications pratiques et financières considérables. »

Loi sur l'IA : la présidence française de l'UE souhaite modifier le conseil de surveillance et la surveillance du marché

Un énième texte de compromis sur la loi sur l’intelligence artificielle (IA) a été diffusé parmi les diplomates du Conseil de l’UE par la présidence française de l’UE avant une réunion du groupe de travail mardi (10 mai).

Exemption de sécurité nationale

Le document indique qu’une large majorité de pays de l’UE souhaite que les applications d’IA liées à la sécurité nationale et aux utilisations militaires soient explicitement exclues du règlement sur l’IA, mais estime que ce concept n’est pas encore suffisamment défini.

« Le présent règlement ne s’applique pas aux systèmes d’IA développés ou utilisés exclusivement à des fins militaires ou de sécurité nationale », peut-on lire dans le compromis existant, qui pourrait être modifié afin de supprimer le mot « exclusivement », bien que cela puisse être source d’ambiguïté.

Une autre solution consisterait à modifier la formulation pour faire référence uniquement aux systèmes d’IA mis sur le marché ou mis en service à des fins militaires ou de sécurité nationale, excluant ainsi la phase de développement.

Loi sur l'IA : la PFUE cherche à obtenir plus de flexibilité pour les bacs à sable réglementaires

La présidence française de l’UE a fait avancer de nouvelles modifications dans la partie de la loi sur l’intelligence artificielle relative à l’innovation et aux bacs à sable réglementaires dans un texte de compromis final.

Subscribe to our newsletters

Subscribe