Un nouveau texte de compromis sur l’intelligence artificielle (IA) et le respect de la loi marque des progrès plus rapides sur la loi sur l’IA au sein du Conseil de l’UE, la présidence française visant une orientation générale au moins partielle pour juin.
Au cours de la semaine écoulée, la présidence française du Conseil de l’UE a fait circuler plusieurs compromis sur la loi sur l’intelligence artificielle, une proposition phare visant à réglementer les systèmes d’IA selon une approche fondée sur les risques.
Le règlement sur l’IA est une priorité absolue pour Paris, qui tente de faire avancer les choses autant que possible avant la fin de sa présidence. Cependant, la présidence française a envoyé des signaux contradictoires sur ce qu’elle souhaitait obtenir lors du Conseil « Télécommunications » du 3 juin 2021.
Selon une source diplomatique européenne, l’idée est de parvenir à une orientation générale sur l’ensemble du texte. En revanche, pour un second diplomate, cette orientation générale ne sera pas atteinte avant la fin de l’année, et le gouvernement français vise un compromis partiel sur les dispositions concernant l’innovation, les normes et les spécifications communes (art. 40-55).
Cependant, ce qui est clair, c’est que l’aspect répressif de la législation a été un point de friction tout au long de la discussion, l’Allemagne et la Finlande demandant même de séparer ces dispositions dans un dossier différent. Un compromis consulté par EURACTIV mardi (5 avril) décrit comment les diplomates français tentent d’aborder cet aspect.
Systèmes biométriques
Concernant l’utilisation sensible des systèmes d’identification biométriques, la définition a été modifiée pour exclure explicitement les vérifications et contrôles d’identité, par exemple pour accéder à la sécurité d’un aéroport ou déverrouiller un smartphone.
Le texte précise que le terme « en temps réel » est compris dans le sens de « système d’identification biométrique dans lequel la saisie des données biométriques, la comparaison et l’identification se font instantanément ou quasi instantanément ».
La définition de l’« espace accessible au public », où s’applique l’interdiction de déployer des technologies de reconnaissance faciale, a également été modifiée dans un souci de clarté, des explications et des exemples ayant été ajoutés au préambule du texte.
Le document élargit considérablement l’exception dans le cadre de laquelle la reconnaissance biométrique peut être utilisée, en supprimant l’exemple spécifique des enfants disparus et la référence au caractère « imminent » de la menace. La garantie de la sécurité des infrastructures physiques a été ajoutée dans l’exception.
En outre, l’utilisation de systèmes d’identification biométrique pour la localisation d’un suspect a été étendue du texte original qui exigeait que l’infraction pénale tombe sous le coup d’un mandat d’arrêt européen à toute infraction pénale pouvant entraîner une période de détention d’au moins cinq ans.
En vertu d’un nouvel article, les restrictions aux technologies de reconnaissance faciale ne s’appliqueraient pas lorsqu’une personne ne veut ou ne peut pas s’identifier dans une situation qui autorise les forces de police à effectuer des contrôles d’identité.
Évaluation de la conformité
Des modifications importantes ont été apportées à la dérogation à la procédure d’évaluation de la conformité, qui permet à une autorité de surveillance du marché de tout État membre d’autoriser la mise sur le marché d’un système d’IA à haut risque après réception d’une demande pleinement justifiée.
Dans la proposition initiale, la Commission ou un autre État membre pouvait contester l’autorisation dans un délai de deux semaines, l’exécutif européen jouant le rôle de médiateur en cas d’interprétations différentes. Cette possibilité a été supprimée dans le texte de la France.
En outre, un nouvel article a été ajouté : « pour créer une possibilité de demander une autorisation ex-post pour les autorités des forces de l’ordre, afin de fournir plus de flexibilité à ces autorités en cas d’urgences spécifiques. » Dans ces cas, l’autorisation doit être demandée « sans retard excessif ».
« C’est beaucoup trop large et potentiellement dommageable. Le but de cet article était d’avoir quelques petites exceptions avec au moins une certaine surveillance. Cela revient à dire que la police doit agir de toute façon et demander plus tard », a déclaré Sarah Chander, conseillère politique principale au sein de l’organisme European Digital Rights.
Obligations de transparence
Les utilisateurs de systèmes d’IA dotés d’une technologie de reconnaissance des émotions seraient généralement tenus d’informer les personnes visées. Toutefois, une exception à cette obligation de transparence a été prévue pour les enquêtes criminelles.
En outre, le texte précise que l’utilisation de la reconnaissance des émotions devra être claire et distincte lors de sa première utilisation et que les gouvernements nationaux peuvent aller plus loin en introduisant des obligations de transparence supplémentaires.
Base de données européenne pour les systèmes d’IA à haut risque
La loi sur l’IA prévoit une base de données européenne contenant des informations sur les systèmes à haut risque déployés. Selon le nouveau texte, ces informations ne seraient pas accessibles au public pour les systèmes à haut risque dans le domaine des expérimentations, car elles ne seraient disponibles que pour l’autorité de surveillance du marché et la Commission européenne.
Toutefois, le texte ne précise pas quelles informations seront rendues publiques et lesquelles ne le seront pas. L’annexe du document précise que les systèmes à haut risque dans les domaines des forces de l’ordre et de la migration seraient exclus de la base de données.
Contrôle et surveillance du marché
Un nouvel article a été ajouté pour préciser que la surveillance après commercialisation d’un système d’IA à haut risque n’affecte pas la confidentialité des autorités des forces de l’ordre dans la conduite de leurs enquêtes.
Enfin, le gouvernement français a reformulé l’article relatif à l’autorité de surveillance du marché chargée de superviser l’application des systèmes d’IA par les services de police « pour indiquer que les autorités de protection des données ne doivent pas nécessairement être le premier choix à cet égard. »
Les prochaines étapes
Le texte de compromis proposé par la France sera examiné lors d’une réunion avec les représentants du gouvernement pour la justice et les affaires intérieures jeudi (7 avril).