Intelligence artificielle : la Commission veut interdire la « surveillance indiscriminée » d’après des documents internes

Les amendes pour les violations de ces interdictions pourraient s’élever jusqu’à 4 % du chiffre d’affaires annuel mondial d’une entreprise. [Shutterstock]

La Commission européenne cherchera à mettre hors la loi les systèmes d’intelligence artificielle utilisés pour des opérations de « surveillance indiscriminée » dans le cadre de nouvelles interdictions qui seront présentées la semaine prochaine.

Dans le cadre du projet de règlement sur une « approche européenne de l’intelligence artificielle », vu par EURACTIV, l’exécutif européen propose d’interdire les technologies d’IA qui sont utilisées pour « une surveillance indiscriminée appliquée de manière généralisée à toutes les personnes physiques sans différenciation. »

Le texte détaille ces méthodes de surveillance comme celles comprenant « la surveillance et le suivi des personnes physiques dans des environnements numériques ou physiques, ainsi que l’agrégation et l’analyse automatisées des données personnelles provenant de diverses sources ».

En outre, la Commission prévoit des interdictions contre l’utilisation d’applications d’intelligence artificielle qui enfreignent les valeurs de l’Union ou violent les droits de l’homme. Il s’agit notamment des systèmes d’IA qui manipulent le comportement humain et des systèmes d’IA prédictifs qui ciblent les vulnérabilités.

Les eurodéputés appellent à mieux réguler l'intelligence artificielle face aux discriminations

« Nous nous sommes battus durant des décennies pour affirmer nos valeurs d’inclusion, de non-discrimination, de multilinguisme et de diversité culturelle. Ces valeurs doivent aussi être reflétées en ligne », selon la rapporteure Sabine Verheyen.

Les amendes pour les violations de ces interdictions pourraient s’élever jusqu’à 4 % du chiffre d’affaires annuel mondial d’une entreprise.

Toutefois, le projet, dont Politico a fait état pour la première fois mardi 13 avril, stipule que ces interdictions ne s’appliqueront pas aux gouvernements et aux autorités publiques de l’UE lorsqu’elles sont mises en œuvre « afin de préserver la sécurité publique ».

Cela signifie que les gouvernements de l’UE pourraient à l’avenir justifier l’utilisation d’applications d’IA intrusives pour des raisons de sécurité.

Le projet interdit également la pratique de la « notation sociale » dans les applications d’IA, une technologie rendue tristement célèbre par le système centralisé de notation du crédit social en Chine.

Par ailleurs, les applications d’IA à haut risque qui pourraient être soumises à de nouvelles exigences d’évaluation de la conformité par des tiers comprennent celles « utilisées pour l’identification biométrique à distance des personnes dans les espaces accessibles au public », ce qui, par définition, couvrirait également la technologie de reconnaissance faciale – un domaine pour lequel la Commission avait déjà envisagé une interdiction temporaire.

Certaines applications à haut risque comprennent également celles qui sont employées comme composants de sécurité dans les « réseaux d’infrastructures publiques » essentiels, y compris les routes, l’approvisionnement en eau, en gaz et en électricité.

Il existe des exigences de conformité d’auto-évaluation pour certaines technologies utilisées dans les services de première intervention d’urgence, les processus de recrutement et les systèmes « utilisés pour déterminer l’accès ou affecter des personnes à des établissements d’enseignement et de formation professionnelle ».

Par ailleurs, la Commission décrit également la création d’un « Conseil européen de l’intelligence artificielle », composé d’un représentant de chacun des 27 pays de l’UE et d’un représentant de la Commission, ainsi que du Contrôleur européen de la protection des données.

Le conseil sera chargé « d’émettre des recommandations et des avis pertinents à la Commission, en ce qui concerne la liste des pratiques d’intelligence artificielle interdites et la liste des systèmes d’IA à haut risque. »

La proposition, qui devrait être présentée par la vice-présidente exécutive de la Commission pour le numérique, Margrethe Vestager, le 21 avril, fait suite au livre blanc de la Commission sur l’intelligence artificielle de l’année dernière, qui a jeté les bases de nouvelles règles contre les technologies d’IA jugées à « haut risque ».

Plus récemment, une lettre obtenue par EURACTIV a détaillé comment la présidente de la Commission européenne, Ursula von der Leyen, avait assuré aux eurodéputés que la Commission allait « aller plus loin » dans l’introduction de règles plus robustes pour les technologies d’intelligence artificielle qui présentent un risque pour les droits fondamentaux.

Von der Leyen s'engage à "aller plus loin" contre l'IA qui porte atteinte aux droits fondamentaux

« Je tiens à vous assurer que la Commission prend très au sérieux vos préoccupations concernant la protection des droits fondamentaux », a écrit Mme von der Leyen dans lettre adressée aux eurodéputés dont EURACTIV a obtenu copie.

Cette déclaration fait suite à une lettre multipartite de 116 députés européens demandant à la Commission de s’attaquer aux risques pour les droits fondamentaux posés par les applications d’IA à haut risque. Lors de la publication du nouveau règlement de la Commission sur l’IA la semaine prochaine, les législateurs européens auront une nouvelle fois l’occasion de faire connaître leur point de vue sur la position de l’UE à l’égard des technologies d’IA.

Subscribe to our newsletters

Subscribe