Les ambassadeurs des 27 États membres de l’Union européenne ont approuvé à l’unanimité un cadre règlementaire exhaustif sur l’intelligence artificielle, le premier de ce genre au monde, entérinant ainsi l’accord politique conclu en décembre par les co-législateurs au terme des négociations interinstitutionnelles.
En décembre, les responsables politiques de l’UE sont parvenus à un accord politique sur les principaux points de désaccord de la législation sur l’IA (AI Act), un projet de loi clé visant à règlementer l’intelligence artificielle en fonction de sa capacité à causer des dommages. En raison de la complexité de la loi, sa mise au point technique a pris plus d’un mois.
Le 24 janvier, la présidence belge du Conseil de l’UE a présenté la version finale du texte, divulguée en exclusivité par Euractiv, lors d’une réunion technique. La plupart des États membres ont alors émis quelques réserves, n’ayant pas eu le temps d’analyser le texte en profondeur.
Ces réserves ont finalement été levées vendredi (2 février) avec l’adoption du AI Act par le Comité des représentants permanents (Coreper). Le feu vert des ambassadeurs de l’UE n’était pas garanti, car certains acteurs européens clés se sont opposés à certaines parties de l’accord provisoire, et ce jusqu’au dernier moment.
Des modèles d’IA puissants
La principale force d’opposition à l’accord politique était la France, qui, avec l’Allemagne et l’Italie, demandait un cadre règlementaire plus souple pour les modèles d’IA puissants, tels que le GPT-4 d’Open AI, qui soutiennent les systèmes d’IA à usage général tels que ChatGPT et Bard.
Les trois plus grandes économies européennes ont demandé que les règles dans ce domaine se limitent à des codes de conduite, car elles ne voulaient pas couper les ailes à des start-ups européennes prometteuses comme Mistral AI et Aleph Alpha, susceptibles de concurrencer les entreprises américaines dans le domaine de l’IA.
Toutefois, le Parlement européen était unanime pour demander des règles strictes pour ces modèles, estimant qu’il était inacceptable d’exclure de la règlementation les types d’intelligence artificielle les plus puissants tout en laissant toute la charge règlementaire sur des acteurs plus modestes.
Le compromis s’est basé sur une approche par niveaux, avec des règles de transparence horizontales pour tous les modèles et des obligations supplémentaires pour les modèles imposants considérés comme présentant un risque systémique.
De l’opposition au consensus
Paris, Berlin et Rome ont à l’époque accueilli sans enthousiasme l’accord provisoire de la présidence espagnole. Selon nos informations, les pays de l’UE ont tenté d’influencer le texte de manière informelle alors que le travail technique progressait concernant le préambule du texte.
Cependant, la marge de manœuvre pour obtenir des concessions était limitée, étant donné que les parties opérationnelles du texte avaient déjà été fixées. Lorsque la Belgique a pris la présidence du Conseil en janvier, elle a également résisté aux demandes de modifications importantes qui risquaient de mettre en péril l’accord avec le Parlement européen.
La présidence belge a placé les États membres devant un scénario « à prendre ou à laisser » et, malgré les tentatives de Paris de retarder le vote des ambassadeurs, a progressé au pas de course pour pouvoir peaufiner le texte sur le plan juridique mais aussi afin de limiter le lobbying de dernière minute.
Les manœuvres officieuses de la France visaient à rassembler une opposition suffisante pour obtenir des concessions dans le texte, voire pour rejeter l’accord provisoire.
Cependant, la balance a penché de manière décisive en défaveur de Paris, Berlin ayant décidé de soutenir le texte en début de semaine. Le ministre allemand du Numérique, le libéral Volker Wissing (FDP, Renew), s’est retrouvé seul à s’opposer aux règles sans ses partenaires de coalition et a finalement dû renoncer à ses réserves.
L’Italie, qui a toujours été le pays le plus démuni du trio de sceptiques puisqu’elle n’a pas de start-up de pointe dans le domaine de l’IA, a également décidé de ne pas s’opposer au AI Act. Malgré le mécontentement suscité par l’accord, Rome a choisi d’éviter d’en faire un drame, car elle assure la présidence tournante du G7, où l’IA est un sujet crucial.
Même au sein du gouvernement français, le scepticisme du ministère de l’Économie a été contesté par le ministère de la Culture, soucieux de protéger les titulaires de droits, et par le ministère de l’Intérieur, satisfait des nombreuses exceptions prévues en matière d’application de la loi.
Finalement, la France a accepté de soutenir le texte « à des conditions strictes ».
Veiller à la mise en œuvre
Paris souhaite que la mise en œuvre du AI Act n’entrave pas le développement de modèles d’IA compétitifs, qu’elle équilibre la transparence et la protection des secrets commerciaux, qu’elle évite de surcharger les entreprises avec des obligations à haut risque et qu’elle réévalue le seuil et les critères utilisés pour désigner les modèles d’IA présentant des risques systémiques.
La Slovaquie a publié une déclaration demandant des clarifications concernant des termes critiques, un alignement international et la possibilité pour les pays de l’UE de règlementer l’IA utilisée dans le cadre d’activités non professionnelles.
L’Autriche a également présenté une déclaration protocolaire soulevant des préoccupations relatives à la protection des données et au droit des consommateurs. Cette déclaration porte sur les exceptions relatives à l’application de la loi et sur les règles concernant les technologies invasives telles que l’identification biométrique à distance.
Les pays de l’UE ont encore la possibilité d’influencer la manière dont le AI Act sera mise en œuvre, car la Commission devra publier une vingtaine de textes de droit dérivé. Le Bureau de l’IA, qui supervisera les modèles d’IA, devrait également être doté d’un nombre important d’experts nationaux délégués.
Prochaines étapes
Les commissions du Marché intérieur (IMCO) et des Libertés civiles (LIBE) du Parlement européen adopteront le AI Act le 13 février. Un vote en séance plénière provisoirement prévu pour les 10 et 11 avril suivra. L’adoption formelle du texte de loi sera ensuite achevée par une approbation au niveau ministériel.
Le AI Act entrera en vigueur 20 jours après sa publication au Journal officiel de l’UE. Les interdictions relatives aux pratiques prohibées commenceront à s’appliquer après six mois, tandis que les obligations relatives aux modèles d’IA entreront en vigueur après un an.
Toutes les autres règles entreront en vigueur au bout de deux ans, à l’exception de la classification des systèmes d’IA comme étant à haut risque, classification qui doit faire l’objet d’une évaluation de la conformité par un tiers en vertu d’autres règles de l’UE. L’entrée en vigueur de ces règles a été repoussée d’une année supplémentaire.
[Édité par Anne-Sophie Gayet]






