AI Act : la présidence espagnole du Conseil tente une dernière négociation sur les modèles de fondation

Les trois institutions principales de l’UE ont pour objectif de parvenir à un accord final lors du prochain trilogue politique, qui se tiendra le 6 décembre. En prévision de cette réunion décisive, l’Espagne, qui préside pour l’instant le Conseil de l’UE et négocie au nom des États membres, a besoin d’un mandat révisé. [EU Council]

La présidence espagnole du Conseil de l’UE dévoile un mandat de négociation révisé avec le Parlement européen pour régler la question épineuse de la réglementation des modèles de fondation du règlement sur l’intelligence artificielle (AI Act).

Avec l’AI Act, l’UE cherche à réglementer l’intelligence artificielle en fonction de ses risques potentiels. Le dossier est entré en phase de « trilogues », c’est-à-dire les négociations entre les représentants des gouvernements nationaux réunis au sein du Conseil de l’UE, ceux du Parlement européen et de la Commission européenne.

Le prochain trilogue est prévu le 6 décembre et en prévision, l’Espagne, qui préside le Conseil de l’UE jusqu’au 31 décembre 2024, a révisé son mandat de négociation, qui sera discuté mercredi (29 novembre) au sein du Comité des représentants permanents (Coreper), l’organe chargé de préparer les travaux du Conseil de l’UE.

Euractiv avait déjà dévoilé la première partie de ce mandat, tandis que la deuxième partie a été rendue publique lundi (27 novembre), mais sans la partie concernant les modèles de fondation, dévoilée mardi (28 novembre) en soirée. Celle-ci sera abordée au niveau des ambassadeurs vendredi (1er décembre).

 

Adapter la loi sur l'IA aux petites entreprises innovantes, un casse-tête pour l'UE

L’UE a l’avantage d’être la première au monde à proposer un ensemble de règles sur l’intelligence artificielle (IA). Toutefois, en l’absence de mesures appropriées, ce marché émergent pourrait être laissé aux mains de grands acteurs.

Friction sur les modèles d’IA les plus performants

Les règles relatives aux modèles de fondation, les modèles les plus puissants d’intelligence artificielle, comme GPT-4, développé par la société américaine OpenAI, et utilisé par l’agent conversationnel ChatGPT, sont devenues un point de friction au cours des négociations.

Lors du dernier trilogue, un consensus semblait se dégager sur une approche par niveaux concernant les modèles de fondation, avec des obligations plus strictes pour les modèles les plus puissants.

Cependant, les négociations ont été freinées il y a trois semaines par l’opposition croissante de la France, de l’Allemagne et de l’Italie. Les trois pays se sont opposés à l’adoption de toute règle contraignante de régulation de ces modèles, préférant la mise en place de codes de conduite.

La semaine dernière, la Commission européenne, qui joue un rôle de médiateur dans les négociations finales, a tenté de trouver une solution intermédiaire en proposant des règles horizontales s’appliquant à tous les modèles d’IA à usage général et des codes de conduite pour les modèles les plus performants.

À quelques modifications mineures près, la présidence espagnole a transmis le texte de la Commission européenne aux délégués des États membres.

Le Parlement s’est en revanche prononcé en faveur de règles plus strictes pour les modèles de fondation dans un document de travail révélé par Euractiv.

Dimanche (19 novembre), la Commission européenne a communiqué sa position en introduisant certains éléments du document de travail du Parlement.

Maintien de la procédure de désignation des risques systémiques

La procédure via laquelle les modèles de l’IA à usage général sont désignés comme présentant des risques systémiques a été largement maintenue.

Deux seuils quantitatifs entraînant une désignation automatique ont été fixés : quand la quantité de calcul utilisée pour l’entraînement du modèle est supérieure à 10 puissance 26 (soit 100 yottaFLOPS) ou quand le nombre d’utilisateurs professionnels dans l’UE est supérieur à 10  000.

Les obligations horizontales pour tous les modèles d’IA à usage général ont également été conservées, y compris la garantie que le contenu généré par IA puisse être détecté comme étant généré ou manipulé artificiellement.

Une exigence a été ajoutée, imposant l’évaluation des modèles selon des protocoles uniformisés.

Pour ces modèles d’IA à usage général présentant des risques systémiques, le texte de la Commission européenne prévoit également des mesures internes et un dialogue réglementaire pour identifier et limiter les risques systémiques potentiels, notamment en imposant une exigence supplémentaire d’assurer un niveau de cybersécurité adéquat.

Les fournisseurs de modèles de fondation pourront démontrer qu’ils respectent les obligations horizontales pour les modèles d’IA à usage général ainsi que les obligations spécifiques pour ceux présentant des risques systémiques en adhérant à des codes de conduite.

En ce qui concerne les droits d’auteur, la formulation exige toujours que les fournisseurs de modèles de fondation mettent en place des « mesures adéquates » pour se conformer aux exigences légales et publient un résumé suffisamment détaillé des données utilisées pour l’entraînement de leurs modèles et l’application des règles en vigueur.

En outre, la présidence du Conseil propose d’obliger les fournisseurs de systèmes d’IA à usage général tels que ChatGPT à fournir toutes les informations pertinentes aux opérateurs économiques en aval afin que ceux-ci se conforment aux obligations de l’AI Act.

Si les fournisseurs de systèmes d’IA à usage général autorisent leur utilisation dans un scénario à haut risque, ils doivent l’indiquer et se conformer aux exigences correspondantes.

Les délégués nationaux sont invités à se prononcer sur le texte du Conseil dans le cas où une certaine souplesse serait accordée à l’inclusion de références à l’efficacité énergétique dans les codes de conduite pour les modèles présentant des risques systémiques. Il leur est également demandé s’ils sont prêts à accepter une exemption pour les modèles dont les codes sont en « open source ».

Les coulisses de l'opposition de la France à la réglementation des modèles d'IA

Ces dernières semaines, la France a bloqué la première réglementation de l’intelligence artificielle au monde, adoptant une position intransigeante et rejettant la mise en place de règles contraignantes sur les modèles d’IA les plus puissants.

Gouvernance

En ce qui concerne la gouvernance, la présidence espagnole envisage des dispositions quasi inchangées dans son mandat de négociation par rapport à la proposition de la Commission de la semaine dernière.

Cette nouvelle approche est nécessaire en raison du nouveau régime applicable aux modèles d’IA puissants et est centrée autour d’un Bureau de l’IA (AI Office). Cette nouvelle structure serait « hébergée » au sein de la Commission et aurait un « lien étroit » avec la communauté scientifique.

Le Comité européen de l’intelligence artificielle (European Artificial Intelligence Board), qui regroupe les autorités nationales, resterait une plateforme de coordination et un organe consultatif de la Commission.

Le Conseil souhaite conserver une certaine souplesse en ce qui concerne la désignation des autorités compétentes au niveau national, qui pourraient être multiples.

Accès au code source

La présidence du Conseil de l’UE a également demandé un mandat de négociation révisé pour les parties les moins controversées du projet de loi.

Dans la proposition initiale, les autorités de surveillance du marché et les organismes d’évaluation de conformité étaient autorisés à demander l’accès au code source lors de l’évaluation de la conformité des systèmes d’IA à haut risque aux exigences du AI Act.

Bien que le Parlement européen ait supprimé cette possibilité, la présidence espagnole estime « qu’il est important de maintenir cette possibilité, au moins pour que les autorités de surveillance du marché puissent avoir accès au code source dans des conditions limitées ».

AI Act : la Commission européenne tente de relancer l’approche par niveaux pour l’IA à usage général

La Commission européenne a diffusé un projet de compromis sur la règlementation sur l’intelligence artificielle (AI Act) pour sortir de l’impasse sur les modèles de fondation. L’exécutif de l’UE propose d’appliquer la même approche par niveaux que celle des IA à usage général.

Sanctions

En ce qui concerne le régime de sanctions, la présidence propose aux eurodéputés de couper la poire en deux. Les amendes seraient fixées en fonction d’un pourcentage du chiffre d’affaires annuel global de l’entreprise sanctionnée ou en fonction d’un montant prédéterminé, le plus élevé des deux étant celui qui serait retenu.

La présidence du Conseil a suggéré 6,5 % du chiffre d’affaires en cas d’utilisation interdite de l’IA, 3 % en cas de manquement aux obligations prévues par le AI Act, et 1,5 % dans le cas où des informations incorrectes seraient fournies.

Compétences en matière d’IA

Selon le mandat du Conseil, les fournisseurs d’IA ainsi que les personnes actives dans son déploiement devront également prendre des mesures pour garantir un niveau de compétence suffisant en matière d’IA parmi les membres de leur personnel.

En revanche, la référence aux mesures prises en ce sens au niveau national et européen a été supprimée.

En ce qui concerne la date d’entrée en vigueur de l’AI Act, la présidence espagnole a proposé que la législation s’applique deux ans après son entrée en vigueur, à l’exception de la partie relative aux organismes d’évaluation de conformité, à la gouvernance et aux sanctions, qui entrerait en vigueur 12 mois plus tôt.

AI Act : Paris, Berlin et Rome veulent « auto-réguler » les modèles de fondation

Les trois plus grands pays de l’UE font pression pour que les règles qui concernent les modèles de fondation au sein du règlement européen relatif à l’intelligence artificielle se limitent à des codes de conduite, sans sanctions, plutôt que d’imposer des obligations normatives, selon un document non officiel vu par Euractiv.

[Édité par Anne-Sophie Gayet et Paul Messad/Théophane Hartmann]

Inscrivez-vous à notre newsletter

S'inscrire