La Commission révèle des désaccords entre les acteurs chargés de la rédaction du code de bonnes pratiques de l’IA

La Commission a présenté des diapositives avec les résultats préliminaires de la consultation des parties prenantes lors de la plénière, qui s’est terminée le 18 septembre et a reçu « près de 430 » soumissions d’acteurs de l’industrie, de la société civile et du monde universitaire, selon la Commission. [Shutterstock/Cineberg]

La Commission européenne a révélé des désaccords entre les fournisseurs de modèles d’intelligence artificielle à usage général et d’autres parties prenantes lors de la première séance plénière sur le code de bonnes pratiques pour l’intelligence artificielle à usage général (GPAI) ce lundi 30 septembre.

Les codes de pratique sont une partie cruciale du règlement sur l’intelligence artificielle (AI Act), du moins à court et moyen terme. Ces codes détailleront ce que les exigences de gestion des risques et de transparence du règlement impliqueraient en pratique jusqu’à ce que les standards soient finalisés, normalement d’ici 2026.

Les fournisseurs de GPAI, comme OpenAI ou Microsoft, pourront utiliser les codes pour démontrer qu’ils respectent leurs obligations jusqu’à la création de normes harmonisées. La Commission peut conférer aux codes une validité générale au sein de l’UE par le biais d’un acte d’exécution.

Lundi 30 septembre, la Commission a partagé une liste internationale et académique de présidents et de vice-présidents pour les groupes de travail qui rédigeront le code et « a accueilli près de 1 000 participants » à la première séance plénière virtuelle du processus de rédaction.

Les groupes de travail recevront des informations provenant de trois sources : une consultation multipartite, des ateliers avec les fournisseurs, présidents et vice-présidents du modèle GPAI, et les plénières sur le code de bonnes pratiques.

Le premier atelier avec les fournisseurs du GPAI est prévu pour la mi-octobre, et la première version du code sera prête vers le 3 novembre, selon deux sources.

« Un rapport complet [sur la consultation des parties prenantes] sera publié à l’automne, et la version finale du code de bonnes pratiques sera publiée et présentée lors d’une séance plénière de clôture, qui devrait avoir lieu en avril 2025 », a déclaré le porte-parole dans son courriel.

La Commission a présenté des diapositives avec les résultats préliminaires de la consultation des parties prenantes lors de la plénière, qui s’est terminée le 18 septembre et a reçu « près de 430 » soumissions d’acteurs de l’industrie, de la société civile et du monde universitaire, selon la Commission.

Le casse-tête de l'élaboration des codes de pratique pour l’IA à usage général

La Commission européenne prévoit de permettre aux fournisseurs de modèles d’intelligence artificielle (IA) de type ChatGPT de rédiger des codes de pratique qui détermineront leur conformité à court et moyen terme, avec la société civile en tant que consultante.

Contributions des fournisseurs et des non fournisseurs

Les diapositives montrent des statistiques et présentent des mesures que de nombreuses parties prenantes souhaitent inclure dans le code. Les fournisseurs de GPAI n’ont apporté que 5 % des contributions, mais les mesures qu’ils ont soutenues ont été mises en évidence par une étoile.

Le règlement sur l’IA exige que les fournisseurs rassemblent les données qu’ils utilisent pour former un système GPAI. Ils doivent ensuite faire un rapport selon un modèle qui sera conçu par le bureau en charge de l’IA de la Commission.

Environ 70 à 80 % des parties prenantes qui ne sont pas des fournisseurs souhaitent inclure dans ce modèle le contenu sous licence, les données extraites d’internet et les référentiels de données ouvertes.

De leur côté, les fournisseurs de GPAI sont favorables à la divulgation des données sous licence, des données récupérées, des données propriétaires, des données générées par les utilisateurs et des données synthétiques utilisées pour la formation, mais pas à la divulgation des données ouvertes qu’ils utilisent.

En ce qui concerne l’évaluation des risques, les fournisseurs de GPAI étaient moins favorables que les autres à des mesures strictes, comme par exemple des audits par des tiers ou des présentations de sécurité liées à des seuils de risque spécifique.

En revanche, la plupart des parties prenantes, y compris les fournisseurs de GPAI, s’accordent à dire que les documents doivent préciser la licence, les systèmes d’IA dont le modèle peut faire partie et les tâches qu’il est censé accomplir.

Le monde universitaire et les « experts à titre personnel »

Selon les statistiques présentées en séance plénière, la Commission a reçu des contributions écrites de divers groupes, avec 32 % de réponses de l’industrie, 25 % des détenteurs de droits, 16 % de la société civile et 13 % du monde universitaire.

Avant ces données, les organisations de la société civile craignaient que les grandes entreprises technologiques n’aient trop d’influence sur le processus.

Diapositive présentée par la Commission

Par ailleurs, sur les « presque 1000 » parties prenantes présentes à la première plénière, les deux groupes les plus importants étaient les « experts à titre personnel » (34 %) et les universitaires (30 %).

Diapositive présentée par la Commission

Avec autant de participants, une personne impliquée dans la rédaction a déclaré à Euractiv que « la Commission et les présidents devront contrôler étroitement la rédaction et les commentaires qui peuvent être intégrés ; sinon, le processus ne fonctionnera pas ».

Supervision de l’IA : débat autour du recrutement du conseiller scientifique en chef par la Commission

La Commission européenne cherche à recruter un conseiller scientifique en chef chargé des dossiers d’IA, mais limite ses recherches aux personnes travaillant déjà pour les institutions et agences de l’UE, ce qui pose question selon certains.

[Édité par Anna Martino]

Inscrivez-vous à notre newsletter

S'inscrire