La Commission européenne a révélé des désaccords entre les fournisseurs de modèles à usage général et d’autres parties prenantes lors de la première séance plénière sur le code de pratique pour l’intelligence artificielle à usage général (GPAI) ce lundi 30 septembre.
Les acteurs de l’industrie de contenu pour adultes cherchent à influencer les réglementations relatives à l’intelligence artificielle (IA) afin de protéger les droits des créateurs de contenu. Entre pornographie générée par l’IA, deepfakes et défis liés à la vérification de l’âge, les dossiers brûlants ne manquent pas.
La Commission irlandaise de protection des données a lancé une enquête sur le traitement par Google des données des citoyens de l’UE pour son modèle d’IA PaLM2, remettant en question la conformité du géant numérique aux lois sur la protection de la vie privée.
La Commission européenne cherche à recruter un conseiller scientifique en chef chargé des dossiers d’IA, mais limite ses recherches aux personnes travaillant déjà pour les institutions et agences de l’UE, ce qui pose question selon certains.
Un projet de loi californien sur les modèles d’IA les plus puissants pourrait inspirer et renforcer la règlementation de l’UE en la matière. Toutefois, alors que le texte entre dans la phase finale du processus législatif, il se heurte à l’opposition du secteur et des démocrates au Congrès américain.
Quelques heures avant l'échange du 12 août entre Donald Trump et Elon Musk sur X, le commissaire européen au numérique Thierry Breton avait enjoint le propriétaire du réseau social de respecter les règlementations de l'UE.
Neuf plaintes relatives à la protection des données ont été déposées contre X en Europe le 12 août, quelques jours après l’annonce par le réseau social de la suspension du traitement des données personnelles des utilisateurs de l’UE pour développer son modèle d’IA Grok.
La Commission ne prévoit pas de révision du règlement général sur la protection des données (RGPD), préférant se concentrer sur sa mise en œuvre, alors que la question de la protection de la vie privée à l’ère de l’IA fait de plus en plus débat.
X a suspendu le traitement de certaines données personnelles issues de messages publics des utilisateurs de l’UE pour entraîner des modèles d’intelligence artificielle (IA), deux jours après le début de la procédure judiciaire de la Commission irlandaise de protection des données.
Un groupe de 11 associations de l’industrie du numérique demande à la Commission européenne de repousser la date limite fixée au mois de septembre pour soumettre des avis sur un code de pratique sur l’intelligence artificielle à usage général (GPAI).
La Commission irlandaise de protection des données (DPC) a entamé une procédure judiciaire contre le réseau social X le 6 août, selon le site web de la Haute Cour de justice d’Irlande.
OpenAI, le concepteur de ChatGPT, a mis au point un outil de filigrane (watermarking en anglais) qui pourrait l’aider à se conformer au règlement sur l’intelligence artificielle (AI Act), mais l’entreprise ne l’a pas encore publié par crainte, semble-t-il, de perdre des utilisateurs.
Des associations de consommateurs ont déposé une plainte auprès de la Commission irlandaise de protection des données (DPC) lundi 5 août. Elles accusent l’outil d’intelligence artificielle (IA) de X d’enfreindre le règlement général sur la protection des données (RGPD).
La Commission européenne cherche à faciliter la création de centres de données pour l’intelligence artificielle (IA), indispensables à la compétitivité de l’UE au niveau mondial dans ce domaine.
Bruxelles a donné jeudi 1er août son feu vert au rachat du spécialiste américain des équipements de télécommunications Juniper Networks par son compatriote Hewlett Packard Enterprise (HPE) pour 14 milliards de dollars.
Le règlement de l’UE pour encadrer l’intelligence artificielle (AI Act), une législation inédite au niveau mondial, est officiellement entré en vigueur le 1er août, avec l’objectif de favoriser l’innovation en Europe tout en limitant les possibles dérives.
Environ 92 % des emplois spécialisés dans les technologies de l’information et de la communication (TIC), dont quelque 10 millions rien que dans l’UE, pourraient être menacés par le développement de l’IA. Tels sont les résultats d'une étude menée par de grands acteurs de la technologie.
La Commission européenne a lancé le 30 juillet un appel à manifestation d’intérêt pour participer à la rédaction d’un code de bonnes pratiques pour l’intelligence artificielle à usage général, un élément clé de la conformité au règlement sur l’IA (AI Act) pour les développeurs.
Si les orientations politiques de la présidente réélue de la Commission, Ursula von der Leyen, répondent aux appels à des investissements massifs dans la recherche sur l’IA, ses partisans comme ses opposants estiment que le plan manque de détails essentiels.
Deux commissions du Parlement européen ont mis en place un groupe de travail pour surveiller la mise en œuvre du règlement sur l’intelligence artificielle (AI Act), ont indiqué à Euractiv deux sources au fait du sujet.
Mardi 23 juillet, Meta a présenté Llama 3.1, le modèle d’intelligence artificielle (IA) en open source le plus performant à ce jour, et peut-être la dernière solution de ce genre disponible par l'entreprise pour les utilisateurs de l’UE.
Dans les commissions parlementaires chargées des questions numériques, se retrouvent de nombreux visages familiers, bien que plusieurs figures emblématiques ont quitté soit le Parlement européen, soit leurs précédentes commissions. Euractiv fait le point.
Le Parlement a toujours eu un rôle limité dans la mise en œuvre des règlementations européennes, une situation que certains législateurs souhaitent changer sous cette législature, notamment en ce qui concerne la politique numérique.
Du 22 juillet au 12 août, la vidéosurveillance assistée par intelligence artificielle est autorisée à titre expérimental à Paris, et continue de susciter des craintes chez les organisations de défense des libertés individuelles.