L’association viennoise à but non lucratif fondée par l’activiste Max Schrems Noyb a déposé une plainte contre OpenAI auprès de l’autorité autrichienne de protection de la vie privée. Elle affirme notamment que l’entreprise a violé le règlement général sur la protection des données (RGPD) de l’UE et n’en a pas fait assez pour corriger les informations inexactes fournies par ChatGPT sur les personnes.
Max Schrems, fondateur de Noyb (abréviation de « None of your business », signifiant « Ce ne sont pas vos affaires »), militant et avocat, est à l’origine de certaines des plaintes les plus importantes en matière de protection de la vie privée dans l’Union européenne.
Dans la plainte déposée contre OpenAI auprès de l’autorité autrichienne de protection des données (DSB) lundi (29 avril), Noyb réclame une enquête, une amende, des mesures correctives ainsi qu’une décision déclaratoire.
Obligation d’exactitude
La plainte contre OpenAI porte notamment sur les « hallucinations » du modèle de langage ChatGPT, c’est-à-dire les réponses erronées fournies par celui-ci.
En effet, au lieu reconnaître qu’il ne connait pas la réponse, ce type d’outil d’IA « invente régulièrement des réponses », met en garde Noyb dans un communiqué.
D’autant plus que OpenAI est consciente du problème, mais ne semble pas s’en inquiéter, poursuit l’association.
Les grands modèles de langage, tels que ChatGPT, fonctionnent en anticipant les mots les plus susceptibles d’être utilisés en réponse à certaines questions. Parfois, le modèle peut faire de mauvaises suggestions pour compléter une phrase, ce qui donne lieu à une réponse incorrecte.
C’est « inacceptable » pour les informations concernant les individus, estime Noyb.
En effet, depuis 1995, la législation européenne exige que les données personnelles soient exactes, et ce principe est inscrit dans le RGPD, a insisté l’organisation à but non lucratif.
Noyb a cité l’exemple d’une personnalité publique dont la date de naissance n’est pas disponible en ligne. Lorsque l’agent conversationnel ChatGPT a été interrogé sur cette date, il a inventé une réponse qui s’est avérée être fausse.
Accès et effacement des données
OpenAI a donné une réponse insatisfaisante à une demande d’accès aux données et d’effacement de celles-ci datant de décembre 2023, toujours en lien avec l’exemple de la date d’anniversaire erronée.
En vertu du RGPD, les responsables du traitement des données sont tenus de donner aux personnes le souhaitant l’accès aux informations concernant le traitement de leurs données personnelles (informations disponibles, sources de celles-ci, personnes y ayant accès) et de les effacer à leur demande, hormis dans certains cas très spécifiques.
Dans l’exemple pris par Noyb, la société n’a fourni que les données du compte de l’utilisateur à l’origine de la demande, mais aucune information sur le traitement des données le concernant, selon l’association basée à Vienne.
En outre, il est indiqué dans la plainte qu’OpenAI a déclaré qu’elle pouvait seulement empêcher le modèle de donner une réponse à la question concernant la date de naissance, mais qu’elle ne pouvait pas corriger la réponse fournie.
La société californienne aurait jugé qu’empêcher ChatGPT de fournir une réponse erronée quant à la date d’anniversaire aurait conduit à ce que davantage d’informations sur la personne concernée soient bloquées par l’outil, ce qui aurait entravé le droit à l’information des citoyens sur cette personne, qui est une personnalité connue.
« ChatGPT ne peut pas corriger les informations, ne peut pas les bloquer de manière sélective et toute personne concernée doit simplement vivre avec cette situation — selon le responsable du traitement [des données] », indique la plainte.
Le bureau irlandais d’OpenAI n’est qu’une façade, et toutes les décisions sont toujours prises aux États-Unis, estime Noyb. C’est pourquoi la plainte est déposée contre l’une des entités américaines à but lucratif de la société, OpenAI OpCo LLC, mentionnée dans les conditions générales de la société californienne.
Un débat européen
Apparu en novembre 2022, ChatGPT a immédiatement fait sensation, de nombreux utilisateurs étant impressionnés par ses capacités.
Toutefois, de nombreux observateurs ont pour leur part souligné les risques que ce type d’intelligence artificielle présente, et des procédures ont été lancées dans plusieurs pays.
Par exemple, l’Italie a temporairement bloqué l’agent conversationnel en mars 2023, tandis qu’en France, la Commission nationale de l’informatique et des libertés (CNIL) a entamé l’examen d’une série de plaintes.
Parallèlement à cela, un groupe de travail européen a également été mis en place pour favoriser la coopération.
« Reste à voir où cela va nous mener », commente Noyb, qui reste sceptique face aux efforts des autorités pour réguler l’intelligence artificielle.
OpenAI n’a pas répondu à la demande de commentaire d’Euractiv au moment de la publication de cet article.
[Édité par Anne-Sophie Gayet et Anna Martino]