Les algorithmes de recommandation de YouTube, TikTok et Snapchat dans le viseur de la Commission

Ces demandes s’inscrivent dans le cadre du règlement sur les services numériques (Digital Services Act, DSA), le règlement historique de l’Union européenne (UE) sur la modération des contenus. [SHUTTERSTOCK/CHRISTOPHE LICOPPE]

Ce mercredi 2 octobre, la Commission européenne a adressé à YouTube, Snapchat et TikTok une demande d’informations sur la conception et le fonctionnement de leurs systèmes de recommandation, qui mettraient parfois des contenus « nuisibles » en avant.

Les systèmes de recommandation — des algorithmes qui suggèrent des contenus aux utilisateurs — jouent un rôle important dans l’exposition des utilisateurs à des risques systémiques, a affirmé mercredi 2 octobre un haut fonctionnaire de la Commission.

Les algorithmes de recommandation sont considérés comme pouvant avoir des effets néfastes, les organisations de recherche et de défense des droits numériques citant par exemple l’extrémisme et la désinformation sur les vaccins.

Les demandes d’information de la Commission visent à la fois à approfondir et à élargir la compréhension de ces systèmes par l’exécutif, en explorant en particulier leurs structures sous-jacentes, afin de déterminer s’ils exposent les utilisateurs à des contenus nuisibles, a indiqué le fonctionnaire.

Les plateformes doivent « évaluer et atténuer adéquatement les risques » liés à leurs services en ligne, y compris les atteintes potentielles à la santé mentale des utilisateurs et la diffusion de « contenus nuisibles liés à la conception  […] de ces algorithmes », a rappelé la Commission dans un communiqué. Des obligations qui découlent du règlement sur les services numériques (Digital Services Act, DSA), entré pleinement en vigueur le 17 février et qui régit la sur la modération des contenus.

YouTube et Snapchat répondront à des questions sur les paramètres utilisés par les algorithmes de recommandation et sur leur rôle dans l’amplification des risques systémiques, tels que ceux liés aux élections et à la santé mentale, ainsi qu’à la protection des mineurs, a déclaré la Commission dans un communiqué de presse mercredi. Dans le cadre du DSA, les utilisateurs devraient avoir la possibilité de choisir les algorithmes recommandés, a déclaré un fonctionnaire.

Il sera également demandé à TikTok de fournir des informations concernant la possibilité de manipulation de ses systèmes par des acteurs malveillants, ainsi que ses effets sur le discours civique, a ajouté le fonctionnaire. Une enquête ouverte précédemment porte sur les risques concernant la protection des mineurs, tels que les contenus liés au suicide, a-t-il ajouté.

« Pour Snapchat, nous posons des questions pour savoir si les systèmes recommandés mettent en avant des drogues [et contenus] illicites », a-t-il continué.

L’exécutif européen a mis plusieurs de ses meilleurs agents sur l’affaire, a noté un autre fonctionnaire. « Tous ceux qui ont rédigé la demande sont titulaires d’un doctorat en informatique ou en algorithmique », a-t-il indiqué.

La Commission ne vise pas Meta, la société mère de Facebook et d’Instagram, car les mêmes questions sont couvertes par la procédure formelle ouverte contre l’entreprise avant l’été, a déclaré le fonctionnaire.

Les plateformes doivent soumettre les informations avant le 15 novembre, après quoi la Commission pourra évaluer les prochaines étapes.

TikTok et Snapchat ont reçu la demande et coopéreront avec la Commission, ont déclaré les porte-paroles des deux plateformes à Euractiv. 

De son côté, YouTube « investit depuis des années dans des produits, des politiques et des systèmes » pour protéger ses utilisateurs de la désinformation et préserver leur santé mentale, selon un porte-parole de l’entreprise. Ce dernier a ajouté que la plateforme poursuivrait ses investissements et collaborerait avec la Commission pour garantir le respect de la loi.

Les demandes d’information annoncées mercredi ne constituent pas une mise en cause à ce stade. Il s’agit toutefois d’une première étape dans une procédure qui peut conduire à l’ouverture d’une enquête formelle, et à terme à de lourdes sanctions financières en cas d’infractions avérées à la règlementation.

« Sur la base de l’évaluation des réponses, la Commission déterminera les prochaines étapes », a précisé l’exécutif européen.

Meta condamnée à une amende de 91 millions d'euros pour stockage de mots de passe

La Commission irlandaise de protection des données a condamné Meta à une amende de 91 millions d’euros pour avoir stocké « par inadvertance » les mots de passe des utilisateurs sans protection cryptographique ou chiffrement.

[Édité par Anne-Sophie Gayet]

Inscrivez-vous à notre newsletter

S'inscrire