L’algorithme de YouTube fait la part belle aux contenus préjudiciables, selon une étude

L’Allemagne et la France figurent parmi les trois pays où la proportion de vidéos nuisibles signalées est la plus élevée. [Grisha Bruev/Shutterstock]

Une enquête a accusé les algorithmes de recommandation de YouTube d’alimenter les contenus préjudiciables. La France et l’Allemagne se sont révélées particulièrement touchées, ainsi que d’autres pays non anglophones.

L’étudeYoutube Regrets ») a été menée par Mozilla, dont le principal produit est Firefox, un navigateur web qui concurrence directement Google Chrome. Google est également la société mère de YouTube.

« YouTube doit admettre que son algorithme est conçu d’une manière qui nuit aux gens et les désinforme. Nos recherches confirment que YouTube non seulement héberge mais recommande activement des vidéos qui violent ses propres règles », a déclaré Brandi Geurkink, responsable de la défense des intérêts de Mozilla.

YouTube est le deuxième site web le plus visité au monde, avec 2,3 milliards d’utilisateurs par mois en 2020. Son nombre d’heures de visionnage a été multiplié par dix entre 2012 et 2017, pour atteindre un milliard d’heures par jour. C’est principalement le résultat de l’algorithme de la plateforme, qui personnalise ses suggestions de vidéos. YouTube a évalué que 70 % du temps passé par les utilisateurs sur la plateforme était basé sur ce système de recommandation.

L’étude du système

La principale conclusion du rapport de Mozilla est que « l’algorithme est le problème ». 71 % des vidéos signalées comme ayant un contenu nuisible étaient automatiquement recommandées par la plateforme. Les vidéos recommandées étaient également 40 % plus susceptibles d’être signalées comme nuisibles.

Les principaux types de contenus préjudiciables identifiés étaient des vidéos contenant de la désinformation, de la violence, des discours de haine ou des escroqueries. L’étude appelle également à la transparence sur la manière dont le système décide des vidéos à recommander, car dans plusieurs cas, il n’y avait pas de relation directe entre la vidéo regardée et les vidéos suggérées.

Source: YouTube Regrets: A crowdsourced investigation into YouTube’s recommendation algorithm.

« Nous travaillons constamment à améliorer l’expérience sur YouTube et, rien qu’au cours de l’année dernière, nous avons lancé plus de 30 changements différents pour réduire les recommandations de contenus nuisibles. Grâce à ce changement, la consommation de contenu limite qui provient de nos recommandations est désormais nettement inférieure à 1 % », a déclaré un porte-parole de YouTube à EURACTIV.

YouTube a salué la poursuite des recherches sur le fonctionnement de son système et a invité Mozilla à partager l’ensemble des données. La plateforme de partage de vidéos estime que moins de 0,2 % des contenus enfreignent actuellement ses directives communautaires, une marge d’erreur qui a considérablement diminué ces dernières années grâce à l’apprentissage automatique.

Atténuer les tendances négatives

Le nombre de vidéos nuisibles pourrait toutefois être moins pertinent que leur portée. L’étude affirme que les contenus nuisibles attirent en moyenne 70 % de vues en plus par jour que les autres vidéos.

Source: YouTube Regrets: A crowdsourced investigation into YouTube’s recommendation algorithm.

La principale source de revenus de YouTube est la publicité, qui est basée sur le temps que les utilisateurs passent sur la plateforme. S’il n’était pas contrôlé, l’algorithme suggérerait naturellement du contenu tendance, qu’il soit nuisible ou non.

Selon YouTube, les changements que la plateforme a appliqués à ses systèmes de recommandation ont permis de réduire drastiquement le temps de visionnage des contenus « borderline » depuis 2019. La plateforme a également inclus une surveillance humaine pour évaluer ce qui est un contenu nuisible.

Néanmoins, ces améliorations pourraient ne pas avoir affecté tous les pays de la même manière. « Nous savons aussi maintenant que les habitants des pays non anglophones sont les plus susceptibles de faire les frais de l’algorithme de recommandation hors de contrôle de YouTube », a ajouté Mme Geurkink.

L’étude a révélé que le niveau de contenu préjudiciable dans les pays non anglophones était en moyenne 60 % plus élevé que dans les pays où l’anglais est la langue principale. L’Allemagne et la France figurent parmi les trois pays où la proportion de vidéos nuisibles signalées est la plus élevée.

Responsabilité des algorithmes

Si elles sont confirmées, les conclusions du rapport mettraient YouTube en porte-à-faux avec le Code de bonnes pratiques pratique contre la désinformation, le cadre d’autorégulation de la Commission européenne pour lutter contre la désinformation. La Commission a récemment publié une nouvelle orientation pour le code, introduisant des mesures plus fortes pour rendre les plateformes responsables de leurs systèmes de recommandation.

« Les engagements devraient également inclure des mesures concrètes pour atténuer les risques que les systèmes de recommandation alimentent la propagation virale de la désinformation », peut-on lire dans les orientations.

En amont du DSA, la Commission présente ses orientations pour lutter contre la désinformation

Les orientations récemment publiées sur le renforcement du Code de pratique sur la désinformation illustrent les attentes de la Commission européenne concernant les mesures anti-désinformation pour les plateformes en ligne.

La Commission a également exhorté les plateformes à être plus transparentes sur le fonctionnement de leurs algorithmes, en leur demandant de publier la méthodologie de leurs systèmes de recommandation. La mise à jour du code de pratique devrait être achevée au début de 2022.

La question de la responsabilité des algorithmes a également été soulevée dans le cadre de la loi sur les services numériques (Digital Services Act, DSA), une proposition législative majeure visant à définir la modération des contenus. Christel Schaldemose, négociatrice principale au Parlement, a proposé de désactiver les systèmes de recommandation par défaut et de rendre les plateformes responsables des violations des droits fondamentaux par leurs algorithmes.

La rapporteure du DSA appelle à « reprendre le contrôle sur la Big Tech »

Le Digital Services Act (DSA) fournira un « règlement démocratique pour les plateformes en ligne », a déclaré la rapporteure de la loi à EURACTIV avant un débat au Parlement européen lundi (21 juin).

Subscribe to our newsletters

Subscribe