Facebook entraînerait ses utilisateurs dans un puits de désinformation concernant les vaccins

Le groupe mondial de défense des droits Avaaz a mené une enquête pour tester l’algorithme en explorant les types de contenus recommandés aux nouveaux utilisateurs sans antécédents d’interaction avec des messages anti-vaccins. [keport/Shutterstock]

Une nouvelle étude sur la désinformation concernant les vaccins sur Facebook montre que l’algorithme de recommandation de contenu de la plateforme peut conduire les utilisateurs vers des contenus conspirationnistes dangereux, plutôt que de les en éloigner.

Le groupe mondial de défense des droits Avaaz a mené une enquête pour tester l’algorithme en explorant les types de contenus recommandés aux nouveaux utilisateurs sans antécédents d’interaction avec des messages anti-vaccins.

Les résultats montrent qu’il n’a pas fallu longtemps pour que des pages diffusant des informations erronées sur les vaccins, y compris certaines déjà marquées par des avertissements ou dirigées par d’éminents théoriciens de la conspiration « anti-vax », soient recommandées aux utilisateurs.

Ces conclusions interviennent à un moment où l’on s’interroge de plus en plus sur le rôle de la désinformation en ligne dans la dissuasion des personnes à se faire vacciner contre la Covid-19. La semaine dernière, le président américain Joe Biden a déclaré aux journalistes que des plateformes telles que Facebook « tuent des gens » en hébergeant de telles fausses informations.

La transparence algorithmique a été au centre des récentes mesures réglementaires de l’UE, avec des dispositions incluses à la fois dans la récente orientation de la Commission sur le code de pratique sur la désinformation et dans la future loi sur les services numériques (DSA).

La rapporteure du DSA appelle à « reprendre le contrôle sur la Big Tech »

Le Digital Services Act (DSA) fournira un « règlement démocratique pour les plateformes en ligne », a déclaré la rapporteure de la loi à EURACTIV avant un débat au Parlement européen lundi (21 juin).

L’enquête

Dans le cadre de l’enquête, Avaaz a utilisé deux comptes tests pour aimer des pages contenant du contenu anti-vaccin et a ensuite suivi les pages de suivi recommandées par Facebook.

Au cours des deux jours pendant lesquels le test a été effectué, 109 des 180 pages recommandées aux chercheurs contenaient des contenus anti-vaccins, ce qui suggère que l’algorithme de la plateforme ne fait pas grand-chose pour éloigner les gens des contenus nuisibles ou trompeurs de cette nature.

Les chercheurs ont également constaté que la consultation de contenus concernant les vaccins entraînait la recommandation de pages sur l’autisme, même si ces pages ne contenaient aucune information relative aux vaccins.

Selon Avaaz, cela suggère que l’algorithme de Facebook pourrait avoir internalisé le mythe largement démystifié d’un lien entre les vaccins et l’autisme et que cela pourrait être considéré comme « une forme de désinformation en soi ».

Facebook ne sera pas "arbitre de la vérité" mais prend son rôle "au sérieux"

Dans le cadre des « Conversations avec Facebook« , le réseau social a organisé mercredi (17 mars) un échange sur le thème de la lutte contre la désinformation. L’occasion pour le géant numérique américain de revenir sur sa stratégie en matière de « fake news ».

Choix de conception

Les résultats suggèrent que l’algorithme de recommandation de Facebook peut servir à pousser les utilisateurs plus loin dans les réseaux de désinformation sur les vaccins, plutôt que de leur fournir un moyen d’en sortir ou de les diriger vers des sources d’information plus légitimes. Selon Avaaz, il s’agit d’un « choix de conception » de la part de la plateforme.

En septembre de l’année dernière, note le rapport, Facebook a annoncé qu’il cesserait de recommander des groupes liés à la santé aux utilisateurs afin de « donner la priorité à la mise en relation des personnes avec des informations précises sur la santé ». Toutefois, aucune mesure similaire n’a été prise en ce qui concerne les pages contenant des contenus liés à la santé.

Nate Miller, directeur de campagne chez Avaaz, a déclaré à EURACTIV qu’il s’agissait d’une « incohérence flagrante » dans la politique de Facebook et que « les politiques existantes chez Facebook concernant la désinformation en général et la désinformation liée à la Covid, en particulier, sont simultanément appliquées de manière inadéquate et ne sont pas adaptées à la tâche. »

Sollicité par EURACTIV, Facebook n’était pas disponible pour commenter les résultats de cette étude.

Mesures de transparence

Lorsqu’il s’agit de s’attaquer à la propagation de la désinformation en ligne, le secret des plateformes entourant leur architecture algorithmique est un défi majeur, tout comme le manque de données fournies par les entreprises pour prouver qu’elles prennent des mesures adéquates pour résoudre des problèmes tels que la désinformation, selon Luca Nicotra, directeur de campagne chez Avaaz.

« Ils disent qu’ils nettoient leurs plateformes, mais ensuite ils ne publient pas de données significatives qui nous permettraient ensuite de réellement valider leurs affirmations », a-t-il déclaré.

Plus tôt en 2021, la Commission européenne a publié ses orientations sur le renforcement du Code de pratique sur la désinformation de 2018, un ensemble de normes d’autorégulation acceptées par les principales plateformes technologiques pour s’attaquer au problème de la désinformation en ligne. Bien que le code ne soit pas juridiquement contraignant, ses mesures sont susceptibles de le devenir une fois que le DSA aura force de loi.

Le code et le DSA mettent tous deux l’accent sur la transparence algorithmique, ce qui, selon Avaaz, sera essentiel pour comprendre l’impact et réduire les dommages potentiels causés par la désinformation sur les plateformes en ligne.

Parmi les mesures proposées figurent des dispositions qui obligeraient les plateformes à démontrer comment elles ont modifié leurs algorithmes pour contrer la propagation de la désinformation.

En amont du DSA, la Commission présente ses orientations pour lutter contre la désinformation

Les orientations récemment publiées sur le renforcement du Code de pratique sur la désinformation illustrent les attentes de la Commission européenne concernant les mesures anti-désinformation pour les plateformes en ligne.

Subscribe to our newsletters

Subscribe