Facebook ne sera pas « arbitre de la vérité » mais prend son rôle « au sérieux »

12 millions de contenus de fausses informations sur la COVID ont été retirés entre mars et octobre 2020 d'après les chiffres avancés par Facebook. [Glen Carrie/Unsplash]

Dans le cadre des « Conversations avec Facebook », le réseau social a organisé mercredi (17 mars) un échange sur le thème de la lutte contre la désinformation. L’occasion pour le géant numérique américain de revenir sur sa stratégie en matière de « fake news ».

Si Facebook ne se positionnera jamais en « arbitre de la vérité », il ne prend pas moins son rôle « au sérieux », selon Anton’Maria Battesti, responsable des relations publiques pour Facebook France. Interrogé sur l’intérêt supposé du réseau social de laisser proliférer les « fake news » sur sa plateforme, il souligne qu’il n’y a « aucun intérêt financier à cela » puisqu’il en va de la réputation de Facebook, et donc de son attractivité pour les annonceurs.

L’équipe de Facebook France a dévoilé ce matin (17 mars) les trois mots clés qui régissent sa politique en la matière : « retirer », « réduire » et « informer ».

La plateforme a expliqué retirer strictement tout contenu lorsqu’il y a un risque d’actes de violence ou de dommage physiques, en cas de vidéos manipulées et de « deep fakes », quand le contenu provient de « mouvements sociaux militarisés et réseaux de conspiration incitant à la violence » ou lorsque sont but est de limiter la participation électorale.

L’algorithme de Facebook représente une menace pour la santé publique

Le corps médical continue de tirer la sonnette d’alarme sur les dangers des informations fallacieuses publiées sur les réseaux sociaux. Selon une étude, les infox sur la santé diffusées sur Facebook ont engendré 3,8 milliards de vue l’année dernière.

En dehors de ces lignes directrices, Mathieu Fritsch, responsable des partenariats avec les médias pour Facebook France, a déclaré que le réseau social œuvrait pour réduire « la distribution d’informations fausses ou altérées » ainsi que « la distribution de pages ou de domaines qui partagent des fausses informations de manière répétée ».

« C’est un problème difficile à résoudre », a admis M. Battesti qui souhaite également miser sur une meilleure information de l’audience pour lutter contre la désinformation, lorsque cette dernière n’a pas des intentions purement malveillantes. Pour ce faire, Facebook s’est targué d’avoir mis en place plusieurs outils comme les systèmes d’alerte et de notifications (lorsqu’un article date de plus de 90 jours par exemple) ou un bouton apportant du contexte.

167 millions de contenus ont été labellisés avec une étiquette avertissant qu’il s’agit d’une fausse information sur la COVID-19 entre mars et octobre 2020 d’après les chiffres de Facebook.

L’entreprise compte aussi énormément sur ses médias partenaires « fact-checker », 80 dans le monde et 4 en France, tous certifiés par l’International Fact-Checking Network. Dans l’Hexagone, ce sont les Décodeurs (Le Monde), l’AFP, 20 Minutes et France24 qui collaborent étroitement avec eux pour repérer et « debunker » – déconstruire – les fausses informations.

Assma Maad, journaliste pour les Décodeurs, a souligné que cette collaboration ne mettait pas en danger l’indépendance de leur travail et qu’il n’y avait « aucun objectif, aucune pression ».

Quant au savant mélange entre algorithmes et interventions humaines, M. Battesti a expliqué à EURACTIV France, sans trop de détails, que ce n’était jamais « tout l’un ou tout l’autre » et que les « automatismes permettent de surfacer le contenu » avant qu’une décision soit prise par une personne. Facebook France a également refusé de divulguer le budget alloué à ce combat contre la désinformation, indiquant simplement des sommes « très importantes en Europe et en particulier en France ».

COVID-19 et élections présidentielles

La pandémie de COVID-19 a été particulièrement propice aux partages de contenus viraux, relayant des messages tantôt mal informés, tantôt malveillants. En accord avec ses lignes rouges en matière de retrait de contenu, Facebook dit avoir par exemple supprimer les publications qui disaient que « la distanciation ne marche pas ou appelant à arracher les antennes 5G » car elles avaient trait à la « sécurité ».

12 millions de contenus de fausses informations sur la COVID ont été retirés entre mars et octobre 2020 d’après les chiffres avancés par Facebook. La plateforme y a par ailleurs consacré une page, le Centre d’information sur le coronavirus.

Interrogées sur leur préparation aux élections présidentielles de 2022, les équipes de Facebook France se sont montrées claires : « l’objectif numéro un, c’est la sécurité », et les mêmes règles de modération s’appliqueront.

M. Battesti a également déclaré soutenir les principes du Digital Services Act à venir et qui devrait pousser les plateformes numériques à être plus transparentes dans leurs politiques de modération du contenu en ligne.

L'Assemblée nationale adopte de nouvelles règles contre la haine en ligne

L’Assemblée Nationale a voté hier plusieurs mesures pour renforcer l’arsenal législatif en matière de régulation de la haine en ligne.

Subscribe to our newsletters

Subscribe