Une lanceuse d’alerte de Facebook appelle le PDG Mark Zuckerberg à démissionner

Mme Haugen, ancienne chef de produit chez Facebook, a accumulé des dizaines de milliers de documents avant de quitter l’entreprise en avril à la suite de ce qu’elle a présenté comme une crise morale provoquée par les choix contraires à l’éthique de l’entreprise. [Rokas Tenys/Shutterstock]

*Cet article a été mis à jour avec les commentaires de Meta, anciennement connu sous le nom de Facebook.

Frances Haugen, la lanceuse d’alerte à l’origine d’une fuite massive de documents internes provenant de Facebook, a appelé le PDG Mark Zuckerberg à démissionner.

«  Je pense que l’entreprise ne changera pas tant qu’il reste PDG. Facebook sera plus fort avec quelqu’un qui est prêt à se concentrer sur la sécurité  », a-t-elle déclaré lors du Web Summit à Lisbonne ce lundi 1er novembre.

Mme Haugen, ancienne chef de produit chez Facebook, a accumulé des dizaines de milliers de documents avant de quitter l’entreprise en avril à la suite de ce qu’elle a présenté comme une crise morale provoquée par les choix contraires à l’éthique de l’entreprise.

Elle a donc communiqué ces documents à la presse, mettant en lumière des décisions controversées de l’entreprise qui ont déclenché l’indignation du public.

«  Il y a eu un modèle de comportement et des choses où ils ont constamment donné la priorité à leurs profits au détriment de la sécurité générale. Et je suis très reconnaissante que vous me preniez au sérieux  », a-t-elle déclaré au public.

Facebook chasse les talibans, Twitter laisse la parole aux porte-paroles du régime

Alors que Facebook a confirmé qu’il continuerait de bannir les talibans de son réseau, les porte-paroles du régime peuvent toujours s’exprimer sur Twitter. Deux visions s’affrontent : celle de l’interdiction des comptes liés à une organisation terroriste et celle de l’intérêt public d’accès à l’information.

En particulier, Mme Haugen a souligné que le système de recommandation de Facebook donne la priorité aux contenus les plus polémiques et les plus conflictuels.

Elle a précisé que ces algorithmes créent bien plus que des disputes à table lors du repas dominical, soulignant les conséquences dramatiques dans la vie réelle que peuvent avoir de tels contenus extrémistes dans des réalités difficiles qui «  presque universellement ne disposent pas des systèmes de sécurité de base de Facebook.  »

Un porte-parole de Meta a déclaré à EURACTIV que l’argument « selon lequel nous poussons délibérément du contenu qui met les gens en colère pour faire du profit est tout simplement faux. Nous sommes en passe de dépenser plus de 5 milliards de dollars pour la sûreté et la sécurité en 2021 — plus que toute autre entreprise de technologie — et nous avons 40 000 personnes pour faire un seul travail : assurer la sécurité des gens sur nos applications ».

Mme Haugen a cité le cas de l’Éthiopie, où un nettoyage ethnique a récemment eu lieu. Ce pays africain compte 100 millions d’habitants, six langues différentes et 95 dialectes, une réalité qui montre selon elle l’insuffisance du système de modération des contenus de Facebook.

«  Lorsque le fondement de votre sécurité repose sur la connaissance des choses langue par langue, cela ne s’adapte pas aux foyers les plus fragiles du monde  », a-t-elle déclaré.

Pour Mme Haugen, Facebook a présenté la modération de contenu comme un faux choix entre la censure et la liberté d’expression. Elle a fait remarquer que des solutions non basées sur le contenu existaient et étaient plus efficaces, mais qu’elles nécessitaient de rendre la plateforme plus petite et plus lente.

À la question de savoir si elle avait peur, la lanceuse d’alerte a répondu qu’«  il y a un million, peut-être 10 millions de vies en jeu dans les 20 prochaines années. Et par rapport à cela, rien ne me semble vraiment comme une véritable conséquence  ».

L’ancienne employée de Facebook a également critiqué le choix récent de l’entreprise de se reconvertir vers le métaverse, ou la réalité virtuelle.

«  Il y a un méta-problème chez Facebook, qui est que Facebook choisit l’expansion dans de nouveaux domaines plutôt que de s’en tenir à ce qu’il fait déjà  », a fait valoir Mme Haugen.

Droits voisins : Facebook trouve un accord avec une partie de la presse française

Facebook et l’Alliance de la Presse d’Information Générale (APIG) ont annoncé jeudi 21 octobre avoir conclu un accord sur la rémunération des contenus journalistiques repris par le géant du numérique sur sa plateforme.

«  Je trouve inadmissible que dans les documents, il soit dit très clairement que des ressources supplémentaires sont nécessaires pour les systèmes de sécurité de base. Et au lieu d’investir pour s’assurer que ces plateformes présentent le niveau minimum de sécurité, ils sont sur le point d’investir 10 000 ingénieurs dans les jeux vidéo  », a-t-elle déclaré.

Le porte-parole de Meta a qualifié la comparaison de ridicule. «  Ce n’est pas comme si une entreprise pouvait uniquement construire de nouvelles technologies ou investir pour assurer la sécurité des personnes. De toute évidence, nous pouvons et devons faire ces deux choses en même temps — et nous le faisons.  »

«  Ces dernières semaines ont montré combien il est important d’être clair sur ce que nous défendons — et c’est ce que nous faisons en définissant notre vision et nos principes d’innovation responsable pour le métavers et en travaillant avec d’autres pour le construire. Il y a des compromis complexes à faire, c’est pourquoi nous avons besoin d’une réglementation du secteur  », a ajouté le porte-parole.

Mme Haugen a fait remarquer que la structure organisationnelle de Facebook était différente de celle d’autres réseaux sociaux tels que Twitter.

Chez Facebook, l’équipe de modération du contenu relève de différentes branches de l’entreprise à partir de l’équipe des affaires publiques, une structure interne qui, selon Mme. Haugen, a un effet dissuasif sur les modérateurs de contenu lorsque l’auteur du contenu controversé est un homme politique très en vue.

Facebook a précédemment accusé Mme Haugen de n’avoir publié qu’une sélection de documents, leur donnant ainsi une tournure négative.

Pour sa part, Mme Haugen a suggéré de soumettre tous les documents internes de Facebook à l’examen du public, faisant valoir que des entreprises comme Google et Twitter étaient beaucoup plus transparentes.

Elle a également exhorté les décideurs politiques à obliger Facebook et les autres plateformes à divulguer leurs données.

Les obligations de transparence et la responsabilité algorithmique font actuellement l’objet de discussions dans le cadre de la loi sur les services numériques (Digital Services Act, DSA), une proposition législative européenne sur les contenus et services en ligne.

Subscribe to our newsletters

Subscribe