Des documents internes de Facebook soulignent ses problèmes de modération et de désinformation | Engagé

Des documents internes de Facebook soulignent ses problèmes de modération et de désinformation |  Engagé

Les Facebook Papers, une vaste mine de documents fournis par la lanceuse d'alerte Frances Haugen à un consortium d'agences de presse ont été publiés. Le reportage, par Reuters, Bloomberg, Le Washington Post et d'autres, brossent un tableau d'une entreprise qui a cherché à plusieurs reprises à donner la priorité à la domination et au profit sur la sécurité des utilisateurs. Ceci, cependant, malgré un grand nombre d'employés avertissant que l'accent mis par l'entreprise sur l'engagement expose les utilisateurs à un risque de violence dans le monde réel.

Le Washington Post, par exemple, affirme que même si le PDG de Facebook, Mark Zuckerberg, a minimisé les informations selon lesquelles le site a amplifié le discours de haine dans son témoignage au Congrès, il était conscient que le problème était bien plus large que déclaré publiquement. Des documents internes consultés par le Post affirment que le réseau social avait supprimé moins de cinq pour cent des discours de haine et que les dirigeants, dont Zuckerberg, savaient bien que Facebook polarisait les gens. Les affirmations ont déjà été réfutées par Facebook, qui affirme que les documents ont été déformés. -campagne d'inscription aux USA avant les élections de 2020. Il a déclaré que le plan pouvait sembler « partisan », les membres du personnel de WhatsApp proposant par la suite une version édulcorée en partenariat avec des agences extérieures. Le PDG aurait également été à l'origine de la décision de ne pas réprimer la désinformation sur COVID-19 dans les premiers stades de la pandémie, car il pourrait y avoir un « compromis important avec MSI impacter. » Facebook a réfuté l'affirmation, affirmant que les documents avaient été mal interprétés.

Reuters rapporté que Facebook a négligé en série un certain nombre de pays en développement, permettant au discours de haine et à l'extrémisme de prospérer. Cela inclut le fait de ne pas embaucher suffisamment de personnel capable de parler la langue locale, d'apprécier le contexte culturel et, par ailleurs, de modérer efficacement. Le résultat est que l'entreprise a une confiance injustifiée dans ses systèmes de modération automatique qui sont inefficaces dans les pays non anglophones. Encore une fois, Facebook a réfuté l'accusation selon laquelle il néglige ses utilisateurs dans ces territoires.

Une région spécifique qui suscite des préoccupations est le Myanmar, où Facebook a été tenu pour responsable d'amplifier les tensions locales. Un document de 2020 suggère que le système de modération automatique de l'entreprise ne pouvait pas signaler les termes problématiques en birman (langue locale). (Il convient de noter que, deux ans auparavant, l'échec de Facebook à agir correctement pour empêcher les troubles civils au Myanmar a été mis en évidence dans un rapport de Business for Social Responsibility.)

De même, Facebook n'aurait apparemment pas les outils en place pour détecter les discours de haine dans les langues éthiopiennes oromo ou amharique. Facebook a déclaré qu'il travaillait à élargir son équipe de modération de contenu et, au cours des deux dernières années, a recruté des locuteurs d'oromo, d'amharique et de birman (ainsi qu'un certain nombre d'autres langues).

Le New York Times, rapporte que les recherches internes de Facebook savaient bien que les fonctions J'aime et Partage — éléments essentiels de la façon dont le travail sur la plate-forme – avait accéléré la propagation du discours de haine. Un document, intitulé What Is Collateral Damage, indique que l'échec de Facebook à remédier à ces problèmes verra l'entreprise « promouvoir activement (sinon nécessairement consciemment) ces types d'activités ». Facebook dit que, encore une fois, ces déclarations sont basées sur des prémisses incorrectes, et qu'il serait illogique que l'entreprise essaie de nuire activement à ses utilisateurs.

Bloomberg, quant à lui, s'est concentré sur l'effondrement supposé des mesures d'engagement de Facebook. Les jeunes, un marché cible clé pour les annonceurs, passent moins de temps sur la plate-forme Facebook, et moins d'adolescents choisissent de s'inscrire. Dans le même temps, le nombre d'utilisateurs peut être artificiellement gonflé dans ces tranches d'âge, les utilisateurs choisissant de créer plusieurs comptes – «Finstas» – pour séparer leurs personnages en ligne afin de répondre aux différents groupes. Haugen allègue que Facebook « a déformé les mesures de base aux investisseurs et aux annonceurs » et que les comptes en double conduisent à une « fraude massive » contre les annonceurs. Facebook dit qu'il informe déjà les annonceurs du risque que les achats atteignent des comptes en double dans son centre d'aide, et répertorie le problème dans ses documents SEC.

Wired se concentre sur la façon dont les employés de Facebook quittent régulièrement les valdictions lorsqu'ils quittent le entreprise. Et comment ces missives sont devenues de plus en plus sombres, avec un employé partant écrivant que la plate-forme a une « influence négative nette sur la politique ». Un autre a déclaré qu'il avait l'impression d'avoir «du sang sur les mains», tandis qu'un troisième a déclaré que sa capacité à apporter des modifications aux systèmes de Facebook pour améliorer les choses était entravée par des barrages routiers internes.

Et, peu de temps après la publication de ces rapports, Frances Haugen a rencontré le comité restreint du Royaume-Uni pour examiner son prochain projet de loi sur la sécurité en ligne. Une grande partie de ce qu'elle a dit a déjà été exprimé aux régulateurs aux États-Unis, mais ses commentaires ont été très critiques à l'égard de Facebook. À un moment donné, Haugen a déclaré que Facebook n'était pas disposé à sacrifier même « de petits éclats de profit » afin de rendre son produit plus sûr. Elle a ajouté que le PDG de Facebook, Mark Zuckerberg, « a un contrôle unilatéral sur trois milliards de personnes, [and that] il n'y a aucune volonté au sommet [of the company] de s'assurer que ces systèmes fonctionnent de manière suffisamment sûre ».

Au cours du week-end, Axios a signalé que Sir Nick Clegg de Facebook a averti que le site devrait attendez-vous à « plus de gros titres » dans les semaines à venir. Il est probable que quoi qu'il arrive lors de l'annonce de la société au troisième trimestre plus tard dans la journée, cela ne suffira pas à dissiper le tsunami de mauvaise presse qu'il subit actuellement.

Mis à jour à 10 h 41 HE pour inclure les commentaires de Frances Haugen faits au comité restreint.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d'affiliation. Si vous achetez quelque chose via l'un de ces liens, nous pouvons gagner une commission d'affiliation.

Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*