Le dernier rapport de transparence de Meta détaille le harcèlement sur Facebook et Instagram | Engagé

Le dernier rapport de transparence de Meta détaille le harcèlement sur Facebook et Instagram |  Engagé

Facebook a partagé de nouvelles statistiques sur le nombre d'intimidations, de discours de haine et de harcèlement sur sa plateforme. Les nouveaux chiffres, publiés avec les derniers rapports de transparence trimestriels de la société, surviennent alors que Meta fait face à un examen minutieux de sa capacité à protéger les utilisateurs et à appliquer ses politiques de manière adéquate dans le monde.

Son dernier rapport marque la première fois l'entreprise a partagé des mesures de « prévalence » concernant l'intimidation et le harcèlement sur sa plate-forme. «Prévalence» est une statistique que Facebook utilise pour suivre le contenu en violation qui passe à travers ses systèmes de détection. « Cela représente la quantité de contenu violant que les gens voient réellement et qui apparaît réellement sur l'écran de quelqu'un », a déclaré le vice-président de l'intégrité de l'entreprise, Guy Rosen, aux journalistes lors d'un briefing.

Selon l'entreprise, la prévalence du contenu d'intimidation se situait entre 0,14 % et 0,15 % sur Facebook et entre 0,05 % et 0,06 % sur Instagram. « Cela signifie que le contenu d'intimidation et de harcèlement a été vu entre 14 et 15 fois pour 10 000 vues de contenu sur Facebook et entre 5 et 6 fois pour 10 000 vues de contenu sur Instagram », explique la société dans un communiqué. Instagram en particulier a été confronté à des questions sur sa capacité à faire face à l'intimidation et au harcèlement. La société a introduit plusieurs nouvelles mesures anti-harcèlement plus tôt cette année après que plusieurs joueurs de football britanniques ont détaillé leur expérience des abus racistes sur l'application.

Il est important de noter que cette métrique de « prévalence » ne prend en compte que le contenu que Facebook et Instagram supprime sans rapport d'utilisateur. Cela signifie que la statistique ne capture qu'un sous-ensemble de tous les contenus d'intimidation, car l'intimidation et le harcèlement ne sont pas toujours faciles à identifier pour un système automatisé.

Cette distinction a été soulignée par des révélations dans les papiers Facebook, une mine de documents rendus publics par l'ancienne employée devenue dénonciatrice Frances Haugen. Selon les documents qu'elle a partagés, les propres chercheurs de Facebook estiment que l'entreprise n'est en mesure de traiter qu'environ trois à cinq pour cent des discours de haine sur sa plate-forme, ce qui signifie que la grande majorité n'est pas détectée et est autorisée à polluer les fils d'actualité des utilisateurs.

Facebook a repoussé à plusieurs reprises ces affirmations et a souligné les statistiques de « prévalence » qu'il partage dans ses rapports de transparence. Mais comme les chercheurs l'ont souligné, la propre comptabilité de la « prévalence » de l'entreprise peut masquer la véritable quantité de contenu violant sur la plate-forme. C'est parce que les systèmes automatisés de Facebook ne sont pas toujours fiables, en particulier pour détecter le contenu dans des langues autres que l'anglais. Les révélations ont alimenté les allégations selon lesquelles Facebook fait passer les bénéfices avant la sécurité des utilisateurs.

«Nous n'avons absolument aucune incitation, commerciale ou autre, à faire autre chose que de s'assurer que les gens vivent une expérience positive» Rosen a déclaré mardi. « Je pense qu'il n'est tout simplement pas vrai que nos algorithmes sont juste optimisés pour évincer l'engagement. Nous affinons constamment notre classement afin de résoudre ces problèmes. »

Dans son dernier rapport, Facebook a signalé que les discours de haine avaient diminué pour le quatrième trimestre consécutif, avec une prévalence en baisse de 0,05 %. dernier trimestre à 0,03 % ce trimestre. La société a également signalé pour la première fois la prévalence du discours de haine sur Instagram, affirmant que le discours de haine était de 0,02%, soit environ 2 contenus sur 10 000 visionnés sur sa plate-forme.

Cependant, cela en vaut la peine. notant que même la vision la plus optimiste de ces chiffres – 0,03 % et 0,02 % pour Facebook et Instagram, respectivement – peut toujours signifier que des millions de personnes sont confrontées à des discours de haine chaque jour, étant donné le grand nombre d'utilisateurs et de contenus publiés sur les plateformes chaque jour.

Par ailleurs, Facebook a également déclaré que ses chercheurs travaillaient sur « un domaine de recherche en IA relativement nouveau appelé apprentissage » à quelques coups « ou » à zéro », qui leur permettrait de former des modèles d'IA. beaucoup plus rapidement. Au lieu de s'appuyer sur des ensembles de données massifs pour former manuellement des modèles pour, par exemple, identifier le discours de haine, cela permettrait à des modèles qui peuvent « apprendre à reconnaître quelque chose à partir d'un petit nombre d'exemples de formation, ou même d'un seul exemple », a écrit la société. Facebook n'a pas précisé combien de temps cela pourrait prendre pour mettre cette recherche en action, mais cela suggère que la société poursuit toujours les progrès de l'IA pour résoudre les principaux problèmes de contenu.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d'affiliation. Si vous achetez quelque chose via l'un de ces liens, nous pouvons gagner une commission d'affiliation.