Les problèmes de désinformation et de violence de Facebook sont pires en Inde | Engagé

Les problèmes de désinformation et de violence de Facebook sont pires en Inde |  Engagé

Les fuites de la dénonciatrice Facebook Frances Haugen suggèrent que ses problèmes avec l'extrémisme sont particulièrement graves dans certaines régions. Les documents que Haugen a fournis au New York Times, Wall Street Journal et à d'autres médias suggèrent que Facebook est conscient qu'il a encouragé de graves désinformation et violence en Inde. Le réseau social n'avait apparemment pas assez de ressources pour faire face à la propagation de matériel nuisible dans le pays peuplé et n'a pas réagi avec suffisamment d'action lorsque les tensions ont éclaté.

Une étude de cas début 2021 a indiqué qu'une grande partie du contenu préjudiciable de groupes comme Rashtriya Swayamsevak Sangh et Bajrang Dal n'était pas signalé sur Facebook ou WhatsApp en raison du manque de savoir-faire technique nécessaire pour repérer le contenu écrit en bengali et en hindi. Dans le même temps, Facebook aurait refusé de marquer le RSS pour suppression en raison de «sensibilités politiques» et Bajrang Dal (lié au parti du Premier ministre Modi) n'avait pas été touché malgré un appel interne de Facebook pour retirer son contenu. La société avait une liste blanche pour les politiciens exemptés de la vérification des faits.

Facebook avait du mal à lutter contre les discours de haine il y a cinq mois à peine, selon les données divulguées. Et comme un test précédent aux États-Unis, la recherche a montré à quelle vitesse le moteur de recommandation de Facebook a suggéré un contenu toxique. Un compte fictif suivant les recommandations de Facebook pendant trois semaines a été soumis à un « barrage presque constant » de nationalisme de division, de désinformation et de violence. toute l'histoire. Le porte-parole Andy Stone a fait valoir que les données étaient incomplètes et ne tenaient pas compte des vérificateurs de faits tiers largement utilisés en dehors des États-Unis. Il a ajouté que Facebook avait beaucoup investi dans la technologie de détection des discours haineux dans des langues comme le bengali et l'hindi, et que la société continuait d'améliorer cette technologie.

La société de médias sociaux a suivi cela en publiant un une défense plus longue de ses pratiques. Il a fait valoir qu'il disposait d'un « processus à la pointe de l'industrie » pour examiner et hiérarchiser les pays à haut risque de violence tous les six mois. Il a noté que les équipes ont pris en compte les problèmes et l'histoire à long terme aux côtés des événements actuels et de la dépendance à l'égard de ses applications. La société a ajouté qu'elle s'engageait avec les communautés locales, améliorait la technologie et « affinait » en permanence les politiques.

La réponse n'a toutefois pas répondu directement à certaines des préoccupations. L'Inde est le plus grand marché individuel de Facebook, avec 340 millions de personnes utilisant ses services, mais 87% du budget de désinformation de Facebook est concentré sur les États-Unis. Même avec des vérificateurs de faits tiers au travail, cela suggère que l'Inde ne reçoit pas une attention proportionnée. Facebook n'a pas non plus donné suite aux inquiétudes selon lesquelles il était sur la pointe des pieds autour de certaines personnes et groupes au-delà d'une déclaration précédente selon laquelle il appliquait ses politiques sans tenir compte de la position ou de l'association. En d'autres termes, il n'est pas clair que les problèmes de désinformation et de violence de Facebook s'amélioreront dans un proche avenir.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d'affiliation. Si vous achetez quelque chose via l'un de ces liens, nous pouvons gagner une commission d'affiliation.