Meta travaille toujours sur les changements recommandés lors de l'audit des droits civiques de l'année dernière | Engagé

Meta travaille toujours sur les changements recommandés lors de l'audit des droits civiques de l'année dernière |  Engagé

Plus d'un an après échec de son premier audit des droits civiques, Meta dit qu'il travaille toujours sur un certain nombre de changements recommandés par les auditeurs. La société a publié une mise à jour détaillant ses progrès dans la mise en œuvre des nombreuses recommandations des auditeurs.

Selon la société, elle a déjà mis en œuvre 65 des 117 recommandations, avec 42 autres répertoriées comme «en cours ou en cours». Cependant, il y a six domaines dans lesquels l'entreprise dit qu'elle détermine toujours la « faisabilité » d'apporter des changements et deux recommandations dans lesquelles l'entreprise a « refusé » de prendre des mesures supplémentaires. Et, notamment, certains d'entre eux traitent des problèmes les plus controversés soulevés dans l'audit original de 2020.

Ce rapport original, publié en juillet 2020, a révélé que l'entreprise devait faire plus pour arrêtez de « pousser les utilisateurs vers des chambres d'écho extrémistes ». Il a également déclaré que la société devait résoudre les problèmes liés au biais algorithmique et a critiqué la gestion par la société des publications de Donald Trump. Dans sa dernière mise à jour , Meta indique qu'il ne s'est toujours pas engagé à apporter tous les changements demandés par les auditeurs en ce qui concerne le biais algorithmique. L'entreprise a mis en œuvre certains changements, comme l'engagement avec des experts externes et l'augmentation de la diversité de son équipe d'IA, mais affirme que d'autres changements sont toujours « en cours d'évaluation ». processus obligatoire à l'échelle de l'entreprise pour «éviter, identifier et traiter les sources potentielles de biais et de résultats discriminatoires lors du développement ou du déploiement de modèles d'IA et d'apprentissage automatique» et qu'il «teste régulièrement les algorithmes et les modèles d'apprentissage automatique existants». Meta a déclaré que la recommandation était « en cours d'évaluation ». De même, l'audit a également recommandé « une formation obligatoire sur la compréhension et l'atténuation des sources de biais et de discrimination dans l'IA pour toutes les équipes créant des algorithmes et des modèles d'apprentissage automatique ». Cette suggestion est également répertoriée comme «en cours d'évaluation», selon Meta.

La société indique également que certaines mises à jour liées à la modération du contenu sont également «en cours d'évaluation». Il s'agit notamment d'une recommandation visant à améliorer la «transparence et la cohérence» des décisions relatives aux appels de modération, et une recommandation que l'entreprise étudie davantage d'aspects de la propagation du discours de haine et comment elle peut utiliser ces données pour lutter plus rapidement contre la haine ciblée. Les auditeurs ont également recommandé que Meta « divulgue des données supplémentaires » sur les utilisateurs ciblés par la suppression des électeurs sur sa plate-forme. Cette recommandation est également « en cours d'évaluation ».

Les deux seules recommandations que Meta a carrément rejetées étaient également liées aux élections et aux politiques de recensement. « Les auditeurs ont recommandé que tous les rapports générés par les utilisateurs sur l'interférence des électeurs soient acheminés vers les examinateurs de contenu pour déterminer si le contenu enfreint nos politiques, et qu'une option d'appel soit ajoutée pour le contenu d'interférence des électeurs signalé », a écrit Meta. Mais la société a déclaré qu'elle avait choisi de ne pas apporter ces modifications car cela ralentirait le processus d'examen et parce que « la grande majorité du contenu signalé comme ingérence des électeurs ne viole pas les politiques de la société. »

Séparément, Meta a également déclaré qu'il travaillait sur un « cadre pour étudier nos plates-formes et identifier les opportunités d'accroître l'équité en matière de course aux États-Unis ». Pour ce faire, l'entreprise mènera des «enquêtes hors plate-forme» et analysera ses propres données à l'aide des noms de famille et des codes postaux.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d'affiliation. Si vous achetez quelque chose via l'un de ces liens, nous pouvons gagner une commission d'affiliation.