La police du vitriol de Facebook est encore plus terne en dehors des États-Unis, selon les critiques | Facebook


Ou jour nuageux à Nairobi, Berhan Taye fait défiler une feuille de calcul dans laquelle elle a aidé à documenter plus de 140 publications sur Facebook en provenance d’Éthiopie qui contiennent des propos haineux. Il y a des vidéos de maltraitance d’enfants, des textes de discours haineux contre différents groupes ethniques et des diffusions en direct d’heures incitant à la haine. Ces publications enfreignent les directives de la communauté Facebook dans n’importe quel contexte. Pourtant, pour Taye et ses collègues, c’est à quoi ressemble le fil d’actualité de Facebook depuis des années en Éthiopie.

Parce qu’il n’y a pas assez de modérateurs de contenu axés sur l’Éthiopie, c’est à Taye, un chercheur indépendant qui étudie l’impact de la technologie sur la société civile, et à une équipe de volontaires locaux de collecter puis de signaler la désinformation et les discours de haine à Facebook.

C’est un travail dangereux – les gens qui prononcent le discours de haine sont organisés – donc les bénévoles sont anonymes. Ils passent des heures à regarder des diffusions en direct violentes et à rassembler du contenu haineux. Cela pèse sur leur santé mentale.

Une fois qu’ils ont envoyé leur rapport par e-mail, Facebook peut prendre une semaine pour répondre – s’ils ont de la chance – et parfois 70 % du contenu sera supprimé, selon Taye. Dans certaines situations, la grande entreprise de technologie est revenue vers les militants pour demander des traductions du contenu. « À maintes reprises, nous constatons qu’ils échouent activement à chaque fois », dit Taye.

« Ils ne sont pas disposés à investir dans les droits de l’homme, dans des ressources et dans des langues qui ne leur rapportent pas d’argent.

Facebook conteste qu’il ne réprime pas les abus avec la même intensité en dehors des États-Unis, affirmant qu’il dépense 13 milliards de dollars dans le monde pour lutter contre ce problème dans un travail impliquant 15 000 personnes dans des dizaines de langues.

Des chercheurs comme Taye disent que cela ne suffit pas.

En juin, Facebook a annoncé avoir supprimé un réseau de faux comptes en Éthiopie ciblant les utilisateurs nationaux avant les élections du pays.

Taye, cependant, a déclaré qu’elle était en conversation avec Facebook depuis 2018 sur la situation en Éthiopie, un pays où il y a eu un nettoyage ethnique, où le conflit armé s’intensifie et où Facebook est une plate-forme cruciale d’information.

Maintenant, Taye demande à Facebook de publier tous les rapports d’évaluation d’impact sur les droits humains qu’il pourrait détenir sur l’Éthiopie.

Comme de nombreux militants numériques dans le monde, Taye et ses collègues exhortent Facebook depuis des années à prendre au sérieux la façon dont son algorithme incite à la désinformation, aux discours de haine et à la violence ethnique dans les régions non anglophones.

C’est un problème que la dénonciatrice de Facebook Frances Haugen a mis en évidence dans son témoignage au Congrès américain début octobre, lorsqu’elle a déclaré que le système de classement des contenus de Facebook avait conduit à la propagation de la désinformation et des discours de haine.

Le classement du contenu fonctionne en utilisant des modèles d’apprentissage automatique pour supprimer ou rétrograder le mauvais contenu, mais il n’est formé que pour certains types de contenu. Haugen a déclaré que Facebook savait : « Le classement basé sur l’engagement est dangereux sans systèmes d’intégrité et de sécurité.

Elle a ajouté que le problème était bien pire dans les régions où les messages sont dans des langues autres que l’anglais. Elle a déclaré que « la stratégie consistant à se concentrer sur des systèmes spécifiques à la langue et au contenu pour que l’IA nous sauve soit vouée à l’échec ».


Fou militants des droits numériques, le témoignage de Haugen au Congrès n’a pas été une surprise. « Nous en avons été les victimes », dit Taye. « C’est bien que les Américains le sachent. Mais nous l’avons dit. La première chose que vous voyez lorsque vous ouvrez votre Facebook est le contenu le plus odieux.

« À leur avis, que disaient les Rohingyas ? Quel était [Philippines journalist] Maria Ressa dit? La plupart des utilisateurs de Facebook ne sont ni en Amérique ni en Europe », dit-elle.

Haugen était le dénonciateur qui a rassemblé les documents qui ont formé l’enquête sur les fichiers Facebook du Wall Street Journal. Le WSJ a rapporté qu’un document interne a révélé que le travail de Facebook sur la désinformation en 2020 comprenait 3,2 millions d’heures de recherches, mais que seulement 13% de celles-ci étaient en dehors des États-Unis ; plus de 90 % des utilisateurs de Facebook sont en dehors des États-Unis. Facebook conteste la statistique de 13%, qui, selon lui, ne reflète qu’un programme parmi tant d’autres.

Des réseaux de défenseurs des droits numériques et des droits de l’homme du monde entier ont fait pression sur Facebook pour qu’il publie leurs rapports et procède à des évaluations des risques avant qu’ils n’entrent sur les marchés.

Eliška Pírková, responsable mondial de la liberté d’expression d’Access Now, une organisation de défense des droits humains, a appelé à une réglementation centrée sur les droits humains des plateformes en ligne telles que Facebook. Elle a déclaré que les utilisateurs de Facebook devaient être protégés par défaut des motifs sombres résultant de la conception de l’interface qui incite les utilisateurs à adopter certains comportements.

Le témoignage de Haugen a confirmé ce que la société civile savait déjà, a déclaré Pírková, et a révélé « l’opacité inhérente et la réticence de la société à divulguer des informations et le fonctionnement des algorithmes ».

« La société civile ne devrait pas avoir à demander des comptes à Facebook », a-t-elle déclaré, ajoutant que l’engagement avec l’entreprise n’avait pas été très significatif et qu’il n’y avait eu aucun suivi.

Elle a souligné le processus de modération de Facebook lors des événements de mai 2021, lorsque des Palestiniens ont été expulsés de Sheikh Jarrah à Jérusalem et pendant le bombardement de 11 jours de Gaza, qui a conduit à la violence de la foule contre les Palestiniens incités sur les groupes WhatsApp, tandis que les messages pro-palestiniens étaient retiré des plateformes Facebook.

Si Facebook ne tirait pas les leçons du passé, ce seraient les pays du Sud et les groupes historiquement opprimés et marginalisés qui « paieraient le prix le plus élevé pour nos erreurs », a-t-elle déclaré.

Le Myanmar est une étude de cas souvent citée en ce qui concerne l’impact catastrophique de la désinformation et des discours de haine partagés sur Facebook. Le Myanmar est devenu un « exemple classique de nettoyage ethnique » selon l’ONU, où en août 2017, plus de 700 000 Rohingyas ont été contraints de fuir les violences dans l’État de Rakhine.

Le pays a connu une augmentation rapide du nombre d’utilisateurs de Facebook : il y avait 1,2 million d’utilisateurs de Facebook au Myanmar en 2014, et en janvier 2019, ils étaient 21 millions. En janvier 2021, il y avait 23,65 millions d’utilisateurs, soit environ 40 % de la population.

Victoire Rio, une chercheuse en droits numériques se concentrant sur le Myanmar, a déclaré que le témoignage de Haugen a mis en lumière les écarts entre ce que fait Facebook aux États-Unis et le « manque d’action et d’intervention » dans le reste du monde.

Au début de la présence de Facebook au Myanmar, il n’y avait que deux modérateurs birmans sur Facebook. Il y en a maintenant 120, selon Rio.

« Le montant des investissements nécessaires pour essayer de nettoyer et d’assainir le contenu diffusé aux États-Unis n’est tout simplement pas disponible ailleurs », a déclaré Rio. « Mais il a fallu un génocide, il a fallu que l’ONU les appelle, et que le Congrès américain les appelle, la presse occidentale les appelle pour que nous soyons enfin entendus », a-t-elle déclaré.

Dans un communiqué, un porte-parole de Facebook a déclaré : « Notre bilan montre que nous réprimons les abus en dehors des États-Unis avec la même intensité que nous y appliquons aux États-Unis. Nous avons investi 13 milliards de dollars dans le monde pour relever ce défi et 15 000 personnes révisent du contenu en dehors des États-Unis, couvrant plus de 50 langues et travaillant dans plus de 20 sites à travers le monde.

« Notre programme de vérification des faits tiers comprend plus de 80 partenaires qui examinent le contenu dans plus de 60 langues, dont plus de 70 partenaires situés en dehors des États-Unis. Nous avons également supprimé plus de 150 réseaux cherchant à manipuler le débat public depuis 2017, et ils sont originaires de plus de 50 pays, la majorité venant des États-Unis ou se concentrant en dehors de ceux-ci.



Aisha Gani in London – Ethiopia | The Guardian

About The Author

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

CAPTCHA