Facebook et sa société mère Meta sont poursuivis pour avoir prétendument permis à des contenus toxiques et incitant à la violence de prospérer dans des communautés en Éthiopie, où une guerre civile a fait des centaines de milliers de morts ces dernières années.
Le procès, intenté par deux chercheurs éthiopiens, accuse le géant de la technologie d’avoir contribué à alimenter la violence dans la région à travers un manque de contrôles efficaces de modération du contenu. La poursuite prétend que la sociétéc’est systèmes de recommandations—qui utilisent des algorithmes encourager les utilisateurs à interagir avec certains types de contenu plutôt qu’avec d’autres— a alimenté le partage de messages haineux au niveau régional.
Le procès a demandé à un tribunal de forcer Meta à prendre des mesures pour stopper la propagation de contenus violents, notamment en embauchant du personnel de modération régional supplémentaire, en ajustant ses algorithmes pour rétrograder ces contenus et en mettant en place des fonds de restitution de quelque 2 milliards de dollars pour aider les victimes de violence » incité sur Facebook », Reuters rapports.
« Non seulement Facebook permet à ce contenu d’être sur la plate-forme, mais il le priorise et gagne de l’argent grâce à ce contenu. Pourquoi sont-ils autorisés à faire cela ? Mercy Mutemi, l’avocate des chercheurs, a demandé lors d’une récente conférence de presse.
L’un des chercheurs à l’origine de la poursuite, Abrham Meareg, a un lien personnel avec la violence ethnique. En novembre 2021, le père de Meareg a été abattu, un mois seulement après que les personnes âgées l’homme avait été soumis aux menaces de mort et aux insultes ethniques via Publications sur Facebook, selon le procès. Meareg dit qu’avant le meurtre, il avait contacté Meta et demandé à la société de supprimer le contenu, mais que la société n’a finalement pas répondu rapidement et n’a pas non plus supprimé tous les messages sur son père. Le chercheur maintenant dit qu’il tient Meta «directement responsable» de la mort de son père.
G/O Media peut toucher une commission
Le manque d’efficacité de Meta modération de contenu a été une source de litiges en cours en Afrique de l’Est et au-delà. Facebook a été accusé d’avoir laissé prospérer son contenu le plus toxique au Kenya après avoir publicités pro-génocide approuvées, qui a failli faire bannir complètement le réseau social du pays. Facebook aussi a déjà fait face à un Un procès de 150 milliards de dollars déposée par des réfugiés de guerre rohingyas qui ont accusé le géant de la technologie d’alimenter le génocide au Myanmar. Amnesty International a conclu que l’entreprise avait, en fait, contribué au nettoyage ethnique dans le pays. De plus, l’entreprise a été accusée d’un dysfonctionnement similaire dans des pays comme le Cambodge, le Sri Lanka et l’Indonésie.
Gizmodo a contacté Meta pour commenter le procès le plus récent et mettra à jour cette histoire si elle répond. Dans un déclaration fourni à Reuters, la porte-parole de l’entreprise, Erin Pike, a défendu l’entreprise en déclarant: « Nous investissons massivement dans les équipes et la technologie pour nous aider à trouver et à supprimer ce contenu… Nous employons du personnel possédant des connaissances et une expertise locales et continuons à développer nos capacités pour détecter les infractions. contenu dans les langues les plus parlées » en Éthiopie.
Vous pouvez lire l’article original (en Angais) sur le sitegizmodo.com