Le rapport de Stanford suggère que Mastodon a un problème matériel de maltraitance d’enfants


Un nouveau rapport suggère que les politiques laxistes de modération du contenu de Mastodon et d’autres plateformes de médias sociaux décentralisées ont conduit à une prolifération de matériel d’abus sexuels sur des enfants. Publication de l’Observatoire Internet de Stanford nouvelle recherche Lundi, cela montre que ces sites décentralisés présentent de graves lacunes en ce qui concerne «l’infrastructure de sécurité des enfants». Malheureusement, cela ne les rend pas si différents de la majorité des plates-formes sur Internet normal.

Quand on parle de web « décentralisé », on parle de cours parlant de réseaux sociaux « fédérés » ou «le Fedivers« – la constellation lâche de plates-formes qui évitent la propriété et la gouvernance centralisées pour un modèle interactif qui donne la priorité à l’autonomie et à la confidentialité des utilisateurs. Le Fediverse fonctionne sur une série de protocoles Web gratuits et open source qui permettent à quiconque de configurer et d’héberger des communautés sociales via leurs propres serveurs, ou « instances. Parmi la multitude limitée de plates-formes qui composent ce domaine décentralisé, Mastodon est l’une des plus populaires et des plus utilisées sur le Web. Pourtant, à côté de l’internet centralisé, la décentralisation est un territoire nettement moins foulé ; à son apogée, Mastodon comptait environ 2,5 millions d’utilisateurs. Vous pouvez comparer cela aux récents nombres d’utilisateurs actifs quotidiens de Twitter, qui planer quelque part autour de 250 millions.

Malgré la promesse excitante du Fediverse, son modèle pose des problèmes évidents. Les menaces à la sécurité, d’une part, sont un problème. Le convivialité limitée de l’écosystème a également été une source de discorde. Et, comme le note la nouvelle étude de Stanford, l’absence de surveillance centralisée signifie qu’il n’y a pas suffisamment de garde-fous intégrés dans l’écosystème pour se défendre contre la prolifération de contenus illégaux et immoraux. En effet, les chercheurs affirment que sur une période de deux jours, ils ont rencontré environ 600 éléments de contenu CSAM connus ou suspectés sur les principales instances de Mastodon. Horrible, le premier morceau de CSAM que les chercheurs ont rencontré a été découvert dans les cinq premières minutes de recherche. En général, les chercheurs affirment que le contenu était facilement accessible et pouvait être recherché facilement sur les sites.

Le rapport explique en outre pourquoi le contenu était si accessible…

… les mauvais acteurs ont tendance à se rendre sur la plate-forme avec les politiques de modération et d’application les plus laxistes. Cela signifie que les réseaux décentralisés, dans lesquels certains cas disposent de ressources limitées ou choisissent de ne pas agir, peuvent avoir du mal à détecter ou à atténuer le matériel d’abus sexuel d’enfants (CSAM). La fédération entraîne actuellement des redondances et des inefficacités qui rendent difficile l’endiguement du CSAM, de l’imagerie intime non consensuelle (NCII) et d’autres contenus et comportements nocifs et illégaux.

Gizmodo a contacté Mastodon pour commenter la nouvelle recherche mais n’a pas eu de réponse. Nous mettrons à jour cette histoire si la plateforme répond.

Le Web « centralisé » a également un énorme problème de CSAM

Malgré les conclusions du rapport de Stanford, il convient de considérer que ce n’est pas parce qu’un site est « centralisé » ou « supervisé » qu’il a moins de contenu illégal. En effet, des enquêtes récentes ont montré que la plupart des principales plateformes de médias sociaux nagent avec du matériel pédopornographique. Même si un site dispose d’un système de modération de contenu avancé, cela ne signifie pas que ce système est particulièrement efficace pour identifier et éliminer le contenu méprisable.

Exemple : en février, un rapport du New York Times a montré que Twitter avait purgé pas moins de 400 000 comptes d’utilisateurs pour avoir « créé, distribué ou engagé avec CSAM ». Malgré le retrait proactif des comptes de l’application Bird, le rapport a noté que l’équipe de sécurité de Twitter semblait « échouer » dans sa mission de débarrasser la plate-forme d’une quantité époustouflante de matériel d’abus.

De même, un récent Wall Street Journal enquête a montré que non seulement il y a une quantité étonnante de matériel pédopornographique circulant sur Instagram, mais que les algorithmes de la plate-forme avaient activement «promu» ce contenu auprès des pédophiles. En effet, selon l’article du Journal, Instagram s’est chargé de guider les pédophiles « vers [CSAM] vendeurs de contenu via des systèmes de recommandation qui excellent à relier ceux qui partagent des intérêts de niche. Suite à la publication du rapport du Journal, la société mère d’Instagram, Meta, a déclaré qu’elle avait créé une équipe interne pour traiter.

Le besoin de « nouveaux outils pour un nouvel environnement »

Alors que les sites Web centralisés et décentralisés luttent clairement contre la prolifération des CSAM, le chercheur principal du nouveau rapport de Stanford, David Thiel, affirme que le Fediverse est particulièrement vulnérable à ce problème. Bien sûr, les plateformes « centralisées » ne sont peut-être pas particulièrement douées pour identifier le contenu illégal, mais si elles doivent le supprimer, elles ont les outils pour le faire. Les plates-formes comme Mastodon, quant à elles, manquent de l’infrastructure distribuée pour faire face au CSAM à grande échelle, explique Thiel.

« Il n’y a pratiquement pas d’outils Fediverse intégrés pour aider à gérer le problème, alors que les grandes plates-formes peuvent très facilement rejeter les CSAM connus de manière automatisée », a déclaré Thiel à Gizmodo dans un e-mail. « Les plates-formes centrales ont l’autorité ultime sur le contenu et ont la capacité de l’arrêter autant que possible, mais dans Fediverse, vous coupez simplement les serveurs avec de mauvais acteurs et passez à autre chose, ce qui signifie que le contenu est toujours distribué et continue de nuire aux victimes. »

« Le problème, à mon avis, n’est pas que la décentralisation est en quelque sorte pire, c’est que chaque outil technique disponible pour lutter contre le CSAM a été conçu avec un petit nombre de plates-formes centralisées à l’esprit. Nous avons besoin de nouveaux outils pour un nouvel environnement, ce qui nécessitera des ressources d’ingénierie et des financements.

Quant à savoir quel écosystème de médias sociaux souffre d’un problème de CSAM « plus large » – le centralisé ou le décentralisé – Thiel a déclaré qu’il ne pouvait pas le dire. « Je ne pense pas que nous puissions quantifier « plus gros » sans échantillons représentatifs et sans ajustement pour la base d’utilisateurs », a-t-il déclaré.





Vous pouvez lire l’article original (en Angais) sur le bloggizmodo.com