Pinterest signale une forte augmentation de l’exploitation des enfants et de la suppression du contenu d’automutilation en 2022

Pinterest a publié son dernier Rapport de transparencequi décrit toutes les suppressions de contenu et autres mesures d’application prises au cours du premier semestre 2022.

Et il y a des changements assez importants dans ces chiffres – consultez ce tableau qui mesure le nombre d’épingles supprimées dans chaque catégorie au cours de l’année écoulée.

Données du rapport de transparence Pinterest

Quelques changements assez imprévisibles.

Remarques spécifiques :

  • Les retraits pour services sexuels pour adultes ont augmenté de manière significative au premier trimestre 2022, mais se sont ensuite normalisés au deuxième trimestre. Pourquoi? Pinterest dit que cela est dû à ‘désactivation hybride d’un petit nombre d’images, qui représentaient près des deux tiers des épingles désactivées au premier trimestre pour avoir enfreint cette politique.”
  • La suppression de l’exploitation sexuelle des enfants a considérablement augmenté au deuxième trimestre 2022. Pinterest dit que cela est dû à une mise à jour de ses systèmes de détection
  • La suppression de la théorie du complot est considérablement réduite, en raison de la purge massive de 2021
  • L’élimination des substances dangereuses est également réduite – également après un «nettoyage» en 2021
  • La violence graphique et la suppression des menaces sont en hausse cette année – “en partie à cause du contenu lié à la guerre en Ukraine.
  • La suppression de la désinformation médicale augmente au deuxième trimestre 2022
  • Les suppressions d’automutilation et de comportements nuisibles sont très avancées grâce au travail continu de Pinterest pour améliorer les processus de détection et de signalement
  • Le spam et le harcèlement sont relativement stables, avec des pics saisonniers

Comme vous pouvez le voir, les chiffres ici fluctuent beaucoup, en fonction de différentes approches et mises à jour, et il est intéressant d’examiner ce que cela signifie pour l’activité globale des broches et comment cela fonctionne pour protéger les utilisateurs.

Cela signifie-t-il qu’il y a depuis longtemps plus de contenu sur l’exploitation des enfants et l’automutilation sur l’application, ce que Pinterest a récemment pu découvrir ? C’est bien, car il améliore ses systèmes, mais il semble également que beaucoup de ces éléments soient actifs sur la plate-forme depuis un certain temps.

Pinterest indique que la plupart des contenus offensants sont supprimés avant que quiconque ne les voie – et encore une fois, il est important que Pinterest continue de s’améliorer sur ce front. Mais il convient de noter qu’au moins certains des pires types de contenu pourraient être vus dans l’application pendant un certain temps, avant ces mises à jour plus récentes.

En effet, en mai, DailyDot a signalé que les utilisateurs avaient découvert différents comptes de toilettage d’enfants sur Pinterest, ce qui peut avoir généré une attention supplémentaire sur la plate-forme pour cet élément. Pinterest a récemment présenté ses excuses à la famille de l’écolière britannique Molly Russell, une utilisatrice passionnée de Pinterest qui a vu du matériel autodestructeur sur l’application. Russell, 14 ans, s’est suicidé à la suite d’intimidation en ligne.

Encore une fois, il est positif que Pinterest ait répondu à de tels cas et renforcé son application dans ces domaines, mais cela peut également suggérer qu’il existe d’autres domaines où Pinterest est moins strict car ils n’ont pas été la source de l’attention des médias auparavant.

Mais c’est aussi spéculatif. La pression médiatique semble avoir incité Pinterest à agir davantage sur certains éléments, mais il est impossible de connaître l’étendue de chacun sans un contrôle supplémentaire.

Donc, d’un côté, c’est bien que Pinterest agisse davantage, mais de l’autre, il y a peut-être encore du travail à faire.

Mais nous ne pouvons continuer que sur des données données, et il semble que les systèmes de Pinterest s’améliorent et aident à protéger les utilisateurs contre l’exposition aux pires types de contenu tout en réduisant l’amplification de ce contenu.