L’auto-classification des messages sociaux résoudra-t-elle les principaux problèmes de modération du discours en ligne ?

La modération de contenu est un sujet brûlant dans les cercles des médias sociaux en ce moment, alors qu’Elon Musk s’efforce de réformer Twitter tout en faisant connaître les actions de modération passées comme une illustration de la façon dont les applications de médias sociaux ont acquis trop de pouvoir pour contrôler certaines discussions.

Mais bien que Musk ait mis en évidence les défauts perçus dans le processus, la question est maintenant de savoir comment y remédier ? Si les décisions de contenu ne peuvent pas être confiées à de petites équipes de cadres en charge des plateformes elles-mêmes, quelle est l’alternative ?

L’expérience de Meta avec un panel d’experts extérieurs a généralement été couronnée de succès, mais même dans ce cas, son conseil de surveillance ne peut pas se prononcer sur chaque décision de contenu, et Meta fait toujours l’objet de vives critiques pour la censure et les préjugés perçus, malgré ces fonds alternatifs. En appel.

À un certain niveau, certains éléments de la prise de décision incomberont inévitablement à la gestion de la plate-forme, à moins qu’une autre voie ne puisse être imaginée.

Des occasions alternatives, basées sur des préférences personnelles, pourraient-elles être une autre façon d’aborder ces questions ?

Certaines plateformes en tiennent compte. Comme l’a rapporté le Washington Post, TikTok explore actuellement un concept qu’il appelle “Content Tiers” dans le but d’empêcher le contenu “mature” d’apparaître dans les flux des jeunes téléspectateurs.

TikTok fait l’objet d’un examen de plus en plus minutieux sur ce front, en particulier en ce qui concerne les défis de tendance dangereux, dans lesquels certains jeunes ont été tués à la suite d’activités à risque.

Elon Musk a également vanté une approche similaire du contrôle du contenu dans le cadre de sa vision plus large de “Twitter 2.0”.

Dans la variante de Musk, les utilisateurs classifieraient eux-mêmes leurs tweets au fur et à mesure qu’ils les téléchargeraient, les lecteurs pouvant alors appliquer leur propre cote de maturité, d’une certaine manière, pour aider à reléguer le contenu potentiellement dangereux dans une catégorie distincte.

Le résultat final dans les deux cas signifierait que les utilisateurs pourraient alors choisir parmi différents niveaux d’expérience dans l’application – de “sûr”, qui filtrerait les commentaires et les discussions les plus extrêmes, à “non filtré” (Musk irait probablement avec “hardcore” ), qui vous donnera l’expérience complète.

Ce qui semble intéressant, en théorie – mais en réalité, les utilisateurs classeraient-ils eux-mêmes leurs tweets et obtiendraient-ils ces notes correctes assez souvent pour faire de ce type de filtrage une option viable ?

Bien sûr, la plateforme peut mettre en place des pénalités pour ne pas classer ou mal classer vos tweets. Peut-être que pour les récidivistes, tous leurs tweets sont automatiquement filtrés dans la segmentation la plus extrême, tandis que d’autres peuvent atteindre une audience maximale en affichant leur contenu dans les deux ou tous les flux.

Cela nécessiterait plus de travail manuel pour les utilisateurs, lors du choix d’une classification dans le processus de construction, mais peut-être que cela pourrait atténuer certaines inquiétudes ?

Mais encore une fois, cela n’empêchera toujours pas les plateformes sociales d’être utilisées pour amplifier les discours de haine et alimenter des mouvements dangereux.

Dans la plupart des cas où Twitter ou d’autres applications sociales sont passés à censurer les utilisateurs, c’est à cause de la menace de préjudice, pas parce que les gens sont nécessairement offensés par les commentaires faits.

Par exemple, lorsque l’ancien président Donald Trump a annoncé :

Tweet de Donald Trump

L’inquiétude n’était pas tant que les gens seraient offensés par son commentaire “quand le pillage commence, le tournage commence”, mais plutôt que les partisans de Trump pourraient voir cela essentiellement comme une licence de tuer, avec le président, il l’approuve effectivement. recours à la force meurtrière pour dissuader les voleurs.

Les plates-formes sociales, logiquement, ne veulent pas que leurs outils soient utilisés pour propager un préjudice potentiel de cette manière, et à cet égard, l’autocensure ou le choix d’une note de maturité pour vos publications ne résoudra pas ce problème clé, ne fera que masquer de tels commentaires d’utilisateurs qui choisissent de ne pas le voir.

En d’autres termes, il s’agit plus d’obscurcissement que d’amélioration de la sécurité – mais beaucoup semblent croire que le vrai problème n’est pas que les gens disent et veulent dire de telles choses en ligne, mais que d’autres sont offensés par de telles choses.

Ce n’est pas le problème, et bien que cacher du matériel potentiellement offensant puisse avoir une certaine valeur pour réduire l’exposition, en particulier, dans le cas de TikTok, à un public plus jeune, cela n’empêchera toujours pas les gens de profiter de l’énorme potentiel de portée des applications sociales. haine. et des appels à l’action dangereux, qui peuvent en fait causer des dommages dans le monde réel.

Il s’agit essentiellement d’une offre partielle, d’une dilution de la responsabilité qui aura un certain impact, dans certains cas, mais qui n’abordera pas la responsabilité fondamentale des plateformes sociales de s’assurer que les outils et les systèmes qu’elles ont créés ne sont pas utilisés à des fins dangereuses. .

Parce qu’ils le sont et le resteront. Les plateformes sociales ont été utilisées pour inciter des troubles civils, des soulèvements politiques, des émeutes, des coups d’État militaires et plus encore.

Juste cette semaine, une nouvelle poursuite a été déposée contre Meta pour avoir permis ‘Les messages violents et haineux en Éthiopie fleuriront sur Facebook, alimentant la guerre civile sanglante du pays‘. Le procès réclame 2 milliards de dollars de dommages et intérêts pour les victimes de la violence.

Ce ne sont pas seulement les opinions politiques avec lesquelles vous n’êtes pas d’accord, mais les plateformes de médias sociaux peuvent être utilisées pour alimenter des mouvements réels et dangereux.

Dans de tels cas, aucune quantité d’auto-validation n’est susceptible d’aider – il y aura toujours une certaine charge sur les plates-formes pour définir les règles, afin de garantir que ces types de scénarios les plus défavorables sont traités.

Cela, ou les règles devraient être fixées à un niveau supérieur, par les gouvernements et les agences conçues pour mesurer l’impact de celles-ci, et agir en conséquence.

Mais en fin de compte, le problème central ici n’est pas celui des plateformes sociales permettant aux gens de dire ce qu’ils veulent et de partager ce qu’ils veulent, comme le soutiennent de nombreux défenseurs de la « liberté d’expression ». À un certain niveau, il y aura toujours des frontières, il y aura toujours des garde-fous, et parfois ceux-ci peuvent aller au-delà des lois du pays, compte tenu du potentiel d’amplification des lieux sociaux.

Il n’y a pas de réponses faciles, mais s’en remettre à la volonté du peuple a peu de chances d’améliorer la situation sur tous les fronts.