Twitter développe un nouveau test de compte “humain” pour lutter contre les bots in-app

Comment testez-vous “l’humanité” dans l’activité des médias sociaux, et y a-t-il vraiment un moyen de le faire sans vous faire arnaquer ?

Twitter semble croire que c’est possible, avec ce nouveau message détecté dans le code-behind de l’application.

Test humain sur Twitter

Comme vous pouvez le voir dans cette notification, découverte par un chercheur d’application Alessandro PaluzziTwitter travaille sur un nouveau processus qui empêchera apparemment les utilisateurs d’utiliser certains éléments de l’application jusqu’à ce qu’ils puissent prouver qu’ils sont réellement humains – “en passant du temps à interagir avec votre chronologie et à vous connecter avec les autres”.

Si vous réussissez le test des personnes, vous verrez une meilleure visibilité des tweets et vous aurez également un accès complet à ses outils DM.

Mais encore une fois, ce qui pourrait impliquer ce test humain pourrait être complexe. Quelles actions un humain peut-il entreprendre qu’un bot ne peut pas, et comment Twitter peut-il les mesurer, devinez-vous, de manière automatisée ?

Vous supposeriez que Twitter ne serait pas en mesure de détecter quelque chose comme ça, car cela l’ouvrirait certainement aux escrocs. Mais il n’y a pas grand-chose qu’un utilisateur régulier puisse faire qu’un bot ne puisse pas faire. Vous pouvez programmer un compte bot pour suivre/ne plus suivre des personnes, retweeter d’autres personnes, envoyer des tweets.

Il semble qu’il serait assez difficile d’identifier l’activité des bots – mais le nouveau patron de Twitter, Elon Musk, est déterminé à lutter contre le problème des bots de l’application, qui est si grave qu’à un moment donné, Musk a tenté de mettre fin complètement à l’accord de rachat de Twitter. car la plate-forme est envahie par des comptes de robots.

En août, l’équipe juridique de Musk a déposé une requête alléguant que 27 % du nombre de mDAU de Twitter – soit un peu plus de 64 millions d’utilisateurs – étaient en fait des bots, tandis que seulement 7 % des vrais utilisateurs humains de Twitter ont vu la majorité de ses publicités.

Twitter a longtemps considéré que les bots/spam ne représentaient que 5 % de sa base d’utilisateurs, mais l’équipe de Musk a remis en question la méthodologie de ce processus, qui indique que Twitter ne mesure qu’un échantillon aléatoire de 9 000 comptes au cours de chaque période de rapport.

Cependant, depuis son entrée en fonction, Musk a vanté la base d’utilisateurs de Twitter, qui, selon Musk, est maintenant à un niveau record. Mais selon l’évaluation de son équipe, il semble que les bots constitueront toujours une part importante de ces profils, c’est pourquoi l’équipe Twitter 2.0 souhaite mettre en œuvre de nouvelles mesures pour supprimer les bots et fournir plus d’assurances aux partenaires publicitaires. et utilisateurs.

Cela inclut une meilleure détection et suppression des bots (Musk dit Twitter supprimé un tas de comptes de robots au cours de la semaine dernièreet depuis seuils de détection de bot abaissés après avoir également supprimé un certain nombre de comptes non-bot), alors qu’il inclura également le nouveau système de vérification à 8 $ de Twitter, qui implémente ce que Musk appelle la “vérification des paiements” – c’est-à-dire. les robots et les escrocs ne paieront pas pour enregistrer leurs comptes, de sorte que le programme mettra également efficacement en évidence de vraies personnes.

Et s’il voit suffisamment de téléchargements, cela pourrait être une autre étape cruciale dans la lutte contre les bots, la majorité des vrais utilisateurs affichant finalement une vérification vérifiée. La probabilité qu’un nombre suffisant de personnes s’inscrivent pour en faire une considération viable à cet égard est douteuse, mais en théorie, cela pourrait être un autre élément de la compression des bots de Twitter.

La révélation intervient également alors que Twitter confirme qu’il se penche désormais davantage vers l’automatisation pour modérer le contenu, suite aux récentes réductions de personnel impliquant des milliers de son équipe de modération.

Afin de gérer davantage, avec moins de surveillance humaine, Twitter réduit l’examen manuel des cas, ce qui rend encore plus rapide la suppression de plus de contenu dans certains domaines, y compris le matériel prétendument exploité par des enfants.

Le recours accru à l’automatisation conduira inévitablement à des rapports et des actions plus inexacts, mais Twitter fait désormais preuve de prudence, l’équipe étant habilitée à “agir rapidement et à être aussi agressive que possible” sur ces éléments, selon Vice de la plateforme. Ella Irwin, présidente de la confiance et de la sécurité.

Ce qui peut être une bonne chose. Il est possible qu’avec les progrès de la détection automatique, moins d’interventions manuelles soient désormais nécessaires, ce qui pourrait en faire une voie plus viable qu’elle ne l’aurait été par le passé. Mais le temps nous le dira, et nous ne connaîtrons pas tous les impacts de la nouvelle approche de Twitter tant que nous n’aurons pas de données solides sur les cas de matériel offensant. Ce que nous n’obtiendrons peut-être jamais, maintenant que l’entreprise est une société privée et qu’elle n’est pas tenue de signaler une telle chose au marché.

Des rapports de tiers suggèrent que l’incidence des discours de haine a considérablement augmenté depuis que Musk a repris l’application, tandis que les experts en sécurité des enfants affirment que les changements mis en œuvre par l’équipe de Musk ont ​​jusqu’à présent eu peu d’impact sur la résolution de cet élément.

Cependant, Musk espère qu’en ajoutant une autre couche de responsabilité, grâce à la vérification humaine, cela permettra à son équipe de mieux y faire face, mais encore une fois, il reste à voir exactement comment ses systèmes pourraient mesurer “l’humanité” et à quel point cela peut être efficace. en étouffant l’activité des bots.

En théorie, toutes ces différentes options pourraient fonctionner, mais l’histoire des applications sociales et de la modération de contenu suggère que ce ne sera pas facile et qu’il n’y a pas de solution unique pour résoudre les problèmes et éléments clés à portée de main.

Ce que la nouvelle équipe de Twitter reconnaît, en mettant en œuvre une série de mesures – et il sera intéressant de voir s’il existe vraiment un moyen de lutter contre ces préoccupations clés sans recourir à des brigades d’équipes de modération chargées de trier le pire de l’humanité. tous les jours.

Mener un test “humain” sera difficile, mais peut-être que, grâce à une combinaison d’idées de diverses entreprises et de collaborateurs de Musk, quelque chose peut être ajouté au mélange pour améliorer les systèmes disponibles.