Meta veut aider à étendre les efforts plus larges de l’industrie pour détecter et supprimer le contenu lié au terrorisme en publiant le Hasher Matcher Action (HMA) outil, qui identifie les copies d’images ou de vidéos en ligne, permettant une meilleure détection sans faire des copies du matériel source lui-même.

Comme vous pouvez le voir dans cet aperçu, l’objectif du système HMA de Meta est d’aider à identifier le contenu offensant sans le redistribuer à cette fin, limitant efficacement les échantillons de ce matériel tout en permettant la découverte.
L’annonce du lancement plus large de HMRC intervient alors que Meta se prépare également à assumer le rôle de président de Forum Internet mondial sur la lutte contre le terrorisme (GIFCT) Operating Committee, qui est un ensemble d’entreprises technologiques qui se sont réunies pour lutter contre le contenu terroriste en ligne par le biais de la recherche, de la collaboration technique et du partage des connaissances.
Meta espère utiliser son temps dans le rôle pour étendre la collaboration grâce à l’utilisation d’outils comme HMA.
Comme l’explique Meta :
“Plus il y a d’entreprises qui participent à la base de données de partage de hachage, mieux elle est et plus complète – et mieux nous réussissons à garder le contenu terroriste hors d’Internet, d’autant plus que les gens changent souvent de plateforme pour partager ce contenu.
Meta affirme avoir fait de grands progrès dans la détection et la suppression des contenus préjudiciables, en particulier les contenus liés au terrorisme, qui ont beaucoup moins de portée sur Facebook et Instagram. Ses applications de messagerie évoluent cependant vers un cryptage complet par défaut, ce qui pourrait faciliter leur diffusion plus large de manière indétectable, mais le travail continu de Meta aidera idéalement à lutter contre cela sur tous les fronts, dans la mesure du possible, tout en se conformant à l’évolution des attentes des consommateurs en matière de confidentialité.
Il s’agit d’un domaine critique pour toutes les plateformes sociales, et même si certaines assouplissent désormais leur approche de certaines formes de discours de haine potentiels, dans l’ensemble, les leçons apprises au fil du temps semblent aider à résoudre ces problèmes et à limiter la propagation de mouvements dangereux.