Scroll to read more


Instagram met en place de nouvelles mesures qui limiter de manière proactive la portée des messages de flux et des histoires qui violent « probablement » ses règles concernant le discours de haine, l’intimidation et l’incitation à la violence, dans le cadre de ses efforts croissants pour réduire les risques liés au jeu et aux utilisateurs dans l’application.

Comme expliqué par Instagram:

“Auparavant, nous nous sommes concentrés sur l’affichage des messages plus bas sur Feed et Stories s’ils contiennent des informations erronées identifiées par des vérificateurs de faits indépendants, ou s’ils sont partagés à partir de comptes qui ont partagé à plusieurs reprises des informations erronées dans le passé. Aujourd’hui, nous annonçons quelques changements pour aller encore plus loin dans cet effort. Si nos systèmes détectent qu’un message peut contenir de l’intimidation, un discours de haine ou peut inciter à la violence, nous l’afficherons plus bas sur les flux et les histoires des abonnés de cette personne.

Alors, comment Instagram déterminera-t-il si les publications non signalées peuvent contenir ces éléments ?

“Pour comprendre si quelque chose peut enfreindre nos règles, nous examinerons des choses comme si une légende est similaire à une légende qui a précédemment enfreint nos règles.”

Instagram note en outre que si ses systèmes prédisent qu’un utilisateur individuel est susceptible de signaler une publication, en fonction de ses antécédents de signalement de contenu, il affichera également cette publication plus bas dans son flux personnel.

Ce qui semble assez infaillible, non ? Il n’y aura pas de nouvel afflux de rapports d'”interdiction fantôme” ou similaires du fait qu’IG s’appuie davantage sur l’apprentissage automatique pour déterminer la portée des publications.

À droite?

Oui, cela pourrait être quelque peu problématique, et compte tenu des efforts déployés par Instagram dans le passé pour expliquer les interdictions fantômes, il semble inévitable que cela conduira à davantage d’accusations de censure, de partialité et d’autres critiques de la plate-forme à la suite de ce changement.

Ce qui n’est probablement pas une si mauvaise récompense, si cela fonctionne. En théorie, cela pourrait être une autre étape clé pour limiter la propagation de l’intimidation et des discours de haine, qui n’ont pas leur place dans un forum public, et n’ont pas le droit d’être amplifiés et diffusés via des applications sociales. Instagram est également sous pression pour améliorer ses efforts pour protéger les jeunes utilisateurs contre l’intimidation et les abus, après la Fuite de fichiers Facebook l’année dernière a suggéré que la société mère Meta avait ignoré les recherches qui montraient qu’Instagram pouvait avoir des effets nocifs sur la santé mentale des adolescents.

Tout ce qui peut être fait pour arrêter la propagation de tels produits vaut au moins une expérience, tandis qu’Instagram note également qu’il a précédemment évité de mettre en place des systèmes automatisés de ce type car il voulait s’assurer que sa technologie “pourrait être aussi précise que possible”. possible’ dans la détection.

Ce qui suggère qu’elle a maintenant le niveau de confiance requis dans ses processus pour assurer de bons résultats. Ainsi, même s’il y aura sans aucun doute plus de rapports d’erreurs et plus d’accusations de dépassement, invoquant un amendement à la constitution (toujours incorrect), si cela fonctionne et réduit les cas de préjudice et d’angoisse mentale dus à l’intimidation et au discours de haine, ce sera tout à fait la peine.