Scroll to read more


Les abus ont toujours été un problème sur Twitter, la toxicité de la plateforme étant une supply de débats constants et d’accusations, à peu près depuis sa création.

Mais Twitter a travaillé pour résoudre ce problème. Après des années d’motion apparemment limitée, au cours des 12 derniers mois, Twitter a déployé une gamme de nouvelles choices de contrôle, y compris des contrôles de réponse pour limiter les commentaires indésirables, des avertissements sur les réponses potentiellement nuisibles et/ou offensantes, et le mode de sécurité qui permet à unavertit les utilisateurs lorsque leurs tweets suscitent une consideration négative.

Collectivement, ces nouvelles fonctionnalités pourraient avoir un influence vital – et Twitter n’est pas encore terminé. Cette semaine, Twitter a présenté quelques nouvelles choices de contrôle supplémentaires qui pourraient aider les utilisateurs à éviter les interactions négatives et le stress psychological qui peut les accompagner, lorsque vos tweets deviennent la cible d’abus.

Tout d’abord, Twitter développe de nouveaux Les choices « Filtre » et « Limiter », qui, comme Twitter Remarques, serait conçu pour aider les utilisateurs à exclure le contenu potentiellement dangereux (et les personnes qui le créent) de leurs réponses.

Filtre et limite Twitter

Comme vous pouvez le voir ici, la nouvelle possibility vous permettrait de filtrer automatiquement les réponses contenant des remarques potentiellement offensantes, ou des utilisateurs qui vous tweetent à plusieurs reprises avec lesquels vous ne vous engagez jamais. Vous pouvez également empêcher ces mêmes comptes de répondre à vos tweets à l’avenir.

Mais encore plus vital, l’possibility Filtre signifierait également que toutes les réponses que vous choisissez de masquer ne seraient pas non plus visibles pour personne d’autre dans l’software, à l’exception de la personne qui les a tweetées, ce qui est similaire à l’possibility “Masquer” de Fb pour les commentaires de publication. .

C’est un changement d’approche vital. Jusqu’à présent, Twitter permettait aux utilisateurs de masquer le contenu de leur propre vue dans l’software, mais d’autres peuvent toujours le voir. Le contrôle de filtre augmenterait le pouvoir des utilisateurs individuels de masquer totalement de tels commentaires – ce qui est logique, dans la mesure où ce sont des réponses à vos tweets. Mais vous pouvez aussi imaginer qu’il pourrait être utilisé à mauvais escient par des politiciens ou des marques qui souhaitent faire taire les mentions négatives.

C’est probablement une considération plus importante sur Twitter, où la nature en temps réel de l’software invite à la réponse et à l’interplay, et dans certains cas, des défis à ce que les gens disent, en particulier sur des questions d’actualité ou d’actualité. Si les gens pouvaient alors mettre fin à cette dialogue, cela pourrait avoir ses propres impacts potentiels – mais encore une fois, le tweet authentic serait toujours là pour référence, et les utilisateurs pourraient théoriquement toujours citer le tweet qu’ils veulent.

Et vraiment, avec les contrôles de réponse déjà présents dans l’software, ce n’est probablement pas très lengthy, et cela pourrait bien permettre aux utilisateurs de se débarrasser de certains des trolls et des creeps qui se cachent dans leurs réponses, ce qui pourrait améliorer l’engagement world dans l’software.

En plus de cela, Twitter développe également un nouveau Message d’alerte « Attention », qui avertirait les utilisateurs des sections de commentaires potentiellement conflictuelles avant qu’ils ne se lancent.

Twitter en tête

Cela pourrait vous éviter de vous tromper dans un bourbier de toxicité et de devenir involontairement un lobby d’abus. Comme vous pouvez le voir sur la deuxième seize d’écran, l’invite inviterait également les utilisateurs à être plus prévenants dans leur processus de tweet.

Je ne pense pas que cela aurait un influence vital sur le comportement des utilisateurs, mais cela pourrait au moins aider à inciter davantage à prendre en compte le processus.

Twitter développe également de nouveaux ‘Filtres de mots‘, qui est une extension de son outils de blocage de mots clés, et s’appuierait sur les systèmes de détection automatisés de Twitter pour filtrer les commentaires potentiellement offensants.

Filtres de mots Twitter

Comme vous pouvez le voir ici, l’possibility inclurait des bascules distinctes pour filtrer automatiquement les discours haineux, les spams et les grossièretés, sur la base de la détection du système de Twitter, offrant un autre moyen de limiter l’exposition indésirable dans l’software.

Ceux-ci semblent être des ajouts utiles, et bien qu’il y ait toujours des inquiétudes que les gens utilisent ces outils essentiellement comme des œillères pour bloquer tout ce qu’ils ne veulent pas traiter, ce qui pourrait limiter un discours utile et une perspective importante, si c’est ce qui donne aux gens un meilleure expérience dans l’software, pourquoi ne pourraient-ils pas le faire ?

Bien sûr, l’idéal serait un débat clever éclairé sur toutes les questions, où les gens restent courtois et respectueux en tout temps. Mais c’est Twitter, et ça n’arrivera jamais. En tant que tel, fournir plus d’choices de contrôle pourrait être la meilleure voie à suivre, et il est bon de voir Twitter prendre davantage de mesures pour traiter ces éléments clés.