Scroll to read more


C’est une expérience intéressante – TikTok a décrit comment il cherche à réduire les impacts potentiellement nocifs de l’amplification de l’algorithme en limitant la quantité de vidéos dans certaines catégories sensibles qui sont mises en évidence dans les flux d’utilisateurs « Pour vous ».

Cela pourrait réduire la polarisation et empêcher les utilisateurs de se sentir dépassés par certains sujets.

Comme expliqué par TIC Tac:

Nous reconnaissons que trop de choses – qu’il s’agisse d’animaux, de conseils de remise en forme ou de voyages de bien-être personnel – ne correspondent pas à l’expérience de découverte diversifiée que nous visons à créer. C’est pourquoi notre système de recommandation fonctionne pour insérer des recommandations qui pourraient ne pas correspondre aux préférences exprimées par les gens, offrant ainsi l’opportunité de découvrir de nouvelles catégories de contenu. Par exemple, nos systèmes ne recommandent pas deux vidéos d’affilée réalisées par le même créateur ou avec le même son. Cela enrichit l’expérience de visionnage et peut aider à promouvoir l’exposition à une gamme d’idées et de perspectives sur notre plate-forme.

Cela, en soi, contribue à élargir l’expérience TikTok et à garder les choses à jour. Mais maintenant, TikTok cherche également à étendre ses limites système pour s’assurer que les utilisateurs ne voient pas trop de contenu sur certains sujets.

Alors que nous continuons à développer de nouvelles stratégies pour interrompre les schémas répétitifs, nous examinons comment notre système peut mieux varier les types de contenu pouvant être recommandés dans une séquence. C’est pourquoi nous testons des moyens d’éviter de recommander une série de contenus similaires – comme autour d’un régime ou d’une forme physique extrême, de la tristesse ou des ruptures – pour éviter de trop visionner une catégorie de contenu qui peut être bien comme une seule vidéo mais problématique si vues en grappes.

Ce qui est en fait une préoccupation clé, avec des algorithmes, utilisant des qualificatifs binaires, travaillant pour vous montrer davantage ce avec quoi vous vous engagez, sans le contexte de la raison pour laquelle vous pourriez regarder ou interagir autrement avec certains clips.

Si vous êtes dans un état vulnérable et que vous finissez par regarder plus de vidéos liées à des problèmes similaires, cela pourrait indiquer à un système algorithmique que vous êtes intéressé par plus de ce contenu – alors qu’en réalité, vous acheminez plus de ce matériel, à à ce moment-là, pourrait en fait causer plus de dommages, qu’un système d’apprentissage automatique ne peut pas comprendre, sans conseils supplémentaires.

C’est une exploration intelligente de TikTok – et bien qu’elle ne soit pas nécessairement en mesure de détecter tous les cas possibles de dommages potentiels à cet égard, si elle peut limiter les impacts de certains des pires éléments, cela pourrait être important.

En plus de cela, TikTok développe également une nouvelle option cela permettrait aux gens de choisir des mots ou des hashtags disqualifiants, associés à du contenu qu’ils ne veulent pas voir dans leur flux « Pour vous », afin de réduire les cas d’exposition indésirable, en fonction de leurs préférences personnelles.

Cela pourrait être des vidéos de régime, des tutoriels de maquillage – quel que soit le problème que vous trouvez déclencheur, vous seriez en mesure de réduire, et peut-être même d’éliminer complètement de votre flux, en diminuant les impacts potentiels de celui-ci dans votre expérience.

Compte tenu de sa popularité parmi les jeunes utilisateurs, il s’agit d’un élément essentiel sur lequel TikTok se concentre, la plate-forme étant déjà soumise à un examen minutieux de l’impact que ses tendances et son contenu peuvent avoir sur les jeunes utilisateurs impressionnables, de différentes manières.

Donner aux gens plus de capacité à contrôler leurs recommandations « Pour vous » pourrait être un grand pas – mais encore plus loin, l’amélioration de ses recommandations automatisées sur des sujets potentiellement sensibles pourrait être encore plus utile, car tout le monde n’a pas la conscience de soi pour être en mesure de modérer leur propre expérience de cette manière.

Compte tenu de sa croissance rapide, TikTok a assez bien réussi à fournir des protections algorithmiques jusqu’à présent, et son algorithme addictif, et sa capacité à tirer d’un énorme pool de clips téléchargés publiquement, est vraiment la sauce secrète de l’application et la raison de son énorme succès.

Dans cet esprit, des explorations intelligentes comme celle-ci sont essentielles pour protéger les utilisateurs autant que possible, et TikTok, qui ne repose pas sur des connexions personnelles de la même manière que d’autres applications sociales, a plus de capacité pour cela, ce qui est un élément clé.