Scroll to read more


YouTube a fourni un nouvel aperçu de son l’évolution des efforts pour lutter contre la propagation de la désinformation via des clips YouTubequi met en lumière les différents défis auxquels la plate-forme est confrontée et la manière dont elle envisage ses options pour gérer ces problèmes.

C’est un problème critique, YouTube, avec Facebook, étant régulièrement identifié comme un source principale de contenu trompeur et potentiellement préjudiciableavec des téléspectateurs parfois décrochés trous de lapin de plus en plus profonds de désinformation via les recommandations de YouTube.

YouTube dit qu’il travaille pour résoudre ce problème et se concentre sur trois éléments clés dans cette poussée.

Efforts de désinformation sur YouTube

Le premier élément consiste à détecter la désinformation avant qu’elle ne gagne du terrain, ce qui, selon YouTube, peut être particulièrement difficile avec les nouvelles théories du complot et les poussées de désinformation, car il ne peut pas mettre à jour ses algorithmes de détection automatisés sans une quantité importante de contenu pour former ses systèmes.

Les processus de détection automatisés sont construits sur des exemples, et pour les théories du complot plus anciennes, cela fonctionne très bien, car YouTube a suffisamment de données à alimenter, afin de former ses classificateurs sur ce qu’ils doivent détecter et limiter. Mais les nouveaux changements compliquent les choses, présentant un défi différent.

YouTube dit qu’il envisage diverses façons de mettre à jour ses processus sur ce front et de limiter la propagation de contenus préjudiciables en évolution, en particulier autour du développement de reportages.

“Pour les événements d’actualité majeurs, comme une catastrophe naturelle, nous développons des panneaux d’actualités pour diriger les téléspectateurs vers des articles de texte pour les événements d’actualité majeurs. Pour les sujets de niche que les médias pourraient ne pas couvrir, nous fournissons aux téléspectateurs des cases à cocher factuelles. Mais la vérification des faits prend également du temps, et tous les sujets émergents ne seront pas couverts. Dans ces cas, nous avons exploré d’autres types d’étiquettes à ajouter à une vidéo ou au-dessus des résultats de recherche, comme une clause de non-responsabilité avertissant les spectateurs qu’il manque des informations de haute qualité.

Cela, idéalement, élargira sa capacité à détecter et à limiter les récits émergents, même si cela restera toujours un défi à bien des égards.

Le deuxième élément d’intérêt est le partage multiplateforme et l’amplification du contenu YouTube en dehors de YouTube lui-même.

YouTube dit qu’il peut mettre en œuvre tous les changements qu’il souhaite dans son application, mais si les gens repartagent des vidéos sur d’autres plates-formes ou intègrent du contenu YouTube sur d’autres sites Web, cela rend plus difficile pour YouTube de restreindre sa diffusion, ce qui conduit à d’autres défis pour les atténuer.

“Une façon possible de résoudre ce problème est de désactiver le bouton de partage ou de rompre le lien sur les vidéos que nous limitons déjà dans les recommandations. Cela signifie effectivement que vous ne pouvez pas intégrer ou créer un lien vers une vidéo borderline sur un autre site. Mais nous nous demandons si empêcher les partages peut aller trop loin dans la restriction des libertés d’un spectateur. Nos systèmes réduisent le contenu limite dans les recommandations, mais le partage d’un lien est un choix actif qu’une personne peut faire, distinct d’une action plus passive comme regarder une vidéo recommandée.

C’est un point clé – alors que YouTube veut restreindre le contenu qui pourrait promouvoir la désinformation nuisible, s’il n’enfreint pas techniquement les règles de la plate-forme, dans quelle mesure YouTube peut-il travailler pour limiter cela, sans dépasser la limite ?

Si YouTube ne peut pas limiter la diffusion du contenu par le partage, cela reste un vecteur de préjudice important, il doit donc faire quelque chose, mais les compromis ici sont importants.

“Une autre approche pourrait consister à faire apparaître un interstitiel qui apparaît avant qu’un spectateur puisse regarder une vidéo intégrée ou liée limite, en lui faisant savoir que le contenu peut contenir des informations erronées. Les interstitiels sont comme un ralentisseur : l’étape supplémentaire oblige le spectateur à s’arrêter avant de regarder ou de partager du contenu. En fait, nous utilisons déjà les interstitiels pour les contenus soumis à une limite d’âge et les vidéos violentes ou graphiques, et les considérons comme un outil important pour donner aux spectateurs le choix de ce qu’ils sont sur le point de regarder.

Chacune de ces propositions serait perçue par certains comme un dépassement, mais elles pourraient également limiter la diffusion de contenus préjudiciables. À quel moment, alors, YouTube devient-il un éditeur, ce qui pourrait le soumettre aux règles et processus éditoriaux existants ?

Il n’y a pas de réponses faciles dans aucune de ces catégories, mais il est intéressant de considérer les différents éléments en jeu.

Enfin, YouTube affirme qu’il étend ses efforts de désinformation à l’échelle mondiale, en raison d’attitudes et d’approches différentes à l’égard des sources d’information.

« Les cultures ont des attitudes différentes à l’égard de ce qui rend une source digne de confiance. Dans certains pays, les radiodiffuseurs publics comme la BBC au Royaume-Uni sont largement considérés comme diffusant des informations faisant autorité. Pendant ce temps, dans d’autres, les radiodiffuseurs d’État peuvent se rapprocher de la propagande. Les pays affichent également une gamme de contenus au sein de leur écosystème d’actualités et d’informations, des points de vente qui exigent des normes strictes de vérification des faits à ceux qui ont peu de surveillance ou de vérification. Et les environnements politiques, les contextes historiques et les événements d’actualité peuvent conduire à des récits de désinformation hyperlocaux qui n’apparaissent nulle part ailleurs dans le monde. Par exemple, lors de l’épidémie de Zika au Brésil, certains ont imputé la maladie à des conspirations internationales. Ou récemment au Japon, de fausses rumeurs se sont répandues en ligne selon lesquelles un tremblement de terre aurait été causé par une intervention humaine.

La seule façon de lutter contre cela est d’embaucher plus de personnel dans chaque région et de créer des centres et des processus de modération de contenu plus localisés, afin de prendre en compte les nuances régionales. Bien que même dans ce cas, il existe des considérations quant à la manière dont les restrictions s’appliquent potentiellement au-delà des frontières – un avertissement affiché sur le contenu dans une région devrait-il également apparaître dans d’autres ?

Encore une fois, il n’y a pas de réponses définitives, et il est intéressant de considérer les différents défis auxquels YouTube est confronté ici, alors qu’il travaille à faire évoluer ses processus.

Vous pouvez lire l’aperçu complet de YouTube sur l’évolution de ses efforts d’atténuation de la désinformation ici.