Scroll to read more


Alors, qu’avons-nous appris de la dernière divulgation de documents et de recherches internes sur Facebook ?

Eh bien, pas beaucoup, vraiment. L’ancienne ingénieure de Facebook, Frances Haugen, a publié le mois dernier une première série de rapports internes de The Social Network, qui soulignaient diverses préoccupations, notamment ses difficultés à gérer le contenu anti-vaccin, les impacts néfastes de ses changements d’algorithme et les effets négatifs d’Instagram sur la santé mentale. sur les adolescents.

Haugen a publié un autre groupe de rapports cette semaine, via un effort coordonné avec diverses publications majeures, qui développent ces affirmations initiales et ajoutent plus de détails sur divers aspects. Et tout cela est intéressant, sans aucun doute, tout cela met en lumière ce que Facebook sait de ses systèmes et comment ils peuvent semer la division et l’angoisse, et leurs impacts sociétaux plus larges. Mais les révélations, aussi, soulignent largement ce que l’on savait déjà ou soupçonnait. Que le manque de prise en charge de la langue locale de Facebook a entraîné une augmentation des dommages dans certaines régions, que son réseau est utilisé pour des activités criminelles, y compris la traite des êtres humains, et que Facebook a peut-être privilégié la croissance à la sécurité dans certaines prises de décision.

Tout cela était largement connu, mais le fait que Facebook le sache aussi, et que ses propres recherches le confirment, est significatif et conduira à une toute nouvelle gamme d’actions contre The Social Network, sous différentes formes.

Mais il y a d’autres notes précieuses dont nous n’étions pas au courant et qui sont cachées parmi les milliers de pages d’informations de recherche internes.

Un élément clé, souligné par le journaliste Alex Kantrowitz, se rapporte spécifiquement à l’algorithme controversé du fil d’actualités et à la manière dont Facebook a travaillé pour équilibrer les préoccupations avec l’amplification du contenu à travers diverses expériences.

La principale solution proposée par Haugen dans son discours initial au congrès sur la fuite des fichiers Facebook est que les réseaux sociaux devraient être contraints de cesser complètement d’utiliser des algorithmes basés sur l’engagement, via des réformes des lois de l’article 230, qui, selon Haugen, modifieraient les incitations à l’engagement sur les plateformes sociales et réduiraient les dommages causés par leurs systèmes.

Comme expliqué par Haugen:

« Si nous avions une surveillance appropriée, ou si nous réformions [Section] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu’ils se débarrasseraient du classement basé sur l’engagement.

Mais cela fonctionnerait-il ?

Tel que rapporté par Kantrowitz, Facebook a en fait mené une expérience pour découvrir :

« En février 2018, un chercheur de Facebook a pratiquement fermé l’algorithme de classement du fil d’actualité pour 0,05 % des utilisateurs de Facebook. « Que se passe-t-il si nous supprimons le fil d’actualité classé ? » », ont-ils demandé dans un rapport interne résumant l’expérience. Leurs conclusions : sans un algorithme de fil d’actualités, l’engagement sur Facebook diminue considérablement, les gens cachent 50 % de publications en plus, le contenu des groupes Facebook monte au sommet et – étonnamment – Facebook fait même Suite l’argent des utilisateurs qui parcourent le fil d’actualité.

L’expérience a montré que sans l’algorithme permettant de classer le contenu en fonction de différents facteurs, les utilisateurs passaient plus de temps à faire défiler pour trouver les publications pertinentes, les exposant à plus d’annonces, alors qu’ils finissaient par cacher beaucoup plus de contenu – ce qui, lorsque vous regardez un flux chronologique, n’a pas l’avantage continu de réduire la probabilité que vous voyiez plus de la même chose à l’avenir. Le contenu des groupes a augmenté parce que les utilisateurs sont plus impliqués dans les groupes (c’est-à-dire que chaque fois que quelqu’un publie une mise à jour dans un groupe dont vous êtes membre, vous pouvez le voir dans votre flux), tandis que beaucoup plus de commentaires et de likes de vos amis mènent aux publications de la page apparaissant dans les flux d’utilisateurs.

Donc un point négatif dans l’ensemble, et pas la solution que certains ont vantée. Bien sûr, une partie de cela est également basée sur un comportement habituel, en ce sens que, éventuellement, les utilisateurs cesseraient probablement de suivre certaines pages et les personnes qui publient beaucoup, ils quitteraient certains groupes qui ne les intéressent pas tellement, et ils ‘ d apprendre de nouvelles façons de contrôler leur alimentation. Mais c’est beaucoup d’efforts manuels de la part des utilisateurs de Facebook, et l’engagement de Facebook en souffrirait.

Vous pouvez voir pourquoi Facebook hésiterait à prendre cette option, alors que les preuves ici n’indiquent pas nécessairement que le fil d’actualités est donc moins source de division. Et c’est avant de tenir compte du fait que les escrocs et les pages apprendraient également à jouer avec ce système.

C’est un aperçu intéressant d’un élément clé du débat plus large autour de l’impact de Facebook, l’algorithme étant souvent identifié comme la chose qui a le plus d’impact négatif, en se concentrant sur le contenu qui suscite l’engagement (c’est-à-dire l’argument) afin de garder les gens sur la plate-forme. pour longtemps.

Est-ce vrai? Je veux dire, il y a clairement lieu de faire valoir que les systèmes de Facebook optimisent le contenu susceptible d’inciter les utilisateurs à publier, et le meilleur moyen de déclencher une réponse est la réaction émotionnelle, la colère et la joie étant les motivations les plus fortes. Il semble donc probable que les algorithmes de Facebook, intentionnellement ou non, amplifient les messages argumentatifs, ce qui peut stimuler la division. Mais l’alternative n’est peut-être pas beaucoup mieux.

Alors, quelle est la meilleure façon d’avancer ?

C’est l’élément clé sur lequel nous devons nous concentrer maintenant. Bien que ces informations internes mettent davantage en lumière ce que Facebook sait et ses impacts plus larges, il est également important de considérer quelles pourraient être les prochaines étapes et comment nous pouvons mettre en œuvre de meilleures sauvegardes et processus pour améliorer l’engagement sur les réseaux sociaux.

Ce que Facebook essaie de faire – comme l’a noté le PDG de Facebook Mark Zuckerberg dans réponse à la fuite initiale de fichiers Facebook.

Si nous voulions ignorer la recherche, pourquoi créerions-nous un programme de recherche de pointe pour comprendre ces questions importantes en premier lieu ? Si nous ne nous soucions pas de lutter contre le contenu préjudiciable, alors pourquoi embaucherions-nous autant de personnes dédiées à cela que toute autre entreprise de notre espace – même les plus grandes que nous ?

Facebook se penche clairement sur ces éléments. Le souci se résume alors à savoir où se situent réellement ses motivations, mais aussi, selon cette expérience, ce qui peut être fait pour y remédier. Parce que la suppression complète de Facebook n’aura pas lieu – alors comment pouvons-nous utiliser ces informations pour créer un forum public plus sûr, plus ouvert et moins conflictuel ?

C’est une question beaucoup plus difficile à répondre, et une préoccupation plus profondément réfléchie que beaucoup de reportages hyperboliques autour de Facebook comme étant le méchant.