Scroll to read more


2022 sera-t-elle une année charnière pour la réglementation des plateformes de médias sociaux ?

Il est encore difficile de déterminer comment les différentes approches proposées pour la législation sur les médias sociaux fonctionneront réellement et quel impact elles auront, mais avec le Royaume-Uni décrivant sa dernière tentative pour tenir les plateformes sociales plus responsables du contenu qu’elles hébergent, le mouvement pour des les changements réglementaires se multiplient, ce qui devrait constituer un point clé de débat au cours de l’année prochaine.

Le Royaume-Uni a proposé ‘Projet de loi sur la sécurité en ligne‘, annoncé plus tôt dans la journée, présente de nouvelles protections pour les jeunes utilisateurs et des réglementations plus strictes sur les fausses publicités et les escroqueries afin de mieux protéger les consommateurs en ligne.

Comme expliqué par BBC:

Le rapport recommande également la création d’un large éventail de nouvelles infractions pénales, fondées sur propositions de la Commission des lois, et porté dans le projet de loi, y compris ppromouvoir ou « attiser » la violence à l’égard des femmes, ou fondée sur le sexe ou le handicap et kdistribuant actuellement de la désinformation gravement préjudiciable

Essentiellement, le projet de loi vise à mettre en œuvre des sanctions plus sévères pour les plateformes sociales afin de garantir qu’elles soient davantage tenues responsables de l’application, afin de répondre aux préoccupations croissantes concernant l’influence de la communication et de la connexion numériques. Mais des questions subsistent quant à savoir comment, exactement, ces réglementations peuvent être appliquées efficacement, beaucoup se résume à ce qui est considéré comme « raisonnable » en ce qui concerne les délais de réponse lors du traitement de telles plaintes.

Divers groupes de réglementation ont cherché à mettre en œuvre des règles et des sanctions d’application similaires, en imposant des paramètres plus clairs concernant ce que les plateformes sociales sont censées faire en réponse aux plaintes officielles. Mais Meta a généralement été en mesure de faire valoir qu’on ne peut raisonnablement s’attendre à ce qu’il supprime le contenu dans, disons, 24 heures, à moins qu’il n’en soit informé. Lorsqu’une plainte officielle est émise, une telle réponse peut être adoptée, mais souvent, les dommages sont causés par un contenu qui n’a pas suscité d’inquiétude initiale, ce qui rend difficile une application vraiment efficace.

Pour sa part, Meta a souligné à plusieurs reprises sa volonté d’amélioration continue dans ce domaine, via ses Rapports d’application des normes communautaires, mais des écarts subsistent entre les attentes de la communauté et du gouvernement, et une capacité d’action réaliste, étant donné que tous les utilisateurs peuvent publier ce qu’ils veulent, en temps réel, et que les systèmes automatisés, tout en s’améliorant, ne peuvent pas tout saisir avant que quiconque ne le voie.

Les arguments se résument ensuite à ce qui est raisonnable, à ce qui est possible dans l’application et l’action, et encore une fois, le décalage restant entre ce que les régulateurs attendent et ce que les plateformes sociales, compte tenu de leur nature en temps réel, peuvent fournir.

Est-il possible de combler un jour de telles perspectives – et plus important encore, des sanctions plus sévères amélioreront-elles réellement cette situation de quelque manière que ce soit ?

C’est difficile à dire sur une base générale, mais il y a d’autres éléments pour lesquels Meta peut être tenu pour responsable, et où il semble devoir faire face à encore plus de pression au cours de la prochaine année alors que les gouvernements cherchent plus de moyens de prendre les choses en main, et exercer le contrôle là où ils le peuvent.

Un élément clé sur ce front est le partage des données des utilisateurs et leur accessibilité aux forces de l’ordre. À l’heure actuelle, Meta est en train de mettre en œuvre un cryptage de bout en bout en standard dans toutes ses applications de messagerie (Messenger, WhatsApp et Instagram Direct), qui, selon diverses autorités, offrira une protection contre les activités criminelles en bloquant la détection potentielle. et les mesures d’interception.

Meta prétend qu’il s’efforce de s’aligner sur les attentes croissantes en matière de confidentialité des données, mais divers gouvernements s’efforcent maintenant de mettre en œuvre de nouvelles mesures pour soit bloquer son plans de cryptage ou établir de nouvelles méthodes pour extraire les données des utilisateurs des plateformes sociales.

Par exemple, le gouvernement australien a récemment annoncé nouvelle législation cela forcerait essentiellement les sociétés de médias sociaux à révéler l’identité des comptes de trolls anonymes, offrant ainsi une voie d’action en justice contre ces utilisateurs.

Selon Le gardien:

« En vertu de la législation, les lois obligeraient les sociétés de médias sociaux à collecter les informations personnelles des utilisateurs actuels et nouveaux, et permettraient aux tribunaux d’accéder à l’identité des utilisateurs pour lancer des affaires de diffamation.

Ce qui est défectueux en soi, car les plates-formes sociales n’appliquent actuellement pas l’identité des utilisateurs et n’attachent pas les informations de contact du monde réel aux comptes, en tant que telles. S’il était adopté, cela forcerait essentiellement les plates-formes à confirmer les informations du monde réel de millions d’utilisateurs, ce qui serait une entreprise majeure en soi, et c’est avant même d’envisager les implications de la liberté d’expression et de l’application de la loi.

La Haute Cour d’Australie a également approuvé une interprétation juridique qui impose davantage de responsabilités sociétés de médias en ce qui concerne l’incitation à des commentaires diffamatoires sur leurs pages Facebook. Certains ont suggéré que les médias seraient tenus légalement responsables de tous les commentaires sur leurs profils de médias sociaux, mais les détails réels de l’affaire sont beaucoup plus nuancés, avec un lien direct requis entre l’incitation et l’action afin de demander un recours juridique.

C’est vraiment là que toutes ces approches législatives et réglementaires s’emmêlent – l’interprétation entre la cause et l’effet réels, et comment cela fonctionne dans un sens juridique lorsque l’on considère le discours en ligne. Les plates-formes sociales ont changé les paradigmes de la communication, en offrant à chacun une plate-forme pour se faire entendre, l’immédiateté du format rendant essentiellement l’application impossible, car il n’y a pas de modération entre l’utilisateur et la sortie.

Et avec des milliards d’utilisateurs, il n’est possible pour aucune plate-forme de modérer tous les commentaires à grande échelle, ce qui signifie que les sanctions basées sur le temps pour la réponse aux plaintes officielles sont vraiment le seul mécanisme pour appliquer ces règles, et les interprétations techniques autour de celles-ci laissent également un beaucoup de place pour le débat.

Ainsi, même s’il semble que les murs réglementaires se referment autour des plateformes sociales, il reste en réalité beaucoup de zones grises au sein de chaque approche. Et bien que les gouvernements tiennent à présenter leurs « solutions », en particulier à l’approche de leurs élections respectives, étant donné l’accent plus large mis sur la désinformation et les abus sur les réseaux sociaux, il semble que nous sommes encore loin de progrès réels et solides. .

Diverses approches produisent des résultats, mais une approche réglementaire internationale plus uniforme de la parole numérique et de l’application doit être établie pour définir des paramètres et des attentes clairs à tous les niveaux, dans toutes les régions, qui idéalement incluront également des paramètres relatifs à l’amplification algorithmique, et le rôle qu’il joue dans la dynamisation de certains éléments.

L’écart entre la démagogie, à des fins politiques, et une action réelle et efficace obscurcit les véritables progrès sur ces éléments clés.