Comment l’algorithme de Facebook échappe au contrôle de ses créateurs

Le Monde – Enquête – Dans des documents internes de l’entreprise, ses ingénieurs avouent leur incompréhension face à un code informatique aux effets imprévus, qui fait du réseau social une machine complexe, difficile à maîtriser.

 

C’est peut-être le principal sentiment qui émerge à la lecture des « Facebook Files ». Parmi ces milliers de pages de documents internes à Facebook, récupérés par Frances Haugen, une ancienne employée, et transmis par une source parlementaire américaine à plusieurs médias, dont Le Monde, de nombreux passages semblent indiquer que Facebook ne comprend plus, ou mal, ce que font ses propres algorithmes. Et que son réseau social est devenu une machine difficile à contrôler.

C’est notamment le cas pour un algorithme crucial, chargé de « classer » les messages qui s’affichent dans le fil d’actualité des utilisateurs : Facebook utilise une multitude de signaux, des plus simples – le nombre de personnes abonnées à une page – aux plus complexes – l’intérêt que les « amis » d’un utilisateur ont manifesté pour un sujet – afin d’attribuer un « score » à un message. Plus ce score est élevé, plus il a des chances d’apparaître dans le fil d’actualités.

 

Or, avec le temps et l’accumulation de nouveaux signaux ajoutés par les ingénieurs du réseau social, le « score » moyen d’un message a explosé. Dans un document non daté, un analyste de Facebook a procédé à quelques calculs, et constate que pour certains contenus, le score « peut dépasser 1 milliard ». Ce qui a pour conséquence très directe de rendre de nombreux outils de modération inopérants. Ces derniers réduisent de 20 %, 30 % ou 50 % le score de certains messages problématiques, afin d’éviter qu’ils ne soient trop diffusés. Mais pour les contenus les mieux notés, le score est tellement élevé que le diviser par deux ne les empêche pas de continuer à s’afficher. « Certains de ces contenus resteraient en tête même si on appliquait une baisse de leur score de 90 % », regrette l’auteur du document.

 

Système complexe sans « vision unifiée »

 

Ce problème n’est absolument pas le résultat d’une politique intentionnellement mise en place, qui considérerait que certains messages devraient être immunisés contre les outils de modération automatiques. C’est simplement l’un des très nombreux effets de bord provoqués par les centaines de modifications des algorithmes de Facebook, au fil des ans, dont les propres ingénieurs du réseau social semblent ne pas pouvoir anticiper toutes les conséquences.

« Les différentes parties des applications de Facebook interagissent les unes avec les autres de façon complexe » et chaque équipe développe des modifications sans qu’il y ait une « vision systémique unifiée », regrette ainsi l’employée Mary Beth Hunzaker, dans une longue note rédigée à l’occasion de son départ de Facebook, en août 2020. La conséquence ? « Un risque accru de problèmes facilités ou amplifiés par des interactions imprévues entre des fonctions ou des services de la plate-forme. »

A de multiples reprises, des employés témoignent, dans des documents internes, de leur incompréhension face à des comportements problématiques de leur code informatique. En Inde, ce sont des vidéos pornographiques soft qui se retrouvent subitement mises en avant dans l’onglet Watch, sans que personne ne comprenne pourquoi. Aux Etats-Unis, des ingénieurs s’arrachent les cheveux pour comprendre pourquoi certains groupes politiques continuent d’être recommandés aux utilisateurs alors qu’ils ne devraient plus l’être.

« Chaque expérience change la composition du fil d’actualité de manière imprévue », note un document de 2018. Deux ans plus tard, les analystes de Facebook se réjouissent de constater que le nombre de contenus engendrant de la colère semble en forte baisse dans les fils d’actualité, mais ils sont bien en peine d’expliquer pourquoi. « Ce résultat pourrait en théorie être la conséquence d’un ou plusieurs changements apportés à l’algorithme dans les deux derniers mois. En dernière analyse, il pourrait être difficile de déterminer lesquels », note un document.

Interrogé à ce sujet, Facebook reconnaît volontiers que ses algorithmes sont devenus des outils très complexes, mais s’enorgueillit de les modifier régulièrement pour les améliorer. Si les conséquences des changements ne sont pas toujours simples à prévoir, le réseau social assure que les sondages qu’il effectue régulièrement auprès de ses utilisateurs lui permettent de détecter rapidement tout problème majeur et, le cas échéant, de revenir en arrière si une modification s’avère trop problématique.

« Des biais »

Ces problèmes ne viennent pas d’un manque de compétence. Facebook recrute certains des meilleurs ingénieurs au monde. Et ces travers ne sont pas non plus spécifiques au réseau social : les mêmes effets de bord imprévus se produisent « à chaque fois que des data scientists et des ingénieurs en informatique mêlent personnalisation du contenu et amplification algorithmique, comme dans le fil de Facebook, l’onglet Pour vous de TikTok ou dans les recommandations de YouTube », écrit Roddy Lindsay, ex-ingénieur chez Facebook, dans une tribune publiée en juin dans le New York Times. Il ajoute :

« Ces algorithmes […] perpétuent des biais et affectent la société d’une manière que leurs créateurs comprennent à peine. Facebook a eu quinze ans pour démontrer que les algorithmes de classement des contenus en fonction de l’engagement [le nombre de commentaires, de partages…] peuvent être conçus de manière responsable ; s’ils n’ont pas réussi à le faire jusqu’à présent, ils n’y arriveront jamais. »

Et, les documents de Facebook le montrent, ce n’est pas faute d’avoir essayé. Les analyses réalisées en interne éclairent d’un jour nouveau les multiples modifications, majeures ou mineures, apportées par Facebook à ses différents algorithmes ces dernières années. A commencer par le crucial pivot de 2018, qui ambitionnait de mettre au premier plan ce que Facebook appelle les « interactions sociales significatives » (meaningful social interactions, ou MSI). Le projet avait un but clair : privilégier les contenus publiés par les proches, photos de famille et textes des amis, au détriment des contenus politiques et de ceux publiés par des médias et des pages « appeau à clic », dont la consommation passive était jugée peu utile par les internautes.

Or, le changement MSI a eu, en partie, l’effet inverse de celui qui était recherché : comme le montrent de multiples analyses postérieures menées par les équipes de Facebook, il a favorisé les contenus clivants. En partie parce que l’algorithme modifié a donné énormément de poids aux contenus partagés par les proches, y compris lorsque ceux-ci provenaient de pages douteuses ou très engagées politiquement. Résultat, les deep reshares, les contenus repartagés par des amis d’amis, ont subitement pris une grande importance dans les fils d’actualités des utilisateurs, tout en étant, d’après les propres recherches de Facebook, l’un des principaux vecteurs de diffusion pour des pages d’extrême droite ou complotistes.

Une modification d’algorithme, en 2018, a eu en partie l’effet inverse de celui recherché : il a favorisé les contenus clivants

Depuis, fin avril 2019, une analyse menée au sein de l’équipe « integrity », chargée d’étudier et de proposer des solutions contre la désinformation ou les contenus dangereux chez Facebook, estimait qu’une baisse massive du poids de ces deep reshares permettrait de réduire la visibilité des messages de désinformation de 25 % à 50 %, selon les formats. Ce serait « une manière efficace et neutre pour limiter les risques que posent les contenus les plus dangereux [sur la politique ou la santé] », estimait alors l’auteur de la proposition.

« Nous avons d’autres outils pour réduire la visibilité de certains types de contenus, comme les messages haineux ou les photos de nus », explique un porte-parole de Facebook. La diminution globale du poids des deep reshares est un « outil brutal, qui touche aussi des messages positifs ou anodins en même temps que les discours possiblement violents ou provocateurs, et nous l’utilisons donc avec discernement ». Facebook l’a mis en place récemment et de manière temporaire en Ethiopie, en Birmanie, aux Etats-Unis ou au Sri Lanka.

Longue liste de tâtonnements

Les détracteurs de l’entreprise, dont Frances Haugen, l’accusent de privilégier, dans les choix de réglages de sa plate-forme, ses chiffres d’engagement des utilisateurs : l’activité, le temps passé, le nombre de likes, de partages… Facebook ignorerait donc largement les conséquences négatives de ses changements d’algorithmes. En 2020, pour l’élection présidentielle américaine, l’entreprise avait mis en place toute une série de mesures préventives, qu’elle a désactivées une fois l’élection passée – avant d’en réactiver une partie le 6 janvier, lors de l’attaque du Capitole menée par les partisans de Donald Trump.

Ces allers-retours sont-ils le signe que l’entreprise cherche surtout à protéger ses statistiques d’usage, cruciales pour vendre de la publicité ? Facebook le nie avec véhémence, et affirme avoir parfois pris des mesures qui réduisaient l’engagement, lorsque c’était nécessaire pour la sécurité de ses utilisateurs. En 2018, le changement d’algorithme avait pour but « de prioriser le contenu des amis et des familles et était fondé sur des études d’experts du bien-être, a ainsi expliqué au Monde début octobre Monika Bickert, la responsable des politiques de contenu de Facebook. Et, comme nous nous y attendions, ce changement a en fait réduit le temps passé sur la plate-forme, de 50 millions d’heures par jour. »

Plus généralement, Facebook assure que privilégier à tout prix « l’engagement » serait un non-sens pour l’entreprise, car son intérêt à long terme est que ses utilisateurs – et annonceurs – se sentent bien sur la plate-forme, pour s’assurer qu’ils y restent. La longue liste des tâtonnements et des modifications laisse cependant entrevoir toute la complexité d’algorithmes devenus difficiles à maîtriser, et dont les conséquences ne sont pas toujours immédiatement détectables. Malgré les nombreux changements, des problèmes demeurent.

Au fil des ans, les mesures proposées par les membres de l’équipe « integrity » semblent de plus en plus complexes, quand elles ne contournent tout simplement pas le problème en suggérant des modifications, non plus des algorithmes, mais de l’interface. Ainsi, plusieurs documents des deux dernières années évoquent comme piste l’idée d’ajouter des éléments de « friction » pour inciter les utilisateurs à moins partager certains types de contenus, par exemple en le forçant à cliquer sur un article avant de le rediffuser.

Un document d’avril 2020 propose, lui, la mise en place d’un outil « de transparence interne pour centraliser l’assurance-qualité et le contrôle des rétrogradations de contenus dans le fil d’actualité », signe que, même pour les équipes travaillant sur ces sujets, avoir une vue transversale des modifications faites dans l’entreprise est difficile.

 

Certaines pistes de changement les plus récentes semblent même avoir un côté paradoxal, et presque ironique : depuis début 2021, Facebook mène « dans 70 pays » des expériences pour afficher moins de contenus politiques dans les fils de ses utilisateurs et a pérennisé ce changement aux Etats-Unis et au Canada. « C’est une copie carbone de ce qu’ils disaient déjà en 2018 », s’amuse Katie Harbath, une autre ancienne employée du réseau social partie en 2021 pour fonder son entreprise. « La réduction des contenus politiques était l’une des raisons principales du changement d’algorithme MSI : on a vraiment l’impression qu’on tourne en rond », regrette-t-elle.

Secret industriel

Si l’une des plus puissantes entreprises au monde ne parvient pas à remplir ses propres objectifs, c’est peut-être aussi parce que bon nombre de mesures mises en place par Facebook ces trois dernières années vont directement à l’encontre, non pas de son modèle économique, mais de l’essence même de sa plate-forme et de ses algorithmes. Dans le fil d’actualité, tout comme dans les recommandations de pages ou de groupes à suivre, Facebook a surtout cherché à construire une machine à amplifier, capable de détecter les contenus et les comptes qui susciteront l’enthousiasme de ses utilisateurs. Rendre plus difficile le partage, masquer, ou réduire la visibilité de ces contenus qui « marchent », est fondamentalement contraire à la mission première de l’algorithme.

Lire la suite

 

 

 

 

et

 

 

 

 

 

Source : Le Monde

 

 

 

 

 

Diffusion partielle ou totale interdite sans la mention : Source www.kassataya.com

Articles similaires

Bouton retour en haut de la page