Meta : Censure systémique de contenus pro-palestiniens

Les politiques problématiques devraient être revues et la transparence améliorée

Human Rights Watch – (New York) – Les politiques et systèmes de modération de contenus de Meta réduisent de plus en plus au silence les voix en faveur de la Palestine sur Instagram et Facebook, à la suite de la reprise des hostilités entre les forces israéliennes et les groupes armés palestiniens, a déclaré Human Rights Watch dans un rapport rendu public aujourd’hui.

Le rapport de 51 pages, intitulé « Meta’s Broken Promises: Systemic Censorship of Palestine Content on Instagram and Facebook » (« Les promesses non tenues de Meta : Censure systémique de contenus pro-palestiniens sur Instagram et Facebook »), documente une tendance excessive à la suppression de discours protégés, y compris l’expression pacifique en faveur de la Palestine et le débat public sur les droits humains des Palestiniens.

Human Rights Watch a constaté que le problème provient des politiques de Meta qui sont problématiques et de leur mise en œuvre incohérente et erronée, d’une dépendance excessive à l’égard d’outils automatisés de modération et d’une influence excessive des gouvernements sur les suppressions de contenus.

« La censure par Meta de certains contenus en faveur de la Palestine est particulièrement nocive dans une période de terribles atrocités et de répression qui étouffent déjà les voix des Palestiniens », a déclaré Deborah Brown, directrice adjointe par intérim de la division Technologies et droits humains de Human Rights Watch. « Les réseaux sociaux constituent une plateforme essentielle permettant aux gens de témoigner et de dénoncer les abus, alors que la censure par Meta contribue à l’effacement des souffrances des Palestiniens. »

Human Rights Watch a examiné 1 050 cas de censure en ligne dans plus de 60 pays. Bien qu’il ne s’agisse pas nécessairement d’une analyse représentative de la censure, ces cas sont cohérents avec les conclusions auxquelles sont parvenues après des années de documentation et de plaidoyer des organisations palestiniennes, régionales et internationales de défense des droits humains, détaillant la censure par Meta de contenus pro-palestiniens.

Après l’attaque lancée par le Hamas en Israël le 7 octobre 2023, qui a tué 1 200 personnes, pour la plupart des civils, selon les responsables israéliens, les attaques lancées par Israël à Gaza ont tué environ 20 000 Palestiniens, selon le ministère de la Santé de Gaza. Les restrictions illégales imposées par Israël à l’acheminement de l’aide ont contribué à une catastrophe humanitaire continue pour les 2,2 millions d’habitants de ce territoire, dont près de la moitié sont des enfants.

Human Rights Watch a identifié six modèles clés de censure, chacun récurrent dans au moins une centaine de cas : suppressions de contenus ; suspension ou suppression de comptes ; incapacité d’interagir avec les contenus ; incapacité de suivre ou de marquer des comptes ; restrictions à l’utilisation de fonctionnalités telles qu’Instagram/ Facebook Live ; et  « bannissement furtif », terme désignant une diminution significative de la visibilité des publications, des stories ou du compte d’un individu sans notification préalable. Dans plus de 300 cas, les utilisateurs n’ont pu faire appel de la suppression d’un contenu ou d’un compte en raison d’un dysfonctionnement du mécanisme prévu à cet effet, les privant de recours.

Dans des centaines de cas documentés, Meta a invoqué sa politique sur les « Organismes et individus dangereux » (« Dangerous Organizations and Individuals », DOI), qui intègre pleinement les listes d’« organisations terroristes » désignées par les États-Unis. Meta a cité ces listes et les a largement suivies pour restreindre les discours légitimes sur les affrontements entre Israël et les groupes armés palestiniens.

Meta a également mal appliqué ses politiques en matière de contenus violents et explicites, de violence et d’incitation et à la violence, de discours de haine, ainsi que de nudité et d’activité sexuelle. Il a appliqué de manière incohérente sa politique d’« autorisation digne d’intérêt médiatique », supprimant des dizaines d’éléments de contenus documentant les blessures et la mort de Palestiniens qui avaient une valeur médiatique, a relevé Human Rights Watch.

Meta est consciente que l’application de ces politiques est problématique. Dans un rapport en date de 2021, Human Rights Watch a documenté la censure par Facebook des discussions sur les questions de droits humains liées à Israël et à la Palestine, concluant que Meta « réduit au silence de nombreuses personnes arbitrairement et sans explication ».

Une enquête indépendante menée par Business for Social Responsibility et commandée par Meta a révélé que la modération de contenus par l’entreprise en 2021 « semble avoir eu un impact négatif sur les droits humains des utilisateurs palestiniens », affectant négativement « leur capacité à partager des informations et des idées sur leurs expériences au fur et à mesure qu’elles sont vécues ».

En 2022, en réponse aux recommandations de l’enquête ainsi qu’à celles de son conseil de surveillance, Meta s’est engagée à modifier ses politiques de modération de contenus et leur mise en œuvre. Cependant, près de deux ans plus tard, Meta n’a pas respecté ses engagements en matière de droits humains, a constaté Human Rights Watch, une situation qui l’a conduite à perpétuer et amplifier ses abus passés.

Human Rights Watch a partagé ses conclusions avec Meta et sollicité son point de vue. En réponse, l’entreprise a cité sa responsabilité en matière de droits humains et ses principes fondamentaux en la matière comme orientant ses « mesures immédiates de réponse à la crise » depuis le 7 octobre.

Lire la suite

Source : Human Rights Watch

Diffusion partielle ou totale interdite sans la mention : Source www.kassataya.com

Articles similaires

Bouton retour en haut de la page