FILE PHOTO: A logo of mobile application Instagram is seen on a mobile phone, during a conference in Mumbai
FILE PHOTO: A logo of mobile application Instagram is seen on a mobile phone, during a conference in Mumbai, India, September 20, 2023. REUTERS/Francis Mascarenhas/File Photo

La société Meta s’est excusée jeudi et a annoncé avoir corrigé une erreur qui avait conduit certains utilisateurs d’Instagram à voir un flot de contenus violents et graphiques recommandés sur leur page personnelle Reels.

Un porte-parole de Meta a déclaré : « Nous avons corrigé une erreur qui a conduit certains utilisateurs à voir du contenu dans leur flux Instagram Reels qui n’aurait pas dû être recommandé. Nous nous excusons pour cette erreur. »

Cette déclaration intervient après que plusieurs utilisateurs d’Instagram ont exprimé leurs préoccupations sur diverses plateformes de médias sociaux concernant l’afflux récent de contenus violents dans leurs flux, selon un rapport publié par CNBC.

Certains utilisateurs ont affirmé avoir vu de tels contenus malgré l’activation du contrôle du contenu sensible d’Instagram au niveau le plus strict.

Politique de modération de Meta

Selon sa politique, Meta s’efforce de protéger les utilisateurs des images choquantes et supprime particulièrement les contenus violents ou graphiques.

Les contenus interdits incluent des vidéos montrant des mutilations, des organes exposés ou des cadavres carbonisés, ainsi que des publications contenant des commentaires sadiques sur la souffrance humaine ou animale.

D’après le site web de Meta, l’entreprise utilise une technologie interne et une équipe de plus de 15 000 modérateurs pour détecter ces images choquantes, avec l’aide de l’intelligence artificielle pour hiérarchiser les publications à examiner.

Les outils d’IA et d’apprentissage automatique de Meta sont censés détecter et supprimer la majorité des contenus non conformes avant même qu’ils ne soient signalés par les utilisateurs.

En outre, Meta veille à ne pas recommander sur ses plateformes du contenu de mauvaise qualité, inapproprié, sensible ou non adapté aux jeunes spectateurs.

Changement de politique

Cependant, cette erreur dans les recommandations de contenu sur Instagram survient alors que Meta a annoncé modifier la manière dont elle surveille les publications sur ses plateformes afin de réduire la censure et de promouvoir la liberté d’expression.

Dans un communiqué publié le 7 janvier, l’entreprise a indiqué qu’elle changeait son approche en matière de modération du contenu pour limiter les erreurs ayant conduit à de la censure.

Meta met à jour ses systèmes automatiques pour passer d’un filtrage systématique de toutes les infractions aux politiques à une focalisation sur les violations illégales et à haut risque, comme le terrorisme, l’exploitation sexuelle des enfants, la drogue, la fraude et l’escroquerie.

Pour les infractions moins graves, l’entreprise a précisé qu’elle s’appuierait davantage sur les signalements des utilisateurs avant d’intervenir.

Par ailleurs, Meta a déclaré que ses systèmes réduisaient actuellement la visibilité de nombreux contenus sur la base de prévisions de non-conformité aux standards, mais qu’elle était en train de supprimer la plupart de ces restrictions.

Le PDG Mark Zuckerberg a également annoncé que l’entreprise autoriserait davantage de contenus politiques et qu’elle modifierait son programme de vérification des faits en intégrant un modèle de retours communautaires, similaire à celui utilisé sur la plateforme X d’Elon Musk.

Ces changements sont largement perçus comme une tentative de Zuckerberg de rétablir des relations avec l’ancien président américain Donald Trump, qui avait critiqué les politiques de modération de Meta par le passé.

Selon un porte-parole de Meta sur X, Zuckerberg a rendu visite à la Maison-Blanche plus tôt ce mois-ci pour discuter de la manière dont Meta pourrait contribuer à défendre et renforcer le leadership technologique américain à l’international.

Dans le cadre de la vague de licenciements dans le secteur technologique en 2022 et 2023, Meta a supprimé 21 000 postes, soit près d’un quart de son effectif, ce qui a affecté de nombreux départements chargés de l’intégrité civique, de la confiance et de la sécurité.

Partager