Meta, la société mère de Facebook et Instagram, a récemment modifié sa politique de modération, mettant fin à certaines restrictions sur la diffusion des fausses informations aux États-Unis. Cette décision pourrait entraîner un afflux de contenus trompeurs sur ses plateformes, remettant en question la lutte contre la désinformation.
Le 14 janvier, Platformer a révélé que Meta avait levé les filtres qui limitaient la portée des fake news sur Facebook et Instagram. Selon Joel Kaplan, responsable de la politique de modération, l’entreprise a décidé de ne rétrograder les contenus que lorsqu’une « forte probabilité de violation des normes communautaires » est identifiée. Une approche qui marque un retour en arrière après plusieurs années de lutte contre les fausses informations, notamment lors des élections de 2016.
Ce changement pourrait avoir de lourdes conséquences, car les outils automatisés qui avaient permis de réduire de 90 % la propagation de fake news sont désormais désactivés. Sans ces régulations, certains experts redoutent une recrudescence des rumeurs et théories du complot, déjà visibles par le passé, comme l’affaire « Pizzagate » ou les fausses allégations concernant le Pape François.
Parallèlement, Meta a abandonné ses partenariats avec les vérificateurs de faits indépendants aux États-Unis, un choix justifié par des accusations de biais, mais qui a renforcé les critiques sur la fiabilité de l’information sur ses plateformes.
Au-delà des fake news, Meta a également assoupli ses règles sur le discours de haine, tolérant désormais certaines insultes, notamment envers les femmes et la communauté LGBTQ. Ce changement de politique soulève des questions sur la responsabilité de l’entreprise dans la gestion de son contenu et son rôle face à la désinformation grandissante sur les réseaux sociaux.
Alors que les critiques se multiplient, Meta se retrouve à la croisée des chemins, devant concilier liberté d’expression et lutte contre les abus.