Sous la pression des politiques et des groupes de protection de l'enfance, Meta, la société mère de Facebook et Instagram, a annoncé la mise en place de procédures visant à restreindre l'accès des adolescents à des contenus liés au suicide, à l'automutilation et aux troubles de l'alimentation sur ses plateformes. Cette décision intervient en réponse aux préoccupations croissantes exprimées par plusieurs gouvernements concernant la sécurité des enfants sur les réseaux sociaux.
D'ici les prochains mois, Meta masquera les contenus sensibles et dirigera les adolescents vers des organismes de soutien tels que la National Alliance ou le Mental Illness lorsqu'ils recherchent des sujets liés au suicide, à l'automutilation ou aux troubles de l'alimentation. Les comptes des adolescents seront également soumis par défaut à des filtres restrictifs limitant les contenus visibles.
Bien que cette initiative vise à renforcer la protection des adolescents en ligne, elle suscite des préoccupations quant à son impact sur l'accès aux ressources éducatives et de soutien psychologique, notamment pour des sujets sensibles tels que le suicide, qui touche de nombreux adolescents.
Mark Zuckerberg, le PDG de Meta, devrait aborder ces questions de sécurité des enfants sur les réseaux sociaux lors d'une prochaine audition au Sénat, aux côtés d'autres leaders de l'industrie technologique. Les contrôles stricts des contenus destinés aux adolescents s'inscrivent également dans le cadre plus large des réglementations en cours en Europe, telles que la loi sur les services numériques (DMA), qui impose aux grandes entreprises technologiques des responsabilités accrues en matière de contenu partagé.
Au Royaume-Uni, une loi sur la sécurité en ligne, en vigueur depuis octobre, impose aux plateformes en ligne la responsabilité de garantir la sécurité des enfants, sous peine de sanctions financières. Cette évolution réglementaire souligne l'importance croissante accordée à la protection des jeunes utilisateurs dans l'environnement numérique.