Meta redouble d'efforts pour assurer la sécurité des jeunes utilisateurs de ses plateformes, notamment Instagram, face aux risques de l’univers numérique. Afin de répondre aux inquiétudes croissantes sur l'interaction des mineurs avec des contenus potentiellement inadaptés, l’entreprise lance un outil d’intelligence artificielle, baptisé "Adult Classifier," destiné à repérer les utilisateurs qui pourraient mentir sur leur âge pour accéder à des contenus réservés aux adultes.
Cette technologie utilise des méthodes d'analyse de profil, en observant les abonnés, les types de contenus consultés et les interactions de l’utilisateur. Des éléments subtils, comme les souhaits de "Joyeux anniversaire" venant d'amis, sont également pris en compte pour mieux estimer l'âge réel des utilisateurs. Grâce à cette classification automatisée, les comptes sont répartis en deux catégories : les plus de 18 ans et les moins de 18 ans. Les profils détectés comme appartenant à des mineurs sont transférés vers un compte "Ado," offrant des options de protection renforcées et limitant l'exposition à des contenus inappropriés.
Les jeunes de 16 et 17 ans ont la possibilité de modifier leurs paramètres de sécurité, tandis que les moins de 16 ans doivent passer par leurs parents ou tuteurs. En cas de désaccord sur l'âge déterminé par l’IA, Meta propose une procédure d’appel permettant de vérifier son âge en soumettant une pièce d'identité ou un selfie vidéo via la plateforme Yoti.
Ce développement intervient alors que Meta est confronté à un procès intenté par 33 procureurs généraux, accusant la firme de favoriser l'engagement des mineurs au détriment de leur santé mentale et physique.