Face à la démocratisation des outils d'intelligence artificielle et à la multiplication des contenus générés ou modifiés par IA, YouTube met en place de nouvelles règles pour informer les spectateurs et éviter les vidéos trompeuses. Désormais, les créateurs devront obligatoirement préciser si un contenu réaliste a été créé ou modifié par IA, grâce à un nouvel outil dans Creator Studio.
Dans un récent article de blog, YouTube a annoncé la mise en place d'un nouvel outil obligeant les créateurs à divulguer aux spectateurs tout contenu réaliste créé ou modifié à l'aide de médias synthétiques ou modifiés, y compris l'IA générative. Cette décision fait suite à l'annonce de novembre 2023 concernant la mise à jour de la politique de la plateforme, qui interdit tout contenu ayant été modifié ou retouché dans le but de tromper les utilisateurs.
En conséquence, des étiquettes seront ajoutées pour informer les spectateurs. Les créateurs devront répondre par oui ou non à une question concernant la nature de leur contenu. Si celui-ci correspond à l'une des descriptions mentionnées, des étiquettes apparaîtront dans la description détaillée d'une vidéo ou d'un Short. Pour les vidéos abordant des sujets plus sensibles, un libellé plus visible sera affiché sur la vidéo elle-même. Les étiquettes seront déployées au cours des semaines à venir, d'abord sur l'application mobile, puis sur ordinateur et TV.
Par ailleurs, il est important de savoir quels contenus sont concernés. L'obligation de divulgation ne concerne que les contenus réalistes. YouTube fournit quelques exemples de contenus qui doivent être divulgués, tels que l'utilisation de l'image d'une personne réaliste, la modification d'images d'événements ou de lieux réels, et la génération de scènes réalistes. Toutefois, certains contenus générés ou modifiés par IA ne sont pas concernés par cette nouvelle réglementation, comme les contenus clairement irréalistes ou les actions d'édition assistées par IA.
Enfin, YouTube se réserve le droit d'ajouter une étiquette si un créateur ne l'a pas fait, en particulier pour les contenus potentiellement trompeurs, et pourra prendre des mesures contre l'auteur. La plateforme travaille également à la mise à jour du processus de confidentialité, qui permettra de demander la suppression de contenus trompeurs générés ou modifiés par IA, ou d'autres moyens techniques.