L'évolution rapide de l'intelligence artificielle offre de nouvelles opportunités créatives, mais suscite également des préoccupations éthiques et morales. YouTube, l'une des principales plateformes d'hébergement de vidéos, a récemment réagi à une tendance troublante émergeant sur sa plateforme : l'utilisation de deepfakes pour simuler des victimes de violence décrivant leur propre mort.
Cette pratique, qui a trouvé un certain succès sur des plateformes telles que TikTok et YouTube, implique la création de vidéos générées par l'intelligence artificielle où des individus, parfois des enfants, sont recréés de manière réaliste pour raconter des histoires morbides et tragiques. Malgré le caractère troublant et inapproprié de ces contenus, il n'existait auparavant aucune politique spécifique de modération pour les contrer.
Face à cette préoccupation croissante, YouTube a décidé de prendre des mesures proactives en modifiant sa politique de contenu. Désormais, la plateforme interdit explicitement les "contenus simulant de manière réaliste des mineurs décédés ou des victimes d'événements violents meurtriers, ou bien documentés décrivant leur mort ou les violences subies". Cette interdiction vise à contrer la diffusion de deepfakes dérangeants et à protéger les utilisateurs, en particulier les familles des véritables victimes concernées.
En cas de violation de cette politique, YouTube émettra un avertissement, retirera la vidéo incriminée et imposera des sanctions, y compris une interdiction de publication pendant une semaine. Des récidives pourraient entraîner la suppression totale de la chaîne. Cette initiative s'inscrit dans le cadre des efforts continus de YouTube pour maintenir un environnement en ligne sûr et respectueux.
L'émergence de deepfakes soulevant des questions éthiques complexes, il est probable que d'autres plateformes numériques suivront l'exemple de YouTube en élaborant des politiques similaires pour faire face à ces contenus perturbateurs générés par l'intelligence artificielle.