Facebook
  • Acceuil
  • News
  • Google innove avec un filigrane invisible pour distinguer les images générées par une IA

Google innove avec un filigrane invisible pour distinguer les images générées par une IA

title..

La distinction entre une image créée par un être humain et celle générée par une intelligence artificielle devient de plus en plus difficile à mesure que la technologie progresse. Cette question de l'authenticité des images soulève des problèmes liés aux droits d'auteur et au risque de pillage des créations par les systèmes d'IA. Dans cette optique, Google, bien que souhaitant que ses IA puissent naviguer sur Internet librement, a récemment dévoilé un système de filigrane novateur pour aborder cette problématique.

Le filigrane traditionnel est un logo ou un nom apposé généralement dans un coin de l'image pour identifier son auteur. Cependant, il peut être facilement supprimé en redimensionnant simplement le fichier. La solution innovante de Google, développée par sa branche spécialisée dans l'IA, Google DeepMind, repose sur un filigrane invisible baptisé "SynthID". Cette technologie utilise deux réseaux de neurones artificiels pour résoudre le problème.

UN FILIGRANE INVISIBLE POUR DÉTECTER LES IMAGES CRÉÉES PAR UNE IA

Le premier réseau de neurones crée une copie de l'image originale avec de légères modifications imperceptibles à l'œil humain. Le deuxième réseau neuronal est chargé de détecter la présence de ces modifications, permettant ainsi de déterminer si une image a été altérée par un processus d'IA. Ce réseau peut même indiquer s'il est incertain mais pense que la présence du filigrane invisible est probable. Ce système a été conçu pour résister aux captures d'écran, aux redimensionnements et aux éditions du fichier.

Cependant, le système SynthID présente trois limites. Premièrement, il est actuellement réservé à Imagen, l'outil de génération d'images par IA de Google. Deuxièmement, son utilisation est facultative pour les utilisateurs, ce qui signifie qu'ils peuvent choisir de l'activer ou non. Enfin, malgré sa sophistication, SynthID est susceptible d'être contourné rapidement par des individus malveillants. Ben Zhao, professeur à l'Université de Chicago, a travaillé sur des systèmes de protection des créations générées par des IA et affirme que "peu ou aucun filigrane n'a résisté au fil du temps". Google, de son côté, n'a pas divulgué si le déploiement de ce système serait élargi à l'ensemble de sa plateforme. Cette réticence limite l'intérêt de l'initiative, ce qui est dommage.

Ce site, utilise des cookies afin de vous offrir une bonne expérience de navigation et d’améliorer continuellement nos services. En continuant à naviguer sur ce site, vous acceptez l’utilisation de ces cookies.