Bientôt un filigrane invisible sur chaque image IA ? Ce que prépare OpenAI

La génération d’images par intelligence artificielle explose, mais avec elle surgit une question de plus en plus pressante : comment garantir l’authenticité des visuels ? OpenAI, l’un des leaders du secteur, travaillerait actuellement à une solution aussi discrète qu’efficace : l’intégration d’un filigrane numérique invisible. Une mesure qui pourrait bien redéfinir la traçabilité des contenus visuels produits par IA.

Une montée en puissance des images générées par IA

Depuis l’introduction de GPT-4o, les utilisateurs peuvent générer des images directement dans l’interface de ChatGPT, sans outil externe. Un tournant qui a démocratisé la création de visuels ultra-réalistes, mais qui a aussi ouvert la porte à un volume inédit de contenus artificiels. Et forcément, cela inquiète.

Face à la multiplication de ces images sur les réseaux sociaux ou dans les moteurs de recherche, certains éditeurs de contenus, journalistes et plateformes de fact-checking tirent la sonnette d’alarme. Leur crainte ? Voir se propager des fake news illustrées qui seraient indétectables pour le grand public.

Un filigrane détecté dans le code de l’application Android

C’est un ingénieur indépendant, Tibor Blaho, qui a mis le doigt sur cette potentielle nouveauté. En explorant le code source de ChatGPT pour Android, il a repéré une chaîne nommée « image-gen-watermark-for-free », suggérant que les images générées par les utilisateurs gratuits pourraient être automatiquement estampillées d’un filigrane invisible.

L’idée ? Intégrer directement dans les métadonnées ou dans les pixels une empreinte numérique unique, non visible à l’œil nu, mais détectable via des outils spécifiques. Une solution qui permettrait de préserver la qualité des visuels, tout en garantissant leur origine.

Une option réservée aux utilisateurs payants ?

Dernier rebondissement : l’analyse de la version bêta 1.2025.196 de ChatGPT pour Android laisse entrevoir la possibilité de sauvegarder une image sans filigrane, grâce à un bouton explicite : « Save without watermark ».

Cela laisse supposer que seuls les abonnés à la version payante pourraient accéder à cette option. Une stratégie qui permettrait de distinguer les usages occasionnels des usages professionnels, et de responsabiliser davantage les créateurs réguliers de contenus générés par IA.

Filigranne image générée par IA

Encore flou, mais révélateur d’un enjeu central

Pour l’heure, OpenAI n’a fait aucune annonce officielle sur le sujet. Il se pourrait même que cette fonctionnalité soit encore en phase d’expérimentation, voire abandonnée en interne avant sa sortie publique. Néanmoins, sa présence répétée dans différentes versions de l’application montre bien que la question de la traçabilité des visuels IA est désormais incontournable.

D’autres acteurs du secteur — comme Adobe avec Content Credentials, ou Google avec SynthID — travaillent aussi sur des technologies d’authentification invisibles, dans un souci croissant de transparence numérique.

Une évolution attendue dans un écosystème en mutation

Alors que l’usage des images générées par IA devient courant, l’ajout d’un filigrane invisible pourrait devenir la norme dans les mois à venir. Pour les créateurs, ce serait une manière de marquer leurs productions ; pour les plateformes, un outil pour modérer les contenus ; et pour les utilisateurs, une garantie de clarté sur l’origine des images.

Reste à voir si cette technologie sera adoptée à grande échelle, et dans quelles conditions d’accès elle sera déployée. Une chose est sûre : l’ère des images “sans signature” touche peut-être à sa fin.

Send this to a friend