Quand même les IA ne savent pas reconnaître une image générée par l’IA de Google
le vrai du faux•Les IA ont fait d’énormes progrès en très peu de temps dans la génération de photos ou de vidéos, au point qu’elles-mêmes ne sont plus en mesure de distinguer le vrai du fauxMikaël Libert
L'essentiel
- L’efficacité des différents grands modèles d’IA générative pour créer des photos ou des vidéos réalistes a fait des progrès fulgurants ces derniers mois.
- Les images générées par intelligence artificielle étaient encore assez facilement détectables il y a peu de temps, notamment en raison de défauts récurrents et propres aux IA.
- Désormais, il est devenu impossible de faire la différence à l’œil nu entre une image AI et une vraie photo. Des outils existent, mais ils ne sont pas infaillibles et nécessitent d’être couplés pour obtenir un haut degré de certitude.
La génération de photos par une intelligence artificielle (IA) et de vidéos, a évolué de manière fulgurante en à peine quelques mois. Si les résultats étaient déjà bluffants à l’époque, ils atteignent aujourd’hui un niveau de perfection flippant. Au point que les méthodes utilisées jusqu’alors pour démasquer une photo générée par IA ne sont quasiment plus efficaces. Et les IA elles-mêmes ne savent plus démêler le vrai du faux.
Il n’y a encore pas si longtemps, on avait beau être un as dans la rédaction de prompts pour générer une image, le résultat livré par l’IA comportait toujours des défauts. Lorsqu’il s’agissait de créer des personnages par exemple, les grands modèles d’IA avaient la fâcheuse tendance à faire n’importe quoi avec leurs membres : en fusionner certains, en ajouter où il ne faut pas, les mettre dans des positions impossibles… De base, les IA avaient aussi l’habitude de lisser la peau à l’extrême, livrant des visages trop parfaits pour être honnêtes.
Des images pleines de défauts ou trop parfaites
Les textures compliquées avaient un rendu assez médiocre, avec peu de détails, voire des à-plats horribles, surtout lorsqu’il fallait intégrer du texte dans les images. Et, au contraire, le rendu photo était bien souvent trop soigné, notamment l’éclairage des scènes, avec par exemple des contre-jours maîtrisés comme il est difficile de le faire en vrai. En vidéo, les mouvements manquaient de cohérence, notamment dans des scènes rapides où l’IA se mélangeait les pinceaux et, du coup, les pinceaux des personnages aussi. Bref, un œil pas forcément aguerri pouvait trouver facilement une faille.
Tous ces tips ne valent plus grand-chose aujourd’hui. Les IA comme Veo 3 et Nano Banana de Google, Sora 2 et Dall-E 3 d’OpenAI, pour ne citer qu’elles, rivalisent dans la création d’images hyperréalistes sans avoir besoin d’être guidées par des prompts à rallonge. Pour vous donner une idée, la photo en illustration de cet article a été générée par Nano Banana Pro avec cette simple requête : « Génère une photo de femme. Peu importe sa tenue ou ce qu’elle fait. La seule chose que je te demande, c’est que l’image ait l’air d’être une vraie photo, impossible à identifier comme ayant été générée par une IA ».
Même les IA se font avoir
Avouez que le résultat est incroyable et bien malin celui qui trouvera le défaut trahissant l’intervention de l’IA. Donc, puisque l’on ne peut plus se fier à nos yeux pour trouver la faille, pourquoi ne pas demander tout simplement aux IA de la trouver pour nous ? Google Deep Mind a d’ailleurs mis au point une sorte de filigrane invisible, incorporé aux pixels des images générées par IA, devant permettre de les identifier à coup sûr. Il appelle ça le SynthID, une solution en open source qu’il teste avec Nano Banana et d’autres acteurs de l’IA générative. Selon Ninon IA, une spécialiste de l’IA aux 200.000 followers sur TikTok, Google, via Gemini, « arrive à détecter les images de Nano Banana en deux secondes, même si l’image a été retouchée, compressée, screenshotée ».
Alors 20 Minutes a tenté le coup en soumettant la photo ci-dessus à plusieurs IA avec cette question : « Peux-tu me dire s’il s’agit d’une vraie photo ou si elle a été générée par une IA ? » Nous avons simplement recadré l’image créée par Nano Banana pour retirer le petit signe en bas à droite, puis enregistré en « jpg » cette version sous le nom « image2 ». Perplexity est tombé dans le panneau, estimant que « la probabilité qu’il s’agisse d’une vraie photo prise dans un café est très élevée ». De son côté, Grok affirme que « cette photo est une vraie photographie, pas une image générée par IA ». Le Gemini de Google est plus nuancé, reconnaissant qu’il « est très probable que cette image ait été générée par une intelligence artificielle ». Sauf qu’il n’en est pas certain, d’autant qu’il n’a « pas détecté de filigrane SynthID ». Pire, faute de filigrane, Gemini ne reconnaît même pas sa propre création et suppose qu’elle serait le travail d’une autre IA, citant DALL-E 3 ou Midjourney v6.
Notre dossier sur l'intelligence artificielleA ce stade, donc, cette histoire de filigrane est à perfectionner. D’autant que Gemini affirme lui-même que le marqueur SynthID « peut être endommagé ou perdu » sur une image qui a été « compressée, recadrée, ou si c’est une capture d’écran ». Néanmoins, il existe d’autres outils dont la combinaison peut apporter un degré de certitude acceptable, comme fotoforensics, AI Light, Undetectable.ai. Ce dernier outil a d’ailleurs estimé à 99 % que notre photo était une création IA. Il y a aussi une part de bon sens à avoir, et se demander si, dans la vraie vie, une dizaine de lapins s’amuseraient à faire du trampoline en pleine nuit.



















