Avec les progrès de l’IA, comment reconnaître une vraie image? [VIDEO]

Elles semblent réelles, ces créations de la dernière version de MidJourney, une des plus puissantes IA de génération d'images du moment. Et elles envahissent nos réseaux sociaux. Quels sont les moyens qui se dessinent pour trier le vrai du faux?

Le Pape en doudoune, style côte ouest américaine. Non, ce n’est pas un mauvais rêve, mais le résultat d’une requête facétieuse sur MidJourney. D’autres photos ont émergé sur les réseaux sociaux: Trump habillé de l’uniforme pénitencier orange américain et Emmanuel Macron, vêtu d’un gilet jaune, en train de ramasser les poubelles parisiennes. Le point commun? Ces photos n'existent pas. Elles ont toutes été créées par intelligence artificielle. Ça vous fait peur? Ce nouvel épisode de PopScience vous explique comment ne pas se faire avoir.

L’histoire du deepfake. Ces photos ou vidéos truquées, on les appelle les deepfakes. Une des premières à avoir cassé Internet, en 2018, c’est cette vidéo de Barack Obama, réalisée par le site d’informations américain Buzzfeed. L’ancien président annonce, dans le style d’une prise de parole officielle, que l’actuel président de l’époque Donald Trump… est «une grosse merde».

À l’époque, il y a cinq ans, soit une éternité en termes d’innovation, cette vidéo avait demandé d’importantes ressources. Aujourd’hui, tout le monde est capable de produire ces images, avec les intelligences artificielles génératives comme MidJourney, Dall-E ou Stable Diffusion. Et ça s'améliore vite. Très vite.

Lire aussi: Les IA génératives nous inondent de fausses photos, mais la résistance s'organise

Il n'y a qu'à comparer une image générée par la première version MidJourney en et celle du Pape, créée avec la cinquième version du logiciel. Microsoft a même dévoilé un projet qui permet de synthétiser un voix ayant le timbre d’une personne donnée, sur la base de seulement trois secondes d’enregistrement.

Revenons à notre image de Pape de la côte ouest américaine, comment sait-on que c’est une fausse? Il y a encore quelques détails qui permettent de s’en rendre compte, si on regarde:

  • les mains,

  • les lunettes,

  • les cheveux,

  • les dents

  • ou la texture de la peau, qui est souvent très lisse.

Le problème, c’est que ces petits défauts ne seront bientôt plus visibles dans les prochaines versions de MidJourney ou autres IA génératives. Et comme tout le monde peut créer son deepfake aujourd’hui, il y a de grandes chances que vous en voyiez passer sur les réseaux sociaux bientôt.

Alors comment faire la distinction? Déjà, sachez que chez Heidi.news, nous ne créerons jamais d’image pouvant passer pour une photo sans préciser d’où elle provient. Sinon, il existe au moins deux pistes techniques qui permettraient d’identifier les contenus synthétiques:

  • Le marquage, watermarking en anglais. Ce seraient les IA génératives elles-mêmes qui apposeraient une sorte de tampon, visible ou pas, sur les images pour mieux les identifier. Dall-E met, par exemple, des carrés de couleurs en bas à droite.

  • Autre solution: l’introduction de «métadonnées» dans les fichiers, c’est-à-dire des informations comme l’heure à laquelle il a été créé, les modifications effectuées, etc. Aujourd’hui, les contenus créés par des IA génératives ne contiennent pas ce genre de métadonnées.

Lire aussi: Niels Ackermann: «Face à l'essor des IA, les médias doivent devenir des marchands de vrai»

Si on récapitule, pour l’instant, il n’y a pas de moyen simple de distinguer une fausse photo d’une vraie. Des projets sont en cours comme Hugging Face ou Hive Moderation, des intelligences artificielles développées pour mieux détecter du contenu créé… par des intelligences artificielles. C’est le serpent qui se mord la queue cette histoire, donc prudence quand vous voyez des images buzzer sur vos réseaux sociaux.