L’histoire du deepfake. Ces photos ou vidéos truquées, on les appelle les deepfakes. Une des premières à avoir cassé Internet, en 2018, c’est cette vidéo de Barack Obama, réalisée par le site d’informations américain Buzzfeed. L’ancien président annonce, dans le style d’une prise de parole officielle, que l’actuel président de l’époque Donald Trump… est «une grosse merde».
À l’époque, il y a cinq ans, soit une éternité en termes d’innovation, cette vidéo avait demandé d’importantes ressources. Aujourd’hui, tout le monde est capable de produire ces images, avec les intelligences artificielles génératives comme MidJourney, Dall-E ou Stable Diffusion. Et ça s'améliore vite. Très vite.
Lire aussi: Les IA génératives nous inondent de fausses photos, mais la résistance s'organise
Il n'y a qu'à comparer une image générée par la première version MidJourney en et celle du Pape, créée avec la cinquième version du logiciel. Microsoft a même dévoilé un projet qui permet de synthétiser un voix ayant le timbre d’une personne donnée, sur la base de seulement trois secondes d’enregistrement.
Revenons à notre image de Pape de la côte ouest américaine, comment sait-on que c’est une fausse? Il y a encore quelques détails qui permettent de s’en rendre compte, si on regarde:
les mains,
les lunettes,
les cheveux,
les dents
ou la texture de la peau, qui est souvent très lisse.
Le problème, c’est que ces petits défauts ne seront bientôt plus visibles dans les prochaines versions de MidJourney ou autres IA génératives. Et comme tout le monde peut créer son deepfake aujourd’hui, il y a de grandes chances que vous en voyiez passer sur les réseaux sociaux bientôt.
Alors comment faire la distinction? Déjà, sachez que chez Heidi.news, nous ne créerons jamais d’image pouvant passer pour une photo sans préciser d’où elle provient. Sinon, il existe au moins deux pistes techniques qui permettraient d’identifier les contenus synthétiques:
Le marquage, watermarking en anglais. Ce seraient les IA génératives elles-mêmes qui apposeraient une sorte de tampon, visible ou pas, sur les images pour mieux les identifier. Dall-E met, par exemple, des carrés de couleurs en bas à droite.
Autre solution: l’introduction de «métadonnées» dans les fichiers, c’est-à-dire des informations comme l’heure à laquelle il a été créé, les modifications effectuées, etc. Aujourd’hui, les contenus créés par des IA génératives ne contiennent pas ce genre de métadonnées.
Lire aussi: Niels Ackermann: «Face à l'essor des IA, les médias doivent devenir des marchands de vrai»
Si on récapitule, pour l’instant, il n’y a pas de moyen simple de distinguer une fausse photo d’une vraie. Des projets sont en cours comme Hugging Face ou Hive Moderation, des intelligences artificielles développées pour mieux détecter du contenu créé… par des intelligences artificielles. C’est le serpent qui se mord la queue cette histoire, donc prudence quand vous voyez des images buzzer sur vos réseaux sociaux.