• l’année dernière
Il y a encore quelques détails qui permettent de s’en rendre compte, si on regarde les mains, les lunettes, mais aussi les cheveux, les dents ou la texture de la peau qui est souvent très lisse.

C'est le sujet de ce nouvel épisode de PopScience
Transcription
00:00 Cette photo du pape en doudoune, même si elle est archi stylée, elle est complètement fausse.
00:04 Et le point commun avec ces deux autres photos qui sont tout autant stylées, c'est qu'elles n'existent pas.
00:08 Elles ont toutes été créées par des intelligences artificielles.
00:12 Il n'y a pas besoin d'être un ingénieur pour créer ce genre d'image, une seule phrase suffit.
00:15 Ça vous fait peur ? Je vous explique comment ne pas se faire avoir.
00:18 Pape science.
00:19 Ces photos ou vidéos truquées, on les appelle les deepfakes.
00:22 La première à avoir cassé Internet, c'est une vidéo de Barack Obama publiée par le site américain Buzzfeed en 2018.
00:28 Il annonce, dans le style d'une prise de parole plutôt officielle, que le président Donald Trump est
00:33 "total and complete dipshit".
00:35 Une grosse merde.
00:36 A l'époque, il y a 5 ans, soit une éternité en termes d'innovation, cette vidéo avait demandé d'importantes ressources.
00:41 Sauf qu'aujourd'hui, tout le monde serait capable de créer ce genre d'image.
00:44 Grâce aux intelligences artificielles comme Midjourney ou Dali.
00:48 Et les choses s'améliorent vite, très vite même.
00:51 Il n'y a qu'à comparer cette image créée avec la première version de Midjourney avec celle du pape créée avec la cinquième version.
00:56 Et Microsoft a même dévoilé un projet qui permettrait de synthétiser une voix humaine avec seulement 3 secondes d'enregistrement.
01:03 Si on revient à notre photo du pape de la côte ouest américaine en doudoune, comment est-ce qu'on sait que c'est une fausse ?
01:07 Il y a encore quelques détails qui permettent de s'en rendre compte.
01:10 Regardez par exemple les lunettes, les mains, mais aussi les dents, les cheveux ou le grain de la peau, qui est souvent super lisse.
01:16 Le problème, c'est que ces petits défauts seront bientôt plus visibles, notamment avec les prochaines mises à jour de Midjourney ou d'autres intelligences artificielles.
01:23 Et comme tout le monde peut créer son deepfake aujourd'hui, il y a de grandes chances que vous en voyez passer sur les réseaux sociaux très prochainement.
01:29 Alors, comment est-ce qu'on fait la distinction ?
01:31 Déjà, sachez que sur iDeep.news, on a fait le choix de ne pas publier ce genre d'image générée par une intelligence artificielle qui pourrait ressembler à une photo réelle.
01:39 Donc abonnez-vous, vous serez tranquille.
01:41 Sinon, il existe au moins deux pistes plutôt techniques pour identifier ces contenus synthétiques.
01:46 La première, c'est le marquage. On dit le watermarking en anglais.
01:49 Ce serait les IA génératives elles-mêmes qui apposeraient une sorte de tampon, visible ou pas, sur les contenus qu'elles créeraient.
01:54 Dali met par exemple des petits carrés de couleurs en bas à droite de ses images.
01:58 Autre solution, l'introduction de métadonnées.
02:01 Les métadonnées, qu'est-ce que c'est ?
02:02 C'est des informations sur la date de création, les modifications faites aux fichiers, qui l'a créé, quand et où.
02:08 Aujourd'hui, les contenus créés par intelligence artificielle ne contiennent pas ce genre de métadonnées.
02:13 Donc si on récapitule, pour l'instant, il n'y a pas de moyen super simple de distinguer une vraie photo d'une fausse.
02:18 Des projets sont en cours, comme ce logiciel d'intelligence artificielle qui serait développé pour identifier des photos générées par une intelligence artificielle.
02:26 C'est un peu le serpent qui se mend la queue, cette histoire.
02:28 Donc prudence quand vous verrez des images buzzées sur les réseaux sociaux très prochainement.
02:32 Sous-titrage Société Radio-Canada

Recommandations