Lundi 8 janvier 2024, SMART TECH reçoit Anthony Level (responsable de la stratégie réglementaire et juridique de l'IA, Imatag) et Vanessa Bouchara (Avocate spécialisée en droits d'auteur, Bouchara Avocats)
Category
🗞
NewsTranscription
00:00 Alors qu'il y a évidemment deux nouveaux outils pour créer de fausses images, nous
00:08 allons regarder quelles sont nos nouvelles armes pour lutter contre les deepfakes.
00:12 On voit ça avec Vanessa Bouchara, avocate spécialisée en droit d'auteur chez Bouchara
00:16 Avocat.
00:17 Bonjour Vanessa.
00:18 Et Anthony Level, responsable de la stratégie réglementaire et juridique relative à l'IA
00:22 chez Imatag.
00:23 Petite parenthèse quand même sur Imatag que tout le monde ne connaît pas.
00:26 Spin-off de l'INRIA basé à Rennes, donc une start-up française spécialisée dans
00:31 les technologies de reconnaissance de contenu.
00:33 Fondée en 2016 par quatre chercheurs qui ont breveté une technologie de tatouage numérique
00:39 qu'on peut appeler Watermarking Digital.
00:41 Alors je voulais déjà vous interroger sur des deepfakes que vous auriez croisé et
00:46 qui vous inquièterait aujourd'hui.
00:48 Alors je commence.
00:50 Pour faire un panorama du type de deepfake, en fait il y a un peu de tout.
00:54 Parce qu'en fait le deepfake il est un peu neutre à la base.
00:57 Mais on en distingue deux grandes catégories.
00:58 La première c'est le deepfake à vocation politique, géopolitique.
01:01 Le deuxième c'est plutôt à vocation humoristique.
01:04 On va plus se passer évidemment sur des écrans que les autres.
01:07 Ou le plaisir de la créativité aussi.
01:10 Ou le plaisir absolument artistique.
01:11 Il y a ça aussi.
01:12 Ça augmente aussi l'artistique l'IA.
01:14 Pour vous donner un panorama des différentes deepfakes qui ont quand même bien résonné
01:18 dans le monde, il y a eu la première qui a eu un effet potentiellement géopolitique
01:21 militaire.
01:22 Deux semaines après l'invasion de la Russie en Ukraine, il y a eu un deepfake qui représentait
01:27 Vladimir Zelensky.
01:28 Pas Vladimir Zelensky, mais Zelensky.
01:29 Vladimir Poutine ?
01:30 Non, non, Vladimir Zelensky.
01:31 Et qui en fait le représentait avec sa voix et disait "il faut qu'on se rende".
01:40 Donc c'était une tentative de reddition par les réseaux sociaux pour démoraliser.
01:44 C'est la première tentative de démobilisation finalement des troupes ukrainiennes avec un
01:47 deepfake.
01:48 Un deepfake politique, ça peut être celui qui est récemment passé il y a deux jours
01:51 sur la parodie des voeux de Marine Le Pen détournée en russe.
01:56 Voilà, donc plutôt à vocation humoristique et politique pour le coup.
01:59 D'autres, il y a eu Trump qui avait été, alors là c'était une manipulation vidéo
02:03 et image, c'est-à-dire que Trump avait été représenté avec Fauci.
02:05 Fauci, vous savez, c'était le responsable de la politique anti-Covid aux Etats-Unis
02:09 et contre lequel en fait tout, l'aspect complotiste était vraiment contre cette personne-là.
02:16 Et ils les ont associés, on voit Donald Trump qui embrasse Fauci pour dire en fait qu'il
02:19 y a une cohérence entre les deux.
02:20 Et c'était en fait initié par le gouverneur de Californie qui avait lui-même des véléités
02:26 pour concurrencer Trump aux prochaines élections présidentielles.
02:29 Donc ça c'est des deepfakes à vocation géopolitique.
02:33 Et de déstabilisation ou d'ingérence.
02:36 Et voilà, c'est un sujet qui nous préoccupe davantage maintenant que nous avons des outils
02:41 comme les IA génératifs qui facilitent énormément ce travail.
02:44 Et puis les plateformes de diffusion qu'on connaît, évidemment les réseaux sociaux
02:47 pour massifier ces influences.
02:50 Après il y a quand même un système de méfiance aujourd'hui du public parce qu'on a suivi
02:55 aussi par exemple le pape qui avait cette énorme doudoune et d'autres images qui ont
03:00 été des images très marquantes et qui ont montré à quel point...
03:03 On a eu le pape en doudoune, on a eu Emmanuel Macron dans une manifestation des jeunes.
03:07 Bon là on voyait tout de suite quand même qu'on était dans le jeu.
03:11 Exactement.
03:12 Et donc là on se rend bien compte que finalement il y a une limite entre notre perception
03:18 antérieure à toutes ces utilisations massives de l'intelligence artificielle et de ce qu'on
03:22 voit aujourd'hui.
03:23 Et on apprend je pense en tant que personne lambda à se méfier des images, à ce...
03:28 On voit à quel point sa voix peut être utilisée, qu'on peut parler une autre langue.
03:35 Moi j'entendais Macron il y a quelques jours sur un réseau social nous présenter ses
03:39 voeux en arabe et expliquer plein de choses.
03:41 Et donc aujourd'hui on se rend compte à quel point l'information peut être manipulée
03:48 et à quel point c'est important de mettre des gardes fous.
03:50 Et puis il y a des pièges.
03:52 Alors par exemple je pense à cette image du bébé en pleurs sous les décombres qui
03:58 a été...
03:59 C'était une image réalisée par une intelligence artificielle générative.
04:03 Alors on peut s'en apercevoir quand on la regarde de près mais cette image elle a été
04:07 imprimée et brandie lors d'une manifestation au Caire pour dénoncer l'action d'Israël
04:15 en Palestine.
04:16 Et cette image s'est retrouvée finalement en couverture de Libération qui s'est posé
04:21 la question finalement.
04:22 Est-ce que de montrer un homme bien réel dans une manifestation qui brandit une image
04:26 générée par une IA, est-ce que là je participe à la deepfake ? Est-ce que je dois mentionner
04:32 qu'il s'agit d'une fausse image ? Sur les pancartes il y a toujours eu des choses humoristiques,
04:36 qu'en est-il avec les IA ? Ce sont des nouvelles questions qui se posent.
04:40 Là ce qu'on va regarder ensemble, c'est pas tellement comment analyser ces images,
04:45 c'est plutôt comment est-ce qu'on peut se prémunir de ce flux et de ce flot de fausses
04:50 images.
04:51 Alors on va peut-être commencer par nos armes technologiques.
04:54 Je parlais du watermarking, expliquez-nous.
04:56 Le watermarking, le watermarking digital, c'est du tatouage numérique en français
05:01 et ça s'appelle aussi du filigrane.
05:02 Ça consiste en quoi ?
05:04 Ça consiste en fait à insérer dans un contenu numérique un signal, une marque, et de diffuser
05:10 ce contenu numérique sur le web avec cette marque.
05:13 Une fois qu'on a cette marque, en fait, comme on sait ce qu'on cherche, il est très facile
05:16 de la retrouver sur le web.
05:17 Donc ça c'est le premier élément très important du watermarking, c'est qu'une
05:20 fois qu'il est watermarké, à chaque fois qu'on sait ce qu'on cherche en informatique,
05:22 c'est beaucoup plus facile de le trouver que d'analyser l'ensemble des éléments.
05:25 Ça c'est la première chose.
05:26 Et une fois qu'on a repéré ce signal dans notre recherche, on peut lui adresser une
05:29 fonction.
05:30 On peut très bien lui adresser une fonction utilisée aujourd'hui qui est réintégrer
05:34 les métadonnées d'origine d'un contenu au contenu lui-même quand on aura été dépouillé.
05:37 Il faut savoir aujourd'hui que 80%…
05:39 C'est-à-dire en précisant la source de l'image ?
05:41 En précisant la source, le contexte, l'auteur, la date.
05:44 Donc l'intégralité finalement du contexte véridique qui est autour de cette image.
05:47 Comme cette image dont je parlais du bébé sous les décombes qui en fait date de février
05:52 2023, qui a été générée…
05:54 Ça c'est une image générée.
05:55 En février 2023 et réutilisée bien plus tard.
05:57 Absolument.
05:58 Et à ce signal, vous pouvez adresser une fonction.
06:00 La fonction est « réintégrer moi mes métadonnées d'origine ».
06:03 Donc finalement les métadonnées sont dissociées, sont déportées du contenu, mais elles lui
06:06 sont toujours attachées au travers de ce signal.
06:08 Et ça c'est extrêmement important puisque une fois que vous avez ça, quand vous pouvez
06:10 faire ça, vous pouvez authentifier en fait tout ce qui est sur le net à partir du moment
06:15 où il y a ce tatouage qui renvoie à ces métadonnées.
06:17 Et donc en fait il y a deux façons de lutter contre les deepfakes.
06:20 La première c'est le fact-checking et le debunking de fake news.
06:24 C'est du temps, c'est de l'énergie, c'est une mobilisation de beaucoup de choses,
06:27 y compris des technologies.
06:28 Et il y a quelque chose qui est beaucoup plus facile à faire, c'est d'authentifier
06:30 les images fiables, les informations réelles.
06:33 Et le watermarking intervient sur les deux niveaux.
06:35 Le premier niveau, vous l'avez compris, je peux identifier partout où elle est l'image,
06:39 je peux lui réintégrer ses métadonnées et lui dire « c'est une image AFP de tel
06:42 contexte du conflit israélo-palestinien, prise à telle date avec telle image ».
06:46 Vérifier s'il y a eu des modifications entre temps.
06:48 Et c'est ça le deuxième point.
06:49 C'est-à-dire que comme je sais que moi, en base de données, j'ai, ou l'éditeur
06:52 selon si c'est « on premise » ou chez nous, mais une fois que j'ai l'image d'origine
06:56 et les métadonnées d'origine, je peux très bien voir s'il y a des modifications sur
06:59 l'image d'origine et les tracer.
07:00 Et indiquer éventuellement que ça a été modifié comment, et pas pourquoi, mais comment.
07:05 Et ça c'est déjà une arme.
07:07 Évidemment, on ne l'a pas précisé, mais ce marquage, ce filigrane dont vous parlez,
07:10 il est invisible.
07:11 Il est absolument invisible, tout à fait.
07:12 En fait, c'est de la steganographie.
07:13 La steganographie, c'est dérivé de la cryptographie, c'est l'art effectivement de rendre invisible
07:17 à l'œil humain des signaux qui sont dans un contenu numérique.
07:20 Alors comment est-ce qu'on va le rechercher et à qui est destiné en particulier ce marquage ?
07:25 Le marquage, avant tout, historiquement, il a été destiné, on pourra peut-être nous
07:29 en préciser, au contrôle de l'IP, c'est-à-dire au contrôle de la propriété intellectuelle.
07:32 Du moment où j'ai un filigrané des images artistiques, je peux les retrouver partout,
07:35 je sais quelles sont les contrefaçons, je sais quels sont les usages licites, ou je
07:38 vois quels sont les détournements.
07:39 La première utilisation, c'était ça.
07:40 La deuxième, c'est l'anti-leaks, c'est-à-dire l'anti-fuite.
07:42 Par exemple, le dernier modèle de Samsung, il n'a peut-être pas envie, Samsung, que
07:46 fuite le design de son dernier modèle.
07:48 Donc là, ça a un effet préventif puisque les gens savent que c'est watermarké, donc
07:51 ils ne vont pas le leaker.
07:52 Et si toutefois ça a été leaker, on sait retrouver exactement quelle est la personne
07:55 qui a leaker en traçant tout simplement ce leak.
07:57 Et maintenant que l'intelligence générative arrive, en fait, avec l'essor de l'intelligence
08:01 artificielle générative, en fait, ça vient servir d'authentification de tout ce qui
08:05 sort.
08:06 Je peux authentifier des images qui ne sont pas générées, qui sont réelles, en réintégrant
08:09 les métadonnées, mais je peux aussi identifier des modèles de fondation et des images synthétiques
08:14 avec presque la même technologie.
08:16 Ça reste du filigrane invisible, mais ce n'est pas les mêmes techniques derrière.
08:18 Donc là, c'est plus pour la protection du droit d'auteur ?
08:22 Avant, pour la protection du droit d'auteur, fuite et maintenant authentification, droit
08:26 à l'information, fiabilité de l'information.
08:27 Du côté des armes juridiques, Mme Bouchard, est-ce qu'on est bien doté aujourd'hui ?
08:34 Est-ce qu'il vous semble par exemple que dans l'IACT, sur lequel on a un premier accord
08:38 politique, il y a des choses intéressantes pour lutter contre les deepfakes ?
08:41 Oui, il y a des choses clairement intéressantes et on met en place un certain nombre de gardefous
08:46 autour de l'intelligence artificielle.
08:48 Quels sont les systèmes qui sont totalement inacceptables ?
08:50 Quels sont ceux qui sont à haut risque et qu'il faut structurer, organiser pour que
08:54 justement les personnes et leurs droits soient correctement respectés ?
08:58 Et quels sont ceux qui sont à risque minimal et qui sont acceptables avec des sanctions
09:02 associées qui peuvent aller jusqu'à 35 millions d'euros et 7% du chiffre d'affaires quand
09:06 on utilise cette intelligence artificielle ?
09:09 Quand en tant que fournisseur, on lance des intelligences artificielles qui sont totalement
09:13 interdites.
09:14 Donc oui, il y a un arsenal qui se met en place.
09:16 Après, c'est long.
09:17 Il y a eu un accord provisoire, on attend que ce soit définitif.
09:20 Puis ensuite, il va y avoir deux ans pour sa mise en place.
09:22 Et c'est un système, on en parlait, qui va très vite.
09:25 Et donc, est-ce qu'il sera tout aussi bien et efficace dans deux ans ?
09:30 On en reparlera à ce moment-là.
09:31 Mais en attendant, on n'est pas totalement dépourvus.
09:34 Même sans parler de l'IACT aujourd'hui ?
09:37 Non, on n'est pas totalement dépourvus.
09:39 On disait tout à l'heure qu'effectivement, les watermarkings servent beaucoup pour lutter
09:46 contre la contrefaçon.
09:47 Et effectivement, la contrefaçon, qu'il y ait ou pas un watermarking, on peut lutter
09:51 contre elle, contre les actes de contrefaçon.
09:53 Comme vous disiez très justement, lorsqu'il y a une information, une sorte de fake news
10:01 qui est propagée par l'intelligence artificielle, en faisant des recherches, on y arrive et
10:05 on arrive à le démontrer et on peut engager des actions.
10:07 Donc en fait, ce qui est intéressant, c'est qu'on est en train de mettre en place quand
10:10 même un arsenal qui structure un peu le tout, qui doit tenir compte de pas mal d'éléments,
10:15 notamment dans le contexte de l'internationalisation, le contexte de la technologie.
10:19 Par exemple, les Etats-Unis se sont un peu insurgés contre notre IACT en disant finalement
10:24 est-ce que ce n'est pas un système qui va privilégier les entreprises qui auront beaucoup
10:29 de moyens pour lancer tout cela au détriment de l'innovation et de plus petites entreprises.
10:34 C'est plutôt la France qui s'est insurgée d'ailleurs.
10:36 Également, également, également.
10:39 Donc c'est vrai que c'est intéressant et ça ouvre beaucoup de problématiques.
10:43 Mais il me semble que le watermarking est un moyen efficace sur lequel vous avez énormément
10:48 d'acteurs qui travaillent et qui cherchent à renforcer aussi le système.
10:53 Là récemment, il y a des scientifiques qui ont fait un test sur des systèmes de watermarking
11:00 et qui ont vu qu'on pouvait encore avec certaines technologies les retirer.
11:06 Et vous avez aussi des sites ou des applications, notamment watermarkremover.io et ce genre
11:14 de choses qui vous permettent assez simplement, sous réserve des technologies qui évoluent
11:18 sans cesse, de retirer aussi un watermarking.
11:21 Donc il faut avoir un watermarking efficace, anticiper constamment, j'imagine que c'est
11:29 ce que vous faites au quotidien, les solutions de contournement.
11:32 On a beaucoup entendu parler au moment de ChadGPT de ces étudiants qui utilisaient
11:37 ChadGPT pour faire leur dissertation.
11:40 Et il y avait les outils qui permettaient de savoir si de l'intelligence artificielle
11:45 avait été utilisée et les outils qui permettaient de faire en sorte que les outils ne détectent
11:49 pas que l'intelligence artificielle avait été utilisée.
11:52 Donc on est un peu là sur un système qui a du sens et qui, à mon sens, va s'amplifier,
11:58 va se solidifier, va se structurer et avec un vrai travail, à mon sens, qui sera à
12:03 la charge des entreprises, de s'assurer qu'il y ait le moins de contournement possible
12:08 pour que le système soit réellement fiable.
12:09 Vous faites référence à une étude qui a montré à quel point le watermarking aussi
12:14 pouvait avoir ses failles, être fragile et combien l'éducation du public restait importante.
12:19 C'est d'autant plus important d'éveiller notre oeil, notre oreille à tous ces dits
12:26 fake parce que finalement aujourd'hui, quel est le niveau de diffusion d'armes anti-deepfake ?
12:32 Il n'est pas si élevé.
12:34 Vous étiez chez TF1 aux affaires réglementaires.
12:39 Quel est le niveau de prise de conscience aujourd'hui des grands médias sur le danger
12:44 des deepfake ?
12:45 Je pense que les prises de conscience, je ne parle pas pour TF1, mais les prises de
12:49 conscience sont là.
12:50 Chaque chaîne de télévision a presque une cellule de fact-checker.
12:54 Ensuite, en termes technologiques, on peut mentionner que TF1 a adhéré récemment au
12:59 JTI, le Journalist Trust Initiative, qui permet finalement sur les informations fiables,
13:04 je parlais tout à l'heure d'authentifier les informations fiables, là elle le serait,
13:06 et elle serait remontée dans le référencement naturel des résultats de Bing.
13:11 Donc ça, oui, il y a des prises de conscience.
13:14 L'utilisation dans les faits ?
13:15 Dans les faits, pas tant que ça.
13:19 Je pense que pour le moment, les médias et les éditeurs sont victimes de tout ça.
13:22 Et plus le temps passe, plus ils sont victimes, puisque plus ils sont dilués dans l'information
13:25 fausse qui est de plus en plus réaliste.
13:27 Donc oui, il faut un sursaut.
13:28 Et pour nous, évidemment, le sursaut consiste, par exemple, pour un éditeur, à watermarker
13:33 tout ce qui sort, ou au moins les éléments les plus critiques.
13:35 Parce qu'il pourra démontrer plus tard que ce n'est pas lui qui l'a détourné.
13:37 Il pourra démontrer que son image d'origine, c'est celle-ci, et que ce qui était sur
13:41 le web et qui a fait du buzz, c'est celle-là.
13:42 Et ce n'était pas la sienne.
13:43 C'est celle qui a été détournée en deepfake.
13:45 Et ça, c'est en termes de responsabilité aussi.
13:47 C'est un processus fastidieux, onéreux.
13:50 Mais il y a tellement de contenu généré que c'est difficile de le mettre en place
13:53 systématiquement pour l'ensemble des contenus générés de toute façon.
13:56 Ah, pour l'ensemble des contenus générés ?
13:57 Oui, et même pour le grand public.
13:59 Quand moi j'ai envie de générer une image parce que ça m'amuse de jouer avec ces outils
14:04 et que je la diffuse sur les réseaux sociaux, j'ai quel outil aujourd'hui pour dire que
14:07 c'est mon image et que je n'ai pas envie qu'on y touche ?
14:09 Ah, aucun.
14:10 Absolument aucun outil.
14:11 Après, c'est du DRM.
14:12 Là, on ne parle pas du DRM.
14:14 Le DRM, c'est encapsuler votre image dans un système logiciel qui fait que je ne vais
14:18 pas pouvoir…
14:19 Ça me rappelle une autre époque.
14:20 Une autre époque.
14:21 On revient dans le passé.
14:22 Aucun technologique.
14:23 On protégeait les musiques du téléchargement.
14:24 C'est ça.
14:25 Aucun technologique.
14:26 En revanche, vous avez quand même des outils juridiques.
14:27 C'est-à-dire que quand vous avez des droits, vous avez la possibilité de vous opposer
14:29 à leur utilisation par des tiers dans des conditions qui, si ce n'est pas autorisé
14:32 par l'Etat.
14:33 Est-ce que j'ai des droits, justement, parce que c'était ma deuxième question,
14:35 est-ce que j'ai des droits sur une image que j'ai générée, moi, certes, mais avec
14:39 une image générative ?
14:40 Alors, c'est une question très intéressante et qui alimente beaucoup les tribunaux, la
14:48 doctrine et tous ceux qui parlent de ces sujets.
14:50 Moi, je pense que oui, à la condition qu'on ait eu un rôle proactif dans la génération
14:56 de l'image.
14:57 C'est-à-dire que, clairement, si on demande à une intelligence artificielle générative
15:03 de créer une image de plateau dans le style de tel ou tel artiste, finalement, on n'a
15:10 pas créé grand-chose.
15:11 En revanche, si on donne des instructions très précises et si on a plusieurs interactions
15:16 avec le logiciel d'intelligence artificielle, moi, je pense qu'on a une part créative
15:21 assez importante, assez structurelle et que dans ces conditions, on peut être titulaire
15:24 de droit.
15:25 Ça se défend, en tout cas.
15:26 Exactement.
15:27 On peut essayer de la défendre.
15:28 En fait, le droit d'auteur, c'est être capable de montrer qu'il y a l'empreinte
15:30 de la personnalité d'une personne en tant qu'auteur.
15:32 Donc, si on peut démontrer qu'il y a l'empreinte de notre personnalité dans une
15:37 œuvre, quelle qu'elle soit, même si on est passé par l'intelligence artificielle,
15:41 pour moi, on devrait avoir des droits.
15:42 En revanche, moi, je milite pour une transparence et c'est aussi à ça que sert le watermarking.
15:47 On ne peut pas utiliser l'intelligence artificielle pour créer une œuvre dans laquelle on a
15:53 été plutôt proactif et ne pas le dire.
15:55 En fait, pour moi, il y a vraiment cet enjeu et surtout avec les enjeux de watermarking
15:59 aujourd'hui.
16:00 Cette obligation va apparaître dans le règlement.
16:03 Oui, mais c'est l'objet, vraiment la transparence et l'éthique, c'est des éléments essentiels.
16:08 Un verrou à lever pour qu'on y arrive vraiment à mettre en place ces outils contre les
16:13 deepfakes très rapidement, Anthony ?
16:15 Très rapidement, le verrou à lever, c'est en fait faire un état des lieux des technologies
16:18 qui permettent de faire du watermarking.
16:19 Quels sont les plus robustes ?
16:20 Parce que Maître Bouchard a mis le doigt dessus.
16:22 C'est-à-dire qu'une technologie de watermarking qui ne serait pas assez robuste participerait
16:25 à saper la confiance, en fait, y compris dans l'identification des contenus.
16:29 Donc, il est extrêmement important d'avoir la meilleure possible.
16:31 Nous, on sait qu'on est les plus robustes au monde.
16:32 Vous avez cité une étude académique il y a peu de temps qui s'est intitulée "We
16:36 broke the mold".
16:37 On n'a pas le temps de faire la preuve ici sur ce planète.
16:38 Non, non, mais voilà, la robustesse est extrêmement importante dans la fiabilité et la confiance
16:43 du public.
16:44 Mettons à l'épreuve ces technologies, en tout cas.
16:45 Merci beaucoup, Anthony Level, responsable de la stratégie réglementaire et juridique
16:48 de l'IA chez Imatag et Maître Bouchara, avocate spécialisée chez Bouchara Avocat.
16:53 Merci à vous.
16:54 On a rendez-vous, merci beaucoup.
16:55 On a rendez-vous tout de suite avec le monde de la donnée.
16:57 regarder comment gérer au mieux cette donnée dans le secteur public.