Modération : Adrien Cornelissen, auteur et journaliste spécialiste en création numérique.De quelles manières les artistes s’approprient-ils ces IA pour créer des univers immersifs et virtuels ? Que permettent ces outils et que ne permettent-ils pas ? Ces intelligences artificielles génératives ouvrent-elles forcément des futurs créatifs souhaitables ? Comment les professionnels de la création numérique et des industries culturelles et créatives anticipent-ils cette révolution en marche ? avec les artistesIsmael Joffroy Chandoutis.
Justine Emard
Bruno Ribeiro
Justine Emard
Bruno Ribeiro
Category
🗞
NewsTranscription
00:00:00Année 2024, le mot très à la mode, IA, année 2022 c'était NFT, donc chaque année
00:00:08à son lot. L'idée c'est de décrypter un petit peu les enjeux qu'il y a autour
00:00:12de cet IA. On m'a dit assez récemment qu'il ne fallait pas dire les IA parce qu'il y
00:00:17avait un côté anthropomorphique et que du coup on était un peu décalé par rapport
00:00:21à la technologie. Donc je vais m'efforcer de dire IA aujourd'hui, une intelligence
00:00:24artificielle. Et pour parler d'un sujet, des opportunités qui sont liées à la création,
00:00:30qu'est-ce que ça engendre dans le domaine de la création numérique, ça c'est peut-être
00:00:33intéressant. Et le corollaire c'est aussi d'envisager les faits plus négatifs, qu'est-ce
00:00:37que ça ne permet pas dans le domaine de la création numérique. Aujourd'hui on a un panel
00:00:43particulièrement intéressant parce qu'on a trois jeunes artistes qui travaillent sur
00:00:45ces IA de différentes manières dans différents champs disciplinaires. A ma droite, je vais
00:00:50les tutoyer parce que je les connais un petit peu et ça serait bizarre et je sais qu'on
00:00:52va glisser dans quelques instants si on commence à se voyer. A ma droite, Justine Emart. Justine,
00:00:58tu es artiste contemporaine, d'art contemporain. Tu travailles le médium numérique de l'image,
00:01:07de la photographie, de la vidéo, de la VR, réalité virtuelle. Ton travail particulièrement
00:01:12est intéressant aussi parce qu'il est au croisement des neurosciences et de l'interaction
00:01:16entre la machine et l'homme. Est-ce que tu peux nous citer deux travaux que tu as réalisés
00:01:21récemment autour de la question de l'IA ? Hyperphantasia peut-être ?
00:01:25Oui, Hyperphantasia, des origines de l'image qui est une grande installation qui finalement
00:01:32revient à qu'est-ce que c'est que l'origine de l'image ? Donc à la fois l'origine de
00:01:36l'image dans notre cerveau et puis l'origine de l'image dans la création humaine et dans
00:01:42le fond des grottes et notamment tout un travail avec un système génératif qui va créer
00:01:49des nouvelles images de la grotte Chauvet, donc tout un travail plutôt scientifique.
00:01:54Peinture épaisse. Voilà, peinture épaisse, à la croisée entre l'art et les sciences
00:01:59aussi, puisqu'il y a une dimension aussi scientifique dans ce projet-là et dans mon
00:02:03utilisation d'intelligence artificielle qui est très souvent couplée à des laboratoires
00:02:07ou à cette dimension de recherche. Plusieurs laboratoires en Asie, au Japon ?
00:02:11Oui, et j'ai aussi tout un corpus d'œuvres que j'ai créé entre 2016 et 2017.
00:02:19J'ai créé un corpus d'œuvres en 2019 au Japon avec des laboratoires japonais et notamment
00:02:26celui de Takashi Ikegami de l'Université de Tokyo qui s'intéresse plutôt au domaine
00:02:30de la vie artificielle qui est beaucoup plus large que l'intelligence artificielle et
00:02:34qui est aussi assez fascinant.
00:02:36Ok, peut-être tu pourras nous donner aussi la définition de la vie artificielle. Je
00:02:40souligne aussi que tu es artiste, professeur, invité au Fresnois, le studio national des
00:02:44arts contemporains, une excellente école que je recommande pour ceux et celles qui
00:02:48sont dans la création numérique. Et puis que tu travailleras particulièrement aussi
00:02:52sur Osaka, l'exposition universelle au Japon, sur le pavillon français.
00:02:58Exactement, je suis directrice artistique pour l'exposition permanente du pavillon
00:03:04de la France à l'exposition universelle de Osaka. Et là encore une fois, un terrain
00:03:08d'expérimentation, d'expérience de recherche mais qui est placé dans une direction beaucoup
00:03:14plus nationale et internationale.
00:03:16Ok, merci Justine d'être présente. Ismaël Geoffroi Chandouty, tu es un artiste reconnu
00:03:22pour ton travail autour de la vidéo, de l'art contemporain et de la post-photographie.
00:03:25Déjà, qu'est-ce que ça veut dire post-photographie ? Post-documentaire et post-photographie ?
00:03:29Quand l'image n'est plus générée par quelque chose qui a trait à la lumière,
00:03:37mais que ça se produit d'une autre manière, synthétique peut-être.
00:03:41Ok, j'imagine aussi que l'IA est au cœur de ces dispositifs dans la post-photographie
00:03:47et post-documentaire ?
00:03:49Oui, c'est-à-dire de se dire ce que c'est que de raconter le réel quand on ne part
00:03:54pas physiologiquement de cette captation de lumière.
00:03:58Ton travail a été présenté au Centre Pompidou, au Pearl Art Museum à Shanghai,
00:04:04présenté dans des gros festivals comme la Biennale Nemo qui est l'une des grosses
00:04:07références en France sur la question des arts numériques.
00:04:10Et puis, tu as gagné pas mal de prix, également le César du meilleur cours documentaire
00:04:15en 2022 avec ton oeuvre Malbec.
00:04:18Tu peux peut-être nous en toucher un mot de cette oeuvre ?
00:04:21Oui, c'est d'ailleurs très particulier d'en parler le 23 mars,
00:04:26car hier il y avait la commémoration des attentats du 22 mars à Bruxelles,
00:04:32pour ne pas parler de ceux de Moscou.
00:04:34Et donc j'ai fait le portrait d'une femme qui s'est réveillée un jour à l'hôpital,
00:04:40trois mois après le début de son coma, et qui a survécu à l'explosion qui a eu lieu
00:04:47en 2016 dans la rame de métro à la station Malbec à Bruxelles,
00:04:52et qui ne se souvenait de rien.
00:04:54Et du coup, je l'ai suivi pendant 4-5 ans dans sa quête de retrouver cette image manquante.
00:05:02Il s'agissait pour moi de ne pas forcément capter le réel directement,
00:05:09mais de le réinventer, puisque c'était surtout sa réalité intérieure
00:05:13que j'essayais de dépeindre à travers les images.
00:05:16Avec une IA ?
00:05:18C'était un procédé de photogrammétrie, où ce que j'ai essayé de faire,
00:05:25c'est de ne pas forcément reconstituer de manière photoréaliste
00:05:30les images que j'avais captées, les mettre dans un environnement 3D,
00:05:33mais plutôt de les laisser un état de fragment,
00:05:36qui était pour moi la manière de mettre les spectateuristes dans cette sensation
00:05:42de son identité, ou d'une réalité, ou d'un souvenir brisé.
00:05:48C'est-à-dire que ce qui a été soufflé, ce n'est pas seulement une violence physique,
00:05:52c'est aussi ses souvenirs.
00:05:55Tu nous parleras plus longuement de tes œuvres.
00:05:57Tu es aussi artiste associé au 104, actuellement, et tu travailles.
00:06:02Tu as la particularité d'avoir l'une de tes œuvres qui a été achetée par un musée,
00:06:08enfin, qui a été acquis par le premier établissement...
00:06:12J'ai du mal à formuler cette phrase.
00:06:14Le premier établissement français qui a acquis une œuvre en NFT,
00:06:18c'était ton œuvre, ainsi que celle de quelques autres artistes,
00:06:21au musée Granet, à Aix-en-Provence, en 2023.
00:06:25Dernier invité, Bruno Ribeiro.
00:06:28Tu es artiste.
00:06:30Tu réalises des installations, des œuvres interactives, de la scénographie,
00:06:34sur plein de médiums.
00:06:36Est-ce que tu peux nous parler d'un de tes travails ?
00:06:38Tu m'as montré tout à l'heure un de tes travails que tu faisais autour de la main et de l'IA.
00:06:41Oui, effectivement.
00:06:43Mon premier projet autour de l'IA, je l'ai fait l'année dernière.
00:06:47Et c'était quelque chose qui m'obsédait depuis un certain temps.
00:06:50C'était justement la représentation de la main,
00:06:53la représentation biaisée des IA.
00:06:55Est-ce que les IA ont vraiment du mal à représenter une main ?
00:06:58C'est une faille qu'elles partagent avec les êtres humains.
00:07:01Pour les êtres humains, la chose la plus dure à peindre, c'est les mains ou les pieds.
00:07:04Parce que c'est un vecteur d'humanité, il y a plein de positions possibles et différentes.
00:07:08À partir de ce détail, j'ai créé une exposition
00:07:11qui parlait aussi bien de mon rapport à l'image,
00:07:14de mon rapport à la technologie,
00:07:16de comment une IA et ses failles peuvent la rendre sensible.
00:07:23Comme tu en parlais tout à l'heure, on veut des fois humaniser l'IA,
00:07:26on dit que l'IA a des hallucinations, etc.
00:07:29Il y a quelque chose qui m'intéressait là-dedans,
00:07:31c'était vraiment de travailler sur l'accident.
00:07:33C'est plus le côté un peu aléatoire que je peux chercher
00:07:36quand je vais travailler avec des IA.
00:07:38Ce qui m'intéresse, c'est plus ce qu'elle va me proposer dans ses erreurs
00:07:41que quelque chose que j'ai vraiment cherché à provoquer à 100%.
00:07:44Un travail également sur le corps, la perception, la construction du réel,
00:07:48comme les trois invités qui sont là.
00:07:50Tu as montré des travaux à la Fête des Lumières à Lyon,
00:07:54au Nour Festival, à Riyad, au Lighthouse Gallery à Los Angeles,
00:07:59des œuvres qui sont montrées un peu partout dans le monde.
00:08:02Trois artistes internationaux.
00:08:04On rigolait tout à l'heure parce qu'on disait que l'IA,
00:08:06ça se compte en années numériques.
00:08:08Ça fait quelques années que ces artistes travaillent sur l'IA,
00:08:12mais finalement, ça en fait déjà des précurseurs presque.
00:08:15Même si aussi, il faut se souvenir que l'IA dans le domaine de l'art,
00:08:18ce n'est pas une notion qui est travaillée seulement depuis 5 ans,
00:08:20ou depuis 2023, depuis les annonces,
00:08:22mais depuis 50 ans déjà par des artistes qui sont précurseurs.
00:08:25Mais il n'empêche que le savoir-faire que vous avez acquis,
00:08:28on pourrait considérer que vous êtes expert en la question.
00:08:30Ma première question, je suis journaliste,
00:08:33je travaille spécifiquement sur l'impact du numérique
00:08:36dans le domaine de la création artistique,
00:08:38pour une dizaine de magazines en France.
00:08:41La première question que je m'étais posée,
00:08:43et que je vais également vous poser,
00:08:45qu'est-ce que c'est une IA générative ?
00:08:47Qu'est-ce que c'est cette histoire de deep learning, de LLM ?
00:08:54En quelques mots, parce que c'est pour cadrer le sujet, s'il vous plaît.
00:09:00On va peut-être commencer par le plus connu,
00:09:03qui est ChatGPT,
00:09:05qui est en tout cas le point d'entrée pour le grand public
00:09:08sur les IA dans un usage pratique,
00:09:10qui est devenu un peu tous les jours.
00:09:12LLM, c'est un Large Language Model,
00:09:15où en tapant des textes sous forme de langage naturel,
00:09:23on obtient des réponses rapides, précises,
00:09:27qui sont une espèce de Google augmenté,
00:09:29dans l'usage en tout cas qui s'en fait.
00:09:32Et c'est basé sur un système d'entraînement de textes
00:09:36qui sert à prédire la suite d'une série de textes.
00:09:41Et donc, le modèle le plus simple,
00:09:45c'est votre correcteur orthographique sur votre téléphone.
00:09:50Et on pourrait dire que de cette chose-là,
00:09:52c'est une version extrêmement complexe.
00:09:54D'autant qu'aujourd'hui, cet usage est devenu multimodal,
00:09:59puisqu'on ne parle plus qu'avec du texte,
00:10:02avec ChatGPT en tapant, on peut lui parler,
00:10:05on peut soumettre des photos, du son,
00:10:09et on peut combiner plusieurs types de médias.
00:10:13Et d'obtenir des tâches qui peuvent aller de,
00:10:17résume-moi un document de 2000 pages,
00:10:20juridique, en termes très simples,
00:10:22pour un enfant de 12 ans.
00:10:23Donc en texte ?
00:10:24Voilà, en texte.
00:10:25Mais il y a la faculté d'être incarné par une voix.
00:10:29Et on peut, à l'issue de cette recherche,
00:10:32qu'elle soit universitaire ou autre,
00:10:34dire génère-moi une image de ce que tu viens de me dire.
00:10:37Et maintenant, intégrer un générateur d'images
00:10:40qui s'appelle Dali,
00:10:41qui a une particularité par rapport au reste
00:10:45de ce qui se fait sur le marché,
00:10:47d'être extrêmement précis dans un certain nombre
00:10:50d'éléments à paraître.
00:10:52Parce que les autres, de ce que moi j'ai pu comprendre,
00:10:55il y a plus de limites dans le nombre d'éléments
00:10:58qu'on peut afficher ou combiner.
00:11:00Qui veut compléter cette réponse déjà très complète
00:11:03de ce qu'est une IA générative ?
00:11:06Ce qu'a défini Ismaël, c'est vraiment la démocratisation
00:11:10des IA pour le grand public,
00:11:12qui est quelque chose qui a un an, un an et demi,
00:11:14qui est assez récent.
00:11:15Mais avant ça, l'IA générative et l'IA au sens large,
00:11:20c'était plutôt un domaine scientifique.
00:11:22C'était plutôt de la recherche qu'on faisait,
00:11:24qui était déjà appliquée dans plein de domaines,
00:11:27puisque c'est déjà des systèmes qui sont partout,
00:11:29des systèmes de machines auto-apprenantes.
00:11:33Et qui ont été vraiment boostés depuis 2010
00:11:37grâce aux nouvelles façons, aux nouvelles capacités
00:11:40de computing.
00:11:42Et tout à l'heure, j'évoquais le champ de la vie artificielle
00:11:45qui a été créé en 1989 par Christopher Langton,
00:11:49et qui était cette idée d'ouvrir un champ de recherche
00:11:52autour de la computation, d'observer des systèmes
00:11:56présents dans la nature.
00:11:57Donc des systèmes qui sont déjà là sous nos yeux,
00:12:00d'essayer de les analyser, de les resimuler par ordinateur
00:12:04pour essayer de rentrer dans une autre forme
00:12:07de computation du réel, de créer des nouveaux algorithmes
00:12:10et d'aller chercher des nouvelles choses.
00:12:14Donc c'est déjà quelque chose qui est hyper large,
00:12:17qui existe depuis de nombreuses années.
00:12:19Mais c'est vrai que ça a été rendu très largement diffusé
00:12:23et diffusable avec ces nouveaux...
00:12:25Et dans l'incroyable collectif, c'est en train de prendre
00:12:27cette définition, cette tournure.
00:12:28C'est-à-dire que dans l'incroyable collectif,
00:12:29IA égale IA générative égale chat GPT, d'une certaine façon.
00:12:33Égale aussi gain de temps, il y a quand même aussi
00:12:37cette dimension de productivité, de fonctionnalité
00:12:41qui est hyper présente, alors que justement,
00:12:43quand on l'utilise comme outil ou comme médium artistique,
00:12:46pour moi, par exemple, c'est un temps qui est
00:12:49beaucoup plus délayé, c'est beaucoup plus lent
00:12:50de travailler avec ces procédés.
00:12:52Et c'est ça qui est intéressant, c'est que pour le grand public,
00:12:54c'est vraiment la fonctionnalité, la productivité,
00:12:57mais un petit peu comme le rapport qu'on a à la robotique,
00:13:00qui est toujours quelque chose qui va nous aider
00:13:03à accomplir des tâches, qui est une fonction
00:13:05et qui n'est pas là pour son existentialité.
00:13:09C'est drôle ce que tu dis, je vais rebondir là-dessus,
00:13:11parce qu'effectivement, l'un des autres projets
00:13:13que j'ai fait s'appelle Celluloid.
00:13:15C'était de partir des films des Frères Lumière
00:13:17et de les réinterpréter avec Warp Diffusion,
00:13:20qui est un autre modèle, mais c'est pas grand public.
00:13:22C'est vraiment genre power user, c'est du code,
00:13:26il faut aller sur Google Collab, c'est l'enfer.
00:13:28Et justement, au début, je me disais,
00:13:30ça va être bien de travailler comme ça,
00:13:33parce que je vais pas forcément gagner du temps,
00:13:35mais je vais pouvoir avoir des résultats
00:13:37qui sont cools plus rapidement, surtout dans le processus.
00:13:39C'est vraiment de transformer les films des Frères Lumière,
00:13:41l'arrivée du train de la guerre de la Ciotat,
00:13:43en films de cow-boy.
00:13:44Et en fait, c'est un film sur lequel je pensais passer
00:13:47peut-être un mois, c'est devenu trois mois,
00:13:49et en fait, je dormais plus.
00:13:51Parce qu'en gros, déjà, le mot intelligence,
00:13:55moi, dans ce processus-là, je le voyais pas,
00:13:57il y avait rien d'intelligent de travailler avec Warp Diffusion,
00:13:59parce que c'était juste un modèle entraîné avec des images,
00:14:01et puis évidemment, il n'avait aucun raisonnement,
00:14:04et en fait, il appliquait ce que je lui demandais,
00:14:06mais par contre, c'était complètement aléatoire.
00:14:08La plupart du temps, c'était des choix qu'il faisait lui-même arbitraires,
00:14:10avec des mots, des petites variations,
00:14:12et puis en fait, tu lances les calculs,
00:14:13tu reviens une demi-heure après,
00:14:14et puis en fait, tu vois que c'est tout nul,
00:14:16et là-dessus, c'est pas du tout un gain de temps
00:14:18quand c'est appliqué à certaines pratiques.
00:14:21C'est pas un gain de temps, et en même temps,
00:14:23la variation des IA génératives,
00:14:25du moins celles qui sont accessibles au grand public,
00:14:27à tout à chacun,
00:14:29permet une conversion de vidéos, d'images, de sons,
00:14:33qu'est-ce que ça permet d'autre ?
00:14:35Qu'est-ce que permettent ces IA ?
00:14:37Cette IA ?
00:14:38J'avais dit que je mettrais pas de pluriel.
00:14:43Je dirais qu'il y a,
00:14:45pour essayer toujours de rester dans quelque chose de très général,
00:14:49mais vers où on va dans le possible,
00:14:51parce que le dire à l'instant T, c'est toujours un peu difficile,
00:14:54mais dans un futur proche, c'est une convergence
00:14:58des outils pour le domaine artistique
00:15:02et quand même l'expression de soi sur les réseaux sociaux
00:15:05ou pour communiquer, etc.,
00:15:07qui va vers la création de mondes, d'histoires,
00:15:10où plein de disciplines qui étaient différentes
00:15:14ont tendance à converger.
00:15:16Donc c'est pour ça que c'est...
00:15:18Tu peux donner un exemple ?
00:15:21Un de mes points d'entrée pour réfléchir à l'intelligence artificielle,
00:15:24c'était autour du deepfake.
00:15:28L'idée d'avoir la possibilité de changer son visage
00:15:33pour prendre celui d'une autre source
00:15:36et coller un visage de quelqu'un sur une autre personne.
00:15:40Pour faire très simple,
00:15:42des filtres sur Snapchat ou Instagram le permettent,
00:15:45de manière rigolote.
00:15:46Il y a une autre partie qui est beaucoup moins dramatique,
00:15:49c'est d'être dans des formes de stigmatisation
00:15:53et d'harcèlement, notamment sur les femmes,
00:15:56puisque 95% des deepfakes pornographiques, c'est sur des femmes.
00:16:00Les 5% restants, c'est pour des formes d'humour
00:16:04ou de pastiche sur des hommes.
00:16:06Donc ça donne bien quand même une orientation.
00:16:08Et donc ça, c'était déjà un usage...
00:16:10Enfin, ça vient d'Hollywood.
00:16:12À la base, tout ça vient d'Hollywood,
00:16:14de l'idée d'avoir des stars qu'on peut constamment utiliser
00:16:17au niveau de leurs attributs, même après leur mort.
00:16:20Et ces outils-là se sont automatisés
00:16:23et ont fini par tomber quelque part
00:16:25dans ce qu'on appelle l'IA aujourd'hui,
00:16:27au niveau algorithmique.
00:16:28Donc ça, c'est un des usages qui va permettre peut-être aussi
00:16:31de se défendre, c'est-à-dire que,
00:16:33plutôt que de se présenter sous sa vraie identité
00:16:35qui a le risque d'être dérobée,
00:16:37on se présenterait sous forme d'avatars,
00:16:39et donc des avatars qu'on pourrait avoir
00:16:41sous forme de dessins animés,
00:16:43mais aussi de manière photoréaliste, mais différente.
00:16:46Et après, sur le reste,
00:16:48je dirais qu'il faut ramener ça au jeu vidéo,
00:16:51c'est-à-dire que le jeu vidéo contient à peu près tous les arts,
00:16:55et cette forme de monde qu'on fait en 3D tout de suite,
00:17:00l'autre partie qui génère du photoréalisme,
00:17:03tout ça est en train de se rejoindre à travers des outils
00:17:06qui sont quand même beaucoup de labeur à programmer,
00:17:10et qui peut-être, dans un futur proche,
00:17:13seront faits par une voix orale
00:17:16qui instruira des idées au fur et à mesure de son flux de pensée,
00:17:20pour générer un world building,
00:17:22un monde entier, autonome, systémique,
00:17:25et qui est simulé.
00:17:27Ça veut dire que potentiellement,
00:17:29tout le monde pourrait créer son propre monde, c'est ça l'idée ?
00:17:31Je pense que ça va être le cas.
00:17:33Est-ce que tu peux, très rapidement,
00:17:35avant de passer la parole,
00:17:37parler de ton oeuvre Madotsuki the Dreamer,
00:17:39en l'occurrence sur les avatars,
00:17:41de ce qui est possible avec l'IA ?
00:17:44J'ai fait un projet qui est dans cette recherche sur le deepfake,
00:17:48autour d'un personnage qui s'appelle Joshua Reingoldberg,
00:17:52qui a été un troll prolifique,
00:17:55qui s'est créé une centaine de personnages,
00:17:58qui vont de féministes radicales à néo-nazis,
00:18:01en passant par djihadistes.
00:18:03C'est cette dernière qui lui a valu quelques bricoles,
00:18:06puisque sous couvert de démasquer d'autres djihadistes,
00:18:10il a discuté avec un jeune apprenti étudiant,
00:18:12dont il avait donné des conseils pour fabriquer une bombe,
00:18:17en faisant des captures d'écran pour le dénoncer au FBI.
00:18:20Il se trouve que cet étudiant apprenti
00:18:23était lui-même un agent double du FBI,
00:18:25ce qui l'a mené à être arrêté et en prison pour dix ans.
00:18:29Il s'agissait, dans ma recherche,
00:18:31de me dire comment je vais montrer ce personnage
00:18:35qui est protéiforme,
00:18:37et qui lui-même se décrit,
00:18:39parce que c'est quelqu'un qui est sur le spectre de l'autisme,
00:18:42qui est dans un monde assez fermé, très souvent chez lui.
00:18:46Donc, dans une forme d'onirisme,
00:18:48je trouvais que ça raisonnait,
00:18:51avec la capacité des IA à halluciner un monde
00:18:55dans lequel ça ne s'arrête jamais,
00:18:58ça ne se stabilise jamais.
00:19:00Et donc, quand j'ai fait cette work in progress,
00:19:05j'ai préféré montrer un monde
00:19:07qui est tout le temps en mouvance et qui bouge,
00:19:10plutôt que de l'arrêter sur une forme de réalisme
00:19:13qui, pour la plupart des images qu'on voit dans l'IA,
00:19:17ressemble à un réalisme netflixien.
00:19:19On en parlera tout à l'heure sur l'uniformisation des esthétiques,
00:19:22c'est très intéressant.
00:19:24Des remarques sur les nouvelles possibilités ?
00:19:27Justine, sur ton travail, Hyperphantasia, Supraorganisme ?
00:19:32Pour Hyperphantasia,
00:19:35dans mon travail, il se pose toujours la question
00:19:39de la base de données,
00:19:41comment est-ce qu'on peut aussi entraîner
00:19:44nous-mêmes des modèles,
00:19:46comment est-ce que l'artiste va...
00:19:48C'est ça qui est intéressant,
00:19:50c'est de s'emparer de ses outils,
00:19:52mais moi, travailler avec mi-journée,
00:19:54pour l'instant, ce n'est pas quelque chose qui m'intéresse.
00:19:57Je pense qu'il y a vraiment des projets qui s'y prêtent,
00:20:00mais pour moi, ce qui m'intéresse,
00:20:03c'est de maîtriser de A à B,
00:20:06toute la chaîne de création.
00:20:08L'idée, c'était d'entraîner mes propres modèles
00:20:11sur une base de données,
00:20:13celle de la conservation de la Grotte Chauvet.
00:20:17Ça a été assez fascinant,
00:20:20puisque techniquement, comment on fait
00:20:22pour récupérer ces images,
00:20:24qui sont des images très protégées ?
00:20:26J'ai dû entraîner différents modèles
00:20:29par rapport à différents univers dans la grotte,
00:20:32puisque c'est une grotte qui est très multiforme.
00:20:35Il y a vraiment des peintures, des gravures.
00:20:38Pour moi, c'était hyper riche,
00:20:40parce qu'il y en a des milliers.
00:20:42On peut vraiment aller chercher quelque chose
00:20:45et retrouver des formes.
00:20:47Mais pour moi, la composante qui est intéressante,
00:20:50c'est comment l'être humain
00:20:52rentre dans ce processus de travail,
00:20:54puisqu'on a toujours tendance à se dire
00:20:56que c'est la machine qui fait,
00:20:58c'est toujours un humain qui choisit au final
00:21:00et qui va trouver le sens dans l'image,
00:21:02qui fait sens par rapport à l'histoire de l'humanité,
00:21:05à l'histoire de l'art, par rapport à des références.
00:21:08C'est ce phénomène de la pareidolie
00:21:10que j'ai retrouvé dans l'espace latent
00:21:12et dans toutes les images générées qui m'intéressaient,
00:21:14qui est le phénomène que les hommes et les femmes
00:21:16de la préhistoire ont perçu dans les grottes
00:21:19lorsqu'ils ont apposé ces dessins.
00:21:21C'est quelque chose qui est profondément humain
00:21:23dans le rapport à l'image que j'essayais de retrouver.
00:21:27Il y a quelque chose dans ce projet
00:21:29autour aussi du collectif,
00:21:32c'est-à-dire que les peintures dans les grottes,
00:21:35c'est des peintures qui ont été créées,
00:21:37aujourd'hui c'est prouvé, à plusieurs.
00:21:39Ce n'est pas un seul artiste qui va venir peindre,
00:21:41mais c'était des groupes composés d'hommes,
00:21:43de femmes, d'enfants.
00:21:45C'est ça qui est fascinant aussi,
00:21:47c'est que quand on s'intéresse à l'intelligence artificielle,
00:21:50à l'entraînement des modèles,
00:21:52ça demande aussi des grandes compétences.
00:21:54On est loin de la situation de l'artiste isolé.
00:22:00Je saisis cette remarque au vol
00:22:03pour poser la question des compétences.
00:22:05En l'occurrence, Bruno, tu travailles plus de façon solo
00:22:09sur les projets autour du film des Frères Lumière.
00:22:16Oui, effectivement,
00:22:18mais les modèles qu'on utilise,
00:22:21tous les scripts créés,
00:22:24ça fait partie d'une grande communauté.
00:22:26On passe beaucoup de temps sur Discord
00:22:28et sur des sites affreux comme 6vite.ai
00:22:30pour trouver des modèles.
00:22:32Mais oui, finalement,
00:22:34on n'est pas seul dans cette pratique.
00:22:36Qu'est-ce qu'il faut comme compétences ?
00:22:38Ça m'intéresse vraiment de me dire,
00:22:40pour ne pas avoir ce biais de croire
00:22:42que l'IA fera le travail à la place d'un artiste,
00:22:44parce que non, une IA ne tue pas la créativité,
00:22:46elle peut par contre détruire des filières
00:22:48d'industrie culturelle et créative,
00:22:50mais c'est un autre sujet.
00:22:52Qu'est-ce qu'il faut comme compétences ?
00:22:54Il faut savoir écrire, coder ?
00:22:56En vrai, non.
00:22:58Je pense qu'il faut juste avoir
00:23:00beaucoup de temps devant soi, honnêtement.
00:23:02Moi, je ne sais pas coder,
00:23:04mais je passe beaucoup de temps sur Discord,
00:23:06sur des forums.
00:23:08Effectivement, moi, si dans des résultats,
00:23:10comme je disais tout à l'heure,
00:23:12il y a un lâcher-prise que j'assume,
00:23:14l'intention, tout est très écrit à la base.
00:23:16C'est ça qui est intéressant,
00:23:18c'est comme si c'était un travail
00:23:20avec un autre artiste,
00:23:22qui n'avait qu'à sa tête.
00:23:24C'est comme si à chaque génération,
00:23:26je devais le briefer
00:23:28pour revenir à ce que j'ai dans ma tête.
00:23:30Après, il y a clairement
00:23:32un vrai échange créatif.
00:23:34Ce qui est aussi intéressant,
00:23:36c'est que quand on va générer ces images,
00:23:38vu qu'elles sont générées à partir
00:23:40de milliers d'images entraînées,
00:23:42on est dans un inconscient collectif,
00:23:44comme si toutes les images du monde
00:23:46étaient générées à partir de milliers d'images.
00:23:48C'est un gros amalgame
00:23:50de références communes.
00:23:52J'imagine qu'il y a un talent d'écriture.
00:23:54On parle du prompt aujourd'hui.
00:23:56Oui, effectivement.
00:23:58Mais le prompt,
00:24:00c'est très basique.
00:24:02Parce que finalement,
00:24:04ce qui a le mieux marché,
00:24:06c'est plus les bons modèles
00:24:08et les petites valeurs que tu vas ajuster au fur et à mesure.
00:24:10Après, il y a des gens qui vont poster des prompts,
00:24:12mais c'est du bullshit.
00:24:14Pour rebondir sur ce que tu dis,
00:24:16ce qu'il faut, c'est se faire une expérience
00:24:18sur ses outils.
00:24:20Il faut se tromper,
00:24:22réessayer,
00:24:24persévérer aussi,
00:24:26parce que c'est assez décourageant parfois.
00:24:28Mais c'est ça.
00:24:30Il faut vraiment se mettre à fond dedans
00:24:32et avoir un petit côté geek.
00:24:34Super geek.
00:24:38J'avoue que j'aime bien
00:24:40apprendre en faisant.
00:24:42Et clairement, l'IA, c'est ça.
00:24:44C'est tellement nouveau.
00:24:46À part Midjourney,
00:24:48où tu as une belle interface,
00:24:50quand tu vas sur Warp ou Stable Diffusion,
00:24:52c'est très austère.
00:24:54Et c'est bien.
00:24:56Ce que je veux dire par là, c'est pas bien.
00:24:58Je ne suis pas un mode gatekeeper.
00:25:00On est entre nous.
00:25:02C'est austère parce qu'il y a des millions de possibilités.
00:25:04Plus on rentre là-dedans, plus on sait
00:25:06comment tirer le jus.
00:25:08D'une certaine façon, il faut éclaircir un peu le sujet.
00:25:10Là, on parle de la création.
00:25:12On ne parle pas d'un compte-rendu,
00:25:14de réunion, d'un article quelconque
00:25:16ou d'un devoir à faire à la maison.
00:25:18Il ne s'agit pas de ça.
00:25:20On parle de création, donc de compétences
00:25:22qui sont liées au créatif et pas à une IA.
00:25:24On est d'accord ?
00:25:26L'écriture narrative, la réflexion sur un projet,
00:25:28sa propre culture, etc.
00:25:34Aussi, acquérir une connaissance précise
00:25:36de tout ça.
00:25:38Au niveau de l'image, ça évolue très vite.
00:25:40Tu évoquais l'uniformisation des images.
00:25:42Mais c'est aussi
00:25:44ce qu'on a proposé dans un processus
00:25:46créatif total.
00:25:48C'est pour ça que c'est important
00:25:50de maîtriser tous les maillons de la chaîne
00:25:52même si on ne va pas tout coder,
00:25:54tout faire à la virgule près.
00:25:56Même sur quel serveur
00:25:58on va entraîner ces modèles.
00:26:00Je ne pouvais pas faire un projet
00:26:02sur la conservation d'une grotte et réchauffer
00:26:04sur n'importe quel serveur dans la planète
00:26:06sans savoir ce que je faisais.
00:26:08La dimension de la conscience et de la représentation
00:26:10qui est hyper importante.
00:26:12Ça commence aussi par l'apprentissage
00:26:14de comment ça fonctionne,
00:26:16qu'est-ce que c'est qu'une donnée,
00:26:18par où ça passe, et être conscient
00:26:20de l'impact et du coût de tout ça.
00:26:22On peut peut-être parler des modèles open source
00:26:24pour différencier ces entreprises
00:26:26californiennes
00:26:28et des modèles
00:26:30qui sont peut-être aussi californiens
00:26:32mais qui ont une vocation un peu différente.
00:26:34Ismaël ?
00:26:36Dans le modèle
00:26:38le plus connu,
00:26:40médiatisé, c'est Meet Journey
00:26:42dont on a parlé,
00:26:44qui était
00:26:46un Discord.
00:26:48Un endroit où tout le monde se retrouve.
00:26:50Je pense que le Discord
00:26:52tient peut-être des millions de personnes
00:26:54qui sont inscrites dessus.
00:26:56Il y a un bot sur lequel
00:26:58on écrit pour générer les images.
00:27:00C'est un des gros
00:27:02points d'entrée pour le grand public
00:27:04sur la génération d'images.
00:27:06Ensuite, il y avait aussi
00:27:08Dali, le modèle
00:27:10de Facebook,
00:27:12OpenAI,
00:27:14qui a été encore plus
00:27:16facile d'accès quand il était
00:27:18intégré à chaque GPT.
00:27:20Le modèle de Meta, je ne l'ai jamais utilisé.
00:27:22Ensuite, le concurrent
00:27:24et le modèle
00:27:26open source, c'est Stable Diffusion.
00:27:28Là, pour le coup,
00:27:30il y a une agentivité
00:27:32qui est extrêmement forte.
00:27:34On peut vraiment customiser
00:27:36même son interface,
00:27:38le modèle. Il y a beaucoup de points d'entrée
00:27:40pour être dans la maîtrise,
00:27:42dans une certaine forme de maîtrise.
00:27:44Mais je dirais que la courbe d'apprentissage
00:27:46est quand même assez forte.
00:27:48Et donc, il y a
00:27:50une espèce de compétition sur les interfaces
00:27:52pour essayer
00:27:54de subvenir
00:27:56à tout le monde
00:27:58sans la possibilité que ça soit très ouvert
00:28:00et surtout collaboratif.
00:28:02Et donc, il y a effectivement
00:28:04par exemple des gens qui ont la capacité
00:28:06de pouvoir entraîner
00:28:08des modèles qui partent du modèle
00:28:10de Stable Diffusion,
00:28:12qui va être amélioré
00:28:14ou anglé dans une direction,
00:28:16qui va être le dessin animé
00:28:18ou bien de la 3D
00:28:20ou bien un truc très photoréaliste
00:28:22actuel ou bien très vintage
00:28:24époque,
00:28:26début du siècle, argentique, etc.
00:28:28Et tout ça
00:28:30va être quand même partagé.
00:28:32Et donc ça, c'est ce que ça permet.
00:28:34Et surtout, de partager aussi
00:28:36la manière de taper,
00:28:38de...
00:28:40Qu'est-ce qu'il y a d'autre ?
00:28:42De s'échanger des tips, de comprendre
00:28:44ce qu'il y a sous le capot quand on ne sait pas du tout
00:28:46ce qu'il se passe dans Midjourney.
00:28:48Je trouve qu'il y a moins de rendu uniforme
00:28:50dans ce que j'ai pu voir qui sort avec Stable Diffusion
00:28:52que sur Midjourney,
00:28:54parce qu'on peut taper plein de prompts différents.
00:28:56Il y a quand même des choses qui convergent
00:28:58parce qu'on a fait des choix à notre place.
00:29:00Et il y en a beaucoup trop.
00:29:02Il y a cette question aussi de l'accessibilité
00:29:04puisqu'on parle de possibilités infinies.
00:29:06On en a parlé très rapidement
00:29:08entre nous tout à l'heure sur les prix, par exemple.
00:29:10Est-ce que ce sont des outils créatifs
00:29:12accessibles à toutes et à tous ?
00:29:18Oui et non, parce qu'en fait,
00:29:20pour même générer des images avec
00:29:22Stable Diffusion, il faut quand même avoir
00:29:24une grosse machine, ou sinon tu vas sur des serveurs
00:29:26comme Google Collab, etc.
00:29:28Donc c'est quand même un coût.
00:29:30Et puis après, Midjourney, c'est finalement par abonnement.
00:29:32Donc non, il y a déjà
00:29:34une séparation qui s'opère déjà.
00:29:36Une forme de filtrage, et puis aussi
00:29:38entre certaines régions du monde.
00:29:40On n'a pas le même pouvoir d'achat en Europe
00:29:42que dans d'autres régions du monde.
00:29:44Non, c'est sûr. Et puis même, en revenant à Midjourney,
00:29:46on voit aussi que les images générées,
00:29:48elles ont soit un style très occidental,
00:29:50soit très asiatique,
00:29:52ou animé.
00:29:54C'est assez souvent comme ça.
00:29:56Il y a vraiment un filtre qui est très lisse.
00:29:58On reconnaît tout de suite une image
00:30:00générée par Midjourney. Moi, personnellement,
00:30:02dès que j'en vois une, ça se voit,
00:30:04il y a quelque chose dans le style.
00:30:06Et ça fait que finalement,
00:30:08on a quand même un outil qui nous permettrait de créer
00:30:10des millions d'images, mais en fait,
00:30:12finalement, elles sont toutes un peu pareilles.
00:30:14Un peu comme les films Hollywood.
00:30:16Ça revient souvent,
00:30:18la question de l'uniformisation dans vos propos.
00:30:20Peut-être que je peux vous
00:30:22questionner aussi sur cette tendance
00:30:24à l'hyperréalisme, d'une certaine façon,
00:30:26dans tous ces visuels.
00:30:30Ça vient d'où, ça ?
00:30:32C'est peut-être pas la partie la plus intéressante.
00:30:34Enfin, ça dépend après, mais
00:30:36moi, je vois les artistes,
00:30:38par exemple, les étudiants
00:30:40du Fresnois, souvent, ce qu'ils cherchent aussi,
00:30:42c'est l'erreur, le bug, l'incohérence.
00:30:44Toi, tu parlais de ton travail sur les mains.
00:30:46En fait,
00:30:48c'est ce qu'on se disait
00:30:50un petit peu avant,
00:30:52c'est maintenant qu'il faut les utiliser, ces outils,
00:30:54parce qu'il y a plein de choses qui ne sont pas calées,
00:30:56et c'est là que c'est intéressant. Dans la création artistique,
00:30:58il y a beaucoup de choses qui partent de l'erreur,
00:31:00de quelque chose d'inattendu,
00:31:02et c'est ça
00:31:04qui fascine aussi aujourd'hui.
00:31:06Moi, dans mon travail,
00:31:08il y a toujours aussi cette dimension de voir la machine
00:31:10en train d'apprendre,
00:31:12qui est quand même la partie assez fascinante.
00:31:14Et finalement, quand tout devient
00:31:16trop réaliste,
00:31:18on regardait tout à l'heure des images
00:31:20d'architecture,
00:31:22mais ce n'est pas très intéressant.
00:31:24Exactement, c'est peut-être ça l'effet waouh,
00:31:26une première fois, c'est bluffant,
00:31:28on est impressionné par cette performance,
00:31:30et puis après, ça passe.
00:31:32Je rebondis là-dessus, moi je sais que quand j'ai fait
00:31:34le travail avec les mains,
00:31:36les images que j'ai générées, je n'ai pu les faire que là,
00:31:38parce qu'en fait, le modèle,
00:31:40il a déjà été mis à jour,
00:31:42donc si je rentre le même prompt,
00:31:44le même style, je ne pourrais jamais avoir
00:31:46les mêmes résultats. Et finalement, c'est intéressant,
00:31:48parce que c'est comme si c'était déjà daté dans le temps.
00:31:52C'est super intéressant ce que tu dis,
00:31:54dater dans le temps, parce que
00:31:56moi, par exemple, pour Hyperphantasia,
00:31:58je me posais la question de quel modèle,
00:32:00comment créer la pièce,
00:32:02et on se dit,
00:32:04surtout quand on crée de l'image en mouvement,
00:32:06le modèle qu'on va utiliser va fixer
00:32:08l'œuvre dans le temps,
00:32:10ça va être super dépassé,
00:32:12et en même temps, il y a des modèles anciens
00:32:14qui sont beaucoup plus pertinents que des modèles récents,
00:32:16donc là, c'était un StyleGAN2,
00:32:18et en fait, ça marche hyper bien pour ce que j'ai fait,
00:32:20parce que justement, je voulais aller à la limite
00:32:22de cette figuration, mais jamais rentrer
00:32:24dans le figuratif, rester dans l'abstrait,
00:32:26et en fait, ce modèle était génial,
00:32:28et il y a eu un espèce de retour
00:32:30à ces anciens modèles, là, il y a quelques temps,
00:32:32et c'est assez chouette,
00:32:36mais voilà, c'est des choses, on se dit,
00:32:38on fera ça avec nostalgie dans quelques années,
00:32:40mais voilà, ce retour à des anciens modèles,
00:32:42qui est un peu comme
00:32:44le retour au vinyle,
00:32:46c'est assez chouette, je trouve.
00:32:48Il y a une artiste, Anne Aurel,
00:32:50elle fait une artiste
00:32:52qui génère beaucoup d'images en IA,
00:32:54elle disait qu'elle n'utilisait que le modèle de Dali n°2,
00:32:56parce qu'il était vieux, il était un peu mal fait,
00:32:58et ce qu'elle cherchait, c'était justement le côté
00:33:00un peu carton, bizarre, un peu weird,
00:33:02la question de l'étrangeté, qu'elle ne pouvait plus avoir avec le 3.
00:33:04C'est des pinceaux,
00:33:06c'est presque une empreinte d'une époque.
00:33:10Est-ce que cette IA,
00:33:12elle a des conséquences dans tous les secteurs,
00:33:14tous les champs disciplinaires,
00:33:16artistiques ?
00:33:18Là, c'est quelque chose qui dépasse aussi
00:33:20vos pratiques personnelles,
00:33:22mais est-ce que vous voyez une révolution dans le cinéma,
00:33:24dans le documentaire, dans la peinture,
00:33:26dans la musique ?
00:33:30Quid du futur de la création ?
00:33:32On va essayer d'être optimiste,
00:33:34ou chronique,
00:33:36ou dystopie ?
00:33:38Déjà, de dire qu'on n'en sait rien.
00:33:40Je préfère dire que j'en sais rien,
00:33:42parce que ça peut aller...
00:33:44Ça dépend,
00:33:46quelque part, entre la projection,
00:33:48la théorie,
00:33:50notre propre théorie qu'on s'en fait,
00:33:52et comment l'usage va se démocratiser.
00:33:54Je pense qu'il y a surtout
00:33:56une question,
00:33:58en tout cas moi qui me concerne,
00:34:00qui est la vision que je peux proposer
00:34:02en expérimentant,
00:34:04en en parlant,
00:34:06et comment ça peut avoir de l'impact
00:34:08pour ne pas uniformiser
00:34:10un discours aussi
00:34:12dans les usages.
00:34:14Par exemple, parler de modèle ouvert
00:34:16et de dire
00:34:20qu'on peut obtenir un résultat
00:34:22tout à fait singulier
00:34:24dans nos démarches,
00:34:26mais qu'il faut prendre ce temps-là,
00:34:28et que c'est toujours un aller-retour,
00:34:30qu'il n'y a rien de magique,
00:34:32et que ça n'est pas non plus
00:34:34que dans un but productiviste.
00:34:36Je pense que c'est important de le dire,
00:34:38parce que si on ne le fait pas,
00:34:40on va aller
00:34:42de manière
00:34:44comme une prophétie autoréalisatrice
00:34:46vers ce qu'on ne veut pas.
00:34:48Il n'y a que,
00:34:50quelque part,
00:34:52en essayant tous de le comprendre,
00:34:54alors c'est difficile,
00:34:56parce qu'il y a un rapport
00:34:58entre l'intéressé et le désintéressé.
00:35:00Je pense quelque part entre les deux,
00:35:02parce que des fois, je perds beaucoup de temps
00:35:04par rapport à une idée de projet que j'ai.
00:35:06Je me dis que là, ça m'échappe trop,
00:35:08donc il faut que je revienne à la théorie.
00:35:10Mais en même temps, il faut à un moment sortir un truc.
00:35:12Et donc, quelque part,
00:35:14on est un peu lancé dans la piscine,
00:35:16il faut apprendre à nager dedans,
00:35:18et ça va se passer de cette manière-là.
00:35:20Mais si on fait l'autruche,
00:35:22ça peut être terrible,
00:35:24et je pense qu'il y a des secteurs
00:35:26qui se pensent invincibles,
00:35:28ou vont lutter à l'inverse de ça,
00:35:30et je pense qu'il est très difficile
00:35:32de se dire que ça n'aura pas
00:35:34une altération.
00:35:36Dans cette logique productiviste ?
00:35:38Dans le cinéma, par exemple ?
00:35:40Je pense que le cinéma,
00:35:42c'est très en retard.
00:35:44Je pense que c'est très en retard,
00:35:46parce que...
00:35:48parce que c'est que
00:35:50dans des réactions de dire
00:35:52« Ah, mais c'est quand même mal fait, l'image ! »
00:35:54Ou bien « Ah, le scénario, il est mal écrit ! »
00:35:56Ou bien « Oui, bon, les acteurs,
00:35:58c'est pas trop ça »,
00:36:00parce qu'effectivement, il y a une exigence qui est extrême,
00:36:02donc c'est très facile tout de suite encore de se dire ça,
00:36:04et que la performance, aujourd'hui,
00:36:06elle est encore,
00:36:08pour moi, dans le texte,
00:36:10dans l'image,
00:36:12mais elle n'y est pas du tout encore sur le son.
00:36:14On a essayé, avec un ami, de composer
00:36:16du classique,
00:36:18avec les générateurs de musique.
00:36:20Alors OK, pour peut-être certains
00:36:22modèles de pop
00:36:24très consensuels, etc.,
00:36:26j'avoue que je voyais pas trop la différence.
00:36:28Pour moi, c'était OK, je me disais « Waouh ! »
00:36:30Mais de la musique classique,
00:36:32aujourd'hui, et je dis bien aujourd'hui,
00:36:34c'est très difficile.
00:36:36Ça veut pas dire que j'ai raison de dire
00:36:38que ça sera jamais possible, etc.,
00:36:40mais c'est quand même très très préservé.
00:36:42Même Bach, le Bach, qui est quand même très mathématique,
00:36:44ça sort pas top.
00:36:46Donc c'est pas parce que
00:36:48ça y est pas tout de suite
00:36:50qu'il faut pas voir loin.
00:36:52Et je pense que ce secteur
00:36:54me paraît être
00:36:56trop sûr
00:36:58de ses acquis,
00:37:00et ça va être très très fort,
00:37:02et ça va être orienté très Hollywood.
00:37:04Parce qu'Hollywood, c'est déjà en déclin,
00:37:06donc ça veut dire quoi ? C'est GAFAM qui met le « là ».
00:37:08Donc Netflix avec le Data Driven,
00:37:10etc. Et ça va donner un peu
00:37:12des films en Uberisation,
00:37:14en menu.
00:37:16Alors là, je veux un drame, mais il faut quand même un peu de comédie.
00:37:18Et puis la fin,
00:37:20on fait comme ça, et puis en fait, cet acteur, je l'aime pas,
00:37:22on va le changer. Et donc si on veut
00:37:24quelque chose un peu plus
00:37:26d'autorité au sens artistique,
00:37:28c'est le moment de proposer
00:37:30d'autres modèles,
00:37:32d'autres protocoles, d'autres souverainetés,
00:37:34et je pense que ça viendrait plutôt
00:37:36du geste documentaire pour le cinéma
00:37:38que de la fiction.
00:37:40Tu peux nous en dire un mot, encore,
00:37:42sur les documentaires ?
00:37:44Sur le souvenir,
00:37:46comment capter un réel
00:37:48où 99%
00:37:50des informations qu'on va lire
00:37:52pour des événements forts comme celui d'hier
00:37:54reflètent
00:37:56une forme de réalité,
00:37:58mais qui n'est plus un accès direct
00:38:00à l'événement physique.
00:38:02Et donc, je pense que c'est
00:38:04que le geste documentaire
00:38:06qui permet
00:38:08cette remédiation.
00:38:10Il y a une forme de remédiation,
00:38:12de résilience qui peut se trouver là
00:38:14en acceptant qu'on est en train
00:38:16de créer une filière parallèle
00:38:18à l'invention
00:38:20de la photographie
00:38:22et que, peut-être, se situe
00:38:24le geste artistique dans ces croisements
00:38:26entre ces deux vagues.
00:38:28Mais la fiction
00:38:30de « on va disrupter Hollywood »
00:38:32comme pas mal d'entreprises le font,
00:38:34je veux dire, Pika Labs font une pub,
00:38:36les Oscars, on va le disrupter,
00:38:38ça veut dire quelque chose, quand même.
00:38:40Et cette chose-là,
00:38:42ça va aller vers une
00:38:44forme médiocre, je pense,
00:38:46un peu moyenne, comme ça,
00:38:48qui n'en a rien à faire de
00:38:50tel sujet ou tel sujet.
00:38:52C'est-à-dire que c'est un skin.
00:38:54C'est comme on échange des skins.
00:38:56Il faut couvrir tous les sujets,
00:38:58comme ça tout le monde sera content.
00:39:00Et c'est de ça dont on est en train de parler.
00:39:02Et c'est ces gens-là qui ont des chances
00:39:04de...
00:39:06comment dire...
00:39:08d'imposer une vision
00:39:10de ce qu'on appelle art
00:39:12et qu'on ne partage pas ici.
00:39:14Dans certains domaines, typiquement dans la musique,
00:39:16il y a quand même des choses qui sont opérées depuis quelques années
00:39:18et qui sont très effectives.
00:39:20Je renvoie à la sortie du morceau des Beatles,
00:39:22qui a aussi été
00:39:24driveé par François Paché,
00:39:26un ancien de l'intelligence artificielle.
00:39:28C'est des choses qui existent déjà.
00:39:30Il y a l'IRCAM aussi,
00:39:32qui travaille beaucoup,
00:39:34avec ce logiciel SOMAX,
00:39:36qui est un logiciel d'écoute en temps réel
00:39:38et qui permet de faire des propositions.
00:39:40Et moi, j'ai collaboré
00:39:42avec un des rimes de l'IRCAM
00:39:44sur un projet justement de concert.
00:39:46Et c'est assez fascinant
00:39:48parce qu'en fait, on n'a jamais
00:39:50deux fois le même concert, on a une proposition
00:39:52qui est à chaque fois cohérente
00:39:54et pour le coup,
00:39:56eux, ils sont vraiment dans l'expérimentation.
00:39:58Sur un modèle
00:40:00complètement à l'antinomie de Spotify.
00:40:04Le temps passe et je voudrais
00:40:06revenir sur une notion
00:40:08d'uniformisation.
00:40:10Qu'est-ce qu'on entendait par là ?
00:40:12Est-ce qu'on a peur que dans 10 ans,
00:40:14toutes les créations se ressemblent ?
00:40:16Que tous les propos soient lissés ?
00:40:18C'est ça le risque ?
00:40:20Est-ce que
00:40:22si
00:40:24internet devient la base de données
00:40:26et qu'on génère des modèles
00:40:28qui reviennent sur internet, il n'y aurait pas une forme de boucle
00:40:30qui pourrait se créer et on reviendrait
00:40:32à une sorte de magma d'images
00:40:34et il n'y aurait plus d'images dans le monde ?
00:40:36Ça, ce serait assez intéressant à observer.
00:40:38Mais après, oui,
00:40:40pour avoir un peu expérimenté mes journées,
00:40:42c'est assez difficile, je trouve,
00:40:44de sortir de... On reconnaît, comme tu disais,
00:40:46il y a souvent les mêmes choses
00:40:48qui sont créées et même
00:40:50au-delà de l'art du prompt,
00:40:52il y a quand même une certaine esthétique
00:40:54qui est véhiculée par ce modèle.
00:40:56Et aussi à ça,
00:40:58des fois je vais sur LinkedIn,
00:41:00je trouve que de plus en plus, on voit que les gens
00:41:02écrivent avec ChatGPT.
00:41:04Et donc, clairement, les formulations,
00:41:06avec beaucoup d'adjectifs,
00:41:08les marges lexicales,
00:41:10comment tout est construit,
00:41:12je vois maintenant, c'est quasiment
00:41:14des bots de ChatGPT qui se parlent entre eux,
00:41:16en disant, il y a ci et ça, et en fait, c'est trop drôle,
00:41:18parce que finalement, les gens, ils croient qu'ils ont un espèce de librairie,
00:41:20mais en fait, finalement non,
00:41:22parce qu'ils parlent à travers les GAFAM.
00:41:24Et clairement,
00:41:26ce qui fait peur,
00:41:28c'est que finalement,
00:41:30la partie la plus dominante, c'est celle des IA corporate.
00:41:32Mais à côté de ça,
00:41:34il y a des WarpDiffusion et des StableDiffusion
00:41:36qui aussi
00:41:38redonnent un peu le pouvoir au peuple,
00:41:40entre guillemets, je m'explique, dans le sens où
00:41:42finalement, moi je vois des petits studios de jeux vidéo
00:41:44qui utilisent justement des IA
00:41:46pour leur permettre
00:41:48de réaliser les décors.
00:41:50Donc en fait, il y a un concept artiste qui va faire un ou deux décors,
00:41:52et grâce à l'IA qui va entraîner lui-même,
00:41:54il pourra générer plus de décors.
00:41:56Et en fait, rien que ça, finalement, ça peut être appliqué
00:41:58au cinéma, à l'art, et à plein d'autres choses.
00:42:00Donc oui, c'est un peu un couteau
00:42:02double tranchant, mais effectivement, oui,
00:42:04le modèle dominant est clairement en train de créer une uniformisation
00:42:06aussi bien du contenu,
00:42:08mais aussi de la façon dont on parle et où on interagit sur
00:42:10les internets.
00:42:12Après, il y a internet, il y a la vie réelle,
00:42:14il y a quelque chose aussi de l'ordre de la rupture, c'est presque lié
00:42:16à l'histoire de l'art. Qu'est-ce qui fait rupture dans l'histoire de l'art ?
00:42:18Qu'est-ce qui fait qu'on va avoir...
00:42:20Est-ce que c'est si nouveau pour ces problématiques ?
00:42:22Je ne sais pas.
00:42:24Est-ce que le fait d'avoir des productions qui se ressemblent
00:42:26empêche l'idée de rupture ?
00:42:28C'est pas uniquement lié
00:42:30à une production artistique, c'est aussi au champ social,
00:42:32à ce qui se passe dans la vie.
00:42:34En tout cas, perso, pour moi,
00:42:36je suis à une satiété visuelle.
00:42:38Mon feed Instagram, c'est tous la même chose.
00:42:40Il y a trop d'images, il y a trop de productions.
00:42:42J'ai l'impression de ne plus rien voir,
00:42:44de ne plus rien entendre, vraiment, en ce moment.
00:42:46Et c'est peut-être ça, le point de rupture,
00:42:48comme tu dis, mais j'ai l'impression qu'avant, il n'y avait pas autant
00:42:50de productions.
00:42:52J'aime bien jouer aux jeux vidéo,
00:42:54mais il y a tellement de jeux vidéo dans mon backlog
00:42:56que je n'ai même plus le temps de les jouer.
00:42:58Du coup, ça me décourage, parce que je me dis,
00:43:00mais qu'est-ce que je vais choisir, en fait ?
00:43:02On revient à cette notion de productivité, quand même.
00:43:04Moi, je rajoute juste
00:43:06un tout petit truc, c'est que
00:43:08là, les modèles qui sont entraînés
00:43:10en texte et en images
00:43:12et en vidéos, commencent
00:43:14à être entraînés sur de la
00:43:16data synthétique,
00:43:18c'est-à-dire qui a déjà été produit par IA.
00:43:20On n'est plus déjà dans un lien
00:43:22direct à l'entraînement
00:43:24de quelque chose qui a été produit
00:43:26par l'humain
00:43:28en premier. On est déjà à une couche
00:43:30d'entraînement synthétique, et d'ailleurs,
00:43:32c'est très drôle, parce que Midourney
00:43:34commence à entraîner
00:43:36des images sur
00:43:38des images qui ont été produites par Stable Diffusion.
00:43:40Stable Diffusion
00:43:42commence à piquer, donc chacun se pique
00:43:44et donc on va arriver
00:43:46dans la partie
00:43:48du flux,
00:43:50le flux en friction,
00:43:52je pense à une caricature
00:43:54où tout est hyperbolé,
00:43:56mais il restera
00:43:58toujours une autre partie
00:44:00intéressante,
00:44:02mais comment on peut l'entendre
00:44:04dans le bruit.
00:44:06C'est peut-être un petit peu ça aussi, la notion
00:44:08de post-vérité, de se dire qu'il y a
00:44:10une forme de flou entre la réalité
00:44:12et le virtuel,
00:44:14qu'est-ce qui est vrai, qu'est-ce qui est faux ?
00:44:16Au moins,
00:44:18il y a quelque part
00:44:20une exigence
00:44:24très forte
00:44:26dans la réflexion
00:44:28de la chose
00:44:30dont on est en train de faire l'expérience.
00:44:32Je pense que c'est un temps
00:44:34incroyable pour ça,
00:44:36de quelle expérience,
00:44:38de quelle est la nature de l'expérience
00:44:40que je suis en train de vivre.
00:44:42Voilà.
00:44:44J'aimerais en dire là-dessus.
00:44:46Aussi, finalement, moi, quand j'ai
00:44:48travaillé avec des IA,
00:44:50j'ai fait ces projets-là parce que je voulais travailler avec une IA,
00:44:52mais je voulais pas travailler avec une IA
00:44:54pour gagner du temps, parce que finalement, j'allais réaliser
00:44:56un film de façon traditionnelle.
00:44:58Finalement, aussi,
00:45:00le travail avec l'IA fait partie
00:45:02du projet en tant que tel.
00:45:04Et finalement,
00:45:06ces nouveaux outils amènent
00:45:08peut-être une certaine libération dans la création,
00:45:10ou peut-être des gens, justement,
00:45:12vont avoir accès plus facilement à des outils,
00:45:14même si là, c'est un petit peu compliqué.
00:45:18Dans les créations, dans les productions,
00:45:20comment on en sert une touche de subjectivité ?
00:45:22Tu parlais tout à l'heure de
00:45:24vie artificielle,
00:45:26mais cette question qui est peut-être plus élargie aussi,
00:45:28en tout cas, plus concrète,
00:45:30je pense notamment à
00:45:32Albertine Meunier, qui travaille beaucoup sur la question de l'humour,
00:45:34qui se joue, d'une certaine façon,
00:45:36des visuels qui sont produits,
00:45:38est-ce que finalement, elle comprend l'humour ?
00:45:40L'humour, c'est tout un contexte, c'est un contre-pied,
00:45:42c'est du second degré.
00:45:44Est-ce qu'une IA comprend vraiment tout ça ?
00:45:46C'est quoi la part de la subjectivité ?
00:45:50C'est quoi la part de la subjectivité ?
00:45:52Puis c'est aussi
00:45:54sortir à un moment tout ça de l'ordinateur,
00:45:56ce que moi, je fais
00:45:58dans mon travail,
00:46:00c'est-à-dire que là, on parle beaucoup d'images,
00:46:02mais comment est-ce que tout ça va s'incarner
00:46:04aussi dans le réel, dans une installation physique ?
00:46:06Et c'est là où
00:46:08cette idée d'un logiciel
00:46:10qui va animer
00:46:12un corps physique,
00:46:14où on a presque cette idée de l'incarnation,
00:46:16qui moi, m'intéresse,
00:46:18c'est cette friction entre ce qu'on génère
00:46:20et le réel, et comment l'humain réinterprète ça,
00:46:22et comment est-ce qu'avec de la réactivité
00:46:24ou de l'interactivité, il y a quelque chose
00:46:26d'autre qui apparaît,
00:46:28et finalement, on se retrouve face
00:46:30à des présences,
00:46:32à des présences de la machine
00:46:34qui sont dans le réel.
00:46:38Et comme tu le disais tout à l'heure,
00:46:40on vit une expérience, on vit quelque chose,
00:46:42il n'y a pas de notion de vrai ou de faux,
00:46:44mais c'est peut-être plutôt
00:46:46de systèmes artificiels,
00:46:48mais avec qui on peut ressentir de l'émotion,
00:46:50par exemple, et ça, c'est hyper intéressant,
00:46:52parce que je pense qu'il y a
00:46:54la dimension, évidemment, manipulation
00:46:56par ces émotions,
00:46:58ou par l'interprétation qu'on va faire
00:47:00de la machine, mais aussi
00:47:02l'idée que ces technologies
00:47:04peuvent nous amener à réfléchir
00:47:06sur ce qui fait notre humanité,
00:47:08sur de quoi est-ce qu'on est composé,
00:47:10et venir travailler à un nouvel endroit
00:47:12qui est l'apparition de ces nouvelles
00:47:14formes d'altérité, qui peuvent
00:47:16aussi nous toucher, tout en ayant conscience
00:47:18que derrière,
00:47:20c'est une machine qui n'a pas de sentiment,
00:47:22mais moi, c'est des choses qui m'intéressent
00:47:24aussi, et qui passent par le fait
00:47:26de sortir
00:47:28ce logiciel qui va s'incarner dans un dispositif,
00:47:30alors que ce soit
00:47:32peut-être un dispositif robotique,
00:47:34où là, on a ce phénomène
00:47:36vraiment au miroir, mais un autre
00:47:38dispositif, et notamment
00:47:40la lumière, dans mon installation
00:47:42Supraorganisme, on est en présence...
00:47:44J'allais te poser la question, tu peux en parler, tu peux dire quelques mots, déjà,
00:47:46d'écrire cette installation ?
00:47:48C'est une installation qui est
00:47:50partie de l'observation d'un essaim
00:47:52d'abeilles, donc de la vie d'un essaim d'abeilles,
00:47:54et j'ai travaillé avec
00:47:56différentes formes de computation,
00:47:58c'est à la fois un entraînement
00:48:00de la machine pour reconnaître les abeilles,
00:48:02pour pouvoir commencer à les suivre,
00:48:04en déduire des vitesses, des mouvements
00:48:06de vie, et puis aussi
00:48:08une partie plus générative
00:48:10qui génère le futur de cet essaim
00:48:12d'abeilles, et tout ce travail
00:48:14de computation finalement
00:48:16donne un logiciel qui va
00:48:18animer une grande installation en verre
00:48:20soufflé robotisé, qui produit du son et de la
00:48:22lumière, et c'est
00:48:24hyper impressionnant de voir
00:48:26que déjà,
00:48:28il y a des gens qui les ressentent, même
00:48:30si à la fin on est face à un supra-organisme,
00:48:32à une installation qui est très abstraite,
00:48:34on n'est pas dans quelque chose de random,
00:48:36on est quelque chose qui est simulé
00:48:38à partir de la vie
00:48:40et d'un
00:48:42organisme vivant, et ça
00:48:44se ressent dans l'installation, même si après
00:48:46il y a de l'évolution, il y a de la réaction,
00:48:48mais en tout cas, ce qui m'intéressait
00:48:50c'était de voir plus loin
00:48:52que l'ordinateur,
00:48:54c'était peut-être une forme de transition,
00:48:56de passage, et de resimuler
00:48:58un organisme dans une installation
00:49:00un peu plus totale et environnementale.
00:49:02Sur la question de l'humour,
00:49:04qui est peut-être encore plus difficile à
00:49:06transmettre, je trouve que c'est intéressant
00:49:08sur cette question de l'humour, est-ce que tu
00:49:10as quelque chose à dire ?
00:49:12Notamment mon expérience avec les
00:49:14robots anthropomorphiques,
00:49:16qui étaient des
00:49:18robots animés par une forme de vie
00:49:20artificielle qui était assez primitive,
00:49:22qui avait été programmée par Takashi
00:49:24Ikegami, et en fait,
00:49:26on se retrouvait autour de ce robot que personne
00:49:28ne comprenait, donc ça a créé des situations
00:49:30assez drôles, parce que
00:49:32moi je ne parlais pas japonais,
00:49:34mes collaborateurs ne parlaient pas très bien anglais,
00:49:36on n'arrivait pas forcément à se comprendre entre nous,
00:49:38mais on était tous face à une machine qu'on ne comprenait pas non plus,
00:49:40et c'était génial en fait,
00:49:42parce que de l'incompréhension,
00:49:44du malentendu, naît plein de beaux moments,
00:49:46et
00:49:48là c'était vraiment des réactions,
00:49:50il y avait en fait
00:49:52pour le coup
00:49:56un total imprévu entre ce que
00:49:58la machine allait générer comme comportement
00:50:00en temps réel, et la synchronisation
00:50:02du logiciel, donc avec des mouvements,
00:50:04des choses totalement absurdes,
00:50:06mais c'était
00:50:08assez beau, et en fait l'absurdité
00:50:10elle naît de choses
00:50:12toutes bêtes, et parfois
00:50:14les dispositifs aussi les plus simples
00:50:16amènent... Mais c'est vrai que l'humour,
00:50:18est-ce que déjà l'humour c'est quelque chose qui est très présent
00:50:20dans l'art contemporain, alors peut-être
00:50:22c'est déjà pas
00:50:24quelque chose qui est forcément facile,
00:50:26c'est dur, l'humour c'est
00:50:28un des lieux les plus durs,
00:50:30mais je sais pas si
00:50:32tu veux faire une blague ?
00:50:34Non, mais je trouve
00:50:36que dans les...
00:50:38je dirais dans l'usage qu'on en fait,
00:50:40il y a un humour involontaire,
00:50:42parce que comme on est un peu quand même dans
00:50:44toujours l'idée des glissements,
00:50:46il y a des glissements sémantiques,
00:50:48donc il y a dans les formes,
00:50:50souvent il y a des formes oniriques,
00:50:52en tout cas,
00:50:54dans la recherche qui a été faite
00:50:56et qui nous a été donnée accessible,
00:50:58il y a comme une invitation
00:51:00à décaler les choses,
00:51:02et donc dans ces décalages,
00:51:04parfois ils sont tragiques,
00:51:06mais moi il m'en fait beaucoup rire parfois.
00:51:08Ouais, exactement,
00:51:10pareil aussi en créant
00:51:12avec Warp et Stable et tout ça,
00:51:14parfois les résultats sont tellement absurdes
00:51:16que c'est drôle, mais c'est malgré la machine,
00:51:18mais il y a quelque chose de...
00:51:20tu parlais d'onirisme tout à l'heure,
00:51:22et je vais rebondir là-dessus,
00:51:24c'est que finalement il y a ce côté qui est drôle,
00:51:26mais aussi qui est tout le temps décalé,
00:51:28j'ai l'impression que comme la machine
00:51:30va générer une image, mais sans avoir aucun affect,
00:51:32aucune sensibilité, elle va juste la sortir,
00:51:34elle va mélanger tellement de choses qui n'ont rien à voir,
00:51:36juste guidées par un prompt,
00:51:38on peut toucher quelque chose d'assez unique et sensible,
00:51:40de l'ordre du rêve en fait,
00:51:42mais en même temps que ça passe du cerveau à la main,
00:51:44il y a tout un processus de filtrage,
00:51:46et peut-être que le rire peut venir de là,
00:51:48du second degré.
00:51:50On voit qu'en tant que créateur, vous avez beaucoup de points communs finalement,
00:51:52sur beaucoup de choses, ce rapport-là par exemple,
00:51:54au sensible.
00:51:56Étant donné le sujet,
00:51:58et j'imagine l'intérêt
00:52:00et les questionnements que vous avez,
00:52:02je propose qu'on arrête la discussion ici
00:52:04et que vous puissiez poser vos questions,
00:52:06et qu'on prenne quelques...
00:52:0820 minutes peut-être, maximum,
00:52:10sur les questions que vous avez.
00:52:14Si vous en avez.
00:52:16Il y a une personne derrière.
00:52:22Tout d'abord merci, c'est super intéressant,
00:52:24et j'avais une question
00:52:26par rapport à l'inspiration,
00:52:28parce qu'en fait, d'après ce que j'ai compris,
00:52:30l'IA c'est une banque de données
00:52:32et
00:52:34des
00:52:36messages pour dire comment accéder
00:52:38à cette banque de données par rapport à ce qu'on va lui demander.
00:52:40Enfin, je résume à ma manière.
00:52:42Et souvent,
00:52:44vous dites qu'on retrouve un peu
00:52:46les mêmes choses, et je me demandais
00:52:48si ce n'est pas lié justement à cette banque de données
00:52:50qui est uniquement ce qu'on a réussi à choper
00:52:52sur internet. Je dis ça parce
00:52:54que j'ai vu un truc intéressant hier à l'IRCAM,
00:52:56où justement des artistes
00:52:58mettent à disposition
00:53:00en deep learning toute leur oeuvre,
00:53:02ou une partie de leur oeuvre on va dire,
00:53:04et d'autres artistes ont accès
00:53:06à la couleur artistique
00:53:08de cet artiste en payant
00:53:10des royalties.
00:53:12Ce serait un moyen de nourrir l'IA
00:53:14avec le respect
00:53:16des droits d'auteur, parce qu'il y a aussi tout un truc
00:53:18autour des droits d'auteur, autour de l'utilisation
00:53:20des oeuvres des autres. Est-ce qu'on
00:53:22n'aurait pas un IA pauvre artistiquement
00:53:24parlant aujourd'hui, parce que
00:53:26justement les artistes ne sont pas impliqués dedans ?
00:53:32Merci pour vos
00:53:34questionnements en remarques.
00:53:38Alors, la banque de données
00:53:40en entrée,
00:53:42elle est ensuite paramétrée
00:53:44de différentes manières, et donc
00:53:46en fonction des logiciels, s'ils sont
00:53:48commerciaux ou
00:53:50ouverts, des décisions
00:53:52sont prises, et pour le cas de
00:53:54Mid Journey, il y a un ensemble de décisions
00:53:56que l'on ne prend pas, qui
00:53:58amènent à l'uniformisation de ce qui
00:54:00sort du processus
00:54:02de génération d'images.
00:54:04C'est là où les choses
00:54:06se rejoignent,
00:54:10mais ce n'est pas forcément le cas.
00:54:12Ensuite, la question
00:54:14des droits d'auteur,
00:54:16on va en faire très rapide,
00:54:18un scrapping entier du web
00:54:20sans le consentement de personnes
00:54:22à but de recherche
00:54:24scientifique, ok. Dès l'instant
00:54:26qu'il y a un abonnement à 10 balles
00:54:28par mois, pas ok. Mais ça,
00:54:30on ne peut plus rien y faire, c'est lancé, c'est fait,
00:54:32c'est dupliqué, c'est trop tard.
00:54:34Effectivement, il s'agit
00:54:36de se dire, maintenant que c'est fait,
00:54:38qu'est-ce qu'on peut faire ?
00:54:40Est-ce que le droit d'auteur
00:54:42a encore un sens avec ce qui vient
00:54:44de se passer ?
00:54:46Il est vrai que
00:54:48plus ou moins une des hypothèses qui est faite,
00:54:50c'est que
00:54:52l'empreinte serait
00:54:54mesurée à l'échelle d'un modèle ou
00:54:56d'un processus de fabrication pour
00:54:58obtenir un certain résultat
00:55:00ou une marge de manœuvre
00:55:02de résultat qui serait de l'ordre
00:55:04du modèle avec la
00:55:06couleur de l'artiste, comme vous l'avez dit.
00:55:08Mais ça reste encore quelque chose
00:55:10de simplifié
00:55:12puisque comment
00:55:14on va tracer ça ? Comment on va tracer,
00:55:16attester que c'est bien ce modèle-là,
00:55:18qu'il y a une rétribution
00:55:20automatisée sous forme
00:55:22de royalties ou pas ? Ça veut dire qu'en fait
00:55:24on devrait tous être des
00:55:26marqueteux qui font
00:55:28des SaaS, software as a service,
00:55:30où je vous propose une interface
00:55:32et chaque artiste
00:55:34propose un abonnement
00:55:36mid-journey custom
00:55:38pour pouvoir l'utiliser une fois
00:55:40qui peut-être ne va pas être cool.
00:55:42Donc à la fin, il va falloir qu'on s'abonne
00:55:44à 150 artistes pour pouvoir peut-être
00:55:46faire une nouvelle création.
00:55:48Ça me paraît
00:55:50de l'humour.
00:55:52Autre question ?
00:56:06Merci pour l'échange.
00:56:08J'aimerais savoir si vous avez
00:56:10un kit de départ
00:56:12pour l'IA, pour jeunes artistes
00:56:14qui ont des images
00:56:16aussi bien fixes qu'animées
00:56:18pour être autonomes
00:56:20avec ces outils
00:56:22et pour pouvoir créer.
00:56:24Tu peux aller sur Automatic Eleven.
00:56:26Là-dessus, tu as plein de
00:56:28tutoriels. Tu as YouTube aussi.
00:56:30En gros, tu as un nouvel plateau
00:56:32qui vient de sortir qui s'appelle Pinocchio.
00:56:34Tu pourras me le demander après.
00:56:36Pinocchio, c'est quelque chose qui va
00:56:38te donner accès à plein de projets
00:56:40open source, donc vraiment intéressant.
00:56:42Pinocchio et Karkia.
00:56:44Là, pour le coup, tu auras vraiment accès
00:56:46à une énorme base de projets.
00:56:48C'est pas facile,
00:56:50mais si tu es étudiant, tu dois avoir du temps pour faire ça.
00:56:52Mais en gros,
00:56:54ce serait ça et en vrai,
00:56:56il y a du temps.
00:57:02Pour l'histoire d'entraînement
00:57:04à partir de bases de données,
00:57:06est-ce que ça pourrait y répondre ?
00:57:12Je sais que tu peux entraîner facilement des Loras.
00:57:14Des Loras, ça va être des petits modèles
00:57:16qui vont quand même dépendre d'un gros modèle.
00:57:18En l'occurrence, stable diffusion,
00:57:20si tu veux entraîner ton modèle,
00:57:22un checkpoint, il te faut des milliers d'images,
00:57:24de la puissance de calcul.
00:57:26Soit tu loues des serveurs, soit tu as plein de machines.
00:57:28Je ne sais pas où.
00:57:30Ça, c'est plus compliqué, mais ça se fait.
00:57:32C'est plus complexe et c'est beaucoup plus cher.
00:57:34Il y a aussi la dimension du coût.
00:57:36C'est-à-dire que si tu n'as pas
00:57:38une grosse machine, moi par exemple,
00:57:40j'avais fait tout un travail de chercher des serveurs
00:57:42qui étaient responsables, qui redistribuaient
00:57:44la chaleur, qui étaient à Paris,
00:57:46où je savais où mes données allaient être entraînées
00:57:48et ce qui allait se passer et toutes leurs politiques
00:57:50derrière. Mais c'est aussi
00:57:52un coût. C'était très cher de louer des serveurs
00:57:54comme ça. Tu t'en as vite pour des
00:57:56milliers d'euros pour pouvoir
00:57:58entraîner les modèles que tu veux.
00:58:00Dès qu'on veut faire
00:58:02un projet un peu personnalisé,
00:58:04ça peut vite chiffrer
00:58:06sur la puissance de calcul.
00:58:08Mais c'est
00:58:10pas impossible
00:58:12et après c'est
00:58:14aussi intéressant de collaborer avec des développeurs,
00:58:16avec des gens qui ont cette expérience-là,
00:58:18qui peuvent te faire une expertise.
00:58:22Par exemple, c'était combien d'images
00:58:24pour les peintures rupestres ?
00:58:26Je n'avais pas énormément d'images au final
00:58:28puisque j'avais réuni des corpus.
00:58:30On parle de milliers d'images dans la grotte
00:58:32mais après j'ai travaillé à partir d'une base de données
00:58:34qui était
00:58:36très fragmentée.
00:58:38J'ai un peu aussi triché,
00:58:40c'est-à-dire que j'ai
00:58:42recadré des images, j'ai fait tout un travail
00:58:44sur ma base de données en elle-même
00:58:46pour multiplier le nombre
00:58:48d'entrées
00:58:50et un peu twister
00:58:52le programme.
00:58:56Je dirais 800 images
00:58:58comme un mini minimum.
00:59:00Ça c'est la taille critique ?
00:59:02C'est le minimum mais encore c'est rien.
00:59:04Des milliers d'images c'est bien,
00:59:06le plus possible.
00:59:14Bonjour et merci.
00:59:16J'ai une question
00:59:18peut-être pour vos projets futurs
00:59:20avec tout ce que vous pouvez observer, apprendre, expérimenter.
00:59:22Est-ce que vous avez
00:59:24individuellement des envies
00:59:26de traiter l'IA
00:59:28comme un sujet
00:59:30ou un personnage
00:59:32ou en tout cas qu'il y a quelque chose
00:59:34qui prenne corps dans vos projets avec toute la critique
00:59:36que vous pourriez avoir à l'égard de ce que ça produit
00:59:38en termes de contenu lycée
00:59:40et de tous les sujets que vous avez pu
00:59:42expérimenter dans vos travaux
00:59:44passés et en cours ?
00:59:46Oui,
00:59:48je pense que c'était le cas
00:59:50déjà pour la main par exemple
00:59:52qui travaille ça.
00:59:54Je dirais que le point d'entrée
00:59:56dans la pratique artistique que j'ai pu observer
00:59:58c'était beaucoup
01:00:00sur un métadiscours
01:00:02et je pense que c'est intéressant.
01:00:04Il faut aussi qu'on s'émancipe
01:00:06d'un discours sur l'IA en utilisant l'IA
01:00:08pour arriver à des choses
01:00:10plus...
01:00:12Moi j'aimerais bien travailler sur la question du fait divers
01:00:14c'est-à-dire
01:00:16comment
01:00:18les images circulent
01:00:20comment ce flux-là
01:00:22se réoriente dans un
01:00:24processus
01:00:26dont on maîtrise la chaîne
01:00:28pour produire un autre discours
01:00:30et forcément comme
01:00:32ces images et l'effet divers
01:00:34c'est beaucoup de désinformation aujourd'hui
01:00:36voir ce que ça peut provoquer
01:00:38ça peut
01:00:40créer
01:00:42d'authentique, inauthentique, authentique
01:00:44il y a vraiment un truc sur l'authentique
01:00:46que j'ai envie de travailler
01:00:48et sur la...
01:00:50encore sur cet axe-là
01:00:52sur le souvenir, c'est-à-dire
01:00:54qu'est-ce qui atteste que
01:00:56ça, je trouve ça
01:00:58réel ou pas, quand on parle
01:01:00d'un souvenir et qu'on l'évoque
01:01:02avec de l'IA
01:01:04il y a une zone un peu
01:01:06d'entre-deux, même du
01:01:08faux souvenir, parce que
01:01:10qui peut se dire que c'est exactement
01:01:12ce qui s'est passé à l'époque, parce qu'on a déjà tout un système
01:01:14de filtrage
01:01:16et je trouve que justement, arrêter
01:01:18de se poser cette question-là
01:01:20au moins pendant un temps du processus
01:01:22artistique est quelque chose
01:01:24de très intéressant
01:01:26mais qu'on ne s'autorise pas assez
01:01:28parce qu'il y a toujours l'idée de maîtrise
01:01:30de rendu parfait
01:01:32et je trouve que déjà d'alterner
01:01:34aussi la manière
01:01:36de faire l'usage
01:01:38dans le processus, d'alterner des phases
01:01:40peut-être de très gros contrôle
01:01:42de très lâcher prise
01:01:44et des choses que j'aimerais faire plus.
01:01:50Une autre question ?
01:01:54Merci.
01:02:00Merci beaucoup pour
01:02:02le partage de vos expériences.
01:02:06C'est une question un peu bizarre
01:02:08mais je trouve
01:02:10que l'IA, en fait, il y a
01:02:12ce côté où on arrive
01:02:14à créer une esthétique assez
01:02:16rapidement, en tout cas sans forcément
01:02:18avoir d'autres techniques
01:02:20et du coup, j'ai l'impression que l'IA
01:02:22va
01:02:24avec cet accès-là, cette facilité
01:02:26même si ce n'est pas évident de raconter
01:02:28un discours comme vous avez pu l'expliquer
01:02:30il y a surtout
01:02:32cette recherche de sens
01:02:34et de pourquoi, en fait, on explique
01:02:36pourquoi on fait cette création
01:02:38et j'ai l'impression
01:02:40que l'IA devient un outil pour
01:02:42exprimer ce qu'on a de plus humain
01:02:44en nous
01:02:46donc on se sert de quelque chose qui ne l'est pas
01:02:48pour exprimer ce qu'il y a de plus humain
01:02:50et ça se ressent notamment
01:02:52dans vos projets
01:02:54et je trouve qu'il y a une sorte
01:02:56de paradoxe, en fait
01:02:58quelle est votre vision là-dessus sur ce fait
01:03:00qu'on utilise du coup cette
01:03:02intelligence externe
01:03:04pour finalement
01:03:06montrer ce qu'il y a de plus propre à l'humain
01:03:08qui est nos sensibilités, nos faiblesses
01:03:12et ce qui finalement
01:03:14nous parle, en fait, quand on voit une oeuvre
01:03:16en tant qu'humain, c'est souvent qu'elle raconte
01:03:18quelque chose de sensible
01:03:20qu'on n'a jamais vraiment pu exprimer
01:03:22et que quand on la voit de cette façon-là, ça fait sens
01:03:24par rapport à une expérience humaine
01:03:28Bruno, tu parlais aussi
01:03:30de la sensibilité, enfin pas la sensibilité mais des failles
01:03:32en fait de cette IA
01:03:34donc il y a une sorte d'affiliation aussi
01:03:36à des particularités qui sont propres de l'humain
01:03:38à l'IA
01:03:40j'ai l'impression qu'il y a une sorte de mélange
01:03:42en fait là-dedans
01:03:44et c'est pas vraiment une question mais
01:03:46comment vous voyez la chose ?
01:03:48Je peux te donner un début de réponse
01:03:50mais effectivement
01:03:52c'est drôle que tu dises ça parce que
01:03:54j'avais pas pensé avant
01:03:56donc en fait dans l'expo que j'avais fait, Polydactyly
01:03:58qui parle de la représentation
01:04:00de la main à travers les IA, à travers les âges, etc
01:04:02j'ai aussi fait une sculpture de ma propre main
01:04:04sur laquelle j'ai rajouté un sixième doigt
01:04:06parce que du coup ça me permettait déjà
01:04:08de m'incarner dans l'oeuvre mais aussi
01:04:10je voulais pas faire quelque chose qui soit juste
01:04:12virtuel, je voulais que ce soit
01:04:14de la chair en fait et aussi de mon rapport à la technologie
01:04:16et aussi il y avait cette idée-là
01:04:18de la productivité, est-ce que l'humain
01:04:20pour rester productif il doit avoir six doigts
01:04:22par rapport aux machines
01:04:24mais au-delà de ça effectivement je ne m'étais pas posé la question
01:04:26et c'est vrai que, mais c'est peut-être aussi
01:04:28justement le fait que
01:04:30comme tu peux avoir
01:04:32pas forcément
01:04:34avant d'avoir une bonne image
01:04:36il y a beaucoup d'essais, beaucoup d'erreurs
01:04:38mais par contre quand tu as une bonne image ça génère assez rapidement
01:04:40et il y a quelque chose
01:04:42peut-être de cet ordre-là
01:04:44où en gros quand tu as quelque chose qui est instantané
01:04:46quasiment comme si tu avais une image dans ta tête que tu réussis à visualiser
01:04:48sur un écran
01:04:50et qui après t'expose, peut-être qu'il y a quelque chose qui de coup
01:04:52devient plus intime, plus
01:04:54effectivement personnel
01:04:56et ouais, c'est vrai, intéressant
01:04:58Après
01:05:00par exemple les réseaux
01:05:02de neurones génératifs
01:05:04on parle de réseaux de neurones donc il y a eu aussi un moment
01:05:06où la science s'est intéressée
01:05:08à comment les choses se passaient dans le cerveau
01:05:10pour essayer de les reproduire dans l'ordinateur
01:05:12et c'est ça
01:05:14qui est super intéressant aussi
01:05:16de se dire
01:05:18est-ce que l'intelligence
01:05:20c'est un terme qui n'est pas du tout adapté
01:05:22parce qu'en fait l'intelligence c'est d'être conscient
01:05:24que tu es en train de parler
01:05:26de qu'est-ce que tu vas dire, développer tes arguments dans ta tête
01:05:28mais tu sais aussi quelle heure il est
01:05:30tu sais qu'il y a des gens autour de toi
01:05:32tu sais qu'il y a des gens qui passent
01:05:34et en fait le cerveau il est tellement
01:05:36transversal, multitâche presque
01:05:38on ne sait pas comment ça fonctionne et encore
01:05:40même aujourd'hui les neuroscientifiques
01:05:42les neurochirurgiens il y a plein de choses
01:05:44ils naviguent à vue
01:05:46mais c'est
01:05:48moi j'aime bien penser le cerveau
01:05:50comme le lieu ultime de l'immersion
01:05:52c'est tous ces phénomènes qui se passent
01:05:54qui sont inconscients
01:05:56qui sont hyper intéressants, tu parlais du souvenir
01:05:58mais il y a aussi
01:06:00la perception, le rêve
01:06:02l'imagination qui sont tous en fait
01:06:04au même endroit dans notre cerveau
01:06:06et est-ce qu'on a la capacité
01:06:08d'accéder à ça
01:06:10et l'image
01:06:12d'où elle vient, l'origine des images
01:06:14dans le cerveau, dans ces représentations
01:06:16qu'on se fait
01:06:18et ce qui est fascinant
01:06:20c'est que même à la préhistoire ça a été
01:06:22la première fois, ils ont vraiment essayé de sortir
01:06:24ce qu'ils avaient de leur tête, alors est-ce que c'était
01:06:26des choses qu'ils imaginaient, des souvenirs
01:06:28ou des choses qu'ils avaient vécues
01:06:30en fait ce qu'on est sûr c'est que
01:06:32il y a 40 000 ans, une image de mammouth
01:06:34elle nous parvient toujours aujourd'hui en termes de communication
01:06:36ça c'est assez incroyable
01:06:38parce que, et même leur structure
01:06:40cérébrale était quand même différente
01:06:42mais on se rend compte qu'il y a des choses
01:06:44qui sont communes à notre humanité
01:06:46et aujourd'hui je pense que
01:06:48toutes ces façons
01:06:50de produire, ces nouvelles façons de produire
01:06:52des images sont toujours
01:06:54dans la continuité de ça, même si
01:06:56nos outils ce n'est plus le charbon, c'est peut-être l'ordinateur
01:06:58et puis je pense
01:07:00que c'est aussi pour ça que
01:07:02quand on est artiste on replace tout ça dans un contexte
01:07:04l'histoire de l'art c'est toujours
01:07:06en rupture, en continuité de ce qui s'est fait avant
01:07:08c'est une construction humaine
01:07:10donc forcément je pense que la dimension humaine
01:07:12est super importante
01:07:14plutôt que peut-être dans d'autres domaines qui se posent moins la question
01:07:16mais en tout cas
01:07:18puis de notre point de vue on parle
01:07:20en tant qu'artiste humain
01:07:22souvent c'est l'artiste lui-même qui va prendre son corps
01:07:24ou qui va être le cobaye
01:07:26de ses propres expériences
01:07:28ça aussi c'est quelque chose qui est peut-être
01:07:30qui est assez propre au monde de l'art
01:07:32c'est-à-dire que
01:07:34notre corps, notre vie
01:07:36devient aussi une façon
01:07:38de faire des choses, c'est peut-être moins le cas
01:07:40quand on est fashion designer
01:07:42enfin quand on est dans d'autres milieux
01:07:44mais je pense que c'est pour ça qu'il y a toujours un rapport
01:07:46aussi très fort à l'humanité
01:07:50Une dernière question
01:07:56Bonjour et merci pour la conférence
01:07:58alors moi j'avais une question
01:08:00qui était
01:08:02à titre peut-être d'approfondissement
01:08:04sur qu'est-ce que c'est l'espace latent
01:08:06et de quelle façon est-ce que
01:08:08vous vous positionnez
01:08:10vis-à-vis de cette chose
01:08:12qui définit
01:08:14ou qui donne un grand axe
01:08:16sur ce que produit
01:08:18la machine
01:08:22Alors l'espace latent c'est
01:08:24l'endroit
01:08:26où
01:08:30l'image
01:08:32principalement l'image
01:08:34va être générée dans une
01:08:36tridimensionnalité de catégories
01:08:38qui vont permettre de
01:08:40distinguer des points de coordonnées
01:08:42de la base de données
01:08:44qui permet de générer une nouvelle image
01:08:46c'est pour ça qu'il n'y a pas vraiment de lien
01:08:48entre ce qui est donné
01:08:50en amont
01:08:52parce qu'il y a cette transformation là
01:08:54et donc il y a des choses
01:08:56qui ressemblent un peu à la manière de
01:08:58distinguer pour nous
01:09:00pour essayer d'être un peu plus concret
01:09:02parce que c'est toujours difficile d'expliquer
01:09:04qu'est-ce qui différencie un citron d'une orange
01:09:06c'est la texture
01:09:08c'est la forme, c'est la couleur
01:09:10et donc il va y avoir un ensemble
01:09:12de paramètres qui peuvent dépasser
01:09:14la centaine voire
01:09:16bientôt des milliers et qui vont
01:09:18donner des points de coordonnées
01:09:20qui vont faire que quand
01:09:22un texte
01:09:24va se générer quelque chose dans l'espace
01:09:26latent et surtout
01:09:28une donnée de simulation
01:09:30puisque
01:09:32ces éléments là vont être compris
01:09:34dans leurs interactions
01:09:36dans leur manière de fonctionner
01:09:38et c'est pour ça que tout à l'heure j'ai dit
01:09:40qu'il y avait un point de convergence qui va arriver
01:09:42vers l'idée d'un world building
01:09:44où on va créer
01:09:46que ça soit de manière
01:09:48interactive, on a beaucoup parlé
01:09:50de manière
01:09:52peut-être pas assez
01:09:54justement de la partie installation, la partie interaction
01:09:56qui peut se passer
01:09:58en aval quand l'oeuvre en fait l'expérience
01:10:00mais aussi en produisant l'expérience
01:10:02c'est-à-dire par exemple
01:10:04là je suis en train de faire des expérimentations
01:10:06de dessiner à l'iPad
01:10:08avec un prompt
01:10:10en intro et que ça génère une vidéo
01:10:12ou que ça génère de l'image
01:10:14et donc là, entre la main
01:10:16négative et l'usage
01:10:18de l'IA, il y a quand même quelque chose
01:10:20qui se synchronise, qui se joint
01:10:22et donc l'idée
01:10:24d'un monde complètement simulé
01:10:26va se passer dans cet espace latent
01:10:28et cet espace latent
01:10:30parfois
01:10:32on ne maîtrise pas tout à fait les coordonnées
01:10:34donc il y a une forme
01:10:36je dirais d'inconscient
01:10:38mais qui est un inconscient
01:10:40d'une autre chose
01:10:42non humaine
01:10:44qui est faite à partir
01:10:46de plein d'inconscients
01:10:48individuels
01:10:50qui produisent
01:10:52tout cet assemblage là
01:10:54c'est un des endroits les plus intéressants
01:10:56dans le processus
01:10:58de génération d'une image
01:11:00on n'a pas parlé du bruit aussi
01:11:02le fait qu'on ne passe plus du grain
01:11:04pour révéler
01:11:06mais qu'on passe d'un bruit
01:11:08qui révèle une image
01:11:10du coup par rapport à ça
01:11:12dans vos pratiques artistiques
01:11:14comment vous replacez
01:11:16ce gros point
01:11:18de façon sémantique
01:11:20et comment est-ce que ça vient
01:11:22se réinscrire
01:11:24dans un schéma
01:11:34l'espace latent c'est fascinant
01:11:36parce que c'est l'espace de toutes les possibilités
01:11:38et en fait dès qu'on commence à gratter
01:11:40les couches de ce qui se passe derrière
01:11:42c'est à la fois tout et n'importe quoi
01:11:44et en même temps
01:11:46c'est infini
01:11:48c'est des heures et des heures
01:11:50et c'est alors là qu'on va commencer à...
01:11:52moi j'ai géré l'espace latent
01:11:54le grand volume d'images
01:11:56qui m'est arrivé je l'ai géré
01:11:58en me disant peut-être que je ne suis pas
01:12:00toute seule en tant qu'artiste à pouvoir les traiter
01:12:02et j'ai demandé à un scientifique
01:12:04Jean-Michel Jeunesse, ancien conservateur
01:12:06de la Grotte Chauvet
01:12:08de les regarder avec moi
01:12:10c'était cet espace latent
01:12:12entrer en connexion avec lui son espace de mémoire
01:12:14son espace de ressenti
01:12:16et son expérience humaine de la grotte
01:12:18et en fait il m'a aidé à m'orienter
01:12:20dans ces images à travers son expérience
01:12:22son vécu
01:12:24et c'est ça qui a fait sens
01:12:26pour moi à ce moment là dans ce projet
01:12:28c'était pas juste un projet d'IA
01:12:30c'était aussi un projet sensible
01:12:32de mettre en scène
01:12:34cette sensibilité humaine
01:12:36qui allait rencontrer aussi celle du logiciel
01:12:38et qui créait comme ça
01:12:40différents choix
01:12:42qui ensuite orientaient
01:12:44la création finale de l'oeuvre
01:12:46puisque j'ai re-généré de l'espace latent
01:12:48entre les images aussi pour avoir cette mise en mouvement
01:12:50donc l'espace latent
01:12:52c'est un outil
01:12:54et c'est à la fois des possibilités
01:12:56et c'est quelque chose je trouve d'assez beau
01:12:58à mettre en scène aussi
01:13:00d'une façon plastique
01:13:02dans le sens où
01:13:04c'est un peu dur de toujours montrer que le résultat final
01:13:06pour moi
01:13:08je trouve ça beau la machine qui est en train d'apprendre
01:13:10et justement le bruit
01:13:12cette cartographie du bruit
01:13:14qui se transforme en image
01:13:16c'est quand même assez magique
01:13:18et le bruit, le grain de la photo
01:13:20il faut partir de quelque part
01:13:22et là c'est cette proposition
01:13:24c'est des choses qui je pense
01:13:26ont un grand intérêt quand elles sont mises en scène
01:13:36Heureusement on va devoir s'arrêter là
01:13:38ce que je vous propose c'est peut-être si vous avez des questions complémentaires
01:13:40de les adresser directement aux invités
01:13:44que je remercie tout particulièrement
01:13:46pour la qualité des réponses
01:13:54et j'imagine que
01:13:56je vous invite en tout cas
01:13:58à suivre le travail de ces trois artistes
01:14:00qui sont vraiment des supers artistes
01:14:02sur TikTok
01:14:06Merci