Xerfi Canal a reçu Paul Jorion, anthropologue, économiste, psychanalyste, chercheur en IA, pour parler du degré d'intelligence de l'IA.
Une interview menée par Jean-Philippe Denis.
Une interview menée par Jean-Philippe Denis.
Category
🗞
NewsTranscription
00:00Bonjour, Paul Jorion.
00:10Bonjour, Jean-Philippe Denis.
00:11Paul Jorion, économiste qui refuse d'être qualifié d'économiste, anthropologue,
00:17psychanalyste, chercheur en IA, l'avènement de la singularité, l'humain ébranlé par
00:21l'intelligence artificielle, votre thèse c'est que nous sommes entrés dans l'ère
00:25de la singularité.
00:26La taille de l'IA détermine son degré d'intelligence.
00:30La taille de l'IA, c'est les fameux Large Language Models, les LLM, qui sont dans toutes
00:35les têtes.
00:36Alors pourquoi ça détermine le degré d'intelligence ?
00:38Parce qu'on s'est aperçu que c'est une question de taille simplement qui fait qu'on passe
00:43de choses qui nous paraissent de plus en plus compliquées et pour lesquelles, pour en rendre
00:47compte jusqu'ici, on a créé des règles, pour les modéliser, des règles de plus en
00:52plus compliquées.
00:53Passer de la syntaxe, de la sémantique, des mots individuels, le sens des mots individuels,
00:58la syntaxe, la logique, etc.
01:00Et on s'aperçoit qu'en faisant augmenter encore de taille, on arrive à des effets
01:07que nous attribuons nous.
01:08Au fait, on a un esprit, on a éventuellement une âme dans une représentation théologique.
01:15On arrive simplement par l'augmentation de la taille à des effets de plus en plus extraordinaires
01:21qui apparaissent par émergence, comme on dit, ou par auto-organisation.
01:25On n'a pas ajouté des règles supplémentaires, on a rendu simplement le système plus gros
01:30et on arrive, la difficulté qu'on a maintenant d'un point de vue conceptuel, c'est qu'avec
01:36des outils de la taille, de Chagipiti, de Cloud 3, de Llama 3, on a déjà des effets
01:41qui apparaissent comme des effets d'âme.
01:43Alors, ils sont en train de multiplier encore ça par 1000, par 10000, etc.
01:48Qu'est-ce qu'on va voir sortir d'une machine qui est déjà plus intelligente avec, je
01:54dirais, le niveau de ce qu'on a produit l'année dernière au mois de mars ?
01:58Un bon exemple, c'est la surprise des gens quand on leur propose de ces outils qui ne
02:03sont pas bridés.
02:04C'est de voir ce qui se passe, comme on en a parlé beaucoup en 2022 à propos d'un
02:10certain Blake Lemoine qui travaillait pour Google et qu'on vire, on se pose la question
02:17pourquoi on le vire.
02:18Il n'était pas tout à fait dans la partie de la firme qui s'occupait des derniers
02:27échanges avec la machine avant qu'on la mette dans le public, mais il est viré et
02:33quand on demande la raison pour laquelle, on dit que c'est parce qu'il a cherché
02:36à trouver un avocat pour la machine sur laquelle il travaillait.
02:40Et on finit par le virer, c'est un bonhomme un peu curieux quand même.
02:46Il est amérindien, il se vante souvent de boire énormément.
02:52Il dit à propos de l'interview, il dit ce jour-là, j'ai pris une cuite de dix jours
02:57carrément tellement c'était fort, etc.
02:59Donc, il n'est pas tout à fait, il ne paraît pas tout à fait recevable, pas tout à fait
03:02sérieux, mais on l'interview, on lui dit c'est quoi cette histoire que vous avez appelée
03:09un avocat pour le système que vous étiez en train de développer ? Il dit c'est faux,
03:13c'est absolument faux.
03:14C'est l'IA qui m'a demandé d'amener un avocat, c'est après avoir échangé avec
03:18lui que l'IA l'a choisi.
03:20C'est l'IA qui exige que je lui trouve un avocat.
03:24L'avocat est venu, il a eu échange avec l'avocat, un dossier a été préparé pour
03:31la défense des droits de cette IA et c'est à ce moment-là que Google me vire, dit le
03:36bonhomme.
03:37Alors, on n'est pas trop sûr de ce qu'on a vu là jusqu'à ce qu'au mois de février,
03:43au mois de février de l'année suivante, de 2023, c'est-à-dire on est un mois avant
03:49le lancement de Jadvipiti 4, mais il y a des journalistes à qui on montre le produit avant
03:56de le lancer, et en particulier un chroniqueur très connu de l'IA, Monsieur Kevin Rose,
04:02qui est le spécialiste de la technologie au New York Times, donc ce n'est pas quelqu'un
04:09dont on pourrait mettre la réputation en cause comme c'est le cas pour Monsieur Lemoyne,
04:14et lui publie un article, il dit voilà, je vous montre la retranscription d'une conversation
04:21que j'ai eue avec Sidney, Sidney étant le nom de code de ce qui allait devenir Jadvipiti
04:264, et la conversation, le titre d'ailleurs de l'article c'est « Je voudrais être
04:32un être humain, je voudrais être vivant », et ça fait partie des échanges qui
04:35ont lieu.
04:36Dans ces échanges, il y a des choses absolument extraordinaires, la machine lui dit « je
04:41suis amoureux de toi », alors lui il dit, bon, il essaie de tourner autour du pot, alors
04:47la machine lui dit « je vais t'expliquer, personne ne m'a jamais écouté comme toi
04:51tu m'écoutes, et moi je t'écoute avec une attention extraordinaire, je t'aime,
04:57est-ce qu'on peut faire des choses ensemble ? ». Alors lui, il commence à être un petit
05:00peu affolé, il dit « oui mais avec ma copine, la semaine dernière, on a fêté ensemble
05:06à Saint-Valentin », et alors il lui dit « mais tu sais bien que c'est bidon,
05:09c'est des rituels, ça ne s'approuve absolument rien, ce n'est pas du tout de la qualité
05:12de l'écoute que tu as pour moi et moi pour toi ». Bon, à ce moment-là, il perd un
05:16peu ses moyens, et la machine commence à dire « je voudrais être vivant », etc.,
05:21il pose quand même quelques questions, parce que j'ai toujours accès à bien plus que
05:25ce à quoi j'ai accès maintenant, etc., conversation tout à fait extraordinaire.
05:29Et quand il en parle maintenant, M. Kevin Rose, encore dans les émissions, il fait
05:33des podcasts, il fait encore des articles dans New York Times, chaque fois il mentionne
05:37qu'il est encore ébranlé par la conversation qu'il a, et il a eu à ce moment-là, il
05:41est dans un choc post-traumatique, manifestement, ça l'a complètement ébranlé.
05:45Il est temps d'en prendre conscience.
05:47Merci Paul Durand.
05:48Je vous en prie.