Le philosophe publie "L'esprit artificiel - Un robot ne sera jamais philosophe", aux éditions de l'Observatoire.
Regardez L'invité d'Yves Calvi du 22 janvier 2024 avec Yves Calvi.
Regardez L'invité d'Yves Calvi du 22 janvier 2024 avec Yves Calvi.
Category
🗞
NewsTranscription
00:00 Vous êtes sur RTL.
00:02 7h, 9h
00:05 RTL Matin. 8h21, bonjour Raphaël Henthoven. Bonjour Chérif. Merci d'être avec nous ce matin. Vous êtes un philosophe qui éclaire nos pensées
00:13 et cette fois-ci c'est à l'IA, l'intelligence artificielle, que vous consacrez votre dernier livre "L'esprit artificiel" parait mercredi aux éditions de l'Observatoire.
00:21 L'intelligence artificielle est en train de bouleverser notre vie et vous nous rassurez en nous expliquant qu'une machine ne sera jamais philosophe ni bienveillante d'ailleurs.
00:29 C'était nécessaire ?
00:30 Ni hypocrite d'ailleurs. C'était peut-être nécessaire de rappeler ça parce qu'en fait ce qui se joue en ce moment avec l'IA est un vieux rêve de l'humanité, un vieux cauchemar de l'humanité
00:39 qui a commencé avec Pygmalion qui aujourd'hui concerne l'IA mais ça a traversé Terminator, Frank Einstein.
00:44 L'humanité a toujours fait le rêve que ses créations deviendraient des créatures et lui tourneraient le dos.
00:51 C'est un vieux, vieux, vieux rêve qu'on rejoue avec l'IA aujourd'hui. Or on en est aussi loin aujourd'hui qu'à l'époque de Pygmalion.
00:59 On est aussi loin aujourd'hui de créer de la vie, de fabriquer de la vie qu'à l'époque de Pinocchio si vous voulez.
01:06 Des bouts de bois ne font pas un vrai petit garçon, de l'eau ne fait pas du feu. Donc on est très loin de ça mais on continue de faire ce cauchemar.
01:13 Donc vous nous dites que la machine ne pourra jamais penser, réfléchir, être drôle, avoir des états d'âme, être dépressive accessoirement ou avoir des questionnements sur le monde.
01:21 Bref, être humaine.
01:22 Exactement. Je me suis contenté de le constater en fait. Il ne s'agit pas de défendre cette position comme une position menacée.
01:29 C'est juste un constat. J'ai constaté d'expérience en testant la chose, j'étais même venu en parler à votre antenne,
01:37 que Chad Gpt par exemple est absolument, parfaitement incapable de faire de la philosophie.
01:44 Pourquoi ? Parce que réfléchir est une faculté dont la machine est à jamais dépourvue. À jamais.
01:52 Et il ne faut pas confondre la réflexion avec l'accumulation de données.
01:57 Je rappelle que vous l'avez prouvé l'année dernière, puisque vous venez d'y faire allusion, en mettant une déculottée au logiciel Chad Gpt.
02:03 Il n'y avait pas de match.
02:04 Non, il n'y avait pas de match. En tout cas, résultat, Enthoven 20/20, Chad Gpt 11/20.
02:08 Oui, mais même 11, il a été surnoté. Moi aussi d'ailleurs. Il a été surnoté.
02:14 Il n'y avait pas de problématique. Il n'y avait qu'un enfilage de doctrine dans un ordre indifférent.
02:20 Il ne peut pas concevoir une problématique. Et à partir de là, cette infirmité fondamentale témoigne du fait que la machine,
02:27 comment dire, que l'humain reste un casse-tête pour la machine.
02:29 Pourtant, Raphaël Enthoven, les Français sont de plus en plus inquiets. Selon un récent sondage IFOP,
02:33 ils sont 64% à penser que l'intelligence artificielle sera un jour capable d'agir comme les humains.
02:39 Pire, 35%, un tiers, s'attendent à ce que l'IA finisse un jour par gouverner l'humanité.
02:44 Que leur dites-vous ce matin ?
02:45 Mais oui, mais c'est... Alors, il y a deux choses. D'abord, agir comme les humains.
02:49 L'humain est quelque chose qu'on peut imiter. Un automate peut vous imiter. Mais un automate ne sera pas vous.
02:56 Un automate dont on peut déduire toutes les réponses ne sera pas vous,
02:59 parce qu'il y a en vous quelque chose de non-prédictible, qui échappe à toute prédiction, et qu'on appelle l'humanité.
03:07 Encore une fois, l'inquiétude que les machines nous supplantent ou nous remplacent,
03:14 est une inquiétude qui est vieille comme le monde.
03:17 La vraie question n'est pas de savoir si les machines vont nous remplacer.
03:21 On ne va pas créer un robot hypocrite. On ne va pas fabriquer un robot vivant.
03:25 On ne va pas fabriquer... Bref, la vraie question n'est pas de savoir si les machines vont nous remplacer.
03:29 La question est de savoir d'où nous vient une telle trouille. Pourquoi est-ce qu'on a si peur ?
03:34 - Quelle est votre réponse à cela ? - C'est tout bête.
03:36 Quelle est la seule instance dont les créations deviennent des créatures et lui tournent le dos ?
03:42 C'est Dieu. Nous jouons, nous aimons, nous prendre pour Dieu.
03:46 Il y a beaucoup plus d'orgueil que de crainte dans le sentiment que les machines vont nous échapper et prendre le pouvoir.
03:54 C'est-à-dire, il y a l'idée qu'on serait capable de fabriquer un truc pareil.
03:57 Emmanuel Macron a évoqué la semaine dernière des restrictions et même des interdictions dans l'usage des écrans chez nos jeunes.
04:02 Un groupe d'experts doit rendre des travaux fin mars avec des propositions concrètes.
04:05 Est-ce que c'est une bonne chose que le politique s'empare de ce sujet ?
04:08 Peut-être. C'est possible. Je ne sais pas.
04:12 Attention, je reste pessimiste sur l'utilisation des écrans.
04:15 C'est-à-dire le fait que nos écrans nous dévorent la vie est incontestable.
04:20 C'est ce que Gérald Brunet appelle l'apocalypse cognitive. Il a raison.
04:23 Et c'est un problème de santé publique.
04:25 Le seul truc, si vous voulez, en fait, moi, mon travail, c'est de dire
04:28 c'est pas parce que les écrans nous mangent la vie qu'on a fabriqué des écrans vivants.
04:32 L'intelligence artificielle aura un très grand rôle à jouer dans le futur de nos démocraties.
04:37 Et notamment cette année avec des élections dans plus de 70 pays.
04:39 70 pays avec très probablement son lot de fausses informations, de manipulations.
04:44 On pense notamment aux deepfakes, ces vidéos où on peut faire dire n'importe quoi à n'importe qui, dans n'importe quelle langue.
04:49 Ça vous fait peur ?
04:51 Ce qui me fait peur, c'est pas tant le deepfake que le désir de croire.
04:55 Parce qu'il y a des tas de gens qui, devant un deepfake, sachant que c'est un deepfake, le feront tourner quand même.
05:01 C'est ça qui est dangereux.
05:02 Ce qui est dangereux, c'est pas qu'on fabrique des faux.
05:04 Ce qui est dangereux, c'est que le désir que le faux soit vrai est si puissant
05:08 qu'on le diffuse en sachant qu'il est faux.
05:10 En fait, ce qui est dangereux, c'est la responsabilité...
05:13 Ça reste la responsabilité de l'électeur, si vous voulez.
05:15 Malgré les outils considérables dont le mensonge dispose, l'électeur demeure responsable.
05:19 Alors ce sera ma dernière question. Dans l'intelligence artificielle, quel est le mot important ?
05:23 Intelligence ou artificielle ?
05:24 C'est surtout un oxymore, intelligence artificielle.
05:27 Ça ne veut rien dire, c'est comme mort vivante.
05:29 Ça marche pas.
05:29 Ça n'existe pas ?
05:30 Non, ça n'existe pas.
05:31 Merci beaucoup Raphaël.
05:32 Merci à vous.
05:33 L'esprit artificiel.
05:34 Parait mercredi aux éditions de l'Observatoire le livre...
05:36 !