• le mois dernier
Xerfi Canal a reçu Paul Jorion, anthropologue, économiste, psychanalyste, chercheur en IA, pour parler de ChatGPT.
Une interview menée par Jean-Philippe Denis.

Category

🗞
News
Transcription
00:00Bonjour Paul Jorion, bonjour Jean-Philippe Denis, Paul Jorion, vous êtes anthropologue,
00:14vous refusez d'être qualifié d'économiste, vous dites un peu de finance, les mains dans le
00:18cambouis, ce qui vous a permis de prévoir la crise des subprimes, la crise du capitalisme américain,
00:25et vous êtes très connu pour cette raison-là, vous êtes également psychanalyste, vous êtes
00:30inclassable, vous touchez à tout, mais on va voir qu'un peu dans cet ouvrage, c'est plutôt
00:36une qualité de savoir toucher à tout, parce que c'est là où va nous emmener l'IA, mais ça on
00:40en reparlera. Quand je touche à quelque chose, c'est consciencieusement. C'est bien,
00:44tchat GPT, comme tout le monde, quand est arrivé tchat GPT, moi j'ai retenu tchat,
00:51on tchat, on discute, on converse, etc. Vous, vous nous dites tchat GPT, le G ça veut dire
00:59Générative, le P c'est Pre-trained, et le T c'est Transformer, et le vrai sujet c'est le
01:07Transformer, est-ce que vous pouvez nous expliquer ? Le tchat ça venait effectivement de tchat bot,
01:12et tchat bot on l'avait déjà fait avec Robo, mais en avant enlevé l'euro, ça c'est qu'il n'y a
01:17aucun sens, mais on le fait souvent comme dans Omnibus, on remplace l'omni par auto et ça
01:23devient autobus, on avait déjà fait ça avant. Alors tchat GPT-4, et c'est effectivement,
01:30dans cet acronyme il y a la description de ce que c'est, la difficulté ce sera quand on demande
01:37donc à la machine ce qu'elle fait, elle vous parlera uniquement de la partie G et P, et vous
01:43cachera soigneusement le T, parce que le T il est un peu trop inquiétant pour des êtres humains.
01:49Alors pourquoi il est inquiétant ce T ? Parce que c'est dans le T que le dépassement de l'humain
01:55se fait, c'est à l'intérieur du Transformer, et comme le dit monsieur Geoffrey Hinton,
02:01qu'on appelle le parrain de ce type d'intelligence artificielle, on pensait pas en faisant le
02:07Transformer, on pensait qu'on pouvait égaler peut-être l'humain, et comme il le dit,
02:11mais pas de mon vivant, bon il a 77 ans, et là il est pris au dépourvu, parce que non seulement ça
02:18marche, mais ça produit comme il le dit une machine qui marche mieux que nous, on a mis au point une
02:24machine qui est plus efficace dans le même, dans la même ligne que notre cerveau. Mais notre cerveau
02:30c'est un machin naturel, c'est à dire que comme tous les machins naturels, il n'y avait pas de
02:35plan en laboratoire, il n'y a probablement pas de grands mécaniciens quelque part, parce que ça a
02:40été fait par essais et erreurs, comme beaucoup de choses, comme notre œil qui est moins bon que
02:44celui du poulpe, parce qu'il est mal bricolé, parce que les vaisseaux sanguins sont devant la
02:50rétine, et que du coup on a dû mettre dans notre cerveau un truc qui enlève l'image de la rétine,
02:54etc. Chez le poulpe non, les vaisseaux sanguins sont derrière le nerf optique, etc. On a une
03:01machine avec des milliards et des milliards de connexions, mais quand on fait ça, quand on le
03:06développe et qu'on fait par essais et erreurs, comme le font dans leur laboratoire ces grandes
03:10firmes qui nous ont produit ça, sans le faire exprès, on arrive un jour à un truc où on se dit
03:15zut, ça marche bien, mais ça marche peut-être trop bien, et il va falloir cacher un petit peu à
03:23quel point ça marche bien. Alors quand on vous dit GPT, on le transforme, on vous dit pas non,
03:28non, c'est tout ça, c'est statistique, c'est prévision simplement du mot suivant, c'est
03:32probabiliste, etc. Et en réalité non, il y a une machine extrêmement puissante à l'intérieur,
03:39mais qui est fondée sur des multiplications de matrices, des modèles parmi les plus compliqués
03:46qu'on fait quand on fait de la physique, multiplier des matrices pour obtenir d'autres résultats,
03:50mais ça marche, on met le sens de chacun des mots dans la phrase, et puis on les multiplie tous
03:56entre eux, et on finit par avoir le sens global de la phrase. Et ça, aucun linguiste n'était
04:03jamais arrivé à le comprendre. Résultat, quand on voit que ça marche comme ça, c'est toute la
04:07linguistique moderne qu'on peut mettre à la poubelle, et d'où les remarques, par exemple
04:14monsieur Hinton qui ricane à propos de Chomsky. Pourquoi est-ce qu'on ricane de Chomsky ? Parce
04:19que Chomsky a été très très très arrogant tout le temps, il a été le plus grand linguiste du monde,
04:24et là tout à coup on s'aperçoit que tout ça est inutilisable, et c'était tout à fait par une
04:28autre méthode qu'on aurait pu modéliser tout ça. C'est cette magie, le transformeur, qui fait
04:35qu'un alignement de mots finit par donner du sens, et que la machine comprend le sens de la phrase,
04:42de la même manière que nous comprenons le sens de la phrase. Il arrive très souvent qu'on ne
04:47comprenne pas le sens de la phrase, et ça c'est peut-être l'avantage de la machine, c'est qu'il
04:52est sans doute très rare qu'elle ne comprenne pas tout le... Surtout maintenant, avec les
04:56possibilités de mémoire qu'on a, elle peut remonter le contexte... Qui est-ce qui nous a
05:01dit ça ? Google, on peut remonter dans la mémoire à l'infini. Moi je suis psychanalyste par ailleurs,
05:07je sais qu'on peut remonter de la mémoire à l'infini chez une personne. D'abord c'est pas à
05:11l'infini parce qu'il y a une date de naissance quelque part, et puis grâce au refoulement il y
05:15a beaucoup de choses qui sont cachées, parce que ça nous ennuierait d'avoir toutes ces mémoires
05:19en permanence dans la tête, avec des effets parasites qu'on préfère ne pas avoir.
05:27L'avènement de la singularité de l'humain est branlé par l'intelligence artificielle,
05:32et on va mesurer toutes les conséquences. Merci Paul Jorion.
05:34De tout un prix.

Recommandations