• il y a 2 semaines
Xerfi Canal a reçu Paul Jorion, anthropologue, économiste, psychanalyste, chercheur en IA, pour parler d'une intelligence supérieur à celle de l'humain.
Une interview menée par Jean-Philippe Denis.

Category

🗞
News
Transcription
00:00Bonjour Paul Jorion, bonjour Jean-Philippe Denis, l'avènement de la singularité,
00:13l'humain ébranlé par l'intelligence artificielle, c'est l'ouvrage que vous
00:16publiez aux éditions textuelles, on en est quasiment déjà au quatrième anniversaire,
00:21on ne sait pas quand cette émission sera diffusée, mais quasiment au quatrième anniversaire,
00:24parce que vous dites chaque mois qui passe, c'est un anniversaire étant donné la vitesse
00:29à laquelle tout ça évolue et tout ça va, donc un ouvrage qui a déjà quatre mois, c'est...
00:35Si il fallait simplement le modifier un petit peu pour le republier, j'ai fait un calcul l'autre jour
00:42parce qu'on me l'a demandé, c'est la moitié de l'ouvrage qu'il faudrait déjà réécrire.
00:45Le Transformer a autorisé une intelligence supérieure à celle de l'humain, le Transformer
00:53c'est le T de J.P.T, le T final, une intelligence supérieure. Nombreux sont ceux qui vous disent
01:02Jorion il déconne encore. Oui, il y a ce compte rendu récemment dans le Canard Enchaîné dans
01:10la première phrase, Jorion est fou, et puis on ajoute, oui mais comme il avait prévu la crise
01:15des suprêmes, il faut peut-être quand même faire attention à ce qu'il dit, il faut peut-être quand
01:18même creuser. Alors cette intelligence supérieure à celle de l'humain, tout le monde pense que c'est
01:25un alignement, c'est des probabilités que justement il ne peut pas inventer, il ne peut
01:30pas être créatif, ce fameux tchat bot, vous nous dites, c'est plus compliqué que ça.
01:37Oui, ça devait être vers 71 ou 72, j'assiste à la Sorbonne à un exposé, bon il était invité,
01:43c'est Roman Jacobson qui à l'époque est considéré comme le plus grand linguiste,
01:48il nous dit, à ceux qui sont là à l'écouter, il faudra encore longtemps avant que la linguistique
01:54atteigne le degré de sophistication qui était le sien, au 15e siècle. Bon, ça ne le rend pas très
02:03sympathique pour ses collègues puisqu'il dit on est encore très en retard par rapport à ça,
02:08mais c'est vrai qu'effectivement à cette époque-là, en particulier au 15e siècle, il y a un débat,
02:13avec des gens comme Grégoire de Réminet, je dirais la crème de la crème des penseurs sur le
02:19complexe significabile, comment faire émerger le sens, comment faisons-nous émerger le sens global
02:26de la phrase, de l'ensemble des mots. Et ce sont des bons linguistes, ils ont une théorie qui
02:33s'appelle la théorie de la supposition qui est vraiment, comment dire, c'est la version 2 du
02:39mieux de ce qu'on trouve chez Aristote, donc c'est vraiment de la très bonne qualité, ils n'y
02:43arrivent pas. Le problème, on n'arrive pas à définir comment ça marche. Et ici voilà, dans
02:49les années à partir de 2017, il y a un fameux papier, un article, par une équipe qui dit
02:57« Attention is all you need ». L'attention c'est tout ce qui est nécessaire et ils ont appelé
03:06attention un mécanisme extrêmement compliqué qu'ils ont mis eux au point et qui est une
03:12combinaison de tous les sens des mots. Et la méthode qu'on va utiliser, on va créer des
03:18vecteurs, c'est-à-dire des suites de chiffres pour chacun des mots, et puis on va les multiplier et
03:23on va obtenir des matrices très grandes avec beaucoup de chiffres qui ont été multipliés les
03:28uns par les autres. Et en fait, en multipliant le sens de tous les mots dans la phrase, en tenant
03:34compte d'éléments de contexte plus anciens, etc., on va avoir quelque chose qui, non pas comme
03:39le prétendre, va simplement produire le mot suivant, mais va produire les phrases suivantes.
03:44Parce que c'est pas en créant des mots un en un qu'on va produire quelque chose d'intelligent.
03:50Absolument.
03:51La machine a en tête l'idée de ce qu'elle va dire ensuite. C'est pour ça qu'à l'intérieur de ça,
03:59il se passe bien davantage que des alignements de mots à la queuleuleu. Ce complexe significabilité,
04:05il a été résolu à partir de 2017 par des gens qui ne savent pas expliquer exactement ce qui se
04:13passe. On sait comment on fait pour le faire, mais on sait aussi qu'on a dû bidouiller vraiment,
04:17on a dû changer ici ou là, on a changé les manettes, etc., et on a regardé quand ça marchait
04:23bien. Et on a trouvé, par exemple, qu'il fallait que la taille du réseau neuronal soit à peu près
04:29de la même taille que le nombre de mots qu'on allait faire entrer, des choses comme ça. C'était
04:33pas écrit nulle part que c'était ça qui allait marcher, mais si, voilà. Il y a des concordances
04:38de ce type-là qui ont été découvertes empiriquement par les chercheurs.
04:41Bien sûr. La clé, c'est le T de Tchadjipiti, le transformer, composé d'une batterie de têtes
04:46de lecture en parallèle qui permet d'intégrer en un sens global l'information contenue dans
04:50une suite de mots. On désigne par auto-attention de la machine ce mécanisme d'abstraction d'un
04:56sens global. L'auto-attention, c'est ça la révolution de l'IA.
05:00Et les gens qui nous disent « Non, il ne s'est rien passé », il faut leur lire cette phrase « Si
05:05il s'est passé ça, voilà. » C'est ça qui faisait passer.
05:07L'auto-attention. Merci Paul Jurian.
05:09Je m'en prie.
05:10L'avènement de la singularité, l'humain ébranlé par l'intelligence artificielle.

Recommandations