• l’année dernière
L'invité des Matins de France Culture.
Comprendre le monde c'est déjà le transformer, l’invité était Bertrand BRAUNSCHWEIG_Emmanuel CHEMIA (07h40 - 08h00 - 14 Juin 2023)
Retrouvez tous les invités de Guillaume Erner sur www.franceculture.fr

Category

🗞
News
Transcription
00:00 *Générique*
00:03 7h41 sur France Culture.
00:05 *Générique*
00:12 A-t-on affaire avec l'intelligence artificielle ?
00:15 A-t-on une menace réelle ou fabriquée ?
00:19 Serait-on fou si on laissait uniquement les lobbies s'intéresser à l'intelligence artificielle
00:25 et développer des programmes qui peuvent ou bien nous remplacer, ou bien nous conduire à prendre de mauvaises décisions,
00:33 ou bien à diminuer l'intelligence humaine en la remplaçant par de l'intelligence artificielle ?
00:39 Pour en parler, nous sommes en compagnie d'Emmanuel Schemla.
00:44 Bonjour. Emmanuel Schemla, vous êtes chercheur en sciences cognitives et linguistiques.
00:49 À côté de vous, Bertrand Brunchweg, bonjour.
00:52 Bonjour.
00:52 Vous êtes l'ancien directeur du Centre de recherche de l'INRIA Saclay et consultant.
00:57 Alors je vous propose tout d'abord de débuter par une page pédagogique pour nous expliquer en quoi il y a cette génération d'intelligence artificielle
01:07 qui est incarnée par Chadjipiti ou Mijwone et quelque chose de singulier.
01:12 Comment ça fonctionne ? Qu'est-ce qu'ils apportent ? Bertrand Brunchweg.
01:18 Si on revient un petit peu à la manière dont fonctionne l'intelligence artificielle,
01:22 il y avait, dès le début de l'IA dans les années 50, même un petit peu avant, il y avait deux types d'approches.
01:29 Une approche où les personnes font les modèles qui sont des règles, des arbres logiques, ce qu'on appelle des ontologies, des représentations des connaissances.
01:38 Et ce sont des choses qu'on met...
01:38 Des ontologies, je vais vous demander de m'expliquer.
01:41 Des représentations structurées du monde.
01:44 Et donc ce sont des modèles qu'on fait soi-même, qu'on fait à la main, et donc on est capable de les maîtriser, d'expliquer leur comportement.
01:50 On connaît tous ces modèles.
01:53 Il y a eu également, dès les origines, une deuxième tendance qui est de se baser sur les données et d'apprendre à partir des données.
02:00 Et il y a eu des hauts et des bas, en fait, dans ces deux modèles.
02:03 Il y a eu des périodes où les modèles numériques, à partir des données, prenaient le pas sur les autres.
02:08 Il y a eu des périodes où les modèles logiques prenaient le pas sur les autres.
02:11 Et là, depuis maintenant, en fait, en gros, depuis la grande diffusion du Web dans les années 2000,
02:16 et puis depuis quelques ruptures qui ont eu lieu au début des années 2010,
02:20 ce sont les modèles numériques qui apprennent à partir des données qui ont pris le dessus.
02:24 Donc, Jadj Gpt fait partie de cette génération-là.
02:27 C'est un modèle qui apprend à partir des données.
02:29 Il apprend à partir de très, très grandes bases de textes.
02:33 Et avec la difficulté qu'on peut souligner sur les modèles faits à partir des données qui ont des structures internes très complexes,
02:40 c'est qu'on a encore du mal à expliquer leurs décisions, leur production.
02:44 On a du mal à expliquer leur décision.
02:45 On a du mal à expliquer.
02:46 On connaît, on a des théories globales qui disent pourquoi ces modèles marchent,
02:49 mais on a du mal pour expliquer pourquoi un modèle numérique a sorti une donnée à un instant donné,
02:55 à reproduire exactement tout le chemin qui est un grand calcul, en fait, qui se fait dans les internes du modèle,
03:00 avec, par exemple, pour Jadj Gpt, 176 milliards de paramètres qui sont mis...
03:05 Et oui, parce qu'en fait, il y a des modèles en concurrence à l'intérieur de Jadj Gpt.
03:08 En fait, c'est un très grand parallélisme avec un très grand nombre de paramètres,
03:13 des calculs qui se font sur des machines très puissantes, d'ailleurs,
03:16 et qui, en fait, dont le rôle est simplement de prédire le prochain mot d'une phrase.
03:22 Alors, on va revenir évidemment là-dessus, puisque c'est l'une des singularités de Jadj Gpt.
03:26 Mais Bertrand Brunchfeg, Yann Lequin, qui dirige le laboratoire d'intelligence artificielle de META, autrement dit de Facebook,
03:35 dit que finalement, Jadj Gpt, ce n'était pas si nouveau que ça.
03:38 Alors, peut-être qu'il le dit en partie parce que ce n'est pas Facebook qui l'a développé.
03:43 Mais est-ce qu'il n'y a pas aussi une sorte d'effet de nouveauté exagéré avec Jadj Gpt ?
03:49 Qu'en pensez-vous ?
03:50 En fait, ce qui se passe, c'est qu'il y avait déjà des modèles de cette nature.
03:54 Et ça fait un petit moment.
03:55 Emmanuel pourra nous en parler beaucoup plus en détail, je pense.
03:58 Mais Jadj Gpt, c'est le premier qui a été ouvert au grand public.
04:00 D'où le fait qu'on commence à en parler.
04:01 C'est le premier que vraiment tout le monde pouvait utiliser librement.
04:04 Et Yann a raison sur le fait que les théories, les méthodes qui sont mises en œuvre dans Jadj Gpt,
04:10 elles remontent à, par exemple, des travaux qu'il avait menés, lui, dans les années 90,
04:14 sur la manière d'entraîner au mieux ces grands systèmes qu'on appelle des grands réseaux neuronaux profonds.
04:21 Emmanuel Chimla, je vous ai invité parce que Jadj Gpt est un modèle verbal.
04:27 Il fait des textes, il produit du langage, il produit une sorte de littérature.
04:31 Vous êtes linguiste et je me suis dit qu'il était essentiel d'avoir votre regard sur Jadj Gpt.
04:40 Justement, comment un linguiste voit-il cette chose bizarre ?
04:46 Merci, merci d'invitation et merci de votre question.
04:48 Je vais d'abord rebondir sur une chose qu'a dite Bertrand.
04:52 Donc, ce qu'on sait depuis longtemps, c'est que ces modèles d'apprentissage qu'on pourrait appeler aveugles,
04:58 qui partent des données, en fait, ils peuvent apprendre presque tout, presque parfaitement.
05:03 C'est exactement ça qu'on sait.
05:04 Et le grand enjeu, c'est de savoir à quelles conditions ils vont y arriver.
05:08 Ce qu'on a découvert dans ces dernières années, c'est qu'on avait suffisamment de données linguistiques disponibles sur la planète
05:16 pour pouvoir approximer cette fonction qui consiste à partir d'un début de phrase, de terminer cette phrase.
05:22 On peut voir ça comme une fonction, de façon complètement mathématique.
05:25 On a un début de phrase, on veut la fin de la phrase. Et bien, on peut approximer cette fonction très, très près.
05:30 L'enjeu, c'est de découvrir avec quelle quantité de données on est capable de faire ça.
05:33 Et ce dont on s'est rendu compte, c'est qu'on est capable de faire ça avec une quantité de données absolument astronomique.
05:38 Il s'agit de milliers et de milliers d'années de langage s'il s'agissait d'être exposé à cette langue.
05:44 Mais alors, ça, c'est quand même très étrange parce que ça signifie, Emmanuel Schemla,
05:48 que nous sommes extrêmement prévisibles dans les mots que nous utilisons, dans les phrases que nous formons.
05:55 Tellement prévisibles finalement qu'une machine qui ne sait pas, parce qu'il n'y a pas de savoir dans le chat GPT,
06:00 il y a en revanche une capacité lexicale. Et donc, les probabilités suffisent à former des phrases.
06:07 Alors, suffisent à former des phrases, oui. On peut former des phrases, même avec des règles très simples.
06:12 On va être capable de dire, voilà, je vais choisir comme sujet soit chat, soit lion.
06:17 Je vais choisir comme verbe soit boire, soit manger. Et je vais mettre les deux à côté.
06:21 Je vais former des phrases et un certain nombre de phrases assez grandes.
06:24 De là à dire que j'ai reproduit l'intelligence humaine et la capacité à créer des histoires intéressantes, etc.,
06:30 il y a évidemment un saut. Chat GPT fait une partie de ce saut-là, très certainement.
06:36 Et l'un des enjeux, c'est de savoir comment. Donc, d'un point de vue de la linguistique,
06:40 la distinction, encore une fois, que Bertrand a eu la bonne idée d'introduire très tôt, c'est de savoir,
06:45 d'une part, est-ce que ces modèles apprennent comme les humains ?
06:49 Étant donné la quantité de textes qu'il faut pour en arriver à ce niveau de qualité,
06:54 on n'est pas du tout au niveau de ce que font les enfants.
06:56 Les enfants, en quelques mois, en quelques années, si on veut être un peu généreux, sont tout aussi bons que chat GPT.
07:02 Alors, ça, c'est effectivement important, puisque Yann Lequin, toujours donc celui qui dirige le laboratoire d'intelligence artificielle de Facebook,
07:10 explique que chat GPT, on sait moins, par exemple, sur la gravité qu'un chat.
07:16 Je ne sais pas très bien ce que c'est un chat sur la gravité, mais on voit que la notion de savoir, dans ce domaine-là, est complètement inopérante.
07:26 Là aussi, quelles sont les conséquences, Emmanuel Schemla, ce système qui ignore tout et qui est capable de répondre à toutes les questions ?
07:34 Alors, c'est une excellente question et c'est aussi une question très linguistique.
07:36 Donc, l'une des questions, c'est, pour rester dans le domaine linguistique, plutôt dans le domaine du savoir, qui est peut-être plus difficile,
07:42 c'est quelles règles linguistiques chat GPT connaît ?
07:46 Et par règles linguistiques, il y a des choses très très simples que tout le monde connaît.
07:49 Il ne s'agit pas de retourner au CM2, je ne vais pas vous obliger à faire ça parce que ça peut être pénible pour certains,
07:54 mais il y a des règles très simples que tout le monde connaît.
07:57 Le sujet, en français, il est typiquement avant le verbe, qui lui-même est typiquement avant l'objet.
08:01 Il y a des langues qui ne sont pas comme ça, où le sujet est suivi de l'objet qui lui-même est suivi du verbe.
08:07 Donc ça, c'est des règles très fermes, très strictes qui sont vraies ou fausses et on les applique strictement.
08:12 Ces modèles-là, comme le disait Bertrand à nouveau, merci beaucoup pour l'introduction,
08:17 ces modèles-là ne fonctionnent pas comme ça.
08:19 C'est des statistiques qu'ils apprennent et ne représentent pas de règles de cette façon-là.
08:23 Ils les réalisent quand ils forment des phrases du français.
08:27 Le sujet est bel et bien avant le verbe, qui lui-même est bel et bien après l'objet, mais on ne sait pas comment est représentée cette règle à l'intérieur du système.
08:34 Ça veut dire que finalement, Chajipiti parle un français moyen.
08:37 C'est une bonne façon de présenter les choses.
08:42 Certainement, Chajipiti est une agrégation des statistiques qu'on trouve dans les textes de français.
08:49 De là à dire que c'est un français moyen, c'est compliqué parce que...
08:53 C'est une langue assez neutre, assez tiède. C'est vraiment très éloigné de ce que l'on peut avoir dans la littérature ou un texte écrit avec des effets.
09:04 Et c'est donc une forme de langue qui est syntaxiquement parfaite.
09:10 Aucune faute d'orthographe, aucune faute de français, aucune invention aussi, j'ai envie de dire.
09:16 Alors, plusieurs réponses à ça.
09:20 On ne sait pas exactement quelle langue parle Chajipiti.
09:22 Donc certainement, il parle une bonne partie du français.
09:24 On peut dire ça déjà parce que une partie des phrases qui produisent sont effectivement du français.
09:28 Mais il parle d'autres langues qu'en fait, on n'a pas exploré.
09:31 Et par d'autres langues, je veux dire qu'il y a des séquences de mots du français qui pour Chajipiti vont avoir un sens.
09:36 Donc, c'est ce qu'on appelle le prompt engineering.
09:39 On se rend compte que si on pose certaines questions à Chajipiti d'une façon qui pour nous serait complètement bizarre,
09:45 en fait, il va donner des réponses qui seront parfaitement appropriées.
09:49 Vous trouverez sur Internet plein d'exemples de ce type là et c'est aussi étudié de façon très systématique.
09:54 Donc, Chajipiti parle d'une certaine façon le français et sa propre langue qu'il a développée parce qu'il avait ses propres biais d'apprentissage,
10:02 sa propre capacité à généraliser, qui n'est pas la même que nous.
10:05 Nous, en généralisant, on va rester dans le cadre du français.
10:09 Lui, potentiellement, va aller au-delà et créer d'autres choses qui, nous, ne nous sont pas accessibles.
10:14 - Bertrand Brunsvig ? - Oui, je voudrais ajouter un petit quelque chose quand même sur les notions de compréhension de ce qui se passe,
10:20 parce que ces systèmes-là, en fait, n'ont pas comme nous la compréhension de ce qu'ils sont en train de faire.
10:26 Et je vais prendre un exemple de mes premiers essais avec Chajipiti.
10:30 Je lui demandais de m'écrire un poème.
10:31 Il m'a écrit sur le sujet "Importe peu".
10:33 Il me fait quatre strophes de quatre verts, qui étaient effectivement assez banales, mais bien tournées.
10:38 Il me dit ce poème fait 14 lignes.
10:40 Je calcule 4 x 4.
10:41 Je lui dis non, c'est pas ça.
10:42 Je lui dis non, il en a 16.
10:44 Alors, il m'explique qu'il s'est trompé et que j'ai raison.
10:46 Il est très gentil.
10:47 Et après, je lui dis affiche-moi, numérote les lignes dans l'ordre.
10:51 Il me numérote 1, 2, 3, 4 jusqu'à 16.
10:53 Et après, je lui demande combien de lignes il y a ce poème.
10:54 Il me dit 14.
10:57 En fait, ça montre que le système produit du discours, mais ne produit pas quelque chose qui relève d'une compréhension interne des mécanismes.
11:05 Encore une fois, c'est l'application de très, très puissants mécanismes statistiques, comme tu décrivais, qui cherchent à produire le prochain mot.
11:13 Mais il n'y a pas cette logique interne que nous avons, le bon sens, la compréhension, etc., qui font que ces systèmes produisent ce qu'on appelle des hallucinations,
11:21 c'est-à-dire des choses qui sont fausses et puis ne sont pas en interne cohérents en eux-mêmes, disons.
11:27 - Alors ça, c'est essentiel, Bertrand Brunswick, puisque à chaque fois qu'on utilise ChattyPitty, on se rend compte qu'il commet ou qu'il peut commettre des erreurs.
11:36 Moi, à chaque fois que je me suis dit que j'allais me documenter grâce à lui, eh bien j'ai été bien attrapé parce que j'ai vu qu'il y avait une ou deux erreurs,
11:45 qui ne sont jamais d'ailleurs des erreurs complètement aberrantes, mais qui sont généralement des erreurs suffisamment graves pour devoir être démasquées.
11:54 Comment cela se fait-il ?
11:56 - C'est ce que je disais, il n'y a pas de compréhension profonde des questions, des réponses.
12:02 Il y a l'application de mécanismes statistiques en grande dimension qui cherchent à produire des mots.
12:08 Et finalement, peu importe que cela représente une vérité ou autre chose, ce qui compte, c'est que les mots soient probables les uns par rapport aux autres.
12:17 Et c'est comme cela que ça marche. Le prompt, la commande initiale cadre un petit peu les choses, enfin elle cadre même beaucoup les choses.
12:23 Mais l'application en grande dimension de tous ces mécanismes statistiques fait qu'au bout d'un moment, le système diverge de ce qu'on pourrait appeler la réalité.
12:32 - Mais Emmanuel Schemla, il n'y a pas que de la statistique chez Chad Jipiti. On voit bien qu'on lui a appris aussi une sorte de morale.
12:38 Par exemple, Chad Jipiti est doté d'une forme de dialectique, c'est-à-dire qu'il a souvent l'habitude à donner des réponses pondérées,
12:50 en disant qu'il y a des gens qui pensent ceci et d'autres qui pensent cela.
12:54 Il est au contraire extrêmement tranché sur des sujets qui sont des sujets qu'affectionne la complosphère.
13:00 Par exemple, j'ai demandé à Chad Jipiti si la Terre était ronde et il m'a dit qu'effectivement, elle était ronde et qu'en aucun cas, on ne pouvait la dire plate.
13:09 Ce qui veut dire qu'il a d'une part subi des apprentissages probablement sur certains sujets et d'autre part, qu'on lui a appris non pas seulement une manière de parler,
13:19 mais aussi une manière de penser. Mais je crois que pour un linguiste, une manière de parler, c'est aussi une manière de penser.
13:26 - Très bonne question. Comment on circonscrit ce qu'on va accepter de la part de Chad Jipiti ? Comment on éduque Chad Jipiti d'une certaine façon ?
13:36 Il y a deux mécanismes principaux. Il y en a un qui est en amont. On va pouvoir le nourrir de textes qui nous conviennent plus que d'autres.
13:46 Donc si on a envie de le convaincre que la Terre est ronde, il suffit de lui dire un certain nombre de fois dans son ensemble d'entraînement
13:52 et on peut espérer qu'à la sortie de ça, il va être convaincu d'une certaine façon que la Terre est ronde ou du moins que c'est ce qu'il nous dira.
13:58 Une deuxième façon qui est importante, je l'imagine, pour la deuxième partie de l'émission, c'est de vérifier à postériori ce qui se passe
14:05 et d'avoir des systèmes de sauvegarde, d'empêcher certains types de discours d'émerger.
14:10 De la même façon qu'on peut faire ça pour des images, on peut faire ça pour du texte, on peut bloquer certains textes.
14:16 Et là encore, il y a plusieurs façons de faire. L'une des façons qui est utilisée, c'est intéressant, c'est elle-même une IA qui va décider
14:24 de ce qui est un texte acceptable, de ce qui n'est pas un texte acceptable. Donc on va entraîner une IA à vérifier qu'un texte est acceptable
14:30 et utiliser cette propre IA pour censurer la première, ChatGPT, et donner un texte qui va nous convenir et qui va être dans les normes qu'on attend de la part de notre interlocuteur.
14:38 Bertrand Brunchweg.
14:39 Alors, à l'origine, ChatGPT, c'est la mise en service d'un système de recherche qui s'appelait InstructGPT, qui est très bien décrit dans un article d'OpenAI depuis un petit moment.
14:50 Et il est basé sur ce qu'on a appelé le Human-Based Reinforcement Learning, l'apprentissage par renforcement avec des humains dans la boucle.
15:00 Et donc, ce sont une quarantaine de personnes qui ont été confrontées à des productions de la version initiale du logiciel
15:08 et qui ont mis des annotations sur ces productions en disant "ça c'est bien, ça c'est faux, ça c'est un contenu violent, il ne faut pas le mettre, etc."
15:16 Et c'est sur cette base-là, avec énormément de passages de toute cette base pour améliorer le système, que la version finale a été construite.
15:25 L'amélioration du système. On en vient à ces questions qui, aujourd'hui, nous font un peu peur, le remplacement des êtres humains.
15:33 Est-ce que Chadjipiti, alors on a vu qu'il y avait différentes versions, qu'on montait dans les versions, on est aujourd'hui à Chadjipiti 4,
15:42 est-ce qu'il est possible d'imaginer qu'il y aura de moins en moins d'erreurs, qu'au terme de ces processus d'apprentissage que vous décrivez, Bertrand, en Brunswick,
15:50 on aura affaire à un assistant parfaitement fiable ?
15:54 Moi, j'ai du mal à y croire. J'ai du mal à y croire.
15:57 Effectivement, j'en ai discuté il n'y a pas tellement longtemps avec Yann Lequin, qui a un peu de cet avis-là aussi.
16:04 Il dit, et je suis assez d'accord, que c'est un petit peu intrinsèque à tout ce processus.
16:07 En fait, encore une fois, ce sont des grands modèles statistiques. Il n'y a pas de notion de vérité. Il n'y a pas de notion. Il n'y a pas de compréhension.
16:14 Donc, c'est un petit peu inévitable d'avoir ce genre de problème.
16:18 Alors, je vais vous poser la question autrement.
16:19 Est-ce qu'il existe d'autres conceptions de l'intelligence artificielle qui posséderait véritablement un savoir et qui ne serait pas dépendante d'une statistique liée à l'utilisation de termes ?
16:32 Alors oui, et c'est ce qu'on a essayé, notamment, par exemple, dans les années 80-90, quand se développaient les systèmes, ce qu'on appelait les systèmes experts,
16:38 qui contenaient des connaissances, des règles, des faits, des raisonnements logiques, etc.
16:44 Avec le problème qu'on a eu à l'époque, c'est que ces choses-là ne passaient pas à l'échelle, qu'il y avait des problèmes de cohérence interne des règles,
16:51 et que du coup, en fait, petit à petit, ça a été remplacé par l'intelligence artificielle basée sur les données qu'on connaît aujourd'hui.
16:57 Ça veut dire qu'elles ont été complètement abandonnées ?
16:59 Non, elles ne sont pas complètement abandonnées. Il y a encore beaucoup de systèmes qui tournent aujourd'hui sur ces bases-là.
17:04 Mais il y a des gens qui pensent, et ça, c'est vraiment un sujet de débat, qu'on peut améliorer les choses en faisant ce qu'on appelle de l'IA hybride,
17:10 qui combine à la fois des modèles basés sur les données et des modèles basés sur les connaissances.
17:16 Aujourd'hui, il y a des travaux qui démarrent là-dessus. Peut-être que je pourrais en parler un petit peu plus tard,
17:20 notamment sur ce qu'on appelle les niveaux système 1, système 2, qui représentent la manière dont nos cerveaux fonctionnent.
17:26 Mais ça, ça demande un petit peu de temps pour expliquer.
17:29 On parlera de système 1 et système 2, ce que Daniel Kahneman avait utilisé pour représenter l'esprit humain.
17:37 Mais ça signifie qu'on en est au début d'un processus et c'est peut-être à ce moment-là qu'il faut agir avant qu'il soit trop tard,
17:46 comme on le dit souvent, Bertrand Bonschpeg.
17:48 On s'en occupe, en fait, et on n'est pas les seuls, mais on fait ça notamment dans le cadre du programme dont je m'occupe de la coordination scientifique,
17:57 qui s'appelle confiance.ai, qui est là pour développer les systèmes d'intelligence artificielle de confiance.
18:03 Et dans ce programme, on est à la fois sur les aspects numériques et aussi sur les aspects logiques,
18:09 de manière à donner une meilleure qualité, de manière à assurer une meilleure confiance dans les systèmes numériques dont on parle.
18:15 - Encadrer l'intelligence artificielle, développer une intelligence artificielle à la française, on en parle dans quelques instants avec vous.
18:25 Emmanuel Chaimla, vous êtes chercheur en sciences cognitives et linguistiques,
18:28 et vous, Bertrand Bonschpeg, vous êtes l'ancien directeur du Centre de recherche de l'INRIA Saclay et actuellement consultant.
18:35 Il est 8h sur France Culture.
18:37 - 7h-9h.
18:39 *Générique*
18:42 Les matins de France Culture, Guillaume Erner.
18:44 - Nous sommes en compagnie du chercheur en sciences cognitives et linguistiques,
18:47 Emmanuel Chaimla, de l'ancien directeur du Centre de recherche de l'INRIA Saclay, Bertrand Bonschpeg.
18:54 Il y a une décision de l'Europe autour d'un Artificial Intelligence Act,
19:01 un acte législatif au sujet de l'intelligence artificielle,
19:07 qui suppose notamment des obligations de transparence et de gouvernance pour les développeurs d'intelligence artificielle.
19:15 Je dois dire qu'un certain nombre de décisions importantes sont remises à septembre.
19:19 Le texte reste flou, mais l'intention politique est là. Il faut encadrer ce que font les grandes entreprises de l'intelligence artificielle.
19:29 Qu'en pensez-vous, Bertrand Bonschpeg ?
19:31 - Je pense que c'est un exemple pour le reste de la planète.
19:35 Et donc, l'Europe a pris les devants depuis assez longtemps déjà,
19:39 puisqu'il y a quelques années, elle avait créé ce qu'on appelait le HLEG, le High Level Expert Group,
19:44 le groupe d'experts de haut niveau sur l'intelligence artificielle,
19:47 qui avait comme mission de définir comment arriver à une intelligence artificielle, disons, responsable et de confiance.
19:52 Et ce sont ces travaux-là, qui ont été regardés non seulement en Europe, mais dans le monde entier,
19:56 qui ont abouti à l'idée d'avoir une réglementation sur l'intelligence artificielle,
20:00 qui est basée d'ailleurs sur la notion de risque, peut-être qu'on y reviendra,
20:04 mais qui a pour but de faire de l'Europe l'endroit où l'intelligence artificielle est, encore une fois, responsable et de confiance.
20:10 - Notion de risque, c'est-à-dire ?
20:12 - C'est-à-dire que, en fait, ça va dépendre des applications.
20:16 Vous avez certes... Je vais prendre des exemples.
20:18 Si le système d'intelligence artificielle vous fait la recommandation du prochain film que vous avez envie de voir,
20:24 il peut se tromper, c'est pas grave, vous regardez un autre film, c'est pas une... Il n'y a pas de grand risque à ça.
20:29 Par contre, si c'est pour superviser une centrale nucléaire, pour décider si vous avez un cancer ou non, pour piloter une voiture,
20:35 là, on aimerait bien qu'il ne se trompe pas trop.
20:38 Donc, il y a des niveaux de risque différents, des niveaux de risque minimaux,
20:42 dans lesquels on est... C'est relativement peu réglementé.
20:45 Niveau de risque qui exige la transparence, un niveau qu'on appelle haut risque, dans lequel il y a beaucoup, beaucoup d'exigences.
20:50 Et puis, il y a le niveau carrément interdit, où ces applications ne sont pas autorisées sur le sol européen.
20:56 - Mais on a l'impression que le législateur et ses grandes entreprises,
20:59 particulièrement les GAFAM, bien sûr, et OpenAI...
21:03 - OpenAI, oui.
21:04 - La société qui possède, aujourd'hui, Chad GPT,
21:08 dispose d'une telle capitalisation qu'elle fait figure, là aussi, de Mastodonte.
21:12 On a l'impression que les politiques et le juridique
21:16 ne jouent pas dans la même catégorie que ces grandes entreprises.
21:18 Donc, quand on demande de la transparence à ces entreprises,
21:23 est-ce qu'on n'est pas un peu naïf, Bertrand Brandschweig ?
21:26 - Elles sont effectivement très puissantes, mais l'Europe, c'est quand même un marché extrêmement important.
21:31 C'est quand même le plus grand marché mondial.
21:34 Et donc, elles vont être contraintes de respecter la loi le jour où elle arrivera.
21:38 Alors, c'est quand même pas, effectivement, pour tout de suite.
21:39 On est encore en train de préparer les documents, préparer les normes qui vont arriver en soutien de cette réglementation.
21:46 Mais d'ici 2-3 ans, on aura une réglementation qui s'appliquera et que ces entreprises devront respecter.
21:50 C'est même un peu plus fort que ça, parce que la réglementation s'applique aux produits
21:55 vendus sur le sol européen, qu'ils soient fabriqués en Europe ou à l'extérieur,
21:59 mais aussi à des produits vendus en d'autres endroits,
22:02 mais dont l'utilisation aurait des conséquences pour les Européens.
22:05 - Bon, mais par exemple, on ne réussit toujours pas à avoir l'algorithme de Facebook ou celui de Twitter.
22:11 Vous pensez qu'on va avoir les sources et la transparence totale sur ce que fait OpenAI, par exemple ?
22:18 - On n'est pas jusqu'à la transparence algorithmique.
22:20 Ce n'est pas nécessaire, ce n'est pas demandé, sauf dans des cas vraiment très, très particuliers.
22:26 En fait, effectivement, il a été ajouté récemment un élément de loi sur ce qu'on appelle les "foundational models",
22:33 c'est-à-dire les systèmes de base, en fait, les grands modèles de langues, les grands modèles de vision,
22:38 pour lesquels on va développer des exigences un peu particulières,
22:41 sachant qu'on ne connaît pas leur domaine d'utilisation au moment où ils sont conçus.
22:45 Mais on n'a pas besoin d'aller jusqu'à la transparence de toutes les données.
22:50 On a besoin d'avoir, disons, des justifications, des explications, et dans certains cas, d'aller un petit peu plus loin.
22:55 - L'autre inquiétude, évidemment, Emmanuel Chemla, vous qui êtes linguiste,
22:59 c'est tout simplement que ces modèles-là nous remplacent, en tout ou en partie,
23:05 en tout cas réussissent à faire mieux que certains êtres humains,
23:10 et notamment dans le domaine linguistique, car chat GPT, c'est avant tout un mécanisme pour produire du texte.
23:19 Là aussi, en tant que linguiste, que pensez-vous de la capacité de ces systèmes à remplacer différents types de professions ?
23:27 Les journalistes, par exemple, les écrivains peut-être, les scénaristes, pourquoi pas ?
23:33 - Je vous remercie. L'une des premières choses à voir, c'est où on en est.
23:38 On en est aujourd'hui, tout le monde peut essayer de chat GPT, et ça, c'est l'un des grands succès d'OpenAI,
23:42 c'est d'avoir permis ça, et on voit tous que chat GPT fait des phrases de bonne qualité.
23:48 C'est utilisable, ça dépend de nos objectifs. Encore une fois, c'est une question de niveau risque.
23:52 Si on veut écrire le scénario de la prochaine pièce de théâtre, peut-être qu'il faudra faire un peu plus attention,
23:57 que si ce qu'on veut faire, c'est la prochaine dissertation de philosophie, je pense au bachelier aujourd'hui,
24:04 peut-être que ça marchera mieux et qu'on pourra bluffer le professeur. Les enjeux ne sont pas exactement les mêmes.
24:09 Donc, où on en est aujourd'hui ? D'un point de vue linguistique, les phrases élémentaires sont bonnes,
24:13 de bonne qualité et pas vraiment distinguables de celles d'un locuteur natif.
24:17 Ce qui intéresse plus les linguistes, c'est de pousser le système à sa limite,
24:21 voir ce qui se passe avec des constructions plus compliquées, des phrases plus longues, tout simplement.
24:25 Et là, on peut détecter rapidement des cas où chat GPT va diverger vraiment des humains.
24:32 - C'est-à-dire ? - Il n'a typiquement pas été entraîné sur des phrases nécessairement très longues.
24:36 Les êtres humains non plus, d'une certaine façon, n'ont pas été exposés à ça.
24:40 Mais par le fait de biais communs qu'on partage tous à la naissance,
24:45 on va généraliser tous de la même façon, même dans des phrases qu'on n'a jamais vues.
24:48 - Ça veut dire qu'en fait, une phrase complexe est inaccessible pour chat GPT ?
24:53 - Alors, inaccessible, on ne le sait pas.
24:55 Ce qu'on sait, c'est qu'aujourd'hui, le comportement est différent de celui des humains.
24:59 La généralisation est différente.
25:01 Ça ne veut pas dire qu'elle est mauvaise, c'est une généralisation.
25:03 C'est la sienne, elle lui appartient.
25:05 Ce qu'on sait aussi, c'est que c'est des systèmes qui évoluent extrêmement vite.
25:08 Là, on parle d'un système qui, il y a quelques mois, il y a un an, deux ans,
25:12 on était très, très loin d'arriver à ce niveau de complexité.
25:15 Donc, il n'y a pas de raison de douter qu'on va progresser jusqu'où on arrivera.
25:20 On ne le sait pas. On n'y est pas.
25:22 - Mais le langage, Emmanuel Shemla, ce ne sont pas seulement des phrases.
25:26 Je veux dire, en ce moment même, par exemple, il y a les lycéens qui planchent sur leur copie de philo.
25:32 Une copie de philo, ce sont des phrases.
25:33 Et là, vous nous avez expliqué que chat GPT était capable de former des phrases,
25:36 puisqu'il est soumis à un certain nombre de modèles statistiques
25:41 qui permettent de savoir comment composer une phrase.
25:43 Mais dans une copie de philo, il y a un plan aussi.
25:46 Et alors, justement, comment passe-t-on de la phrase au plan ?
25:49 Puisque dans tous les textes, tant soit peu complexe,
25:53 il faut une capacité de planifier un texte.
25:57 Peut-être même qu'on peut parler d'une pensée.
25:59 Je ne sais pas ce que le linguiste en pense,
26:02 mais précisément, lorsqu'on doit déployer un certain nombre de phrases,
26:06 on arrive à ce qu'on appelle une pensée.
26:08 Et là, comment chat GPT fait-il pour passer de la structure de phrase à la structure de texte ?
26:15 - Alors, je vais répondre d'abord sur la question de la planification.
26:19 Est-ce que chat GPT est capable de planification ?
26:21 La réponse très, très claire, c'est oui.
26:23 Comme on le voit, il y a des exemples très simples.
26:25 Si on demande à chat GPT de faire un poème,
26:27 il va effectivement faire un poème avec des choses qui riment.
26:29 Et pour faire des rimes, il faut planifier d'une certaine façon comment on va finir le poème.
26:33 Et c'est comme ça qu'on décide comment on le commence.
26:35 Donc la planification, elle existe.
26:37 L'autre question que vous posez, c'est comment utiliser dans des tâches complexes chat GPT
26:42 si on veut un plan plutôt que simplement un paragraphe, etc.
26:45 Et là, je trouve que c'est une question très intéressante
26:47 qui rejoint la discussion que nous avions juste avant,
26:52 qui est une utilisation hybride du système.
26:54 Le système, il a ses limites.
26:56 On commence tous à les connaître, on peut tous les toucher du doigt.
26:58 Il nous fait une proposition et on peut nous demander une autre proposition ou ajuster la proposition.
27:03 Donc, c'est l'idée d'utiliser chat GPT comme on utilise le reste,
27:07 comme une certaine source de texte, une certaine source de fait.
27:11 En tant que journaliste, vous vérifiez vos sources, qu'elles viennent de chat GPT ou qu'elles viennent d'ailleurs, vous les vérifiez.
27:16 Il va falloir apprendre aujourd'hui à vérifier nos sources, à vérifier chat GPT, à augmenter chat GPT.
27:22 Si on n'est pas satisfait, on va lui demander, tu vas me faire d'abord la première partie du plan, ça va être ça, la deuxième partie.
27:28 Et on verra ce que lui arrive à faire, ce que nous, on devra complémenter.
27:31 Et la direction que ça indique, c'est qu'il faut apprendre à s'en servir
27:36 et à s'en servir de façon intelligente et productive.
27:39 Bertrand Brodschweig.
27:40 Oui, je voudrais ajouter, mais un petit peu dans un autre domaine, dans le domaine du code informatique,
27:44 parce que ces systèmes-là, chat GPT et d'autres, ils sont aussi capables de produire du code informatique.
27:48 Ça, c'est chat GPT 4 qui produit du code.
27:52 Disons, pas toujours de très bonne qualité au début, mais avec des essais et erreurs,
27:56 on finit par avoir un code tout à fait utilisable.
27:59 Alors, c'est quelque chose là aussi de très surprenant à voir et de très inquiétant pour les programmeurs.
28:06 Est-ce que ça veut dire qu'à priori, vous pouvez demander à chat GPT en langage naturel
28:10 de développer, par exemple, une application ?
28:12 Alors, une application, c'est un peu gros, mais disons un module, oui, un petit module.
28:16 Et il y a quelque temps, une personne dans l'office entamait des études de programmation,
28:21 me demandait si c'était un bon choix, si ce métier n'allait pas disparaître.
28:24 Bonne question.
28:26 Qu'est-ce que vous avez répondu ?
28:27 Eh bien, j'ai répondu, en fait, le métier va changer.
28:29 Le métier va changer parce que pour programmer un petit module simple, on peut le demander.
28:34 Pour programmer une application complexe, il faut mettre de soi-même.
28:37 Mais ce qui va changer, c'est la manière dont on va le faire, c'est-à-dire que la difficulté va être
28:43 de spécifier correctement la demande.
28:45 Et donc, il y a un métier, comme le prompt engineering est en train de devenir un métier.
28:49 Rappelez-nous ce qu'est le prompt engineering.
28:50 C'est la façon de rédiger les questions de manière à ce que les chat GPT et ses collègues répondent correctement.
28:56 Et en fait, aujourd'hui, les gens qui savent faire ça sont ceux qui obtiennent les meilleurs salaires dans le monde.
29:02 Et justement, lorsque l'on aborde ces questions-là, ces questions de remplacement,
29:07 vous nous avez évoqué il y a quelques instants avant le journal,
29:12 la distinction entre deux systèmes de pensée, système 1 et système 2 de Daniel Kahneman.
29:17 Dites-nous en quelques mots ce que sont ces deux systèmes de pensée et la manière dont finalement,
29:23 l'intelligence artificielle peut tenter de remplacer l'un et/ou l'autre.
29:29 Alors effectivement, dans la théorie de Daniel Kahneman, notre cerveau fonctionne de deux manières.
29:34 Il y a une manière rapide qui est plutôt de niveau perception ou de la manière dont on comprend la langue.
29:39 C'est quelque chose qu'on se fait à toute vitesse.
29:42 Si je vois votre visage, Guillaume, je sais que c'est vous.
29:45 Je n'ai pas besoin de réfléchir pendant longtemps.
29:47 Donc tout ça, c'est ce qu'on appelle le système 1.
29:50 Réaction rapide, perception, compréhension des scènes, etc.
29:54 Et par contre, si je vous demande de faire 553 x 428 ou de faire un plan pour aller d'un endroit à un autre,
30:00 il va falloir réfléchir un petit peu.
30:02 Et donc ce sont des mécanismes plus lents, des mécanismes qui font appel à d'autres fondements,
30:07 qui sont ce qu'on appelle, ce que Daniel Kahneman a appelé le système 2.
30:10 Et en fait, dans notre cerveau, l'analyse, c'est que ces deux systèmes sont en permanence en interaction,
30:16 que l'un alimente l'autre et réciproquement.
30:18 Alors, au niveau intelligence artificielle, aujourd'hui, tous ces logiciels basés sur les données,
30:25 sur la perception, sont en fait du système 1.
30:28 Et il y a très peu de choses qui existent au niveau du système 2.
30:31 Quand on fait de ce qu'on appelle de la planification automatique, on s'en rapproche un petit peu,
30:35 mais on en est vraiment très loin.
30:36 En tout cas, on n'a aucun...
30:38 Aujourd'hui, on n'a aucun système qui fonctionne avec les deux ensemble.
30:42 C'est encore au niveau des recherches.
30:44 J'ai vu l'année dernière, pour la première fois, une chercheuse d'IBM présenter une articulation
30:49 entre le système 1 et le système 2, mais c'était vraiment sur des problèmes jouets.
30:52 - Mais c'est très contraduitif ce que vous dites, parce qu'on aurait tendance à dire que le système 2,
30:57 c'est-à-dire ce qui relève de la raison, ce qui relève du calcul,
31:01 est beaucoup plus facile à opérer sur un ordinateur.
31:05 - C'est un petit peu ce qu'on essayait quand on faisait la représentation des connaissances, du raisonnement.
31:10 Il y avait même eu un projet assez ambitieux qui consistait à, en gros, faire la base de connaissances de bon sens
31:17 de l'ensemble de nos connaissances.
31:18 Ça a duré une dizaine d'années.
31:20 Mais au bout du compte, toutes ces choses-là ont été jetées parce que ça ne fonctionnait pas.
31:25 Pour les problèmes que j'ai déjà mentionnés, pour des questions de cohérence, de performance,
31:32 de passage à l'échelle, etc.
31:33 Et donc, ça a été un petit peu abandonné.
31:35 Est-ce que c'est la manière d'arriver à faire du système 2 ?
31:38 On n'en est d'ailleurs pas complètement sûr.
31:40 Quand vous discutez avec deux des trois, les deux francophones qui ont été lauréats du prix Turing il y a quelques années,
31:45 Yann Lequin et Joshua Bengio, le troisième est un anglophone, Geoffrey Hinton.
31:50 Le prix Turing, c'est le prix Nobel de l'informatique.
31:52 Eux ont une vision de la manière d'arriver à système 2 avec des interactions entre des modèles
32:00 qui représentent certaines façons du fonctionnement de notre cerveau,
32:04 mais qui sont en interne basées sur des réseaux de neurones et pas sur des raisonnements logiques.
32:09 Donc, on se pose encore la question, on n'est pas sûr d'y arriver et c'est vraiment un sujet qui démarre.
32:13 - Mais alors, pour continuer à parler de Turing, Emmanuel Schemla, vous qui êtes linguiste,
32:17 Turing, le vrai Turing, pas celui du prix Turing,
32:20 l'homme Turing se posait la question de savoir comment on pouvait distinguer un homme d'une machine
32:26 et il imaginait un être humain conversant avec une machine,
32:31 ce qu'aujourd'hui on peut faire tous les jours avec Chachapiti.
32:34 Et il disait, en substance, il faudrait imaginer une machine suffisamment habile à singer l'être humain,
32:43 une machine qui saurait se tromper.
32:45 Alors ça, par exemple, est-ce que c'est envisageable aujourd'hui ?
32:48 Est-ce que Chachapiti est cette machine-là ?
32:51 Est-il possible, pour vous qui êtes linguiste par exemple,
32:54 si vous deviez deviner si vous avez affaire à Chachapiti ou pas, réussiriez-vous à le faire ?
33:00 C'est une très bonne question et il y a deux façons de détecter Chachapiti dans un test de Turing,
33:07 ça s'appelle comme ça.
33:08 L'une des façons, c'est d'essayer de voir les erreurs qu'il va faire,
33:11 et effectivement, il va faire certaines erreurs que les humains ne feront pas.
33:14 Soit au niveau linguistique, comme je le disais précédemment,
33:16 il y a des phrases qui va construire d'une façon qui va nous sembler pas la façon que nous préférerions nous.
33:23 Donc on peut aller chercher les "ou alors" dans le raisonnement,
33:25 il y a des raisonnements assez simples que Chachapiti n'est pas en fait capable de suivre aujourd'hui.
33:29 Je dis Chachapiti mais c'est un terme générique ici.
33:32 Par exemple, quel type de raisonnement ?
33:33 Des raisonnements simples, on peut voir des raisonnements de transitivité du type
33:36 "le gobelet est à gauche de la boîte", "la boîte est à gauche de la bouteille",
33:40 "est-ce que le gobelet est à gauche de la bouteille ?"
33:42 On voit des tests très simples qui sont faits aujourd'hui chez Emmanuel Dupont par exemple.
33:47 On démontre que Chachapiti se trompe sur ces choses-là.
33:50 Mais est-ce qu'on comprend pourquoi il se trompe ?
33:51 Alors de la même façon qu'on ne comprend pas pourquoi il y arrive, on ne comprend pas pourquoi il se trompe.
33:55 Donc ça c'est une bonne question.
33:57 L'autre aspect du test de Turing, qui est l'effet miroir qui est souvent moins mis en avant,
34:03 c'est que Chachapiti va faire des choses mieux que nous.
34:07 C'est un peu comme les machines qui jouent aux échecs.
34:11 En fait, elles sont meilleures que les humains.
34:12 Et d'une certaine façon, on peut les détecter comme ça.
34:15 Donc si on va poser des questions à Chachapiti dans une variété de domaines très très larges
34:19 qu'aucun humain ne maîtrise dans je ne sais plus combien de langues,
34:23 en fait Chachapiti va répondre très bien.
34:25 Et ça c'est aussi la preuve qu'on n'a pas une machine qui est humaine.
34:29 On a autre chose que ça, qui a des avantages et des inconvénients par rapport à un être humain.
34:35 Bertrand Brunsvig, l'autre enjeu aujourd'hui,
34:38 enjeu qui est particulièrement à l'honneur avec l'ouverture du Salon VivaTech,
34:43 c'est l'intelligence artificielle à la française.
34:47 Vous dirigez l'Institut de Recherche de l'INRIA Saclay.
34:52 Justement, y a-t-il aujourd'hui une voie française vers l'intelligence artificielle ?
34:58 Est-ce que l'on est bien doté en matière de start-up ou d'entreprise dans ce domaine ?
35:03 Plutôt oui.
35:05 Et en fait, quand on a lancé le premier plan national d'intelligence artificielle
35:10 qui s'appelait AI for Humanity, l'intelligence artificielle pour l'humanité,
35:14 on était quand même le premier pays à lancer un programme
35:18 qui avait cette vision humaniste que n'ont pas forcément tous les autres.
35:22 Donc à l'époque, c'était un milliard et demi d'euros qui avaient été injectés
35:27 beaucoup dans la recherche et dans d'autres secteurs.
35:31 Et là, il y a eu une deuxième relance avec un programme qui est de l'ordre de deux milliards d'euros
35:36 sur le développement et notamment avec beaucoup d'aspects formation.
35:40 Donc on fait ce qu'il faut, je pense, pour que la recherche, l'économie, les start-up se développent.
35:46 On a quand même une politique de start-up qui marche assez bien.
35:50 On a un grand nombre de start-up qui démarrent et qui sont de très bonne qualité.
35:53 Donc on peut dire qu'on est dans la course mondiale sur le sujet.
35:58 Quand on a lancé le premier plan, la volonté était d'être le premier européen,
36:01 sachant que la concurrence est rude.
36:03 À l'époque, il y avait le Royaume-Uni et l'Allemagne et puis d'autres pays comme l'Espagne, l'Italie, qui sont très actifs.
36:08 Et donc on est toujours un peu dans ces ambitions-là.
36:11 Évidemment, au niveau mondial, il y a les mastodontes que sont les États-Unis, la Chine.
36:15 - Et c'est un peu ça, Cyril. On a toujours peur que l'on crée des start-up
36:20 et qu'ensuite ces start-up ou les dirigeants de ces start-up ou les ingénieurs de ces start-up
36:25 aillent aux États-Unis pour profiter d'un écosystème peut-être plus favorable ?
36:32 - Ça s'est passé dans un certain nombre de cas, effectivement.
36:36 Nous, on se place plutôt, en fait, au niveau européen,
36:39 puisque, comme je l'ai dit, on est fort individuellement en France et on veut être aussi fort collectivement.
36:45 Et je pense que c'est cette action globale européenne, avec accompagné la réglementation qu'il faut,
36:51 qui continuera de positionner la France comme un des acteurs majeurs en Europe
36:54 et l'Europe comme l'un des acteurs majeurs au niveau mondial.
36:58 - Et alors, quelles sont les entreprises qui aujourd'hui apparaissent particulièrement prometteuses en France ?
37:04 On a parlé d'un Open AI à la française.
37:08 Est-ce qu'on a raison, par exemple, d'en parler ?
37:13 - Effectivement, on n'a pas encore ça aujourd'hui.
37:17 - Alors, il y a une société qui s'appelle Mistral AI qui a bénéficié de 105 millions d'euros.
37:23 Alors, c'est beaucoup d'euros et c'est très peu par rapport à l'équivalent américain.
37:29 - Oui, oui, moi, je travaille dans le comité d'investissement du fonds de la région Île-de-France pour les start-up
37:36 et on en voit passer beaucoup.
37:37 Donc, on pense effectivement qu'il y en a beaucoup qui sont prometteuses et c'est pas seulement dans la région Île-de-France,
37:41 c'est un peu sur tout le territoire.
37:43 Maintenant, lesquels seront les gagnants au bout du compte, c'est difficile à dire.
37:46 - Mais par rapport à la technologie qu'utilise Chadjipiti ou Minjournais,
37:50 est-ce qu'il s'agit de singer cette technologie, d'essayer de créer des programmes parallèles
37:56 qui fassent la même chose, qui le fassent mieux, plus vite, ou est-ce qu'il s'agit de prendre d'autres chemins ?
38:01 - On a aussi des start-up ou des labos qui ont des approches un petit peu différentes,
38:07 notamment sur la partie consommation énergétique,
38:11 parce qu'on n'en a pas du tout parlé, mais tous ces systèmes demandent des capacités de calcul phénoménales,
38:17 et donc de la consommation énergétique également phénoménale,
38:20 et donc en utilisant des approches basées sur notamment nos connaissances mathématiques,
38:25 l'école mathématique française qui est de très très bonne qualité,
38:28 on a des gens qui travaillent sur des nouvelles représentations, des nouvelles approches
38:31 qui permettent de faire ce qu'on appelle de l'intelligence artificielle frugale,
38:36 et qui a un avenir très important, je pense. - Frugal !
38:38 - Frugal, c'est-à-dire qui ne consomme pas particulièrement les ressources énergétiques de la planète,
38:42 ce qui est quand même important.
38:43 - Oui, parce que c'est une autre préoccupation, effectivement.
38:45 Emmanuel Chemla, est-ce que des modèles linguistiques peuvent permettre de faire ce que fait Chad Jpiti
38:51 en le faisant mieux, plus rapidement ? Quelles sont les recherches dans ce domaine ?
38:54 - Question compliquée, c'est l'avenir qui nous dira quelles sont les bonnes directions.
39:03 Dans le domaine linguistique, encore une fois, tous les deux ou trois mois, on a une révolution,
39:08 on a des barrières... - C'est aussi rapide que cela ?
39:11 - Oui, c'est vraiment de cet ordre-là, et d'ailleurs, quand on essaye d'étudier les propriétés de ces systèmes,
39:18 très vite, ça devient obsolète, parce que c'est des nouvelles propriétés qui deviennent importantes.
39:22 Ce qui est intéressant aussi, ce qui permet de faire avancer la recherche,
39:25 parce qu'on pousse les limites, en fait, d'un côté, il y a les testeurs,
39:28 et de l'autre côté, il y a les gens qui vont dire "Ok, on a ce problème de test, donc on va améliorer, on va finir..."
39:32 - Et ce sont des innovations, des innovations de rupture ?
39:35 C'est-à-dire que tous les trois mois, on ne peut pas découvrir, malgré tout...
39:39 - Il y a différentes sortes d'innovations. Il y a des innovations qui se font d'ailleurs souvent par tâtonnement.
39:43 On va trouver une nouvelle architecture, une nouvelle façon d'agencer notre réseau de neurones pour que ça marche mieux.
39:48 On ne sait pas toujours pourquoi, d'ailleurs, cette nouvelle façon d'agencer marche mieux,
39:51 mais comme on en essaye plein en parallèle, et ça, pour le coup, ça consomme pas mal de ressources, effectivement,
39:55 eh bien, il y en a une qui va faire mieux, et on va progressivement trouver la meilleure, un peu par un système d'évolution.
40:01 C'est la meilleure qui survit, et donc on va de l'avant de cette façon-là.
40:06 - Donc il y a différentes pistes qui sont suivies, finalement ?
40:09 - Il y a différentes pistes qui sont suivies. Celle de la réduction de taille est une piste intéressante.
40:14 Donc on en parlait... - Faire frugal.
40:16 - Faire frugal, et il y a deux arguments à ça. Il y a évidemment l'argument de la consommation énergétique,
40:23 mais il y a aussi potentiellement un argument de qualité. C'est-à-dire peut-être qu'avec des systèmes plus simples,
40:28 on va mieux généraliser, c'est-à-dire qu'on va arrêter d'apprendre par cœur un corpus,
40:32 mais apprendre à généraliser le corpus parce qu'on a moins de ressources, moins de mémoire,
40:36 et on va se rapprocher peut-être de choses plus abstraites qui vont avoir des compétences encore plus grandes.
40:42 - Merci à tous les deux. Merci Emmanuel Chemlin, vous êtes chercheur en sciences cognitives et linguistiques.
40:47 Merci Bertrand Brunchweg, ancien directeur du Centre de recherche de l'INRIA Saclay.

Recommandations