• l’année dernière
Fascinante, inquiétante, l'IA, intelligence artificielle, générative notamment s'est invitée dans nos vies et le quotidien de nos entreprises, charriant son lot de questionnements éthiques et d'interrogations sur le futur.
Données fournies à ChatGPT, normes de l'IA, aspect écologique,...
Revivez notre webinaire sur le sujet. Un débat de plus d'une heure, durant lequel a directrice de la rédaction du « Point », Valérie Toranian, et le rédacteur en chef Tech et Sciences, Guillaume Grallet, ont interrogé Thomas Wolf, cocréateur de l’entreprise d’IA Hugging Face. Cette entreprise, fondée par trois Français en 2016 qu est devenue une référence du machine learning. Elle prend le parti de la transparence des ordres donnés à la machine, travaille en open source et souhaite mettre l'utilisateur au centre.
Ils ont également relayé les questions - elles étaient aussi nombreuses que pertinentes ! - des abonnés.
#IntelligenceArtificielle #IA #chatGPT #HuggingFace #Tech #Debats #LePoint
Transcription
00:00 Chers amis, abonnés, chers lecteurs du Point,
00:03 ravi de vous retrouver pour ce nouveau webinaire
00:05 consacré à l'intelligence artificielle.
00:07 Alors c'est le sujet du moment qui passionne aussi bien Xi Jinping que Joe Biden,
00:12 mais surtout, surtout, qui nous passionne tous.
00:14 D'ailleurs, à la rédaction du Point,
00:17 c'est quelques mois, regardez ce que nous avons produit.
00:20 Voilà cette première couverture, le basculement du monde,
00:23 travail, éducation, médecine, géopolitique,
00:26 rien ne sera plus comme avant.
00:29 Et encore plus récemment, au mois de septembre,
00:31 ce nouveau sujet, ce qu'il faut apprendre à l'ère de l'intelligence artificielle,
00:35 de 3 à 103 ans, vous voyez qu'on est optimiste.
00:38 Parce qu'effectivement, c'est le sujet qui nous passionne tous.
00:41 On a bien compris que c'était une révolution,
00:43 peut-être encore plus importante que la révolution d'Internet.
00:47 L'intelligence artificielle, je rappelle que c'est une expression
00:50 qui a été formulée pour la première fois en 1956.
00:53 Vous voyez que ce n'est pas tout récent, à la conférence de Dartmouth,
00:56 et elle est au cœur de toutes les conversations depuis moins d'un an
01:00 avec l'arrivée de cet animal incroyable,
01:03 Chad Gipity.
01:04 Cette révolution industrielle, elle va à la fois nous permettre
01:08 d'améliorer, d'innover, d'accélérer dans la recherche,
01:12 elle va nous permettre de changer notre rapport au monde,
01:14 et tout ça, c'est extrêmement positif,
01:16 mais en même temps, comme toutes les révolutions,
01:19 elle comporte ses angoisses, le monde du travail,
01:23 le rapport à la vérité, la place de l'humanité.
01:26 Quelle société va accoucher de cette révolution ?
01:30 Alors, pour en parler, nous avons aujourd'hui la grande chance
01:33 d'avoir avec nous Thomas Wolff,
01:35 qui est le co-créateur de Hugging Face.
01:37 Alors, si ça ne vous dit rien, Hugging Face,
01:39 eh bien, c'est grave, parce que vous avez en face de vous
01:43 l'un des trois créateurs d'une pépite dans l'intelligence artificielle,
01:49 et on en est d'autant plus fiers qu'elle est française.
01:53 Créée en 2016 par trois Français, un ESSEC et deux polytechniciens,
01:57 dont Thomas Wolff, qui est avec nous aujourd'hui,
01:59 et cette entreprise a su créer une communauté de fans dans le monde entier.
02:04 Thomas, bonjour, merci d'être avec nous.
02:07 On dit au point que vous êtes un de ces Français que le monde nous envie.
02:12 Donc voilà, encore bravo.
02:14 En fait, votre génie, c'est d'avoir réussi à mettre à la disposition
02:20 de tous les outils qui vont nous permettre
02:23 de nous approprier l'intelligence artificielle.
02:25 Mais on va rentrer dans le vif du sujet,
02:27 surtout avec Guillaume Gralet, qui est rédacteur en chef,
02:31 chargé de la tech, des sciences, au journal.
02:35 C'est notre grand spécialiste de la question,
02:38 et c'est lui qui va pouvoir animer ce débat à mes côtés,
02:43 avec vous Thomas, et bien sûr avec tous nos abonnés,
02:46 tous nos lecteurs, qui peuvent nous envoyer leurs questions
02:49 et on sera ravi de les transmettre.
02:51 Je m'adresse Thomas à vous directement.
02:54 Est-ce que vous pouvez nous définir l'intelligence artificielle ?
02:59 Et puis quand Guillaume sera à mes côtés,
03:01 on reviendra un peu sur votre parcours et qui vous êtes.
03:03 Mais déjà, expliquez-nous un peu,
03:05 c'est quoi cette révolution dont on a tant peur
03:07 et qui s'appelle l'intelligence artificielle ?
03:09 Comment la définir ?
03:10 Tout d'abord, merci beaucoup Valérie et Guillaume
03:12 de m'accueillir ce soir pour discuter un petit peu d'intelligence artificielle.
03:17 C'est un sujet dans lequel je passe mes journées et mes nuits parfois,
03:23 puisqu'on a aussi une partie de l'entreprise qui est aux États-Unis.
03:27 Regenfest, c'est une entreprise complètement remote.
03:29 En plus d'être cofondé par trois Français,
03:33 on a fait cette entreprise d'une nouvelle manière.
03:37 C'est-à-dire qu'on a quelques locaux,
03:39 mais les trois cofondateurs habitent dans trois continents différents.
03:41 Et puis on a participé, on a eu la chance,
03:45 parce qu'il y a aussi un côté chance,
03:48 j'ai envie de dire, dans toutes les startups qui réussissent.
03:50 Mais on a eu la chance d'être au bon moment, au bon endroit,
03:53 avec des idées qui ont été reprises par la communauté
03:57 et au moment où la nouvelle révolution de l'intelligence artificielle a débuté.
04:00 Définir l'intelligence artificielle, ce n'est pas facile,
04:05 parce qu'en fait, ça couvre énormément de technologies.
04:07 Il y a des plus ou moins anciennes,
04:09 il y a des technologies qu'on voyait déjà il y a quelques années,
04:12 qui sont déjà utilisées.
04:13 Et puis il y a des technologies très récentes,
04:15 qui sont en fait celles qui font qu'aujourd'hui,
04:17 vous faites deux, une du point,
04:21 assez proche l'une de l'autre sur ce sujet,
04:23 qui sont les technologies qu'on appelle aujourd'hui génératives.
04:27 Donc on a l'intelligence artificielle un peu traditionnelle
04:30 qu'on a déjà entendu parler,
04:31 qui a déjà fait des très belles choses,
04:33 de DeepMind, par exemple,
04:34 pour apprendre qu'on est fait à replier des protéines,
04:36 DeepPold,
04:37 ou pour faire des jeux, AlphaGo.
04:40 Et puis avant ça,
04:41 on avait l'intelligence artificielle qui gagnait aux échecs.
04:43 On était devenu un peu peut-être habitué
04:45 à cette forme d'intelligence artificielle,
04:47 j'ai envie de dire,
04:47 mais la nouvelle forme qui déboule avec ChatGPT,
04:51 avec MeetJourney,
04:53 qui peuvent générer des images,
04:54 c'est vraiment complètement différent.
04:56 Alors la manière dont moi je le décris,
04:58 pour prendre une définition très simple,
05:00 en fait c'est une sorte de machine culturelle.
05:02 C'est-à-dire qu'on met dedans des pans entiers de la culture,
05:06 souvent américaine d'ailleurs,
05:08 et puis c'est capable de les digérer
05:10 et de nous ressortir des choses associées.
05:14 Alors qu'est-ce que ça veut dire ?
05:15 Ça veut dire qu'en fait cette intelligence artificielle,
05:16 elle est très forte pour faire des tâches
05:18 auxquelles on ne l'attendait pas.
05:19 Toutes les tâches qui sont en fait de la création
05:21 de contenus de texte, de poèmes,
05:24 de contenus d'images,
05:27 toutes ces tâches qu'on pensait réserver aux humains,
05:30 d'une certaine manière.
05:31 Si vous m'aviez posé il y a deux ans la question,
05:34 qu'est-ce qui restera aux humains quand l'ordinateur aura vaincu ?
05:38 J'aurais dit la créativité,
05:39 mais avant c'était quelque chose qu'on aurait fait.
05:40 Et aujourd'hui on est complètement…
05:41 Exactement ce qu'on a pensé et on a longtemps dit,
05:45 ne vous inquiétez pas,
05:46 jamais la machine ne pourra être créative,
05:50 faire des poèmes,
05:52 et ça on sera toujours nous les humains imbattables.
05:54 Aujourd'hui on se pose sérieusement la question
05:57 de notre imbattabilité dirais-je.
06:00 Grosse question.
06:00 Et du coup c'est aussi surprenant
06:02 parce que les métiers qui sont impactés
06:04 ne sont pas du tout ceux auxquels on s'attendait au début.
06:06 Évidemment les premiers métiers où on avait pensé à la machine,
06:09 c'était par exemple les métiers sur les chaînes de montage
06:11 avec les robots, etc.
06:13 Et il s'avère que tous les métiers manuels
06:16 sont très peu impactés par cette révolution
06:18 de chat GPT, de mid-journey.
06:20 Donc en fait les métiers,
06:23 bon alors évidemment musiciens,
06:25 mais aussi plombiers, électriciens,
06:27 tous les métiers j'ai envie de dire de l'artisanat,
06:29 sont des métiers qui sont très peu impactés
06:31 quand on regarde les bilans.
06:32 Et puis les métiers qu'on pensait,
06:34 par exemple du marketing,
06:36 qu'on pensait très loin de la machine,
06:38 sont les premiers.
06:38 Aujourd'hui quand on travaille dans le marketing,
06:41 eh bien il faut savoir utiliser chat GPT.
06:44 Je pense que c'est évident,
06:45 on ne peut pas l'ignorer en tout cas.
06:47 Et c'est un métier parmi d'autres,
06:49 je n'ai pas les chiffres exacts
06:50 des dernières estimations de McKinsey
06:55 sur le remplacement des métiers par exemple,
06:56 mais ça va être un impact très très fort.
06:59 Je ne sais pas si on m'entend bien.
07:03 Merci beaucoup Thomas.
07:05 Donc en fait,
07:05 c'est ce que je voulais dire très rapidement tout à l'heure,
07:07 et Valérie parlait d'une communauté
07:09 qui est rassemblée par Hugging Face,
07:11 elle a totalement raison.
07:12 Et c'est que vous avez suscité
07:14 avec cette entreprise qui rend hommage
07:16 à l'émoji qui vous tend ses bras,
07:19 l'admiration de personnes très différentes
07:20 comme Andrew NG,
07:21 le professeur à Stranford,
07:23 le co-créateur de Coursera qui donne des coups en ligne,
07:25 mais aussi Yann Lequin,
07:27 donc le prix Turing,
07:28 un autre Français bien connu dans la recherche,
07:30 un des inventeurs du deep learning.
07:32 Et tout ça, c'est un peu une histoire de copains,
07:34 c'est-à-dire que Julien Chaumont et Clément
07:37 se sont rencontrés dans un bar.
07:40 Toi, tu étais en classe avec Julien à Polytechnique,
07:43 vous faisiez partie d'un même groupe de rock.
07:46 Mais aujourd'hui, Hugging Face s'est imposé,
07:49 et corrige-moi si je me trompe,
07:50 comme une bibliothèque très ouverte,
07:51 c'est-à-dire qui va permettre de s'approprier,
07:54 permettre à tout un chacun
07:55 de s'approprier l'intelligence artificielle.
07:57 Et ce côté ouvert est extrêmement cher à ton cœur.
08:02 C'est la philosophie de Hugging Face.
08:04 Et je voudrais peut-être que tu expliques
08:05 pourquoi c'est important avant d'autres questions.
08:10 Oui, je pourrais.
08:11 Évidemment, le cœur de Hugging Face,
08:16 c'est qu'on n'a pas suivi le startup book habituel.
08:19 On a fait une entreprise très différente.
08:22 C'est peut-être pour ça d'ailleurs
08:23 que même en étant hors du système,
08:25 comme trois Français,
08:26 on est devenus assez gros sur la scène internationale.
08:30 Et donc, le point fondamental,
08:33 c'est qu'on avait à cœur que cette révolution de l'IA,
08:35 on voulait qu'elle soit partagée et accessible à tous.
08:39 On n'est pas très intéressés.
08:40 En tout cas, moi, un futur qui ne m'excite pas énormément,
08:42 c'est un futur où il y aurait quelques multinationales américaines
08:45 qui auraient un monopole complet sur l'IA.
08:47 Un petit peu comme ce qu'on a pu avoir sur les réseaux sociaux,
08:50 où finalement, on a deux, trois réseaux sociaux
08:52 qui sont tous la propriété des mêmes GAFA.
08:56 On ne trouve pas très excitant d'avoir un futur
08:59 où la même chose se reproduit pour l'IA.
09:01 Et moi, je trouve ça beaucoup plus intéressant
09:03 si on a un futur où l'IA devient une sorte de bien commun de l'humanité.
09:06 C'est souvent la manière dont je partage,
09:07 un peu comme des avancées technologiques,
09:09 je ne sais pas, l'électricité, la physique quantique.
09:11 On ne peut pas dire que ça appartient à une personne précise.
09:14 Ce sont des choses qui appartiennent à tout le monde.
09:16 Et on a essayé de créer ça.
09:17 Et donc, notre idée, c'était de faire une plateforme ouverte,
09:20 une plateforme d'échange
09:22 où les gens pourraient venir partager des modèles
09:24 d'intelligence artificielle.
09:25 Alors, c'est un petit peu comme un logiciel,
09:26 mais c'est légèrement différent
09:28 parce qu'il n'y a pas des lignes de code,
09:29 mais il y a des matrices de chiffres à l'intérieur, principalement.
09:32 Et donc, on a fait une plateforme où les gens peuvent partager ça
09:34 et puis aussi tout ce qui va autour,
09:36 parce qu'on parle beaucoup des modèles d'IA.
09:38 Autour, il y a aussi des data sets,
09:39 il y a comment on interagit avec les modèles, etc.
09:42 Il y a tout le contact avec la société.
09:45 Et donc, cette plateforme, c'est le Hub de Ginkface.
09:48 Donc, les premiers utilisateurs,
09:50 c'est évidemment les gens qui vont intégrer
09:52 ces intelligences artificielles dans des produits
09:54 pour le grand public.
09:56 Mais de plus en plus, on a aussi des personnes,
09:59 je dirais pas des spécialistes de l'IA
10:01 ou pas forcément des développeurs informatiques,
10:03 mais qui viennent sur la plateforme.
10:04 Et l'une des raisons, c'est qu'on a aussi
10:06 beaucoup de contenus éducatifs et de contenus d'interaction.
10:09 Donc, si vous avez un nouveau modèle qui apparaît,
10:11 qui a été créé par quelqu'un et partagé sur le Hub,
10:16 vous pouvez venir l'essayer sur le Hub
10:18 dans ce qu'on appelle des démos, des spaces,
10:21 qui sont des petites apps interactives.
10:22 Par exemple, si c'est un modèle de génération d'images
10:25 à partir du texte, vous pouvez rentrer du texte
10:26 à générer de l'image.
10:27 Et ça, notre idée, c'est que la seule manière,
10:30 disons que l'IA soit comme ça,
10:32 un sort de contenu commun à toute l'humanité,
10:34 c'est qu'on fasse aussi de l'éducation
10:36 et qu'on rapproche tous ces technos du grand public,
10:39 que ce soit pas uniquement accessible
10:41 à quelques développeurs informatiques ultra spécialisés,
10:44 qui, du coup, seront toujours dans les mêmes entreprises.
10:47 Donc, il y a cette idée comme ça
10:48 d'aller très près de la communauté au sens large.
10:52 En fait, on a une idée,
10:53 on veut tester quelque chose.
10:56 On se ploque sur votre plateforme et on peut créer des...
11:02 Voilà, exactement.
11:03 - Je peux vous donner un exemple.
11:05 Récemment, l'IA est aussi un peu sous forme de trend virale.
11:09 Récemment, une trend très virale,
11:11 c'était d'utiliser des motifs noir et blanc
11:14 pour créer des images.
11:15 Vous avez peut-être vu cette image de spirale.
11:16 On prend une spirale noir et blanc
11:18 et on demande de créer, par exemple,
11:20 un village en Toscane à partir de cette image.
11:23 Et le modèle crée une sorte d'illusion d'optique
11:26 assez incroyable, en fait.
11:27 On voit la spirale,
11:28 mais en même temps, cette spirale est faite de maison
11:31 d'une manière qui est très réaliste
11:32 et on ne sait plus vraiment où on est.
11:33 Donc, il y a ce genre d'image-là.
11:35 Si vous tapez sur Google "illusion diffusion",
11:38 c'est créé par un modèle qui s'appelle "stable diffusion",
11:43 qui est un modèle open source.
11:45 Eh bien, un des premiers contenus sur Google,
11:48 ce sera la démo sur Agniface.
11:51 Vous pouvez aller, vous pouvez taper.
11:53 Je vais le mettre dans le chat.
11:55 Les gens qui sont là, je pourrais partager mon écran.
11:57 Ça va peut-être nous emmener un peu loin
11:58 si je commence à vous montrer les choses.
12:00 - C'est super si tu nous montres les choses.
12:02 - Ça va passer dans la modération.
12:05 Et je vais voir si je peux le faire.
12:09 Et donc, ça, c'est un exemple de choses extrêmement accessibles
12:12 sur notre plateforme.
12:13 Et toutes ces démos-là, toutes ces spaces-ci
12:15 sont par création, par définition,
12:18 des sites, on appelle ça "no code" des fois,
12:22 c'est-à-dire on peut utiliser quelque chose
12:24 sans avoir besoin de coder.
12:26 - Justement, je me permets de rebondir là-dessus, Thomas.
12:31 On a vu avec la toute dernière version de ChatGPT,
12:35 en tout cas la version GPT-4 réservée aux professionnels
12:37 aux États-Unis, la possibilité d'envoyer des images
12:40 à ChatGPT, par exemple, une fonction où on va dessiner,
12:45 par exemple, j'ai dit n'importe quoi, un évier
12:47 qui doit s'ouvrir à différentes conditions.
12:51 Et on va voir ChatGPT créer le code
12:54 qui correspond à cette demande de fonction.
12:56 On se demande un tout petit peu où va s'arrêter ChatGPT
13:00 et quelles pourraient être les prochaines étapes
13:02 pour toi de ce genre de modèle
13:04 ou des modèles que vous construisez également.
13:06 - Oui, alors cette extension-là,
13:11 on appelle ça des fois du multimodal.
13:13 Donc, une modalité, c'est par exemple le texte,
13:17 une autre modalité, c'est l'image.
13:19 Le code informatique est souvent considéré
13:22 comme une modalité un peu spécifique
13:23 parce que c'est du texte un peu étrange quand même.
13:26 Ou alors le son, évidemment.
13:28 Et donc, on a de plus en plus des modèles qu'on appelle multimodaux.
13:31 Donc, ils vont être capables d'aller d'une modalité à l'autre.
13:34 Donc, l'année dernière, c'était un petit peu
13:36 ce qui a fait découvrir, même avant ChatGPT,
13:40 l'IA au grand public, c'était les modèles texte ou images
13:42 où on mettait du texte et puis le modèle générait une image.
13:45 Et ces images sont assez vite devenues
13:48 avec une qualité photoréaliste.
13:49 Et donc, cette extension-là, multimodale,
13:51 texte vers code, code vers texte, texte vers son,
13:55 c'est une extension assez naturelle, assez facile.
13:58 Et donc, je prends très peu de risques
14:02 en prédisant que l'année prochaine,
14:04 on aura des modèles qui seront capables d'ingérer
14:06 la plupart des modalités qu'on utilise, en tout cas sur Internet.
14:09 En fait, la principale question pour ajouter ou pas une modalité,
14:12 c'est est-ce qu'on a beaucoup de data sur Internet ?
14:14 Parce qu'en vrai, derrière ces modèles,
14:17 je disais que c'est des machines culturelles,
14:18 comment ça marche ?
14:19 On prend énormément de données, on met dans le modèle,
14:21 on mélange, alors le mélange s'appelle le training, l'entraînement.
14:25 Et puis après, il sera un modèle qui est capable
14:26 de générer des datas de ce format.
14:29 Donc, on a commencé par le texte parce qu'Internet est des giga,
14:33 des teraoctets de texte.
14:35 Et puis, assez vite, on est venu aux images
14:36 parce qu'il y a aussi beaucoup d'images.
14:38 Et puis, petit à petit, comme ça, on va de modalité en modalité.
14:40 Le son, les vidéos sur YouTube.
14:44 Alors, il y a plein de questions de
14:45 est-ce qu'on a le droit d'utiliser toutes ces datas ?
14:48 C'est toutes les questions des...
14:51 - Oui, absolument.
14:53 Par exemple, pour nous, les médias, c'est une vraie question.
14:55 C'est-à-dire que, comme vous dites, il y a des millions de datas
14:57 dans la machine.
14:58 Parmi ces millions de datas, il y a des millions de datas
15:00 qui proviennent de sources de contenus,
15:02 qui sont les contenus des journaux, des médias,
15:05 et qui vont se retrouver moulinés dans la machine
15:08 et puis qui vont produire des contenus
15:09 qui, à leur tour, seront remoulinés dans la machine
15:11 avec d'autres contenus.
15:12 Et puis, un jour, même la trace de l'origine,
15:14 de la source de tout ça disparaîtra.
15:16 Et même pour des métiers comme les nôtres,
15:19 c'est un peu aussi une énorme interrogation.
15:21 C'est-à-dire que si la machine s'empare de toutes les datas
15:24 et les mouline à l'infini,
15:26 il y a un moment donné, à quoi, nous, on servira ?
15:28 Et ça pose aussi la question de la propriété intellectuelle,
15:31 qui est une vraie question, qui est une question de fond
15:34 liée aussi à nos libertés et à la défense de nos libertés.
15:38 Est-ce que c'est des choses que vous appréhendez
15:40 et comment vous essayez d'y réfléchir ?
15:45 - Ah oui, énormément.
15:47 En particulier avec InFace,
15:49 parce qu'évidemment, si on veut qu'il y a soit un bien commun,
15:51 on ne peut pas vraiment la considérer,
15:52 on ne peut pas juste...
15:53 C'est une sorte de parasite comme ça.
15:56 Alors, il y a beaucoup de problèmes
15:58 pour tout ce qui est de l'économie de la création et des créateurs,
16:01 qui étaient déjà assez fragiles, j'ai envie de dire, comme système.
16:04 En tout cas, on l'a vu par exemple en musique,
16:06 quand on est passé des disques au streaming,
16:09 on s'est rendu compte qu'il fallait faire des milliards de streams
16:12 pour commencer à toucher un petit peu d'argent.
16:15 Et donc, ces économies-là qui sont assez fragiles,
16:18 elles risquent d'être très impactées
16:20 par le déploiement de ces technologies,
16:22 surtout que la manière dont c'est fait pour l'instant,
16:25 c'est une manière un petit peu de force brute,
16:27 c'est-à-dire c'est un petit peu la manière start-up américaine,
16:29 j'ai envie de dire, break it, etc., sans trop se poser de questions.
16:34 Alors nous, la manière dont on le fait,
16:37 c'est d'essayer de proposer une autre direction.
16:39 On ne peut pas vraiment nier cette technologie,
16:43 l'IA est là, elle va se développer,
16:44 évidemment, elle est capable de faire tellement de choses formidables
16:46 que ça semble presque impossible de revenir en arrière
16:48 maintenant qu'on a ouvert la boîte.
16:50 Par contre, ce qu'on cherche, c'est des directions intéressantes.
16:53 Et donc, par exemple, là,
16:55 on a fait un modèle récemment, juste avant l'été,
16:58 qui est un modèle qui génère du code uniquement.
17:03 Et donc, ça, c'est très utile, notamment pour les développeurs informatiques,
17:06 c'est-à-dire qu'on peut avoir une sorte d'assistance,
17:08 d'assistant au code qui vous propose des complétions,
17:12 un petit peu comme dans Gmail, quand vous tapez un email,
17:16 je ne sais pas s'il le fait encore d'ailleurs,
17:17 mais il vous proposait des prolongations possibles.
17:21 Et donc, il y a des modèles qui font la même chose pour le code.
17:22 Et la manière dont on l'a fait, c'est qu'on a pris le code sur Internet,
17:25 mais on allait le filtrer de manière très drastique par licence, par exemple,
17:29 en gardant uniquement les licences permissives.
17:31 C'est assez facile pour le code, parce que tout le monde dans le milieu du code,
17:36 les développeurs informatiques mettent presque toujours une licence dans le code.
17:41 Et donc, on peut assez vite filtrer déjà les personnes qui n'ont pas du tout envie
17:44 qu'on modifie ou qu'on réutilise leur code.
17:45 C'est une première étape, j'ai envie de dire.
17:47 Après, la deuxième étape très importante, c'est de voir si on peut créditer
17:51 et reconnecter la génération aux données d'entraînement.
17:55 Donc, ça, on a fait ça aussi dans Starcoder,
17:57 donc ce modèle-là dont je vous parle qu'on a sorti juste avant l'été.
18:01 On l'a fait avec une méthode assez simple, on est juste allé comparer,
18:05 et puis si c'était très proche, on faisait un lien.
18:09 Il y a sans doute beaucoup de recherches.
18:10 Le problème, c'est que là, c'est encore un problème de recherche
18:12 assez ouvert du point de vue recherche informatique, de chercheurs.
18:17 Et on est déjà d'un autre côté à l'étape où on a des produits qui sont utilisés.
18:24 Donc, on est allé un petit peu vite dans la mise en action.
18:27 Et je dirais, moi, personnellement,
18:30 c'est quelque chose que je trouve un tout petit peu inquiétant,
18:34 c'est à quel point ces technologies se déploient très vite dans la société
18:38 avant même qu'on n'ait pu penser vraiment leur intégration.
18:42 L'autre exemple, évidemment, c'est ChatGPT et l'école.
18:45 Comment ça marche maintenant que les élèves peuvent juste demander à ChatGPT
18:49 de faire leur devoir et que dans 90 % des cas,
18:52 c'est quelque chose qui est faisable par la machine ?
18:55 Comment est-ce qu'on intègre ça ?
18:56 Comment vont faire les professeurs ?
18:57 Comment vont faire toutes ces professions-là ?
18:59 C'est-à-dire que ce que vous venez de dire, une phrase extrêmement importante,
19:03 de toute façon, les possibilités et les avancées sont tellement énormes
19:08 qu'il n'est pas question de toute façon de fermer la porte une fois qu'on l'a ouverte.
19:11 La question est de savoir, par exemple, vous avez évoqué l'école.
19:15 Je pense que beaucoup de nos auditeurs, nos lecteurs,
19:18 nos abonnés aujourd'hui qui ont des enfants, s'interrogent.
19:24 Mais est-ce que ça va encore servir à quelque chose l'école
19:27 si finalement la machine délivre tout
19:29 et nous submerge, j'allais dire, d'informations
19:34 qu'un cerveau moyen d'enfant ou d'adolescent moyen
19:38 de toute façon n'aurait pas la capacité d'absorber ?
19:40 Donc la machine sera de toute façon plus forte.
19:42 Mais alors, ça repose des questions vertigineuses.
19:45 À quoi sert l'école ?
19:46 À quoi sert ?
19:49 Et qu'est-ce qui va servir ?
19:50 D'ailleurs, c'était le sens du numéro qu'on a fait au mois de septembre
19:52 au point avec Guillaume.
19:56 Si aujourd'hui, on veut aider nos enfants à appréhender le monde de demain,
20:00 comment on les prépare ?
20:02 Qu'est-ce qu'il faut qu'ils favorisent ?
20:05 Qu'est-ce qu'il faut qu'ils apprennent ?
20:06 Qu'est-ce qu'il faut susciter en eux ?
20:10 En fait, quels seront les enfants qui seront les adultes de demain
20:13 les plus en phase avec toute cette révolution qui y arrive ?
20:18 - Énorme question, Valérie.
20:21 Une question vertigineuse, je trouve aussi.
20:23 Moi, je pense que le vertige que j'ai eu, il est venu l'année dernière
20:27 quand je me suis rendu compte que j'avais écrit quelque chose en anglais.
20:31 J'étais assez fier de mon anglais que j'avais passé du temps à peaufiner.
20:34 Puis, je l'ai fait passer dans le CHGPT et c'est ressorti nettement mieux.
20:37 Et là, je me suis dit, mince, voilà une skill,
20:40 voilà une compétence que j'ai passé beaucoup d'années à peaufiner.
20:45 Et puis, la machine le fait beaucoup mieux que moi.
20:48 Il y avait quelque chose de fondamental où je me suis dit,
20:50 mais qu'est-ce qui va nous rester ?
20:52 Et puis, la question de l'école, c'est la même.
20:54 J'ai aussi deux enfants qui vont à l'école.
20:55 Qu'est-ce qu'on leur apprend ?
20:56 Alors, peut-être là, je serais assez optimiste encore
21:00 parce qu'on a déjà vu beaucoup de révolutions
21:03 quand on y réfléchit.
21:04 Google et l'accès à la connaissance, on est maintenant habitués
21:07 qu'évidemment, on ne va pas demander aux enfants d'apprendre par cœur
21:10 certaines choses parce que Google est là
21:13 et on voit que l'éducation est beaucoup moins basée
21:17 sur un apprentissage de connaissances qu'elle était.
21:19 Il y a peut-être 30 ans ou même moi d'ailleurs,
21:21 quand j'étais, on avait encore beaucoup d'apprentissage de connaissances.
21:24 Maintenant, c'est plus un apprentissage à utiliser ces outils
21:27 et puis un apprentissage à apprendre d'une certaine manière.
21:30 Donc, je pense que là aussi, en fait,
21:32 on va sans doute absorber cette nouvelle technologie.
21:35 Et il y a des choses qu'on ne demandera plus aux élèves
21:37 parce qu'on se dira, c'est un peu bête.
21:39 C'est des choses que les gens ne font plus.
21:42 Et qu'est-ce qui reste ?
21:43 Alors, par exemple, moi, mon fils, je lui apprends à programmer,
21:47 à créer des IA.
21:48 Il nous reste ça, je pense.
21:51 - Il a quel âge, à moi ?
21:52 Il a quel âge, ton fils ?
21:53 - Il a 10 ans.
21:54 - Il programme sur quel langage ?
21:56 - À la limite, si.
21:57 On fait du Python.
21:58 - D'accord.
21:59 - Du Python.
22:00 Mais je pense que le langage,
22:02 en fait, c'est plus aussi un apprentissage
22:05 du sort de mode de pensée que même un langage.
22:09 Parce qu'il y aura peut-être des nouveaux langages
22:11 qui seront plus intéressants,
22:12 mais c'est plus comment réagir,
22:16 comment soi-même essayer d'apprendre une nouvelle chose.
22:19 - En fait, si je comprends ce que vous dites,
22:22 c'est qu'il y a quelque chose que vous avez dit,
22:23 là, il y a deux minutes,
22:25 qui me semble important.
22:26 C'est que vous avez dit apprendre à apprendre.
22:29 En fait, il faudrait que nos apprentissages,
22:33 plutôt que d'emmagasiner du savoir par cœur,
22:37 ce soit d'apprendre à maîtriser la machine, en fait.
22:42 Ou apprendre, enfin, comment vous voyez les choses.
22:44 C'est-à-dire, il faudrait que les enfants,
22:47 les adolescents, les écoliers,
22:49 soient formés à une espèce de souplesse,
22:53 j'allais dire intellectuelle et presque du cerveau
22:56 pour apprendre à maîtriser ces outils.
23:00 - Complètement, oui.
23:01 Et de plus en plus tôt,
23:03 comme on a maintenant des cours d'informatique
23:05 qui viennent de plus en plus tôt.
23:06 À mon époque, ça arrivait assez tard encore.
23:09 Et maintenant, c'est à partir de l'école primaire
23:12 qu'on commence à utiliser ça.
23:13 Donc, on aura très clairement, à mon sens,
23:15 des cours d'IA qui vont venir très tôt.
23:17 Comment marche cette machine ?
23:18 Parce qu'on voit aussi que ce n'est pas une intelligence humaine.
23:21 Chad Jepetee fait des fois des erreurs
23:22 qu'on trouve un peu bizarres.
23:25 Il se trompe ou il ne comprend pas certaines choses.
23:27 - Comment vous pourriez définir la différence
23:30 entre l'intelligence humaine et l'intelligence artificielle ?
23:32 Justement, c'est quoi le genre d'erreur typiquement
23:35 que, par exemple, Chad Jepetee va faire
23:37 et que moi ou vous ne ferions pas ?
23:40 - C'est un sujet qui change quasiment au jour le jour.
23:45 Donc, c'est vrai que ce n'est pas évident.
23:46 Mais si je devais vous le dire aujourd'hui,
23:48 et d'ailleurs une surprise,
23:50 c'est que ces machines ne sont pas très bonnes en maths ou en logique.
23:53 Alors, c'est surprenant parce qu'on se dit que ce sont des ordinateurs.
23:55 Normalement, les ordinateurs sont censés être extrêmement forts en maths
23:58 ou extrêmement forts en logique.
23:59 Et en fait, il faut les voir un peu comme ce que je disais au tout début,
24:03 comme des machines culturelles.
24:04 Elles ont digéré toute la pléiade, en fait, des choses comme ça.
24:08 Mais en fait, la pléiade ne nous apprend pas énormément
24:10 à faire des maths.
24:11 Donc, en fait, sur certaines erreurs de logique,
24:14 elles sont assez mauvaises.
24:16 Alors, elles s'améliorent continuement.
24:17 Donc, évidemment, si on refait un peu de casse dans un an,
24:20 peut-être qu'on aura d'autres réponses.
24:22 Mais il y a cette différence-là qui est surprenante.
24:26 Elles sont assez sensibles à dire ce qui est...
24:33 Disons, la manière dont on entraîne ces machines,
24:36 donc Chad Jepetee, en deux mots, vraiment,
24:38 c'est on lui apprend à prédire le mot suivant
24:41 à partir du début d'une phrase.
24:43 Donc, pour bien prédire le mot suivant,
24:46 d'une certaine manière,
24:47 il ne faut pas non plus être très original.
24:48 Il faut essayer de prédire un peu ce que fera le mainstream,
24:51 ce que fera la personne la plus générale.
24:54 Donc, elles ont une tendance à rester un peu générique.
24:57 Et on le voit d'ailleurs,
24:58 si on fait des générations marketing,
25:01 elles ont tendance à écrire des choses un petit peu génériques,
25:05 alors que l'intelligence humaine a un peu cette petite spécificité
25:08 d'aller souvent chercher un peu des originalités, etc.
25:12 Alors, ça aussi, c'est quelque chose qui change
25:13 et on peut aussi pousser Chad Jepetee,
25:15 si on veut, à générer des choses originales.
25:17 Par exemple, là, on s'amusait dans le projet que je faisais aujourd'hui
25:20 à le forcer à écrire des textbooks,
25:24 des livres d'éducation de physique
25:32 et on lui forçait à mettre des mots comme banane dedans ou alors dauphin.
25:35 Et il arrive quand même à faire des choses comme ça,
25:37 à écrire quelque chose sur le GPS en glissant le mot banane.
25:41 Mais il faut aller un petit peu les chercher.
25:42 Si on ne va pas pousser ces machines,
25:44 elles vont générer la chose la plus évidence.
25:46 Donc, elles restent un peu dans l'évidence
25:48 et assez vite dans les platitudes d'ailleurs aussi.
25:51 Comme tu le dis Thomas, ça évolue extrêmement vite.
25:55 Et puis, il y a plusieurs projets, tu les connais mieux que moi,
25:58 mais notamment un des projets de Yann Lequin
26:00 d'élargir ses ordinateurs, ses machines à la vision, par exemple,
26:05 c'est-à-dire d'avoir plus de prix sur le réel,
26:07 ce qui manque totalement aujourd'hui.
26:08 Imagine, ce n'est pas la douleur qu'on a lorsqu'on tombe
26:11 ou lorsqu'on se brûle.
26:12 Et est-ce que pour aller plus en avant sur la question de Valérie,
26:19 est-ce que tu penses qu'un jour on devra,
26:23 comme le souhaite Sam Altman,
26:27 comme il n'y aura pas assez de boulot pour tout le monde,
26:29 il faudra établir un revenu universel.
26:32 Est-ce que tu penses que tout simplement,
26:34 il n'y aura pas assez de boulot pour tout le monde dans 20 ou 30 ans ?
26:37 Dans 20 ou 30 ans ?
26:40 C'est énorme.
26:42 Alors, c'est sûr que c'est une possibilité.
26:44 On en parlait déjà avant l'IA du revenu universel,
26:46 mais c'est sûr que ça a vachement amplifié ces discussions.
26:49 Et moi, à mon sens, il faut un peu en effet réévaluer.
26:53 Normalement, toute avancée de productivité
26:56 était censée nous dégager plus de temps libre.
26:58 On n'a pas forcément vu ça.
26:59 En tout cas, ma vie n'a pas beaucoup plus de temps libre.
27:01 J'ai envie de dire qu'elle ne l'avait il y a 30 ans.
27:03 J'ai l'impression.
27:05 Donc, il faudra, je pense, moi, c'est assez personnel,
27:08 je pense, les visions, mais moi, ma vision,
27:10 c'est qu'il faudra réévaluer un petit peu la notion de travail et de temps.
27:15 Il y avait ce qu'on appelait aussi,
27:17 c'était il y a quelques années, les bullshit jobs.
27:19 Vous vous rappelez ?
27:20 Ces métiers où on ne fait rien.
27:22 Alors, tous ces métiers sont pour la plupart extrêmement automatisables
27:25 par TIJBT et par définition.
27:27 Il y a très peu de création.
27:28 Alors, est-ce que ça va lancer la question ?
27:30 Est-ce que ça va permettre qu'on trouve peut-être des solutions
27:33 pour sortir de ces métiers ?
27:36 Ce serait peut-être bien pour certaines personnes,
27:37 parce que ce n'est pas non plus une qualité de vie extrême
27:41 qu'on a quand on est dans un de ces métiers.
27:43 Il y a un autre thème qui revient très régulièrement,
27:46 c'est celui de la régulation.
27:47 Il y a eu quelques mois, on a vu ce moratoire qui a fait beaucoup parler
27:51 parce qu'il réunissait des signatures extrêmement différentes,
27:53 aussi bien de Yoshua Bengio, par exemple,
27:57 mais aussi de Elon Musk, qui appelait à faire une pause de six mois.
28:01 Alors, ça n'a pas été très pris au sérieux.
28:03 Puis on s'est dit, les méchants, ceux qui n'ont pas forcément
28:05 des bonnes intentions, ils vont continuer à faire des recherches.
28:07 Donc, c'est impossible, comme tu le disais tout à l'heure à Valérie,
28:10 d'arrêter les recherches.
28:12 Comment on peut avoir une régulation intelligente pour toi autour de l'IA ?
28:18 C'est une bonne question.
28:19 Oui, alors on en parle aussi.
28:21 Donc, il y a deux grandes régulations qui se développent.
28:23 C'est en Europe et aux États-Unis actuellement,
28:25 avec, on en parlait juste avant, aux mains de la Grande-Bretagne aussi.
28:32 Et puis, elles sont un peu poussées par des moratoires.
28:35 Alors, ces moratoires, on peut les prendre au sérieux ou pas,
28:37 parce qu'en parallèle, Elon Musk crée X, sa startup IA,
28:41 donc avec FRACA, donc est-ce qu'il y croit vraiment ?
28:46 Moi, mon approche, elle est un peu pragmatique.
28:48 C'est étant donné la diversité des acteurs,
28:50 ça semble un petit peu difficile de synchroniser tout le monde pour dire
28:53 qu'on va faire une pause de six mois.
28:55 Mais c'est sûr que, c'est ce que je disais tout à l'heure,
28:59 on trouve que l'IA se déploie un peu vite dans la société.
29:01 Ça, ce serait bien qu'on ait un petit peu plus de temps.
29:05 Et donc, nous, ce qu'on propose quand on discutait, par exemple,
29:08 quand la Commission européenne nous demandait un petit peu notre avis
29:10 en tant que promoteur de l'open source,
29:13 ce qu'on pense, c'est qu'il faut se laisser un peu des...
29:16 Il y a deux choses, j'ai envie de dire.
29:18 La première, c'est se laisser des bacs à sable, des sandbox juridiques,
29:22 des endroits où on peut expérimenter avec cette nouvelle technologie
29:25 pour voir où elle va être intéressante à être déployée,
29:30 où ce sera trop critique.
29:32 Ce qui est certain, c'est qu'il y a des pans de la société
29:34 où on n'aura pas envie d'avoir de l'IA.
29:36 Vous ne voulez pas avoir forcément une IA qui gère une centrale nucléaire en France.
29:40 Non, si on arrive à ce stade-là,
29:41 c'est probablement qu'on a fait une erreur quelque part.
29:43 Quelque part, quelqu'un a dit oui pour automatiser une fonction
29:47 qui n'aurait jamais dû être automatisée.
29:49 J'ai un bon ami qui gère une centrale nucléaire,
29:51 ça me fait plaisir, qui paye très peu d'intérêt à ce genre de technologie.
29:55 Et puis, il y a des pans entiers qu'on pourrait augmenter avec l'IA,
29:59 avec un humain.
30:00 Moi, par exemple, en programmant, j'utilise des IA pour m'aider.
30:03 Ça accélère la manière dont je programme, c'est très plaisant.
30:06 Toutes ces activités où l'IA est une sorte de copilote
30:10 qui vient vous aider dans une tâche que vous faisiez déjà,
30:14 mais qui vient un petit peu simplifier des tâches de routine.
30:16 Et là-dedans, j'inclus même des artistes.
30:20 Il y a beaucoup d'artistes qui sont très intéressés par l'IA
30:24 comme un outil de création, d'aide à la création,
30:26 qui génère énormément d'idées.
30:27 Puis après, eux viennent filtrer, viennent remixer, etc.
30:31 Mais ils utilisent ça comme un outil.
30:33 Je pense que c'est une direction très, très intéressante.
30:35 Donc, tous ces domaines-là, on a envie de déployer.
30:37 Et en fait, la conséquence, quand on voit un peu tout ça,
30:40 c'est qu'en fait, la meilleure manière, je pense, de réguler l'IA,
30:42 ça va être de regarder un peu au cas par cas.
30:44 Si on a un outil d'aide à l'écriture, par exemple, pourquoi pas ?
30:49 Est-ce qu'on a besoin beaucoup de le réguler ? Pourquoi pas ?
30:52 Enfin, j'en doute pas.
30:53 Est-ce que si c'est un outil qui génère de manière automatisée,
30:56 puisqu'on est au point des articles de news,
30:59 on n'a pas envie d'avoir des hallucinations, des fake news, etc. ?
31:03 Donc là, on a peut-être envie de réguler l'usage de l'IA de manière génération.
31:06 On a vu que BuzzFeed avait déjà eu un problème de fake news
31:10 parce qu'ils avaient automatisé la création d'articles avec Jadgpt
31:14 et que des fois, les IA, comme on le disait, font encore des erreurs.
31:17 Donc, en fait, c'est très, très dépendant du domaine où on va la déployer.
31:21 - Alors, il y a justement une question d'un de nos abonnés qui est en ligne
31:26 qui demande qu'en est-il de l'empreinte environnementale de l'IA ?
31:31 - Oui, c'est une grosse question.
31:33 En effet, c'est une grosse question
31:37 parce qu'on est dans le monde du réchauffement climatique aussi.
31:40 Donc, il ne faut pas se leurrer.
31:42 On voit qu'on a une empreinte et là, on a une technologie
31:45 qui est quand même très énergétive.
31:47 Elle utilise des GPU qui consomment typiquement 400 watts par GPU
31:53 et on l'utilise des fois pour faire des choses un peu absurdes.
31:56 Quand vous demandez à Jadgpt ou à Jptk de faire 2+2,
32:00 vous pouvez le faire sans calculatrice,
32:02 ça va consommer beaucoup moins que de faire tourner des milliards de matrices
32:05 pour faire ça.
32:06 Mais comme on automatise ça,
32:08 on va se retrouver avec possiblement des cas
32:10 où les gens utiliseront cette espèce d'énorme marteau
32:13 pour écraser des toutes petites loupes.
32:15 Donc, les deux manières.
32:17 Je dirais la contrainte que moi je vois,
32:21 c'est que comme je disais au début,
32:22 c'est un peu dur de faire marche arrière
32:24 et de dire on va juste ignorer cette technologie
32:26 et on ne va pas y toucher.
32:27 Donc, l'autre approche, c'est de se dire,
32:28 étant donné qu'elle est là,
32:30 qu'est-ce qu'on peut faire pour améliorer ?
32:31 Donc, comment est-ce qu'on peut rendre ces modèles plus énergéfficient,
32:35 plus efficaces ?
32:36 Comment est-ce qu'on peut réduire leur taille ?
32:38 Comment est-ce qu'on peut promouvoir des modèles peut-être plus petits ?
32:40 Et donc là, c'est assez intéressant à GleamFace
32:42 parce qu'on a ce hub avec énormément de modèles.
32:46 On a plus de 300 000 modèles qui sont là.
32:48 Il y en a qui sont très gros,
32:49 mais il y en a aussi qui sont tout petits.
32:50 Et des fois, un tout petit marche très bien pour votre tâche.
32:52 Donc, on propose cette palette très large
32:54 qui comprend des modèles plus énergéfficient,
32:56 des modèles moins énergéfficient.
32:57 Vous n'avez pas juste un chat JPT qui est unique pour tout le monde
33:00 et qui est capable à la fois d'écrire du Shakespeare
33:02 et puis de faire 2+2.
33:05 Et puis, la deuxième chose,
33:06 c'est de pousser la recherche sur les technologies.
33:10 Alors, on a des choses qui s'appellent la quantisation.
33:12 Je ne vais pas forcément entrer dans les détails techniques,
33:14 mais on peut essayer de réduire ces modèles
33:16 pour les rendre plus efficaces.
33:18 Et tout comme un laptop aujourd'hui,
33:20 je vous parle sur mon MacBook,
33:21 ne consomme pas grand-chose comparé aux tout premiers ordinateurs,
33:25 eh bien, on aura, je pense, la même chose.
33:27 C'est-à-dire qu'on aura des modèles qui vont consommer de moins en moins
33:30 aussi pour des raisons juste économiques.
33:32 On a envie d'avoir un modèle qui coûte peu cher.
33:34 Les entreprises ont pas envie de déployer
33:36 le modèle qui coûte le plus cher.
33:37 Alors, on a une autre question très intéressante.
33:41 Comment s'assurer qu'une IA apprend sur des données non biaisées ?
33:46 Oui, ça, c'est une grosse question.
33:50 Grosse question.
33:52 Elle est encore amplifiée par le fait
33:54 que la plupart du temps, on ne sait pas du tout
33:56 quelles sont les données d'origine.
33:58 Donc, JAPT ou GPT-4 sont vraiment des boîtes noires complètes
34:01 parce que ça fait partie de la recette.
34:03 Alors, nous, à Gingface, on a cette approche un peu différente.
34:06 On aime bien communiquer sur les données
34:08 qu'on a utilisées pour entraîner.
34:10 C'est la première étape.
34:11 C'est déjà un peu de transparence.
34:12 Déjà, on peut ouvrir la boîte et puis après,
34:15 les gens peuvent regarder si elles sont biaisées ou pas.
34:17 Et après, il y a une question qui est
34:19 à quel point on a envie que ces données soient débiaisées ou pas ?
34:23 Alors, c'est une question un peu étrange
34:25 parce qu'en fait, on a deux choses.
34:28 On peut dire qu'on va apprendre à l'IA surtout,
34:32 d'une certaine manière, et puis après, on va lui demander d'oublier.
34:34 Ou alors, de manière assez délibérée,
34:39 on va lui dire ce pan de la connaissance que tu connais n'est pas bien.
34:43 On n'en veut pas, par exemple.
34:44 On ne veut pas que tu génères des choses comme ça.
34:46 Alors, pourquoi est-ce que ça peut être intéressant
34:48 de laisser l'IA connaître des choses qu'on ne voudra pas qu'elle génère ?
34:52 Parce qu'en fait, si on ne lui apprend pas du tout
34:55 cette partie de la connaissance,
34:57 quand l'utilisateur va rentrer dans ses domaines,
35:00 on rentre dans ce qu'on appelle un domaine out of distribution.
35:03 En fait, on n'a aucune idée de ce que l'IA va générer
35:06 parce qu'en fait, c'est un domaine où elle n'a pas du tout entraîné.
35:08 Elle n'a aucune connaissance de ça.
35:10 Un exemple, c'est qu'on avait un modèle assez connu,
35:12 toujours très utilisé de Google,
35:14 qui a été entraîné sur un data set entier
35:16 où beaucoup de mots avaient été enlevés,
35:18 dont le mot sexe, S-E-X.
35:20 Donc, c'était assez simple pour enlever tout ce qui était pornographie d'Internet,
35:23 mais ça enlevait aussi d'ailleurs énormément de discussions
35:25 sur l'asexualité ou des discussions qui sont tout à fait possibles à avoir.
35:29 Et ce modèle, quand on a un article de news
35:34 qui discute par exemple LGBT ou je ne sais pas quoi
35:38 avec ce mot-là, le modèle est complètement out of distribution.
35:40 On va générer n'importe quoi en fait.
35:41 On n'a aucune idée.
35:43 Et donc, une autre manière dont les gens font maintenant,
35:45 c'est de couvrir quand même un peu tout.
35:47 Et après, dans une deuxième étape qui s'appelle le fine tuning, l'adaptation,
35:51 on va adapter le modèle pour lui dire,
35:52 bon, maintenant, tu as vu ça,
35:53 mais ça, c'est quelque chose qu'il ne faut pas...
35:56 Un peu comme on peut le faire pour un enfant.
35:57 On lui dit, tu as vu ça ?
35:59 Et bien, ça, c'est un exemple de chose pas bien.
36:01 Alors que si on lui a jamais montré quelque chose de pas bien,
36:03 s'il n'a jamais par exemple entendu parler de la drogue,
36:06 la première fois qu'il la rencontre, il va se dire, tiens, aucune idée.
36:10 C'est assez intéressant.
36:13 Thomas, on a une autre question d'un internaute pour toi
36:17 et qui s'interroge sur le modèle économique de Gingface,
36:20 puisqu'il y a effectivement beaucoup de choses
36:22 qui sont accessibles gratuitement chez vous.
36:23 Et comment vous, vous gagnez de l'argent ?
36:25 Et j'en profite pour élargir une question qui nous travaille,
36:28 parce que comme l'a dit Valérie dans son introduction tout à l'heure,
36:31 il y a des données géopolitiques.
36:32 On voit bien qu'il y a un nouvel ordre du monde,
36:34 c'est-à-dire que l'IA est revendiqué par des puissances
36:38 en disant qu'il faut absolument qu'on soit les leaders en IA
36:40 pour régner quelque part sur le monde.
36:43 Comment la France peut faire en sorte d'avoir des champions ?
36:47 Est-ce que les cartes ne sont pas déjà un petit peu distribuées ?
36:49 J'ai été un petit peu étonné parce que j'ai parlé avec un des responsables
36:55 d'une grande entreprise française en disant, c'est déjà trop tard.
36:57 Nous, ce que fait ChargePT, on ne pourra jamais le faire nous-mêmes
37:00 parce que le coût d'entraînement, il me disait, ça coûte 700 000 euros
37:05 par exemple par jour à ChargePT pour fonctionner.
37:08 Tout ça, nous, on n'arrivera jamais à rattraper.
37:10 On va encore laisser les Américains et les Chinois régner là-dessus.
37:13 Donc peut-être d'abord votre modèle économique et peut-être les chances de la France.
37:17 Il y a beaucoup de choses.
37:18 En plus, j'essaie de répondre de manière courte.
37:21 Alors sur le modèle économique, nous, on a suivi un petit peu une tradition
37:26 assez longue dans le domaine de l'informatique qui est l'open source.
37:29 C'est le freemium.
37:31 Alors comment ça marche ?
37:32 Ça remonte très loin parce qu'en fait, dès la création de Linux,
37:35 il y avait une société qui s'appelait Red Hat qui était déjà basée sur Linux.
37:39 Donc Linux, c'est un système comme Windows ou Mac OS,
37:43 mais qui est complètement gratuit.
37:44 Alors comment on fait une entreprise basée sur un système gratuit ?
37:48 Alors nous, notre idée, c'est qu'on fait quelque chose un petit peu
37:52 d'ailleurs comme les jeux qu'on peut avoir sur les iPhones qui sont freemium.
37:55 C'est-à-dire qu'on a beaucoup de choses gratuites.
37:56 En fait, 90% de ce que fournit un GeekBest est gratuit.
38:00 Et si on réunit une communauté assez large autour de ce qu'on fait,
38:04 on aura quelques services additionnels qui seront intéressants pour 10% des
38:08 personnes, typiquement des entreprises, des grosses entreprises, par exemple,
38:12 qui seront intéressés par des services d'hébergement avec des garanties de
38:16 privacy, par exemple, qui seront intéressés par un accompagnement sur des
38:20 développements de modèles spécifiques.
38:24 Donc, on a toute une gamme de services additionnels qui sont là,
38:27 mais vous n'êtes pas obligé de les utiliser.
38:30 C'est comme ça.
38:31 Alors, ça marche assez bien pour GameFace parce qu'on a la chance d'avoir,
38:35 disons, regrouper cette communauté suffisamment large autour de nos outils.
38:41 Évidemment, quand on a une petite communauté, c'est plus difficile.
38:45 Après, d'une autre manière, on est assez frugal.
38:47 On reste dans l'esprit start-up, même si on a encore 6 ans.
38:50 Donc, on n'est pas comme OpenAI, qui va lever 10 milliards et puis en
38:57 brûler 9 milliards tout de suite.
38:59 On a plus une idée que on voit la boîte à long terme.
39:03 On pense qu'à très long terme, on a une présence assez positive dans le
39:07 monde de l'IA et donc, on voudrait qu'on reste le plus longtemps possible.
39:12 Et sur la deuxième partie de la question.
39:15 Sur la place de la France, est-ce que ce n'est pas trop tard ?
39:18 Et on a vu ça, tu sais, au début d'Internet.
39:20 Des géants, finalement, s'établir très vite.
39:23 Et on a un peu l'impression de revivre ça.
39:26 Je ne pense pas.
39:27 Je suis assez optimiste là-dessus.
39:30 Et d'ailleurs, 2023 se passe bien pour la France et pour l'Europe.
39:35 Je pense qu'il y a eu un peu comme toujours,
39:37 les Américains qui sont allés un peu plus vite parce que c'est plus facile.
39:41 Nous, on a levé des fonds aux US parce que c'est plus facile de lever.
39:45 Après, ça change beaucoup en France.
39:46 Donc, on voit cette année, il y a eu plusieurs belles levées de fonds.
39:48 On a même vu des Américains très connus,
39:52 par exemple, qui viennent en France pour s'installer et pour lever des fonds.
39:55 Donc, ça, c'est très intéressant.
39:57 Ce renversement du trajet habituel.
40:01 On voit des entrepreneurs américains qui apprennent le français.
40:04 Ça va bien.
40:05 Et la raison, une des grandes raisons,
40:07 c'est que l'IA est quand même un domaine dominé par,
40:11 en tout cas dans les développements, par les maths et par l'informatique.
40:14 Et donc là, on a des très bonnes écoles, des très bonnes formations en France.
40:18 Et donc, c'est pour ça qu'il y a une diaspora.
40:20 C'est pour ça que Yann Lequin,
40:22 chef de l'IA à Facebook est français.
40:23 C'est pour ça qu'on a comme ça une énorme diaspora de Français dans l'IA.
40:28 Et beaucoup seraient ravis de revenir à la maison pour fonder leurs entreprises.
40:33 Donc, on a les talents.
40:35 Il y a en effet cette image que ça coûte tellement cher que c'est impossible.
40:38 Mais beaucoup de ça, c'est un petit peu
40:41 c'est un petit peu une image publique que les pionniers OpenAI ont été assez contents de sortir.
40:48 Je vous donne un exemple.
40:48 Quand ils avaient sorti GPT-3,
40:50 ils avaient fait beaucoup de bruit sur la taille et le prix du modèle.
40:52 Et c'était censé être impossible.
40:54 Et donc, nous, on s'était dit, tiens, ça me semble pas être très vrai.
40:57 Ça, à mon avis, on pourrait le faire avec beaucoup moins.
40:59 Et donc, on s'était mis ensemble avec Stéphane Requena de Gen-C
41:04 et avec Pierre-François Lavallée d'Idris du CNRS.
41:07 On avait dit, tiens, il y a un super calculateur autour de Paris.
41:10 Est-ce qu'on ne pourrait pas entraîner un modèle de la même taille que GPT-3 dessus?
41:13 Et puis, en fait, on a tout à fait réussi à l'entraîner en un an et demi.
41:16 On a fait un modèle qui s'appelle Bloom, qui est multilingue,
41:19 qui est maintenant un tout petit peu ancien.
41:21 Big Science.
41:21 Voilà, Big Science, ça fait deux ans qu'on l'a fait.
41:23 Mais voilà, ça marchait très bien.
41:25 Et on s'est rendu compte qu'il n'y avait pas besoin d'avoir...
41:28 Mais Big Science, tu vois, Thomas,
41:30 pourquoi ce n'est pas aussi connu et utilisé que OpenAI,
41:35 ou ATS GPT avec tous ces...
41:36 Oui, je pense pour deux raisons.
41:38 D'une part, le modèle a maintenant deux ans.
41:40 Donc, ça change vite.
41:41 Parce que c'est à l'époque, on peut voir ça comme un GPT-2, disons, de l'époque.
41:46 Là, on est à 4.
41:47 Et puis, on ne l'a pas vraiment...
41:49 Est-ce que vous pouvez préciser un peu pour ceux qui seraient moins au courant,
41:52 ce que c'est Big Science?
41:54 Oui, je peux en parler.
41:56 Big Science, c'est un projet un peu hors du commun,
41:59 comme beaucoup de projets de Ginkface.
42:01 En fait, c'est parti du principe que pour la première fois,
42:05 quand OpenAI avait créé GPT-3,
42:08 ils avaient décidé de ne pas du tout partager aucune information
42:11 et de ne pas partager le modèle.
42:12 Alors ça, ça a changé parce que dans le monde de l'IA avant,
42:14 il faut se dire, c'était très, très ouvert.
42:16 Les gens partageaient énormément d'informations
42:19 sous l'impulsion des pères fondateurs, de beaucoup de monde.
42:22 Mais en tout cas, Yann Lecun a aussi beaucoup poussé pour ce genre de choses.
42:26 Et c'est super.
42:26 Ou alors Yoshua Bengu.
42:27 Enfin, il y a tout un panel de personnes qui ont créé le domaine
42:31 et qui étaient très pro-ouverture.
42:33 Et donc, ça, ça a changé au moment de GPT-3.
42:36 Et ça a été un clash.
42:37 Et nous, on s'est dit...
42:40 C'est dommage qu'on ferme comme ça le domaine,
42:43 que tout d'un coup, ça se transforme en une sorte de petit zillot de connaissances fermées.
42:48 Et donc, on s'est dit, il faut aller contre ça.
42:50 Donc, notre idée, c'était de dire, au lieu d'entraîner...
42:53 Donc, normalement, les modèles d'IA sont entraînés par 4-5 personnes,
42:56 ou un peu plus, dans une entreprise privée.
42:59 On s'est dit, on va ouvrir quelque chose un peu comme Cetiatome.
43:02 Il y avait ça il y a une trentaine d'années,
43:04 où chacun pouvait participer à la recherche des extraterrestres sur son ordinateur.
43:08 Et on s'est dit, on va ouvrir quelque chose à tout le monde,
43:10 et tout le monde pourra venir participer à la création de ce modèle,
43:14 qu'on entraînera ensemble.
43:15 Et l'intérêt, c'était d'avoir déjà pas que des mathématiciens.
43:18 Alors, c'est très bien d'avoir des informaticiens à la table,
43:21 mais l'IA, comme elle a un impact énorme,
43:24 c'est aussi bien d'avoir des sociologistes, des éthicistes,
43:27 d'avoir peut-être des historiens qui vont utiliser l'IA.
43:30 Tous les gens, en fait, qui sont concernés par ces modèles.
43:33 Et donc, dans le projet Big Science, l'idée, c'était assez informel.
43:37 L'idée, c'était de faire un workshop de recherche,
43:38 où tout le monde pouvait venir donner son avis
43:40 sur comment on devrait entraîner le modèle.
43:42 On a eu au final plus de 1000 chercheurs qui ont participé.
43:46 Alors, c'était auberniquement aux chercheurs.
43:47 À l'époque, l'IA n'était pas encore du tout déployée dans la société
43:50 comme elle est aujourd'hui.
43:51 GPT-3, c'était avant le chat GPT.
43:53 Donc, c'était en 2020, 2021.
43:56 Ce qui n'est pas très loin dans le passé, d'ailleurs,
43:58 selon les échelles humaines.
44:01 Mais en fait, dans le passé de l'IA, c'est assez loin.
44:04 Et donc, on a eu à peu près 1000 personnes qui sont venues
44:07 et qui ont aidé à construire un dataset.
44:08 Alors, on s'est posé beaucoup de questions
44:10 sur comment faire un dataset de manière éthique,
44:12 à qui on va aller demander, comment est-ce qu'on va encadrer,
44:15 quelle licence on va donner au modèle.
44:16 Donc, il y a eu beaucoup de développement très intéressant autour de ça,
44:19 comment faire une gouvernance des données.
44:21 On a eu des licences, des nouvelles licences qu'on appelle responsables,
44:26 où on empêche, où on interdit des misuses, des mésutilisations
44:32 des modèles qui ont été développés.
44:33 Donc, en fait, ce workshop a créé énormément de réflexions et de travaux.
44:38 Il a aussi entraîné le modèle Bloom.
44:40 Mais en fait, Bloom était un artefact parmi d'autres.
44:42 On a aussi créé un énorme dataset qui s'appelle Roots,
44:44 qui était aussi multilingue.
44:46 Par exemple, dans toutes les réflexions, on s'est dit,
44:47 c'est un peu bête que GPT-3 soit uniquement anglophone.
44:51 On voudrait l'avoir aussi francophone.
44:52 Mais tant qu'à faire franco-anglais,
44:53 on voudrait aussi l'avoir dans plein de langues.
44:55 Tant qu'à couvrir plein de langues,
44:56 on voudrait aussi couvrir des langues qui sont complètement ignorées.
44:59 Donc, on avait des langues africaines, des langues indiennes.
45:01 Il y avait toutes ces langues dans le modèle Bloom.
45:03 Donc, le résultat, c'est un projet assez intéressant,
45:09 je dirais, qui a eu pas mal de successeurs.
45:10 C'était un projet un peu ambitieux.
45:12 C'est-à-dire qu'on voulait régler tous les problèmes à la fois.
45:13 On voulait régler le problème de l'éthique de l'IA.
45:15 On voulait régler le problème de la recherche en IA.
45:17 On voulait régler le problème du fossé.
45:19 On n'a pas trop parlé, mais du fossé entre l'académie,
45:21 entre les académiques et les entreprises,
45:23 qui est un fossé gigantesque dans l'IA.
45:25 Les académistes n'ont aucun moyen d'entraîner un GPT-4 chez eux.
45:28 Que font-ils ?
45:29 Donc, on voulait régler tous ces problèmes.
45:31 Alors, on en a réglé quelques-uns.
45:32 On a un modèle qui était bien.
45:34 Et Bloom, si vous pouvez le laisser sur le site de Hugging Face,
45:38 d'ailleurs, si vous allez sur Bloom,
45:39 il parle très bien français aussi.
45:42 Mais après, je pense qu'on a eu aussi un petit peu quelques complexités.
45:47 Alors, déjà, avoir 1000 personnes dans un workshop,
45:49 c'est assez énorme en fait.
45:50 On a envie d'avoir des structures un peu plus encadrées.
45:54 C'était tout passé sur le volontariat.
45:55 Ce qui fait qu'après, le volontariat a une certaine limite,
45:58 il y a une limite de temps que vous pouvez allouer à ça.
46:01 Donc, il y avait certaines contraintes et donc des projets.
46:04 Je parlais tout à l'heure de StarCoder, qui est un projet de code.
46:07 C'est aussi sorti d'une collaboration ouverte comme ça,
46:09 qui s'appelle BigCode,
46:10 qui est aussi, vous pouvez rejoindre BigCode,
46:12 qui est un peu un successeur de BigScience,
46:14 qui a appris des difficultés, des contraintes.
46:17 Donc, on a mieux organisé la gouvernance du projet.
46:20 On est un peu plus petit, il n'y a que 500 personnes.
46:22 C'est quand même assez gros,
46:23 mais on a des gens qui sont à temps plein.
46:25 On n'a pas que des volontaires.
46:27 Je dirais qu'on est passé dans une phase un peu plus organisée
46:29 de ce premier projet,
46:30 qui était plus en réaction aux Américains en disant,
46:32 "ils nous embêtent, on va se mettre ensemble en communauté,
46:35 on va essayer de faire quelque chose aussi bien".
46:37 Alors, dans ce projet, tout à l'heure,
46:39 vous disiez, on a essayé de régler tous les problèmes,
46:41 les problèmes notamment éthiques.
46:44 Alors, je pense que c'est peut-être le problème éthique
46:47 qui est loin d'être réglé
46:48 parce qu'il divise profondément notre société.
46:50 Et alors, justement, au point, on avait organisé,
46:53 c'est Guillaume qui avait organisé un débat
46:54 entre le responsable de l'IA chez Meta
46:56 et les professeurs à l'Université de New York,
46:58 Yann Lequin, vous en avez parlé tout à l'heure,
47:00 et l'historien Yuval Harari,
47:02 auteur de l'ouvrage "Sapiens".
47:04 Alors, le premier, il voit dans l'intelligence artificielle
47:07 un nouvel âge des lumières, c'est intéressant.
47:09 Et le second, il prédit un effondrement de notre civilisation.
47:13 Qu'est-ce que vous en pensez ?
47:14 Et dans le fond, est-ce que les deux n'ont pas raison ?
47:17 C'est possible.
47:18 On reconnaît bien leurs deux marques.
47:21 En effet, dans ces deux citations,
47:23 c'est un bon résumé de leurs deux pensées.
47:25 Donc, Yuval est très inquiet des big data,
47:28 des algorithmes prédictifs qui comprennent tout sur nous
47:32 et on le voit un peu quand même dans notre vie de tous les jours.
47:35 Et puis, Yann Lequin, comme ça, des lumières de l'IA,
47:39 qui pense que l'IA est sorte...
47:42 qui se rapproche un peu des fois, quand je dis bien commun, de l'humanité.
47:44 Je pense que c'est un peu la vision qu'a aussi Yann Lequin,
47:46 c'est-à-dire une IA qui pourrait advenir un peu,
47:49 peut-être comme dans les plus beaux films de science-fiction
47:52 qu'on peut voir des fois où l'IA est là pour nous aider.
47:55 Je pense que tous ces avenirs sont un peu possibles en fait.
47:57 Moi, ce que je vois, c'est que tous ces avenirs sont possibles aujourd'hui.
48:01 Et la raison dans laquelle,
48:03 ça transparaît peut-être un peu dans ce que je dis,
48:04 mais Huggy Faye, c'est une entreprise à mission,
48:06 c'est que nous, on veut se projeter dans l'avenir qui nous intéresse le plus
48:09 et on veut qu'il advienne, cet avenir-là.
48:11 On n'a pas spécialement envie d'aller dans une sorte de dystopie
48:14 poussée par la Silicon Valley, par exemple,
48:19 qui a amené des super choses
48:21 et puis qui a amené aussi des choses moins intéressantes.
48:22 On a envie d'aller dans un futur où on peut voir,
48:27 enfin où moi, je veux voir mes enfants grandir.
48:29 Donc, il reste à nous, je vois souvent la doctrine du nudge,
48:34 c'est-à-dire qu'on ne peut pas tout contrôler,
48:36 mais on peut essayer de pousser la société un peu dans la bonne direction.
48:38 C'est comme ça qu'on voit souvent les choses à Huggy Faye.
48:40 Ce n'est pas une force de régulation,
48:42 mais on peut essayer de proposer des choses
48:44 et puis si elles sont assez attirantes,
48:46 si on les nudge assez, les gens iront un peu vers là.
48:50 Il y avait un autre de nos internautes qui demandait
48:54 est-ce qu'aujourd'hui,
48:55 Marcel Proust ou Virginia Woolf seraient possibles dans le monde de l'IA ?
49:00 Qu'est-ce que vous en pensez, vous ?
49:03 C'est une question profonde.
49:04 Oui, je pense, moi je pense toujours,
49:06 parce que je pense que Marcel Proust ou Virginia Woolf
49:10 n'écrivait pas que pour…
49:12 Ils écrivaient parce qu'ils avaient un besoin intérieur fort de faire ça.
49:15 Je pense qu'il y aura toujours ça.
49:16 Là, cet été, j'écrivais aussi comme ça une fiction pour mes enfants
49:20 et c'était un plaisir juste d'écrire, ce ne sera jamais publié.
49:23 Mais il y aura toujours ce plaisir de créer, de faire des choses.
49:27 Et puis l'IA, un peu comme je le disais,
49:29 elle crée aussi des choses qui sont quand même un peu téléguidées.
49:33 Les images de Meet Journey, on les reconnaît maintenant,
49:36 elles ont un peu ce caractère qu'on voit assez vite.
49:39 Et puis quand je le disais tout à l'heure,
49:40 l'IA a une tendance à générer des choses un peu mainstream,
49:42 un peu évidentes, ça reste vrai.
49:44 Donc, pour les choses un peu folles, l'humain sera là.
49:48 Et puis moi, mon avis dans le futur, c'est que d'une certaine manière,
49:51 l'IA va vraiment revaloriser les interactions entre humains.
49:56 On sera capable de faker, on sera capable de...
50:01 Je suis désolé pour mon franglais, ce n'est pas évident.
50:04 Oui, mais on a vu des choses incroyables,
50:06 notamment Guillaume me montrait l'autre jour au journal,
50:08 il nous montrait en conférence, on peut prendre le visage de quelqu'un,
50:11 changer la façon dont les lèvres bougent,
50:14 lui faire dire n'importe quoi avec sa vraie voix.
50:16 Donc, nous comme journalistes, ça nous terrifie un peu
50:19 parce que le faker, comme vous disiez tout à l'heure,
50:22 c'est-à-dire produire de l'information fausse, vraie,
50:28 si je puis m'exprimer ainsi,
50:29 on a l'impression qu'il y a un boulevard,
50:31 et donc c'est assez déstabilisant.
50:34 Ça, c'est un gros problème, oui.
50:36 Et à terme, si on pousse cette idée un peu au fond,
50:38 alors bon, il y a plein de ramifications sociétales
50:40 qui sont assez problématiques,
50:42 qui pour moi sont un peu des amplifications
50:45 de ce qu'on voyait déjà sur les réseaux sociaux,
50:47 parce qu'on avait déjà un problème de fake news avant l'IA,
50:50 qui sont un peu le fait que les canaux sont assez durs,
50:53 l'authenticité des gens auxquels on parle est assez dure à établir.
50:57 Donc ça, ça amplifie,
50:58 mais c'est un peu le prolongement d'un problème qu'on avait déjà avant.
51:01 Mais à terme, en fait,
51:02 je pense que ça va revaloriser beaucoup
51:04 le fait d'être dans la même pièce avec quelqu'un.
51:06 Donc là, vous êtes ensemble, Valérie, Guillaume,
51:09 vous êtes sûr que la personne qui est en face de vous est réelle.
51:13 Pour ma part, dans un monde du futur,
51:15 ce serait tout à fait possible que vous soyez là sur mon écran,
51:17 créé par ordinateur de manière très réaliste.
51:19 Et honnêtement, on n'est vraiment pas très, très loin de pouvoir le faire.
51:24 Une visioconférence où en fait, on se rend compte après.
51:28 On a déjà un peu ça avec les filtres Snapchat.
51:30 Vous avez vu ça, où on a, par exemple, des influenceurs.
51:32 Et puis après, un jour, on voit qu'en fait,
51:34 ils n'ont pas du tout le physique qu'on imaginait.
51:40 Et donc, la seule manière de savoir vraiment la réalité,
51:42 ce sera d'aller l'expérimenter soi-même, d'aller dehors,
51:44 d'aller rencontrer quelqu'un en vrai et pas juste sur son téléphone,
51:47 de reconnecter un petit peu, je dirais, au monde et aux personnes en vrai.
51:52 Tout comme aujourd'hui, on est content d'aller voir notre artiste,
51:54 notre chanteur favori en vrai,
51:58 parce que Spotify et tout a rendu tellement facile le streaming
52:01 qu'il y a quand même quelque chose à voir,
52:04 sentir la présence de quelqu'un qui est assez important.
52:08 De manière très ponctuelle,
52:09 pour terminer sur ce sujet de savoir ce qui est vrai
52:14 et puis peut-être aussi de recouvrir les droits d'auteur.
52:17 On en parlait tout à l'heure, Valérie.
52:19 Il y a eu des progrès en ce qu'on appelle les watermarks.
52:22 Est-ce que ça, c'est une piste intéressante ?
52:24 Est-ce que tu peux expliquer peut-être rapidement ce que c'est ?
52:27 Oui, oui.
52:29 Alors, le watermarking, c'est l'idée de mettre une sorte d'empreinte,
52:34 de filigrane dans les générations d'IA pour pouvoir après les retrouver.
52:39 Donc, dans l'image, ça peut être,
52:41 on rajoute une sorte de filtre, alors que nous, on ne voit pas.
52:45 Souvent pour les yeux, c'est une sorte de pattern qui est très discret.
52:48 Et puis après, on peut les retrouver.
52:49 On peut aussi faire ça pour le texte, d'une certaine manière.
52:51 C'est assez surprenant, mais en fait, c'est possible.
52:53 On va favoriser la sélection de certains mots de temps en temps.
52:56 Et puis, on ne s'en rendra pas trop compte,
52:58 mais ce sera possible de retrouver ça.
53:00 Alors, nous, on pousse ça aussi.
53:03 L'Ink Face, il y a par exemple,
53:04 un groupe qui s'appelle C2PA,
53:06 c'est une sorte de partenariat général avec Tropics,
53:09 qui essaye de formaliser un petit peu ça pour qu'on ait des formats communs.
53:14 Je pense qu'une approche là, en fait,
53:16 ce sera de voir un petit peu comme pour le Covid.
53:19 La navigation est un peu surprenante,
53:20 mais on n'avait pas une solution pour tout.
53:22 On n'avait pas un truc.
53:23 Et l'idée, c'était plutôt d'ajouter des mesures un peu partout.
53:25 Alors, vous mettez un masque,
53:26 et puis on essaie aussi d'éloigner un petit peu les gens, etc.
53:28 Et puis à la fin, avec quelques mesures comme ça,
53:30 ça devient quand même assez difficile.
53:33 C'est comme ça que ça a bien marché pour contenir.
53:36 Et là, je pense qu'on aura un peu la même chose.
53:38 On aura un peu de watermark.
53:39 On a aussi peut-être une obligation d'authentifier les bots.
53:43 Peut-être qu'ils devraient,
53:45 sur Twitter ou sur les réseaux sociaux,
53:47 ils devraient être indiqués comme des bots, comme des robots, etc.
53:50 On a plusieurs mesures qu'on peut empiler,
53:52 des mesures de transparence, beaucoup en fait,
53:55 des mesures d'éducation.
53:57 Et puis à la fin, on arrive à un système où finalement,
54:00 ça devient quand même assez difficile de faire passer des faits.
54:05 Alors, il ne nous reste pas beaucoup de temps
54:07 parce qu'on a cinq minutes.
54:09 Et merci d'être resté avec nous tout ce temps, Thomas.
54:12 Juste pour faire vite,
54:14 il y a deux questions que je voudrais vous poser.
54:18 La première, c'est est-ce que plus il y aura d'utilisateurs,
54:22 plus l'IA sera intelligente ?
54:24 Et jusqu'à quel point ?
54:27 Ça, c'est moi qui rajoute.
54:28 Et puis, il y a une question qui, je pense, va vous intéresser
54:32 parce que dans nos internautes, il y a visiblement
54:35 des lecteurs ou des lectrices qui sont intéressés
54:41 directement par votre société.
54:43 À Hugging Face, quelles sont les compétences recherchées ?
54:47 OK, je vais se répondre assez court puisqu'on n'a plus beaucoup de temps.
54:52 Et donc, sur la première question, c'est un peu surprenant,
54:54 mais en fait, non, l'IA ne s'améliore pas quand on lui parle.
54:58 Pas vraiment.
54:59 C'est donc pas cette IA.
55:01 On avait longtemps des IA comme ça.
55:02 En effet, dans le passé, on en parlait beaucoup.
55:04 Des robots, un peu comme des bébés.
55:06 Chat GPT, pas spécialement.
55:08 Alors, ça aide quand même parce qu'en fait, l'entreprise OpenAI,
55:12 il n'y a pas beaucoup de privacy.
55:13 Enfin, maintenant, vous pouvez, mais elle lit en gros le contenu de votre chose
55:16 et note les choses pas bien et puis après améliore son modèle à la main elle-même.
55:18 Mais c'est d'une manière assez encadrée, assez guidée.
55:22 En fait, c'est eux-mêmes qui vont regarder les problèmes dans les logs
55:25 et puis qui les fixent après en rajoutant un peu des données.
55:29 Puis quand ils réentraînent le modèle de temps en temps,
55:32 tous les quelques mois, tous les trois, quatre mois, ils réentraînent le modèle.
55:34 Alors, ils rajoutent des données un peu pour résoudre les problèmes qu'ils ont vus.
55:38 Mais donc, c'est très manuel.
55:39 C'est pas quand vous parlez à l'IA, elle va apprendre.
55:44 Donc ça, c'est ça.
55:45 Alors après, il y a une question intéressante,
55:48 mais c'est plus pour la philosophie sujet du bac 2024.
55:52 Comment est-ce que l'IA apprendra quand elle sera meilleure que les humains ?
55:55 À partir de quoi ?
55:56 Ça, c'est une grosse question.
55:58 Il y a beaucoup de gens qui commencent déjà à se la poser.
56:01 Et donc, ce serait peut-être à propos, à partir d'autres IA,
56:03 dans des sortes de dialogues socratiques où elles discuteraient entre elles
56:06 à un niveau un peu au-dessus de notre intelligence.
56:09 Et puis elles diraient à la fin une conclusion.
56:11 Vous direz, c'est ça la bonne réponse.
56:13 Donc, c'est à la fois effrayant ou pas.
56:14 En tout cas, ça ouvre une sorte d'abîme un peu gigantesque.
56:17 - Est-ce que c'est la fameuse AGI ?
56:19 C'est-à-dire cette fameuse intelligence artificielle générale.
56:22 C'est ça qui...
56:23 - Oui, voilà.
56:24 C'est ça, c'est le moment.
56:26 Alors, on peut voir l'intelligence de plusieurs manières.
56:28 On peut voir ça un petit peu comme un continuum.
56:30 Et donc, en fait, l'humain est à un niveau.
56:32 Et puis après, on peut continuer plus loin.
56:35 Alors, il y a d'autres manières.
56:36 Il y a plein de théories.
56:38 Il y a le karmic vision.
56:41 - Des amis de Sam Altman pensent qu'on sera,
56:46 je fais très vite, mais je pense que ça intéresse pas mal de monde,
56:48 à cette intelligence artificielle générale d'ici
56:52 relativement peu de temps, dans moins d'une dizaine d'années, je crois.
56:56 - Oui, après, tout dépend de ce que vous mettez dans le mot intelligence.
57:00 Alors, moi, je fais partie des gens qui pensent
57:02 qu'il y a énormément d'intelligences différentes et que les maths,
57:06 c'est pas forcément, d'ailleurs, tout,
57:07 qu'un très bon musicien a une forme d'intelligence aussi supérieure à la mienne.
57:11 Et c'est sûr qu'on n'aura pas des IA très bonnes joueuses de flûte dans 10 ans,
57:15 parce qu'on a encore énormément de mal avec la robotique.
57:19 Là, on n'y sera pas avant très longtemps si je dois mettre mon pénis sur ça,
57:26 enfin, mon argent.
57:27 Mais on a certaines formes d'intelligence,
57:31 et on en parlait, toutes les intelligences un peu culturelles,
57:34 où en effet, on est très, très proche des intelligences justes de connaissances,
57:38 qui étaient peut-être l'intelligence typique,
57:40 il y a peut-être un demi-siècle,
57:41 on disait avoir le plus de connaissances,
57:43 c'est quelque chose d'extrêmement intelligent,
57:45 il peut vous donner des dates de naissance d'énormément de monde.
57:48 Alors, en fait, on y est déjà,
57:49 mais d'une certaine manière, Google y était déjà depuis longtemps.
57:53 Mais bon, on a certainement beaucoup d'intelligence comme ça,
57:56 un peu cérébrale, un petit peu scolaire,
58:01 sur lesquelles l'IA est très proche de nous dépasser.
58:03 - Et alors, vous, quelle est l'intelligence que vous recherchez, vous, à Hugging Face,
58:09 au cas où certains de nos internautes seraient très intéressés
58:13 par l'idée de vous rejoindre ?
58:14 Quelles sont les compétences ?
58:15 - Alors, Hugging Face, c'est vraiment…
58:18 Je pense qu'il faut quand même beaucoup aimer le code,
58:21 il faut être un développeur.
58:22 On est, moi-même, avant de vous parler,
58:25 là, j'étais encore en train de coder avec mon collègue.
58:30 Donc, il faut être un développeur, il faut aimer l'open source,
58:33 il faut aimer un petit peu cette idée de partage avec la communauté.
58:36 Donc, il faut mêler le côté, peut-être un peu solitaire du développeur
58:40 avec le côté communautaire du développeur communautaire.
58:43 C'est des espèces rares qu'on cherche, Hugging Face.
58:47 Mais si vous mariez ces deux-là, si vous avez un intérêt pour l'IA,
58:52 que vous savez bien coder en Python ou en Rust,
58:55 eh bien, il ne faut pas hésiter à nous envoyer un message.
58:59 Il y a un gros aspect service de la communauté dans l'entreprise.
59:05 On réfléchit toujours comment est-ce qu'on peut aider la communauté.
59:08 Donc, je pense que c'est vraiment une entreprise de culture,
59:11 c'est-à-dire qu'en fait, on a des gens qui ont tous un petit peu cette appétence
59:17 pour aller résoudre les problèmes de la communauté, etc.
59:21 En tout cas, nous, on a bien constaté pendant toute cette heure
59:24 que vous aviez cette appétence à partager, à nous expliquer
59:28 et à éclairer un peu tous nos internautes, nos abonnés, nos lecteurs
59:32 sur ce qu'étaient aujourd'hui un peu les tenants et les aboutissants
59:37 de cette incroyable révolution de l'intelligence artificielle.
59:40 Donc, merci beaucoup à vous, Thomas Wolff, de l'avoir pris
59:42 cette heure précieuse sur votre emploi du temps
59:45 pour partager ça avec nos lecteurs.
59:47 Merci, Guillaume.
59:48 Et merci à tous les lecteurs et tous nos abonnés
59:52 d'être présents encore une fois à ce webinaire.
59:54 Et je vous souhaite une excellente soirée
59:56 et à très bientôt pour un nouveau rendez-vous.

Recommandations