• l’année dernière
Vendredi 6 octobre 2023, SMART BOURSE reçoit Nicolas Descoqs (Gérant, Clartan)

Category

🗞
News
Transcription
00:00 [Musique]
00:10 Le dernier quart d'heure de Smart Bourg, chaque soir c'est le quart d'heure thématique.
00:13 Une fois par mois, le premier vendredi du mois, nous avons rendez-vous avec les équipes de Clartemps Associés
00:17 pour détailler, décrypter un cas d'investissement.
00:20 C'est Nicolas Deko qui est avec nous ce soir en plateau, gérant chez Clartemps.
00:23 Bonsoir Nicolas.
00:24 Bonsoir Grégoire.
00:25 Merci beaucoup d'être avec nous.
00:26 Le cas qu'on développe avec vous ce soir, je pense que ça restera le cas de l'année 2023, le cas Nvidia.
00:32 Nicolas, tout le monde a entendu parler de Nvidia aujourd'hui.
00:36 Qu'est-ce qu'il faut savoir qu'on ne sait pas forcément d'Nvidia,
00:40 qui avant le développement de l'IA générative, était très connu d'un nombre limité de personnes.
00:49 Et historiquement, c'était même les gamers, c'est ça, qui connaissaient Nvidia avant les autres.
00:54 Exactement, Nvidia c'est une société qui a été créée il y a 30 ans.
00:57 Elle fait de ses 30 bougies cette année, 1993, par un certain Jensen Huang, qui est toujours son président.
01:04 Et en fait, c'était un concepteur de microprocesseurs, Jensen Huang.
01:09 Il s'est mis à son compte et en fait, 1993, c'est le moment où,
01:13 alors ça, c'est les plus anciens d'entre nous s'en souviendront, moi j'étais collégien,
01:17 c'est le moment où le jeu Doom est sorti.
01:19 Et la particularité de Doom, c'était que c'était le premier jeu en 3D.
01:26 C'était ce qu'on appelle un shooter.
01:28 Avant, il y avait des jeux en 2D, il y avait la Game Boy qui était sortie à la fin des années 80,
01:32 et on avait Super Mario qui se baladait en deux dimensions.
01:34 Et donc ça, ça ne demandait pas énormément de capacité de calcul du processeur,
01:38 mais en 3D, quand on se met à la place du pilote, en fait, le paysage bouge,
01:44 et ça, ça demandait énormément de capacité de calcul.
01:47 Et Jensen s'est dit, il y avait plein d'autres start-up à l'époque qui essayaient de faire la même chose,
01:53 il s'est dit on va essayer de faire des microprocesseurs qui sont spécialement faits pour ça.
01:57 Et donc c'est comme ça qu'ils ont fait des cartes graphiques.
02:00 Alors le premier succès de la société, c'est en 1999, la GeForce 256,
02:05 qui en fait s'ajoutait, c'était à l'époque, on pouvait monter ses PC,
02:08 alors moi quand j'étais étudiant, c'est ce que j'ai fait une fois,
02:11 donc vous achetiez les PC par bout, vous achetiez la carte graphique,
02:14 vous la glissiez dans l'unité centrale, après il fallait installer les drivers,
02:17 et là, si vous vouliez jouer aux jeux de shooters,
02:20 le jeu de shooters à la fin des années 90, début des années 2000,
02:23 c'était plutôt Counter-Strike, le truc à la mode,
02:25 il fallait absolument avoir une carte graphique Nvidia,
02:28 qui vous alliez acheter dans le 13ème chez les spécialistes.
02:31 Et bon, donc c'était vraiment un petit micro-cause,
02:34 les gens qui avaient utilisé des cartes graphiques Nvidia,
02:37 et donc ils sont restés dans ce segment-là.
02:40 En 2006, ils se sont lancés dans quelque chose d'un peu particulier,
02:43 c'est qu'ils ont inventé un langage de programmation
02:46 fait pour, optimisé pour, leur carte graphique qui s'appelle CUDA,
02:50 et qui est aujourd'hui un de leurs gros avantages compétitifs,
02:53 c'est que ça s'est développé depuis maintenant presque 20 ans,
02:56 et donc à chaque fois que quelqu'un utilise une carte graphique Nvidia,
02:59 il y a un langage exprès pour qui rend l'utilisation extrêmement efficace.
03:02 Et donc là, c'est toujours utilisé que pour le gaming,
03:06 jusque dans les années 2010.
03:09 Première rupture, 2012, alors ça n'a pas eu d'impact tout de suite sur Nvidia,
03:12 mais il y a eu un événement très important,
03:15 c'est qu'il y avait un concours qui s'appelait le concours Imagenet.
03:18 Donc Imagenet, c'était une banque de données d'images,
03:21 et il y avait un concours d'algorithmes mondial,
03:24 où on disait "Venez avec votre algorithme et essayez de faire de la reconnaissance d'images,
03:27 dites-nous si sur l'image il y a une voiture ou un chat ou un cheval".
03:31 Et les algorithmes faisaient en 2010-2011,
03:35 entre 28 et 50% d'erreurs,
03:38 sachant qu'un humain fait à peu près 5% d'erreurs.
03:42 En 2012, arrive une équipe, je crois que c'était les canadiens,
03:46 qui ont utilisé un algorithme différent,
03:49 qui n'était plus par force brute, mais qui était un algorithme d'intelligence artificielle,
03:52 qui avait été entraîné sur des cartes graphiques Nvidia,
03:55 et qui fait 16% et le deuxième fait 27%.
03:59 Donc ils mettent 3 longueurs derrière.
04:05 L'année suivante, à partir de 2013,
04:08 tout le monde était passé aux algorithmes d'intelligence artificielle,
04:11 réseau de neurones profonds, et donc on utilise les cartes graphiques.
04:14 En fait, il y a une utilisation qui n'avait pas du tout été prévue par Nvidia au départ.
04:17 La raison pour laquelle ça marchait très bien,
04:20 c'est qu'en fait, une carte graphique s'est faite pour faire des calculs en parallèle.
04:23 Un CPU, un Pentium, un Intel, dans les années 90,
04:27 ça fait des calculs en séquentiel, ça fait les choses une par une.
04:30 Une carte graphique s'est faite pour faire plein de calculs,
04:33 très simples, mais en même temps.
04:36 Et en fait, dans ces réseaux de neurones profonds, c'est exactement ce qu'on veut.
04:39 On veut faire plein de choses en même temps, mais des choses très simples.
04:42 Et donc c'était vraiment optimisé pour ça.
04:45 Ensuite, deuxième fait notable.
04:47 - Et ça veut dire qu'à ce moment-là, l'utilisation des cartes graphiques Nvidia dans l'IA,
04:53 c'est venu des utilisateurs de ces cartes graphiques.
04:56 C'est pas Nvidia qui a dit "Tiens, c'est ça qui est dingue".
04:59 - C'est pas du tout venu de Nvidia.
05:01 - C'est la demande qui a fait pivoter Nvidia.
05:04 - Mais Nvidia avait quand même les meilleurs produits, les meilleurs services,
05:08 parce qu'il y avait plein de concurrence.
05:11 Ensuite, dans l'intelligence artificielle, la suite, je dirais que c'est 2016,
05:16 au moment où l'équipe de DeepMind, qui avait été rachetée par Google,
05:20 Challenged l'E-Cédol, qui était le champion du monde,
05:23 18 fois champion du monde de jeu de go,
05:25 donc les ordinateurs n'avaient jamais réussi à battre le champion du monde de jeu de go.
05:28 - Les échecs avaient déjà été faits, c'est ça ?
05:30 - Les échecs avaient été faits par IBM dans les années 90,
05:33 parce qu'en fait, on y arrivait par force brute.
05:35 Mais le jeu de go, c'est une complexité supplémentaire.
05:38 Je crois qu'il y a 10 puissance 360 parties possibles,
05:41 et il y a 10 puissance 130 atomes dans l'univers.
05:44 On ne peut pas le faire par force brute, et donc il faut le faire de façon intelligente.
05:48 Et la façon intelligente que les réseaux de neurones utilisent,
05:51 c'est qu'ils font un peu des petits coups de sonde.
05:53 Ils regardent si je fais comme ça un peu par hasard, est-ce que j'ai une chance de gagner ?
05:56 Et si j'ai une chance de gagner, je vais aller creuser autour, entre guillemets.
05:59 Et on s'est rendu compte que c'était extrêmement efficace,
06:01 et donc ils ont battu le champion du monde, Lysédol,
06:04 et depuis, ils sont devenus absolument imbattables.
06:07 Et c'est là que beaucoup de gens se sont dit,
06:09 ah oui, on a quand même franchi une étape particulière.
06:12 - Depuis Doom, oui, effectivement.
06:14 - Et donc on arrive à 2022, où là, la sortie de ChatGPT.
06:20 - Novembre.
06:21 - Et là encore, en fait, c'est des réseaux de neurones profonds,
06:24 c'est une mathématisation du langage,
06:26 et les cartes graphiques sont extrêmement efficaces,
06:29 parce qu'en fait, on a des vecteurs, des matrices,
06:32 on fait des multiplications de matrices,
06:34 on fait plein d'additions et de multiplications simples,
06:37 mais plein les unes à la suite des autres,
06:39 et il faut absolument pouvoir le faire en parallèle.
06:41 Les cartes graphiques, c'est juste au moins 10 fois,
06:43 10 à 100 fois plus efficace que les CPU.
06:46 Et donc tout ça, ça tourne sur des cartes graphiques,
06:49 et sur des cartes graphiques Nvidia.
06:51 Ensuite, là, qu'est-ce qui s'est passé depuis ChatGPT ?
06:53 Il y a maintenant presque un an,
06:55 c'est que tout le monde s'est dit,
06:56 bon, l'avenir, c'est l'intelligence artificielle,
06:58 et les cloud providers, les sociétés de cloud,
07:02 donc Microsoft Azure, Google Cloud, Amazon Web Services,
07:06 Meta et Oracle se sont dit,
07:08 il faut qu'on équipe nos data centers
07:10 avec des cartes graphiques de Nvidia.
07:12 Donc en fait, maintenant, c'est des cartes graphiques agglomérées.
07:14 La dernière, la H100, elle pèse 35 kilos.
07:16 - Bien sûr, c'est plus le petit truc qu'on glisse dans son ordi.
07:19 - C'est plus le petit truc qu'on glisse dans son ordi.
07:21 Ils arrivent et ils disent à Nvidia, j'en voudrais 15 000.
07:24 Donc voilà, c'est un chèque d'un demi-milliard,
07:26 et on installe tout ça, et c'est ce qui se passe depuis un an,
07:28 et le chiffre d'affaires de Nvidia a absolument explosé
07:31 dans la division data center.
07:33 - Reléguant la partie cartes graphiques dédiées au gaming
07:35 à quelque chose de marginal aujourd'hui ?
07:37 - Relativement marginal, oui.
07:39 Pour vous donner une idée, là, ce trimestre,
07:41 sur le gaming, on est autour de 2,5 milliards,
07:44 3 milliards de chiffre d'affaires,
07:46 et sur la partie data center, on va être autour de 13.
07:49 Ils attendent 16 milliards de chiffre d'affaires,
07:51 c'est 3 et 13.
07:53 - Oui, ça change complètement la structure commerciale de l'entreprise.
07:58 Deux questions par rapport à ça.
08:00 Ce ne sont plus les mêmes clients.
08:01 Là, où il y a 20 ans, c'était le gamer du coin
08:03 qui allait acheter ses cartes graphiques,
08:06 dans le 13e, là, c'est les plus grosses firmes mondiales
08:11 de services informatiques, de cloud providing, etc.
08:15 Donc, un rapport commercial peut être un peu différent.
08:19 Et l'autre question, la barrière technologique,
08:21 la barrière à l'entrée,
08:23 est-ce qu'après des années de course à l'innovation dans ce secteur-là,
08:27 est-ce que Nvidia est encore devant, loin devant,
08:30 par rapport à des concurrents qui chercheraient quand même à rentrer sur ce marché ?
08:34 - Je vais commencer par la deuxième.
08:35 Sur la barrière à l'entrée, je pense qu'Nvidia est leader,
08:37 et reste leader, et il continue à avancer.
08:40 Alors, ils ont plusieurs avantages compétitifs.
08:43 Le premier avantage, c'est que, déjà, ils ont du savoir-faire
08:46 pour designer ces cartes graphiques.
08:48 Ils ne les fabriquent pas, ils sont ce qu'on appelle "fabless",
08:50 donc ils ne font que du design, tout est construit sur les TSMC à Taïwan,
08:54 et ils ont une très bonne relation avec TSMC,
08:56 ils ont de la capacité réservée à TSMC,
08:58 ce que n'ont pas forcément les autres, ou pas dans la même proportion.
09:01 Donc ça, c'est la première chose.
09:02 Deuxième chose, ils ont le langage CUDA,
09:04 qui est pour les utilisateurs extrêmement utile,
09:07 et que AMD, son concurrent le plus direct, n'a pas, n'a pas d'équivalent.
09:11 Ils sont en train d'essayer de le faire,
09:13 mais pour l'instant, je dirais qu'NVIDIA a vraiment beaucoup, beaucoup d'avance,
09:18 parce qu'ils ont commencé dès 2006.
09:20 Un troisième élément, en 2019, ils ont racheté une société israélienne
09:23 qui s'appelle Mellanox.
09:25 A l'époque, personne n'a compris pourquoi ils s'étaient jetés dessus,
09:27 alors qu'il y avait d'autres personnes qui cherchaient à la racheter.
09:29 Et en fait, Mellanox fait des câbles pour connecter les serveurs dans les data centers,
09:34 et Jensen dit que ça a une efficacité, en fait, ça permet de câbler plus vite,
09:38 c'est une technologie qui s'appelle InfiniBand,
09:40 plutôt que le câble Ethernet que vous connaissez.
09:42 Il dit que c'est 15 à 20% plus efficace.
09:44 Et pour un data center, 15 à 20% plus efficace,
09:47 ça revient à un coût 15 à 20% moins cher.
09:50 Donc, ils sont quand même bien positionnés en avance.
09:54 Chad GPT, ça a été entraîné avec le A100, qui était du 7 nanomètres.
09:59 Le H100, actuellement, qui est en fait, qui sont en train de livrer par caisson,
10:05 là, on est en train de 5 nanomètres.
10:06 Et fin 2024, ils vont sortir le B100, qui sera du 3 nanomètres.
10:10 Donc, il ne reste pas statique.
10:12 Je comprends.
10:14 Si la concurrence bouge, eux, avancent aussi.
10:16 Il y a tellement de demandes que la concurrence va bouger, mais ils gardent une avance.
10:20 Pour la suite, alors...
10:21 Ils ne discutent plus avec les mêmes personnes.
10:23 Ils ne discutent plus avec les mêmes personnes.
10:24 Ce n'est pas tout à fait pareil de discuter avec un gamer qui va acheter sa petite carte,
10:29 qui valait quand même, ça pouvait valoir 2000 euros.
10:31 Ah oui, oui.
10:32 Ah, puis ils ont créé une marque dès le départ.
10:34 Oui, dès le départ.
10:36 Mais, c'était apprendre ou à laisser.
10:39 Quand on fait du B2C, du Business to Customer, quand on va vers le client final,
10:42 c'est apprendre ou à laisser.
10:44 Là, on parle à 5, quasiment les 5 plus grosses sociétés mondiales.
10:49 On a affaire à des professionnels.
10:51 On parle de milliards d'investissements.
10:53 Il y a 10 avocats, un contrat de 300 pages.
10:57 On va voir la page 247, si elle a ni l'année A5.
11:00 Est-ce qu'on est bien d'accord ?
11:02 La question, c'est qu'aujourd'hui, tous ces cloud providers se sont dit
11:06 qu'il faut qu'on investisse tout de suite, qu'on soit les premiers.
11:08 Ils ont tout commandé.
11:12 Ils ont tout commandé.
11:13 Bien sûr.
11:14 Les capacités financières quasiment illimitées.
11:15 Infinies.
11:16 Pour l'instant, ils avalent tout.
11:17 Résultat, personne d'autre ne peut en avoir.
11:20 Ça a fait monter les prix puisque Nvidia fait des marges de 70 %,
11:24 des marges absolument exceptionnelles.
11:26 Le risque, maintenant, c'est que pour justifier ces investissements,
11:31 il va falloir qu'il y ait une utilisation qui aille avec.
11:34 Ils ont fait des stocks, vous dites ?
11:37 Ils ont équipé les data centers.
11:40 Ils vont utiliser leur logiciel d'intelligence artificielle à eux,
11:44 mais ils vont aussi l'ouvrir pour toutes les startups qui veulent entraîner des modèles
11:48 et qui vont louer du temps de calcul à l'heure.
11:51 On va voir s'il y a de la demande.
11:54 A priori, il y a beaucoup de demandes et beaucoup de capital.
11:56 Si vous êtes une startup d'intelligence artificielle aujourd'hui,
11:59 vous ne vous faites pas financer par du capital risque
12:02 si vous n'avez pas garanti du temps de location de cartes graphiques
12:07 et de data center, ça va avec.
12:10 Mais Microsoft va sortir son copilote le 1er novembre.
12:15 Maintenant, c'est tout prêt.
12:17 C'est un produit de Microsoft.
12:19 Ils ont utilisé ChatGPT.
12:21 C'est une adaptation de ChatGPT à la suite Microsoft Office.
12:25 Là, ça va être un peu, je ne dirais pas le moment de vérité,
12:28 mais il ne faut pas que ça déçoive.
12:29 Si ça déçoit, tout le monde va se dire qu'on va aller moins vite que prévu.
12:32 Bien sûr, mais on est dans la...
12:35 D'où la question, parce qu'il nous reste 30 secondes, Nicolas.
12:38 450 dollars ou 455 dollars pour le cours de bourse d'NVIDIA au moment où on se parle.
12:44 C'est cher, c'est pas cher.
12:45 Comment vous avez géré la position chez Clartent ?
12:47 Nous, on en avait acheté à la fin de l'année dernière.
12:51 Ça a très bien marché, mais on n'avait pas prévu l'explosion.
12:54 Donc, on se retrouve avec un...
12:55 Pas dans cette ampleur.
12:56 Pas dans cette ampleur.
12:57 On avait prévu que ça montrait, mais pas dans cette ampleur.
12:59 Donc là, on se retrouve avec un titre où en fait, les risques sont...
13:02 Ça peut aller des deux côtés.
13:04 À 10 ans...
13:05 C'est ce que vous disiez, on peut avoir des petites...
13:07 Si jamais les trajectoires commerciales ne sont pas linéaires telles qu'on l'imagine...
13:12 Tout le monde s'est tellement excité dessus que s'il y a la moindre déception,
13:15 ça peut tout de suite être -10, -15, -20 le lendemain matin.
13:19 Donc du coup, nous, on a fortement allégé nos positions, on a pris nos gains,
13:23 mais pas parce qu'on n'aime pas la franchise et qu'on l'adore.
13:25 On va continuer à l'adorer, on reviendra probablement sur le titre.
13:28 Mais simplement, on trouve que le rapport risque/rendement espéré,
13:34 il est beaucoup plus équilibré que ce qu'il était avant,
13:36 et voire on en a des meilleurs dans d'autres équipés à côté.
13:39 Je comprends.
13:40 C'est quoi là ? Il y a 6-9 mois d'incertitude, vous dites, pour le cours de bourse.
13:43 Je parle du cours de bourse d'année qui vient.
13:44 En fait, on verra. Il faut voir.
13:45 Il n'y a pas de loi.
13:46 On va voir les événements.
13:47 Moi, l'événement que j'attends, c'est comment Copilot 365 va être accueilli.
13:54 Parce que si ça fait un flop, ou si les gens se disent
13:57 "Ah, mais c'est plus compliqué à utiliser que ce que j'avais prévu",
14:00 là, ça va refroidir temporairement, ça va refroidir les gens.
14:05 Et après, ça reviendra.
14:06 C'est l'histoire d'une révolution.
14:07 On va suivre ça avec intérêt.
14:09 Merci beaucoup Nicolas.
14:10 Merci d'avoir détaillé pour nous l'histoire d'NVIDIA
14:13 et le cas d'investissement aujourd'hui.
14:15 Nicolas Descaultes, gérant chez Carton Associé,
14:17 qui est avec nous l'invité de ce dernier quart d'heure de Smart Bourse ce soir.
14:20 [Musique]

Recommandations