SMART TECH - Emission du lundi 15 janvier

  • il y a 9 mois
Lundi 15 janvier 2024, SMART TECH reçoit Éric le Bourlout (Journaliste tech & conseiller éditorial) , Athénaïs Oslati (fondatrice, Ontbo) , Pascal Jarde (fondateur, Encaps) , Nicolas Gaudemet (directeur de l'IA, Onepoint) et Alain Staron (président cofondateur, Artifeel)

Category

🗞
News
Transcription
00:00 [Musique]
00:08 Bonjour à tous, bienvenue dans Smartech.
00:10 On va regarder ce qui a fait le show au CES de Las Vegas,
00:14 ce grand événement qui réunit tout ce qui se fait de mieux,
00:16 paraît-il, sur la planète tech, en matière de technologies, d'innovation,
00:21 pour le grand public, évidemment.
00:23 Ce sera notre grand débrief.
00:25 On aura aussi la chance d'être connectés avec des startups
00:28 qui, au moment où nous enregistrons cette émission, sont encore sur place.
00:32 Donc sans plus attendre, on va leur donner la parole, parce qu'il est très tard pour eux.
00:35 [Musique]
00:39 Alors vous allez le voir au décor derrière mon premier invité.
00:42 Il est à Las Vegas, il est à peu près 5h30 du matin au moment où je l'interroge.
00:47 On est en plein milieu de semaine.
00:49 Ce CES 2024 est-il un bon cru ?
00:52 Vous allez nous le dire, Pascal Jart, comment ça se passe pour vous.
00:55 Vous êtes le fondateur de NCAPS, une startup montpellierenne
00:59 qui propose des outils et des solutions aux entreprises
01:01 pour qu'elles se préparent à l'implémentation du passeport numérique de produits.
01:06 On va expliquer de quoi on parle ensemble,
01:09 mais avant je voulais avoir un petit peu votre sentiment sur cette édition du CES 2024.
01:14 Alors pour l'instant, on est ravis, on est vraiment comblés.
01:19 On a eu la chance de recevoir de très nombreux prospects
01:23 qu'on espérait avoir sur notre stand,
01:26 beaucoup de passages et on peut le considérer,
01:28 beaucoup de passages de qualité, donc très important.
01:31 Pour l'instant, ravis.
01:33 Ok, super. Alors on en vient au sujet.
01:35 Ce passeport numérique pour les produits,
01:38 ça va être bientôt une obligation en quelque sorte,
01:41 puisqu'il y a une réglementation européenne qui incite,
01:44 en tout cas à davantage de traçabilité sur tous les produits qui sont mis sur le marché.
01:49 Expliquez-nous ce que ça veut dire très concrètement
01:52 de préparer une solution qui va offrir cette transparence sur les produits.
01:58 Oui, c'est d'ici 2026, donc 2026 c'est demain,
02:02 donc on peut considérer que c'est quand même très rapide pour les fabricants
02:06 de devoir implémenter une telle solution.
02:08 Donc on s'est dit chez NCAP que ce serait peut-être opportun
02:12 de créer une plateforme qui permettrait à ces fabricants
02:15 de pouvoir être "compliantes", si on veut le dire à l'américaine,
02:20 de cette nouvelle régulation le plus rapidement possible.
02:23 Donc il s'agit en effet de simplifier tout ce processus,
02:26 parce que la régulation en demandera beaucoup.
02:29 Alors, en demandera beaucoup sur quoi ?
02:32 Sur la manière dont les produits ont été conçus ?
02:35 C'est ça. Donc l'idée c'est de mieux, en tant que consommateur,
02:40 vous permettre de savoir comment ces produits ont été conçus,
02:43 de quoi ils sont composés,
02:45 quel parcours ils ont effectué en termes de dépenses carbone, par exemple.
02:52 Donc en effet, ça incorpore de nombreux aspects
02:57 qu'il va falloir agréger et présenter aux consommateurs de manière simplifiée.
03:01 Oui, et alors là on a une image qui s'affiche,
03:04 donc tout ça, ça va passer par la technologie toute simple du QR code ?
03:08 Alors, on a inventé un QR code qui est breveté,
03:12 un QR code augmenté, c'est-à-dire que ce n'est pas un simple QR code.
03:15 Le QR code que vous voyez à l'écran ne sert qu'à rediriger l'utilisateur,
03:19 puisque le QR code c'est fait pour ça à l'origine,
03:21 rediriger l'utilisateur vers une page web.
03:23 Ensuite, vous avez un code propriétaire qui l'entoure,
03:26 qui lui est beaucoup plus sécurisé,
03:28 parce qu'un QR code ça peut se pirater assez facilement.
03:31 C'est ce que j'allais vous dire.
03:33 Donc nous, comme on veut intégrer de la valeur dans ce tag,
03:38 on a donc dû inventer ce système qui sécurise bien plus le QR code en l'augmentant.
03:44 Mais c'est-à-dire qui sécurise bien plus, comment ça fonctionne,
03:47 qu'est-ce que vous employez comme technique,
03:48 est-ce que vous utilisez la blockchain notamment pour sécuriser
03:52 cet ensemble de données qui raconte l'éco-conception du produit ?
03:58 Voilà, il y a plusieurs niveaux de sécurité.
04:01 Imaginez que vous fabriquez un million de vélos électriques.
04:05 Ces vélos électriques, vous allez apposer un tag dessus.
04:09 Si c'est un simple QR code, un pirate pourrait déterminer à l'avance,
04:13 alors même que vos vélos ne sont pas encore distribués,
04:16 il pourrait les deviner.
04:18 Vous voyez ce que je veux dire ?
04:19 Donc là, avec ce cap-stack, déjà il est impossible de deviner le tag
04:22 avant que le vélo soit mis en circulation.
04:24 Donc ça, c'est un premier niveau de sécurité.
04:26 Le deuxième niveau de sécurité, vous venez de l'employer,
04:28 c'est-à-dire où est-ce que l'on héberge cette donnée.
04:31 Et la donnée aujourd'hui avec Ncaps, on peut l'héberger nous-mêmes,
04:34 on peut l'héberger sur le blockchain quand c'est pertinent,
04:37 parce que ce n'est pas pertinent pour tous les produits.
04:40 Et évidemment, vous pouvez continuer, vous en tant que fabricant,
04:42 de l'héberger par vous-même,
04:44 et on crée un pont très sécurisé entre notre infrastructure et la vôtre.
04:47 Alors, une dernière question,
04:49 puis après je vais vous laisser aller vous coucher, vu l'heure qu'il est.
04:52 Cette future réglementation qui s'appelle Digital Passport Product,
04:56 ils en ont entendu parler, les Américains ?
04:59 Alors, pour une fois, on peut considérer qu'on est en avance en Europe,
05:03 et du coup c'est un des aspects aussi qui nous a poussés à venir à Las Vegas,
05:06 c'est d'évangéliser cette solution,
05:09 parce qu'on pense que certes, c'est une contrainte,
05:12 et qu'en tant qu'Américains, si vous voulez vendre des produits en Europe,
05:15 vous allez de toute façon devoir suivre cette réglementation,
05:18 mais en même temps, c'est quand même bon pour la planète,
05:21 et que du coup, peut-être que vous devriez suivre ce mouvement.
05:25 Donc, vous faites de l'évangélisation sur la réglementation européenne à Las Vegas ?
05:30 Exactement, et en même temps, il faut leur montrer que c'est une contrainte,
05:35 c'est une contrainte, mais on peut, en le faisant intelligemment,
05:38 et notamment avec notre solution, en faire une opportunité.
05:41 Ok, merci beaucoup Pascal Jarre, fondateur de NCAPS.
05:45 On vous laisse retourner à vos activités à Vegas.
05:49 Et puis, autour de la table, pour commenter tout ce qui se passe là-bas,
05:53 Eric Le Bourloux, journaliste tech, conseiller éditorial,
05:56 Alain Staron, président cofondateur d'Artifil,
05:59 et Nicolas Godmet, partenaire en charge des industries créatives,
06:02 responsable de l'IA chez OnePoint.
06:04 Bonjour à tous les trois.
06:06 Je me disais, tiens Alain, ça ferait quand même une première réaction,
06:08 parce qu'on vient d'entendre la traçabilité qui va être imposée sur les produits,
06:12 les produits comme ceux d'Artifil.
06:15 Vous vous y préparez ? Au passeport numérique de votre produit ?
06:18 Je suis très très content d'être venu là, parce que je n'en avais jamais entendu parler.
06:20 Eh bien oui, mais c'est la magie de la réglementation européenne, ça Alain.
06:23 On va s'en occuper d'autant plus, parce qu'effectivement, on nous demande toujours...
06:26 Vous publiez le 30 mars 2022.
06:28 Oh zut, bien tard.
06:30 Mais la mise en œuvre ne démarra qu'à partir de 2026,
06:33 ça vous laisse encore un petit peu de temps.
06:35 Très bien. Un siècle.
06:37 Alors on va commencer par vous. Qu'est-ce que vous avez repéré d'intéressant au CES 2024 ?
06:42 Vous connaissez mon dada pour les voitures autonomes ?
06:44 Oui, pour les voitures tout court d'ailleurs.
06:46 Oui, mais autonome en particulier.
06:48 J'ai trouvé la poussette autonome.
06:51 Oui, alors il faut conduire beaucoup plus prudemment une poussette.
06:54 Ah non, mais justement, c'est mon grand débat quand je vais à la publicité,
06:57 c'est qu'une poussette autonome, je m'attends à ne pas avoir à la pousser.
07:00 Et la publicité dit "tu ne la pousses pas quand tu portes le bébé".
07:03 Oui, mais si tu portes le bébé, c'est fatiguant.
07:05 Alors là, on dit "c'est très simple, vous portez le bébé, la poussette marche à vos côtés".
07:09 C'est probablement parce que quelqu'un en conseil de communication leur a dit
07:12 "il ne faut pas laisser un bébé tout seul dans une poussette autonome".
07:15 Mais dans la vraie vie, ce n'est pas ça qui va se passer.
07:17 Pour expliquer, c'est une poussette dotée de capteurs
07:20 qui lui permettent de détecter les obstacles,
07:23 qui permet aussi à la poussette de nous suivre,
07:26 de s'arrêter quand on s'arrête et tout ça.
07:28 Et on a une vidéo de démonstration, je ne sais pas si on va la voir,
07:31 mais effectivement, à chaque fois, on se sert de cette option autonome
07:36 quand on a notre bébé dans les bras
07:38 et qu'on n'a plus les mains disponibles pour gérer notre poussette.
07:41 Vous êtes en face de poussette en ce moment, Aline ?
07:44 Non, pas.
07:45 Ça vous intéresse à ce point-là ?
07:46 Non, mais ça pourrait un jour, on ne sait jamais.
07:48 Oui.
07:49 Non, mais en fait, ce qui est intéressant, c'est que ça fait à la fois le lien
07:52 entre, on a vu les Segway, les monoroues,
07:55 et puis même les monoroues qui pour l'instant,
07:57 ou les bi-roues, mais l'un à côté de l'autre,
07:59 qui vous suivent quand vous êtes à côté.
08:01 Vous savez, quand vous allez sur tournage, vous n'avez pas le droit de rouler.
08:03 Et bien, vous marchez, le machin vous suit à côté
08:05 sans avoir besoin de venir nous pousser.
08:07 Donc là, c'est pareil dans la poussette,
08:08 elle marche à côté de vous quand vous portez le bébé.
08:10 Quand même, elle est activée avec son moteur,
08:12 qu'il y a une côte et le bébé est dans la poussette.
08:14 Ou il y a une aide à la poussée de la poussette.
08:16 Bébé dans la poussette.
08:18 Et puis il y a un moteur qui commence à rouler,
08:20 donc on n'est pas loin du vrai truc qui est
08:22 le bébé est autonome dans sa poussette.
08:24 - Vous l'aviez repéré aussi, cette Glux Kid Ella ?
08:27 - Pas du tout.
08:29 - Ils ne sont pas en phase bébé.
08:31 - Figurez-vous que cette émission, je la prépare avec Lily Zalkind,
08:34 elle l'avait repérée également.
08:36 Comme quoi, il y a peut-être un marché.
08:39 - Il y a peut-être un bébé dans l'air.
08:41 - Bon, autre chose Alain ?
08:44 - Oui, c'est mon deuxième dada.
08:46 C'est dans ce monde de brut avec des fake news partout.
08:49 Si on ne se fait pas aider, on ne pourra plus décoder le monde.
08:52 Et donc, vous avez parlé de "Human" l'autre jour.
08:55 Maintenant c'est "Rabbit" qui fait à peu près la même chose.
08:57 C'est un petit boîtier qui capte tout ce qui bouge,
08:59 qui évidemment vous entend et qui décode pour vous ce qui se passe.
09:02 Alors ça, c'est plutôt moi qui projette ce que j'ai envie que ça fasse.
09:05 En gros, c'est de l'IA générative embarquée dans un petit objet
09:09 qui vous aide à converser avec le monde extérieur.
09:12 Mais un, c'est un objet.
09:16 Deux, il a suffisamment de capteurs.
09:18 Il a un fisheye, un rabbit eye, il a ce qu'il faut.
09:21 Et trois, il peut aussi non seulement écouter ce qu'on dit
09:25 et aller chercher sur Internet.
09:26 Il peut regarder ce qu'il y a autour de nous,
09:28 décoder par ce qu'il peut trouver
09:30 et nous renvoyer une information pure, expurgée, non biaisée.
09:35 - Non biaisée, alors là, je ne sais pas ce qui vous fait dire ça Alain.
09:39 - Aujourd'hui, ça n'existe pas.
09:40 Mais c'est le moyen qui permet à ça d'exister.
09:43 Donc je trace très précisément tous les objets qui font ça,
09:47 qui sont notre décodeur d'un monde réel
09:49 qu'on ne va plus pouvoir décoder avec nos sens
09:51 parce que la techno est là pour biaiser nos sens.
09:53 Donc si on fait confiance à nos sens, on ne va plus y arriver.
09:56 - Moi, je suis très sceptique vis-à-vis de ces objets,
09:58 mais je sais qu'Eric l'avait repéré aussi ce rabbit.
10:01 - C'est en fait le produit qui m'a le plus emballé dans le CES.
10:06 - C'est dingue ça.
10:07 - Pourquoi c'est vachement intéressant ce truc-là ?
10:09 Parce que l'un des concepteurs de ce produit,
10:11 c'est un gars qui s'appelle Jesse Liu, je crois.
10:13 Et je pense qu'on entendra de nouveau parler de lui dans les années qui viennent.
10:16 C'est un gars assez brillant qui a bossé notamment pour Teenage Engineering,
10:19 qui est une petite boîte de hardware qui sait faire d'excellents produits très bien finis.
10:24 Et ce produit, il est très bien fait d'ailleurs.
10:26 Ça se voit au premier abord.
10:28 C'est un produit qui est bien fait
10:30 et il a été fait par Teenage Engineering d'un point de vue hardware.
10:33 Pourquoi c'est intéressant ?
10:34 Parce qu'en fait, c'est effectivement, comme vous le disiez,
10:37 c'est un produit qui permet de rendre tangibles chat GPT ou des LLM comme on les connaît aujourd'hui.
10:44 Mais ils n'ont pas fait que ça.
10:46 Ils n'ont pas juste mis chat GPT dans un produit,
10:49 alors qu'on peut déjà l'avoir sur un smartphone.
10:51 - C'est ce que j'allais dire, il y a déjà un produit tangible, ça s'appelle le smartphone.
10:54 - Et d'ailleurs, ils le disent très bien,
10:56 ils disent "attention, ce n'est pas un truc qui remplace le smartphone"
11:00 comme on l'a déjà vu, notamment avec le AI pin de, je ne sais plus le nom de la boîte,
11:05 mais bon, qu'on aura déjà oublié.
11:07 - Human, non, on ne l'aura pas oublié.
11:08 - Non mais Human, la démo était super jolie, ça faisait un design très à la Apple,
11:12 enfin, qu'est-ce qu'il y a derrière ?
11:14 - Ça ne marchera jamais, il y a un vidéoprojecteur, c'est inutile.
11:17 Bref, la différence avec ce truc-là, c'est qu'ils ont vraiment fait un travail sur à quoi ça peut nous servir.
11:25 Et en fait, ce qu'ils ont fait, c'est qu'ils ont entraîné un autre modèle,
11:28 qu'ils ont conçu de leur propre main,
11:30 à apprendre à utiliser toutes les applications que nous, on utilise.
11:33 Par exemple, ils ont mis un humain devant, qui s'est mis à utiliser Spotify, par exemple,
11:42 en essayant toutes les fonctions de Spotify, et ça a été analysé par leur modèle.
11:46 Ils ont fait la même chose pour Uber, pour plein de services en ligne,
11:49 ce qui permet ensuite que la machine comprenne à la voix une action sur une application.
11:56 Vous pouvez par exemple lui demander "mets le volume plus fort sur Spotify",
11:59 "change de chanson", "fasse autre chose".
12:01 - Tout ça, toute cette intelligence logicielle, on peut l'avoir pour son smartphone ?
12:05 - Pas pour l'instant, en fait.
12:07 - Pas pour l'instant, mais là non plus, pas pour l'instant dans le rabit, parce qu'il faut que ça fonctionne.
12:10 - C'est un petit peu comme un zapieur, je ne sais pas si vous connaissez cet appli,
12:13 appliqué à l'intelligence artificielle.
12:16 Donc c'est un peu comme si vous aviez un zapieur,
12:18 c'est-à-dire une espèce de service qui peut automatiser des tâches à la chaîne, par exemple.
12:24 - Pourquoi est-ce qu'on a besoin d'un matériel ? Moi, c'est ça mon interrogation.
12:26 - Alors effectivement, il pourrait très bien développer une application pour smartphone,
12:31 mais son idée, il est parti de ça d'ailleurs en disant
12:35 "on doit se passer des applications", parce que les applications sont silotées.
12:39 À partir du moment où on utilise une application, on va aller par exemple sur le service de kayak au hasard,
12:43 et donc on va utiliser tous les services de kayak, et puis après on doit passer une autre application.
12:46 Son device, il l'a conçu pour qu'on n'ait plus à se soucier des applications,
12:50 mais qu'on puisse dire "fais-moi un voyage à New York",
12:53 et donc là il va aller chercher automatiquement sur kayak, puisqu'il sait comment fonctionne kayak.
12:57 Ensuite, il va aller chercher sur Booking pour savoir comment il peut réserver un hôtel.
13:02 - Voilà, c'est le principe de la super app.
13:04 - C'est une super app, en fait.
13:05 - C'est une super app, donc c'est du logiciel, donc ça pourrait arriver dans nos smartphones.
13:09 Pourquoi est-ce qu'on a besoin d'un petit matériel supplémentaire qui va se rajouter dans nos poches, dans nos sacs ?
13:14 - Non, mais parce que déjà...
13:15 - C'est parce que c'est juste pour le business model.
13:17 - Non, pour capter, le capteur d'image n'est pas le même.
13:20 Sur un smartphone, pour prendre des photos, il faut tourner dans une certaine position.
13:23 Ce n'est pas fait pour ça. C'est fait pour des selfies, prendre des photos.
13:26 Ce n'est pas fait pour capter le monde qui nous entoure, ce que fait Rabbit.
13:29 - En fait, on ne sait pas trop à quoi il va servir le capteur d'image pour l'instant.
13:33 Mais par contre, ce qui est intéressant, c'est aussi que c'est un smartphone.
13:38 Il a dit que c'est un compagnon supplémentaire, et surtout, ce n'est pas cher.
13:41 Alors, ce n'est pas cher, ça vaut 200 dollars.
13:43 - Oui, d'accord.
13:44 - Ça vaut 200 dollars.
13:45 - En plus de...
13:46 - Pour un smartphone, ce n'est vraiment pas cher.
13:48 - Ce n'est pas cher.
13:49 - Et d'ailleurs, il est sold out.
13:50 - En plus, on ne peut pas se passer de son smartphone.
13:52 - Je ne suis pas sûr.
13:53 À partir du moment où le smartphone ne vous a plus servi pour téléphoner, mais pour utiliser des applis,
13:57 ce machin permet de remplacer l'usage de toutes les applis.
13:59 - On va encore un petit peu compter les phonés quand même.
14:01 - On ne va pas dire que ça va remplacer le smartphone, c'est sûr.
14:03 En revanche, ce n'est pas cher.
14:04 Et d'ailleurs, ça a été sold out en une journée.
14:07 - Oui.
14:08 - Alors, il a mis 10 000 unités.
14:09 - Moi, je pense que c'est le côté lapin qui vous plaît, Eric LePoet.
14:11 - Mais ça n'a pas été le cas du human pin.
14:13 - Oui, mais il est à 1 000 dollars.
14:18 - Oui, 700.
14:19 - La version plaquée, c'est à 1 000 dollars.
14:21 - On a un chef IA ici en plateau.
14:23 Nicolas, votre avis sur ces nouveaux appareils qui surfent quand même sur la vague Tchadjé-Pété
14:30 et ces IA qui comprennent notre langage naturel ?
14:33 - Juste pour répondre, la promesse évoquée par Alain,
14:37 qui est de lutter contre un monde de désinformation, de post-vérité,
14:40 je pense qu'elle est de plus en plus importante.
14:42 Il y a Davos qui a fait son rapport annuel des risques mondiaux 2024
14:46 et le premier risque, c'est la désinformation.
14:48 Une année où on a 2 milliards de gens qui vont aller voter,
14:51 notamment aux États-Unis, en Europe avec les élections européennes
14:53 et ce week-end à Taïwan.
14:55 Donc, en tout cas, le sujet est important.
14:58 - Oui, mais la lutte contre la désinformation, on ne va pas passer par du petit matériel de soutien.
15:03 - Mais en tout cas, l'objectif est louable.
15:07 Moi, ce que je note à Las Vegas, c'est qu'on a de l'IA un peu partout
15:13 qui s'immisce dans des objets, dans des apps, dans des services.
15:19 Donc, on le voit dans des poussettes, on le voit dans des petits lapins,
15:22 on le voit dans des voitures. - Dans des alarmes !
15:25 - Volkswagen qui va intégrer GPT, Tchadjé-Pété, sous forme de voie dans les voitures.
15:33 Donc, c'est quelque chose qui est en train d'arriver.
15:35 Et moi, ce que j'ai noté, c'est Microsoft qui a fait une annonce qui paraît anodine,
15:41 c'est-à-dire que les nouveaux claviers des PC qui marchent avec Windows
15:46 auront une nouvelle touche qui va être une touche copilote.
15:49 Et ça paraît anodin, mais en fait, c'est une révolution absolue
15:53 parce que la dernière fois qu'il y a eu une nouvelle touche sur un clavier de PC,
15:56 c'était il y a 30 ans, en 1994, pour Windows.
15:59 C'était la touche Windows démarrée.
16:01 Et bien voilà, donc la révolution de l'IA générative, elle est telle
16:05 qu'on arrive à avoir un nouveau clavier avec une touche d'IA générative
16:10 qui est copilote, qui permettra d'appeler tous les outils copilote de Microsoft.
16:13 Ils en mettent partout, d'ailleurs on s'y perd un peu parfois,
16:15 parce que c'est dans le plating system, c'est dans Word, c'est dans Office.
16:19 - Et donc ça va arriver aussi dans le bloc notes, j'ai vu.
16:22 - Ça arrive un peu. - Oui, Eric ?
16:24 - Non, ça arrive sur toutes les applications de Microsoft, effectivement.
16:27 - Est-ce qu'on peut se réjouir de ça ? - Oui !
16:30 - Non. - J'aime bien l'enthousiasme d'ailleurs.
16:33 - Pour Microsoft, on peut se réjouir. - Non, je ne sais pas, moi je ne suis pas sûre
16:35 d'avoir envie d'avoir l'IA dans mon bloc notes, par exemple.
16:38 - Si on utilise Microsoft comme une aide à faire des choses,
16:44 donc c'est qu'elle passe à un outil de développement en personnages,
16:47 je vais peut-être un peu forment, enfin, ça m'aide à écrire.
16:49 J'ai Word, c'est plus facile à écrire qu'avec du papier et un crayon.
16:52 Bien. Ajouter ces outils-là m'aide à écrire mieux,
16:55 à faire mieux des tableaux Excel, à faire mieux des présentations.
16:58 Et donc c'est un accélérateur de mon développement personnel.
17:01 Donc oui, c'est très bien.
17:03 Et c'est fermé, c'est-à-dire que c'est Microsoft pour Microsoft.
17:06 - C'est vrai que ça a pris du temps. J'ai l'impression qu'on n'en fait pas beaucoup moins.
17:09 - En tout cas, l'IA n'en fait pas.
17:12 Peut-être qu'on a eu du mal à la recopier.
17:14 - Donc voilà, dans le cas de Microsoft qui est fermé,
17:17 qui n'est pas à vocation mercantile et publicitaire, oui.
17:21 - En tout cas, ce qui est intéressant, ce qu'on a vu au CES,
17:24 c'est vrai que j'y pensais aussi à cette touche copilote qui a été lancée sur les PC.
17:29 Ce qui s'est passé aussi au CES, c'est qu'on a vu les premiers PC,
17:32 ce que Intel appelle les PCIA,
17:35 avec une série de puces qui s'appelle Core Ultra,
17:38 qu'ils ont lancées le mois dernier.
17:40 Et on a vu là les premiers PC arriver avec cette touche
17:43 et ces nouveaux Core Ultra d'Intel.
17:47 C'est intéressant parce que, pour l'instant, ça ne sert pas à grand-chose en vrai.
17:51 Ces nouveaux PCIA, ça sert à améliorer les fonds d'écran
17:56 quand on fait une visio, des choses comme ça.
17:58 Mais en fait, il y a quand même une table ronde
18:01 avec tous les grands patrons du PC là-bas à Las Vegas qui le disaient clairement.
18:05 Ça servira demain, ces puces-là, pas de cette génération sans doute,
18:08 parce qu'elle n'est pas assez performante, mais dans 2-3 ans,
18:10 à faire tourner carrément des modèles sur son propre ordinateur.
18:14 Et ça, c'est aussi une révolution qui va arriver là, à partir d'aujourd'hui.
18:18 C'était un petit peu le top départ à ce CES de ces PCIA.
18:21 Et c'est une tendance de fond.
18:23 C'est-à-dire que là, on parle des PC.
18:24 Effectivement, ça peut contribuer à renouveler le marché du PC
18:27 dans les mois et les années qui viennent.
18:29 Qu'est-ce qu'on va en faire, le fait de faire tourner ces modèles IA sur nos PC ?
18:31 Mais pas que sur les PC.
18:32 En plus, c'est dans tous les objets.
18:35 La tendance de fond, c'est que, plutôt que d'avoir des modèles absolument énormes
18:39 qui tournent dans le cloud et il faut être tout le temps connecté,
18:42 on va avoir des modèles qui sont plus compacts.
18:45 C'est tous les travaux d'open source de Mistral AI, par exemple,
18:48 avec Mistral 7b, etc., qui sont plus petits.
18:50 Ou Meta aussi.
18:51 Les travaux de Meta, il y a bien plein d'autres.
18:54 Et donc, ces modèles vont être embarqués dans des terminaux
18:59 qui seront moins puissants que toutes les machines qu'on a sur le cloud
19:03 pour avoir de l'IA à proximité, en déconnexion.
19:07 Et donc, c'est pour ça qu'on peut avoir de l'IA dans sa poussette,
19:09 qu'on peut avoir de l'IA dans sa télé aussi.
19:11 Il y a Samsung qui a fait des annonces de l'IA partout.
19:13 Ils ont fait une conférence de presse, une communauté de presse de l'IA partout.
19:16 Et effectivement, on a de l'IA dans sa télé
19:18 pour des cas d'usage qui vont être de l'upscaling, par exemple,
19:20 pour améliorer la qualité, pour passer en 8K de façon automatique
19:24 sur des images reçues par le téléviseur,
19:26 ou tout simplement pour traduire de façon instantanée
19:29 en langage des signes.
19:32 Voilà, donc, ces modèles plus petits vont être embarqués dans les terminaux.
19:37 Et puis, on va aussi observer l'essor de ce qu'on appelle de l'IA fédérative,
19:41 c'est-à-dire qu'on peut avoir des modèles qui vont être assez gros,
19:44 mais qui vont être distribués sur plein de terminaux différents.
19:47 Et ils vont être entraînés petit par petit.
19:49 Samsung travaille beaucoup là-dessus.
19:51 Ce qui fait que vous allez entraîner un modèle avec vos données personnelles,
19:55 mais elles vont rester dans votre téléphone.
19:56 Et le modèle complet, ça va être la constitution de tous les téléphones de tout le monde.
19:59 C'est très exactement ce qu'on fait dans nos alarmes.
20:02 Chaque alarme a son modèle particulier à l'Edge.
20:05 Et on a un super modèle dans le Cloud.
20:07 Et la bonne nouvelle, c'est que ça permet d'être spécialisé par objet.
20:10 On dit que c'est des petits modèles, mais ça a l'air d'être comme ça à moins dix ans.
20:13 Mais spécialisé, c'est que c'est plus fort qu'un modèle général, à la fin.
20:17 En tout cas, c'est beaucoup plus efficace.
20:18 Et c'est d'une façon plus efficace, oui.
20:20 Ça consomme moins d'énergie, ça coûte moins cher,
20:22 et c'est "affiné", "faduné" pour une tâche spécifique.
20:26 Donc, c'est très bon dans ce conduit.
20:28 Des esseins d'IA autonome à l'Edge.
20:30 Eric, qu'est-ce que vous avez repéré d'autre ?
20:32 Plusieurs choses, mais j'ai envie de parler quand même des écrans.
20:35 Parce que, bon, je n'étais pas au CES cette année, mais j'y ai été de nombreuses fois.
20:39 Les télétransparentes ?
20:41 Eh oui, mais exactement, les télétransparentes !
20:43 Un oxymore !
20:45 L'aquarium virtuel !
20:46 Je ne vais pas vous dire ici que c'est la technologie géniale qui va tout réinventer.
20:50 Les télétransparentes au CES, je suppose que vous êtes tous allés au CES.
20:54 On en voit depuis à peu près quinze ans, chaque année, au CES.
20:59 Et pourquoi on les voit ?
21:01 Parce que des Samsung Display, des LG Display veulent montrer l'état de l'art de leur technologie,
21:06 tout ce qu'ils savent faire.
21:08 Et donc, montrent aux visiteurs ébahis du CES des télétransparentes.
21:12 Parce que ça fait très très beau dans le salon du CES, c'est impressionnant, etc.
21:17 La différence, c'est que cette année, LG a décidé de commercialiser une télévision à écran transparent.
21:25 Sous sa gamme signature, sa gamme signature d'LG, c'est un peu des télés un petit peu plus surprenantes d'un point de vue du concept.
21:33 Mi-2024, la commercialisation.
21:37 Je ne suis pas certain du succès de cette technologie,
21:43 parce qu'effectivement, il faut avoir un cas d'usage très particulier.
21:46 J'ai du mal à m'imaginer dans quel cas ça pourrait être vraiment superbe,
21:52 à moins qu'on veuille vraiment montrer qu'on a la dernière tech.
21:56 - Là, dans le cadre des images que l'on regarde, tu vois Eric, ton salon a une toute autre vie.
22:00 - Oui, il faut habiter dans un gratte-ciel à New York, mais oui, effectivement.
22:04 Non, non, mais j'ai du mal à croire que c'est autre chose qu'une performance technologique et que ça va cartonner.
22:11 En revanche, oui, c'est très joli quand on voit les images du CES.
22:15 Mais ça a beaucoup fait parler.
22:18 Il y a eu beaucoup d'articles de presse au sujet de ces télétransparentes,
22:21 mais j'ai envie de dire que c'était un petit peu le cas, comme chaque année.
22:24 - Oui, en même temps, c'était historiquement le salon de la télé.
22:27 - C'est le salon de la télé. Il y a eu d'autres améliorations sur les dalles télé,
22:31 que ce soit chez Samsung ou chez LG, qui ont été annoncées au CES.
22:35 Il y a eu beaucoup de choses. Sony a bizarrement été beaucoup plus discret.
22:38 Mais il y a eu des améliorations mineures qu'on verra arriver sur les télés,
22:43 parce que c'est au CES qu'on voit tous les modèles de dalles qu'on va voir toute l'année.
22:47 - J'ai compris que Sony allait sur le OLED. C'est pour ça qu'ils retirent du QLED et de l'OLED.
22:53 Ils disent "C'est plus pour nous, on a le OLED".
22:55 - Parce que la télé, c'est le troisième Danad à l'instant.
22:57 - Avec les poussettes ?
22:59 - Allez, on va donner la parole. Là encore, on est connecté avec une startup
23:03 qui a fait le déplacement à Las Vegas, Athenaïs Oslaty.
23:08 Est-ce qu'elle nous entend ? Fondatrice de Ombo.
23:13 Bonjour, merci beaucoup d'être connectée avec nous,
23:17 parce que je sais que c'est un effort vu l'heure qu'il est, vu le décalage horaire
23:21 et l'intensité d'un salon comme le CES de Las Vegas.
23:25 Votre startup est spécialisée en neurosciences et en développement de technologies d'intelligence artificielle,
23:30 émotionnelles et non pas génératives.
23:33 Vous parlez de psyché numérique. Qu'est-ce que c'est que ça, le psyché numérique ?
23:39 - Je vais recontextualiser. Ombo, c'est effectivement une IA émotionnelle
23:45 qui permet aux sociétés de mieux comprendre leurs utilisateurs.
23:50 Derrière, on a développé des concepts propres à Ombo, notamment la psyché numérique.
23:54 Aujourd'hui, on est capable, au travers des différentes données qui existent,
23:58 de modéliser informatiquement parlant votre psyché,
24:03 c'est-à-dire des traits de personnalité, des comportements, des besoins,
24:06 pour permettre à toutes ces IA, comme vous l'avez évoqué, de pouvoir s'adapter à qui nous sommes.
24:11 Puisque aujourd'hui, on a des IA qui restent générales, qui vont générer du contenu.
24:16 Et la prochaine étape, la prochaine révolution, c'est ce qu'on appelle des IA émotionnelles,
24:20 des IA qui peuvent s'adapter à nos émotions.
24:23 - Et qu'est-ce que vous captez comme données, qu'est-ce que vous collectez finalement comme données
24:29 pour mesurer notre état émotionnel ?
24:33 - Les données, en fait, que l'on utilise déjà tous les jours.
24:36 Par exemple, la caméra.
24:38 On va détecter vos états émotionnels au travers d'une analyse faciale, physique, comportementale,
24:44 mais également vis-à-vis du timbre de la voix, du son, d'un enregistrement.
24:48 On détecte également au travers d'un style d'écriture, ça peut être avec des chatbots,
24:54 dans un email, le contenu écrit, couplé, bien sûr, à tout ce qui touche à des biocapteurs.
25:01 Derrière, on les utilise notamment dans le domaine du sport pour avoir une compréhension
25:04 beaucoup plus précise des réactions émotionnelles et psychologiques des athlètes de haut niveau.
25:10 - Alors, c'est ce que j'allais dire. Est-ce que vous pouvez nous donner d'autres exemples
25:13 de ces nouvelles expériences qui pourraient nous attendre dans les mois qui viennent ?
25:18 - Bien sûr. Aujourd'hui, nous, on opère vraiment dans quatre grands secteurs.
25:22 Premier secteur, c'est le secteur du sport. Là, on se prépare notamment pour les JO 2024.
25:28 Ce qu'on va faire, c'est qu'on va plonger l'athlète dans un état émotionnel,
25:33 c'est-à-dire que lors d'un entraînement, on va le mettre face à des situations qu'il a déjà vécues
25:37 pour mettre en place son profil émotionnel. Dans un deuxième temps, on va évaluer son profil psychologique.
25:43 Est-ce que c'est un leader ? Est-ce que c'est un suiveur ? Comment est-ce qu'il va réagir
25:46 lorsqu'il est seul face à une cage et qu'il doit tirer un pénalty en finale ?
25:51 Toutes ces informations-là sont importantes pour justement mettre en place sa psyché.
25:56 Le deuxième point, c'est nos algorithmes de prédiction et de recommandation.
26:00 Ici, on vient aider le coach, on vient aider tout le staff technique, sportif,
26:05 pour lui fournir la stratégie, leur fournir la stratégie adéquate pour adapter en temps réel ces stratégies.
26:13 Donc ça, c'est dans le domaine sportif. Ensuite, on est également dans le domaine, ce qu'on appelle du retail,
26:18 plus particulièrement de la beauty tech et du luxe. Ici, l'objectif, il est double.
26:23 Premièrement, améliorer l'expérience client en magasin, mais également en ligne,
26:29 pour avoir une expérience qui soit hyper personnalisée.
26:32 Et le deuxième point, c'est tout ce qui se passe derrière.
26:35 Aider, par exemple, les cosmétiques dans le domaine du parfum à créer un parfum qui nous ressemble.
26:40 Donc, on travaille avec des nez pour sélectionner des flagrances particulières,
26:45 puisqu'on le sait, le parfum suscite un souvenir, une émotion.
26:50 Le troisième secteur, dans lequel nous sommes...
26:53 Excusez-moi, Athénaïs, mais on court après le temps.
26:57 Qu'on comprenne bien, ces IA émotionnelles nous emmènent vers un numérique de plus en plus personnalisé,
27:03 avec des expériences qui s'adressent directement à nous.
27:06 On se dit effectivement que ça peut être extraordinaire en termes d'opportunités
27:09 pour tous ceux qui aiment bien profiler précisément leurs cibles.
27:14 On peut aussi penser que c'est un véritable cauchemar qui se prépare.
27:18 On va remercier Athénaïs Ouslaty qui était avec nous depuis Las Vegas.
27:22 Vous pouvez aller vous reposer. Merci beaucoup d'avoir témoigné.
27:25 Je sais que c'est déjà un beau succès médiatique, en tout cas pour vous, ce déplacement.
27:29 Merci aussi à Éric Lebourlou, Alain Saron et Nicolas Gaudemet
27:33 qui m'ont aidé à commenter cet événement majeur dans le monde de la tech.
27:38 À très bientôt sur BeSmart.
27:40 Et puis vous pouvez nous retrouver également en podcast et en replay.
27:43 [Musique]

Recommandations