• l’année dernière
Mercredi 14 juin 2023, SMART TECH reçoit Cléa Martinet (Directrice du développement durable, Groupe Renault) , Pierre Voineau (Directeur du projet H1st vision, Software République) et Christophe Stern (Président, Stern Tech)

Category

🗞
News
Transcription
00:00 [Musique]
00:18 Alors c'est parti pour 5 jours de Smartech spécial Vivatech.
00:22 On est sur le salon donc de mercredi à dimanche.
00:25 Aujourd'hui, premier jour du salon, grande découverte Stage 1.
00:29 On va aller en découvrir les coulisses.
00:32 On va accéder à ce concept car en première partie de l'émission.
00:36 On verra quels sont ces technos du futur pour la voiture.
00:39 Et puis on regardera aussi plus précisément en deuxième partie
00:42 ce qui a été pensé du côté de la sécurité.
00:44 La sécurité pensée vraiment, vous verrez, au sens très large,
00:47 au sens même du développement durable.
00:50 Voilà pour cette première édition de Smartech en direct de Vivatech.
00:54 [Musique]
01:00 Alors ce matin sur Vivatech One Stage, c'est-à-dire sur la scène principale,
01:04 on a découvert un concept car révolutionnaire.
01:08 Et on a la chance d'être juste à côté de cette voiture.
01:12 Le concept s'appelle Human First Vision.
01:14 C'est une initiative lancée par la Software République.
01:17 Et j'ai eu la chance d'être en compagnie du directeur du projet, Pierre Voineau.
01:21 Peut-être déjà un mot sur la Software République et à l'initiative de Human First Vision.
01:25 La Software République, c'est un consortium de 6 entreprises françaises
01:29 qui se sont réunies depuis 2 ans pour innover avec du software au sein de la mobilité.
01:34 Et donc en fait ce concept car vient porter notre vision du futur de la mobilité
01:37 avec un concept car qu'on voit ici, qui est magnifique,
01:40 ainsi que son jumeau virtuel porté par Dassault Systèmes.
01:43 Bon alors magnifique, magnifique.
01:44 On va voir surtout quelles nouvelles expériences on va pouvoir vivre à travers ce concept car.
01:49 Vous avez des démonstrations à nous faire ?
01:51 Tout à fait parce qu'une des particularités de ce concept car,
01:54 c'est qu'il est le fruit du travail collaboratif de 12 partenaires et 100 personnes pendant 6 mois
01:59 pour concevoir un démonstrateur fonctionnel qu'on peut expérimenter.
02:03 C'est ce qu'on va faire donc ensemble.
02:05 Ok, allons-y. On commence par quoi ? L'ouverture ?
02:07 On commence par l'ouverture, c'est ce qui est le plus naturel.
02:09 Allez-y.
02:10 Donc là vous vous approchez ?
02:14 Oui, je m'approche et le véhicule, sans même détecter de carte, de téléphone ou de clé, va me reconnaître.
02:21 Parce que c'est votre voiture bien évidemment.
02:23 Je me suis enregistré préalablement effectivement.
02:25 Et donc il me reconnaîtra tout d'abord avec ma démarche et ensuite avec mon visage.
02:29 Donc là la démarche, on ne va pas la montrer ici parce qu'on est très restreint en termes de place.
02:33 Donc on passe directement à la deuxième étape avec la reconnaissance spatiale.
02:37 Donc là on voit s'afficher sur l'écran de la voiture, Hélo Pierre.
02:43 Yes.
02:44 Et la voiture vous demande si elle doit ouvrir la porte ?
02:48 En anglais, c'est du "Want to enter".
02:50 Donc cet avatar est projeté grâce à un projecteur de la société française Highlight,
02:55 qui est intégré dans la puitette et qui projete donc un petit avatar qui va nous accompagner durant toute l'expérience.
03:00 On le voit déjà apparaître sur l'écran central.
03:02 Je vous rejoins, on va à l'intérieur.
03:11 Alors j'ai même réussi à trouver le bouton pour ouvrir la voiture.
03:14 Totalement digital.
03:18 Donc là ça ne ressemble pas du tout à un tableau de bord classique, Pierre.
03:22 Non.
03:23 Donc tout de suite l'avatar nous accueille.
03:25 Il me demande si je suis prêt à prendre la route.
03:27 Donc je dis oui.
03:28 Yes.
03:29 Donc là le tableau de bord s'approche, on passe en mode conduite.
03:33 D'accord.
03:34 Et donc comme je l'ai dit, on est sur un concept car qui est fonctionnel,
03:37 avec des expériences vraiment à vivre à l'intérieur du véhicule.
03:40 Donc là il apparaît sur les quatre toggles de la console centrale.
03:43 Parce que vous avez fait le choix de ne pas avoir un grand écran,
03:45 mais plutôt plein de petits écrans pour chaque fonctionnalité.
03:48 Là on a des raccourcis vers notre service.
03:50 En fait on n'est pas en train de faire de projet à cette heure-là.
03:52 Donc chaque innovation sera demain, on espère, un projet qui verra jour chez un constructeur.
03:58 Et pourquoi pas Renault.
04:00 Et donc par exemple là, on est sur le premier élément, c'est sur la santé du conducteur.
04:04 Donc là je vais leur poser en revanche le micro.
04:09 Donc là merci pour le micro.
04:10 Et donc en fait, le véhicule de demain, nous, on pense qu'il va être un petit peu un accompagnateur aussi
04:15 sur notre état de santé en temps réel.
04:16 Donc là on va apparaître sur l'écran central, mon rythme cardiaque, l'électrocardiogramme
04:20 et la variabilité de fréquence cardiaque, qui est là pour analyser le stress, la fatigue
04:24 et anticiper un potentiel moment de faiblesse.
04:27 Oui parce que quand je dis qu'il n'y a pas un grand écran, alors je ne sais pas tout à fait vrai,
04:30 parce qu'en bas du pare-brise, en fait on a vraiment une vision panoramique
04:33 de tout ce que les applications peuvent nous donner comme informations.
04:37 Donc mon état de santé, ça c'est très important pour l'accidentologie.
04:41 On a vu que la fatigue était un facteur important.
04:45 C'est 10 à 20% des accidents mortels sur autoroute sont dus à ces moments de faiblesse.
04:49 Et donc nous, avec un véhicule qui nous connaît, on peut demain anticiper ces moments-là de faiblesse.
04:53 Donc le véhicule a suggéré au conducteur peut-être de faire une petite pause.
04:57 On s'arrêtera et après cet arrêt, on pourra communiquer avec une assistance médicale.
05:01 Et ce véhicule-ci, il est connecté par satellite.
05:04 Donc la connectivité sera assurée partout en France.
05:06 Oui, parce qu'au-dessus de la voiture, en fait, on voit...
05:08 Exactement, c'est une maquette, effectivement.
05:10 Et d'ailleurs, ce matin, quand vous avez présenté le concept CAR sur la scène principale,
05:15 il y a eu la comparaison qui a été faite avec un iPhone, c'est-à-dire en mode rescue,
05:19 s'il n'y a pas de communication terrestre, vous avez recours au satellite.
05:24 Exactement. En fait, on assure comme ça une connectivité, une communication optimale
05:28 et partout en France, partout sur le territoire.
05:30 Ok. Alors qu'est-ce qu'on a d'autre comme petit jouet, là ?
05:34 C'est sûr, c'est plus que des jouets, je pense que c'est des vrais services.
05:38 On a vraiment pris le temps de...
05:39 Là, je vois des pochettes de musique, donc il y a quand même tous les loisirs.
05:41 Alors juste pour terminer la partie santé, on a eu aussi une analyse de nos émotions
05:46 par la sorteuse française Stern Tech, avec son CEO qui est ici présent.
05:49 Et suite à cette analyse des émotions, on va proposer un environnement sonore,
05:53 musical et visuel avec de la lumière en lien avec ce niveau émotionnel.
05:57 Donc effectivement, on passe sur une bulle sonore.
05:59 On a un véhicule qui est, en termes de contenu, exceptionnel au niveau sonore.
06:03 C'était le fruit du travail de STMicroélectronique, de Arcamis
06:07 et des équipes de Jean-Michel Jarre pour le calibrage.
06:10 Et donc on a effectivement, là on voit apparaître les titres de Jean-Michel Jarre,
06:12 on a du son immersif qui est... Alors là on a une porte ouverte, c'est moins fort,
06:15 mais si je lance, c'est assez bluffant. Je lance sur une musique par exemple, je lance celle-ci.
06:19 Super. Vous savez qu'on a reçu Jean-Michel Jarre dans Smartech,
06:22 sur notre spécial mondial de l'auto, et il nous a fait une première,
06:25 il nous a donné un aperçu de à quoi ça pourrait ressembler.
06:28 Donc là, ça y est, c'est concrétisé finalement.
06:30 Exactement, en tout cas c'est concrétisé sur un concept car, effectivement,
06:33 et donc on aura même la chance, pour tout vous dire, en interne,
06:35 il va venir l'essayer lui-même.
06:36 Ah, il va venir ici aussi.
06:37 Parce qu'évidemment la qualité a vraiment plu à son génére du son, donc c'est top.
06:40 Et donc voilà, je pense qu'on peut témoigner que le son est vraiment exceptionnel.
06:44 Et là on a une vue de la voiture, alors ça simule quoi exactement ?
06:48 Ça simule les 16 haut-parleurs présents dans le véhicule.
06:51 D'accord.
06:52 En tout cas les 16 voies, donc il y a un subwoofer, une voie centrale,
06:54 on a deux petits tweeters dans chaque capitette,
06:57 donc en fait ce qu'il fait c'est qu'on n'est pas seulement sur du plaisir,
07:00 on est aussi sur un vrai à toute sécurité.
07:02 Donc là on a une alerte par exemple,
07:04 on simule une ambulance qui approcherait de nous,
07:07 nous sommes en zone d'embouteillage,
07:09 cette alerte là, vous l'entendez pas,
07:11 et allez chez moi.
07:12 Ok.
07:13 Donc en fait c'est seulement dans ma bulle sonore,
07:14 pour ne pas venir déranger l'ensemble de l'habitacle,
07:16 avec une alerte qui est destinée finalement au co-conducteur.
07:19 Voilà.
07:20 On peut peut-être baisser la musique là, juste pour noter les spectateurs.
07:23 Effectivement, je vais l'arrêter.
07:26 Donc ensuite on a une technologie qui reconnaît qui parle dans le véhicule,
07:29 avec un micro central,
07:31 donc en fait on ne va pas la tester là,
07:32 parce que porte ouverte, la technologie ne va pas être aussi optimale,
07:35 mais en fait l'idée c'est de se dire que demain,
07:37 ça fonctionne à la porte fermée, vous recevez un message,
07:39 et moi je ne vais pas forcément me dégoûter,
07:41 vous dites le message est pour moi,
07:42 et va être rediffusé de votre appui tête seulement,
07:45 de la même façon que l'alerte a été diffusée pour moi sur l'ambulance.
07:48 Donc là on a vu deux grands mondes, celui de la santé,
07:51 celui du son,
07:53 et on passe sur là,
07:55 une technologie très mature,
07:58 grâce à une plateforme d'orange,
08:00 Vicar Payment,
08:01 de paiement au volant.
08:03 Donc on se projette dans la ville de demain,
08:05 mais là vraiment quasiment,
08:06 on n'est pas sur l'après-demain,
08:08 on est vraiment très proche en termes de temporalité,
08:10 et en fait on a besoin d'un véhicule qui puisse interagir avec les différents
08:13 fournisseurs de services de la ville,
08:15 que ce soit pour se garer,
08:17 avec la barre de recharge de domicile,
08:20 c'est une application de Renault plug-in,
08:22 qui est au bout du vélo,
08:23 avec la Velov qui est par JCDeco à Lyon,
08:25 donc par exemple si je prends une barre de recharge à domicile,
08:28 automatiquement le chatbot d'orange se réveille,
08:31 et va venir interagir avec le plug-in,
08:33 pour suggérer une durée par exemple,
08:36 je prends admettons deux heures,
08:38 un mode de paiement,
08:39 avec le mobilize wallet,
08:42 une reconnaissance faciale pour vérifier que c'est bien la bonne personne qui paye,
08:45 si c'est bien Pierre qui paye,
08:47 Ah oui donc on voit là le Face ID qui s'active,
08:49 exactement avec la caméra centrale,
08:51 et là c'est bon,
08:52 et maintenant je peux me diriger vers cette barre de recharge,
08:55 donc c'est très intuitif,
08:56 l'idée c'est vraiment d'avoir quelque chose qui se centrer sur l'humain,
08:58 et très très fluide.
08:59 Alors justement vous dites centrer sur l'humain,
09:01 donc vous avez travaillé aussi avec des équipes expertes en sciences cognitives,
09:06 vous avez parlé de Christophe Stern qui est ici présent,
09:09 je propose qu'on aille le rejoindre,
09:10 c'est un des partenaires technologiques qui a pensé,
09:12 donc Human First Vision on y vient,
09:15 à la place de l'humain finalement dans la voiture de demain,
09:18 on va le rejoindre ?
09:19 Tout à fait ça marche.
09:20 Voilà Pierre ça y est on a rejoint l'un de vos partenaires,
09:23 Christophe Stern, merci beaucoup d'être avec nous,
09:25 de nous avoir rejoint,
09:26 vous êtes sociologue de formation,
09:27 et aujourd'hui le président de Stern Tech,
09:29 qui est une start-up spécialisée dans l'analyse du comportement humain,
09:33 vous avez recours à la fois à l'intelligence artificielle et aux sciences cognitives,
09:37 expliquez-nous quelle est votre intervention sur ce projet,
09:41 ce concept car qui porte la grande ambition de mettre l'humain au centre,
09:45 puisque ça s'appelle Human First Vision,
09:49 comment est-ce que vous êtes intervenu sur le projet ?
09:52 Alors nous, exactement, notre technologie,
09:55 elle permet d'analyser le comportement d'un individu,
09:58 on est capable de dresser un profil psychologique d'une personne,
10:01 et d'en déduire son comportement,
10:03 pour ce faire on utilise plusieurs moteurs d'analyse,
10:06 qui nous permettent de faire une analyse multimodale de l'utilisateur,
10:10 c'est à dire l'analyse des expressions faciales,
10:13 de l'intonation vocale, de la gestuelle et de la sémantique,
10:15 le contenu de ce qui dit,
10:17 et ce qu'on a été capable de faire,
10:19 c'est d'analyser dans un cas d'usage qui est finalement relativement simple,
10:22 presque en mode laboratoire, puisqu'on est dans le cadre d'une voiture,
10:25 le comportement du conducteur dans le véhicule,
10:29 pour pouvoir mieux s'interfacer avec toutes les technologies
10:33 qu'on a pu intégrer avec Savetoir République,
10:36 et où effectivement, pour moi ce qui m'a frappé,
10:38 le coeur du projet, c'est cette intégration de technologies
10:42 tout à fait hétérogènes, tout à fait innovantes,
10:44 mais qui à la base ne sont pas du tout conçues pour travailler ensemble,
10:47 et qui même, à la base, ont même pour certaines,
10:50 été retravaillées par rapport à leur usage d'origine.
10:53 Parce que vous, au départ, votre technologie,
10:55 elle n'est pas dédiée au monde de l'automobile en particulier ?
10:58 Exactement. Nous par défaut, on l'envisageait pour des buts marketing,
11:02 on l'a présenté à VivaTech l'an dernier,
11:04 et c'est comme ça qu'on a rencontré Savetoir République,
11:07 qu'on a été identifié, on a qualifié notre technologie
11:09 un petit peu pendant 6 mois, il y a eu un beau travail.
11:11 C'est beau parce que vous vous rencontrez sur VivaTech l'année dernière,
11:13 vous présentez un projet commun.
11:15 Nous, effectivement, on a parti 6 mois,
11:17 à discuter avec des partenaires potentiels
11:19 avant de se mettre d'accord sur un menu,
11:21 et après, 6 mois d'exécution, tous ensemble,
11:23 pour devenir l'inventor du business.
11:25 La manière dont les sciences cognitives, aujourd'hui,
11:27 nous aident à travailler les technologies,
11:30 finalement, à rendre la technologie plus proche des besoins humains,
11:34 c'est grâce à l'intelligence artificielle ?
11:38 Est-ce que c'est plutôt de l'IA,
11:40 ou c'est plutôt de la science cognitive que vous utilisez ?
11:42 Là, en fait, je vais rejoindre Luc Julia,
11:45 c'est-à-dire que l'intelligence artificielle n'existe pas,
11:47 pour moi, elle n'existe pas non plus.
11:49 La référence au livre de Luc Julia,
11:51 qui est directeur scientifique du groupe Renault, d'ailleurs.
11:53 Tout à fait.
11:54 Nous, en fait, on fait de l'algorithmique et de la statistique.
11:57 Grâce au startup programme d'OVH et de Google,
12:00 on a pu bénéficier de crédits significatifs
12:04 qui nous permettent de faire un modèle
12:06 dit d'intelligence artificielle, de machine learning,
12:08 de deep learning, qui nous permet de tester
12:10 le modèle statistique, mais qu'ensuite, nous,
12:13 on embarque dans notre technologie,
12:15 à l'intérieur du concept car,
12:18 de sorte que les données soient complètement intégrées
12:21 dans le véhicule et ne puissent jamais sortir par Internet.
12:24 Et donc, c'est bien la propriété de l'utilisateur final,
12:26 c'est la philosophie.
12:27 Les sciences cognitives, le mix avec l'intelligence artificielle
12:30 n'est pas natif.
12:31 Moi, ça fait à peu près 25 ans que je travaille
12:33 dans les systèmes d'information,
12:35 et en même temps, je suis sociologue,
12:36 je fais de la psychologie,
12:37 et j'arrive à faire le lien entre les deux
12:39 que depuis 5 ans, parce que les technologies
12:41 sont plus matures et parce que les sciences humaines
12:44 sont devenues des sciences cognitives
12:46 qui, de plus en plus, étudient l'humain
12:48 et qu'on a de plus en plus de use case
12:49 et qui a un intérêt du public.
12:50 Il n'y aurait pas d'intérêt du public,
12:51 ça ne marcherait pas.
12:53 Et donc, arriver à faire le lien...
12:54 Du public et des entreprises.
12:56 Du public et forcément des entreprises.
12:59 Et effectivement, on fait du B2B aussi.
13:02 Et donc, l'objectif des sciences cognitives,
13:05 c'est d'arriver à utiliser le meilleur
13:09 des neurosciences de la psychologie,
13:10 de la sociologie, de la linguistique,
13:12 arriver à en faire une algorithmique
13:14 pour, évidemment, les données et les méthodologies
13:17 qui s'y prêtent.
13:18 Je ne vais pas faire une psychanalyse freudienne,
13:20 ce n'est pas faisable en fait.
13:22 Par contre, on peut utiliser des approches
13:24 de psychologues qu'on peut coder en algorithmiques,
13:26 c'est ce qu'on a fait,
13:27 parce qu'on a une équipe de recherche.
13:29 Et donc, avec cette équipe de recherche,
13:32 on arrive à coder des choses
13:36 qui nous permettent d'interpréter
13:38 les 200 données comportementales
13:40 qu'on récupère par demi-seconde,
13:41 ce qui nous permet même d'interpréter
13:43 des micro-expressions du visage,
13:44 comme un lapsus du visage,
13:46 qui trahit le fond de notre pensée.
13:47 Et donc, on est capable d'identifier
13:49 les émotions endogènes,
13:50 celles qu'on ressent en nous,
13:51 exogènes, le masque qu'on montre,
13:53 les besoins, les soft skills employés
13:55 pour un but, pour combler notre besoin,
13:57 et ce qui va nous satisfaire
14:01 au niveau du bonheur individuel
14:04 à court terme et à long terme.
14:06 Et tout ça, on le met au service
14:08 de Human First Vision.
14:09 Et le bonheur dans une voiture,
14:11 alors c'est quoi ?
14:12 Ce n'est pas simple d'intégrer
14:13 quand même les sciences cognitives,
14:15 la sociologie, dans une voiture.
14:17 Comment est-ce que vous vous êtes organisés
14:19 pour travailler tout cet écosystème
14:21 qui est quand même très bigarré,
14:23 j'ai envie de dire,
14:24 qui vient de secteurs très différents ?
14:26 Comment est-ce que vous avez orchestré
14:28 ce projet, Pierre ?
14:30 Justement, tout le sens même
14:32 de la Société République,
14:33 c'est de chercher des expertises
14:34 dans les domaines où justement
14:36 ils sont très pertinents.
14:37 Et là, nous, sur ce sujet-ci,
14:38 c'est pas Renault qui est le plus pertinent,
14:40 c'est plutôt une startup,
14:41 un Stern Tech.
14:42 Donc on va prendre effectivement
14:43 cette expertise-là,
14:44 on l'adapte au monde de l'automobile,
14:45 on l'adapte aux besoins
14:46 du conducteur de demain.
14:47 C'est ce qu'on propose là
14:48 avec Human First Vision.
14:49 Et alors sur la question du bonheur,
14:51 je voulais revenir un petit peu là-dessus
14:52 parce qu'il y a aussi le sujet
14:53 de l'acceptabilité de ces technos.
14:56 Est-ce qu'on a envie, forcément,
14:57 dans sa voiture, d'être reconnu,
15:00 d'être identifié dans un tel état
15:02 d'esprit du jour ?
15:05 Toutes ces données qui sont
15:06 très personnelles, finalement,
15:08 on est capable d'en faire
15:09 beaucoup de choses,
15:10 mais est-ce qu'on ne se fixe pas
15:11 nous-mêmes des limites en se disant
15:12 peut-être que l'utilisateur n'est pas prêt ?
15:15 Comment vous travaillez avec ces limites
15:16 de l'acceptabilité ?
15:17 Oui, en fait, c'est comme la confiance
15:19 avec un être humain.
15:20 On ne peut pas demander à un être humain
15:22 d'emblée de faire confiance.
15:23 Il faut donner des preuves de confiance
15:24 et il n'y a que les preuves qui comptent.
15:27 Nous, de la même manière,
15:29 le fait qu'on travaille en mémoire,
15:31 qu'on identifie des données,
15:33 par exemple, quelque chose de très simple,
15:35 j'ai envie de boire une tasse de café,
15:36 je vais regarder, mon visage va bouger,
15:38 un ordinateur va analyser les coordonnées
15:40 de ma main qui bougent,
15:41 le fait que la tasse se déplace,
15:43 mais un être humain va seulement se retenir.
15:45 Tiens, il est en train de faire une interview,
15:46 il prend une tasse de café,
15:47 il est complètement flou.
15:49 Et donc, ce qu'il faut retenir dans notre logiciel
15:52 et ce que les sciences cognitives apportent,
15:54 c'est qu'est-ce qu'un être humain
15:55 va retenir d'important,
15:56 sachant qu'un être humain va travailler sa mémoire
15:58 de manière différente que celle d'un ordinateur.
16:00 Donc, on travaille ça de manière différente
16:02 et on arrive à l'assimiler pour,
16:05 non pas forcément le bonheur de l'utilisateur,
16:07 mais arriver à le soutenir en cas de défaillance humaine.
16:11 Parce que les défaillances mécaniques,
16:13 il y en a, il y en a.
16:14 Donc, c'est le sujet de la sécurité, finalement,
16:16 qui vous a occupé.
16:18 De la protection plus de la sécurité.
16:20 On est sur un fil, un outil,
16:23 c'est un peu comme un marteau.
16:24 Un marteau, on peut l'utiliser pour construire une cathédrale
16:26 ou alors pour défoncer le crâne du voisin.
16:28 Et nous, ce qu'on fait,
16:30 c'est qu'on essaye de le mettre sur une lignée
16:32 où on essaye de poser des limites d'usage
16:35 qui nous permettent de dire,
16:36 là, la personne, elle est en train de s'endormir,
16:39 mais peut-être qu'on détecte qu'elle s'endort,
16:41 mais peut-être qu'elle fait un malaise aussi,
16:42 si on n'a pas les données biométriques
16:44 qui sont en train de nous le dire.
16:45 Et donc, à quel moment,
16:46 et ça, ça va être aussi le sujet qu'on va aborder avec Renaud
16:49 dans les prochains mois,
16:50 et sauf dans la République globalement,
16:52 c'est où est-ce qu'on met l'éthique dans tout ça ?
16:54 Comment on utilise ces logiciels ?
16:56 Comment on arrive avec tous les partenaires à dire,
16:59 là, la personne, on pense qu'elle est en train de s'évanouir,
17:01 qu'est-ce qu'on fait ?
17:02 On la laisse s'évanouir, avoir un accident ?
17:04 Est-ce qu'on active l'algorithme d'interdiction de franchissement des lignes ?
17:07 Est-ce qu'on active un bip sonore pour essayer de le réveiller ?
17:10 Est-ce qu'on prévient les passagers à côté
17:11 que la personne fait un malaise
17:12 et qu'il ne l'a peut-être pas vu ?
17:14 Et donc, tout ça, ce sont les cas d'usage qu'on peut travailler.
17:17 C'est l'intégration, en fait, de ces technologies
17:20 qui est vraiment le cœur du système.
17:21 C'est pour ça que le travail qu'on a fait tous ensemble
17:23 est vraiment fondamental.
17:24 Il faut le voir.
17:25 Moi, je le vois comme un sotle
17:26 qui sert à faire quelque chose de demain, d'extraordinaire, en fait.
17:29 C'est quand même une sacrée révolution, là,
17:31 de proposer de mettre l'humain en première place
17:36 du projet de construction d'une nouvelle voiture,
17:38 la voiture du futur.
17:39 On en a en tout cas un aperçu avec vous.
17:41 Merci beaucoup pour cette découverte.
17:43 Merci beaucoup, Pierre Voineau,
17:45 directeur du projet Human First Vision
17:47 au sein de la Software République
17:48 et Christophe Tern, président de Sterne Tech.
17:51 C'était Smartech.
17:52 La suite, tout de suite.
17:53 On va parler avec une invitée,
17:56 Cléa Martinet, de la voiture du futur,
17:58 mais là aussi avec un focus spécifique sécurité.
18:08 Cléa Martinet est avec moi.
18:10 Cléa Martinet, vous êtes la directrice
18:11 du développement durable pour le groupe Renault.
18:14 Bonjour. Merci beaucoup d'être là.
18:16 On parle de la voiture du futur.
18:17 On parle évidemment des questions de sécurité.
18:19 Quel est le lien entre le développement durable et la sécurité ?
18:22 C'est la même chose chez Renault pour vous ?
18:24 Oui, c'est vrai que ce n'est pas un lien évident.
18:26 En tout cas, il n'est pas très commun
18:27 parmi les constructeurs automobiles.
18:29 C'est vrai que quand on a conçu
18:31 la stratégie de développement durable du groupe,
18:33 on l'a conçue pour qu'elle nourrisse et fasse miroir
18:36 à notre stratégie de groupe
18:38 qui se transforme autour de trois axes.
18:40 D'abord, l'environnement.
18:41 Ensuite, la technologie.
18:42 Et le troisième, c'est les nouveaux métiers,
18:45 les nouveaux services.
18:46 Donc, vente de kilomètres, de la data ou de l'énergie.
18:49 Et donc, la technologie, lorsqu'on l'interprète
18:51 avec du développement durable,
18:53 il s'agit de l'utiliser au service de la sécurité des usagers,
18:56 à la fois des véhicules et de la route.
18:58 C'est comme ça qu'on a articulé
18:59 la sécurité embarquée dans les véhicules.
19:01 Ça veut dire qu'on pense le sujet sécurité un peu différemment
19:04 quand on l'intègre comme ça dans une stratégie
19:06 développement durable ?
19:07 C'est-à-dire que oui, en fait,
19:09 on articule vraiment la technologie autour de l'humain.
19:12 On la pense avec vraiment un aspect social et sociétal,
19:15 afin que toute la tech embarquée dans nos véhicules
19:18 serve la sécurité des usagers de la route
19:20 comme de ceux qui empruntent les véhicules.
19:22 Mais la sécurité reste la sécurité du passager
19:24 dans son véhicule ?
19:26 Du passager et des usagers autour.
19:28 C'est aussi ça.
19:29 C'est le fait que nos véhicules soient connectés
19:31 à la fois avec les infrastructures de la ville,
19:33 soient aussi connectés avec les usagers
19:35 de ces infrastructures,
19:36 comme les trottinettes, les vélos,
19:38 et puissent prédire un risque d'accident, par exemple,
19:41 et donc protéger à la fois les usagers du véhicule
19:43 et de la route.
19:44 Est-ce que vous pouvez nous donner
19:45 quelques éléments vraiment intéressants
19:47 sur lesquels vous travaillez en matière de sécurité ?
19:49 Peut-être quelques chiffres aujourd'hui sur l'accidentologie ?
19:52 Oui.
19:53 Alors, on a un laboratoire qu'on partage avec Stellantis
19:56 qui, en fait, analyse statistiquement
19:58 toutes les causes de mortalité d'accidents fatales
20:01 sur les routes en Europe.
20:02 Il y en a 23 000 par an à peu près aujourd'hui.
20:05 Sur ces 23 000 accidents, en fait,
20:07 plus des trois quarts sont attribuables
20:09 à trois grandes raisons.
20:10 La première, c'est la vitesse excessive ou inadaptée.
20:13 La deuxième, c'est l'inattention,
20:14 vos enfants à l'arrière,
20:15 votre regard qui se porte vers le téléphone.
20:17 La fatigue, peut-être, aussi.
20:19 Exactement.
20:20 C'est la troisième.
20:21 Pardon, oui, la fatigue.
20:23 Et la conservation de substance.
20:24 La fatigue fait partie du nuage,
20:26 parce que c'est un nuage,
20:27 de l'inattention et de la distraction.
20:28 De l'inattention, oui.
20:29 Exactement.
20:30 Et la troisième, c'est la conservation de substance.
20:31 Donc, on pense à l'alcool,
20:32 mais il y a aussi les médicaments.
20:34 Et donc, voilà, sur ces trois causes-là,
20:36 notre stratégie s'articule à les traiter
20:38 et vraiment à avoir une approche très pragmatique.
20:40 On sait pourquoi les gens ont des accidents
20:42 et on cherche à adresser
20:43 chacune de ces trois causes précisément.
20:45 Mais dans ces trois causes,
20:47 on a du mal à percevoir
20:48 comment la technologie peut intervenir.
20:50 Ah oui, je comprends.
20:51 Tout à fait.
20:52 Alors, on va prendre un exemple.
20:53 Ce sont des facteurs 100 % humains, finalement.
20:56 93 % des accidents sur la route,
20:58 c'est une erreur humaine.
20:59 Tout à fait.
21:00 Alors, en fait, ça se passe
21:01 dans l'interaction avec le conducteur.
21:03 Bon, alors, il peut y avoir des choses
21:05 qui régulent la vitesse de matière automatique.
21:07 C'est par exemple le cas,
21:08 on appelle ça en anglais,
21:09 le "adaptative cruise control".
21:11 Donc, c'est le régulateur de vitesse intelligent
21:13 qui, en fait, sans que vous n'ayez rien à faire,
21:15 donc, ça pallie la distraction,
21:17 l'éventuelle inattention du conducteur,
21:19 se régule pour avoir une distance certaine
21:21 avec le véhicule qui arrive en face
21:23 ou régule sa vitesse par rapport
21:24 au véhicule le plus lent qui vous entoure,
21:26 par exemple, sur l'autoroute,
21:27 pour éviter un accident.
21:29 Donc, ça, c'est la technologie
21:31 qui prend le pas sur l'humain.
21:32 Après, la technologie peut anticiper
21:34 ce que l'humain ressent
21:36 ou en faire une analyse fine.
21:39 Donc, par exemple,
21:40 on va mettre en place
21:41 ce qu'on appelle un "safety coach"
21:43 dans notre feuille de route "Human First".
21:45 Le "safety coach" va,
21:46 avec les capteurs du véhicule,
21:48 recueillir à la fois les données de la route,
21:49 mais aussi celles du conducteur.
21:51 Et en recueillant les données du conducteur,
21:53 il va...
21:54 Ça veut dire sa fatigue visuelle, par exemple ?
21:55 Voilà, exactement,
21:56 sa fatigue visuelle,
21:57 et une conduite plus brutale,
21:59 parce qu'en fait,
22:00 les algorithmes arrivent à détecter
22:01 des habitudes de conduite.
22:02 Donc, une conduite plus brutale qu'à l'habitude,
22:04 qui pourrait être due
22:05 à une consommation de substances
22:06 ou à une fatigue
22:07 ou à une exaspération quelconque.
22:09 Et donc, le "safety coach" va signaler
22:12 l'écart de conduite, le dépassement,
22:14 et avertir le conducteur
22:16 sur une conduite peu sûre.
22:18 C'est un système d'alerte interne,
22:20 je dirais.
22:21 C'est le conducteur
22:22 qui est mis face à une responsabilisation ?
22:25 Oui, oui.
22:26 Le conducteur reste se mettre à bord.
22:27 Ce n'est jamais la technologie
22:28 qui va conduire le véhicule tout seul.
22:30 On n'est pas du tout dans des niveaux d'autonomie
22:31 qui le permettent aujourd'hui.
22:32 Et en cas d'accident,
22:34 qu'est-ce qui se passe ?
22:35 Est-ce que la voiture peut, par exemple,
22:37 déclencher les secours ?
22:39 Voilà, alors,
22:40 ça, c'est aussi la particularité
22:41 de la stratégie de sécurité embarquée Renault,
22:44 c'est qu'on cherche à limiter les dommages
22:46 même une fois l'accident arrivé.
22:48 Donc, pour ça,
22:49 on a deux dispositifs
22:50 qu'on a développés avec les pompiers.
22:52 On a entraîné près de 4 000 pompiers
22:53 dans 13 pays d'Europe,
22:55 autour de deux équipements
22:57 qu'on a mis en place.
22:58 Le premier, c'est le Rescue Code.
23:00 Le Rescue Code, c'est un QR Code
23:02 qu'on colle à l'avant et à l'arrière d'un véhicule
23:04 et qui, lorsque le véhicule est accidenté,
23:06 le pompier peut le scanner.
23:08 Et en scannant le véhicule,
23:09 il a accès à son architecture.
23:11 Il faut savoir,
23:12 alors c'est un petit peu anxiogène
23:13 ce que je vais raconter là,
23:14 mais c'est la vérité,
23:15 on ne désincarcère pas,
23:17 en fait, on ne démantèle pas
23:18 un véhicule électrique
23:19 comme un véhicule thermique.
23:21 On ne désincarcère pas,
23:23 on ne démantèle pas un véhicule
23:25 d'une petite citadine
23:26 comme une grande berline.
23:28 Et donc, du coup,
23:29 cet écart entre les véhicules
23:31 permet au pompier de mieux comprendre
23:33 comment faire sortir le passager le plus vite.
23:36 Et donc, quand on a un accident sévère,
23:38 il y a ce qu'on appelle la golden hour.
23:40 C'est l'heure dorée,
23:41 c'est l'heure pendant laquelle,
23:42 si l'accident est grave,
23:44 il y a 50% de risque de décès.
23:46 Et donc, le fait que les pompiers
23:47 soient entraînés à désincarcérer au plus vite
23:49 les personnes en cas d'accident grave,
23:51 ça permet d'accélérer la prise en charge,
23:54 les soins et donc de sauver des vies.
23:56 Donc, ça veut dire que tout ça,
23:57 ça passe par, vous avez évoqué
23:58 l'intelligence artificielle,
23:59 mais elle ne marche pas comme ça,
24:00 toute seule dans la nature.
24:01 Non.
24:02 Ça passe par l'installation
24:03 de nouveaux capteurs ?
24:04 Exactement, on a des capteurs.
24:06 En fait, il y a aussi des capteurs
24:07 qui sont déjà installés dans le véhicule,
24:09 par exemple des détecteurs d'objets,
24:11 de vélo ou de trottinette.
24:12 Il y a des capteurs qui sont déjà là
24:14 et qu'on utilise en plus
24:15 pour alerter le conducteur
24:17 et nous servir pour la sécurité embarquée.
24:20 Ici, on est sur VivaTech.
24:22 Ce salon est dédié aux nouvelles technologies.
24:26 Renault Group est venue avec ses marques
24:28 vraiment 100% numériques.
24:30 Sur la question de la sécurité,
24:32 qu'est-ce que vous allez particulièrement
24:34 mettre en avant pendant VivaTech ?
24:37 Aujourd'hui, on est très fiers
24:39 et je crois qu'il y a quelqu'un
24:40 qui va prendre la parole là-dessus aujourd'hui
24:42 de présenter le concept de Human First,
24:45 qui est Vision,
24:47 qui est en fait un véhicule
24:48 qui vient incarner toutes les innovations technologiques
24:51 du groupe Renault et de ses partenaires.
24:53 On le voit dans la séquence juste avant votre passage.
24:56 Exactement.
24:57 Il y a beaucoup de choses qui sont dites
24:59 dans Human First Vision.
25:00 Je vais juste parler très brièvement de la sécurité.
25:03 Ce qui est très intéressant,
25:04 c'est que vous me disiez que l'humain,
25:07 le conducteur, ça reste très humain.
25:09 Il y a des capteurs de santé
25:11 dans Human First Vision
25:13 qui permettent justement
25:14 de détecter un manque de vigilance,
25:15 de détecter une fatigue
25:17 ou un éventuel évanouissement,
25:19 que sais-je, du conducteur.
25:21 Ça, c'est très intéressant.
25:22 Il y a la santé du passager.
25:23 Et puis, il y a aussi toute la connectivité,
25:25 ce qu'on appelle véhicule à véhicule
25:27 ou véhicule à infrastructure.
25:30 Cette connectivité avec les suites logicielles embarquées
25:32 permet de démultiplier
25:34 les capacités prédictives du véhicule
25:36 pour se dire,
25:37 en fonction de telle météo,
25:39 de telle visibilité sur la route,
25:40 de telle fréquentation de la route,
25:42 elle va également remonter
25:44 des statistiques d'incidentologie sur la route.
25:46 Par exemple,
25:47 si vous empruntez une bretelle d'autoroute,
25:49 vous avez votre sortie habituelle
25:51 ou une sortie non habituelle.
25:53 Et donc, votre navigateur va vous remonter
25:56 s'il y a des accidents fréquemment à cet endroit-là.
25:58 Donc, vous allez être plus vigilant
26:00 parce que vous savez qu'à cet endroit-là,
26:01 il y a plus d'accidents.
26:02 Vous vous dites, je vais faire attention.
26:03 Là, il y a plein de gens
26:04 qui ont mal pris le virage.
26:06 Donc, moi, je vais ralentir.
26:07 Je vais faire attention.
26:08 Donc, voilà, c'est toute une série
26:09 comme ça de capteurs,
26:11 de données et d'intelligence embarquée
26:14 qui permettent de prévenir au mieux l'accident.
26:16 - Et ça pose la question,
26:18 parce que vous travaillez sur cette question
26:20 du développement durable,
26:21 donc l'impact sociétal des technologies.
26:24 Ça pose aussi la question de l'acceptabilité
26:26 de l'arrivée de tous ces capteurs,
26:28 de toutes ces alertes,
26:29 de toutes ces intelligences.
26:30 Presque un gain d'autonomie
26:32 encore supplémentaire du véhicule.
26:35 - Oui, alors, c'est très juste.
26:37 En fait, la feuille de route
26:38 telle qu'on l'a écrite aujourd'hui,
26:40 et notre directeur général, Luca Demo,
26:42 le dit très bien,
26:43 en fait, on ne cherche pas
26:44 à faire la course aux Hadass.
26:46 Parce que c'est vrai que quand on regarde
26:47 la plupart des sorties de véhicules aujourd'hui,
26:49 les têtes d'affiche, c'est oui, tel modèle,
26:52 52 Hadass, 63, 38.
26:54 Bon, alors qu'on sait très bien
26:56 que la plupart des personnes
26:57 qui l'utilisent, en utilisent un dixième,
26:59 un tiers, dans le meilleur des cas.
27:01 Et c'est très compliqué.
27:02 Toute l'électronique embarquée
27:03 reste peu intuitive pour la plupart des gens,
27:05 quel que soit le constructeur.
27:07 Et donc, nous, notre feuille de route...
27:09 - C'est toujours mieux quand on la voit pas, finalement.
27:10 - C'est mieux quand on la voit pas, c'est vrai.
27:12 Exactement, ça, oui.
27:13 Et puis, l'idée, c'est aussi de la rendre
27:16 la plus pragmatique possible et la plus simple.
27:19 Donc, en fait, là, la consigne qu'a donnée notre CEO,
27:21 c'était justement d'avoir des Hadass hyper simples
27:24 et qui servent directement les trois causes
27:26 dont je parlais tout à l'heure,
27:27 donc la distraction, la vitesse
27:28 ou la consommation de substances.
27:30 Et donc, comme ça, on réduit comme ça, au minimum,
27:33 toute cette pléthore d'Hadass
27:36 et vraiment, on se concentre sur là
27:38 où il y a les causes d'accidents.
27:39 - Ce que vous appelez Hadass ?
27:40 - Pardon, des Hadass à la pâte.
27:41 - Pardon, des Hadass à la conduite.
27:43 - Merci beaucoup.
27:44 C'était Cléa Martinet,
27:45 donc directrice du développement durable
27:47 pour le groupe Renault.
27:49 On est sur le salon de Vivatech.
27:51 Vous restez avec nous.
27:52 Smartech, ça continue aussi demain sur Vivatech.
27:55 On sera à 19h au rendez-vous sur la chaîne Bismarck.
27:59 [Musique]