• l’année dernière
[13 mai 2022] Colloque « La géographie militaire, un savoir stratégique pour les armées françaises depuis le XIXe siècle »
Retrouvez l’ensemble des présentations et des discussions qui se tinrent lors du colloque « La géographie militaire, un savoir stratégique pour les armées françaises depuis le XIXe siècle » organisé sous la direction de Philippe Boulanger (Professeur à Sorbonne Université Lettres) et du Colonel Arnaud de Vachon (chef du bureau géographie hydrographie océanographie météorologie du Commandement pour les opérations interarmées).

02:13 « Pléiades Neo : une nouvelle constellation de satellites d’Observation de la Terre pour la Géographie Militaire » par Mickael Tonon (Airbus Defense and Space GEO)
26:18 « L’IA ou la revanche de la géographie militaire en 4D : digitale, différenciée, décentralisée et déconcentrée » par Jean Caillé et Alexandre Papaemmanuel (Palantir)
48:36 Discussion
Transcription
00:00:00 ...
00:00:11 -C'est cool.
00:00:13 Nous avons 2 sessions à écouter
00:00:17 pour cette journée de colloque consacrée à la géographie militaire.
00:00:22 Donc nous allons reprendre les échanges,
00:00:27 les écoutes également.
00:00:29 Il y a une légère modification dans l'emploi du temps prévu
00:00:32 puisque monsieur Zumsteig et madame le commandant Messa
00:00:37 ont pris la parole en fin de matinée.
00:00:39 Donc nous gagnons quelque dizaine de minutes.
00:00:44 Mais il ne faut pas en abuser puisque le temps s'écoule.
00:00:46 Nous avons déjà à peu près 10 minutes de retard
00:00:48 sur l'horaire prévu.
00:00:50 Alors j'ai le plaisir d'accueillir à cette session
00:00:54 plusieurs intervenants sur ces thématiques
00:00:57 abordant la géographie militaire,
00:00:59 renouvelée par les nouvelles technologies géospatiales
00:01:02 et l'intelligence artificielle.
00:01:04 C'est une thématique forte de comprendre ce lien
00:01:07 entre la géographie militaire,
00:01:09 les technologies géospatiales
00:01:11 qui ont considérablement évolué depuis quelques années.
00:01:15 En collaboration avec Alexandre, papa Emmanuel,
00:01:18 nous codirigeons un séminaire qui a lieu le mardi soir
00:01:22 une fois par semaine
00:01:23 et qui, il y a 10 ans, commençait par cette thématique
00:01:27 des technologies géospatiales, la géographie militaire.
00:01:29 Quels sont les liens ?
00:01:31 Plus récemment,
00:01:33 nous parlons d'intelligence artificielle,
00:01:36 qui était un terme très, très peu utilisé
00:01:38 il y a une dizaine d'années.
00:01:39 Alors c'est toute la logique que nous allons comprendre aujourd'hui.
00:01:43 Comment, et maintenant, la géographie militaire
00:01:46 s'enrichit de cet apport technologique,
00:01:49 des technologies géospatiales, l'intelligence artificielle.
00:01:51 Et pour commencer, je vais donner la parole
00:01:55 à M. Michael Tonon, qui représente Airbus Défense et Espaces Géo,
00:02:00 qui va nous parler, justement,
00:02:02 des récentes avancées technologiques géospatiales,
00:02:06 notamment produites par Airbus Défense Géo.
00:02:10 M. Tonon, je vous donne tout de suite la parole.
00:02:13 -Merci beaucoup.
00:02:15 Alors bonjour.
00:02:17 Donc je représente Airbus Défense et Espaces Géo,
00:02:21 qui opère et commercialise
00:02:25 les satellites Spock, Pleiad et maintenant Pleiad Géo.
00:02:30 Alors moi-même, je suis responsable,
00:02:33 spécialiste de la production de données géographiques
00:02:37 pour la défense.
00:02:38 Je suis également officier de réserve
00:02:44 à l'établissement géographique interarmé.
00:02:45 Donc c'est pour ça que je me permets,
00:02:47 c'est pour ce petit accès de vanité,
00:02:49 de mentionner que j'ai le brevet de géographe militaire,
00:02:52 dont je suis particulièrement fier.
00:02:55 Alors, en intervenant ce matin,
00:03:00 le commandant Benoît a mentionné
00:03:02 que l'espace est un enjeu de puissance.
00:03:03 Alors dans son contexte,
00:03:07 c'est-à-dire que la fin du 19e siècle,
00:03:09 l'espace 2D, l'espace colonial,
00:03:13 était un enjeu de puissance.
00:03:16 Alors de nos jours, je dirais fin du 20e siècle,
00:03:20 début du 21e siècle,
00:03:21 l'enjeu de puissance, c'est toujours l'espace.
00:03:23 Un des enjeux de puissance, c'est toujours l'espace,
00:03:25 mais parfois, on parle de l'espace au-dessus de nos têtes,
00:03:28 là où volent les satellites.
00:03:31 Et dans ce petit jeu-là,
00:03:33 surtout pour la partie qui concerne l'observation de la Terre,
00:03:37 la France est un des pays leaders en observation de la Terre.
00:03:42 Il y a les Américains qui sont,
00:03:44 en toute évidence, je dirais, les super champions,
00:03:47 mais la France, je pourrais dire, est pratiquement l'erreur.
00:03:51 C'est quelque chose que souvent le public ignore,
00:03:56 mais c'est un vrai potentiel.
00:04:01 Et l'arrivée de Piagno, dont je vais vous parler,
00:04:05 va nous...
00:04:06 vient renforcer cette position.
00:04:10 Alors cette position, donc Piagno est un héritier,
00:04:14 comme vous pouvez le voir,
00:04:18 Piagno est un satellite privé, opéré par une société privée,
00:04:22 mais il est l'héritier d'une histoire spatiale française
00:04:26 d'au-dessus de 60 ans,
00:04:28 qui a d'abord été une initiative étatique.
00:04:31 Et Piagno n'existerait pas
00:04:34 s'il n'y avait pas toute cette histoire-là.
00:04:37 Et donc je vais vous la rappeler très rapidement,
00:04:39 surtout pour les jeunes générations
00:04:42 qui n'ont peut-être pas connu toute cette époque-là.
00:04:45 Je vais démarrer l'histoire rapidement en 1961
00:04:49 avec la création du CNES, l'Agence spatiale française,
00:04:54 qui a permis de structurer
00:04:56 le développement du spatial en France.
00:05:00 C'était une politique publique cohérente,
00:05:05 ordonnée, forte, pendant des dizaines d'années.
00:05:11 Et donc, par exemple, dans cette cohérence de la politique publique,
00:05:14 les organismes spécialistes
00:05:17 qui étaient susceptibles d'utiliser les images
00:05:20 ont créé aussi un organisme qui s'appelait
00:05:22 le Groupement pour le développement de la télévision spatiale
00:05:24 pour former les gens pour ces nouvelles technologies,
00:05:27 parce que c'était quelque chose de complètement nouveau.
00:05:29 Il s'agissait de mettre en l'air
00:05:31 les satellites d'observation de la Terre
00:05:33 et donc de commercialiser, d'utiliser ces images à jour.
00:05:37 Donc, il fallait expliquer comment faire
00:05:43 à tous les potentiels utilisateurs.
00:05:45 Donc, parmi les créateurs, il y a le CNES, l'IGN, le BRGM,
00:05:49 l'IFREMER, toutes ces institutions publiques
00:05:52 potentiellement utilisateurs de l'image.
00:05:55 1977, le début du programme SPOTS.
00:05:59 Création en 1982 de SpotImages,
00:06:03 donc une société au départ d'actionnariat public
00:06:08 qui avait pour vocation, donc, de commercialiser les images
00:06:12 issues des programmes d'observation de la Terre.
00:06:16 SpotImages, qui, vous y reviendrez,
00:06:19 est devenu, par le jeu de fusion-acquisition,
00:06:22 une société à présent privée,
00:06:25 un Airbus défense et espace géo.
00:06:28 Sur les aspects théoriques,
00:06:32 donc ça pourrait apparaître comme totalement anecdotique,
00:06:36 mais ça ne l'est pas du tout.
00:06:38 Ca veut dire qu'on lançait une filière
00:06:40 d'observation de la Terre, mais qu'en étaient-ils des outils,
00:06:43 qu'en était-il de la science derrière ?
00:06:46 Tout était à créer.
00:06:47 Ce cadre scientifique et technique a été offert par l'IGN.
00:06:51 On a mentionné ce matin le colonel Géno Cédat,
00:06:55 qui est le créateur de la photogrammétrie.
00:06:59 Il est français.
00:07:00 La France, là aussi, peut-être pour des raisons culturelles,
00:07:03 milieu mathématiques, je ne sais pas,
00:07:05 a toujours été pionnière en termes de photogrammétrie.
00:07:08 L'IGN a su adapter, c'était la thèse des Adelaides en 1986,
00:07:12 a su adapter les techniques aériennes
00:07:17 à la géométrie spécifique des images spatiales,
00:07:19 qui était plus connue, qui était du Foujou-Broume,
00:07:22 pour pouvoir traiter les grandes surfaces
00:07:24 en Indie,
00:07:26 les grandes surfaces projetées par l'oblomèverie spatiale.
00:07:30 Et je pense qu'à l'époque,
00:07:33 l'IGN était le premier à faire ce genre de choses.
00:07:36 Les satellites américains avaient une autre géométrie,
00:07:39 ils n'avaient pas ce genre de techniques popularisées,
00:07:43 et maintenant, nous les avons tous,
00:07:45 grosso modo, les algorithmes définis par le milieu à l'époque.
00:07:49 Entre 1986 et 2002,
00:07:53 alors là, c'est la grande époque de lancement et d'exploitation
00:07:57 des satellites SPOT,
00:07:59 satellites pour l'observation de la Terre,
00:08:03 de 1 à 5,
00:08:05 un énorme succès commercial, un succès technique,
00:08:09 dont on bénéficie encore, je dirais,
00:08:12 par l'import industriel,
00:08:17 une filière industrielle s'est créée.
00:08:21 C'était même des années d'audace,
00:08:24 puisqu'il y avait même eu un PPP,
00:08:28 un partenariat public-privé,
00:08:30 pour ajouter un instrument dédié à la production
00:08:33 de nouvelles numériques de terrain à bord de SPOT5,
00:08:36 qui était pour l'époque relativement audacieux.
00:08:40 Lancement en 2012 des satellites Liana et Alain B,
00:08:44 c'était une révolution améliorée,
00:08:47 on passe à 70 cm, on échange ces 1 050,
00:08:50 et dans ces années-là,
00:08:53 il a commencé une espèce de transfert
00:08:55 entre le public et le privé.
00:08:58 La filière a été jugée suffisamment mature,
00:09:01 en termes de débouchés commerciaux,
00:09:03 pour que l'État, de certaine manière,
00:09:06 ne se désengage, le terme n'est pas exact,
00:09:10 mais passe la main sur un certain nombre d'activités.
00:09:13 Le VNCA, qui était là pour la promotion des images,
00:09:15 a été fermé.
00:09:17 Et EADES, à l'époque, a racheté SPOTima,
00:09:22 un domaine qui était un domaine pour la société privée.
00:09:25 Le DSS-GEO est un domaine qui a été offert
00:09:29 pour ses espaces à partir d'eux.
00:09:32 Airbus DSGEO a lancé sur ses propres domaines
00:09:37 les satellites SPOT6-7 en 2012-2014.
00:09:40 Et donc, vous pouvez savoir,
00:09:43 les 2 premiers satellites Liana et Alain B,
00:09:47 de la constellation qui est réellement là,
00:09:50 sera en 2024, une autre constellation,
00:09:53 qui s'appelle CO3.
00:09:55 On voit aussi l'héritage,
00:09:57 que une société privée comme Airbus
00:10:01 reconnaît complètement, ne serait-ce que dans les noms.
00:10:04 Les satellites Delta X, SPOT12345,
00:10:07 ont été suivis par les satellites UV,
00:10:10 SPOT6 et 7.
00:10:12 Les satellites Liana,
00:10:15 et Alain B.
00:10:17 Alors donc, cette persistance de l'Etat
00:10:20 a fait mûrir une filière industrielle
00:10:23 de production de l'observation de la Terre,
00:10:26 mais également un milieu industriel
00:10:30 de valeur ajoutée à partir de l'image.
00:10:33 Notamment des grands programmes de géographie militaire
00:10:36 qu'on a mentionnés,
00:10:38 des gros programmes de production de modèles militaires,
00:10:41 plus de 90 millions de kilomètres carrés,
00:10:45 des MOSFIMAS, des programmes topo-bas,
00:10:48 là aussi plusieurs dizaines de millions de kilomètres carrés.
00:10:51 La géographie militaire, elle a besoin de données.
00:10:54 Ces programmes alimentent en données
00:10:57 la géographie militaire.
00:11:00 Des cartes topo-bas, là aussi,
00:11:03 des programmes topo-bas et géographie.
00:11:06 Tous ces programmes, c'est de la production planifiée,
00:11:09 ça reste du temps, ils sont continus,
00:11:13 c'est une sûreté pour le milieu industriel,
00:11:16 pour se développer.
00:11:18 C'est le programme,
00:11:20 et en l'un, c'est le traitement de ces programmes,
00:11:23 mais beaucoup d'autres industriels,
00:11:26 l'ALES, l'IGL, le géophys, le géo212,
00:11:30 tout un micro, par tous les mâles,
00:11:33 le milieu industriel est vraiment fort dans la France.
00:11:36 Tout ça a contribué, cette volonté, cette dynamique,
00:11:39 à faire en sorte que la France,
00:11:42 c'est une des 4 ou 5 grandes nations
00:11:45 de production de données géographiques.
00:11:49 Une des premières nations dans l'observation de la Terre,
00:11:52 une des premières nations dans la géographie militaire,
00:11:55 je pense que les ressorts culturels derrière sont les miennes.
00:11:58 Il y a une position française là-dedans.
00:12:01 Toutes ces productions de données géographiques
00:12:05 sont, comment dire,
00:12:08 utilisées comme données satellites,
00:12:11 puisque quand on veut faire de la géographie chez les autres,
00:12:14 c'est quand même pas mal d'utiliser des systèmes
00:12:17 qui sont non-obtrusifs.
00:12:21 On voit tellement haut qu'on ne froisse personne.
00:12:24 Donc c'est alimenté par de l'imagerie satellite.
00:12:27 Et ces programmes sont alimentés de manière souveraine
00:12:30 quasiment à 100 % par de l'imagerie française.
00:12:33 Soit autrefois par des satellites étatiques,
00:12:37 soit en ce moment à la fois par des satellites étatiques
00:12:40 restants comme PLEAGAD
00:12:43 ou des satellites privés comme SPOT, CISSET
00:12:46 et maintenant, comme IAVU.
00:12:49 Pour vous donner un ordre de longueur,
00:12:53 chaque année sont produits plus de 6 millions de km²
00:12:56 de couvertures, d'images,
00:12:59 2/3 en moyenne résolution, 1/3 en très haute résolution,
00:13:02 pour des raisons de coût
00:13:05 et pour pouvoir couvrir les surfaces.
00:13:09 Je disais "pour des raisons de coût",
00:13:12 d'ailleurs, les satellites utilisés sont soit
00:13:15 des satellites moyenne résolution large fauchée,
00:13:18 donc ça contribue à faire un pixel peu cher,
00:13:21 soit des satellites étatiques,
00:13:25 qui, parce qu'ils sont étatiques, restent peu chers pour la défense.
00:13:28 Et c'est un modèle qui faudra...
00:13:31 Il y aura un problème de renouvellement
00:13:34 puisque les satellites SPOT et PLEAGAD
00:13:38 officiellement s'arrêteront en 2024,
00:13:41 il sera peut-être prolongé, probablement, un petit peu,
00:13:44 SPOT-CISSET jusqu'en 2027, 2028,
00:13:47 au-delà, qu'en est-il du modèle ?
00:13:50 Il faudra y réfléchir.
00:13:53 Voilà mon entrée en matière sur PLEAGAD NEO
00:13:57 parce que PLEAGAD NEO est donc l'héritier,
00:14:00 le riche héritier, si je puis dire, de cette histoire.
00:14:03 Il est un modèle qui est très important
00:14:06 parce qu'il permet de conforter
00:14:09 la place privilégiée qu'elle a de prendre en observation de la Terre
00:14:13 qui n'est jamais... C'est une place qui n'est jamais
00:14:16 complètement acquise. On n'a pas les moyens des Américains.
00:14:19 Il y a des puissances émergentes qui montent en puissance.
00:14:22 Donc c'est un combat de tous les jours. Et les projets faits avec la défense
00:14:25 nous aident à nous rendre plus forts dans ce genre de combat.
00:14:29 Quelques images pour vous montrer
00:14:32 la pertinence de ces images.
00:14:35 Donc une résolution de 30 cm.
00:14:38 Ici, c'est le barrage d'Assouan.
00:14:41 Vous voyez la définition, la richesse des détails
00:14:45 que l'on peut voir à l'intérieur de la résolution.
00:14:48 Pour la géographie militaire, regardez les descriptions urbaines
00:14:51 qu'on peut avoir. Là, il s'agit de la ville de Nice.
00:14:54 En termes de descriptions des toits, des maisons,
00:14:57 des façades, des fenêtres, qu'on en a en ligne de ternure.
00:15:01 On verra plus loin du mobilisé urbain.
00:15:04 On arrive à un niveau de définition qui est extrêmement impressionnant.
00:15:07 Un site industriel, une île.
00:15:10 Là encore, pour les spécialistes, tout y est.
00:15:13 Des milieux urbains plus compliqués.
00:15:17 En Indonésie, petites maisons, entrelacées.
00:15:20 J'aurais pu prendre un exemple de Médina,
00:15:23 je ne vous en prendrai pas sous la main.
00:15:26 Mais voilà, un peu compliqués.
00:15:29 Là où avant on avait des pâtés,
00:15:33 clairement, chaque habitation se dessinait.
00:15:36 Et donc, l'interprétation cartographique,
00:15:39 l'exploitation de ce genre de renseignements,
00:15:42 géographique, est particulièrement riche.
00:15:45 Je passe sur des aspects qui seraient plus
00:15:49 du domaine du renseignement militaire,
00:15:52 qui n'est pas tout à fait notre sujet,
00:15:55 mais là encore, vous imaginez la richesse de ce qu'on peut voir
00:15:58 avec une résolution de 30 centimètres.
00:16:02 On voit même les troupeaux.
00:16:05 On est en Afrique, les pasteurs
00:16:08 qui se déplacent avec des troupeaux de bovins,
00:16:11 on les voit depuis l'espace.
00:16:14 Si on veut cartographier les domaines de propagation
00:16:17 de ces tribus pastorales,
00:16:21 je ne dis pas qu'on va les traquer les vaches,
00:16:24 mais on pourra avoir une certaine idée
00:16:27 des endroits où ils nomadisent.
00:16:30 Là, on a la plage de Triomphe,
00:16:33 pour illustrer la richesse de l'image.
00:16:37 Un petit zoom sur la roue qui est à Dubaï,
00:16:40 où elle est oubliée au vent.
00:16:43 Alors là, plus anecdotique,
00:16:46 on a pris des acquisitions sur Kaboul cet été.
00:16:49 Vous savez que le tour de Kaboul
00:16:53 et l'aéroport cet été,
00:16:56 l'été 2021, ça a été assez chaotique.
00:16:59 Et là, par hasard, on est tombé sur le pays de l'huile,
00:17:02 un drone, une puissance étrangère,
00:17:05 je pense, des Américains,
00:17:09 qui a été volée.
00:17:12 Elle a été capturée
00:17:15 par Puyallup.
00:17:18 Voilà.
00:17:21 Pour aller un peu plus loin dans les caractéristiques
00:17:25 de ces nouveaux outils,
00:17:28 on en a lancé 2 en avril 2021.
00:17:31 C'est une constellation qui en contiendra 4.
00:17:34 Les 2 prochains seront lancés dans le 2e semestre de cette année,
00:17:37 plutôt l'automne de cette année.
00:17:41 Ils voleront en configuration de l'opposé
00:17:44 pour assurer la meilleure revisite.
00:17:47 Ils sont numérotés, là encore,
00:17:50 l'héritage, je dirais, dans la suite de pléiades.
00:17:53 On dirait que les 2 pléiades actuelles,
00:17:57 on a pris à numéro 3, 4, 5, 6.
00:18:00 Ils ont des caractéristiques
00:18:03 relativement classiques
00:18:06 pour des satellites de la Terre.
00:18:09 Ils ont 30 cm de résolution,
00:18:13 et c'est du vrai 30 cm.
00:18:16 Actuellement, sur le marché,
00:18:19 on est les seuls à avoir autant de 30 cm disponibles.
00:18:22 On en a même plus que les Américains,
00:18:26 donc on a le retour.
00:18:29 On a 6 bandes spectrales,
00:18:32 donc 2 bandes de plus que pléiades,
00:18:35 une bande qu'on appelle "deep blue" pour de la bathymétrie
00:18:38 et une bande qu'on appelle "red edge"
00:18:41 pour des applications plus à l'école.
00:18:45 Et la fauchée est de 14 km, donc l'empreinte au sol.
00:18:48 En quelques mots,
00:18:51 c'est une très grosse capacité d'acquisition.
00:18:54 On a un potentiel d'acquisition de 2 millions de km2 par jour,
00:18:57 une durée de vie nominale de 10 ans.
00:19:01 On sait qu'en général, c'est beaucoup plus que ça,
00:19:04 mais c'est déjà pas mal.
00:19:07 C'est de l'image 100 % disponible commercialement,
00:19:10 là aussi, contrairement à nos concurrents.
00:19:13 Enfin, maxards, les Américains,
00:19:17 je ne peux pas les nommer.
00:19:20 L'avantage, c'est que...
00:19:23 L'avantage pour nous, c'est que leurs images sont...
00:19:26 sont beaucoup demandées par la défense américaine,
00:19:29 donc elles sont moins disponibles pour le marché commercial.
00:19:33 En même temps, ça leur fait une subvention massive
00:19:36 de la part du gouvernement américain.
00:19:39 Donc, beaucoup plus de données qu'avec pléiades.
00:19:42 On a à gérer 20 fois plus d'informations.
00:19:45 On reçoit 18 Teraoctets de données par jour et par semaine.
00:19:49 C'est un nombre qui est très, très important.
00:19:52 On a 18 données par jour et par satellite.
00:19:55 Donc là, on en a 2, on en aura du tout 4.
00:19:58 Donc c'est massif en termes d'informations
00:20:01 à stocker, à gérer, à trouver.
00:20:05 Pléiades Néo disposera de la capacité,
00:20:08 et ça, c'est intéressant pour la géographie militaire,
00:20:11 de la capacité d'acquérir, en une seule passe,
00:20:14 avec 2 satellites,
00:20:17 jusqu'à 15 000 km².
00:20:21 Donc là, reforté à la ville de Paris,
00:20:24 c'est considérable pour avoir une donnée
00:20:27 avec un angle qui reste raisonnable de moins de 30°
00:20:30 pour couvrir une zone avec une uniformité temporelle.
00:20:33 Pour l'analyse, c'est quand même précieux.
00:20:37 Pléiades Néo dispose de ce qu'on appelle
00:20:40 l'autoroute de l'information spatiale.
00:20:43 C'est-à-dire que pour améliorer la rapidité d'acquisition,
00:20:46 on peut utiliser un satellite relais,
00:20:50 qui est un satellite géostationnaire,
00:20:53 qui, par laser, soit va transmettre
00:20:56 une information de programmation, un ordre d'acquisition,
00:20:59 au satellite lorsqu'il n'est pas en visibilité
00:21:02 de ses stations habituelles, et inversement,
00:21:05 il peut récupérer en temps réel une image acquise
00:21:09 par le satellite et la transmettre à Toulouse
00:21:12 ou au centre de traitement, alors que le satellite lui-même
00:21:15 n'est pas en visibilité d'une station où, d'habitude,
00:21:18 il n'est pas en visibilité.
00:21:21 Cette autoroute de l'espace permet d'acquérir des images
00:21:25 en moins d'une heure. C'est assez impressionnant
00:21:28 entre le moment où l'ordre est envoyé
00:21:31 via cette autoroute par un satellite géostationnaire
00:21:34 ou que ce soit Pléiades Néo autour de la Terre.
00:21:37 Pas n'importe où. Il y a quand même des zones.
00:21:41 Des zones d'intérêt importantes.
00:21:44 Si on active ce mode, on est en capacité
00:21:47 de récupérer une image pratiquement dans l'heure.
00:21:50 La limite devient même plus tellement l'acquisition,
00:21:53 mais le temps qu'on a à traiter l'image au sol.
00:21:57 Le Deep Blue, je vous l'ai mentionné,
00:22:00 c'est une banque de plus,
00:22:03 permet de faire des études batymétriques.
00:22:06 On verra les applications qui vont se dégager de ça.
00:22:09 Ça va être encore exploratoire.
00:22:13 Les images Pléiades Néo auront une capacité
00:22:16 de récupérer une image pratiquement dans l'heure.
00:22:19 Elles auront une précision géométrique
00:22:22 partout dans le monde de 5 m C/E 90
00:22:25 grâce notamment à une base de données de localisation
00:22:29 développée avec l'UGN.
00:22:32 Je vous montre un peu plus tard quelques modèles 3D
00:22:35 fabriqués. C'est en cours de test.
00:22:38 La précision 3D sera vraisemblablement
00:22:41 à 18 m.
00:22:45 Les images seront assez impressionnantes.
00:22:48 Je vous passe rapidement
00:22:51 un petit film 3D.
00:22:54 Je fais attention à ce que ça se voit très bien.
00:22:57 On a une définition
00:23:01 des bâtiments qui est assez exceptionnelle.
00:23:04 [Bruit du filmage]
00:23:07 [Bruit du filmage]
00:23:10 [Bruit du filmage]
00:23:13 [Bruit du filmage]
00:23:16 [Bruit du filmage]
00:23:20 On aura un mode HD pour passer de 30 à 15.
00:23:23 Ce qui permettra de récupérer de la nepté.
00:23:26 Vous voyez, entre 30 cm et 15.
00:23:29 C'est une nepté supplémentaire sur les petits objets.
00:23:33 Et ça fait apparaître un peu mieux
00:23:36 certains petits objets.
00:23:39 En termes de cartographie,
00:23:42 l'apport de Pleiad Neo
00:23:45 permettra, vous voyez, une saisie en haut avec Pleiad
00:23:48 et une saisie en bas avec Pleiad Neo.
00:23:52 La richesse de télévision des bâtiments,
00:23:55 des clôtures, qui étaient quelque chose
00:23:58 qu'on ne voyait pas bien avec Pleiad,
00:24:01 apparaissent nettement mieux avec Pleiad Neo.
00:24:04 C'est quelque chose qui est important en termes de progression
00:24:08 pour l'univers.
00:24:11 Pleiad Neo apporte ce confort visuel,
00:24:14 un accès aux robinets urbains, forme d'étoiles,
00:24:17 présence de panneaux photovoltaïques, lumière,
00:24:20 éclairage public.
00:24:24 Et donc ces images, on parlait d'intelligence artificielle,
00:24:27 on a des programmes importants de recherche,
00:24:30 de détection d'objets à partir de téléviseurs artificiels.
00:24:33 On a déjà des applications qui tournent
00:24:36 relativement bien sur les éoliennes,
00:24:40 sur les cuves, là on voit en haut à droite,
00:24:43 sur les avions, sur les bateaux,
00:24:46 la détection automatique, on a des millions de km².
00:24:49 On peut plus permettre d'avoir des opérateurs pour le faire.
00:24:52 Il y a des tas d'applications, pas seulement militaires,
00:24:56 mais commerciales, pour savoir où sont les voitures,
00:24:59 où sont les animaux, où sont les animaux.
00:25:02 Et voilà.
00:25:05 Pour terminer, un petit plein d'œil,
00:25:08 une image de Pleiad Neo sur Seattle aux Etats-Unis,
00:25:12 où on voit des espèces d'araignées sur les toits.
00:25:15 Alors, on était demandé ce que c'était,
00:25:18 c'est moi qui m'étais aperçu de ça,
00:25:21 et en cherchant un petit peu, en fait,
00:25:24 ces araignées ne sont même pas en 3D,
00:25:28 mais elles sont en 3D depuis l'espace,
00:25:31 grâce à la finesse du pixel.
00:25:34 Voilà, en accéléré, ce que je peux vous dire sur Pleiad Neo.
00:25:37 (Applaudissements)
00:25:40 (...)
00:25:44 -Merci beaucoup, monsieur Taudon,
00:25:47 pour cette présentation de Pleiad Neo,
00:25:50 en conscience, par rapport à quelques années
00:25:53 du saut technologique, des nouvelles possibilités
00:25:57 technologiques, comme vous l'avez dit, on reviendra peut-être
00:26:00 sur cette question tout à l'heure. J'ai le plaisir maintenant
00:26:03 d'accueillir 2 intervenants de l'entreprise Palantir,
00:26:06 monsieur Jean Callier et monsieur Alexandre Papagnanuel,
00:26:09 pour nous présenter une communication intitulée
00:26:12 "L'intelligence artificielle ou la revanche de la géographie
00:26:16 militaire en 4 dimensions, digital, différenciée,
00:26:19 décentralisée et déconcentrée". Je vous laisse la parole.
00:26:22 -Merci beaucoup, Philippe. Bonjour à toutes et à tous.
00:26:25 Vous l'avez souligné, monsieur le professeur,
00:26:27 de voir que cette communauté qui a été initiée il y a 10 ans
00:26:31 continue de vivre avec des fidèles et aussi des nouveaux venus,
00:26:34 toujours les bienvenus. C'est effectivement
00:26:37 une présentation avec un petit clin d'oeil sur la 4D
00:26:41 et les programmes sur lesquels j'ai pu travailler
00:26:44 avec certains d'entre vous présents dans la salle.
00:26:48 Et ça sera une présentation finalement borderline,
00:26:51 à la frontière, puisqu'on sera entre la Terre et l'espace.
00:26:55 Et on rebondira sur ce qui vient d'être évoqué,
00:26:58 le défi de l'exploitation de l'image satellitaire
00:27:01 et du coup, son accompagnement à bord sur les satellites.
00:27:07 Et depuis ce matin et les riches interventions
00:27:10 des uns, des unes et des autres, je me rends compte
00:27:13 que l'histoire de Palantir se mêle avec l'histoire
00:27:17 de la géographie militaire. Elle est faite finalement
00:27:20 des mêmes tensions, des mêmes frictions
00:27:24 entre l'humain, le terrain, et le central,
00:27:30 entre l'humain et la technologie, l'innovation,
00:27:34 l'intelligence artificielle, entre l'IA, l'interarmée
00:27:38 et les armées, mais également entre le centralisé
00:27:44 et le décentralisé. On a vu ce matin que parfois,
00:27:48 le tactique, quand on est au sud du Liban,
00:27:51 est très rapidement stratégique. Et c'est ces tensions
00:27:54 qui ont parcouru l'histoire de Palantir
00:27:57 et qu'on va essayer de pouvoir évoquer avec Jean.
00:28:00 Donc, le premier défi qui a été celui de Palantir,
00:28:06 c'était de pouvoir traiter de la donnée hétérogène,
00:28:10 multiple, sous différents formats, une donnée qui est
00:28:14 de plus en plus massive. Et son défi, ça a été de pouvoir
00:28:17 accompagner les opérateurs dans cette gestion de la complexité
00:28:21 en intégrant des données, en les traitant et en permettant
00:28:24 une première analyse. Alors, ça ne va pas contre
00:28:27 les efforts de normalisation, de labellisation,
00:28:31 d'interopérabilité qui ont été évoqués ce matin.
00:28:34 Loin s'en fout, ils sont complémentaires, mais le choix
00:28:37 a été de se dire, on n'arrivera jamais à normaliser
00:28:41 la donnée, elle sera toujours hétérogène par définition,
00:28:44 car les hommes et les femmes qui la produisent
00:28:47 sont tous et toutes différents. Et donc, il a été décidé
00:28:51 de pouvoir permettre de mettre en place des outils ouverts
00:28:54 qui allaient intégrer cette complexité et cette absence
00:28:58 de normalisation. Dans un même bureau, les personnes
00:29:01 ne taguent pas de la même façon des informations,
00:29:04 des administrations, des armées, directions et services,
00:29:07 voient le monde parfois différemment, des pays également.
00:29:10 Et donc, il a fallu apporter une solution
00:29:14 à ces efforts de normalisation qui ont été de pouvoir
00:29:17 produire des données hétérogènes et complexes.
00:29:20 Il s'agit donc d'un operating system, un système
00:29:23 d'exploitation de la donnée massive, il ne s'agit pas
00:29:26 d'héberger la donnée, il ne s'agit pas de pouvoir
00:29:30 l'analyser ni de la collecter, encore moins de pouvoir
00:29:33 faire de l'algorithmie. Il n'est ici question
00:29:36 que d'un système d'exploitation qui, dans des environnements
00:29:39 souverains, se déploie sur les infrastructures souveraines
00:29:42 opérées par les clients et partenaires
00:29:46 qui utilisent ces solutions, que ce soit dans le monde
00:29:49 de la géographie militaire, des armées, de la sécurité
00:29:52 ou dans le monde industriel. Et donc, forcément,
00:29:55 quand on traite de cette complexité, on est très centralisateur
00:29:58 finalement. On va avoir une solution qui,
00:30:02 comme nos partenaires, va être très centralisatrice
00:30:05 et le 1er défi de Palantir, ça a été de pouvoir
00:30:08 aller au contact et donc aussi de prendre
00:30:11 ce modèle qui n'était peut-être pas le meilleur
00:30:15 des modèles, mais qui nous a permis de pouvoir penser la donnée
00:30:18 dans ce qu'elle a de plus fondamental et de pouvoir travailler
00:30:21 sa gouvernance. Qui a le droit d'avoir accès à la donnée ?
00:30:24 Quand ? Pourquoi ? Quelle auditabilité de la donnée ?
00:30:27 Quelle traçabilité ? Quelle granularité ?
00:30:30 Tous ces efforts qui sont finalement les efforts d'un plombier
00:30:34 de la donnée, celui qui va s'attacher aux tâches les plus laborieuses
00:30:37 mais qui, malgré tout, font finalement le sel
00:30:40 de nos métiers sans, au final,
00:30:43 s'attacher à la visualisation de la donnée.
00:30:46 Vraiment, le métier était sur le corps de cette donnée brute.
00:30:50 Et donc, de la centralisation, grâce à la gouvernance
00:30:53 de la donnée, on a pu mettre en place des univers
00:30:56 très décentralisés, c'est-à-dire des univers,
00:30:59 des écosystèmes où chacun, parfois concurrent,
00:31:02 que ce soit des compagnies aériennes qui mettent en commun
00:31:06 les données de leurs avions alors qu'elles sont
00:31:09 concurrentes pour faire de la maintenance prédictive,
00:31:12 et également des pays partenaires quand ils sont sur un théâtre
00:31:15 d'opération. On a vu également combien aujourd'hui
00:31:18 l'action d'un Etat s'inscrit dans des actions
00:31:22 interarmées, interalliées et en coopération
00:31:25 et donc de permettre à pouvoir identifier la donnée,
00:31:28 savoir ce qu'on partage, comment on partage,
00:31:31 et de faire en sorte que des gens compétiteurs
00:31:34 puissent partager ce bout de vérité ensemble.
00:31:38 Et ça, ça a été possible grâce à la gouvernance des données.
00:31:41 Donc, centralisation, décentralisation,
00:31:44 et je vous ai parlé d'une intervention borderline
00:31:47 et je m'arrêterai là avant qu'on vous fasse une démonstration,
00:31:50 on est désormais à bord, à bord,
00:31:54 embarqués du coup les traitements sur des plateformes,
00:31:57 que ces plateformes soient des drones, des satellites,
00:32:00 puisque un opérateur de satellite commercial
00:32:03 a aujourd'hui fait confiance à cette solution qui s'appelle
00:32:06 Edge.AI, l'intelligence artificielle à bord,
00:32:10 et pourquoi ? Pour permettre ce qui est aujourd'hui
00:32:13 un peu l'alpha et l'oméga des grandes architectures systémiques,
00:32:16 la distribution géographique, algorithmique,
00:32:19 et c'est ce que Jean va vous exposer
00:32:22 avec quelques slides et puis des démonstrations
00:32:26 très concrètes et dynamiques.
00:32:29 - Merci, excellent.
00:32:32 Merci, bonjour à tous.
00:32:35 Pour replacer un tout petit peu dans le contexte
00:32:39 que je vais vous faire, j'aimerais commencer par un petit point historique
00:32:42 sur Palantir. Dès 2019, nos partenaires et nous
00:32:45 réalisons pour traiter de manière suffisante
00:32:48 la donnée en temps réel. Les modèles d'architecture centralisée
00:32:51 sont parfois limités. Ils ont toutes leurs places
00:32:54 lors des phases d'investigation, lors des phases de planification,
00:32:58 mais lorsqu'on attaque une phase opérationnelle,
00:33:01 ils ne sont plus forcément suffisants. D'une part,
00:33:04 les contraintes techniques sont très fortes, tant en termes
00:33:07 de puissance de calcul ou de bande passante. Lorsque le volume
00:33:10 de données générées augmente, les contraintes sur une plateforme
00:33:14 centralisée sont démultipliées. D'autre part,
00:33:17 opérationnellement parlant, une plateforme centralisée
00:33:20 constitue parfois un point de différence unique,
00:33:23 si vous me permettez l'expression, une seule connexion augmente
00:33:26 et toute votre base de données est dépeuplée.
00:33:30 Une approche naïve ne fonctionnera pas forcément. Si on a plusieurs
00:33:33 systèmes qui réfléchissent de manière centralisée, on se retrouve
00:33:36 en concurrence et incapable à réconcilier.
00:33:39 L'un des premiers éléments sur lesquels nous choisissons
00:33:42 de travailler pour ces données en temps réel,
00:33:46 c'est la vidéo. C'est un média très lourd
00:33:49 en sens de la quantité d'informations à encoder.
00:33:52 C'est un média très dense en termes de la quantité
00:33:55 d'informations opérationnelles qu'on tient et c'est un média
00:33:58 difficile à traiter. Un être humain est bien sûr
00:34:02 souvent beaucoup plus apte à comprendre le contenu d'une vidéo
00:34:05 d'un coup d'œil, on comprend très bien ce qui se passe
00:34:08 lorsqu'on observe une vidéo, qu'une machine.
00:34:11 Mais par contre il est limité, il ne peut regarder une seule vidéo
00:34:14 à la fois, éventuellement deux, mais ça va être compliqué.
00:34:18 Comparativement parlant, un algorithme peut s'approcher
00:34:21 des performances d'un humain mais sur des tâches très spécifiques
00:34:24 et très bien définies, par exemple la détection d'un objet
00:34:27 ou d'une phase d'intérêt logique. Par contre, cet algorithme
00:34:30 est lui capable de passer à l'échelle. Il peut traiter en single-chainé
00:34:34 des centaines de vidéos. Nous décidons de travailler sur ce problème
00:34:37 avec les mêmes principes, la même philosophie que Alexandre
00:34:40 a expliquée jusque-là, qu'au reste de l'écosystème à l'entière.
00:34:43 La question n'est pas forcément de répondre instantanément
00:34:46 ou de dire ce qui se situe dans une vidéo, mais c'est d'apporter
00:34:50 à l'humain la bonne information au bon moment, qualifiée,
00:34:53 augmentée par l'intelligence artificielle, plutôt que de prendre
00:34:56 la décision directement par un algorithme, comment présenter
00:34:59 à l'être humain la bonne information pour que lui puisse prendre
00:35:03 la bonne décision. Comme pour le reste de nos technologies,
00:35:06 Palantir se veut avant tout être un écosystème. Nos clients
00:35:09 peuvent amener leurs connaissances, leurs spécificités,
00:35:12 leurs algorithmes peut-être particuliers sur notre plateforme.
00:35:15 Nous construisons donc cette plateforme, Palantir Edge AI
00:35:18 ou VEPT, sur laquelle différents partenaires vont pouvoir venir
00:35:22 intégrer leurs spécificités.
00:35:25 Le logiciel est d'abord déployé sur des assets de type drone.
00:35:28 Ils intègrent alors plusieurs sources de données,
00:35:31 des caméras vidéo standard, des senseurs infrarouges,
00:35:34 mais également les données des bases inertielles ou des systèmes
00:35:38 de géopositionnement.
00:35:41 Je vais maintenant passer à la démonstration.
00:35:44 C'est le moment où rien ne va fonctionner.
00:35:47 On commence par... Est-ce que ça fonctionne ?
00:35:55 On commence dans l'interface de multisateur opérationnel.
00:35:59 On va pouvoir configurer les différents pipelines de données
00:36:02 sur la droite de l'image, ainsi que la bibliothèque
00:36:05 de modèles embarqués auxquels l'opérateur a accès.
00:36:08 Cette interface est disponible de manière déportée.
00:36:11 Elle peut être utilisée par un réseau local.
00:36:14 On n'a pas besoin d'être connecté sur un réseau plus global
00:36:18 pour pouvoir y accéder. L'opérateur est en train de regarder
00:36:21 les différents modèles disponibles.
00:36:24 En temps réel, l'opérateur peut regarder ce qui se passe
00:36:27 dans chaque pipeline de données. Ici, c'est une vidéo
00:36:30 provenant d'un drone au-dessus d'une route en Californie.
00:36:34 Ces données sont processées par les algorithmes
00:36:37 déployés sur la plateforme, puis envoyées vers notre plateforme
00:36:40 Gotham, et Gotham Video en particulier, où l'opérateur
00:36:43 va pouvoir voir en temps réel le flux vidéo
00:36:46 et commencer à mettre en rapport différentes observations.
00:36:50 Ici, c'est un peu rapide, mais l'opérateur passe
00:36:53 sa souris sur la vidéo, et on va voir peut-être
00:36:56 sur la carte en haut à gauche un petit point
00:36:59 qui apparaît, qui correspond à la position
00:37:02 de la souris sur la vidéo
00:37:06 et reprojetée sur la carte.
00:37:09 On va pouvoir venir ajouter des informations
00:37:12 à cette vidéo, typiquement une carte
00:37:15 ajoutée en surveillance. Ici, on ajoute
00:37:18 une carte routière standard, et ça nous permet
00:37:22 de suivre la progression de notre drone au-dessus
00:37:25 de cette autoroute. Jusque-là,
00:37:28 que des choses assez standards, on s'est servi uniquement
00:37:31 des données de géolocalisation disponibles par l'appareil,
00:37:34 ainsi que des données inertielles pour savoir où pointe la caméra
00:37:38 et calibrer l'image qui est ainsi reçue. On va aller ajouter
00:37:41 un peu d'intelligence, et on va commencer à se servir du flux vidéo
00:37:44 qui nous est ajouté. Là, l'opérateur, normalement...
00:37:47 On continue à regarder...
00:37:51 Là, c'est bon.
00:37:54 L'opérateur va venir ajouter
00:37:58 un algorithme de détection d'objets
00:38:01 qui a été préentraîné sur des images aériennes.
00:38:04 Et cet algorithme, comme vous pouvez le voir à droite,
00:38:07 tourne en parallèle. C'est-à-dire que ces deux processus sont
00:38:10 totalement indépendants, et la plateforme Edge AI est capable
00:38:14 d'orchestrer tous ces résultats. Dès que l'algorithme
00:38:17 est ajouté, on voit que le véhicule civil ici représenté
00:38:20 est mis en surbrillance
00:38:23 avec un petit carré bleu autour qui permet à l'opérateur
00:38:26 de repérer. On peut voir également sur la carte que la position
00:38:30 du véhicule est reprojetée sur la carte satellite.
00:38:33 D'autres véhicules passent.
00:38:36 La chose que l'on remarque maintenant, c'est que notre route,
00:38:39 la projection de notre route, c'est un peu décalé
00:38:42 par rapport à la réalité. On voit ici le trait jaune,
00:38:46 mais plus exactement bien aligné avec la route réelle.
00:38:49 Il peut s'agir d'un petit problème
00:38:52 de calibration de nos données inertielles,
00:38:55 ou peut-être juste de drift au fur et à mesure.
00:38:58 On va pouvoir ajouter à nouveau un processus dans notre algorithme,
00:39:02 une nouvelle étape de Geo-Redistraction, où on va venir
00:39:05 comparer le point de vue aérien avec une base de données connue
00:39:08 et prévue pour pouvoir instantanément recalibrer notre carte.
00:39:11 Une fois que ça a été ajouté,
00:39:14 on vient réaligner
00:39:18 les objets entre eux,
00:39:21 et à nouveau, notre camion est bien géolocalisé sur la route.
00:39:24 En termes techniques, pour décrire un tout petit peu
00:39:41 ce que l'on vient de voir, le logiciel Palantir FGI
00:39:44 a été déployé de manière embarquée sur le drone.
00:39:47 Il s'adapte à de nombreux types d'ordinateurs,
00:39:50 que ce soit des ordinateurs des serveurs classiques ou des ordinateurs embarqués.
00:39:54 Il peut être déployé simultanément sur plusieurs appareils,
00:39:57 et sur chaque appareil, la plateforme va venir orchestrer
00:40:00 en temps réel et de manière extrêmement précise
00:40:03 différents processus, différents algorithmes de machine learning
00:40:06 qui vont pouvoir traiter les données en entrée.
00:40:10 En entrée, on peut se connecter en temps réel
00:40:13 à différents capteurs, à différents senseurs,
00:40:16 à différents capteurs de géopositionnement,
00:40:19 des plateformes sur lesquelles il est déployé.
00:40:22 Lorsque les conditions le permettent,
00:40:26 typiquement si la connexion au système d'information est possible,
00:40:29 on peut également s'appuyer sur des bases de données historiques
00:40:32 ou sur d'autres systèmes d'information disponibles.
00:40:35 La donnée est préparée, coupée en frames par le logiciel,
00:40:38 et va être ensuite soumise à différents algorithmes
00:40:42 qui peuvent être réarrangés à la volée, comme nous l'avons vu.
00:40:45 Les conditions sur le fait que les contraintes de temporalité
00:40:48 sont toujours respectées. L'objectif est de traiter la donnée en temps réel.
00:40:51 Si un algorithme n'est pas capable de performer suffisamment rapidement,
00:40:54 le logiciel va savoir s'adapter, bypasser cet algorithme
00:40:58 pour assurer toujours la temporalité des données qui sont générées.
00:41:01 En sortie, la donnée peut être utilisée à plusieurs fins.
00:41:04 Ici, nous avons vu que la donnée était envoyée de manière locale
00:41:07 pour être consommée par un opérateur sur une plateforme fournie par Palantia.
00:41:10 Elle peut être également envoyée selon des protocoles standards
00:41:14 comme le cursor on target, vers d'autres types d'appareils
00:41:17 ou vers d'autres logiciels.
00:41:20 En cas de perte de communication, la donnée est bien sûr sauvegardée localement
00:41:23 et pourra être réenvoyée dès que les conditions le permettent de nouveau.
00:41:26 Et finalement, et c'est ça l'un des intérêts de cette plateforme embarquée,
00:41:30 c'est que même sans communication externe,
00:41:33 le logiciel peut effectuer des boucles de rétro-contrôle locales.
00:41:36 Ça peut être contrôler le drone ou envoyer des instructions
00:41:39 pour lui indiquer que le véhicule se dirige vers la gauche
00:41:43 et qu'il faut donc le suivre.
00:41:46 Ça peut être également passer une bande d'acquisition différente
00:41:49 si les conditions se dégradent, ou ça peut être simplement
00:41:52 arrêter la prise de vue parce qu'on détecte qu'il y a des nuages
00:41:55 et que donc il ne s'en sert plus à rien de gaspiller de la bande passante.
00:41:58 Finalement, et c'est là l'une des forces de la plateforme,
00:42:02 tous les nœuds Palantia et DJI sont compatibles
00:42:05 et vont pouvoir communiquer entre eux.
00:42:08 Si plusieurs drones survolent et observent avec différents angles de vue
00:42:11 ils pourront transmettre la position attendue du drone
00:42:14 aux autres drones qui pourront le faire figurer sur leurs flux vidéo
00:42:18 même si cet objet est obstrué par un mur, un arbre ou un nuage.
00:42:21 Toute cette machinerie est très importante
00:42:24 mais ses capacités se retrouvent démultipliées
00:42:27 lorsqu'on s'en sert dans le reste de la plateforme Palantia
00:42:30 et dans le reste de l'écosystème Palantia.
00:42:34 Alexandre l'a évoqué,
00:42:37 la plateforme Palantia est un système de surveillance
00:42:40 qui fonctionne avec les deux plateformes éditées par Palantia,
00:42:43 Foundry et Gotham.
00:42:46 Gotham est notre plateforme d'investigation
00:42:50 très utilisée par nos partenaires gouvernementaux
00:42:53 et de planification opérationnelle
00:42:56 avec un module de vidéo permettant aux opérateurs
00:42:59 de consommer la donnée générée par Palantia Edge
00:43:02 mais également taguer la donnée pour pouvoir la retrouver dans le futur.
00:43:06 Toutes ces données vidéos peuvent être utilisées
00:43:09 pour faire des suivis d'opérations en temps réel.
00:43:12 Sur Foundry, notre plateforme Big Data dans le cloud,
00:43:15 les data-architectes et data-scientists
00:43:18 peuvent déployer, entraîner, développer et déployer
00:43:22 de nouveaux modèles ou des améliorations aux modèles existants.
00:43:25 Lorsque les conditions le permettent, Palantia Edge
00:43:28 va automatiquement se connecter à ces plateformes,
00:43:31 télécharger une nouvelle mise à jour
00:43:34 et, si les conditions opérationnelles le permettent,
00:43:38 il va également renvoyer vers cette plateforme de contrôle centralisée
00:43:41 des données de télémétrie, de log, d'erreur
00:43:44 pour permettre aux équipes et aux développeurs
00:43:47 d'améliorer les modèles et de comprendre les performances
00:43:50 de ces modèles-là en condition d'usage réel.
00:43:54 Pour terminer avec les différences claires
00:43:57 et récapituler un peu les forces de Palantia Edge,
00:44:00 c'est une plateforme, un écosystème
00:44:03 qui est vraiment centré autour du client.
00:44:07 C'est vos capteurs, Palantia Edge utilise des API ouvertes
00:44:10 qui peuvent se connecter à différents types de capteurs et senseurs.
00:44:13 C'est vos plateformes, que ce soit hardware ou logiciel,
00:44:16 on peut venir s'intégrer dans différents types et différentes plateformes.
00:44:19 C'est vos modèles, et là c'est très important quand on travaille
00:44:22 avec des partenaires, on va pouvoir déployer des modèles propriétaires
00:44:26 qui vont être encryptés bien sûr lorsqu'ils sont utilisés
00:44:29 au point où Palantia n'a jamais accès au contenu même du modèle.
00:44:32 Et c'est finalement une architecture extrêmement extensible
00:44:35 où différents processus, différents algorithmes peuvent être réarrangés
00:44:38 à la volée afin de toujours répondre aux besoins opérationnels.
00:44:42 Peut-être un dernier cas d'usage
00:44:45 en rapport avec la cartographie unitaire et la géographie unitaire,
00:44:48 c'est l'amélioration de cartes dans un contexte opérationnel.
00:44:51 Et donc là j'explique un peu comment Palantia Edge peut être utilisé
00:44:54 pour ce type de problème.
00:44:58 Imaginons une unité qui possède une source de données statique
00:45:01 potentiellement obsolète à cause éventuellement de conditions
00:45:04 de la nature. Cette unité dispose de drones autonomes
00:45:07 qui peuvent être déployés et sur lesquels Palantia Edge a été installé.
00:45:10 Ces drones peuvent voler en formation de manière autonome
00:45:14 sans forcément avoir un PAX responsable de les faire voler
00:45:17 et de surveiller le retour vidéo en temps réel.
00:45:20 Par contre ces drones, lorsque Palantia Edge va détecter une incohérence
00:45:23 entre la base de données historiques et les observations qu'elles sont faites,
00:45:26 vont taguer cette information et la faire revenir vers un humain
00:45:30 qui va pouvoir analyser avec ses yeux et avec sa connaissance du terrain
00:45:33 les informations présentées pour éventuellement détecter
00:45:36 qu'un terrain n'est plus praticable.
00:45:39 Ici on voit un pont qui a été détruit.
00:45:42 Finalement ces modifications peuvent être réécrites
00:45:46 dans la plateforme opérationnelle Gotham pour bénéficier aux autres unités
00:45:49 et éviter que chaque unité ait besoin de répéter ce processus.
00:45:52 Et enfin pour terminer, je voulais monter un tout petit peu
00:45:55 et passer à l'espace et présenter rapidement une petite vidéo
00:45:58 sur la méta-constellation.
00:46:02 [Silence]
00:46:05 Le temps que ça charge, la méta-constellation c'est un nouveau produit de Palantia
00:46:30 où l'idée est de déployer cette plateforme Palantia Edge
00:46:33 directement sur des satellites.
00:46:36 Nous avons en avril, le 1er avril d'ailleurs, c'est pas une blague,
00:46:39 installé notre logiciel sur un satellite de l'entreprise privée Satellogic
00:46:42 qui a été envoyée et c'est le premier d'une longue série on l'espère.
00:46:45 L'idée c'est de pouvoir déporter le traitement de ces informations,
00:46:49 le traitement des images sur le satellite
00:46:52 pour, comme je l'ai expliqué auparavant,
00:46:55 pouvoir effectuer ces boucles de rétro-control,
00:46:58 une acquisition différente, une acquisition plus précise si on détecte une zone d'intérêt
00:47:01 pour pouvoir n'envoyer vers la Terre que les informations importantes
00:47:05 ou en tout cas, en priorité, les informations importantes
00:47:08 et les informations qui sont gégées utiles.
00:47:11 Ici, l'exemple qui est donné dans cette vidéo,
00:47:14 c'est la surveillance de zone pour tout ce qui est présence de sous-marins.
00:47:17 Donc, la plateforme de la méta-constellation va ensuite venir se connecter
00:47:21 à différents fournisseurs privés d'images
00:47:24 et est capable d'identifier le bon satellite avec la bonne orbite,
00:47:27 le bon algorithme, les bons senseurs pour prendre la bonne image
00:47:30 et ce, de manière régulière et répétée.
00:47:33 On va pouvoir définir une zone d'intérêt.
00:47:37 Quand les satellites passent au-dessus de cette zone d'intérêt,
00:47:40 ils vont acquérir des images sur lesquelles les algorithmes vont tourner
00:47:43 et si des changements sont détectés, si une information intéressante est détectée,
00:47:46 une alerte va pouvoir être levée pour qu'un opérateur humain, cette fois-ci,
00:47:49 puisse analyser cette image et prendre les décisions si nécessaires
00:47:53 ou éventuellement commander un nouveau satellite,
00:47:56 une nouvelle passe ou une nouvelle image.
00:47:59 Donc là, on voit l'interface avec une banque
00:48:02 de différents modèles fournis par différents partenaires,
00:48:05 une flotte de satellites à nouveau opérés par différents partenaires.
00:48:11 L'idée étant de pouvoir déployer le bon modèle
00:48:14 sur le bon satellite au bon moment.
00:48:17 Je vais laisser la vidéo se terminer, mais c'était une présentation
00:48:20 de Palantir Edge et la manière dont cela a rapport
00:48:24 avec la géographie militaire.
00:48:27 Je vous remercie et j'attendrai vos questions avec intérêt.
00:48:30 (Applaudissements)
00:48:33 (...)
00:48:36 -Je vous remercie à tous les 2 de cette présentation
00:48:39 qui nous amène dans le futur quasiment.
00:48:43 Merci aux 3 intervenants d'avoir respecté le délai de parole.
00:48:46 Comme vous le savez maintenant, la parole est à la salle.
00:48:49 Est-ce qu'il y a des questions ?
00:48:52 Je suis en train de me demander s'il y a des questions.
00:48:55 Pour le moment, il n'y en a pas. Très bien.
00:48:59 Est-ce qu'il y a des questions dans la salle ?
00:49:02 -Merci pour cette présentation de cette fois de technologie.
00:49:07 Existe-t-il un travail, notamment des industriels,
00:49:12 sur le cadre légal de mise en oeuvre de ces moyens
00:49:15 aussi bien d'acquisition image que de mise en...
00:49:19 dans la circulation aérienne ou spatiale ?
00:49:22 -Pourri faire voler un drone à la BSS, ça pose pas de problème.
00:49:26 Sur le territoire national, ce n'est pas permis.
00:49:29 Il n'existe pas de drone moyen d'endurance certifié.
00:49:32 Aussi, avec la justiciarisation du champ de bataille,
00:49:36 travaille-t-on à noirmer ou à cadrer un cadre légal
00:49:40 pour la mise en oeuvre de tous ces moyens ?
00:49:43 (Propos inaudibles)
00:49:46 (...)
00:49:50 -C'est vrai que c'est une excellente question
00:49:53 sur la réflexion du cadre légal.
00:49:55 Je pense qu'on peut l'adresser sur 2 points.
00:49:58 Je pense que le 1er, et c'est un point très important,
00:50:01 quand on travaille sur ces sujets qui sont de la donnée,
00:50:04 c'est comment permettre et offrir aux opérationnels
00:50:08 qui utilisent ces outils qui manipulent des données
00:50:11 souvent très sensibles, de pouvoir avoir une vraie auditabilité,
00:50:15 traçabilité, pouvoir suivre avec une vraie granularité
00:50:19 la donnée, comment ces données
00:50:21 de différents niveaux de confidentialité
00:50:24 peuvent contribuer à la création d'un produit d'impact opérationnel
00:50:27 qui, lui, sera dans un autre niveau de confidentialité,
00:50:31 et donc la nécessité, pour ces outils,
00:50:33 d'être en conformité au cadre légal.
00:50:36 Je pense qu'il ne faut pas demander à ces outils autre chose
00:50:40 que d'être conformes au cadre légal.
00:50:43 Ce cadre légal que vous évoquez, il est à construire, je crois,
00:50:47 par les Etats, et c'est de leur responsabilité
00:50:50 d'imposer des normes et des standards,
00:50:52 comme a pu le faire en 2015 la loi sur le renseignement,
00:50:55 à certains outils de renseignement.
00:50:57 Et je pense que dans ce que vous évoquez,
00:51:00 c'est aussi à l'Etat, dans son rapport stratège
00:51:02 avec ce qu'on doit faire ou ne pas faire avec la technologie,
00:51:05 d'imposer des standards et des règles très strictes.
00:51:09 Parce que ce n'est pas parce qu'on peut tout faire
00:51:12 avec la technologie qu'il faut tout faire avec la technologie.
00:51:16 Au contraire, il faut l'encadrer.
00:51:18 Et dans les outils que vous avez dû présenter,
00:51:20 si pendant très longtemps, on a parlé de security by design,
00:51:25 aujourd'hui, ces outils qui vous sont présentés
00:51:27 sont "legal by design", c'est-à-dire qu'ils intègrent
00:51:31 par définition et ontologiquement le cadre légal
00:51:35 et qu'il est nécessaire d'avoir un cadre légal très, très sec.
00:51:39 Le 2e point sur lequel je voudrais intervenir,
00:51:41 et peut-être te laisser la parole, Jean,
00:51:43 c'est que je pense qu'on parle beaucoup
00:51:46 d'intelligence artificielle, parfois de façon fantasmée.
00:51:49 Il est avant tout très important de pouvoir toujours
00:51:53 repositionner l'homme dans la boucle.
00:51:55 Ce qu'a montré Jean, c'est toujours des outils
00:51:57 qui permettent d'accompagner la prise de décision,
00:51:59 mais la prise de décision ne peut aucunement être confiée
00:52:03 à des algorithmes.
00:52:05 Il doit toujours avoir un homme dans la boucle
00:52:07 qui doit pouvoir décider, actionner, valider.
00:52:09 On est là pour l'accompagner dans sa prise de décision.
00:52:11 Ca a été dit, je pense, toute la journée.
00:52:13 Il y a énormément d'informations qui arrivent,
00:52:16 parfois qui ne sont même pas exploitées.
00:52:17 L'idée, c'est de réduire cette boucle de traitement
00:52:21 et alors que les opérationnels passent généralement 80 %
00:52:24 de leur temps à se battre avec des données
00:52:26 et des systèmes d'information qui ne sont pas interopérables,
00:52:30 d'inverser le rapport et de faire en sorte
00:52:32 qu'ils passent 80 % à réfléchir
00:52:34 et 20 % à se soucier de la donnée brute.
00:52:38 C'est bon.
00:52:39 Merci.
00:52:42 -Est-ce qu'il y a une ou deux autres questions ?
00:52:46 Monsieur.
00:52:47 -Je pense que ma question rejoint un peu celle de mon voisin,
00:52:50 mais je vais la poser en des termes plus naïfs.
00:52:52 Si j'ai bien compris, d'exposer monsieur sur Pléiade Néo,
00:52:57 Pléiade Néo produit de l'observation de la Terre
00:53:01 avec une résolution de 30 cm
00:53:02 et qui est commercialisée à 100 %.
00:53:05 Est-ce que j'ai bien compris ?
00:53:07 Et si oui, est-ce que ça a un effet sur le travail
00:53:10 et si oui, est-ce que ça n'est pas quand même un peu un problème ?
00:53:13 Je me souviens encore d'une époque pas si lointaine,
00:53:15 tout ce qui était à résolution de moins d'un mètre
00:53:17 était soumis à des restrictions extrêmement fortes,
00:53:20 notamment à l'exportation.
00:53:22 Et je me pose un peu la même question,
00:53:24 nous datant du temps de vie, pour Edge AI.
00:53:26 Alors là, vous n'avez pas évoqué le problème,
00:53:29 mais est-ce que Edge AI est un logiciel
00:53:31 que n'importe qui peut acheter ?
00:53:34 Et si oui, est-ce que cela aussi s'est passé à la porte ?
00:53:37 Pour en prendre un parti, on s'est fait appeler MNE.
00:53:41 Alors, il y a ce qu'on pratique en France
00:53:43 et ce qu'on pratique à l'étranger.
00:53:45 En France, il y a déjà des photos aériennes
00:53:48 qui sont prises avec des résolutions bien meilleures
00:53:51 et qui ne sont soumises à aucune réglementation.
00:53:54 Donc, il y a des endroits en France
00:53:57 qui sont soumis à des interdictions de survol
00:54:03 et qui, de fait, sont gardées.
00:54:05 L'image spatiale suit les mêmes règles
00:54:07 sur le territoire national.
00:54:10 Donc, les sites seront également floutés.
00:54:16 Par contre, à l'export, il n'y a pas d'imitation.
00:54:20 Après, il y a des...
00:54:23 Je ne sais pas si on peut appeler ça des règlements
00:54:25 ou au moins une relation avec la défense
00:54:29 qui fait que, sur certains pays,
00:54:31 on peut avoir des restrictions de vente
00:54:34 liées à la politique du gouvernement français.
00:54:37 Mais il n'y a pas d'interdits généralisés
00:54:40 malgré les résolutions de 30 centimètres.
00:54:44 -Je vais, du coup, citer notre patron
00:54:48 qui dit que Palantir,
00:54:50 ce n'est pas une société apolitique, en fait.
00:54:52 C'est une société éminemment politique
00:54:54 qui ne va pas s'extraire du monde
00:54:58 pour aller essayer de créer, du coup,
00:55:01 un monde parallèle, un métaverse
00:55:03 auquel s'arrête de reconstruire un monde
00:55:05 qu'on n'arrive pas à tenir en vie ici.
00:55:08 Et parce que c'est une société avec cette conviction
00:55:13 et des convictions qui sont très fortes,
00:55:15 elle estime aussi, et vous l'avez dit,
00:55:17 que ces technologies ne doivent pas être entre toutes les mains.
00:55:20 Et donc, aujourd'hui, ces technologies
00:55:22 qui sont, pour certaines, à usage gouvernemental,
00:55:25 sont utilisées...
00:55:26 Alors, le mot est peut-être un peu pompeux,
00:55:30 par les grandes démocraties occidentales,
00:55:33 et ne se feront que dans ce cadre-là.
00:55:36 La société, c'est toujours interdit
00:55:38 de pouvoir travailler avec des régimes
00:55:40 qu'elle a qualifiés d'autoritaires,
00:55:41 que sont la Russie, la Chine, notamment.
00:55:46 Et donc, aujourd'hui, il y a un cadre très strict d'éthique
00:55:50 sur ces sujets-là,
00:55:52 sur le... Malgré tout, ce que vous avez vu,
00:55:55 c'est-à-dire la capacité de pouvoir embarquer
00:55:58 de l'algorithmie et du traitement algorithmique
00:56:00 sur des capteurs.
00:56:02 C'est utilisé, comme ça a été dit,
00:56:04 sur un satellite commercial
00:56:06 pour accompagner les utilisateurs de ce satellite.
00:56:08 Et je crois que ça a été très bien dit tout à l'heure
00:56:10 sur comment gérer toutes ces données.
00:56:13 Si j'ai une prise de vue avec un nuage,
00:56:15 pas la peine de la faire redescendre.
00:56:17 C'est aussi déployé sur des chaînes de montage
00:56:21 pour pouvoir accompagner, du coup,
00:56:23 des traitements algorithmiques
00:56:24 sur des chaînes de montage très complexes.
00:56:27 Ça accompagne aussi, encore récemment,
00:56:29 une start-up qui travaille dans les exosquelettes.
00:56:31 Et quand elle veut mettre à jour, du coup,
00:56:34 le traitement algorithmique de ces exosquelettes,
00:56:36 elle passe par cette plateforme
00:56:38 qui permet de déployer ça de façon dynamique
00:56:41 avec des évolutions sans nécessité des interventions humaines.
00:56:44 Donc, en fait, ce qu'on vous a présenté,
00:56:46 c'est des usages très particuliers, très gouvernementaux,
00:56:48 qui sont dans un strict environnement.
00:56:51 C'est dual, et ça peut alimenter des chaînes de production,
00:56:54 des chaînes de montage,
00:56:56 pour aussi identifier les défauts de pièces.
00:56:58 Et donc, c'est dans des cadres beaucoup plus civils.
00:57:02 Et c'est aujourd'hui déployé dans ce cadre-là.
00:57:05 -Vous pouvez vous positionner, je crois,
00:57:08 en haut de la table.
00:57:10 -Merci beaucoup.
00:57:11 Pour la limite des questions, peut-être avec une autre chaîne.
00:57:15 La première question, est-ce que les réglementations
00:57:18 de la gestion de l'économie personnelle
00:57:20 sont encore utiles ?
00:57:22 -Excusez-moi.
00:57:23 Je la représente dans le micro.
00:57:26 Dans la lignée de ces questions, mais peut-être à une autre échelle,
00:57:28 dans quelle mesure est-ce que les récents règlements
00:57:31 sur la gestion des données personnelles
00:57:33 passées en Union européenne
00:57:35 ont limité, bien sûr, l'exportation de ces images
00:57:37 dont la résolution à 30 cm, effectivement,
00:57:42 pourrait être considérée comme ayant un impact
00:57:46 sur les données personnelles des personnes
00:57:50 qui pourraient se retrouver présentées sur ces images ?
00:57:51 Est-ce que ça vous limite ?
00:57:54 -Pour les images, honnêtement,
00:57:56 avec les résolutions qu'on utilise,
00:57:59 c'est pas encore très intrusif dans la vie personnelle des gens.
00:58:03 C'est-à-dire qu'on reconnaîtra qu'il y a une voiture devant chez vous.
00:58:07 Je suis pas sûr qu'on soit en capacité
00:58:08 d'identifier tout à fait le modèle de voiture.
00:58:11 On pourra deviner qu'il y a quelqu'un
00:58:12 qui se promène dans le jardin.
00:58:14 On verra ou non, on devinera une personne.
00:58:17 On pourra pas dire qui c'est.
00:58:18 On pourra pas dire si elle est nue ou habillée.
00:58:22 Donc l'intrusion est relativement modérée.
00:58:25 Et jusqu'à présent, il n'y a pas de législation sur ce sujet.
00:58:31 -Alors, une dernière question, mon capitaine.
00:58:37 -Qu'est-ce que vous pensez, justement,
00:58:39 sur la capacité de pouvoir générer des algorithmes
00:58:42 pour adapter les systèmes à des nouveaux milieux ?
00:58:44 Aujourd'hui, nous, on nous demande de se déshabiller de la BSS.
00:58:50 De se déshabiller de la BSS,
00:58:51 c'est des problématiques qui sont associées.
00:58:54 Et on nous parle de guérir des prix qui nous tournent
00:58:56 vers des milieux qui sont beaucoup plus façonnés
00:58:58 par la main de l'homme.
00:59:00 Ce qui me fait rebondir, en fait, sur l'intelligence artificielle
00:59:03 qui était, par souci de pouvoir coller au plus près
00:59:07 des besoins des armées,
00:59:08 centrée sur les parties d'Avant-Celos, Ariène,
00:59:10 et donc toutes les problématiques qui vont avec.
00:59:12 Aujourd'hui, en se tournant vers, par exemple, le centre-Europe,
00:59:15 ce genre de milieu qui est complètement aux antipodes
00:59:17 de ce qu'on a pu avoir ces dernières années,
00:59:20 est-ce qu'on a des solutions et des pistes
00:59:22 qui ont été faites en interindustrielles
00:59:27 pour, justement, accompagner les systèmes
00:59:29 d'intelligence artificielle
00:59:30 pour une réadaptation vers des nouveaux milieux
00:59:32 qui sont, justement, à l'opposé de ce qu'on avait avant ?
00:59:36 C'est une excellente question.
00:59:39 La réponse sera un peu modulée par le fait
00:59:42 que Palantir ne développe pas de modèles
00:59:45 d'intelligence artificielle,
00:59:47 mais se contente de déployer des modèles de nos partenaires.
00:59:49 Par contre, une des améliorations techniques
00:59:51 que l'on a faites récemment,
00:59:53 c'est la capacité de "fast retraining",
00:59:55 de prendre un modèle préentraîné
00:59:57 et d'utiliser des images générées ou capturées
01:00:01 sur un nouveau terrain pour venir réentraîner notre modèle.
01:00:04 Donc un opérateur qui va venir, en temps réel,
01:00:06 quasiment taguer des images.
01:00:08 Le modèle va être réentraîné à "the edge",
01:00:10 va être entraîné au plus proche de là
01:00:12 où l'algorithme est déployé,
01:00:13 et le nouvel algorithme va être redéployé instantanément.
01:00:17 Je pense que la question est aussi intéressante
01:00:19 parce que souvent, les problèmes que l'on voit,
01:00:21 c'est que des modèles nouveaux sont disponibles,
01:00:23 mais pour l'amener là où la donnée est traitée,
01:00:27 eh bien, les problèmes logistiques sont importants.
01:00:30 Et c'est également la force de Edge AI,
01:00:34 avec sa capacité à se connecter
01:00:38 sur plusieurs banques de données,
01:00:39 de banques de modèles différentes,
01:00:40 et de ce qu'on appelle "hot swap",
01:00:43 le fait de changer les modèles
01:00:44 alors que l'asset est encore en vol, par exemple.
01:00:47 -E. Macron.
01:00:48 -Nous entendons bien
01:00:50 que ces 2 interventions suscitent un certain nombre d'interrogations.
01:00:53 J'avais moi-même une question à poser sur les fonds marins,
01:00:55 est-ce qu'on peut adopter le système dans les fonds marins ?
01:00:58 Il y en a eu des questions ce matin
01:00:59 grâce à la question de Philippe Jardin,
01:01:01 et je vois l'heure tourner.
01:01:02 Et il me semble bon de nous arrêter ici
01:01:04 pour une pause de 5 minutes.
01:01:06 Donc nous reprenons à 16h55
01:01:09 pour la dernière session de ce colloque.
01:01:11 Je crois que nous pouvons remercier une nouvelle fois
01:01:12 les 3 intervenants.
01:01:14 (...)
01:01:19 [SILENCE]

Recommandations