Jeudi 10 octobre 2024, SMART BOURSE reçoit Patrick Pansier (Head of Data Digital Innovation, LBPAM)
Category
🗞
NewsTranscription
00:00Le dernier quart d'heure de Smart Bourse, chaque soir, c'est le quart d'heure thématique.
00:13Le thème ce soir, c'est un thème industriel au cœur de la gestion d'actifs, comment
00:17bâtir une stratégie IA ? Nous en parlons avec Patrick Pensier, responsable Data, Digital,
00:23Innovation de LBPM.
00:24Bonsoir Patrick.
00:25Bonsoir Guillaume.
00:26Merci d'être là.
00:27Ma question c'est comment on se forge une conviction sur l'intérêt et la stratégie
00:32IA qu'on peut mettre en place dans une organisation comme LBPM ? J'ai oublié de regarder, je
00:38voulais avoir les encours globaux de LBPM, vous avez le chiffre en tête pour donner
00:42la perspective et l'ordre de grandeur.
00:44Dans un groupe qui gère 70 milliards d'euros d'encours, c'est quoi une stratégie IA ?
00:49Il faut nous rappeler peut-être un peu l'importance des données aussi dans ce métier peut-être
00:53parce que qui dit données dit besoin de raffiner, de comprendre ces données et de les traiter
00:59Patrick.
01:00Oui tout à fait.
01:01Nous on est, comme tu le sais, on a une méthodologie de gestion des données ISR, donc on est très
01:09axé ISR, on a notre propre promoteur de scoring qu'on exploite et on exporte sur des plateformes
01:15digitales et donc on a construit effectivement tout un entrepôt de données ISR, on sait
01:23effectivement bien les traiter, c'est des données qui sont compliquées à manipuler
01:29de par leur exhaustivité, leur hétérogénéité etc.
01:34Et donc ça nécessite pas mal de technologies.
01:36C'est quoi le volume de données ? Il y a une mesure qui permet de se rendre compte
01:40du volume de données qui passe par ces outils-là ?
01:43Pour traiter ISR, nous on a la chance d'avoir une plateforme Big Data qui gère toute notre
01:49ISR, donc elle a été primée plusieurs fois, on a reçu hier encore le prix de l'MTechD
01:55sur l'innovation EFG.
01:56Félicitations à l'équipe.
01:57Merci beaucoup, je suis pas peu fier et on traite en gros ces 70 000 compagnies sur
02:06lesquelles on récupère des données ISR et à peu près 5000 points de données et
02:1025 sources de données différentes.
02:12Et maintenant on crée nous-mêmes de la donnée aussi.
02:17Donc c'est 5000 points de données pour 70 000 entreprises avec 25 types de sources de
02:23données.
02:24C'est assez important.
02:25On laissera faire le calcul.
02:26Mais ça fait beaucoup.
02:28Comment on bâtit une stratégie quand on a effectivement ce volume de données à traiter ?
02:32C'est autour des enjeux ISR bien sûr, mais le sujet c'est le volume de données et la
02:37stratégie liée à l'usage de l'intelligence artificielle.
02:42Quels sont les axes que vous avez définis là Patrick ?
02:45J'aime bien citer Philippe Sedbon qui a dit récemment les sociétés de gestion seront
02:50digitales ou ne seront pas.
02:52Président de l'EFG, entre autres.
02:54Ça a été repris par le BCG récemment aussi et plus particulièrement sur l'IA et l'IA
03:01générative.
03:02Donc on sait qu'il y a une stratégie à bâtir, il y a des choses à mettre en place.
03:06Alors je dirais que pour bâtir sa stratégie, nous on estime qu'il y a trois grands sujets
03:12qu'il faut aborder.
03:13Il y en a d'autres mais nous c'est les principaux.
03:15Déjà tu parlais des données, on parle aussi de la sécurité des données parce que c'est
03:20notre patrimoine.
03:21Et la sécurité des données c'est quoi ? Déjà c'est un nouveau canal, l'IA générative,
03:25c'est un nouveau canal de fuites de données.
03:27On en accable beaucoup avec le mail.
03:29C'est un risque.
03:30Avant tout, vous dites c'est un risque en fait.
03:32Il faut se protéger quoi.
03:33Alors il y a beaucoup de sociétés qui ont coupé le chat GPT gratuit pour leur collaboration.
03:39Nous aussi, c'est vrai que c'est quelque chose où on ne peut pas laisser des documents
03:43importants, classifiés on va dire, sensibles, partir sur une IA générative qu'il y a à
03:51prendre avec.
03:52Donc nous ce qu'on a défini pour cette partie fuite de données, parce que j'ai un exemple
04:00tout bête qu'on m'a reporté.
04:02Une société cotée qui doit publier ses résultats semi-annuels, le traducteur attrape
04:10le Covid.
04:11Comment on fait pour traduire en moins de deux jours le rapport annuel ? On s'est dit
04:14tiens, chat GPT c'est pas mal.
04:16Et effectivement c'est pas mal parce que le rapport annuel n'a jamais été aussi
04:19bien traduit.
04:20Et puis en moins de deux jours j'imagine.
04:21En moins de deux jours.
04:22Sauf qu'il y a quand même quelqu'un qui s'est dit tiens, est-ce qu'en mettant notre
04:26rapport annuel sur chat GPT, ça ne lui a pas permis d'apprendre des choses ?
04:31Et là ils ont regardé et tous les résultats étaient en ligne.
04:33Donc comment faire ? Là ils ont appris à faire ce qu'on appelle l'hallucination, c'est-à-dire
04:38à envoyer plusieurs versions du rapport annuel avec des données complètement farfelues
04:45pour que le moteur ne soit plus capable de donner la bonne réponse.
04:48Mais ça c'est les choses qui arrivent.
04:50Et pareil sur les IA plus sécurisées comme une IA copilote de Microsoft que de nombreuses
04:57compagnies ont adopté, qui est le compagnon qui est fourni avec Office, le compagnon
05:03IA.
05:04Même là, c'est-à-dire que les documents, tout ce qui est donné maintenant, l'IA
05:09elle sait tout ce que le collaborateur a accès dans le système d'information.
05:13Aujourd'hui moi je ne suis pas sûr de connaître tout ça, tous les documents auxquels j'ai
05:17accès.
05:18Et donc il y a des cas d'usage par exemple, des sociétés où les personnes ont regardé
05:23est-ce que je peux accéder au salaire du président ? Est-ce que je peux accéder par
05:28exemple à des données liées à des mots de passe ? Et l'IA générative va chercher
05:34sur tous les documents auxquels le collaborateur a accès, que lui-même ne sait pas, et trouve
05:39des mots de passe sur des serveurs, des choses comme ça.
05:41Premier pilier stratégie 1, c'est la sécurité, pour qu'on avance un peu Patrick, parce que
05:46sinon…
05:47Oui, oui, je vois bien, mais moi je vois l'heure, pour qu'on ait le temps d'aller au bout
05:51de cette stratégie.
05:52Après je dirais que le deuxième, c'est le LLM, donc on a beaucoup parlé…
05:56Donc modèle de langage large, c'est ça.
05:58Les large langage modèles, qu'on a beaucoup, on va dire, cités l'année dernière.
06:02Aujourd'hui c'est vrai que nous on a fait pas mal de prototypages, et on s'aperçoit
06:06que finalement ce n'est pas l'alpha et l'oméga de l'IAGN, c'est plutôt comment
06:10finalement on va réussir à connecter plusieurs moteurs finalement un peu à la demande en
06:15fonction des cas d'usage, parce que des fois il y en a un qui est devant l'autre,
06:18il y en a un qui consomme plus de données, plus de capacités GPU, et donc on va plutôt
06:24avoir besoin d'une plateforme qui va finalement intermédier entre l'infra, la sécurité,
06:30les LLM, le RAG, le corpus documentaire qu'on va… et le sécurisé, ce corpus documentaire
06:36qu'on va mettre à disposition du LLM, donc c'est des choses qu'on a plutôt travaillé,
06:41c'est la plateforme IA.
06:42C'est quelque chose d'assez flexible, qui permet un peu du sur-mesure comme ça,
06:47si j'essaye de comprendre Patrick.
06:49C'est des plateformes qui vont connecter finalement tous les composants et qui vont
06:51fournir finalement une plateforme qui est facile d'usage, où le ticket d'entrée
06:56sera beaucoup plus simple, on n'aura pas besoin de mettre en place un moteur, une
07:00base de données vectorielle, alors la vectorielle c'est pour transformer le texte en chiffres,
07:07et c'est plus facile pour un process d'aller comparer des chiffres entre eux pour voir
07:11les similitudes.
07:12Donc ça c'est la base un petit peu de ce qu'on va donner en apprentissage et
07:18le corpus documentaire qui va servir au LLM.
07:20Donc ça c'est vraiment le deuxième aspect, c'est la plateforme IA, c'est comment
07:24je simplifie et j'accélère finalement mes projets.
07:28Et le troisième point finalement c'est l'infra, et c'est un peu connecté au
07:32deuxième, c'est-à-dire que l'infra c'est les fameux GPU, les processeurs, je connais
07:37NVIDIA depuis très longtemps, pour ceux qui font du jeu vidéo par exemple.
07:42Oui j'allais dire quand même, c'est vrai que quand j'ai entendu que tout le monde
07:44découvrait NVIDIA, il y a quand même toute une communauté de gens qui ont vécu avec
07:48NVIDIA à travers les jeux, c'était quand même aussi sur, enfin NVIDIA c'était
07:52sur les PC comme Intel quoi, enfin je veux dire, bon bref.
07:54On est d'accord, mais maintenant c'est les GPU.
07:57Voilà c'est les GPU, donc l'accès aux GPU, tout le monde ne peut pas se payer
08:01des GPU.
08:02Plusieurs dizaines de milliers de dollars, c'est ça.
08:04Exactement, il faut les renouveler etc, donc c'est un vrai investissement, donc là maintenant
08:08le modèle c'est plutôt un modèle locatif, il faut trouver des GPU, et là c'est pareil,
08:14ces plateformes-là vont permettre d'accéder on-demand, finalement de ne payer qu'à l'usage,
08:19et ça c'est les trois points qu'il faut surveiller pour aussi contenir ses coûts.
08:24C'est quoi les cas d'usage que vous pouvez déjà développer là concrètement chez
08:27LBPM partant de ce socle que vous avez décrit ?
08:31Pour définir ce socle-là, qu'est-ce qu'on a fait ? On a fait un prototype sur les appels
08:37d'offres, sur la réponse à l'appel d'offres, et ça c'est finalement un sujet qui est hyper
08:42intéressant parce qu'on en a tout le temps, ça prend des heures, les gens finissent à
08:46minuit, c'est un peu rébarbatif j'imagine, et donc là ce qu'on s'est dit c'est qu'on
08:50va finalement emmagasiner tous nos appels d'offres passés dans notre base de données,
08:55les vectoriser pour les transformer en chiffres, et ensuite dès qu'un nouvel appel d'offres
09:02arrive, on récupère les questions, ça c'est facile, dans les présents appels d'offres
09:06on a bien découpé le document pour isoler les réponses et les questions, et là on
09:10n'a plus qu'à finalement comparer les vecteurs entre eux, c'est-à-dire les questions avec
09:14les questions, on récupère les questions les plus proches, on les propose à l'utilisateur
09:19qui va nous dire, tiens celles-là sont pertinentes pour les nouveaux appels d'offres, et là
09:24je sais que c'est ces réponses-là qu'il faut que je mette dans mon LLM pour qu'il
09:28puisse faire la réponse la plus pertinente possible, et ensuite j'ai plus qu'à appeler
09:31mon moteur, il va me générer une réponse complètement nouvelle.
09:35Et on peut le faire en toutes les langues.
09:36Et en toutes les langues, exactement, donc ça c'est super, on l'a prototypé, notre
09:41on va dire réponse d'appel d'offres l'utilise, et donc ça nous a permis finalement de définir
09:46un peu cette architecture technique qu'il faut.
09:48Un autre exemple, rapide.
09:50Alors un autre exemple après, on a par exemple des chatbots qu'on pourrait mettre en place
09:55dans l'entreprise, donc il suffit de mettre tous les documents de l'entreprise à un endroit,
09:59et ensuite le collaborateur, pour des pratiques RH, juridiques, compliance, etc., peut poser
10:04toutes les questions qu'il veut, et ça soulage les équipes, on va dire, de tous ces mails
10:10qu'ils reçoivent tous les jours en fait.
10:12Est-ce qu'on en a déjà pour son argent ? Quand on pilote des projets comme ça, est-ce
10:15que ça reste du test avec des équipes un peu pionnières, avant-gardistes sur ces
10:20sujets-là, ou est-ce qu'on est déjà au moment où ça vaut le coup de déployer au
10:25maximum et au plus grand nombre ces outils ?
10:27Dans un groupe comme LBPM ?
10:31Oui, tout à fait, on sait qu'il y a un ROI, c'est sûr, parce qu'il est difficile à mesurer
10:38ce ROI.
10:39Mais on pressent qu'il y a un retour sur l'investissement intéressant quand même.
10:42Les études parlent, j'ai lu une dernière étude, je ne sais plus si c'est du BCG ou
10:47de Deloitte, mais c'est autour de 10-20%, et il y en a d'autres, c'est plutôt 10-45%.
10:53Donc ça dépend vraiment…
10:54La dispersion, oui c'est ça, l'évaluation est assez large.
10:57Et je dirais que la clé là-dedans, c'est vraiment, parce que c'est le collaborateur,
11:01ce n'est pas l'IA qui va travailler, c'est le collaborateur qui va être assisté par
11:05une IA, donc on parle de collaborateur augmenté quelque part.
11:08Et moi je fais le parallèle…
11:09Il faut qu'il soit d'accord pour ça ?
11:10Il faut qu'il soit d'accord.
11:11Je fais le parallèle avec la robotisation il y a quelques années, la RPA, tout de suite
11:18on voit que c'est assez intéressant, mais on voit qu'il y a un problème d'adhésion,
11:21il y a un problème, l'utilisateur est un peu sceptique par rapport à ces nouveautés
11:25qui empiètent un petit peu sur leur travail, leur manière de travailler, et donc c'est
11:31vrai qu'il y a une acculturation à pouvoir, je pense que ça c'est vraiment la clé,
11:34acculturation, détecter un petit peu les champions, les ambassadeurs de demain, donc
11:39ceux qui vont venir toquer à la porte avec des cas d'usage, et là il faut prévoir
11:42un dispositif pour les aider, c'est-à-dire une sorte de support IA, on appelle ça un
11:47peu comme le Genius Bar de l'IA, comme les Apple Store avec le Genius Bar, là c'est
11:52un peu pareil, le collaborateur va arriver avec ses use case et va se faire supporter
11:56par une équipe…
11:57Qui va lui expliquer ça normalement ?
12:00Exactement, tout à fait !
12:01Merci beaucoup Patrick, merci d'être venu nous voir pour évoquer cette stratégie IA,
12:07c'est dans le monde de la gestion d'actifs parce qu'on est dans Smart Bourse, mais
12:10vous voyez bien que tout ça est applicable et réplicable à différentes industries.
12:14Patrick Pensier, responsable Data Digital Innovation de l'LBPM, est avec nous l'invité
12:18de ce dernier quart d'heure de Smart Bourse.
12:19Merci François !