Legaltech : adoption d'un code de conduite sur l'IA générative avec Guillaume Carrère, co-fondateur du groupe France Digitale Legaltech.
Category
🗞
NewsTranscription
00:00On commence tout de suite cette émission et on va parler d'un code de conduite sur l'IA
00:15générative adopté par le groupe France Digital Legal Tech et pour en parler j'ai le plaisir
00:21de recevoir Guillaume Carrère, cofondateur du groupe France Digital Legal Tech. Guillaume,
00:28bonjour. Bonjour Arnaud. Alors le monde juridique est un peu en effervescence avec
00:33l'intelligence artificielle générative, c'est lié à la création de ChatGPT il y a deux ans et la
00:41vulgarisation de l'intelligence artificielle générative. Dans ce contexte, France Digital
00:47Legal Tech a souhaité faire un code de bonne conduite de l'IA générative. Expliquez-nous
00:54cette démarche Guillaume. Je pense que vous le dites, le premier sujet c'est qu'on fête un
00:59anniversaire. On souffle les deux ans de l'arrivée de ChatGPT qui a été une véritable révolution dans
01:04le monde du droit et autant au début il y avait du scepticisme mélangé à de l'enthousiasme et
01:10autant aujourd'hui, globalement c'est de l'enthousiasme qui l'a remporté et donc tout le
01:16monde du droit, les instances représentatives, etc. confirment que les bénéfices de l'IA
01:20générative vont être considérables pour les différentes professions du droit. Le problème
01:26c'est qu'il reste des questions et ces questions c'est souvent les mêmes, c'est véritablement
01:32est-ce que mes données sont sécurisées ? Est-ce que les réponses qui sont apportées par l'IA sont
01:38fiables ? Mais aussi est-ce que ma déontologie est respectée ? Et le problème c'est que toutes
01:44les IA ne se valent pas et que les IA généralistes et donc pas les IA juridiques, répondent pas
01:50véritablement à ces questions voire posent des vraies questions de fiabilité liées à ces principaux
01:56doutes. Pour bien comprendre peut-être rappeler Guillaume les risques liés à l'IA pour les
02:01téléspectateurs qui sont pas au fait de ces questions. Les risques liés à l'IA ils sont
02:06de l'ordre de deux grandes principales catégories, le premier c'est la sécurité, véritablement des
02:13réponses qui sont apportées, est-ce qu'il y a des biais ? Est-ce qu'il y a des hallucinations ? Est-ce
02:17qu'il y a des erreurs ? Donc on aura l'occasion d'en reparler et ça c'est un sujet véritablement
02:20important et donc notamment quand on entraîne ces modèles sur des données qui ne sont pas que des
02:25données juridiques ou alors quand on envoie ces données à l'étranger, quand on utilise
02:29chat GPT et que ça part directement aux Etats-Unis, ça c'est véritablement un risque. Voilà donc ça
02:33c'est un des gros problèmes et le deuxième c'est vraiment la confidentialité de ces données,
02:38notamment pour une profession qui a des engagements quasiment sans pareil vis-à-vis de ses clients.
02:42Et donc nous chez Doctrine, on a ces sujets de sécurité et de confidentialité au centre,
02:48ces sujets de sécurité juridique aussi, de comment on apporte plus de fiabilité et donc
02:53on a voulu l'étendre, ce concept au-delà de Doctrine, à travers le groupe France Digital
03:00Legal Tech pour s'assurer que ça irrigue un petit peu la filière et que ça fasse émerger
03:06un alignement sur comment on fait des IA plus responsables et c'est ça l'objectif de ce code
03:13de bonne conduite. Alors d'accord, on voit bientôt l'objectif, quels sont les signataires
03:20et quels sont les grands enjeux avec ce code ? Alors ce qui est intéressant avec les signataires
03:24c'est qu'ils sont assez variés et donc à la fois il y a des Legal Tech qui adresse tout type de
03:29clients du monde du droit bien sûr, les experts comptables, les juristes, les avocats, les notaires
03:34mais aussi les justiciables et à la fois il y a des entreprises de toute taille et qui ont des
03:39propositions de valeurs assez variées, donc on va retrouver les grands noms que vous connaissez,
03:44les Legal Stark, les Deep Block, les Tomorrow, les Gino ou bien évidemment les Doctrine,
03:50voilà et donc c'est ça qui est intéressant, c'est qu'on fédère véritablement l'ensemble
03:55de la filière sur ces enjeux-là. Donc tout l'écosystème est fédéré autour de grands
04:00principes, quels sont les principes édictés dans ce code ? Alors les principes ils sont au
04:05nombre de six, le premier c'est la sécurité et la confidentialité, là encore tout naît de ce
04:11sujet-là et on veut assurer nos clients qu'on assure véritablement la confidentialité et la
04:18sécurité de leurs données, c'est primordial pour nos clients, c'est vraiment un des feedbacks
04:22principales quand on les interroge sur leurs doutes vis-à-vis de lien. Le deuxième il est
04:26lié à la transparence et la transparence il y a deux éléments à l'intérieur, le premier c'est la
04:31transparence des technologies qu'on utilise et donc ça les clients veulent savoir et on a besoin
04:37de leur dire quelle technologie on utilise mais aussi qu'on utilise de la technologie et donc
04:41parfois on peut avoir des réponses sans savoir qu'elles viennent de l'IA et donc l'engagement
04:45de la Legal Tech sur ce sujet-là en tout cas de ce groupe qui a signé ce code de bonne conduite
04:50c'est de dire non seulement quelle technologie on utilise mais aussi qu'on en utilise quand on
04:53apporte des réponses. D'accord, par exemple j'utilise ChatGPT, Perplexity, Cloud, etc. Exactement, alors c'est
04:59principalement très souvent des large langues modèles et donc plutôt ChatGPT, Mistral et autres
05:05OpenAI parce que c'est beaucoup sur ces technologies open source qui dominent quand même
05:10encore ce sujet-là que les entreprises comme les nôtres et bien entraînent des modèles, les
05:14verticalisent et les sécurisent sur le monde du droit. Donc ça c'est le premier sujet, le deuxième
05:19sujet transparence, la troisième c'est la limitation des biais donc selon la façon dont vous entraînez
05:23vos modèles, selon les données que vous mettez en entrée, il peut exister des biais avec les
05:27génératives et donc cet engagement des 14 signataires de ce code de bonne conduite c'est
05:32de les limiter. Ensuite vous avez un sujet qui est central c'est celui de la formation et de la
05:37sensibilisation donc ça c'est le quatrième aspect et donc bien évidemment il faut former, entraîner
05:43les juristes pour qu'ils comprennent et qu'ils maîtrisent progressivement ces technologies, qu'ils
05:47n'en attendent pas trop aussi parfois et qu'ils sachent s'en servir véritablement comme d'un
05:52support. Ensuite il y a un notion de responsabilité et de contrôle humain. Qu'est-ce que ça veut dire ?
05:59Responsabilité et contrôle humain ça veut dire que l'IA ne va pas remplacer le juriste mais ça
06:06veut aussi dire néanmoins qu'il faut lui donner les moyens de contrôler le travail de l'IA et
06:09notamment par exemple dans le fait de lui présenter des sources et ça là aussi c'est quelque chose
06:14qui est vraiment très demandé par nos clients. Et enfin le dernier sujet c'est la propriété des
06:19données générées et donc il faut absolument garantir à nos clients quand ils nous confient
06:24des données qui sont les leurs, qui sont le fruit de leur travail souvent ou celle de leur client
06:28et bien bien évidemment qu'elles seront sécurisées mais aussi qu'on ne les réutilisera pas pour
06:33entraîner nos modèles et ça c'est un élément important aussi et là encore ça peut être un
06:38petit angoisse pour nos clients et c'est qu'on ne les partagera pas avec le reste de l'écosystème
06:44et donc ça c'est des engagements extrêmement fermes qu'on prend à travers ce code de bonne
06:48conduite. Alors comment vous articulez ce code de bonne conduite avec le cadre juridique européen,
06:54je pense par exemple aux règlements sur l'intelligence artificielle ? Et bien en vérité
07:00ce code de bonne conduite il vient un petit peu en amont de l'IA Act, il en suit les grands
07:06principes mais l'IA Act prend encore un petit peu de temps à être véritablement ancré et
07:12puis la régulation pour le coup les régulateurs nationales là aussi ça prend du temps donc nous
07:17notre sujet c'est de préempter tous ces sujets là, de s'aligner aussi avec les travaux qui sont
07:23faits par les organes représentatifs de la profession notamment celle d'avocats. Alors un
07:28autre point important c'est le respect de ces engagements, comment vous allez vous assurer du
07:32respect de ces engagements par l'ensemble de l'écosystème ? Alors c'est un code de bonne
07:38conduite, effectivement c'est pas une loi donc il va pas y avoir de marteau qui tombe mais
07:42véritablement il y a une régulation d'abord entre pairs et en fait France Digital Legal Tech,
07:48il y a plus d'une trentaine de Legal Tech qui sont membres et on se réunit quand même
07:52trimestriellement de façon relativement formelle et on voit les modes de fonctionnement des uns des
07:58autres, nos pratiques technologiques etc et donc ça c'est un premier moyen de contrôle entre
08:02pairs. Et le deuxième, celui qui je dirais est peut-être un peu plus impitoyable c'est
08:07celui du marché et en fait cette régulation du marché elle est très forte et on le voit dans
08:12le monde du droit le bouche à oreille est quand même quelque chose qui va extrêmement vite c'est
08:16un petit marché et donc on sait très vite quelles sont les bonnes solutions, quelles sont les moins
08:19bonnes et sur les sujets de respect de sécurité, de confidentialité et bien c'est la même chose
08:23et donc finalement une société qui signe ce type d'accord mais qui ne le respecte pas va être assez
08:30vite sanctionnée par le marché avec ce fameux bouche à oreille. Pour finir est-ce que ce code
08:36va évoluer ? Alors je vous apprends pas en tant que juriste que le monde du droit, le droit lui-même
08:43est une matière vivante, la technologie elle aussi est une matière extrêmement vivante, ce qu'il faut
08:47retenir c'est que ça fait à peine deux ans que ChatGPT est arrivé mais on n'est qu'au début de
08:52l'impact de l'IA génératif, notamment tout le monde parle de chatbot aujourd'hui, le chatbot c'est
08:5710% de la valeur que va apporter l'intelligence artificielle dans le monde du droit et donc il
09:02va y avoir beaucoup de révolutions qui sont en cours et sur lesquelles on travaille notamment
09:05l'analyse de documents, notamment la rédaction, l'extraction d'informations des documents, tout
09:11ça c'est les choses qu'on met en place et donc les questions qu'on se pose avec les chatbots
09:17et bien elles sont en train de se poser sur toutes les nouvelles technologies qu'on déploie et donc
09:21oui la réponse Arnaud c'est que tout cela va continuer à évoluer, ce code va évoluer avec
09:27le droit, avec la régulération mais aussi avec les nouvelles technologies. On va conclure là-dessus,
09:31merci Guillaume Carrère d'être venu sur notre plateau, je rappelle que vous êtes cofondateur
09:36du groupe France Digital Legal Tech et également CEO de Doctrine. Merci Arnaud. Tout de suite on
09:43continue, on va parler réussir sa conformité LCBFT.