Comment créer et encadrer notre propre IA, tant au niveau national qu'européen, afin de ne pas manquer le train de cette révolution ? Comment construire un avenir éthique et innovant, anticiper les défis et favoriser la recherche et l'innovation en France et en Europe ?
Façonner le terrain de jeu de l'IA sans céder à la peur et sans compromettre notre progrès collectif, c’est ce qu’ont essayé de faire Richard Susskind, Président de SCL et professeur à SCL OBE KC (Hon), Jean-Noël Barrot, Ministre délégué chargé de la Transition numérique et des Télécommunications, Nicolas Gaudemet, Chief AI Officer de Onepoint, Alexei Grinbaum, Directeur de recherche au CEA-Saclay et président du Comité opérationnel d’éthique du numérique du CEA, Isabelle Hilali, Fondatrice et CEO de datacraft et Aline Aubertin, Directrice Générale de l'ISEP, lors de la plénière de clôture de la 2e édition de Paris Legal Makers consacré à l’intelligence artificielle et animée par Guillaume Grallet, journaliste au Point. Ce rendez-vous international du monde du droit et des affaires, organisé par le Barreau de Paris, en partenariat avec Le Point, s’est tenu au Palais Brongniart à Paris le 23 novembre 2023. Retrouvez ici les moments forts de la clôture.
#intelligenceartificielle #ia #chatgpt #travail #technologie #futur
Suivez nous sur :
Youtube : https://www.youtube.com/c/lepoint/
Facebook : https://www.facebook.com/lepoint.fr/
Twitter : https://twitter.com/LePoint
Instagram : https://www.instagram.com/lepointfr
Tik Tok : https://www.tiktok.com/@lepointfr
LinkedIn : https://www.linkedin.com/company/le-point/posts/
www.lepoint.fr
Façonner le terrain de jeu de l'IA sans céder à la peur et sans compromettre notre progrès collectif, c’est ce qu’ont essayé de faire Richard Susskind, Président de SCL et professeur à SCL OBE KC (Hon), Jean-Noël Barrot, Ministre délégué chargé de la Transition numérique et des Télécommunications, Nicolas Gaudemet, Chief AI Officer de Onepoint, Alexei Grinbaum, Directeur de recherche au CEA-Saclay et président du Comité opérationnel d’éthique du numérique du CEA, Isabelle Hilali, Fondatrice et CEO de datacraft et Aline Aubertin, Directrice Générale de l'ISEP, lors de la plénière de clôture de la 2e édition de Paris Legal Makers consacré à l’intelligence artificielle et animée par Guillaume Grallet, journaliste au Point. Ce rendez-vous international du monde du droit et des affaires, organisé par le Barreau de Paris, en partenariat avec Le Point, s’est tenu au Palais Brongniart à Paris le 23 novembre 2023. Retrouvez ici les moments forts de la clôture.
#intelligenceartificielle #ia #chatgpt #travail #technologie #futur
Suivez nous sur :
Youtube : https://www.youtube.com/c/lepoint/
Facebook : https://www.facebook.com/lepoint.fr/
Twitter : https://twitter.com/LePoint
Instagram : https://www.instagram.com/lepointfr
Tik Tok : https://www.tiktok.com/@lepointfr
LinkedIn : https://www.linkedin.com/company/le-point/posts/
www.lepoint.fr
Category
🤖
TechnologieTranscription
00:00 ...
00:04 - Il y a quelque chose qui fait défaut à l'intelligence artificielle,
00:07 c'est la volonté.
00:09 Il n'y a pas de volonté artificielle.
00:11 La question n'est pas de savoir si l'intelligence artificielle
00:15 va supplanter l'intelligence humaine,
00:17 puisque l'intelligence artificielle n'est qu'un outil.
00:20 La question qui est posée à notre humanité,
00:23 c'est de savoir ce à quoi nous voulons utiliser
00:26 l'intelligence artificielle.
00:28 Quelles règles voulons-nous assujettir?
00:31 On a un certain nombre d'idées, et je voudrais en citer 3.
00:34 La première des choses, c'est que cette nouvelle génération
00:37 d'intelligence artificielle va nous permettre de faire
00:40 des bondes géants en matière de progrès scientifique.
00:43 On en a la conviction, parce qu'on a l'exemple d'un modèle
00:46 qui a précédé de quelques années, Chad GPT,
00:49 qui a été conçu par Google DeepMind, AlphaFold,
00:52 pour prédire la structure des protéines.
00:55 En en prédisant 200 millions, le modèle AlphaFold
00:58 a quasiment fait économiser à l'humanité
01:01 près de 1 milliard d'années de recherche.
01:04 On va les utiliser aussi pour relever les grands défis
01:07 de notre siècle, et le principal d'entre eux,
01:10 c'est-à-dire la transition écologique.
01:13 Avec ces nouveaux modèles d'intelligence artificielle,
01:16 on va pouvoir économiser de l'énergie,
01:19 on va pouvoir réduire l'empreinte carbone de notre habitat,
01:22 de nos mobilités, de notre industrie, de notre agriculture.
01:25 On a déjà des start-up françaises engagées dans cette direction.
01:28 On va pouvoir s'adapter beaucoup plus aisément
01:31 aux conséquences dramatiques du dérèglement climatique.
01:34 Troisième exemple, qui vous concerne directement,
01:37 c'est l'efficacité de l'action publique et l'accès aux droits.
01:40 Nous avons manqué une étape très importante
01:43 ces dernières années, en tant que pays,
01:46 et c'est l'accès aux droits.
01:49 Parmi les promesses de l'intelligence artificielle générative,
01:52 il y a cet objectif de pouvoir rendre accessible
01:55 aux citoyens, à nos concitoyens, leurs droits
01:58 en passant par l'instrument le plus simple qu'il soit,
02:01 l'instrument qui va nous permettre de faire face
02:04 à la crise climatique.
02:07 C'est ce que nous avons fait,
02:10 et c'est ce que nous allons faire,
02:13 c'est de faire face à la crise climatique.
02:16 Et de rendre accessible l'instrument le plus simple qu'il soit,
02:19 l'instrument qu'ils ont le premier appris à maîtriser,
02:22 c'est-à-dire le langage.
02:25 Dans le service public, l'intelligence artificielle
02:28 peut jouer un rôle très important pour désengorger les hôpitaux,
02:31 décharger de leur tâche administrative nos policiers
02:34 et nos gendarmes, et simplifier le fonctionnement de la justice.
02:37 C'est tout ce que l'on souhaite faire faire
02:40 à l'intelligence artificielle.
02:43 Mais l'intelligence artificielle n'étant qu'un outil,
02:46 elle peut être utilisée à bon escient et elle peut être dévoyée.
02:49 Si nous voulons que ces outils respectent la dignité humaine,
02:52 que ces outils soient conçus dans un marché
02:55 où la concurrence équitable prévaut,
02:58 si nous voulons que ces outils respectent les droits d'auteur
03:01 et la vie privée, alors il faut que nous les forgions
03:04 en France et en Europe.
03:07 Sans quoi nous régulerons en défensive
03:10 et nous essayerons d'obtenir, comme nous l'avons fait depuis 15 ans,
03:13 des concessions de la part de grands acteurs très puissants
03:16 situés bien loin des frontières de l'Union Européenne.
03:19 Et donc la priorité des priorités,
03:22 celle du Président de la République et du gouvernement,
03:25 c'est de faire émerger dans les prochaines semaines
03:28 et les prochains mois, en France et en Europe,
03:31 des modèles d'intelligence artificielle qui seront les nôtres,
03:34 qui sont forgés au feu de la langue et de la culture française,
03:37 et qui auront été conçus, imaginés
03:40 par des citoyens européens tout simplement.
03:43 Et ce sera notre meilleur garde-fou,
03:46 ce sera notre meilleur rempart
03:49 contre tous les dévoiements et les dérives possibles
03:52 de l'intelligence artificielle.
03:55 Ensuite, nous ferons, une fois que nous disposerons de ces outils,
03:58 ce que nous savons faire parfaitement, c'est-à-dire que nous régulerons.
04:01 Alors que l'Europe est la première démocratie du monde
04:04 à avoir voulu se donner un cadre
04:07 pour l'intelligence artificielle qui traite,
04:10 qui est un règlement produit, donc qui traite de la question
04:13 de la responsabilité de celui qui distribue un système
04:16 d'intelligence artificielle. Le Parlement européen s'est dit
04:19 que le moment était venu de réguler
04:22 ces grands modèles de langage une bonne fois pour toutes.
04:25 Et est en train de proposer un certain nombre de règles
04:28 extrêmement lourdes qui inévitablement
04:31 découragerait tout développeur, tout innovateur
04:34 de concevoir en Europe les modèles
04:37 d'intelligence artificielle de dernière génération.
04:40 Nous nous y opposons. Nous sommes très attachés à ce règlement produit.
04:43 Mais nous ne voulons pas inhiber
04:46 cet élan que nous constatons
04:49 depuis 5 ans en France de développement
04:52 de l'intelligence artificielle en assommant
04:55 les innovateurs et les créateurs de normes nouvelles
04:58 dès aujourd'hui. Et puis nous avons besoin de réfléchir
05:01 à la manière dont nous régulerons intelligemment le moment venu.
05:04 C'est la raison pour laquelle une journée comme aujourd'hui
05:07 est si importante et nous serons très attentifs
05:10 aux conclusions de vos travaux. C'est la raison aussi pour laquelle
05:13 le Président de la République a souhaité pérenniser
05:16 le Comité pilote pour l'éthique du numérique qui va devenir
05:19 le Comité national pour l'éthique du numérique et qui nous permettra
05:22 d'éclairer notre effort
05:25 de régulation le moment venu, des lumières
05:28 de l'éthique avec comme seul
05:31 objectif celui de mettre l'intelligence artificielle
05:34 au service du bien commun.
05:37 Le ministre parlait de la réglementation européenne
05:40 et de la réglementation française d'ailleurs de l'intelligence
05:43 artificielle. On voit qu'aujourd'hui
05:46 on aborde à peine les sujets d'explicabilité.
05:49 Les dirigeants aujourd'hui se questionnent à la fois
05:52 sur leur stratégie, comment ils arrivent
05:55 à adapter le rythme
05:58 avec lequel on se forge une vision
06:01 et on emmène une entreprise
06:04 avec toute une stratégie, avec la rapidité
06:07 de l'IA qui va tellement vite qu'on se retrouve
06:10 à construire sa vision en marchant.
06:13 On fait beaucoup de choses mécaniquement, donc le fait de ne pas faire
06:16 confiance à l'IA permet de se re-questionner sur la façon
06:19 dont on fait les choses. On a une obligation
06:22 d'exiger de la transparence
06:25 que ce soit à l'égard de
06:28 si on est un dirigeant, que ce soit à l'égard
06:31 de ses collaborateurs, de ses clients,
06:34 de son écosystème. C'est important
06:37 d'être capable d'expliquer sur quelle
06:40 base on s'appuie. Il y a une accélération
06:43 très importante et qu'on a du mal à
06:46 conceptualiser et intégrer
06:49 de façon différente.
06:52 Chez OpenAI, il y a des grosses discussions
06:55 entre est-ce qu'on lâche tout de suite
06:58 et on ne se pose pas de questions, on expérimente
07:01 et on ne réglemente surtout pas trop parce que sinon
07:04 ça va brider à la fois
07:07 la capacité à faire des choses mais il y a aussi
07:10 des enjeux de concurrence
07:13 entre les continents, entre les pays. Il y a toujours
07:16 cette crainte de rater quelque chose
07:19 et de laisser passer les trains. Et en même temps
07:22 il y a aussi ce que certains disent
07:25 qu'il faudrait peut-être prendre le temps
07:28 d'expérimenter un petit peu plus avant d'ouvrir
07:31 complètement les vannes. Je pense que c'est un mix des deux.
07:34 On parlait de réglementation. A minima, il faut
07:37 en permanence faire évoluer la réglementation.
07:40 On ne peut pas anticiper. De toute façon,
07:43 une réglementation qui prévoit tout ce qui n'est pas possible
07:46 ou qui au contraire ne dirait que ce qui est possible
07:49 ça n'aurait que très peu de sens.
07:52 Par contre, un peu se dire que c'est clairement
07:55 la ligne rouge, on ne peut pas le faire. Et puis le revoir
07:58 en permanence, je pense que c'est indispensable.
08:01 Et d'ailleurs, sur les IACT, c'est bien comme ça
08:04 que c'est imaginé quand même en se disant
08:07 qu'il faut des clauses de revoyure permanente.
08:10 L'important c'est de se poser des questions.
08:13 Pour apporter des solutions, il faut d'abord poser les bonnes questions
08:16 autour de l'avenir des métiers. On parle beaucoup
08:19 de l'intelligence artificielle qui supprimera des emplois.
08:22 Pour mes élèves qui font l'IA, ce n'est pas un souci
08:25 mais c'est important qu'ils réfléchissent à ces questions
08:28 sur les biais et la discrimination que peut amener l'IA.
08:31 Donc effectivement, comment je code ?
08:34 Quelles sont les sources de données ? A quoi ça peut mener ?
08:37 Sur la fiabilité incertaine, potentielle de l'IA
08:40 qui, je le rappelle, est une boîte noire développée pour vous donner
08:43 la réponse la plus probable. Mais la réponse la plus probable n'est pas
08:46 toujours la réponse juste. Et parfois, c'est juste
08:49 une répétition de l'histoire. Et l'histoire,
08:52 elle ne prend pas en compte l'évolution de notre société.
08:55 On se pose des questions autour de la perte de compétences.
08:58 Effectivement, nos élèves peuvent être tentés d'utiliser l'IA
09:01 par exemple pour faire du codage de premier niveau.
09:04 Mais au jour d'aujourd'hui, les logiciels ont une limite.
09:07 Et si on n'a pas fait attention à cette limite, on peut se retrouver
09:10 face à un problème qu'on ne saura pas résoudre puisqu'on ne saura pas
09:13 décortiquer les états préalables. Et puis, in fine, on est challengé
09:16 dans la manière dont on enseigne et dans la manière dont on évalue
09:19 nos élèves puisqu'évidemment, on souhaite évaluer les élèves et pas
09:22 une intelligence artificielle. Mais en même temps, pour une école
09:25 du numérique, ça n'a aucun sens de tout interdire puisqu'on ne peut pas
09:28 interdire les outils qu'ils développent eux-mêmes. On bâtit notre
09:31 enseignement en trois dimensions, si je le dis rapidement. La première,
09:34 c'est les savoirs, c'est très classique. C'est la capacité à réagir.
09:38 Qu'est-ce que j'en fais ? Et la troisième dimension qui est plus originale
09:42 et qui est finalement l'aboutissement de cette réflexion que je viens
09:45 de vous décrire rapidement, c'est garder en tête qu'on fait tout ça
09:48 au service de l'humain. Comment on forme nos étudiants ?
09:51 Est-ce qu'ils se posent les bonnes questions ? Est-ce qu'ils soient
09:54 capables d'embrasser l'incertitude du monde, les problématiques complexes
09:58 pour y apporter des réponses en mettant l'éthique au cœur ?
10:01 Et donc, si je le résume très rapidement, en faisant du numérique
10:04 responsable et en ne le faisant pas n'importe comment.
10:07 Le premier de nos atouts, ce sont des compétences d'un modèle
10:10 d'éducation qui est fondé sur des grandes écoles d'ingénieurs
10:14 ou de normales sup. Et d'ailleurs, quand on regarde les papiers
10:20 de recherche qui font date sur le domaine de l'IA, il y en a un certain
10:25 nombre dont les auteurs sont des Français. Là où on peut encore
10:29 progresser, c'est sur deux niveaux. C'est d'une part celui du financement
10:34 parce que quand on regarde, quand on compare les financements qui sont
10:38 octroyés par des fonds américains versus les financements disponibles
10:44 et fournis par des fonds français, on se rend compte qu'il y a quand même
10:48 un ordre de grandeur de différence. Mistral, pour faire sa levée en amorçage,
10:55 qui a levé 100 millions.
10:57 Beaucoup de fonds américains.
10:58 En fait, le fonds principal qui a mené le tour d'investissement,
11:03 c'est Lightspeed Ventures, qui est un fonds américain.
11:06 C'est très bien parce qu'on attire des financements étrangers,
11:09 mais on est d'une certaine manière un peu suiveurs et on n'a pas
11:12 de fonds qui sont capables de mobiliser de telles sommes.
11:14 Le deuxième sujet sur lequel on peut agir, c'est la demande.
11:17 Accélérer la transformation numérique de nos grands acteurs industriels,
11:21 de grandes entreprises françaises, de services, etc., par l'IA,
11:25 et faire en sorte, en les accompagnant, de les aider à se poser les bonnes
11:29 questions et à aussi laisser sa chance à notre écosystème français.
11:34 C'est-à-dire prendre le risque d'acheter, de faire confiance à une startup
11:38 et si possible, françaises.
11:39 Au moins laisser sa chance. L'IA, c'est une arme duale,
11:44 comme toutes les technologies. Effectivement, on observe de plus en plus
11:49 d'attaques pour déstabiliser les systèmes démocratiques.
11:53 Pour lutter contre ça, il y a l'enjeu de la régulation et de l'auto-régulation.
12:00 Certains acteurs avancent parce qu'il y a une pression,
12:02 et du coup, la pression régulatoire est quand même importante
12:04 pour forcer ces mouvements-là. Ce qui risque d'y échapper,
12:08 à la maille de ces filets-là, c'est les plus petits acteurs.
12:12 D'où les débats très forts et presque idéologiques entre l'école
12:19 des modèles fermés et l'école de l'open source.
12:22 Un des dangers de l'open source pointé par les acteurs des modèles fermés,
12:26 c'est que n'importe quel développeur peut utiliser un modèle
12:29 pour créer un outil de deepfake.
12:32 Ce sera difficile à réguler parce que c'est un acteur insaisissable,
12:36 on a besoin d'antidotes, et parmi ces antidotes,
12:39 il faut en tester plusieurs, et c'est probablement un cocktail
12:41 d'antidotes qui peut mieux fonctionner.
12:43 Il y a la question de la transparence qui est au cœur de la régulation,
12:47 et en particulier la transparence sur les images générées,
12:50 avec les questions de filigrane, de watermark sur des images.
12:53 Il y a aussi des techniques de filigrane qui sont plus complexes
12:56 à mettre en œuvre sur les modèles de langage.
12:58 Je crois aussi qu'il y a un enjeu d'éducation majeur,
13:01 et qui ne commence pas dans les écoles d'ingénieurs,
13:03 mais qui commence à l'école primaire.
13:05 Ce qui est presque le même enjeu que celui de l'éducation aux médias,
13:08 c'est l'éducation à l'esprit critique par rapport aux intelligences artificielles
13:12 pour que l'on sache que quand on voit une image,
13:16 il y a un risque qu'elle soit fausse,
13:18 et en même temps qu'on ne tombe pas dans l'ère du soupçon
13:21 où plus rien n'est vrai, et quand plus rien n'est vrai,
13:23 on ne croit plus rien, et on ne va même plus voter.
13:25 Autre rôle clé en termes d'antidotes, c'est votre rôle,
13:30 c'est le rôle des journalistes, des rédactions,
13:33 parce que contre la désinformation,
13:36 un des remparts c'est l'information.
13:39 Le décryptage, le terrain, l'interview d'experts
13:43 pour apporter avec un label de qualité,
13:46 il y a beaucoup de réflexion des journalistes,
13:48 de l'écosystème des médias mondiaux autour de ces labels de qualité,
13:51 pour apporter une information de qualité vérifiée.
13:55 Des questions nouvelles, il y en a.
13:57 Il ne suffit pas juste de filtrer les fake news,
14:00 comme on dit, les hallucinations.
14:02 Il y a bien plus de problèmes que cela.
14:05 Et donc les capacités émergentes, c'est le problème le plus fascinant
14:08 parmi tous ces nouveaux types de problèmes qui arrivent.
14:12 C'est un système d'intelligence artificielle
14:14 qui sait faire une seule chose, calculer des zéros et des un.
14:18 Il ne sait pas ce que c'est que le mensonge,
14:20 il ne sait pas ce que c'est que la ruse,
14:22 il ne sait rien du tout.
14:24 Ce sont nos projections.
14:26 Ce sont des projections, nous disons,
14:28 "Ah, il a menti, il a fait preuve d'un comportement rusé,
14:31 il essaie de nous manipuler."
14:33 Ce sont des projections qui sont cependant efficientes,
14:36 parce qu'il est pour nous, à travers cette relation linguistique,
14:39 en train de nous manipuler.
14:41 Il faut se méfier des anthropomorphismes.
14:43 Et c'est ce qu'on appelle... Non.
14:45 Il faut embrasser ce genre d'anthropomorphisme et le réguler.
14:48 Il n'est pas possible d'effacer les anthropomorphismes
14:51 du moment où il s'agit du langage.
14:53 Ce qu'il faut faire, c'est de mettre devant ses modèles
14:56 des êtres humains pour voir quel genre de capacités étranges,
15:00 non humaines, émergent du calcul.
15:02 Sans pouvoir complètement effacer ces projections,
15:05 il faut les limiter, il faut mettre des contraintes.
15:09 Et justement, avec Raja Chettila, qui est dans la salle,
15:12 nous sommes membres de ce comité national d'éthique du numérique
15:15 que le ministre Barreau vient de mentionner.
15:18 Le travail de ce comité d'éthique, ça n'est pas de dire
15:21 il faut tout interdire, pas de chatbot qui parle
15:24 comme les personnes décédées, interdiction, non.
15:27 Ni de laisser faire complètement, non.
15:30 Mais d'inventer le genre de contraintes,
15:33 inventer, c'est difficile comme métier.
15:36 Par exemple, peut-être que ces chatbots qui imitent
15:38 les personnes décédées peuvent fonctionner,
15:40 mais pendant 40 jours.
15:42 Ou juste émettre 20 000 phrases et pas plus.
15:45 Est-ce que c'est suffisant comme contrainte ou pas?
15:47 Comment est-ce qu'on va réglementer sur ces modèles,
15:50 à quel genre de limites?
15:52 Si vous mettez des testeurs aux mains devant les machines,
15:54 il leur faudra 6 mois pour tester, peut-être même plus.
15:57 GPT-4, ça a pris 6 mois.
15:59 Est-ce que vous allez mettre votre modèle sur le marché
16:02 avant d'atteindre la fin des tests ou pas?
16:05 Est-ce que ça va être permis ou pas?
16:07 Il y a tout un tas de questions de réglementation.
16:10 Mais la question de la vitesse est aussi importante,
16:13 pour quelque chose qui a déjà été dit par mes collègues,
16:16 pour la question d'éducation des cerveaux humains.
16:19 Les cerveaux humains sont des machines biologiques,
16:22 entre guillemets, qui imitent ceux avec qui ils interagissent.
16:26 Les systèmes d'intelligence artificielle apprennent sur nos données,
16:29 mais quand vous interagissez avec des systèmes numériques,
16:32 vous changez aussi, parce que votre cerveau apprend.
16:35 Le problème éthique fondamental, c'est le décalage de la vitesse
16:39 entre la puissance technologique qui change le monde de plus en plus vite
16:43 et l'être humain qui ne va pas aussi vite,
16:47 parce que nous ne pouvons pas trouver le sens de ces innovations aussi vite.
16:51 Là, il nous faudra peut-être 15-20 ans pour voir comment
16:54 les systèmes dégénératifs changeront véritablement la société humaine.
16:58 Cependant, il faut faire de la formation et de l'éducation
17:02 de ceux qui sont déjà sur le marché du travail,
17:05 parce que c'est ça la composante essentielle
17:08 d'accompagnement de cette révolution technologique.
17:11 Ce que la plupart de nos membres en ce moment se disent, c'est
17:14 "Mais je ne sais pas comment je vais me former, et du coup,
17:17 qui je dois former dans mon organisation,
17:20 parce que j'achète une licence pour tout le monde,
17:23 et puis on se forme tous et super vite, pour ne pas voir les trains passer
17:27 et passer à côté de choses importantes."
17:30 Premièrement, de tout ce qu'on voit, je pense qu'il n'y a pas une seule réponse.
17:34 Il n'y a pas non plus se dire "oui, c'est plutôt telle fonction
17:37 ou tel niveau dans l'organisation qu'il faut former, pas les autres."
17:40 Essayez un peu partout, c'est-à-dire à tous les niveaux,
17:43 à tous les gens qui ont envie, parce que ce sera des ambassadeurs
17:46 et ils vont peut-être imaginer des choses auxquelles vous n'avez pas pensé.
17:49 Ensuite, quand même, posez-vous des questions.
17:52 C'est super l'IA, c'est super l'IA générative,
17:55 nous on adore ça, mais on n'en a pas toujours besoin.
17:59 Ça a un coût, un coût financier,
18:02 et qui va vraiment à l'écroisson.
18:05 Ça utilise des ressources, donc ça a un coût environnemental.
18:08 Il y a quand même des gros sujets de protection,
18:12 des données stratégiques auxquelles il faut réfléchir.
18:15 Donc surtout, ne regardez pas les trains passés,
18:18 formez les gens, mais en même temps,
18:21 n'oubliez pas qu'il y a tous ces enjeux de ressources,
18:24 ces enjeux de données stratégiques et d'éducation,
18:27 ça c'est évident.
18:30 Ces solutions, c'est aussi une chance de se reposer tout un tas de questions
18:33 sur l'inclusion, notamment on le voit, la différence entre les grandes entreprises,
18:36 les plus petites, qui se sont un petit peu moins,
18:39 enfin beaucoup moins emparées du sujet,
18:42 et en plus la France, c'est avant tout des PME,
18:45 et donc c'est important qu'elle puisse vraiment s'approprier ces sujets-là,
18:48 tous les indépendants aussi, c'est compliqué de se former.
18:51 Donc il y a des enjeux de rapidité,
18:54 c'est un peu le maître mot, on en a parlé en permanence,
18:57 et de formation, c'est sûr.
19:00 - Un enjeu que je n'ai pas évoqué, c'est justement la rapidité
19:03 avec laquelle les solutions se périment et la technologie avance.
19:06 Ça nous amène aussi à une très grande humilité, en fait.
19:09 Quand on se pose la question de former les individus,
19:12 oui, on peut les former, et il faut les former,
19:15 et on peut envisager de la formation continue, mais il faut aussi les former
19:18 à continuer à apprendre et avoir une grande humilité en se disant que,
19:21 nous, nos élèves, on est incapables de les former
19:24 au métier de dans 10 ans, de dans 20 ans.
19:27 C'est donner des clés, donner la capacité à apprendre,
19:30 remettre à niveau et faire comprendre, armer l'ensemble des populations
19:33 sur le fait que ça va évoluer très vite et qu'il va falloir suivre l'origine.
19:36 Intelligence artificielle, oui, mais pas n'importe comment,
19:39 et l'utiliser à bon escient.
19:42 - C'est crucial pour chacun de se former, et autant je pense que personne,
19:45 ici, ne va être remplacé par une IA, autant je pense que ceux qui ne se forment pas à l'IA
19:50 risquent d'être remplacés par quelqu'un qui s'est formé à l'IA
19:53 et qui sera plus efficace.
19:56 Formez-vous, ça, c'est très important, et du coup, formez-vous aussi en pratiquant,
19:59 et donc équipez-vous, et par rapport aux questions de sécurité et de confidentialité
20:04 qui sont très importantes et encore plus importantes dans le domaine juridique
20:07 où vous manipuliez des données de clients extrêmement confidentielles
20:12 et où vous n'avez pas forcément envie que ces données partent outre-Atlantique,
20:16 nous, on a ce même problématique en tant que cabinet de conseil
20:20 parce qu'on manipule des données de clients qui sont très, très confidentielles
20:23 et donc on s'est créé, et on équipe aussi nos clients,
20:26 d'outils d'assistant IA génératif pour avoir des chatbots 100% sécurisés.
20:31 Ce nouveau savoir-faire qu'on appelle l'ingénierie de requête,
20:34 ou "prompt engineering" en anglais, il y a plusieurs astuces,
20:37 plusieurs manières de parler avec ces systèmes.
20:40 C'est une illusion, en fait, qu'ils parlent notre langue comme nous.
20:44 Si, ils parlent notre langue, mais pas comme nous.
20:47 Et il y a des astuces particulières, donner toujours un rôle à la machine,
20:51 faire ce qu'on appelle chaîne de raisonnement,
20:53 raisonner étape par étape, changer de rôle, etc.
20:58 Donc, se former, c'est aussi se former à maîtriser un peu mieux
21:03 le non-humain de ces machines.
21:05 Et ce qui est non-humain, c'est que justement,
21:07 il y a des petites phrases qu'on n'ajoute pas
21:09 quand on discute avec nos camarades humains.
21:12 Mais pour les machines, ça donne des résultats magnifiques, bien meilleurs.
21:16 Et donc, pour vos collaborateurs et pour vous-même,
21:19 apprenez à bien prompter.
21:21 C'est déjà une première formation pour vous tous.
21:24 J'ai travaillé sur l'intelligence artificielle et la loi depuis les années 80,
21:29 quand j'ai fait mon doctorat sur le sujet à Oxford.
21:33 Nous vivons dans un moment très étrange,
21:35 où nos systèmes sont devenue de plus en plus capables.
21:38 Nous pouvons voir, ou je peux voir au moins,
21:41 comment cela pourrait radicalement améliorer
21:44 la façon dont, par exemple, nous offrons accès à la justice.
21:48 Mais en même temps, ces systèmes sont déjà au-delà de notre compréhension.
21:53 La plupart des prévisions à court terme
21:56 dépassent énormément l'impact.
21:59 Mais, et plus important,
22:02 je crois que la plupart des prévisions à long terme
22:05 dépassent énormément l'impact.
22:08 Dans le long terme,
22:10 et les loyers trouvent cela difficile et se préoccupent de le comprendre,
22:14 ces systèmes ne seront pas utilisés pour les loyers, mais pour les clients.
22:19 Les clients et les citoyens empowrés par l'IA
22:24 sont le futur de la service légal.
22:27 Le chat GPT est le système le plus remarquable
22:30 en matière d'IA que j'ai vu en 40 ans.
22:34 La meilleure façon de comprendre ce système
22:38 n'est pas tellement son opération actuelle,
22:43 mais son importance pour le futur.
22:46 Cela nous donne une idée de la capacité de ces systèmes.
22:51 Qu'est-ce que cela signifie pour les emplois?
22:54 Est-ce le fin des loyers, ou un nouveau type de loyer?
22:58 Dans mon livre "Les loyers d'aujourd'hui",
23:01 je trouve 15 nouveaux emplois pour les loyers,
23:04 comme l'ingénieur de connaissances,
23:07 le penseur de design,
23:09 le scientifique de données,
23:11 le process analyst,
23:13 le manager de risques.
23:15 Ce sont les gens qui vont désigner les systèmes
23:19 qui vont résoudre les problèmes des clients d'aujourd'hui.
23:25 Ce sont les gens qui vont désigner les systèmes
23:29 qui vont remplacer nos vieilles façons de travailler.
23:33 Cela me donne la dernière question,
23:36 et c'est la question vitale
23:38 pour toute carrière en lois et pour les entreprises légales.
23:42 Compatible ou pas, vous construisez ces systèmes?
23:46 Nous avons maintenant une obligation en lois
23:50 d'entendre et de déployer les technologies
23:54 qui seront aux bénéfices de ceux à qui nous servons.
23:58 Ce n'est pas seulement une opportunité,
24:01 c'est une obligation.
24:03 La puissance de l'IA, comme je l'ai mentionné,
24:06 n'est pas l'automation et l'utilisation des robots pour nous remplacer,
24:10 c'est la recherche de nouveaux moyens
24:13 pour offrir les résultats,
24:15 les résultats que les clients et la communauté veulent.
24:20 C'est pourquoi j'ai dévoué
24:22 beaucoup de temps ces dernières années à des lois en ligne.
24:25 Est-ce qu'il nous faut vraiment venir ensemble physiquement
24:27 pour résoudre toutes nos différences?
24:29 Ou est-ce qu'on peut utiliser la technologie
24:32 pour nous permettre de délivrer
24:34 un service de résolution de dispute complètement différent
24:38 qui donne aux gens les résultats qu'ils veulent?
24:41 Mais les clients, la société, les consommateurs individuels,
24:46 les petits commerçants,
24:48 ce n'est pas un problème résolu,
24:51 mais un problème évité.
24:53 La question, mesdames et messieurs,
24:55 et c'est une question délicate,
24:57 ce n'est pas « quel est le futur des lois ? »
25:00 C'est « comment dans le futur
25:03 vont nos sociétés, nos communautés
25:07 résoudre les problèmes
25:09 auxquels les lois sont notre meilleure réponse actuelle ? »
25:13 Et ma meilleure réponse à cette question,
25:16 au moins à un certain niveau,
25:18 est l'intelligence artificielle.
25:20 Merci beaucoup.
25:22 [SILENCE]