• il y a 2 ans
Intervenants :
David Lacombled, Président Villa Numéris
Guillaume Leboucher, DG d’Openvalue, coordinateur du pôle Data de Docaposte
Jerôme Béranger, Principal CEO de GoodAlgo, expert en éthique du numérique
Florence d’Alché-Buc, auteur et conférencière, professeure à Télécom Paris

L’intelligence artificielle est un outil puissant qui peut être utilisé de manière bénéfique ou néfaste, selon la façon dont elle est développée et pratiquée.
L’IA suscite ainsi des émotions contrastées, allant de la défiance à la confiance. Porteuse de promesses d’amélioration, elle reste encore entourée de nombreuses zones d’ombre. En cause notamment, une méconnaissance des enjeux de l’IA et de la façon dont elle fonctionne, mais aussi une inquiétude face à cette technologie qui progresse sans qu’un encadrement précis soit mis en place.

Le sentiment de méfiance chez les citoyens et les professionnels, engendré par le flou qui entoure le fonctionnement et l’encadrement de l’IA, est-il légitime ?
Pourquoi a-t-on besoin de définir son éthique et de construire ses algorithmes en conséquence ?
Si les autorités publiques ont pris les devants, comment les acteurs du secteur, en particulier les entreprises du numérique, s’emparent-elles du sujet ?
Au-delà de l’éthique, y-a-t-il d’autres leviers pour instaurer plus de confiance dans l’IA ?
Transcription
00:00 [SILENCE]
00:09 On va peut-être... Bonjour à toutes et à tous.
00:12 On va peut-être pouvoir commencer, puisqu'on est tous à bord, me semble-t-il.
00:17 Il ne reste pas de place.
00:19 J'espère que vous allez bien, que vous êtes venus sans encombre ce matin.
00:23 Mon nom est David Lacombe-Ledde.
00:26 Je suis le directeur général adjoint de DocaPost, en charge du département IA et Data.
00:32 Il préside aussi une fondation qu'il a créée, la Fondation IA pour l'école.
00:37 Si nous sommes entre autres, dans le cadre de la Fondation IA pour l'école,
00:42 il y a une fondation qui est très importante.
00:45 C'est la Fondation IA pour l'école.
00:47 C'est une fondation qui a créé la Fondation IA pour l'école.
00:51 C'est vous dire si nous sommes entre de bonnes mains sur ce sujet.
00:56 J'accueille également Jérôme Barranger, qui est un universitaire,
01:01 un économiste de la santé, expert en éthique.
01:05 Tu as créé GoodAlgo, qui fournit des solutions d'évaluation éthique,
01:11 mais tu nous en diras plus.
01:13 Je vous dois aussi d'excuser Florence Daché-Buck,
01:17 qui est professeure à Télécom Paris et qui est souffrante.
01:21 Je lui souhaite, par l'intermédiaire des réseaux sociaux,
01:25 un prompt rétablissement.
01:28 Cette table ronde organisée avec Gaël Picard,
01:32 que je salue et remercie, pose la question de l'éthique,
01:37 sachant que l'IA, l'intelligence artificielle,
01:41 est ce que nous en ferons très clairement.
01:44 Mais on voit bien qu'elle provoque de la fascination,
01:47 de la sidération, de l'émoi et de l'effroi aussi, parfois,
01:52 sans doute parce qu'elle reste méconnue.
01:56 C'est autant de zones d'ombre qu'il va falloir aller mettre en lumière et éclairer.
02:03 Avec Guillaume, peut-être, pour commencer,
02:08 une question sur ce qu'on entend par l'éthique,
02:11 qui semble un mot que l'on accole assez rapidement à l'intelligence artificielle,
02:16 comme pour se rassurer en quelque sorte.
02:19 Bonjour à tous, ravi de partager ce moment avec vous.
02:23 C'est assez incroyable parce que vous venez au MDF,
02:26 certains d'entre vous pour gagner un concours de code,
02:29 d'autres pour découvrir des nouveaux langages, des nouvelles technologies,
02:33 et puis vous vous retrouvez à 10h le matin,
02:36 peut-être après avoir bravé les pavés parisiens sans avoir fait de boulot,
02:40 les pavés parisiens sans transport en commun, à parler d'éthique.
02:43 Donc on va parler certainement de philosophie ce matin.
02:46 Pour répondre à la question de David,
02:48 très simplement, l'éthique, c'est quoi ?
02:50 C'est tout simplement la manière de se comporter.
02:52 Ça revient très loin dans les histoires anciennes, dans la philosophie.
02:56 Le premier grand ouvrage connu sur l'éthique,
02:59 c'est l'éthique à Nicomac d'Aristote, pour ceux qui ont étudié ça.
03:04 J'ai regardé, qui est encore sur Internet,
03:06 qui se lit et se découvre très bien.
03:09 L'éthique, en fait, l'origine, si je prends le terme latin ou grec, c'est "ethos".
03:14 "Ethos", c'est savoir se comporter.
03:16 Et en même temps, savoir se comporter, c'est par rapport à soi-même,
03:19 par rapport à sa conscience, également par rapport aux autres.
03:22 Et quand on parle d'éthique, c'est accepter aussi d'avoir un regard critique
03:26 sur ce qu'on pose, à la fois dans son acte, dans la société,
03:30 et également par rapport à la communauté,
03:34 ce que veut dire la communauté sur son propre travail.
03:37 Vous imaginez bien que quand on parle d'éthique dans les algorithmes ou dans l'IA,
03:41 ça fait résonner beaucoup de choses.
03:43 Ce qui est important de comprendre aujourd'hui,
03:45 pourquoi on parle beaucoup d'éthique dans l'algorithme,
03:48 et je salue Gaël qui était pas loin,
03:51 et le thème de la conférence de ce matin est "Pourquoi l'IA a besoin d'éthique ?"
03:55 Le sujet, c'est l'IA n'a besoin de rien,
03:57 parce que l'IA, ce n'est qu'une machine ou des algorithmes.
03:59 Ce sont les hommes et les femmes qui choisissent
04:02 de faire des développements informatiques.
04:04 La vraie question, c'est le sens qu'il va en donner.
04:07 Quand on prend l'histoire de l'éthique, c'est assez intéressant.
04:10 Tous les écrits philosophiques, je ne vais pas revenir.
04:12 Au XXe siècle, il y a un grand monsieur qui s'appelait Paul Ricoeur
04:15 qui a parlé de l'intention éthique.
04:17 Cette intention éthique, on va la retrouver dans la bioéthique,
04:20 vrai sujet depuis l'après-guerre, dans la science,
04:24 et maintenant dans le monde de l'informatique et de l'information.
04:27 Vous ne le savez peut-être pas, mais j'ai découvert ça récemment
04:30 en menant des travaux de recherche sur l'histoire de l'éthique
04:33 dans l'informatique et des algorithmes.
04:35 Tout part de l'après-guerre, après les procès de Nuremberg,
04:38 par rapport au nazisme, où les premiers débats éthiques se sont dit
04:42 comment pendant la guerre, les atrocités perpétuées par la science,
04:47 par les nazis, comment on pourrait mettre certaines frontières
04:50 et certaines lois.
04:51 La vraie question, c'était de dire comment on va créer des codes.
04:54 Il y a pas mal de codes qui ont été portés par l'ONU,
04:56 pas mal de conventions internationales.
04:58 En France, on a la chance d'avoir beaucoup d'experts
05:02 dans un magnifique comité qui s'appelle le Comité national d'éthique
05:05 et dans le numérique.
05:06 C'est ça qui, aujourd'hui, permet de réfléchir.
05:09 Souvent, on nous dit que l'éthique, chacun fait un peu ce qu'il veut.
05:12 D'un côté, c'est complètement vrai.
05:14 De l'autre, il faut aussi se renseigner sur les pratiques
05:16 qui ont lieu dans le monde du numérique depuis une cinquantaine d'années.
05:19 Merci, Guillaume.
05:20 Je sens qu'il va y avoir bataille de philosophes,
05:23 parce que, Jérôme, toi, tu en appelles à René Descartes
05:27 avec une approche logique de l'éthique.
05:30 Ce n'est pas incompatible ?
05:32 Non, non, c'est tout à fait...
05:34 Bonjour tout le monde, tout d'abord.
05:36 Moi, je suis tout à fait d'accord avec mon voisin.
05:40 Juste que ma vision de l'éthique, c'est une vision
05:43 qui est beaucoup plus, peut-être, appliquée et applicable et pragmatique.
05:47 C'est-à-dire que c'est une branche de la philosophie
05:49 ou des sciences humaines et sociales,
05:51 mais je considère l'éthique plutôt comme donner du sens à des actions.
05:55 C'est-à-dire, le but, c'est qu'il y a des dilemmes
05:57 et des problématiques éthiques suivant les situations.
06:00 Et l'idée, en fait, c'est de trouver un compromis,
06:03 un juste milieu qui correspond, en fait, à quelque chose
06:06 dont on tend vers le bien-être ou le bien fondé d'une action
06:10 par rapport à un maximum de personnes.
06:12 Un comité d'éthique, c'est pluridisciplinaire,
06:15 c'est une pensée en mouvance transversale, pluridisciplinaire,
06:19 et c'est toute la richesse de cette discipline,
06:23 et la difficulté aussi.
06:25 Là où on reprend les termes de Socrate,
06:28 il n'y a pas une vérité, mais des vérités.
06:30 Ce qui est vrai aujourd'hui n'est pas forcément vrai demain ou hier.
06:34 L'éthique en France n'est pas la même qu'aux États-Unis, en Chine, au Japon,
06:39 ou même en Europe, dans certains pays,
06:42 parce que, en fait, l'éthique s'est influencée, impactée
06:45 par du contexte géopolitique, religieux aussi,
06:50 les mœurs, les conflits, les comportements,
06:53 d'un point de vue économique,
06:55 et c'est là où, en fait, qui diffère par rapport peut-être au droit
06:59 qui met un peu plus de temps à légiférer et qui soit chronophage,
07:02 c'est aussi une régulation, mais c'est une régulation dans le temps
07:05 qui est flexible, c'est toute la richesse de l'éthique.
07:07 Souvent le droit s'alimente justement sur les réflexions
07:10 et les pensées éthiques pour faire évoluer leur cadre réglementaire.
07:15 Alors, ce qui est important, moi j'aime bien dire que l'éthique,
07:18 finalement, c'est une boîte à outils comme une boussole,
07:21 une boussole avec les quatre points cardinaux
07:24 qui donne un sens, une orientation.
07:26 J'aime le mot « sens » parce que le sens, finalement,
07:28 d'un point de vue éthémologique, il y a trois significations.
07:32 C'est le sens, les cinq sens de l'être humain, finalement,
07:35 et on voit que les différents principes éthiques,
07:37 les valeurs humaines qui sont associées à l'éthique,
07:39 finalement, on les retrouve aussi dans tout ce qui est associé
07:44 à ce que fait l'être humain et ce qu'il est en tant que personne,
07:47 en tant qu'espèce humaine et qui nous différencie justement des machines.
07:52 Et c'est ça qui est aussi important.
07:54 Et c'est aussi le sens des mots.
07:57 Et c'est ça qui a toute cette signification,
08:00 la signification et le sens, le chemin que vous allez prendre, l'orientation.
08:04 Donc, vous voyez bien toute la symbolique autour de ça.
08:07 Donc, si vous voulez, il y a quatre principes éthiques
08:11 qui sont assez fondateurs, qui sont universels,
08:14 qui ont été constitués pour la première fois en 2001 par Beauchamp & Children's,
08:20 qui sont le principe de bienfaisance, de non malfaisance, justice
08:24 et tout ce qui est aussi d'autonomie.
08:29 C'est un peu ces quatre points cardinaux.
08:32 Mais comme l'a très bien dit mon voisin, c'est, si vous voulez,
08:37 qu'on est vraiment... il y a un socle commun,
08:41 mais après à chacun d'avoir sa propre éthique,
08:44 mais avec des principes qui sont universels.
08:47 Ça, c'est important.
08:49 Guillaume, comment on partage ces principes
08:52 dans une organisation sociale ou une entreprise ?
08:55 Alors déjà, vous voyez que ça démarre très fort.
08:57 On vous parle de Paul Ricoeur, d'Aristote, de Socrate.
09:01 Alors justement, comment passer un petit peu finalement
09:05 des grands socles au commun de savoir humain ?
09:07 Et je suis complètement aligné sur ce qu'a dit Jérôme,
09:09 sur les quatre grands principes de l'éthique.
09:12 Et si on essaie de se situer dans le temps à partir de 2000,
09:15 à partir de quand les entreprises se sont posées la question de l'éthique.
09:19 Donc c'est vraiment dans les années 2000, à partir de ces quatre principes.
09:22 Et je dirais qu'il y a plusieurs choses.
09:25 On va focaliser bien entendu sur la réflexion de l'éthique dans les algorithmes,
09:28 ce qu'on appelle l'éthique algorithmie.
09:30 Et moi, c'est un sujet, donc c'est ce sujet qui m'anime le plus.
09:33 La vraie question, d'abord, c'est la question, comme l'a dit Jérôme,
09:36 c'est la question du sens.
09:38 Le sens, c'est comment la faire vivre en communauté,
09:41 se faire challenger, accepter de la critiquer.
09:44 Mais plus exactement, c'est comment créer des référentiels.
09:46 C'est tout le débat aujourd'hui.
09:48 Jérôme a cité les quatre principes qui ont été énormément repris par les comités américaines.
09:52 Aujourd'hui, le Canada est un pays extrêmement avancé sur ça.
09:55 Et la vraie question, et c'est nous ce qu'on essaye de faire chez DocaPost,
09:58 vous savez que DocaPost, c'est l'application de la confiance numérique.
10:01 Et dans la confiance numérique, on porte ce qu'on appelle de l'IA de confiance.
10:04 C'est pour moi deux principes fondateurs,
10:06 qui sont le premier, l'explicabilité et la traçabilité.
10:11 Si on vous parle avec Jérôme et David de philosophie,
10:14 c'est que moi je pense que dans le numérique aujourd'hui,
10:16 plus il y aura de numérique, plus il y aura des besoins de philosophie,
10:19 plus il y aura des besoins de faire cette éthique.
10:22 Et les sous-jacents d'arriver à mettre ça dans les relations,
10:25 c'est deux questions qu'il faut se poser.
10:27 Comment j'explique ce que je fais ?
10:29 D'abord, dans mon intention, l'intention de créer quelque chose.
10:32 C'est un exemple que je donne souvent,
10:34 et je salue certains étudiants de l'école de la Data et de l'IA qui sont ici présents.
10:38 Aujourd'hui, quand on a un clavier informatique entre les mains,
10:42 quand on décide de travailler avec tous les algorithmes au point de vue du monde entier,
10:46 est-ce qu'à la fin de ma journée,
10:49 je vais créer un algorithme qui va permettre de réduire la famine dans le monde,
10:53 ou malheureusement de créer des robots tueurs qui vont faire beaucoup de dégâts ?
10:57 C'est d'abord l'explicabilité de l'intention au départ.
11:00 Après l'intention, arrive la deuxième caractéristique de l'explicabilité,
11:05 c'est justement la critique de l'action.
11:07 Comment aujourd'hui, quand je suis développeur,
11:09 je peux justifier en amont de mon intention, je viens d'en parler,
11:12 mais comment dans la façon de développer, je vais pouvoir expliquer ce que je fais ?
11:15 Ça veut dire que bien entendu, c'est la parfaite explication
11:22 des descriptions du code que je produis.
11:26 C'est quelque chose qu'on doit justifier.
11:28 Ça tombe bien parce que j'ai toujours poussé mes développeurs à documenter leur code,
11:32 mais je crois qu'avec l'éthique, on aura encore besoin de documenter.
11:35 Pour les jeunes de l'école de la data, documentez bien votre code,
11:38 je vous en remercie, on sera très vigilants là-dessus.
11:41 Ça peut rendre service.
11:43 Et puis, après, une fois qu'on a fait ces deux étapes d'explicabilité,
11:47 le deuxième vrai chemin, c'est d'opérer la traçabilité.
11:50 Et cette traçabilité, je vais la relier à ce que j'ai énoncé tout à l'heure,
11:54 sur la capacité de critiquer son travail.
11:56 Aujourd'hui, un développeur informatique qui n'est pas capable de dire ses intentions,
12:00 qui n'est pas capable de l'expliquer et qui n'est pas capable d'écrire cette traçabilité,
12:04 quelque part, pour moi, il est un peu loin de l'éthique.
12:06 Peut-être que son intention n'est pas de créer des algorithmes contre le bien commun,
12:12 néanmoins, c'est ce qu'on essaye de pousser dans la charte éthique du groupe La Poste,
12:16 de dire qu'aujourd'hui, tout est une question de traçabilité.
12:18 Il faut savoir justifier les actions qu'on fait.
12:21 Jérôme, d'écrire, expliquer, toi tu nous dis, en plus on peut le visualiser,
12:27 et c'est d'ailleurs tout l'objet de l'entreprise que tu as créée, Goodalgo,
12:33 que de développer des tableaux de bord.
12:35 Est-ce que c'est aussi simple que ça ?
12:38 Non, comme je vous ai dit, c'est assez complexe.
12:41 Déjà, il faut remettre d'un point de vue historique,
12:44 la discipline de l'éthique appliquée au digital,
12:47 il faut savoir que c'est une discipline qui est assez récente,
12:49 donc il y a, quand j'ai effectué ma thèse doctorale à l'université de médecine de Marseille,
12:54 à l'époque, c'était en 2009-2012, associer ces deux disciplines,
12:59 donc les sciences humaines et sociales et la technologie, on va dire,
13:02 les sciences dures, c'était totalement antinomique.
13:05 Pourquoi ? Parce que les siècles des Lumières y passaient par là,
13:08 parce qu'ils cloisonnaient les choses avec l'encyclopédie,
13:10 parce qu'il fallait se spécialiser dans une discipline,
13:13 et en fait, là où la société a mis des murs,
13:17 finalement, nous, on a essayé de mettre des ponts et des passerelles,
13:20 parce que le numérique, à l'instar de l'éthique, c'est transversal,
13:24 ça impacte toutes les sphères de la société,
13:27 mais aussi de l'entreprise, des usages, des conceptions,
13:29 et donc du coup, il faut faire cette passerelle-là, c'est important.
13:32 Et moi, ce qui m'a animé depuis toujours, c'est de rendre l'éthique appliquée et applicable,
13:37 et pour cela, j'avais repris un peu notre citation de Léonard de Vinci,
13:42 qui disait "il faut faire pour penser et penser pour faire",
13:46 et l'idée, c'était de dire "il faut peut-être numériser pour moraliser,
13:51 et moraliser pour numériser", et en fait, l'idée, c'est ça,
13:55 c'est-à-dire que quand on prend un projet digital,
13:57 on le voit qu'un projet numérique, ce n'est pas uniquement de la data,
14:01 c'est-à-dire que ça alimente par les données les algorithmes,
14:04 mais la data, si elle n'est pas exploitée par des algorithmes,
14:07 un système algorithmique, ça ne sert pas à grand-chose,
14:09 et un algorithme, c'est un moteur dans la voiture,
14:12 si ce n'est pas alimenté par de l'essence ou par de la data,
14:14 ça ne sert pas à grand-chose non plus.
14:16 Et ce qui est très important, quand on essaie d'importer de l'éthique
14:20 au sein d'un projet numérique, pour un concepteur ou un développeur,
14:24 il faut avoir une vision totalement, pas en silo, mais transversale,
14:27 c'est-à-dire qu'il faut poser des questions, à la fois autour des questions sur la data,
14:32 comment elle est intégrée, de qualité, comment elle est sélectionnée,
14:36 sa source, parce qu'au bout d'un moment, on ne sait même plus le sourcing
14:39 d'où ça vient, au niveau des cohortes, en termes de qualité,
14:42 ça c'est une chose, est-ce qu'elle est accessible ou pas.
14:45 Après, il faut poser des questions, ce que j'appelle un deuxième niveau d'éthique,
14:48 l'éthique de l'algorithme. Là, c'est toutes les questions autour de l'algorithme en tant que tel.
14:52 Est-ce qu'il est robuste, interprétable, fiable ?
14:55 Est-ce qu'il a des biais de cognition, des biais statistiques, etc. ?
15:01 Ça, c'est un troisième niveau. Il y a un quatrième niveau,
15:04 c'est l'éthique des systèmes. Les systèmes, c'est quoi ?
15:07 C'est les interfaces en machine. Est-ce qu'il est ergonomique ?
15:10 Est-ce qu'il est performant, adaptable à l'utilisateur ?
15:13 Ça, c'est des questions qu'il faut se poser. Il y a aussi l'éthique de l'environnement,
15:17 l'environnement contextuel, surtout quand c'est de l'IA.
15:21 L'IA, je le considère un peu néo-darwinienne,
15:25 c'est comme un organisme vivant, auto-apprenant,
15:28 qui interagit de plus en plus avec son environnement, son infosphère.
15:32 Les biais qui peuvent être mineurs au début, peuvent être majeurs
15:37 ou être modifiés au fur et à mesure. Ce qui est important,
15:40 et je rejoins tout à fait Guillaume, c'est l'esprit de le faire évoluer,
15:44 de suivre dans le temps. Pourquoi ? Parce que quand c'était un système
15:48 d'information qui était un peu figé, finalement, ça ne pose pas trop de problèmes,
15:52 il n'était pas trop sensible à l'impact de l'alimentation des datas nouvelles
15:57 qu'on va lui apporter. Mais là, on voit bien que ce monde est de plus en plus
16:01 datafiqué en termes de notation. Du coup, l'IA va être
16:06 évolutive et complexe de plus en plus. Ce qui est important,
16:10 on parle souvent, nous, en éthicien, de l'ethics by design, c'est-à-dire
16:14 dès la conception d'un projet digital, il faut y incorporer,
16:18 Guillaume l'a très bien dit, tout ce qui était des préconisations
16:22 et des recommandations éthiques dès la conception d'un projet.
16:25 Un projet, pour être conçu, il faut qu'il soit pluridisciplinaire
16:28 avec des tiers de partie, des développeurs, mais aussi des corps de métier,
16:32 des futurs utilisateurs aussi, pour répondre aux attentes et aux exigences
16:36 des personnes qui vont l'utiliser, professionnels et non professionnels
16:40 de la société, ça c'est important. Mais au-delà de ça, il faut se projeter
16:44 pour de l'IA, c'est ce que moi j'appelle la notion d'ethics by évolution,
16:48 c'est-à-dire dans le temps, dès la conception, mise en place, usage et suivi
16:52 d'un projet digital, il faut lui incorporer un encadrement,
16:56 une régulation éthique qui évolue dans le temps aussi.
17:00 Dernier point, j'ai parlé d'éthique de l'environnement,
17:04 donc contextuel, ça peut être écologique, environnement durable,
17:08 mais aussi religieux, social, économique, politique,
17:12 parce que tel ou tel projet digital d'IA ou non-IA,
17:16 en plein Covid, avant, après, en pleine guerre ukrainienne ou pas,
17:20 ça n'a pas le même impact. Donc ça c'est aussi à prendre en compte,
17:24 comment vous le faites évoluer. Et il y a trois autres familles d'éthiques
17:28 qui peuvent être aussi à interpréter, aussi à développer en analyse d'un projet
17:32 digital, qu'il soit éthique ou pas, c'est autour des décisions
17:36 et des pratiques et de la condition humaine. On prend le phénomène un peu
17:40 de chat GPT pour de l'IA générative en termes de texte,
17:44 on se pose la question d'un point de vue sociétal, de la condition humaine,
17:48 en quoi ça va impacter le comportement, les métiers, l'éducation
17:52 de la société, d'avoir un tel outil. Pour moi, c'est une version
17:56 2 ou 3.0 de la calculatrice qu'on intègre
18:00 à l'école. On apprend toujours à l'école,
18:04 dans les petites classes primaires, comment on fait ces règles de multiplication,
18:08 les divisions, etc. Mais c'est pas pour le faire toute sa vie.
18:12 C'est juste pour exercer son cerveau à la logique mathématique
18:16 de la gymnastique, mais dès le collège. Moi, j'ai mes neveux
18:20 et nièces qui sont maintenant en collège ou en lycée, c'est la calculatrice.
18:24 Et c'est tout à fait normal. Juste pour finir, je dirais,
18:28 quand j'interviens dans les écoles, ne refusez pas
18:32 la pratique de chat GPT ou de ce qui va arriver,
18:36 parce que ça va être quelque chose qui va être au cognard. Il vaut mieux prendre du temps
18:40 pour savoir bien l'utiliser, avec les limites et
18:44 les atouts, les apports. Après, garder enregistrement ça.
18:48 Mais il faut faire évoluer aussi le système d'éducation et l'éthique est là aussi
18:52 pour faire évoluer les choses aussi.
18:56 Il y aura interrogation à la fin, soyez rassurés. Plus sérieusement, d'ailleurs, vous pouvez poser
19:00 des questions, bien sûr. Je vous propose une méthode qui a fait ses preuves. Vous levez le doigt,
19:04 on vous donne un micro et vous posez la question. N'hésitez pas et faites-le assez
19:08 tôt dans le débat parce que le temps nous sera compté.
19:12 Qui parmi vous a déjà utilisé au moins une fois chat GPT ?
19:16 Donc, on est au-delà de la moitié
19:20 et effectivement, on est dans une IA
19:24 qui rentre dans l'atmosphère en quelque sorte et dont on voit bien
19:28 qu'elle pourrait désormais vite se démocratiser avec une certaine
19:32 forme d'émoi face à des intelligences artificielles
19:36 dont on voit bien qu'elles peuvent répondre parfois plus rapidement que soi-même
19:40 ou avoir une connaissance plus longue. Comment on adapte ?
19:44 On forme les êtres pour utiliser
19:48 les intelligences artificielles demain, Guillaume ? Alors, on a commencé par la philosophie
19:52 et Jérôme nous propose la gymnastique, donc effectivement, devenant concret.
19:56 On a installé un mur d'escalade derrière pour ceux qui veulent aussi.
20:00 Je crois que maintenant, il faut être concret. Jérôme et moi-même, on a essayé de poser
20:04 un peu des grands principes sur l'expérientiel, la traçabilité, l'auditabilité.
20:08 Être concret, c'est relire déjà ce qui se passe
20:12 depuis une dizaine d'années. On parle de l'IA ce matin, de l'éthique.
20:16 Je vais vous donner quelques exemples à la fois dans le monde,
20:20 c'est-à-dire les sociétés, dans les entreprises et pour les individus.
20:24 Si vous regardez la campagne de 2016, donc remportée par
20:28 Donald Trump aux Etats-Unis, on sait que les data scientistes
20:32 de l'équipe de Donald Trump ont conseillé Donald Trump pour adapter les contenus
20:36 pour désinguer son opposante qui était Hillary Clinton.
20:40 C'est des choses parce qu'en fait, très simplement,
20:44 les data scientistes de l'équipe de campagne du Candidat républicain
20:48 ont vu les tendances et donc ont utilisé les algorithmes. Peut-être que vous avez entendu aussi parler
20:52 d'un scandale qui était retentissant et qui est monté jusqu'à la Chambre des représentants
20:56 et au Congrès américain, le scandale Cambridge Analytica.
21:00 C'est déjà pour vous dire qu'effectivement, l'IA et l'éthique, c'est un vrai sujet de société, de démocratie,
21:04 très important. Si on parle des entreprises, alors là, on va pas en rigoler,
21:08 mais quand même, vous savez qu'aujourd'hui, on parle de l'IA, il y a trois définitions.
21:12 C'est l'IA faible, c'est l'IA qui assiste, l'IA forte, l'IA qui décide et la super IA,
21:16 l'IA qui a sa conscience. La super IA n'existe pas encore, mais quand on se met à parler de l'IA forte,
21:20 on peut commencer à parler de la voiture autonome et vous connaissez les Tesla,
21:24 les voitures chinoises, les voitures américaines, la Wemo, la filiale de Google.
21:28 Et il y a un cas d'école qu'on enseigne quand on fait de l'éthique algorithmique,
21:32 c'est à quel moment une IA qui doit décider de faire freiner
21:36 une voiture va faire face elle-même à des sujets d'éthique.
21:40 Le meilleur exemple que certains ont déjà entendu donné,
21:44 c'est l'exemple de la voiture autonome qui doit malheureusement stopper sur un passage piéton.
21:48 Et sur le passage piéton, vous allez trouver à la fois une mère
21:52 avec un landau et un bébé dans le landau.
21:56 Et on va dire un petit vieux ou une petite vieille, excusez-moi du terme.
22:00 La question c'est qu'est-ce qu'ont prévu les développeurs au niveau éthique ?
22:04 La voiture doit s'arrêter et malheureusement, on n'a pas le choix que de percuter
22:08 un des deux intervenants. La réponse, alors bonne nouvelle pour la maman et le landau,
22:12 mauvaise nouvelle pour le petit vieux ou la petite vieille,
22:16 c'est que les développeurs ont décidé qu'en priorité seront percutées la personne la plus âgée.
22:20 Donc c'est pour ça, ceux qui se teintent les cheveux en blanc
22:24 et tout ça, faites attention.
22:28 Voilà un exemple d'éthique en entreprise concrète.
22:32 Et le troisième sujet pour moi, c'est pour bien comprendre
22:36 l'éthique aujourd'hui comme c'est important. Et c'est d'ailleurs un des combats que je porte
22:40 dans ma fondation dans l'éducation. Vous savez que quand on parle aujourd'hui du monde des réseaux sociaux,
22:44 on parle de ce qu'on appelle l'économie de l'attention.
22:48 Comment les algorithmes aujourd'hui, dans cette IA faible, assistent au quotidien ?
22:52 Alors quand l'IA m'assiste pour optimiser
22:56 mon temps de trajet, pour me rendre un rendez-vous, c'est plutôt une bonne nouvelle, surtout en temps de grève.
23:00 Néanmoins, on se rend compte que depuis 10 ans,
23:04 les réseaux sociaux et cette économie de l'attention ont créé beaucoup d'addictions.
23:08 Je ne vais citer aucune société ni américaine ni chinoise, mais vous n'avez qu'à lire la presse
23:12 aujourd'hui. Tout ce qui se passe aujourd'hui à travers
23:16 certains réseaux sociaux, ceux qui ont changé de nom américain ou d'autres qui sont
23:20 un peu plus asiatiques, on est vraiment au cœur du débat éthique.
23:24 Est-il éthique qu'un algorithme puisse décerner en moins de 10 secondes
23:28 le genre sexuel d'une personne ? Est-il éthique que dans certains pays,
23:32 les algorithmes savent mesurer l'attention d'une personne face à un écran ?
23:36 Voilà des exemples concrets. Je dis un exemple,
23:40 si je parle d'éducation, c'est un exemple qui existe malheureusement. La Chine est un pays qui a extrêmement
23:44 progressé en intelligence sociale depuis 10 ans et ils en ont mis partout,
23:48 les algorithmes, y compris pour mesurer l'attention des élèves dans les classes.
23:52 Ils ont mis des caméras, un peu comme les caméras qui sont là, mais qui savent mesurer par rapport
23:56 à la gestuelle du visage de chaque individu, aux mimiques, ils savent
24:00 mesurer ou pas si un enfant écoute ou pas. Et qu'est-ce qui fait ça derrière ?
24:04 Qu'est-ce qui fait cette manipulation, cette collecte et cette tridonnée ? Ce sont les algorithmes.
24:08 Voilà trois exemples concrets. J'ai parlé politique, démocratie, j'ai parlé la voiture autonome
24:12 et cette partie grand public qui
24:16 interroge énormément. Chacun peut relier avec ce qu'on a dit
24:20 avec Jérôme, c'est-à-dire quelle est l'intention, quelle est la question de la traçabilité,
24:24 de l'explicabilité et puis les quatre principes que tu as cités tout à l'heure.
24:28 Jérôme, on a un peu de recul désormais
24:32 sur nos concitoyens, sur leur manière de se comporter
24:36 avec des outils numériques, de se comporter dans l'espace public, ne serait-ce que
24:40 avec les réseaux sociaux. Est-ce qu'on peut dire qu'ils sont mûrs
24:44 pour affronter les prochaines étapes, dont
24:48 celle de l'utilisation des intelligences artificielles de manière plus massive
24:52 encore, même s'ils le font déjà d'ailleurs, sans forcément le savoir aujourd'hui ?
24:56 Absolument pas, sans dédramatiser, mais
25:00 en fait, ce qu'il faut savoir, c'est que pourquoi il a fallu presque
25:04 20 ans pour que la tendance de dire, il faut mettre de l'éthique
25:08 maintenant, un peu comme l'environnement durable il y a quelques années dans les entreprises,
25:12 il y a une prise de conscience qui a été faite, mais avec 20 ans de retard.
25:16 Parce que c'est tant que l'usage, moi je crois beaucoup à la valeur d'usage
25:20 de la technologie, parce que finalement, tant qu'une technologie, on parle de la blockchain,
25:24 de concept et tout, mais tant que ça n'impacte pas le quotidien d'une personne,
25:28 d'un professionnel de santé, pour la médecine ou pour ailleurs,
25:32 finalement, on ne le prend pas au sérieux, ou on se dit, ça ne nous
25:36 impacte pas, et on ne regarde pas, on ne se projette pas dans le temps en réfléchissant
25:40 aux répercussions, à l'impact que ça peut avoir pour soi, pour son métier,
25:44 ou pour la société dans l'ensemble. Et en fait, l'esprit
25:48 du principe de précaution, c'est ça, c'est se dire, pourquoi vous voulez
25:52 réfléchir aux enjeux, aux risques éthiques, si vous ne pouvez même pas vous projeter
25:56 sur les conséquences que ça peut avoir, parce que finalement, ça ne vous impacte
26:00 pas dans votre quotidien, c'est tout à fait naturel de raisonner comme ça.
26:04 Je vous donne un exemple, je suis originaire plutôt en ce moment à Toulouse,
26:08 c'est plutôt l'aérospatial et l'aéronautique, donc je peux vous faire la même chose, pas avec
26:12 la voiture autonome, mais avec l'avion autonome, c'est quelque chose qui peut faire peur,
26:16 parce qu'il y en a qui n'aiment pas du tout voyager en avion, parce que c'est le mythe
26:20 du 10/4, je ne sais pas, alors que c'est presque le transport le moins risqué au monde.
26:25 Donc ça, il faut prendre en conséquence. J'ai un de mes neveux qui vient d'avoir,
26:29 il y a un an, son pilote de brevet d'avion.
26:33 Et il me disait, mais Jérôme, donc ils font beaucoup de simulations,
26:37 en termes, en essais réels, etc.
26:41 Et il me disait, mais Jérôme, il y a encore, tu sais que moi,
26:45 j'ai appris sur une simulation où en fait, c'est l'avion
26:49 qui à 95% est autonome du démarrage à l'atterrissage du trajet.
26:55 Et c'est tout à fait normal en fait, parce que c'est très facile,
26:59 la voiture autonome, sur l'autoroute, peut-être qu'on la verra et qu'elle sera performante
27:04 et ça fonctionnera. La voiture autonome en ville, avec tous les paramètres
27:08 totalement inappropriés ou qu'on ne peut pas réfléchir ou on ne peut pas y penser,
27:13 je pense que ça va être très, très compliqué. Je ne dis pas que ça sera impossible,
27:17 mais ça va être assez, parce qu'on ne peut pas, toujours l'esprit de l'environnement,
27:21 on ne peut pas anticiper et encadrer tout l'environnement possible,
27:27 imaginable pour réfléchir à comment la voiture ou le moyen de transport
27:32 va réagir pour telle ou telle situation. L'avion, le cadre environnemental
27:37 est totalement facile à maîtriser. Finalement, on peut vite paramétrer.
27:41 Et pourquoi je vous dis ça ? Parce que cette simulation, c'est la machine
27:45 à 95% et on lui apprend juste à dire "la machine a le bug" et vous reprenez
27:50 la main en tant que pilote pour faire en sorte que l'avion arrive à bon port
27:55 ou régler la situation. Il y a encore un an et demi, deux ans, c'était l'inverse.
28:00 La simulation faisait que c'était la machine qui reprenait la main sur le pilote.
28:05 Donc on a déjà, vous voyez bien, on a déjà modifié finalement le rôle
28:09 ou les missions de tel ou tel acteur. Alors, on parlait de...
28:13 C'est clair que demain, si on prend un avion et qu'il n'y a pas de pilote à bord,
28:17 le sentiment de sécurité ne sera pas le même, quoi qu'il arrive,
28:22 et quel que soit le niveau de sécurité. Et donc, il y a un facteur rassurant
28:26 d'avoir des humains et sans recours humain, effectivement, il y a un rejet
28:30 de la technologie. Mais est-ce que c'est... Je pense que c'est plutôt rassurant
28:33 d'un point de vue de son inconscient. C'est-à-dire qu'on prend un exemple.
28:37 À la base, je suis originaire vraiment de Lyon. À Lyon, il y a plus de 40 ans,
28:42 on a eu les premiers métros automatiques sans chauffeur.
28:45 Ça a posé zéro problème en termes de fantasme, de psychologie ou de drame,
28:50 parce que finalement, c'est un endroit clos, un tube, etc.
28:53 Ça ne fait pas trop peur. Et puis là-dessus, vous vous disiez,
28:57 finalement, c'était dans la suite logique des choses, quoi.
29:01 Mais vous prenez d'autres exemples, vous vous dites, je ne sais pas,
29:05 si vous vous prenez en compte le fait que les nouvelles technologies
29:09 évoluent, c'est dans le sens de l'histoire. Finalement, quand vous voyez,
29:13 par rapport aux différentes révolutions industrielles, il y a toujours un changement
29:17 de paradigme et de comportement, de droit qui apparaît, d'éthique aussi,
29:21 au fur et à mesure. Et en fait, c'est ça qu'il faut prendre conscience de ça.
29:25 En termes de formation, d'un point de vue pragmatique, ce qui est important,
29:29 je pense, en prise de conscience, nous, c'est ce qu'on essaye de faire,
29:33 moi, avec ma société Goodalgo, en tout cas, c'est de développer
29:37 des solutions, non seulement pour les professionnels, mais aussi pour les citoyens.
29:41 Et donc, du coup, nous, ça peut être, on propose aux entreprises
29:45 des vraies solutions. D'ailleurs, j'ai développé le premier référentiel
29:49 autour de l'éthique du numérique pour, justement, que ça soit appuyé
29:53 sur un label, une labellisation qui permet de donner du sens, de la confiance,
29:57 de la transparence et donc de la sécurité vis-à-vis de la société
30:01 ou des potentiels clients. Parce que finalement, moi, je l'avais fait dans le domaine
30:05 de la santé, et je me disais, c'est une chose que je fais, mais c'est une autre chose
30:09 que je fais. Et donc, je me disais, c'est une autre chose que je fais.
30:13 Et donc, je me disais, c'est une autre chose que je fais.
30:17 Et donc, je me disais, c'est une autre chose que je fais.
30:21 Et donc, je me disais, c'est une autre chose que je fais.
30:25 Et donc, je me disais, c'est une autre chose que je fais.
30:29 Et donc, je me disais, c'est une autre chose que je fais.
30:33 Et donc, je me disais, c'est une autre chose que je fais.
30:37 Et donc, je me disais, c'est une autre chose que je fais.
30:41 Et donc, je me disais, c'est une autre chose que je fais.
30:45 Et donc, je me disais, c'est une autre chose que je fais.
30:49 Et donc, je me disais, c'est une autre chose que je fais.
30:53 Et donc, je me disais, c'est une autre chose que je fais.
30:57 Et donc, je me disais, c'est une autre chose que je fais.
31:01 Et donc, je me disais, c'est une autre chose que je fais.
31:05 Et donc, je me disais, c'est une autre chose que je fais.
31:09 Et donc, je me disais, c'est une autre chose que je fais.
31:13 Et donc, je me disais, c'est une autre chose que je fais.
31:17 Et donc, je me disais, c'est une autre chose que je fais.
31:21 Et donc, je me disais, c'est une autre chose que je fais.
31:25 Et donc, je me disais, c'est une autre chose que je fais.
31:29 Et donc, je me disais, c'est une autre chose que je fais.
31:33 Et donc, je me disais, c'est une autre chose que je fais.
31:37 Et donc, je me disais, c'est une autre chose que je fais.
31:41 Et donc, je me disais, c'est une autre chose que je fais.
31:45 Et donc, je me disais, c'est une autre chose que je fais.
31:49 Et donc, je me disais, c'est une autre chose que je fais.
31:53 Et donc, je me disais, c'est une autre chose que je fais.
31:57 Et donc, je me disais, c'est une autre chose que je fais.
32:01 Et donc, je me disais, c'est une autre chose que je fais.
32:05 Et donc, je me disais, c'est une autre chose que je fais.
32:09 Et donc, je me disais, c'est une autre chose que je fais.
32:13 Et donc, je me disais, c'est une autre chose que je fais.
32:17 Et donc, je me disais, c'est une autre chose que je fais.
32:21 Et donc, je me disais, c'est une autre chose que je fais.
32:25 Et donc, je me disais, c'est une autre chose que je fais.
32:29 Et donc, je me disais, c'est une autre chose que je fais.
32:33 Et donc, je me disais, c'est une autre chose que je fais.
32:37 Et donc, je me disais, c'est une autre chose que je fais.
32:41 Et donc, je me disais, c'est une autre chose que je fais.
32:45 Et donc, je me disais, c'est une autre chose que je fais.
32:49 Et donc, je me disais, c'est une autre chose que je fais.
32:53 Et donc, je me disais, c'est une autre chose que je fais.
32:57 Et donc, je me disais, c'est une autre chose que je fais.
33:01 Et donc, je me disais, c'est une autre chose que je fais.
33:05 Et donc, je me disais, c'est une autre chose que je fais.
33:09 Et donc, je me disais, c'est une autre chose que je fais.
33:13 Et donc, je me disais, c'est une autre chose que je fais.
33:17 Et donc, je me disais, c'est une autre chose que je fais.
33:21 Et donc, je me disais, c'est une autre chose que je fais.
33:25 Et donc, je me disais, c'est une autre chose que je fais.
33:29 Et donc, je me disais, c'est une autre chose que je fais.
33:33 Et donc, je me disais, c'est une autre chose que je fais.
33:37 Et donc, je me disais, c'est une autre chose que je fais.
33:41 Et donc, je me disais, c'est une autre chose que je fais.
33:45 Et donc, je me disais, c'est une autre chose que je fais.
33:49 Et donc, je me disais, c'est une autre chose que je fais.
33:53 Et donc, je me disais, c'est une autre chose que je fais.
33:57 Et donc, je me disais, c'est une autre chose que je fais.
34:01 Et donc, je me disais, c'est une autre chose que je fais.
34:05 Et donc, je me disais, c'est une autre chose que je fais.
34:09 Et donc, je me disais, c'est une autre chose que je fais.
34:13 Et donc, je me disais, c'est une autre chose que je fais.
34:17 Et donc, je me disais, c'est une autre chose que je fais.
34:21 Et donc, je me disais, c'est une autre chose que je fais.
34:25 Et donc, je me disais, c'est une autre chose que je fais.
34:29 Et donc, je me disais, c'est une autre chose que je fais.
34:33 Et donc, je me disais, c'est une autre chose que je fais.
34:37 Et donc, je me disais, c'est une autre chose que je fais.
34:41 Et donc, je me disais, c'est une autre chose que je fais.
34:45 Et donc, je me disais, c'est une autre chose que je fais.
34:49 Et donc, je me disais, c'est une autre chose que je fais.
34:53 Et donc, je me disais, c'est une autre chose que je fais.
34:57 Et donc, je me disais, c'est une autre chose que je fais.
35:01 Et donc, je me disais, c'est une autre chose que je fais.
35:05 Et donc, je me disais, c'est une autre chose que je fais.
35:09 Et donc, je me disais, c'est une autre chose que je fais.
35:13 C'est véritablement le positionnement de la Poste aujourd'hui à travers sa charte éthique IA qu'on essaye de déployer.
35:21 Ça fait deux ans qu'on l'a mis en place.
35:23 C'est le positionnement de l'entreprise à mission que présente la Poste.
35:26 C'est ce que nous faisons chez DocaPost de promouvoir ce numérique de confiance, cette IA de confiance.
35:32 Après, moi, pour être très concret dans ta question, David, c'est que ça prend du temps.
35:39 C'est qu'il faut se former, se former, se former.
35:41 C'est pour ça qu'avec Anerio, nous avons décidé de créer pour l'école de l'IA des cours d'éthique algorithmique.
35:50 Ce n'est pas pour dire qu'on a envie de faire la philosophie.
35:53 Ce matin, vous venez pour un événement technologique.
35:57 On n'arrête pas de parler de philosophie.
35:59 On parle de Néolard de Vinci.
36:00 Et moi, je dirais juste une phrase pour paraphraser ce qu'a dit Jérôme en citant Léonard Vassus et Jean Guitton qui disaient,
36:05 il faut penser en homme d'action et agir en homme de pensée.
36:09 Voilà le travail aujourd'hui de ce que c'est qu'un développeur.
36:12 En tout cas, ça m'invite quand même à vous dire qu'il faut rester développeur.
36:15 Est-ce que c'est une citation qui s'applique au comité de direction, Jérôme, avec lequel tu peux œuvrer ?
36:21 Oui, tout à fait.
36:22 Après, il y a quelque chose pour revenir aussi par rapport à l'esprit de dire,
36:28 chaque éditeur, finalement, ou constructeur de voitures peut avoir sa propre éthique.
36:32 Et on prend la situation que Guillaume a très bien expliqué ou décrit sur quel choix va faire telle ou telle voiture.
36:40 J'ai envie de dire aussi à un moment donné, je pense sincèrement que ça va être la loi du marché qui va faire en sorte que telle stratégie éthique
36:48 par rapport à pour les transports autonomes ou pas vont se déployer ou pas.
36:52 Je vais vous donner un exemple tout bête.
36:54 Demain, il y a deux marques sans citer différentes de voitures qui construisent leur propre éthique sur la sécurité ou pas
37:01 à ce qui privilégie le dégât matériel de la voiture ou l'espèce humaine en tant que dans l'habitacle ou en dehors.
37:08 Admettons, ils préfèrent dire c'est le nombre de personnes qui peuvent éviter un accident ou la mort qui va être mis en avant
37:15 au détriment peut-être des mêmes propriétaires du véhicule.
37:19 Moi, personnellement, pour le même prix, je ne suis pas égoïste, mais tu penses normalement à ta famille et à toi.
37:26 Entre dire OK, des gens que je ne connais pas du tout, je vais peut-être préserver leur vie, mais moi, je risque de me prendre un platan et mourir.
37:33 Est-ce que je vais prendre pour le même prix cette voiture là où j'ai moins de chances d'avoir de la sécurité qu'une autre?
37:40 Je pense qu'à moyen terme, ils vont voir que leurs ventes vont commencer à baisser par rapport à leurs concurrents.
37:45 Donc, ça va aussi. C'est un peu un peu totalement pragmatique, mais je pense aussi qu'il y aura aussi une déviance aussi de l'éthique
37:54 qu'on peut faire de telle ou telle entreprise en fonction de ça. Et comme ça va être, je pense qu'on reprend l'esprit de déplicabilité,
38:01 il va falloir pour que chaque transport autonome ou d'autres choses de systèmes d'information qui est comme un cahier des charges,
38:08 finalement, une documentation, on en a dit ou en disant à savoir à laquelle sauce on va être mangé entre guillemets.
38:13 Et ça va être même dans l'AI Act quelque chose qui va être totalement imposé. Et c'est tout à fait normal.
38:21 Et donc, du coup, je pense qu'à un moment donné, la loi du marché va aussi réguler ça en bien ou en mal.
38:28 Ça, c'est un autre débat. Quand on parle de formation, moi, au sein des entreprises, on nous demande de plus en plus.
38:34 Nous, on veut incorporer. C'est souvent ça vient. Ça doit venir des comex, des directions d'un point de vue de la stratégie en disant nous,
38:41 on veut incorporer véritablement de l'éthique au sein de nos projets digitaux associés à des valeurs qui nous ressemblent.
38:50 C'est notre fait de notre entreprise et qui porte. Nous, on les aide avec mon entreprise, en tout cas, et mes collaborateurs à créer
38:59 même un département de l'éthique du numérique. Il faut savoir qu'il y a quelques années encore, c'était le la RSE, le juridique qui portait finalement
39:09 tout ce qui était la compliance et l'éthique de l'entreprise, notamment dans le numérique. Et de plus en plus, une tendance de la société civile fait que
39:18 il y a une vraie demande parce qu'ils comprennent que le juridique, c'est une chose, l'éthique, c'est une autre, c'est complémentaire, mais ce n'est pas du tout au même niveau.
39:25 Il y en a un qui est beaucoup plus transversal et systémique que le juridique qui peut être un peu plus cloisonnant. Mais les deux sont indispensables.
39:32 Et donc, du coup, comment ils font ? Ils essaient de se former. Je prends ma casquette universitaire. Il n'y a pas de formation et le profil d'éthicien,
39:40 d'un point de vue universitaire, n'existe pas parce que l'université, je peux critiquer parce que je suis chercheur associé et ce n'est pas mon employeur.
39:47 C'est une grande bureaucratie. Ça prend du temps. Donc, avec des fondations comme celle de Guillaume, où nous, on fait des formations aussi privées,
39:56 on aide à créer. C'est quoi le futur digital ethics officer ? C'est quelque chose qui se développe de plus en plus. Et donc, c'est un nouveau métier qui apparaît,
40:04 qu'il faut développer et donc, il faut constituer. Je ne dis pas que l'université va prendre ça en compte. Il y a les premiers DEU qui vont sortir, qui sortent dans ce niveau-là.
40:14 Donc, après, il y a beaucoup de sensibilisation, d'éducation, de formation au sein des entreprises. La société civile, elle essaie d'écrire des bouquins un peu vulgarisés,
40:24 etc. parce qu'il y a une vraie prise de conscience aussi. Je pense que d'un point de vue éducationnel, c'est important. On parle de la terminale, de Platon, etc.
40:34 pour la philosophie. Je pense qu'il faut aussi parler de Python, sans faire de jeu de mots, sur le langage. Pas pour pouvoir tous savoir développer plus tard,
40:45 parce que certains métiers n'auront pas besoin de développer. Mais ça va être indispensable, je pense, dans les années à venir, où vous aurez forcément des interlocuteurs
40:54 ou des collaborateurs que ça sera leur langage à eux. Et donc, il va falloir les comprendre aussi pour mieux les faire travailler ensemble. Et je pense que, pour moi,
41:02 le langage Python ou les autres langages de développement, ça devrait être comme une troisième langue ou une quatrième langue étrangère qu'on apprend au lycée.
41:10 Et c'est un prérequis. Après, à partir de ça, ce qui est important, c'est de former, je vous l'ai dit, faire des ateliers de formation, de sensibilisation.
41:19 Nous, on les aide à développer leur propre charte éthique. Mais une charte éthique, c'est bien beau, mais il ne faut pas que ce soit juste un effet d'annonce.
41:25 Sinon, c'est facile. Et puis, le côté qui est important, c'est de le rendre applicable, c'est de le décliner en action. Et donc, faire des guides de bonne pratique, pragmatiques.
41:34 Et après, on peut développer des processus. Nous, on développe avec les entreprises des solutions d'auto-évaluation,
41:41 donc des solutions digitales qu'on met à disposition des entreprises, comme des tableaux de bord qui permettent de suivre le futur digital ethics officer.
41:48 C'est bien de créer cette discipline. Mais si derrière, vous avez le chauffeur, mais vous n'avez pas la voiture à lui mettre à disposition pour qu'il travaille bien, c'est quoi l'intérêt ?
41:56 Et donc, nous, c'est ce qu'on essaye de faire dans son quotidien, de lui apporter ces outils qui permettent d'automatiser,
42:03 parce que les grands groupes, ils n'ont pas uniquement une solution d'IA ou un projet digital. Ils en ont une centaine, voire mille.
42:10 Et donc, du coup, il va falloir qu'ils suivent au fur et à mesure. Et puis, comment combattre le numérique sans faire du numérique ?
42:17 Il faut aussi s'appuyer pour automatiser aussi des choses via des modélisations qu'on peut faire, qui évoluent dans le temps.
42:24 Vous voyez, il y a plein de choses qu'on peut faire, que ce soit un système de processus, les faire rentrer dans un processus de labellisation aussi.
42:32 C'est important. Pourquoi ? Moi, je m'en suis aperçu, mais même dans des startups, parce que les startups peuvent être peu nombreuses.
42:38 Et on voit qu'en fait, ils travaillent en silo. Et puis, le responsable de la startup ne sait même pas, son développeur, comment il a conçu telle ou telle application.
42:46 Et il me dit "Ah, mais tu as fait ça ?" Puisqu'en fait, un processus de labellisation, il est important pour répondre à toutes les questions,
42:52 il faut que ce soit des professionnels de métiers différents ou d'abord différents, qui permettent de répondre aux questions.
43:01 Et donc, du coup, on leur force à faire un groupe de travail pur et disciplinaire, où ils ne sont pas habitués à travailler ensemble.
43:07 Je fais très court. Et donc, du coup, c'est aussi ça la vertu. Projet transversal, il faut qu'on y réponde avec des acteurs transversal.
43:16 On a beaucoup parlé d'automobile par analogie. Et je vous laisse la question. Je ne suis pas sûr qu'on aurait développé une telle filière industrielle il y a 120 ans de ça,
43:26 si on avait su que cet objet, qui est la voiture, allait tuer autant de personnes dans l'humanité, plus d'un million de personnes chaque année à travers le monde,
43:35 plus que la première guerre mondiale, si on réunit tout le monde depuis et si elle était aussi polluante.
43:41 Il faut rappeler qu'il y a un a tué personne ou peut-être une personne lors d'un accident d'une voiture autonome et qui a fait beaucoup plus de bruit.
43:49 Vous aviez une question ? Et ça sera la dernière.
43:51 OK. On est en train de dire là que les questions d'éthique, elles doivent être prises en charge et confiées aux entreprises,
43:59 aux bonnes pratiques que les entreprises vont mettre en œuvre, aux marchés, aux développeurs.
44:05 Mais on renonce complètement à l'idée que les pouvoirs publics, les démocraties doivent être pilotes là-dedans et doivent prendre en main leur destin par rapport à l'introduction de l'éthique dans l'IA.
44:20 Je suis pas sûr que les pouvoirs publics ont renoncé parce que, au moins, si on prend ce que veut faire la Commission européenne avec l'IA Act,
44:27 il y a quand même des choses très intéressantes et quelque part, l'avènement très brutal de Chappie Petit dans l'IA Générales Natives a modifié un petit peu les plans du futur texte du règlement européen.
44:39 Donc, ça c'est sûr qu'il y aura forcément des annonces là-dessus.
44:45 C'est vrai qu'on peut se dire qu'aujourd'hui, l'éthique c'est un peu le parent pauvre de l'IA et ça c'est sûr, c'est une réalité.
44:51 On ne peut qu'inciter, et Jérôme l'a très bien dit, à développer ces ateliers de discussion, d'échange, de mise en place.
45:00 Moi, je voudrais juste dire que le sujet est tellement vaste que d'un côté, je pense qu'il faut toujours laisser un pied de la liberté humaine de concevoir sa propre éthique et en même temps l'inscrire dans ses règlements.
45:10 Moi, je pense que c'est ce qui fait la différenciation de l'Europe par rapport aux États-Unis.
45:15 Les États-Unis aiment bien massifier les choses, les développer.
45:18 En Europe, et si on prend la France, on n'est pas le pays des lumières pour rien, c'est-à-dire avoir cet esprit critique.
45:23 En tout cas, dans le sens de la question, je n'ai pas l'impression que les pouvoirs publics ont baissé les poids.
45:28 Au contraire, après, ça va demander du temps et de l'investissement, ça c'est sûr.
45:33 Jérôme ?
45:34 Juste pour une réponse assez courte, en fait, je pense que les deux ne sont pas antinomiques.
45:38 C'est-à-dire qu'il faut, et c'est important que les pouvoirs publics, par les cadres européens ou autres, et puis c'est ce qu'ils font,
45:45 investissent et imposent aussi un certain socle universel, en tout cas de base.
45:50 Mais je pense qu'il faut toujours laisser une marge de liberté, comme Guillaume a très bien dit, aux entreprises pour, à partir de ce socle-là ou ce cadre qui est un peu imposé,
46:01 d'avoir une flexibilité aussi pour ajuster ou nuancer en fonction du contexte de l'entreprise et de ce qu'ils veulent en faire.
46:08 Ce qui est important, c'est que ce qu'ils veulent en faire, finalement, ce soit transparent et que ce soit mis publiquement au sein de ceux qui vont l'utiliser,
46:18 et puis ils auront leur choix.
46:19 Et je pense que sinon on dénature aussi la nature même de l'éthique, qu'il doit rester une pensée en mouvance flexible.
46:26 Le socle, pour juste finir d'un point de vue historique, on a parlé des quatre principes éthiques, il faut savoir que ça ne fait pas même plus d'une vingtaine d'années que ça existe.
46:37 Vous prenez, moi avec ma casquette médicale, le serment d'Hippocrate, cinquième siècle après Jésus-Christ,
46:43 les quatre principes éthiques sont totalement intégrés dans le serment d'Hippocrate.
46:49 Donc si vous voulez, ce serait arrogant de penser qu'on va créer des choses, c'est-à-dire qu'on n'a rien inventé, tout existe déjà depuis l'Antiquité et bien avant,
46:59 la seule chose qu'on a inventée finalement, ou qu'on réinvente, c'est de refaire les mêmes choses sous différentes formes,
47:05 des formes qui sont plus contemporaines et qui répondent à des contextes qui sont différents, mais la base même, elle est identique finalement.
47:14 Les pouvoirs publics seront d'autant plus investis que s'ils sont aiguillonnés par des citoyens éclairés.
47:20 Et c'est vrai qu'aujourd'hui, la principale interaction de formation, de sensibilisation, passe par les entreprises, charge aux décideurs de se former eux aussi.
47:31 On va arriver au terme de notre échange, je vous livre une citation de Georges Bernanos,
47:37 "L'espérance est un risque à courir", et finalement, vous nous avez rassuré de ce point de vue-là, d'un mot de conclusion,
47:44 un espoir à partager pour nos vies.
47:51 J'espère que vous sortirez quand même assez revigorés de ce partage et de cet échange.
48:02 Encore une fois, je dis les deux pieds, c'est-à-dire essayer de se fédérer les uns les autres sur ces questionnements éthiques,
48:09 et en même temps, toujours promouvoir la liberté, parce que sans liberté, il n'y a plus d'éthique.
48:14 C'est un principe, si on n'est pas libre de faire sa propre éthique, il n'y a plus de liberté, donc il n'y a plus d'éthique.
48:20 Ça, c'est géré de manière un peu conceptuelle.
48:24 Et de manière concrète, mon message, c'est de regarder l'économie de l'attention, ce qui se passe aujourd'hui autour des algorithmes, sur les jeunes.
48:32 C'est un vrai sur la société, et on n'a pas fini d'en parler.
48:36 Pour ma part, pour conclure, je dirais que finalement, on a la chance, je pense qu'il faut le prendre dans ce sens-là,
48:43 de dire qu'on est au début d'une quatrième révolution industrielle basée sur l'intelligence digitale et de la data,
48:51 et que finalement, on est au début de cette transition-là.
48:54 Et c'est maintenant qu'il faut réfléchir à quelle éthique on veut par rapport à tel usage de ces outils-là, et quelle société on veut.
49:03 Se dire que c'est inéluctable, ce n'est pas être fataliste, justement,
49:07 parce que quand vous regardez dans l'histoire de l'humanité et des révolutions industrielles,
49:11 et les changements de paradigmes, il ne faut pas aller à l'encontre du progrès technologique,
49:16 parce qu'on aura perdu d'avance à l'échelle humaine.
49:19 Ce qu'il faut justement, c'est savoir et prendre le temps de bien l'encadrer,
49:23 dès la conception, la mise en place, l'usage, l'évolution et le suivi qu'on en veut.
49:28 Et on a la chance d'être à ce niveau-là, et vous êtes une génération qui peut être intégrée dans cet esprit-là,
49:37 et c'est devenu inéluctable, mais ça va, pour finir, on va devoir aussi avoir des vraies réformes à faire sur des grands organismes internationaux.
49:47 On le voit, qui étaient basés sur le XXe siècle, voire le XIXe siècle, l'OMS, l'ONU, etc.
49:54 On voit qu'en fait, ils sont un peu obsolètes d'un point de vue pragmatique,
49:59 par rapport aux grandes crises qu'il y a eu économiques, du Covid, etc., de la guerre.
50:03 Je pense que pour le digital, il va falloir aussi, avec l'IA qui va arriver, de plus en plus complexe,
50:08 qu'il y a un nouvel organisme où on réforme certains organismes internationaux,
50:13 pour gouverner, ou piloter, ou encadrer ça, parce que c'est obsolète par rapport au XXe siècle qui nous tend les bras.
50:21 Merci à Gaël Piccard d'avoir organisé cette table ronde.
50:25 Merci Guillaume Lebouchet, merci Jérôme Béranger, merci à chacun d'entre vous.
50:30 Je vous souhaite de passer une bonne journée au sein de ce MasterDev, et à bientôt.
50:34 [Applaudissements]
50:37 [SILENCE]

Recommandations