Impliqué depuis 15 ans dans l’IA, le LNE développe un écosystème de plusieurs laboratoires d'évaluation. Le tout dernier en date : le laboratoire de Trappes, inauguré le 14 mai dernier. Une infrastructure qui plonge le système dans un environnement virtuel avec des capacités “intelligentes”, et qui nécessite le développement de nouveaux critères d’évaluation. Thomas Grenon, le directeur général du LNE, est l’invitée de la grande interview de SMART TECH.
Category
🗞
NewsTranscription
00:00 Générique
00:02 ...
00:05 -Grande interview de Thomas Grenon.
00:08 Vous êtes le directeur général du LNE.
00:11 Le LNE, c'est la science des mesures,
00:13 la métrologie.
00:15 Est-ce qu'on peut tout mesurer ?
00:17 -On ne peut pas tout mesurer.
00:20 D'abord, traditionnellement,
00:22 on mesure des grandeurs physiques,
00:25 le poids, la longueur, la seconde,
00:29 et puis, on va de plus en plus vers des mesures plus complexes,
00:34 comme on va parler, par exemple,
00:37 la mesure des intelligences artificielles
00:39 ou la mesure des performances des ordinateurs quantiques.
00:43 -L'exemple classique que vous donnez,
00:45 c'est que le LNE assure que le kilogramme a la même valeur
00:48 partout dans le monde, à Paris comme à New York.
00:51 On comprend bien l'intérêt et même, je dirais,
00:54 presque la facilité de surveiller cette mesure.
00:57 Ca semble plus complexe quand on peut le faire
01:00 dans l'intelligence artificielle. -Absolument.
01:03 Vous me permettez de vous détromper,
01:05 c'est extrêmement complexe pour le kilogramme.
01:07 Ca paraît évident, mais derrière, on ne se pose pas la question
01:11 de ce qu'il faut faire pour arriver à ce que le kilo ait la même valeur
01:15 à Paris, à New York, et aujourd'hui et demain.
01:18 D'ailleurs, vous avez de la recherche fondamentale.
01:21 On a, il y a quelques années, changé la définition du kilogramme.
01:25 -On peut ? -Absolument.
01:27 Maintenant, elle est basée sur...
01:29 On ne va pas faire de la science trop dure,
01:31 mais sur la constante de Planck,
01:33 les constantes fondamentales de la mécanique quantique.
01:36 Derrière le fait que le kilo, ce qui paraît évident,
01:39 ait la même valeur à Paris ou à New York,
01:42 vous avez une science extrêmement complexe.
01:45 -La complexité s'accroît dans le monde du numérique.
01:48 Est-ce que vraiment tout est mesurable dans le numérique ?
01:51 Ou est-ce qu'il y a des choses qu'on ne peut pas mesurer ?
01:55 -Il y a des choses qu'on ne peut pas mesurer,
01:57 il y a des choses qu'on mesure plus ou moins bien.
02:00 Le but du LNE, le Laboratoire national de métrologie et d'essais,
02:04 c'est d'essayer de mettre en place des métriques,
02:07 des référentiels qui permettent de rendre des choses complexes,
02:10 essayer de les rendre mesurables et essayer de les rendre comparables.
02:15 Par exemple, deux intelligences artificielles,
02:18 qui devraient rendre le même service,
02:20 essayer de mesurer leur efficacité
02:23 et leur capacité à rendre ce service,
02:25 voire essayer de les comparer entre elles,
02:28 voir dans quel cadre une va rendre un meilleur service que l'autre.
02:32 -Tout ça semble très sérieux.
02:34 J'ai regardé votre bio, polytechnicien, ingénieur des mines,
02:38 mais vous nous dites aussi sur LinkedIn "rigoureux et créatif".
02:41 -Absolument. On essaye.
02:43 Je pense qu'on peut tout à fait lier rigueur et créativité...
02:47 -En mesurant, en normant, on peut rester créatif ?
02:50 -Absolument.
02:51 Par exemple, le fait, pour le LNE, il y a maintenant 15 ans,
02:55 d'aller vers la mesure, l'évaluation des intelligences artificielles
02:59 et faire preuve de créativité,
03:01 on s'est rendu compte, finalement, quand même assez tôt,
03:05 que cette nouvelle technologie avait des potentialités énormes,
03:09 qu'elle allait sans doute pouvoir bouleverser
03:12 non seulement l'économie, mais aussi la société.
03:15 On a fait évoluer de mesures traditionnelles,
03:18 physiques, vers justement des technologies
03:21 et des technologies technologiques,
03:23 vers ces mesures du numérique,
03:25 qui maintenant deviennent une nouvelle branche de la métrologie,
03:29 des sciences de la mesure.
03:31 Vous pouvez allier rigueur,
03:33 on essaie de faire les choses avec rigueur,
03:35 au coeur de la démarche scientifique,
03:38 mais aussi créativité, en explorant de nouvelles frontières.
03:41 -Carrière très diversifiée,
03:43 dans le public, beaucoup,
03:45 mais aussi, vous êtes passé par le privé,
03:48 plutôt sur des fonctions éco-finances,
03:51 et stratégies, si je ne me trompe pas.
03:53 Ce qui est intéressant, c'est que vous avez passé 12 ans
03:56 à la tête des grands musées nationaux,
03:59 Cité des sciences et de l'industrie, la Villette,
04:02 la Réunion des musées nationaux, le Muséum d'histoire naturelle.
04:06 Vous êtes très attaché à la diffusion des connaissances.
04:09 Moi, ça a résonné en moi avec cet idéal d'Internet
04:13 de diffuser la connaissance à travers le monde.
04:17 Est-ce qu'il vous semble qu'aujourd'hui,
04:20 il existe encore, cet idéal ?
04:22 -Je pense, oui.
04:24 Je pense que Internet... -Il est mis en difficulté.
04:27 -Il est mis en difficulté, il est critiqué,
04:29 mais c'est quand même un formidable outil de diffusion,
04:33 y compris de diffusion de la culture scientifique et technique.
04:37 Je pense que le but, justement, des politiques,
04:40 le but de l'évaluation,
04:41 si on parle d'intelligence artificielle,
04:44 c'est de faire en sorte qu'on maximise les bons côtés
04:47 et qu'on en minimise les aspects négatifs.
04:50 Et effectivement, l'information peut être déformée,
04:53 peut-être manipulée, mais en même temps,
04:55 il n'en reste pas moins qu'Internet,
04:58 et chacun d'entre nous, depuis son smartphone,
05:00 on a accès à toutes les informations quasiment en temps direct.
05:04 -On a plus d'intermédiaires qu'avant
05:06 pour nous donner accès à cette information.
05:09 -Oui, mais en même temps, on l'a de façon extrêmement facilitée
05:13 par rapport à il y a une vingtaine ou une trentaine d'années.
05:17 -On va en venir, on va parler d'intelligence artificielle,
05:20 parce que c'est votre actualité, quand même,
05:22 qui a eu l'inauguration très récemment
05:25 du laboratoire d'évaluation de l'intelligence artificielle,
05:28 du LNE. La secrétaire d'Etat au numérique s'est déplacée.
05:32 Première plateforme multi-approche, vous nous dites, au monde.
05:35 -Absolument.
05:37 Comme je le disais, on a vraiment une antériorité
05:40 dans le travail sur l'évaluation de l'intelligence artificielle.
05:44 En 2018, le président de la République insiste
05:48 sur la nécessité de l'évaluation de l'intelligence artificielle,
05:52 d'une IA de confiance, et à ce moment-là, on lance,
05:55 on commence à réfléchir à la création d'un laboratoire
05:58 d'évaluation de l'intelligence artificielle.
06:01 Il y a eu une crise sanitaire entre-temps.
06:04 Et on arrive maintenant, en 2023, 2024...
06:07 -Evaluer quoi ? Quand vous dites "multicritères",
06:10 qu'est-ce que vous évaluez ?
06:12 -On va évaluer plusieurs critères.
06:14 -Combien ? Lesquels ?
06:16 -Alors, on a d'abord trois plateformes.
06:19 La première plateforme, on l'appelle le Léa Simulation.
06:22 C'est une plateforme où on va faire de la simulation numérique.
06:26 On va tester le logiciel en lui injectant des données,
06:29 en voyant les données de sortie, et on essaie de voir
06:32 s'il a des biais, pas de biais,
06:34 comment il prend son type de décision,
06:37 avec quelle efficacité.
06:40 -Vous testez l'algorithme, finalement.
06:42 -On teste l'algorithme avec du numériquier.
06:45 Deuxième modèle qu'on a inauguré récemment,
06:49 qu'on appelle le Léa,
06:50 c'est-à-dire Laboratoire d'évaluation
06:53 de l'intelligence artificielle.
06:55 Immersion. Ce Léa Immersion, c'est une solution hybride
06:59 qui va plonger une intelligence artificielle,
07:03 généralement embarquée, soit un robot, soit un composant,
07:07 dans un écran à 360 degrés
07:11 et auquel il va interagir avec son environnement,
07:14 donc l'environnement qu'on contrôle.
07:16 On va lui faire des scénarios et on peut tester
07:20 ses prises de réaction,
07:22 est-ce qu'il est capable de s'arrêter,
07:24 avec quel type de rapidité,
07:27 quelle décision il prend en fonction des scénarios.
07:30 -On vous le défie.
07:31 -On le teste, on fait des essais,
07:33 et on peut perturber son environnement.
07:36 S'il a plusieurs capteurs, couper certains capteurs,
07:39 essayer de l'éblouir, avoir des sons saturés,
07:42 on le teste dans des environnements
07:45 de plus en plus complexes.
07:48 Et puis, 3e laboratoire, en cours de création,
07:51 c'est le Laboratoire Action,
07:53 où on mettra l'intelligence artificielle
07:55 dans un cadre totalement réel et non simulé.
07:59 -Avec des choix de cas d'usage spécifiques ?
08:02 -Absolument.
08:04 Chacune de ces solutions a des avantages et des inconvénients.
08:07 Euh...
08:09 On va pouvoir tester le plus grand nombre de scénarios,
08:13 c'est les simulations,
08:14 où on peut faire des millions et des millions de scénarios,
08:17 à, justement, quand on fait action,
08:20 on est dans un cas forcément spécifique,
08:23 on pourra contrôler les conditions climatiques,
08:26 faire du brouillard,
08:27 mais on va être sur un nombre de scénarios
08:29 beaucoup plus limités, mais plus proches du réel.
08:32 Cette multi-approche, c'est d'aller vers le plus grand nombre
08:36 de scénarios à quelque chose qui s'approche le plus de la réalité.
08:40 -Vous allez le faire pour qui ? Dans quel cadre ?
08:43 -On le fait à la fois à des fins de recherche,
08:46 pour développer de nouveaux systèmes d'intelligence artificielle,
08:50 et puis on le fait aussi avec des industriels.
08:54 On est en particulier partie prenante
08:57 de 3 tests, des "testing and experimentation facilities",
09:00 des programmes lancés par la Commission européenne
09:03 pour faciliter l'accès aux industriels,
09:06 et en particulier aux PME,
09:08 à des infrastructures d'essai
09:10 qui leur permettent de tester leurs solutions,
09:12 d'en voir les points forts, les points faibles,
09:15 de les améliorer, installation, bien évidemment,
09:18 pour une PME qu'elle ne pourrait pas avoir elle-même,
09:21 et dont, grâce à ce programme européen,
09:23 grâce à France 2030, qui nous a permis de financer
09:27 ces investissements, on peut soutenir l'innovation
09:30 en intelligence artificielle dans notre pays,
09:33 qui est essentiel à notre souveraineté,
09:35 quand on voit l'émergence de ces technologies,
09:38 de leur usage, le fait de pouvoir justement les évaluer
09:42 et donc de participer à leur développement
09:44 est essentiel pour notre pays.
09:46 -Ca veut dire qu'il faut qu'on vous le donne,
09:49 cet algorithme, cette intelligence artificielle.
09:52 Est-ce que vous aurez un rôle de contrôleur ?
09:54 Aujourd'hui, les réglementations européennes
09:57 demandent un appel à une transparence
09:59 des algorithmes au sein des plateformes,
10:02 qui ne sont pas souvent françaises, quand même.
10:05 Est-ce que vous pourrez tenir ce rôle
10:07 d'auditeur des algorithmes
10:09 pour la Commission européenne, par exemple ?
10:11 -On n'a pas de rôle, comment dirais-je,
10:14 officiel de contrôle.
10:17 On a, à l'heure actuelle, par contre,
10:19 on peut aider les industriels ou les autorités publiques
10:23 à vérifier la conformité de solutions
10:27 en particulier à l'IAC, aux différents règlements,
10:30 qu'ils soient d'ailleurs nationaux ou européens.
10:34 Et ces outils permettent justement...
10:36 Ils permettent plusieurs choses.
10:38 D'abord, on en parlait, d'évaluer l'efficacité,
10:41 de mesurer si l'intelligence artificielle
10:44 répond aux services rendus.
10:45 Et on va de plus en plus vers des évaluations
10:48 de type éthique.
10:49 Est-ce que ces décisions sont explicables ?
10:52 Pourquoi il a pris telle décision dans telle circonstance ?
10:55 Est-ce qu'il va reprendre la même décision
10:57 dans les mêmes conditions ?
11:00 Est-ce qu'il est non discriminant ?
11:02 Est-ce qu'il y a des biais ?
11:04 Peut-il y avoir des zones de rupture ?
11:06 Il y a des moments où ces décisions vont diverger.
11:09 C'est là aussi où on rejoint le fait
11:11 qu'il paraît important qu'on puisse avoir,
11:14 en France, en Europe,
11:16 des modes d'évaluation, y compris éthique,
11:19 de voir si ces systèmes correspondent à nos valeurs.
11:22 -Ce serait un label, une normalisation ?
11:25 -Alors, derrière...
11:26 -Une codification qui permette de comprendre
11:29 comment est noté cet algorithme.
11:31 -Absolument.
11:32 Donc, ce développement, il y a ULIACT,
11:35 qui vient d'être publié,
11:36 qui va rentrer en vigueur progressivement
11:39 dans les années qui viennent,
11:41 qui va imposer un certain nombre de contraintes.
11:44 Et on a développé, sur une base volontaire,
11:46 il y a maintenant 2-3 ans,
11:48 le premier référentiel de certification
11:50 d'intelligence artificielle.
11:52 C'est vraiment sur une base volontaire,
11:54 un industriel veut s'assurer que...
11:56 Et assurer, après, bien évidemment,
11:59 aussi assurer à ses clients,
12:00 que son intelligence artificielle a été développée
12:04 dans les meilleures conditions de savoir-faire actuelles.
12:07 Et à ce moment-là, on peut...
12:09 On a développé cette certification
12:11 qui permet donc de garantir cela.
12:13 -Alors, vous travaillez aussi à la préparation du sommet
12:17 que va tenir la France,
12:18 le Sommet mondial sur l'intelligence artificielle.
12:21 Quel va être votre rôle ?
12:23 -Alors, on n'est pas directement partie prenante du sommet,
12:27 qui est un sommet diplomatique,
12:29 qui est organisé par les diplomates
12:31 et la présidence de la République.
12:33 Par contre... -Il s'y reviendra en février.
12:36 -Absolument. -C'est Emmanuel Macron,
12:38 le président de la République, qui l'a annoncé.
12:41 -Absolument, en février 2025.
12:42 Par contre, dans le cadre de ces annonces,
12:45 et suite à différents sommets,
12:47 il a annoncé la création d'un centre national d'évaluation
12:50 qui serait un peu le pendant
12:52 de ce que les Britanniques ou les Américains
12:55 ont mis en place,
12:59 et que l'ELNE, qui vient de signer un partenariat
13:02 très structurant avec l'INRIA,
13:05 qui est notre leader d'organisme de recherche
13:07 en matière numérique,
13:09 donc on a signé un partenariat avec l'INRIA,
13:12 et on serait le socle technique de ce grand centre d'évaluation
13:15 qui permettrait de vérifier que les intelligences artificielles
13:19 sont bien conformes à nos valeurs.
13:22 -D'accord. Février, c'est une échéance assez proche.
13:24 -Février 2025, absolument.
13:26 C'est une échéance qui se prépare activement.
13:29 -Qu'est-ce qui vous semble crucial aujourd'hui
13:32 en matière d'intelligence artificielle
13:34 pour la France, pour l'Europe ?
13:36 Cette question de confiance, de capacité d'évaluation
13:39 des algorithmes ? -Oui.
13:41 Pour moi, il y a deux éléments clés.
13:43 Il y a effectivement la confiance,
13:46 la confiance qui est essentielle à l'épanouissement,
13:51 si vous me passez ce terme, du progrès scientifique.
13:54 Les techniques, les technologies, elles ne sont pas bonnes ou mauvaises.
13:58 C'est l'usage qu'on en fait qui peut être bon ou mauvais.
14:01 La confiance qu'on a dans cette technologie
14:04 et le fait qu'elle ne soit pas biaisée,
14:06 discriminante, me paraît essentielle
14:08 à son exception et à son développement.
14:11 Le deuxième point qui me paraît essentiel,
14:13 c'est cette notion de souveraineté
14:16 dans un monde qui est très divers,
14:19 avec des sensibilités, des démocraties
14:22 ou des modes de fonctionnement qui ne sont pas les mêmes,
14:25 si on pense à la Chine, aux Etats-Unis ou à l'Europe.
14:28 Le fait d'avoir cette capacité à développer des solutions
14:31 qui sont conformes à nos valeurs, à notre culture,
14:34 à ce que nous sommes, me paraît aussi essentiel.
14:37 -On pourrait évaluer les valeurs européennes
14:39 dans une solution d'intelligence artificielle ?
14:42 -Quand on évalue l'éthique, c'est quelque chose que l'on fait.
14:46 C'est absolument de vérifier des valeurs de non-discrimination,
14:49 qui sont profondément ancrées dans notre culture
14:52 et qui le seront peut-être moins dans d'autres.
14:55 -On passe à l'interview express.
14:56 C'est des questions très binaires, mais je vous laisse répondre.
15:00 Oui ou non, tout se mesure,
15:02 au sens vraiment scientifique du terme,
15:04 même l'intelligence artificielle.
15:06 Est-ce que vous pouvez imaginer qu'on puisse noter
15:09 l'éthique d'une IA sur une échelle de 1 à 10 ?
15:12 -La réponse est non. Ca ne sera jamais aussi simple.
15:15 On pourra faire des multiscores, des critères,
15:18 mais qui ne seront, bien évidemment,
15:20 un chiffre ne peut pas résumer la complexité
15:22 d'une IA.
15:24 -Est-ce que vous êtes pour ou contre
15:26 une réglementation internationale de l'IA
15:28 plutôt que simplement européenne ?
15:30 -Oui, je pense qu'il faut une réglementation
15:33 au niveau international, de façon à ce que, justement,
15:36 des solutions considérées comme dangereuses ou divergentes,
15:40 l'intelligence artificielle est porteuse d'inquiétude
15:43 et porteuse d'espoir, puissent être régulées
15:46 au niveau international. Ca me paraît essentiel.
15:48 C'est ce que fait le G7, et je pense qu'il faut,
15:51 bien évidemment, aller dans ce sens.
15:53 -Vrai ou faux ? L'IA peut ou saura tout faire ?
15:56 -Non, faux, je pense que...
15:58 Tout faire, bon, qu'est-ce que ça veut dire ?
16:01 Est-ce que je sais tout faire ? Non.
16:03 Il faut rester modeste.
16:04 En plus, l'IA est un outil, une technologie.
16:07 Elle nous aide à faire, mais...
16:09 -J'aime ou j'aime pas l'idée de créer un Airbus de l'IA ?
16:13 -Oui, j'aime bien.
16:14 Ca veut dire... Je pense que derrière,
16:16 il y a la notion d'européenne, de communauté de valeurs
16:19 et de souveraineté qu'on évoquait,
16:22 et de faire ensemble un certain nombre de choses
16:25 sur des bases qui sont...
16:26 Des bases de notre culture et des valeurs que nous partageons.
16:30 -J'y crois ou j'y crois pas qu'un jour,
16:32 vous serez remplacé par une IA qui mesurera tout elle-même
16:35 et ses compères... ses consoeurs, pardon.
16:38 -J'y crois pas. -Non ?
16:39 -En tout cas, je suis sûr que je la verrai pas.
16:42 -C'est moins bien l'IA pour la transmission des savoirs ?
16:45 -Je pense que c'est mieux. Ca va aider.
16:47 C'est un formidable agrégateur de données.
16:50 Souvent, c'est...
16:51 En particulier, les intelligences artificielles
16:54 dites génératives, sur lesquelles le président de la République
16:57 a lancé un grand challenge,
16:59 c'est des formidables agrégateurs de données.
17:02 Comme on le disait, grâce à Internet,
17:04 aux moteurs de recherche, on a tout.
17:06 Le plus de l'IA, c'est que non seulement on a tout,
17:09 mais il va vous l'agréger en fonction
17:11 de la question que vous posez,
17:13 d'où la nécessité, justement,
17:15 d'évaluer la pertinence des réponses
17:17 qui vous êtes apportées.
17:19 Mais c'est, bien sûr, pour la diffusion,
17:21 y compris scientifique, un formidable outil.
17:24 -Merci, Thomas Grenon. -Merci.
17:26 -Vous êtes le directeur général du LNE.
17:28 Merci encore. -Merci.