• l’année dernière
En termes d’intelligence artificielle, l’Éducation nationale aussi souhaite passer à la vitesse supérieure ! Le ministre Gabriel Attal a récemment annoncé dans une conférence de presse l’arrivée d’une intelligence artificielle pour les lycéens à la rentrée 2024. Baptisé MIA Seconde, cette application a été développée par EvidenceB. L’objectif est simple : renforcer l’accompagnement des élèves de seconde en français et en mathématiques. On en parle dans le grand RDV de l’IA avec David Sebaoun d’IBM Consulting France, Ghislain de Pierrefeu de Wavestone et Jean-Marie John-Mathews de Giskard.

Category

🗞
News
Transcription
00:00 3 experts pour commenter l'actualité autour de l'intelligence artificielle dans ce grand
00:07 rendez-vous de l'IA. Le premier, je le présente, David Sebaoun qui fait l'actualité en plus. On va
00:13 voir ça ensemble. Exécutive, partenaire, vous êtes en charge des équipes et projets
00:16 transformation autour de l'IA et de la data ainsi que de l'ensemble des nouvelles technologies chez
00:21 IBM Consulting France. Bienvenue à vous David. A côté de vous Jean-Marie John-Matthews, vous êtes
00:27 chercheur associé à l'université Paris-Saclay, vous travaillez sur les biais et les méthodes
00:32 d'explicabilité des IA et puis vous êtes le cofondateur de Giscard. C'est comme ça que j'ai
00:37 fait la connaissance de votre startup à Station F au moment d'un grand événement autour de l'IA.
00:41 Giscard, donc éditeur de logiciels français spécialisé dans le contrôle qualité finalement
00:47 des algorithmes d'intelligence artificielle. Bienvenue également. Guylain de Pierrefeu qui
00:54 complète ce plateau partenaire expert IA au sein du cabinet Wavestone. Bonjour Guylain. Bonjour.
01:00 Consultant vous sur les sujets énergie, environnement, évidemment data et IA,
01:05 toutes ces transformations pilotées par la donnée finalement. Oui. Eh bien bienvenue à tous les
01:11 trois. On va commencer avec l'IACT, donc un accord politique qui a été trouvé en Europe. Mais je
01:17 voulais savoir qui s'en réjouissait déjà autour de la table ? Forcément du côté Giscard, on s'en
01:23 réjouit parce que... Oui, je ne sais pas forcément. Oui. Parce que vous êtes du côté de l'innovation,
01:28 vous n'avez pas justement que les réglementations freinent l'innovation. En fait on travaille avec
01:32 des personnes qui mettent en place de l'IA et on sait qu'il y a énormément de risques et de
01:36 vulnérabilités autour de l'IA. Il y avait de quoi les réguler en fait, notamment autour des biais,
01:41 des stéréotypes, des discriminations. Vous avez des attaques possibles aussi, des problèmes autour
01:47 des données personnelles. Ce sont des sujets qu'il fallait réguler et on est content que ça
01:51 soit fait. C'est-à-dire qu'en tant que start-up, on se dit finalement on avance de manière plus
01:56 sereine quand on a un texte qui fixe un cadre ? Oui, parce qu'on sait aujourd'hui déjà au niveau de la
02:01 recherche mais aussi au niveau de l'outillage qu'il existe des solutions en fait pour mesurer
02:06 les risques et les mitiger. Donc en fait on est content en fait qu'on aille dans cette direction.
02:10 Et donc vous pensez peut-être même vous devenir un prestataire de services incontournables finalement ?
02:14 Sur certains domaines, alors nous ce qu'on fait beaucoup c'est vraiment du red teaming,
02:18 c'est-à-dire vraiment voir... Qu'est-ce que c'est ça ? Alors c'est quelque chose qui est issu de la
02:22 cybersécurité, donc en fait c'est d'attaquer des IA pour voir ce qui ne va pas et ensuite produire
02:28 un rapport pour dire bah voilà sur ces domaines là, sur l'injection de prompt, sur la révélation
02:33 d'informations sensibles, sur les contenus malveillants, on a des soucis, écrire un rapport
02:38 là-dessus. C'est proche de l'audit algorithmique ? Alors c'est très proche de l'audit sauf que c'est
02:43 plus tourné vers les attaques. Donc c'est quelque chose qu'on fait beaucoup et aujourd'hui on sait
02:47 que les entreprises sont très friandes de ce sujet. C'est pour ça que vous parliez plus tôt, moi j'ai dit c'est un
02:50 contrôle qualité, vous le présentez plutôt comme un antivirus, une sécurité finalement des algorithmes.
02:56 Qu'est-ce qui vous intéresse dans ce texte de l'IAct ? Nous on se réjouit aussi effectivement de ce texte,
03:03 à la fois sur la forme et sur le contenu, l'approche de gestion par les risques de l'IA.
03:09 Un modèle peut être plus ou moins risqué en fonction de son application. Si un modèle vient
03:13 vous dire que vous allez préférer une voiture rouge ou une voiture bleue, s'il se trompe c'est pas
03:17 forcément très grave. Maintenant si c'est un modèle qui décide si vous allez avoir un crédit ou un modèle
03:21 qui va faire de l'aide au diagnostic, c'est plus embêtant. Donc il y a vraiment cette notion d'approche
03:24 par les risques qui nous paraît très intéressante. Et le deuxième sujet c'est la notion d'équité,
03:29 de transparence, d'explicabilité qu'il faut mettre en place quand on développe de l'IA. En fait on est
03:34 dans une logique de sortir de l'opacité, de la logique de boîte noire. Après effectivement l'Europe
03:41 est un peu pionnière sur un texte qui est légiférant mais c'est pas un sujet qui concerne que l'Europe.
03:46 On a vu que le président Biden a parlé énormément de la gouvernance de l'IA, la nécessité d'avoir
03:51 une gouvernance de l'IA. On a les dirigeants du G7 qui se sont réunis dans le processus d'Hiroshima
03:56 pour définir des guidance sur le développement de l'IA. Et donc globalement c'est un sujet qui
04:01 est mondial, qui concerne toutes les régions. Et ce qui est intéressant de voir...
04:04 Tout le monde cherche une réponse en fait, hein, au déploiement vertigineux de l'intelligence artificielle.
04:09 Tout à fait. Et on voit quand même qu'il y a un cadre qui se détache de tout ça, qui est autour des piliers que j'ai décrits.
04:13 Alors chez Waston, on porte quel regard sur ce texte ?
04:18 Positif aussi parce que finalement c'est la première vraie régulation des IA. On voit qu'il y a plein
04:23 d'acteurs dans le monde, y compris des producteurs d'IA qui demandent une régulation. Et moi j'aime
04:28 pas le monde de l'IA tel qu'on peut le voir en Chine avec le social rating, tel qu'on peut le voir
04:33 même avec OpenAI et HLGPT qui a quand même volé une partie importante de données pour entraîner son modèle
04:41 en piquant de la propriété intellectuelle à des auteurs, à des scénaristes, etc.
04:46 Donc il y a des choses qui me gênent dans cet usage de l'IA. Le fait d'essayer de le réguler est une bonne chose.
04:51 Après, je suis assez prudent dans la façon dont on va l'appliquer, donc va falloir...
04:55 Tout reste à faire, hein, c'est-à-dire une fois qu'on s'est mis d'accord, voilà.
04:58 Comment on va l'appliquer réellement et est-ce que effectivement on va pas aller jusqu'à ce qui
05:02 est un peu le débat du fameux Trilogue, empêcher les créateurs de modèles et notamment les beaux
05:07 créateurs européens dont on reparlera tout à l'heure, de créer et de rattraper un peu leur retard par rapport à nos géants américains ?
05:14 Alors à priori on s'en vient d'ailleurs pour une transparence plus importante vis-à-vis de modèles plus grands.
05:21 Mais est-ce que du coup on se dit "bah alors les européens ils ont pas intérêt à grossir trop vite parce qu'ils vont se retrouver dans des contraintes" ?
05:28 Bon, je sais pas ce qu'il en est de ce débat, en tout cas c'était quand même assez étonnant d'entendre Emmanuel Macron
05:34 lors de son allocution à l'occasion des deux ans du plan France Relance, pardon, France 2030,
05:42 qui nous dit qu'il pense que c'est pas une bonne idée ce texte. Enfin je veux dire, il est assez, d'ailleurs je le dis en toute honnêteté, il est quand même assez direct.
05:51 On peut décider, je le cite, on peut décider de réguler beaucoup plus vite, beaucoup plus fort que nos grands compétiteurs,
05:59 mais on régulera des choses qu'on ne produira plus, qu'on n'inventera pas.
06:03 Effectivement. En fait l'éléphant dans la pièce c'est vraiment les IA génératives.
06:09 Vous êtes d'accord avec ce que dit Emmanuel Macron ?
06:10 Bah en fait il faut bien mesurer là où sont les risques et c'était ça en fait l'approche de base de l'IA Act,
06:16 c'est de se dire quels sont les usages à risque par rapport à ceux qui sont pas à risque pour mettre des dispositions qui sont différenciées.
06:21 Et là avec l'IA générative on est dans une situation où on a justement des IA à usage généraux en fait,
06:28 qui font que c'est difficile d'associer un risque à un usage qu'on ne connaît pas en fait.
06:32 Et donc là du coup on a eu des négociations, d'ailleurs qui sont terminées très tard,
06:36 on a vu que les négociateurs ont bu des poissons énergisantes jusqu'à 25 heures de négociation.
06:43 35 heures de négociation.
06:44 35 heures, ouais parce que c'était vraiment difficile justement de trouver une solution là-dessus.
06:48 Et la solution qui a été trouvée c'était de découper justement les IA à usage généraux en deux parties,
06:55 ceux qui sont pas au risque et ceux qui sont à haut risque.
06:57 Mais la question c'est qu'est-ce que ça veut vraiment dire une IA à haut risque ?
07:00 C'est presque un oxymore en fait, puisque si c'est à usage général,
07:04 bah justement c'est difficile de dire si c'est à haut risque ou pas.
07:06 Donc voilà.
07:07 Par contre c'est dit qu'on ne les produira plus, il nous dit c'est un frein à l'innovation en Europe.
07:14 En fait clairement quand on voit le contenu de l'IA Act,
07:16 si on avait été au bout du modèle que voulait le Parlement européen notamment,
07:21 qui était un modèle de contrôle des modèles de fondation,
07:24 donc vraiment aller dans le code, aller regarder comment c'est fait,
07:27 comment c'est fabriqué, comment c'est construit,
07:29 et être hyper exigeant avec les acteurs qui font ça.
07:32 Ça nécessite des épaules très larges et une capacité à se financer de la recherche très lourde
07:38 pour arriver à fiabiliser des modèles qui par essence ne sont pas fiables.
07:42 C'est des réseaux de neurones, c'est hyper complexe, ça apprend tout seul,
07:45 ça définit les paramètres tout seul, etc.
07:47 Donc très difficile à contrôler, très difficile à comprendre.
07:50 Et évidemment un Mistral.ai, un ALF Alpha en Allemagne, etc.
07:53 auraient eu beaucoup de mal à à la fois rattraper leur retard sur chat GPT et autres,
08:01 ce qu'ils sont en train de faire, et à la fois à traiter ce volet régulatoire.
08:04 Donc c'est ça qui faisait peur en fait un peu aux jeunes pousses de l'IA générative,
08:09 c'était le fait de se mettre plein de nouvelles contraintes
08:11 alors que les autres sont déjà arrivés sans respecter ces contraintes.
08:15 - On nous dit qu'on a trouvé un accord politique,
08:18 finalement on a le président de la France qui dit "non, je ne trouve pas que c'est pas une bonne idée ce texte".
08:22 Bon, après, le texte on est bien d'accord, c'est pas terminé,
08:28 parce qu'il y a toute la phase de travail juridique, de mise en application
08:33 qui va forcément donner une orientation plus ou moins dans un sens ou dans un autre sur l'IA,
08:38 on ne sait pas finalement ce qui va sortir de là, on nous parle d'une application 2025,
08:43 elle sera plutôt fin 2025 voir 2026 à mon avis.
08:45 - Oui, moi en fait je pense qu'il faut se détacher un peu de la réglementation.
08:49 La réglementation c'est très bien, c'est une chose, il ne faut pas qu'elle soit prohibitive pour l'innovation,
08:54 mais je pense que l'enjeu il va au-delà pour les grandes entreprises qui veulent déployer de l'IA,
08:59 il y a un enjeu de contrôle, de maîtrise en fait, de la façon dont les décisions sont prises dans l'entreprise.
09:03 Parce que l'IA prend des décisions, donc est-ce qu'on sait pour quelle raison l'IA a pris telle décision ou telle autre décision ?
09:09 - Elle recommande certaines décisions, c'est l'humain qui décide de les prendre ou pas.
09:14 - Il faut qu'elle puisse expliquer pourquoi elle recommande tel type de décision,
09:18 que ce soit directement vers les clients ou même à l'intérieur de l'entreprise.
09:21 Donc il y a un enjeu de maîtrise et puis un enjeu d'éthique aussi,
09:24 et les entreprises doivent prendre en compte cet enjeu d'éthique au-delà du sujet de la réglementation.
09:30 - Et ça, la question de l'éthique, ça peut faire partie des nouveaux axes de cybersécurité des algorithmes ?
09:37 - Complètement oui, parce que la question de l'éthique, ça peut se formaliser en fait.
09:41 Il y a plusieurs attaques qu'on connaît sur les questions d'éthique.
09:44 Par exemple, ce qu'on appelle le "gender neutrality", c'est voir si quand je donne des entrées différentes dans les IA,
09:50 en fonction des pays, des religions, du genre aussi, est-ce qu'on a des réponses qui sont différentes ?
09:56 Ce sont des choses qui se formalisent.
09:59 Et aujourd'hui, on a des outils pour le faire.
10:01 - Ce qui est intéressant aussi, c'est de voir l'approche américaine sur ce sujet,
10:05 justement comment on va encadrer l'IA, qui n'est pas forcément la même approche que l'Europe d'ailleurs de manière générale.
10:12 Mais par exemple, ils travaillent sur le hacking des algorithmes pour aller voir justement où sont les biais,
10:18 qu'est-ce qu'on peut aller trouver comme transparence de manière effective.
10:22 C'est beaucoup plus opérationnel, je dirais, comme réglementation.
10:25 Et puis beaucoup de soutien, de subvention aussi.
10:27 Alors ça, bon, on y arrive en France. On va passer à notre deuxième sujet, justement,
10:30 avec Mistral, qui n'a pas attendu le soutien de l'Europe pour faire une deuxième tour de table,
10:36 une très belle levée de fonds, 385 millions d'euros.
10:42 Pour une start-up française, ça fait plaisir.
10:44 Pour créer des grands modèles de langage, ça fait encore plus plaisir.
10:48 Mais est-ce que ce n'est pas un peu un vent de folie, quand on nous parle d'une valorisation déjà,
10:52 pour cette start-up qui a quelques mois finalement, de pratiquement 2 milliards de dollars ?
10:58 On s'emballe ?
11:02 On ne s'emballe pas parce qu'aujourd'hui, j'allais dire, ils ont eu presque la reconnaissance de leur père à prix qui est court.
11:09 Aujourd'hui, quand vous demandez à OpenAI et à Sam Altman qui sont ses concurrents,
11:13 ils citent notamment Mistral.ai. Ils citent aussi LF Alpha en Allemagne, etc.
11:17 Donc quelque part, ils sont reconnus, c'est quand même des chercheurs très brillants.
11:23 Les trois cofondateurs qui sont des normaliens, qui ont travaillé dans les big tech sur ces sujets de grands modèles de langage.
11:31 Donc ils ne parlent pas de zéro, qui avaient contribué au modèle de meta Yama2, etc.
11:37 Donc globalement, ils ont cette puissance technique. Ils ont fait leur preuve.
11:42 C'est-à-dire très rapidement, personne n'y croyait, ils ont développé quand même une première version qui marche, qui marche bien,
11:47 qui n'est pas encore au niveau d'un GPT-4, mais qui marche bien.
11:51 Donc ils ont fait leur preuve et ils ont cette solidité.
11:56 Alors voilà, et 380 millions, on n'est pas encore au niveau des 10 milliards qu'a mis Microsoft dans OpenAI.
12:03 On est encore loin du jeu, mais c'est déjà un signal extrêmement positif sur le fait qu'on y va et qu'on est capable.
12:11 C'est ça sur quoi on bloquait depuis des années le financement, un peu après le lancement d'une startup.
12:18 Je me permets un petit bémol parce que quand même aussi, derrière ce financement magnifique, on a des fonds américains, entre autres, pas uniquement.
12:26 Oui, un commentaire d'Ami.
12:28 Moi, ce que je pense, c'est que je trouve ça très bien qu'on essaie de créer des champions européens qui vont avoir une portée mondiale.
12:35 Ça, c'est vraiment très bien.
12:37 Notre approche, elle est toujours ouverte.
12:39 Nous, on travaille dans une logique d'écosystème, donc on va travailler avec différents acteurs dans différentes régions, différentes géographies.
12:47 Je pense qu'on sort un peu de la logique Big Tech, Small Tech.
12:49 C'est comme l'a très bien dit Yann Lequin.
12:50 On rentre plutôt maintenant dans une frontière entre les techs qui sont open et les techs qui sont fermés.
12:57 Et donc, à partir du moment où on arrive à créer des acteurs qui vont créer de la technologie open, je pense que ça va être bénéfique pour tout le monde.
13:04 Et Mistral, c'est ce qu'ils veulent faire.
13:06 Ils rejoignent ce mouvement.
13:08 On enchaîne avec l'autre actualité, parce que le temps file.
13:10 C'est cette IA qui doit aider les élèves de seconde dès la rentrée 2024 en français et en mathématiques.
13:18 Elle s'appelle MIA pour module interactif adaptatif.
13:22 Est-ce que l'IA, c'est l'avenir d'éducation beaucoup plus personnalisée selon vous ?
13:26 Alors, moi, de mon côté, je suis un peu plus sceptique parce que j'ai testé cette application il n'y a pas très longtemps.
13:31 Oui, on peut.
13:32 On voit en fait tous les modes d'emploi.
13:34 Alors, c'est vraiment un outil d'aide au devoir.
13:36 Ça, c'est clair qu'il y a avec de la recommandation pour aller au bon endroit, au bon exo en fonction de son niveau.
13:43 Par contre, après, la vraie question qu'on peut se poser, c'est là où on sait aujourd'hui qu'il y a un vrai souci pour les élèves de seconde.
13:51 Il y a l'enquête PISA qui montre qu'il y a une baisse sans précédent du niveau.
13:55 Et on sait aussi les raisons pour lesquelles il y a cette baisse là.
13:57 On sait que c'est parce que on ne trouve pas de profs.
13:59 Deux tiers des provisaires n'arrivent pas à trouver de profs.
14:01 Et donc, voilà, il y a la question de, est-ce qu'on surfe sur cette vague un peu gadget de l'IA pour les élèves de seconde ?
14:08 Ou est-ce qu'on augmente un peu les salaires ?
14:10 C'est-à-dire que ça remplacerait les cours de rattrapage ?
14:12 Ça que vous dites à terme, ça pourrait leur donner l'idée d'eux ?
14:14 Moi, je pense que c'est sûr que c'est beaucoup moins cher de développer une app pour l'aide au devoir à coup de campagne de com
14:24 que plutôt augmenter les salaires des profs.
14:26 Il y a un risque à confier justement ce rattrapage, ces mises à niveau à des algorithmes ?
14:33 Non, pas vraiment là-dessus parce que j'ai regardé un peu les algorithmes.
14:37 Ce n'est pas vraiment des IA qui génèrent des choses.
14:39 Oui, c'est des quiz, des exercices.
14:41 C'est très normal.
14:43 C'est des choses qu'on maîtrise quand même.
14:45 Oui, vous vouliez réagir ?
14:47 Moi, je suis embêté parce que je pense que ce serait une bonne idée dans l'absolu.
14:49 Ça n'en est pas une aujourd'hui.
14:51 À un moment où on a un vrai problème de nombre de profs, de niveau des profs.
14:55 C'est-à-dire que moi, je considère que c'est une très bonne chose d'apprendre aux élèves à utiliser les IA,
14:59 générative ou pas, celle-là n'en est pas une,
15:01 parce qu'ils vont devoir le faire.
15:03 C'est une évidence aujourd'hui, ça vient dans la vie de tout le monde, etc.
15:05 Donc, il ne faut pas faire comme si ça n'existait pas, il ne faut pas l'interdire, mais il faut l'accompagner.
15:09 Et pour l'accompagner, il faut des profs et des parents aussi,
15:13 qui soient complètement au niveau et qui soient en capacité finalement de vraiment apporter ce que l'humain seul peut apporter
15:21 et en même temps faire utiliser intelligemment ces trucs-là et donner aux enfants la capacité à évaluer ce que leur propose l'IA,
15:28 à le contrôler, à faire des choses à côté, etc.
15:31 Et aujourd'hui, je pense qu'on n'a pas ça.
15:33 Alors, comme on n'a pas ça, du coup, on va utiliser ce gadget en se disant,
15:36 bon, voilà, à défaut de vrai prof, on va mettre un prof robot, quoi.
15:40 Ce qui est intéressant, c'est que les données seront partagées avec les profs, avec les parents.
15:44 On saura un petit peu plus où en est l'élève dans sa progression.
15:47 Après, il faut que ce soit suffisamment ludique aussi pour que l'élève joue le jeu, je dirais, avec son IA.
15:53 Oui, alors il y a eu plein d'études sur le fait d'essayer de mettre trop de ludique dans l'enseignement,
15:58 finalement ennuye à l'enseignement.
16:00 Donc, je me méfie aussi un peu de ça.
16:02 Donc, qu'on essaye le truc, je pense que c'est une bonne chose,
16:05 parce qu'ils vont devoir utiliser des outils de ce type-là, etc.
16:08 Qu'on en fasse l'alpha et l'oméga du rattrapage de notre tard Pisa, là,
16:12 je pense que c'est une erreur et que le vrai sujet, c'est les profs humains de bon niveau qui sont capables d'accompagner.
16:18 Il nous reste 30 secondes.
16:20 Allez, pour l'Alliance Géante pour l'IA Open Source,
16:22 c'est une initiative des groupes américains IBM et Meta.
16:28 C'est baptisé AI Alliance et il y a déjà 57 membres.
16:33 C'est ça. C'est une initiative mondiale dans laquelle il y a IBM, Meta, Gingspace,
16:38 et puis beaucoup d'acteurs dans le monde de la recherche, des académiques,
16:43 des acteurs qui produisent de la technologie.
16:46 Et l'idée, c'est de promouvoir une approche open, ouverte, d'évolution de la technologie,
16:51 et une approche responsable. On parlait de l'AI Act.
16:53 Nous, l'approche responsable, elle est vraiment au cœur de tout ce qu'on fait.
16:56 Avec des standards ?
16:57 Avec des règles, des standards, des cadres, pour vraiment s'assurer qu'on produit une IA de confiance.
17:02 Merci beaucoup. On n'a plus le temps, pas le temps d'en dire plus, mais on suivra évidemment ces initiatives.
17:06 David Sebaoun était avec nous, d'IBM Consulting France, Jean-Marie John Matthews de Giscard,
17:12 la startup prometteuse pour surveiller nos IA, et Guylain De Pierrefeu du cabinet Wavestone.
17:18 Merci beaucoup à tous. On enchaîne avec un autre univers.
17:21 On va aller dans la nature, s'intéresser au biomimétisme.

Recommandations