Visitez notre site :
http://www.france24.com
Rejoignez nous sur Facebook
https://www.facebook.com/FRANCE24
Suivez nous sur Twitter
https://twitter.com/France24_fr#
Category
🗞
NewsTranscription
00:00 Et on en parle avec Charline Biondi, chercheuse spécialiste des nouvelles technologies à l'Institut Montaigne,
00:05 auteure de "Décoder, une contre-histoire du numérique".
00:08 Bonjour Charline Biondi, merci d'être avec nous.
00:11 On vient d'entendre Emmanuel Macron, un coutumier de cette en même temps,
00:15 à la fois saluer l'initiative des eurodéputés qui cherchent à réguler l'intelligence artificielle
00:19 et puis dans le même temps annoncer 500 millions d'euros pour créer des champions à l'échelle mondiale
00:24 à l'occasion de ce salon VivaTech.
00:26 C'est cela la ligne de crête sur laquelle on se trouve aujourd'hui, à la fois encadrée mais ne pas être dépassée
00:31 parce que c'est une course à l'échelle mondiale qui est en train de se jouer ?
00:35 Tout à fait, en fait ce qui se passe dans l'Union Européenne et en France,
00:38 c'est que face au développement de l'intelligence artificielle, le régulateur doit faire deux choix.
00:44 En fait l'intelligence artificielle est là, ces énormes entreprises, ces big tech de l'IA existent déjà.
00:50 Potentiellement leurs applications posent des nouveaux risques,
00:54 notamment pour les libertés fondamentales et les droits individuels,
00:56 donc il faut réguler ces entités-là, ces entreprises-là.
01:00 Et en même temps, comme dirait Emmanuel Macron, l'IA et les nouvelles technologies,
01:04 c'est potentiellement un vecteur de croissance énorme
01:08 et ce serait un risque démesuré que prendrait la France ou l'Union Européenne
01:14 que de se priver des opportunités qui peuvent jaillir des intelligences artificielles dans tous les domaines,
01:20 y compris la recherche fondamentale en médecine par exemple.
01:24 Donc le dilemme des régulateurs et des gouvernants,
01:30 c'est précisément de trouver un juste équilibre, notamment en Europe,
01:33 où on a malheureusement un retard technologique important sur la production des intelligences artificielles,
01:39 de trouver donc un équilibre pour à la fois prendre le train du progrès en marche et pouvoir en bénéficier,
01:45 tout en préservant un système de valeurs et de droits
01:48 dont on n'est pas prêt de vouloir se défaire.
01:52 On a beaucoup parlé dernièrement de cette simulation qui aurait été menée au sein de l'armée américaine
01:57 sur des missions confiées à l'intelligence artificielle
02:00 et dans lesquelles systématiquement l'être humain apparaissait comme une entrave
02:04 qu'il fallait éliminer pour parvenir au bon déroulement de la tâche.
02:08 Est-ce qu'on sait réellement aujourd'hui mettre cette intelligence artificielle au service de l'humanité et lui poser des limites ?
02:15 C'est l'autre question extrêmement problématique à laquelle doivent faire face les régulateurs.
02:24 C'est un peu ce qu'ont essayé de faire les régulateurs européens avec l'IA Act.
02:28 C'est que précisément les nouvelles IA génératives,
02:32 dont celles que vous mentionnez et qui ont été mises en place par l'armée américaine,
02:36 elles posent un nouveau risque qui est presque un risque structurel pour la survie de l'humanité.
02:44 C'est pour ça que dans l'IA Act européen, il y a ce changement de paradigme.
02:48 C'est la première fois qu'un régulateur essaie de faire ça.
02:52 Au départ, en 2021, quand on a commencé en Europe à se dire qu'il faudrait réguler l'intelligence artificielle,
02:57 la reconnaissance facile, etc., on l'avait classifié par risque.
03:00 D'ailleurs, vous l'avez présenté en introduction, les quatre catégories de risque.
03:03 Mais avec chaque GPT et les progrès des IA génératives,
03:07 les régulateurs se sont dit qu'en fait, potentiellement,
03:09 si on voulait se préserver du risque le plus total que posent les IA,
03:13 comme celui de l'extinction de l'humanité,
03:16 il ne fallait pas réguler les entreprises qui la distribuent,
03:19 comme par exemple une plateforme qui pourrait utiliser un système d'IA pour générer du meilleur contenu,
03:25 mais il fallait réguler ceux qui créent les IA.
03:28 Donc, il y a vraiment le modèle fondateur d'une intelligence artificielle
03:36 et ses hypothèses de départ pour éviter qu'il puisse exister une IA
03:44 qui ferait le choix de tuer un homme, par exemple.
03:50 Oui, un certain nombre, assez rassurant de vous écouter,
03:52 un certain nombre de grands noms des nouvelles technologies,
03:56 dont Elon Musk, par exemple, ont appelé à un moratoire de six mois
04:00 pour justement parvenir à coder d'une certaine manière
04:04 à la sanctuarisation de l'espèce humaine dans l'intelligence artificielle.
04:08 Est-ce une bonne mesure ou bien risque-t-on tout simplement
04:11 de voir un certain nombre de pays, la Chine pour ne pas la nommer,
04:14 ne pas respecter ce moratoire et poursuivre finalement les progrès sans nous ?
04:19 Alors, un moratoire, c'est a priori toujours une bonne idée.
04:24 Ce qui est un petit peu plus inquiétant et ce qui peut soulever d'autres types de questions,
04:29 c'est quand le moratoire, il est demandé par précisément les grands acteurs
04:33 qui en bénéficient le plus.
04:35 Ce qui est aussi…
04:36 Alors déjà, même les chercheurs ne sont pas sûrs des risques exacts que peuvent poser l'IA.
04:41 Il y a potentiellement un risque pour l'humanité,
04:46 mais c'est vraiment un risque potentiel.
04:47 Et même les chercheurs aujourd'hui ne savent pas exactement évaluer
04:52 la direction et la rapidité des progrès de l'IA qu'on doit anticiper.
04:57 Et en faisant ce grand moratoire et en disant que vraiment l'IA,
05:02 ça nous amène à un point de basculement de l'humanité toute entière,
05:05 ça peut aussi apparaître comme une sorte de stratégie marketing pour dire
05:09 "Regardez, on est tellement génie, on est tellement puissant, suivez-nous".
05:13 Donc c'est à double tranchant quand les injonctions au moratoire viennent de JPT lui-même.
05:22 Merci Charline Biondi d'avoir été avec nous pour parler intelligence artificielle.