• il y a 9 mois
Dans ses romans de science-fiction, Isaac Asimov a anticipé les problématiques liées au développement des intelligences artificielles. Comment contrôler leurs usages pour ne pas nuire à l’être humain? Peut-on leur accorder notre confiance ? Aujourd'hui, les performances de ChatGPT ou MidJourney remettent ces questions au cœur de notre réalité. Débat qui a suivi la projection du documentaire Isaac Asimov, l’étrange testament du père des robots en présence du réalisateur Mathias Théry, de Raja Chatila, chercheur émérite en robotique et Natacha Vas-Deyres, chercheuse en littérature, spécialiste de science-fiction.Séance animée par Ariel Kyrou, journaliste et écrivain. Isaac Asimov, l’étrange testament du père des robots
Réal. Mathias Théry, 54 minutes, 2022, Kepler Productions, Arte France, avec la participation d'Universcience.
Avec plus de 500 publications, Isaac Asimov est considéré comme le père de la science-fiction. Trente ans après sa mort, voilà l'auteur de la saga des "Robots" qui revient, s’adresser aux humains pour leur transmettre la leçon de toute une vie : une méthode pour anticiper le futur de notre monde et surtout pour l’inventer.

Un documentaire rediffusé sur le Blob du 23 mars au 5 avril 2024.Séance proposée dans le cadre du Printemps de l'Esprit critique. 

Category

🗞
News
Transcription
00:00:00 Si vous le voulez bien, on va peut être commencer.
00:00:02 Je ne sais pas ce que vous avez pensé de la fin du film et de la révélation.
00:00:06 Puisqu'au fond, si vous avez bien suivi, vous avez remarqué que le
00:00:12 Isaac Asimov qui vous parlait depuis le début du film était quelques,
00:00:18 on va dire quelques quelques cousins de Chad Gpt.
00:00:22 J'exagère bien évidemment par provocation.
00:00:24 Alors la question qu'on peut se poser et que j'imagine que vous auriez
00:00:28 envie de poser peut être à Mathias, c'est est ce vraiment sérieux?
00:00:32 Pourquoi? Comment?
00:00:35 D'abord, comment ça a été possible?
00:00:36 C'est quoi la méthode?
00:00:37 Et après, avec nos amis, de dire mais alors, est ce que ça pose un
00:00:41 problème ou pas de faire un vrai faux ou un faux vrai?
00:00:44 Mathias, alors d'abord, comment ça s'est fait?
00:00:47 Comment l'idée est venue?
00:00:48 Alors l'idée est venue en travaillant sur le projet de ce film qui
00:00:56 était à l'initiative de la chaîne Arte.
00:00:58 J'ai commencé à faire des recherches sur Isaac Asimov.
00:01:02 J'ai lu énormément de choses de lui puisqu'il a énormément écrit,
00:01:06 comme vous l'avez compris.
00:01:07 Et j'ai découvert que derrière l'écrivain de science-fiction, il y
00:01:10 avait aussi un citoyen, on va dire, qui portait une réflexion sur la
00:01:17 marche du monde et qui avait toute une théorie sur la place des
00:01:22 écrivains de science-fiction dans la société, mais aussi une idée de
00:01:26 l'histoire humaine et qu'il avait et qu'il aimait beaucoup la transmettre.
00:01:33 Et je me suis assez rapidement dit, mais en fait, ce portrait de Isaac
00:01:37 Asimov, presque, il faut que ce soit lui qui le fasse.
00:01:40 Il faut que je lui laisse la place parce qu'il aime tellement parler
00:01:44 de lui, il aime tellement expliquer des choses et il y a tout été déjà
00:01:48 dans ses écrits que je me suis dit il faut plutôt faire une master
00:01:52 class de Isaac Asimov et que ce sera un bon moyen aussi pour le
00:01:57 spectateur de découvrir sa pensée, de pouvoir même, pourquoi pas la
00:01:59 critiquer, mais en tout cas d'avoir accès un peu à quelle était sa
00:02:02 pensée globale.
00:02:03 Ensuite, l'emploi de l'intelligence artificielle.
00:02:10 Idée très simple, c'est un, comme il nous le décrit lui-même, chaque
00:02:17 période de l'humanité découvre de nouvelles technologies.
00:02:21 C'est une technologie d'aujourd'hui.
00:02:23 J'utilise une des technologies qui est à la portée de ma main aujourd'hui
00:02:29 pour faire un film parce que pour moi, c'est une technologie comme
00:02:32 une autre, c'est à dire l'intelligence artificielle ou l'invention
00:02:40 de la roue ou de l'écriture ou de la machine à laver.
00:02:45 Ce sont différentes inventions, des choses que moi, comme créateur,
00:02:50 je peux me servir et comme lui le dit, je peux m'en servir de
00:02:55 différentes manières, c'est à dire je peux m'en servir comme comme
00:03:00 un outil, c'est à dire qu'il y a une manière qui peut être bénéfique
00:03:03 ou maléfique.
00:03:04 Un couteau, on peut faire la cuisine et on peut tuer des gens.
00:03:08 L'intelligence artificielle, c'est exactement la même chose pour
00:03:11 moi, c'est à dire et c'était un peu l'idée de démontrer ce que
00:03:14 Asimov dit lui-même.
00:03:15 On peut s'en servir aujourd'hui, on peut tromper ou on peut s'en
00:03:19 servir pour améliorer la médecine ou des choses comme ça.
00:03:22 Il y avait une petite démonstration dans l'idée du film même,
00:03:26 de l'idée d'Asimov qui dit la technologie, elle n'est pas
00:03:29 forcément bonne ou mauvaise, mais elle est, tout dépend de
00:03:33 comment est ce qu'on l'utilise.
00:03:34 Donc, je trouvais ça, c'était plutôt un clin d'œil parce que
00:03:36 finalement, ce que fait l'intelligence artificielle dans
00:03:39 ce film, c'est pas grand chose.
00:03:40 Elle recrée le visage d'Asimov que l'on a, qu'on extrait de
00:03:48 différentes archives et pour insérer sur le visage d'un
00:03:53 comédien que j'ai filmé et qui a dit le texte, qui est une
00:03:58 collection de paroles d'Isaac Asimov.
00:03:59 Mais j'aurais pu aussi le faire sans l'intelligence artificielle,
00:04:04 c'est à dire, j'aurais pu annoncer dès le début du film, ce film
00:04:07 est composé d'extraits, de choses qu'a dites Isaac Asimov,
00:04:13 dites par un comédien.
00:04:14 Je trouvais ça plus intéressant de faire revivre Asimov, parce
00:04:17 que c'était un peu son rêve à lui, de pouvoir continuer à parler
00:04:23 aux humains après sa mort.
00:04:24 Donc, voilà, finalement, l'intelligence artificielle ici
00:04:28 joue un rôle qui est exactement le même pour moi qu'une autre
00:04:32 astuce, qui est par exemple celle d'utiliser des objets filmés
00:04:35 sous une caméra pour faire avancer le récit, qui est une
00:04:39 technologie beaucoup plus archaïque, qui contraste avec
00:04:42 cette technologie moderne.
00:04:45 Donc, au fond, c'est une manière de dire dès lors que le pacte
00:04:47 fictionnel est respecté, peut être n'y a t il pas de problème?
00:04:51 Alors comment Rajah et Natacha vous réagissez en fait à cet usage
00:04:56 de l'intelligence artificielle?
00:04:58 Alors, il se trouve que les initiales d'Isaac Asimov, c'est IA.
00:05:07 Bien vu. Donc, finalement, Mathias a rendu sa véritable identité.
00:05:17 Mais au delà de l'anecdote, effectivement, ça soulève quand
00:05:25 même une question.
00:05:26 Je vais revenir sur un point avant de répondre directement.
00:05:32 Cette question de la technologie est elle neutre?
00:05:36 Un couteau, on peut faire ceci, on peut faire cela, etc.
00:05:40 C'est un débat qui a traversé des siècles.
00:05:42 Est ce que la technologie est neutre?
00:05:45 Est ce que la science est neutre?
00:05:47 La science et la technologie, dans ce cas, ce n'est pas la même
00:05:51 chose. La science permet d'avancer les connaissances.
00:05:54 La technologie permet de fabriquer des technologies, des moyens,
00:05:58 des outils. Et c'est là que le débat peut s'orienter selon
00:06:02 différentes manières, parce que la création, tout comme la
00:06:08 découverte scientifique de ce point de vue là, la création d'une
00:06:11 technologie nécessite quand même des financements, nécessite des
00:06:14 choix qui sont des choix politiques, des choix de politique
00:06:17 scientifique, des choix de politique technologique, des choix
00:06:20 politiques tout court.
00:06:21 Et donc, ce n'est pas complètement neutre dans la mesure où on va
00:06:25 investir dans telle ou telle ou telle autre direction.
00:06:30 Quel est l'investissement qu'on fait aujourd'hui, par exemple, dans
00:06:33 l'intelligence artificielle?
00:06:34 Il est énorme, comme vous le savez.
00:06:36 Est ce qu'on investit la même chose ou quelque chose de comparable
00:06:40 dans d'autres domaines, dans d'autres technologies?
00:06:42 Non, ce n'est pas comparable.
00:06:44 Donc, il y a un choix. Et donc, de ce point de vue là, la technologie
00:06:48 n'est pas neutre parce qu'elle est orientée par ses choix qui sont
00:06:50 des choix politiques. Après, on peut apprécier cette politique
00:06:55 là ou ces décisions là, mais on ne peut pas dire véritablement
00:06:58 que la technologie est neutre et l'intelligence artificielle se
00:07:01 développe aussi selon des choix de ceux qui la conçoivent, de ceux
00:07:06 qui la mettent sur le marché et qui sont aujourd'hui principalement
00:07:10 de grands industriels américains.
00:07:12 Donc là aussi, il y a des choix et il y a des décisions.
00:07:16 Alors, on peut revenir sur ce débat plus tard.
00:07:18 Oui, on pourra en reprendre.
00:07:19 Ensuite, pour qu'est ce que je pense de l'utilisation de l'IA pour
00:07:24 faire, pour personnifier Isaac Asimov?
00:07:26 Alors, évidemment, ça pose.
00:07:27 Moi, j'ai trouvé ça excellent dans la mesure où Isaac Asimov est un
00:07:33 auteur que j'adore, que j'ai lu dans mon adolescence et au delà.
00:07:37 Et de le voir vivant, parler de ce qui se passe de nos jours, il est
00:07:43 mort en 1992, est quelque chose d'absolument émouvant quand même.
00:07:48 Et donc, j'apprécie ça dès lors que c'est dévoilé parce que ça pose
00:07:53 quand même une question fondamentale qui est la distinction entre le
00:07:56 vrai et le faux entre ce qu'on appelle les fakes, deepfake, etc.
00:08:02 Donc fake, ça veut dire pseudo, imité, faux en anglais, n'est ce pas?
00:08:07 Et c'est là qu'aujourd'hui, donc la question qui est posée, je vais
00:08:11 m'arrêter après ça, c'est la distinction entre le vrai et le faux
00:08:15 que dont la frontière est rendue floue justement par l'utilisation de l'IA.
00:08:21 Dès lors que c'est transparent, ça peut ne pas poser de problème.
00:08:26 Dès lors que ce n'est pas transparent et la plupart du temps, ce ne l'est
00:08:29 pas. Là, ça pose un véritable problème parce que la question de la
00:08:33 vérité, n'est ce pas?
00:08:34 Depuis Socrate, est une question fondamentale pour notre société, pour
00:08:39 toutes les sociétés, pour le vivre ensemble.
00:08:41 Natacha, alors est ce que ce est ce qu'on pourrait dire que le pacte
00:08:45 fictionnel, là, pour le coup, a été maintenu ou pas?
00:08:48 Et toi, que penses tu de cet usage de l'IA?
00:08:52 Alors moi, je vais revenir un petit peu à la science fiction parce que
00:08:55 je suis quand même là pour ça.
00:08:56 Et en fait, j'ai trouvé cette utilisation de l'IA à la fin relativement
00:09:03 menaçante quand même. C'est à dire, je ne sais pas si c'est un choix que
00:09:06 vous avez fait par rapport au...
00:09:08 Voilà, c'est à dire qu'on va quitter finalement la représentation d'un
00:09:12 humain pour le remplacer par cette espèce d'image déformée de plus en
00:09:16 plus, avec cette voix un petit peu grave.
00:09:19 Et derrière, en fait, on a l'impression qu'il y a un discours relativement
00:09:24 dangereux, justement à travers cette utilisation de l'IA.
00:09:28 Et alors ça, évidemment, ça nous ramène complètement à la science
00:09:32 fiction parce que depuis quasiment la fin du 19e siècle, alors évidemment,
00:09:37 il faudrait faire une distinction entre robotique et IA parce que l'histoire
00:09:41 de ces représentations, même si à un moment donné, elles se recouvrent,
00:09:44 ne sont pas tout à fait les mêmes.
00:09:45 L'IA dans la science fiction, elle apparaît en 1968 avec Al 9000.
00:09:51 Peut être tout le monde s'en souvient dans le film de Kubrick, 2001,
00:09:55 Odyssée de l'espace, avec cette espèce d'invention absolument
00:09:59 génialissime, cet oeil de caméra rouge.
00:10:01 D'ailleurs, vous notez au passage le rouge qui est la couleur quand même
00:10:05 du danger qui va poursuivre effectivement les représentations de l'IA
00:10:09 jusque dans la saga Terminator après.
00:10:11 Et donc, en fait, la robotique, c'est un petit peu différent parce
00:10:17 qu'elle existe dans la littérature et évidemment au cinéma durant tout
00:10:21 le 20e siècle, mais dans la littérature, elle existe depuis 1883.
00:10:26 1883, c'est un Français.
00:10:28 Alors, on n'a pas beaucoup parlé d'auteurs français, malheureusement,
00:10:31 mais vous ne pouviez pas parler de tout non plus.
00:10:32 Voilà qui s'appelle DJ Chouzy et qui va inventer des robots agricoles,
00:10:38 qu'il va appeler les Atmophites et tiens comme par hasard, ces robots,
00:10:41 à un moment donné, qui sont quand même des esclaves corvéables à
00:10:44 la merci, et bien vont se rebeller contre leur créateur.
00:10:47 Voilà. Et ça, c'est une image qui va revenir tout le temps, tout le
00:10:50 temps dans la science fiction.
00:10:51 Et c'est pour ça que entre, si vous voulez, cette toute première
00:10:56 image qui va se poursuivre, évidemment, je cite une autre date,
00:11:01 c'est 1920, c'est Rourdes, Karadjapek, Karadjapel, qui est un
00:11:05 dramaturge tchèque et qui va inventer le mot robot, robota, d'accord,
00:11:10 en tchèque, ça veut dire corvé et qui va inventer des créatures dans
00:11:14 une pièce de théâtre absolument incroyable, ça fait Rourdes, et qui
00:11:17 va faire le tour du monde entre 1920 et 1924.
00:11:21 Elle va être sur toutes les grandes scènes des grandes capitales,
00:11:25 donc au moins du monde occidental.
00:11:27 Et donc, entre, voyez, ces toutes premières références robotiques
00:11:32 jusqu'à aujourd'hui, et bien l'image, si vous voulez, qui est portée
00:11:36 par la science fiction quand même, et bien c'est une image, alors
00:11:39 Asimov le disait lui-même, un peu pessimiste quand même par rapport
00:11:43 à la technologie plus que la science, ça je suis d'accord avec vous,
00:11:46 sauf pour la thématique évidemment du savant fou, mais qui est un petit
00:11:49 peu donc à la marge.
00:11:51 Et donc, on peut effectivement se poser la question de même s'il y a
00:11:55 eu, et Asimov a été évidemment, on va dire, à porter cette idée que
00:11:59 la robotique, eh bien, ça pouvait effectivement devenir des êtres
00:12:04 pensants, des êtres sensibles, des êtres capables d'émotion, des
00:12:09 êtres mécaniques capables d'émotion, mais ça représente finalement
00:12:13 qu'une petite part de la grande production de la science fiction,
00:12:17 qu'elle soit cinématographique ou littéraire, et finalement, eh bien,
00:12:20 il reste cette image quand même portée par la SF que, eh bien,
00:12:25 cette, cette, cette IA et la robotique sont quand même un petit
00:12:29 peu dangereuses pour l'homme.
00:12:30 C'est les représentations, encore une fois.
00:12:32 Oui, pour revenir sur ce petit point final au moment de la révélation
00:12:36 de visage d'Asimov, l'idée n'est pas tant d'être menaçant, mais
00:12:41 d'être un petit peu surprenant.
00:12:45 Mais c'est à dire, c'est de reproduire quelque chose qui est décrit
00:12:47 par Isaac Asimov tout au long du film, qui est des allers-retours
00:12:51 entre de l'optimisme et de la peur.
00:12:56 C'est ce qu'il cesse de décrire au fil des siècles.
00:12:59 Il dit il y a des enthousiastes, il y a ceux qui ont peur du progrès,
00:13:01 il y a des pro-progrès, etc.
00:13:03 Et il décrit notre histoire comme ça.
00:13:06 On sent que lui-même, d'ailleurs, était plutôt hyper technophile,
00:13:10 à fond, adorait les machines, etc.
00:13:13 Puis au bout d'un moment, prend conscience un peu du danger
00:13:16 écologique. On sent l'évolution d'Asimov lui-même sur la question
00:13:22 de la technologie, mais c'est quand même un amoureux de la
00:13:24 technologie qui dit n'ayons pas peur de la technologie.
00:13:26 C'est peut être elle qui va nous sauver, etc.
00:13:28 Donc l'idée, ce n'est pas de faire peur, c'est de dire écoutons
00:13:34 Asimov quand il nous dit la question n'est pas la technologie,
00:13:36 c'est l'emploi de la technologie.
00:13:37 C'est qu'est ce qu'on en fait?
00:13:38 Voilà. Et en tout cas, ce que je trouve intéressant, c'est que
00:13:41 ce que décrit Asimov dans l'histoire de l'humanité, c'est une
00:13:46 humanité toujours en train de se questionner sur le moment de
00:13:53 modernité dans lequel il est, vers où on va, est ce que les
00:13:56 machines sont bonnes, pas bonnes, etc.
00:13:57 Et que ces crises se continuent.
00:14:01 Il est mort depuis un moment et on est à nouveau aujourd'hui dans
00:14:04 un moment de questionnement parce qu'on a une technologie très
00:14:07 puissante, nouvelle, que Asimov n'a pas connue d'ailleurs.
00:14:11 Et on est en train de, je vois qu'on est dedans, quoi.
00:14:14 Je vois les gens qui flippent.
00:14:15 Je vois les gens qui sont surexcités, qui sont très
00:14:18 enthousiastes et qu'on est dans un présent où on a un peu du mal
00:14:22 à savoir qu'est ce qu'on pensera de la période d'aujourd'hui
00:14:26 dans 500 ans.
00:14:28 Et c'est ça qui m'intéresse, notamment dans cette discussion.
00:14:32 C'est de comprendre un peu dans quel moment on est.
00:14:34 Quelles sont les, face à cette technologie, quelles sont les
00:14:38 parts pour nous de fantasmes?
00:14:39 Quelle est la réalité de ce qui va nous arriver?
00:14:43 Où est ce qu'on est complètement en train de se méprendre, etc.
00:14:49 Et ça, je pense que votre parole est très, très riche pour nous.
00:14:52 Oui, d'ailleurs, juste un mot.
00:14:54 Vous avez parlé au début du documentaire, il y a une référence
00:14:57 au mythe, d'accord?
00:14:59 Et aujourd'hui, en fait, les seuls récits qui nous parlent de
00:15:03 mythes, mais qui sont en train de s'écrire.
00:15:05 Moi, je parle souvent de mythologie, que la science-fiction,
00:15:08 c'est une sorte de mythologisation de l'avenir.
00:15:10 C'est à dire que ce sont, on est en train d'écrire notre propre
00:15:14 récit par rapport à l'avenir et ce qui va s'écrire.
00:15:18 La science-fiction a un tout petit peu d'avance, mais parfois pas
00:15:22 beaucoup. Mais elle réfléchit par les récits à ce que nous sommes
00:15:27 en train de vivre.
00:15:27 Voyez que ce soit positif ou négatif, mais elle joue en fait
00:15:31 le rôle des mythes qui, aujourd'hui, n'existent plus, évidemment,
00:15:34 dans notre société scientifique.
00:15:36 Juste pour un petit clin d'œil dans l'Iliade d'Homère, le
00:15:42 dieu Héphaïstos, qui est le dieu forgeron, il forge d'abord un
00:15:46 trépied autonome pour servir les dieux de l'Olympe.
00:15:49 Puis après, il crée des chevaux, des chiens artificiels et
00:15:54 finalement, deux servantes en or qui pensent et qui parlent pour
00:15:57 le servir. C'est le dieu de la technique et bien évidemment,
00:16:01 qu'il crée déjà des créatures artificielles.
00:16:03 Mais on pourrait parler de Gilgamesh aussi.
00:16:07 C'est juste pour dire que ces imaginaires-là, évidemment, ne
00:16:10 datent pas d'aujourd'hui.
00:16:13 Alors, pour rebondir sur cet usage de l'IA, tel que vous l'avez
00:16:18 pu le voir à la fin du film, je dirais qu'au fond, chacun est
00:16:21 un juge. Ce qui est clair, c'est que là, le pot au rose est
00:16:25 révélé à la fin du film.
00:16:27 Donc, on est sur quelque chose qui est de l'ordre du pacte avec
00:16:30 le spectateur.
00:16:31 On lui dit que ce qu'il a pris peut-être pour quelque chose de
00:16:34 vrai n'était pas vrai.
00:16:35 Donc, chacun peut juger s'il apprécie ou pas.
00:16:38 En revanche, j'aurais envie de vous faire réagir sur quelque
00:16:41 chose en rebond de tout ce que vous avez dit et qui était
00:16:43 sous-jacent à la discussion.
00:16:44 C'est cette question de la neutralité de la technologie.
00:16:47 Vous savez sans aucun doute ou peut-être pas, vous le savez
00:16:50 puisque vous avez vu le film.
00:16:51 Il y a les fameuses trois lois de la robotique des IMOF qui
00:16:54 après sont devenues une quatrième loi.
00:16:55 Et comme vous le savez, puisque le film vous l'a montré, le
00:16:59 principe d'un scénario d'un roman, c'est qu'on définit les
00:17:01 lois, on définit les règles.
00:17:02 Si c'est neutre, elles sont respectées et comme c'est pas
00:17:05 neutre, elles ne sont pas respectées.
00:17:06 Donc, qu'est ce que vous en pensez?
00:17:10 Parce qu'au fond, est ce que finalement, les romans même
00:17:12 d'Isaac Asimov montrent que lorsqu'il dit, s'il le dit que la
00:17:15 technologie est neutre, il a tort.
00:17:17 Oui, il le dit en même temps, il est très prudent dans la
00:17:28 manière dont il le dit.
00:17:29 Ce qui est bien dans les trois lois de la robotique, c'est
00:17:33 qu'elles sont très logiques, très simples à comprendre et
00:17:36 qu'elles sont porteuses de contradictions.
00:17:40 Et c'est ça qu'il a animé finalement dans ses différents
00:17:45 romans, c'est à dire on a l'impression que le robot dans
00:17:48 tel ou tel roman se comporte d'une manière qui n'est pas
00:17:50 conforme aux lois.
00:17:51 Mais finalement, finalement, quand on fouille, bah oui, il a
00:17:56 en fait obéi aux lois.
00:17:57 Ce n'est pas ce n'est pas qu'il les a enfreintes.
00:18:01 Et donc, je pense que les lois d'Asimov dans ses romans,
00:18:08 évidemment, montrent que quand la technologie est bien cadrée,
00:18:14 donc dans des lois, dans des règles, ça fonctionne.
00:18:19 Ça fonctionne pour le bien.
00:18:20 Les robots d'Asimov sont toujours des robots qui se comportent
00:18:24 d'une manière qui finalement est bonne.
00:18:27 Ils ne sont pas des monstres, ce n'est pas Terminator, etc.
00:18:31 Et ce sont les trois lois qui les cadrent et qui leur permettent
00:18:36 justement d'interpréter les lois en question selon les
00:18:39 circonstances et finalement d'agir pour le bien.
00:18:44 C'est une leçon pour nous.
00:18:45 C'est une leçon pour nous.
00:18:47 C'est à dire que les lois elles-mêmes, en fait, ne sont pas
00:18:51 applicables dans la réalité du monde dans lequel nous vivons.
00:18:53 Elles sont applicables dans la réalité du monde de la science
00:18:55 fiction. Si vous voulez les appliquer aujourd'hui, enfin,
00:18:57 aujourd'hui ou de toujours dans le monde réel, il y a des
00:19:02 situations où ce n'est pas possible.
00:19:03 On va être obligé d'enfreindre les lois en question, mais pas
00:19:08 dans les scénarios des romans d'Isaac Asimov.
00:19:11 Mais ça signifie aussi que notre technologie, justement, il faut
00:19:15 la maîtriser, il faut la cadrer, il faut la réglementer pour
00:19:20 qu'elle ne soit bénéfique parce que en elle-même, à travers
00:19:25 ceux qui la conçoivent, ceux et celles qui la conçoivent et ceux
00:19:29 qui et celles qui l'appliquent, elle n'est pas forcément
00:19:33 porteuse du bien.
00:19:36 Est-ce que vous avez tous les trois lois en tête ou il faut
00:19:39 qu'on vous les rappelle?
00:19:41 Rappelle peut être que vous les connaissez par coeur.
00:19:43 Moi, je les connais par coeur.
00:19:44 Donc, la première loi dit que un robot ne doit jamais porter
00:19:51 atteinte à un être humain, ni par inaction, laisser l'être
00:19:56 humain dans une situation de danger.
00:19:59 Donc, une obligation au robot de ne pas faire du mal, c'est
00:20:06 ne pas faire du mal et aussi d'agir quand il s'aperçoit que
00:20:12 quelqu'un est en situation de danger.
00:20:13 La deuxième loi, c'est la loi de l'obéissance.
00:20:17 Un robot doit toujours obéir à un être humain, sauf si ça
00:20:21 contredit la première loi.
00:20:22 Donc, je ne peux pas dire à un robot "tue cette personne"
00:20:25 parce que ça lui interdit de porter atteinte à la personne
00:20:28 en question. Et la troisième loi, qui est d'une certaine
00:20:31 façon la plus étrange, c'est que le robot doit protéger sa
00:20:35 propre existence, sauf si ça contredit les deux premières
00:20:39 lois. Et la zéroième loi qui est arrivée beaucoup plus tard,
00:20:43 qui est arrivée beaucoup plus tard, c'est une généralisation.
00:20:46 Il s'agit de ne pas porter atteinte à l'humanité, pas à un
00:20:49 être humain. Ce qui fait écho, d'ailleurs, par rapport à son
00:20:52 évolution et par rapport à ce qu'on a vu à la fin du film.
00:20:54 D'ailleurs, ça veut dire que tout de même, on pourrait
00:20:57 autoriser de tuer un humain si c'est pour protéger l'humanité.
00:21:01 La loi zéro pourrait éventuellement poser cette question.
00:21:05 Et moi, je rajouterais bien une loi, d'ailleurs.
00:21:07 Je mettrais la protection de la vie au-dessus de la protection
00:21:11 des espèces humaines. J'ai l'impression que c'est peut-être
00:21:13 même Isaac Asimov qui leur ait pensé cette loi.
00:21:16 On sentait qu'il disait qu'il valait mieux peut-être sacrifier
00:21:18 l'espèce humaine si on voulait que la vie sur Terre, la priorité
00:21:22 à la vie sur Terre, à l'espèce humaine.
00:21:23 Mais ça faisait partie de sa conclusion.
00:21:25 C'était son IA qui disait ça, c'était pas lui, en fait.
00:21:29 Bon, alors oui, Natacha, alors qu'est-ce que tout ça, par rapport
00:21:33 à justement les enjeux éthiques d'IA aujourd'hui, ces trois lois
00:21:36 de la robotique ?
00:21:37 Bon, alors ces trois lois, je vais revenir sur plusieurs choses.
00:21:41 D'abord, en 2011, je me souviens avoir participé à un colloque
00:21:44 dans mon université qui s'appelait "Des machines et des hommes".
00:21:47 Et on avait eu un gros débat parce que j'étais la seule à parler
00:21:52 des trois lois de la robotique à l'époque.
00:21:53 Pourtant, c'était il n'y a pas si longtemps que ça.
00:21:55 Et là, j'ai l'impression qu'en fait, on est rentré littéralement
00:21:58 dans un autre monde, vous voyez, par rapport à l'IA et à la robotique.
00:22:01 Et en fait, il y avait des juristes.
00:22:03 Et moi, j'avais posé la question en leur disant, mais est-ce que
00:22:06 finalement, ces trois lois ou ces quatre lois, si on compte la
00:22:10 loi zéro, sont des lois qui pourraient servir de base à
00:22:13 effectivement un arsenal juridique pour protéger, en fait, à un
00:22:18 moment donné, l'humain quand l'humain sera en contact avec les
00:22:21 robots ? Parce que la réalité, c'est que est-ce que nous sommes
00:22:25 vraiment prêts à avoir, vous, moi, enfin dans notre vie de tous
00:22:29 les jours, dans notre foyer, par exemple, à avoir un robot ?
00:22:34 Alors, quand je dis robot, attention, c'est au sens très large.
00:22:36 Ce n'est pas forcément un robot humanoïde.
00:22:38 C'est peut-être tout simplement peut-être que parmi vous, il y en
00:22:41 a qui ont déjà des aspirateurs, qui ont déjà des machines à laver
00:22:43 programmables, puisque les collègues de la robotique pensent
00:22:46 que parfois, et bien, à moins que vous m'arrêtez si je dis une
00:22:49 bêtise, mais je pars sous votre contrôle, peuvent être considérés
00:22:53 comme des robots, mais des robots, par exemple, qui pourraient
00:22:58 s'occuper des enfants, des robots qui pourraient s'occuper de nos
00:23:01 animaux pendant que nous ne sommes pas là, s'occuper des personnes
00:23:04 âgées que nous accueillirions, etc.
00:23:05 Et ça, on sait très bien, par exemple, qu'au Japon, où il y a
00:23:08 une chute démographique absolument catastrophique, ils ont des
00:23:12 programmes de robotique pour justement créer ces êtres
00:23:17 mécaniques qui pourraient éventuellement s'occuper, par exemple,
00:23:20 des personnes âgées à la maison.
00:23:23 Donc voilà, moi, la question que souvent que je pose, et il y a le
00:23:27 film d'Alex Proyas qui s'appelle iRobot, qui est une adaptation
00:23:30 un peu, voilà, un petit peu floue quand même du cycle des robots
00:23:33 d'Asimov, mais qui reprend quand même le titre d'une de ses
00:23:37 nouvelles, iRobot, eh bien, c'est un peu la question qu'il pose,
00:23:40 c'est-à-dire que si nous avons effectivement ces êtres
00:23:43 mécaniques, je parle d'êtres ou ces machines, est-ce que nous
00:23:46 sommes vraiment prêts à les avoir dans nos maisons et dans notre
00:23:51 vie, dans notre vie de tous les jours ?
00:23:53 Est-ce qu'on a déjà réfléchi à ça à un moment donné ?
00:23:55 Vous voyez ?
00:23:56 Donc, c'est une question à laquelle vous pourriez éventuellement
00:23:59 répondre après.
00:24:00 Et donc, je me dis que ces trois lois de la robotique, ce serait
00:24:04 peut-être aussi un moyen de nous protéger, un moyen d'avoir un
00:24:08 arsenal juridique, mais ce n'est pas forcément ces trois lois,
00:24:10 ça pourrait être d'autres lois.
00:24:11 Je pense qu'il doit y avoir actuellement quand même une très
00:24:15 forte réflexion par rapport à cet usage-là, cet usage du quotidien.
00:24:22 Et puis, la deuxième image qui me vient en tête, c'est une image
00:24:26 de science-fiction, toujours dans iRobot, à un moment donné,
00:24:29 donc le robot Adam.
00:24:30 Alors, robot Adam, d'ailleurs, qui est une référence au
00:24:33 personnage d'Adam Link des frères Binder, qui en 1938-39 ont
00:24:39 créé en fait le premier robot pensant.
00:24:42 Il n'y a pas encore le terme d'intelligence artificielle, mais
00:24:47 en réalité, c'est un robot qui pense, c'est un robot éthique,
00:24:50 c'est un robot qui fait des choix, qui doit d'ailleurs se défendre
00:24:53 parce qu'à un moment donné, il est dans un procès parce qu'on
00:24:56 a retrouvé son maître, son créateur, on va dire, mort chez lui,
00:24:59 et c'est le robot qui est accusé.
00:25:00 Bref, je referme la parenthèse.
00:25:02 Et donc, ce robot Adam dans iRobot, dans le film, à un
00:25:06 moment donné, plonge, un pont s'est rompu et il y a des
00:25:10 voitures avec des gens à l'intérieur qui sont donc en
00:25:13 train de se noyer.
00:25:13 Et donc, il va dans la voiture où il y a le héros qui est
00:25:17 joué par Will Smith, et bien, il y a une petite fille de 12
00:25:21 ans et il y a le héros, donc Will Smith, qui est un adulte dans
00:25:24 la pleine force de l'âge, très costaud.
00:25:26 Voilà.
00:25:27 Et le robot, en fait, il va faire le choix de sauver l'adulte
00:25:32 et pas la petite fille parce qu'en fait, dans son calcul,
00:25:36 il s'est dit que l'adulte avait plus de chances finalement
00:25:40 d'être sauvé que la petite fille, tout simplement parce
00:25:42 que l'organisme aurait résisté mieux à ce petit séjour
00:25:48 effectivement dans l'eau.
00:25:49 Vous voyez ?
00:25:49 Et donc, nous, si nous avions à faire cet acte là, peut-être
00:25:54 que nous aurions sauvé la petite fille de 12 ans et pas
00:25:58 l'adulte.
00:25:58 Mais le robot, lui, il va avoir une réaction différente.
00:26:02 Et encore une fois, c'est une représentation de la
00:26:04 science-fiction, mais ça veut dire qu'il ne va pas réfléchir
00:26:07 en fonction de l'éthique, mais il va réfléchir en fonction
00:26:10 de l'efficacité.
00:26:12 Vous voyez ?
00:26:12 Et donc, ça veut dire que nous allons avoir des machines
00:26:15 plus tard, peut-être dans une dizaine d'années, je ne sais
00:26:18 pas, selon l'évolution de la robotique, qui vont être avec
00:26:21 nous et qui vont être programmées pour l'efficacité et pas
00:26:25 forcément pour l'éthique.
00:26:26 Et donc, ces trois lois, je pense qu'elles sont importantes
00:26:31 en termes de représentation.
00:26:32 Mais la réflexion qu'il y a derrière, c'est très exactement
00:26:35 ce qu'a voulu écrire justement Asimov à partir de ces trois
00:26:40 lois, parce qu'il trouvait que ça manquait dans notre rapport
00:26:43 en fait aux machines.
00:26:44 J'ai une question.
00:26:45 Du coup, aujourd'hui, il y a plein de questions de problématiques
00:26:49 qui se posent autour des nouvelles technologies,
00:26:51 ordinateurs, etc.
00:26:53 Qui définit un peu les lois autour de l'emploi de toutes
00:27:01 ces technologies ?
00:27:02 Est-ce que ce sont les États ?
00:27:03 Est-ce que ce sont les entreprises ?
00:27:04 Alors, c'est une excellente question parce que justement,
00:27:09 j'ai une réponse.
00:27:10 Il y a quelques jours à peine, c'est-à-dire le 11 mars ou le 13,
00:27:17 l'Europe a voté le règlement de l'intelligence artificielle,
00:27:24 c'est-à-dire la loi européenne sur l'intelligence artificielle.
00:27:28 Donc, ça a pris quelques années pour aboutir.
00:27:30 Mais cette loi, quand je dis intelligence artificielle,
00:27:34 ça inclut la robotique, bien sûr.
00:27:36 Ce règlement définit un certain nombre de règles.
00:27:42 Ce n'est pas dans le sens des trois lois de la robotique d'Asimov,
00:27:46 mais parce que de nouveau, elles ne sont pas applicables
00:27:50 dans le monde réel, mais elles reposent quand même sur des
00:27:55 principes généraux qu'on peut retrouver, c'est-à-dire
00:27:58 on doit minimiser les risques, on doit éviter justement
00:28:04 ou réduire les possibilités de tout ce qui nuit,
00:28:07 donc première loi si vous voulez, de tout ce qui nuit à l'être humain
00:28:11 ou à sa liberté.
00:28:12 Donc ça, c'est dans le règlement européen.
00:28:14 Il y a des applications de l'intelligence artificielle
00:28:17 qui sont classées en quatre catégories.
00:28:21 Celle qui présente un risque inacceptable pour la santé,
00:28:25 la sécurité et les droits humains.
00:28:29 Et ça, inacceptable, ça veut dire que c'est interdit.
00:28:31 Par exemple, ce qu'on appelle le scoring social,
00:28:34 c'est-à-dire que vous êtes noté selon votre comportement civique
00:28:38 dans la rue.
00:28:39 Parfois, je me demande s'il ne faut pas le faire.
00:28:41 - Les Chinois le font.
00:28:44 - Je sais.
00:28:45 - Le système en Chine est parfaitement opérationnel.
00:28:48 - Je sais, mais en Europe, non.
00:28:50 Justement, en Europe, c'est interdit par ce règlement.
00:28:53 Le deuxième niveau, c'est les systèmes à haut risque,
00:28:56 c'est-à-dire qu'ils présentent, s'ils sont appliqués un risque
00:29:00 important, par exemple, les dispositifs médicaux,
00:29:04 si vous vous êtes opéré par un robot, par exemple,
00:29:07 ou si on utilise un système d'intelligence artificielle
00:29:09 pour déterminer par analyse d'image si tel ou tel tumeur
00:29:13 est cancéreuse, etc., eh bien, cela doit être certifié,
00:29:17 c'est-à-dire qu'on doit faire un développement, des tests,
00:29:20 etc., pour que le logiciel, le système, soit certifié
00:29:23 de la même manière que les dispositifs médicaux le sont
00:29:26 aujourd'hui, et c'est comme ça uniquement qu'on peut les mettre
00:29:29 sur le marché. Le troisième niveau, plus bas,
00:29:33 c'est quelque chose qui ne présente pas de risque majeur,
00:29:37 mais pour lequel on a des exigences de transparence.
00:29:40 Donc, si vous interagissez avec Chiajipiti, il faut savoir
00:29:43 que Chiajipiti est une machine, et non pas un être humain.
00:29:46 Et si Chiajipiti produit des images ou produit du texte,
00:29:52 il faut que ce texte soit marqué comme étant produit
00:29:55 par l'intelligence artificielle, ce qui n'est pas facile à faire.
00:29:58 Et le dernier niveau, le plus bas niveau, qui ne présente pas de risque,
00:30:02 beaucoup d'applications, c'est permis sans règlement particulier.
00:30:08 Donc, cette loi va s'appliquer dans 6 mois, dans 2 ans,
00:30:12 selon différents aspects, et elle devient donc une obligation
00:30:16 pour tous ceux qui développent ou ceux qui vendent
00:30:19 des systèmes d'intelligence artificielle en Europe.
00:30:21 Donc, c'est ça qui règle finalement les choses, et non pas
00:30:25 les 3 lois de la robotique d'Azimov, qui de nouveau ne sont pas
00:30:30 applicables dans la réalité, mais qui s'appuient sur des principes
00:30:34 éthiques bien connus. Le principe éthique, c'est faire le bien,
00:30:37 ne pas faire le mal, c'est la justice, c'est-à-dire traiter tout le monde
00:30:40 de la même manière, c'est l'autonomie humaine, c'est-à-dire que c'est
00:30:44 au final l'homme ou la femme, l'être humain qui doit décider.
00:30:48 - Nadia, tu voulais ? - Oui, juste, parce que là, en fait,
00:30:51 on parle uniquement de l'Europe. Or, l'intelligence artificielle,
00:30:54 ça concerne un phénomène absolument mondial. On parlait de la Chine.
00:30:59 Quand vous allez en Chine, la notation sociale par rapport à votre
00:31:04 comportement, il est effectivement noté, et surtout vous êtes surveillés
00:31:08 partout, puisque j'étais en Chine là très très récemment, et le...
00:31:12 - Vous avez eu combien ? - Ah non, nous, on n'était pas...
00:31:16 Les invités internationaux n'étaient pas notés, mais par contre,
00:31:19 les jeunes étudiants qui nous accompagnaient nous ont parlé de ce système,
00:31:23 ils l'avaient totalement bien intégré d'ailleurs, c'est-à-dire que pour eux,
00:31:26 c'était parfaitement normal, comme le fait d'avoir de la reconnaissance
00:31:30 faciale absolument partout, même pour entrer dans votre hôtel,
00:31:33 était considéré comme parfaitement normal. Voilà.
00:31:36 Et ce que je veux simplement dire, c'est que si en Europe, nous avons
00:31:40 effectivement ces lois, elles sont différentes, certainement en Asie,
00:31:45 certainement aux États-Unis, et donc on peut se poser quand même
00:31:49 la question de comment, en fait, l'intelligence, comment l'IA va évoluer,
00:31:54 si elle est traitée, en fait, différemment juridiquement,
00:31:58 dans les différentes zones de notre monde. Je n'ai pas la réponse, mais...
00:32:01 - Oui, en tout cas, il y a beaucoup de questions, et elles rejoignent
00:32:03 des questions politiques et des questions aussi sur l'éducation,
00:32:06 bien évidemment, parce qu'effectivement, de fait, les technologies,
00:32:11 c'est un catalyseur qui augmente les inégalités de fait,
00:32:14 puisqu'il y a ceux qui savent les utiliser et ceux qui ne savent pas.
00:32:17 Et sur l'IA, ce sera pareil que pour le reste, me semble-t-il.
00:32:20 Donc, on a fait un premier tour. Pour rebondir par rapport à tout ça,
00:32:25 j'aurais envie de vous demander, en fait, on a vu dans le film
00:32:28 l'évolution de Isaac Asimov. On sait aujourd'hui, en gros,
00:32:33 la question de l'habitabilité de la Terre, la question du réchauffement
00:32:36 climatique est très forte. On voyait bien qu'à la fin de sa vie,
00:32:39 visiblement, ça a commencé à le toucher, en fait, alors qu'au début
00:32:42 de sa carrière, ça n'existait pas, comme d'ailleurs dans beaucoup
00:32:45 d'auteurs de science-fiction. Est-ce qu'aujourd'hui, on peut dire
00:32:48 qu'Isaac Asimov est un auteur qui peut encore nous apporter vraiment
00:32:51 quelque chose lorsqu'on le lit ? Ou est-ce qu'il y a d'autres auteurs
00:32:54 d'une certaine façon qui, aujourd'hui, vont plus loin ?
00:32:57 Est-ce qu'il n'est pas aujourd'hui dépassé par, au fond, la façon
00:33:01 dont le monde évolue, que ce soit d'ailleurs au niveau des IA
00:33:03 ou au niveau de cet enjeu climatique ?
00:33:05 - Oui. Tu veux que je prenne la parole ? - Oui, vas-y.
00:33:08 - Voilà. Alors, je crois que... Oui, la question, c'est est-ce que
00:33:11 Isaac Asimov est daté, en fait ? - Voilà.
00:33:13 - C'est ça, la question, est-ce qu'il est dépassé, est-ce qu'il est daté ?
00:33:17 Alors, je pense que dans l'ensemble de ses réflexions, c'est toujours
00:33:20 quelqu'un qui a beaucoup réfléchi et sur sa pratique d'écrivain,
00:33:23 parce que quelqu'un qui écrit comme ça énormément, eh bien,
00:33:26 il y a un moment donné, il a quand même une réflexion
00:33:29 sur sa propre pratique. Et s'il a beaucoup réfléchi à la technologie,
00:33:33 donc via les robots, je pense qu'aujourd'hui, oui, effectivement,
00:33:37 on a un peu dépassé cette image. Si vous voulez, les robots d'Asimov,
00:33:41 c'est un peu l'imagerie de la science-fiction, c'est-à-dire des robots
00:33:45 humanoïdes, des robots pensants, des robots qui possèdent des émotions.
00:33:50 Moi, j'adore, "L'homme bicentenaire", c'est un de mes textes préférés.
00:33:54 C'est un magnifique film, presque un conte philosophique,
00:33:57 qui a été formidablement joué par Robin Williams en 1999.
00:34:02 Mais ça reste finalement une image qui, maintenant, est un petit peu dépassée,
00:34:07 parce qu'on sait très bien aujourd'hui que les robots vont certainement
00:34:12 plus être de véritables boîtes. Et dans, par exemple, un certain
00:34:17 nombre de films de science-fiction, on va retrouver des intelligences
00:34:21 artificielles. Je pense au film "Moon", par exemple, où c'est une intelligence
00:34:25 artificielle qui est enfermée dans une boîte et qui réagit avec des émojis.
00:34:29 Donc, vraiment très basique. Vous voyez, ça n'a rien à voir avec
00:34:33 l'imagerie de la science-fiction, mais ça se rapproche, en fait,
00:34:35 beaucoup plus, je crois, de la réalité. Donc, ce qu'il faut garder d'Asimov,
00:34:40 c'est vraiment la réflexion de fond sur le progrès humain,
00:34:45 sur aussi le progrès de l'histoire, parce que ça, on n'en a peut-être pas
00:34:48 suffisamment parlé, mais je crois que votre documentaire fait une très
00:34:52 grande part à cette réflexion-là. Et Asimov, que ce soit, par exemple,
00:34:56 dans le cycle de fondation, si vous n'avez jamais lu "Fondation",
00:34:59 ça, c'est pas du tout dépassé, par contre. Vous pouvez absolument le lire.
00:35:03 Et dans le cycle de fondation, il y a une vraie réflexion sur les choix politiques.
00:35:08 Donc, on en revient toujours un petit peu à la même chose, sur la conduite
00:35:12 d'un gouvernement, sur également le déterminisme politique,
00:35:16 c'est-à-dire l'ensemble des choix que l'on fait peuvent aboutir à telle
00:35:20 ou telle situation, et sur, évidemment, la pratique du pouvoir.
00:35:24 Parce que, très souvent, en science-fiction, on réfléchit à ces pratiques.
00:35:29 Si vous prenez "Star Wars", par exemple, on a basiquement l'opposition
00:35:33 entre une république et un empire. Et donc, dans "Fondation",
00:35:37 vous avez effectivement cet empire, parce que l'humanité a essémé
00:35:41 dans l'univers. Il y a un nombre absolument incalculable de planètes,
00:35:46 chose que nous ne connaîtrons certainement jamais. Mais, si vous voulez,
00:35:50 derrière, il y a cette allégorie du pouvoir, de la conduite de l'histoire.
00:35:54 Est-ce que, finalement, nous avons ou pas, et ça, c'est vraiment la question
00:35:57 centrale dans "Fondation", est-ce que nous avons ou pas, finalement,
00:36:01 la maîtrise, quelque part, de l'histoire ? Ou est-ce que l'histoire,
00:36:04 c'est un très vieux débat, ou est-ce que l'histoire n'est-elle, finalement,
00:36:07 qu'une succession d'actes hasardeux, chaotiques ?
00:36:11 Donc, parfois, il y a des décisions politiques fortes, et puis, parfois,
00:36:15 il y a des actes totalement hasardeux qui vont aller à contrario, finalement,
00:36:20 ou obliger nos gouvernants à prendre des décisions.
00:36:23 Et voilà, on parlait de la guerre, et je crois que, par exemple,
00:36:27 la conduite des guerres, moi, j'étais persuadée, vous voyez,
00:36:29 que bon, on avait, après la fin de l'histoire, on avait un petit peu dépassé
00:36:33 cette notion de guerre, et il y a deux ans, eh bien, le voilà,
00:36:36 des décisions de Poutine vis-à-vis de l'Ukraine nous ont montré que,
00:36:39 en fait, on était retourné au XXe siècle. Voilà, et ça veut dire,
00:36:43 et ça, c'est vraiment important, cette réflexion sur l'histoire,
00:36:46 et pour les jeunes générations, notamment, qui ont parfois tendance
00:36:49 à oublier de faire ces références au passé, et de réfléchir par rapport au passé,
00:36:54 il ne faut pas vivre dans un éternel présent, parce que, dans ces cas-là,
00:36:57 on prend les mauvaises décisions. Il faut toujours que toutes les décisions,
00:37:01 et c'est le message d'Asimov, et moi, en ce sens, je pense qu'il n'est pas du tout daté,
00:37:05 c'est par rapport à l'histoire qu'il faut réfléchir aux décisions
00:37:09 que nous allons prendre dans le présent.
00:37:11 - Radja ? - Oui, moi, je ne trouve pas qu'il soit daté,
00:37:14 parce que son message était très actuel, et effectivement, lui,
00:37:19 il a fait de la science-fiction basée sur la science,
00:37:24 et il a imaginé la science de demain par rapport à lui,
00:37:29 et il a écrit des choses qui sont tout à fait plausibles.
00:37:33 Donc, moi, je ne pense pas qu'il soit daté, et puis, en plus, il a posé de grands sujets,
00:37:37 on l'a vu pendant le film, dont Mathias a très bien rendu compte,
00:37:41 il a posé de grands sujets,
00:37:45 la croissance et le déclin des empires,
00:37:50 et de s'inspirer de l'Empire romain, comme il a dit,
00:37:54 et puis le changement climatique,
00:37:57 donc je pense que c'est... Non, je ne pense pas du tout qu'il soit daté.
00:38:01 Les robots dont il parle, c'est des robots qui possèdent une intelligence,
00:38:08 parce qu'un robot sans intelligence, c'est un outil mécanique qui fait des choses répétables,
00:38:13 donc l'intelligence artificielle, ça fait partie du robot,
00:38:17 sauf qu'aujourd'hui, on ne sait pas du tout faire des robots qui aient cette performance.
00:38:23 Pourquoi ? Parce que l'intelligence artificielle dont on parle beaucoup aujourd'hui,
00:38:28 elle est basée sur des données qu'on traite statistiquement,
00:38:31 alors que le robot, il est confronté au monde physique réel dans lequel nous vivons,
00:38:36 et qui est en fait bien plus complexe que les centaines de milliers de données
00:38:40 que l'IA va traiter à toute vitesse.
00:38:43 Parce que le monde change, parce qu'il est perçu partiellement,
00:38:47 parce qu'il a une complexité inhérente,
00:38:50 parce que la physique nous oblige à agir d'une certaine façon.
00:38:55 Tout cela, ça fait partie de notre intelligence humaine,
00:38:58 que les robots d'Isaac Asimov maîtrisaient,
00:39:02 mais que les robots d'aujourd'hui ne sont pas encore capables de maîtriser.
00:39:06 - Alors ce que j'ai dit, parce qu'il y a quand même 30 torts,
00:39:09 30 torts, c'est la ville de l'Empire, c'est la planète-ville de l'Empire,
00:39:13 il y a quand même une chose sur laquelle j'aimerais bien que Mathias réagisse par exemple,
00:39:17 c'est qu'il n'y a pas de non-humains chez Isaac Asimov,
00:39:22 sauf les robots, nulle part.
00:39:25 - Ah d'animaux ? - Non, jamais.
00:39:27 - Oui c'est possible, oui. - Et pas d'extraterrestres non plus.
00:39:30 - Donc moi ça me pose question honnêtement,
00:39:33 ça me pose question parce que la question du non-humain aujourd'hui est absolument majeure.
00:39:37 - Bien sûr. - Il ne l'a pas traité, du tout.
00:39:40 C'est un angle mort chez lui. - Oui, c'est un angle mort.
00:39:43 Il est plutôt intéressé par l'histoire humaine, c'est vrai.
00:39:47 Mais ce que j'ai trouvé intéressant et que j'ai essayé de montrer dans le film,
00:39:51 ce n'est pas sa théorie sur l'espèce humaine, c'est sa dialectique,
00:39:56 sa manière de penser.
00:40:00 Et là il y a quelque chose qui est toujours très moderne, en tout cas.
00:40:04 D'ailleurs il essaie de prôner quelques idées tout de même,
00:40:08 en disant qu'on ne s'en sortira pas si les décisions ne sont pas prises
00:40:12 au nom de l'espèce humaine, donc pas d'un côté l'Europe, les Etats-Unis, l'Asie, etc.
00:40:16 Il faut que ce soit des décisions communes, il faut qu'on réfléchisse en tant qu'espèce.
00:40:21 - Mais ceci dit, est-ce qu'on ne pourrait pas se dire que c'est un vœu pieux en tant qu'espèce ?
00:40:26 Sachant qu'en revanche, il y a une chose qui est certaine, c'est que lorsque
00:40:30 Elon Musk en 2018 envoie sa Tesla dans l'espace, il met dans ses références
00:40:34 la fondation d'Isaac Asimov, parce qu'il y avait les disques durs de fondation
00:40:39 dans la voiture d'Elon Musk. Donc est-ce qu'Isaac Asimov n'est pas au fond
00:40:44 le père d'Elon Musk, ce qui pourrait être un vrai problème ?
00:40:48 - Je le provoque exprès. - Bien sûr, mais il est le père de
00:40:52 toutes les générations d'humains venus derrière lui, c'est-à-dire
00:40:56 ceux qui vont nous tuer ou ceux qui vont nous sauver.
00:41:00 Il a réfléchi sur les deux. - Justement, la question que je veux poser
00:41:04 pour terminer avant de laisser la place aux questions, c'est au fond, quel rapport
00:41:08 entre la science, les technologies et la science-fiction, et les auteurs et les écrivains ?
00:41:13 Quel est aujourd'hui ce rapport et quel pourrait-il être, d'après vous ?
00:41:17 Natasha peut-être, et Raja après ? - Oui, tout simplement, dans le mot
00:41:21 science-fiction, déjà vous avez le mot science, c'est une évidence,
00:41:26 mais il faut quand même le rappeler, c'est-à-dire, ça a été très bien dit
00:41:31 dans le documentaire, on peut faire remonter la science-fiction, évidemment,
00:41:35 jusqu'à l'Antiquité, et ça c'est une idée que je partage totalement
00:41:39 au niveau de la thématique, mais après dans la réalité des récits et de la
00:41:43 production littéraire, en fait, ça a vraiment, ça a né à partir de la
00:41:47 seconde moitié du XIXe siècle, avec la révolution industrielle,
00:41:52 et avec aussi le développement de la science. Et alors, je crois qu'on a,
00:41:56 il a parlé de Campbell, par contre il n'a pas beaucoup parlé de Gauguin-Sbach,
00:41:59 qui en fait a été, à partir des années 1920 aux États-Unis, c'était un luxembourgeois
00:42:04 qui avait émigré aux États-Unis, et qui a créé le premier, donc les fameux
00:42:08 "pulps" que Asimov lisait quand il était jeune, quand il était petit.
00:42:14 Et donc Gauguin-Sbach avait bien insisté, d'ailleurs ça ne s'appelait pas
00:42:18 des magazines de science-fiction, mais des magazines de "scientifiction"
00:42:22 en anglais, c'est-à-dire qu'il fallait qu'il y ait obligatoirement un fait
00:42:26 scientifique à la base de l'histoire et de la créativité, en fait,
00:42:30 de cette nouvelle façon de raconter des histoires.
00:42:36 Mais tout ça, je veux dire, 1920, ça existait bien avant, puisqu'en France,
00:42:40 nous avons eu, à partir des années 1880, ce qu'on a appelé, jusqu'aux années
00:42:44 à peu près 1910, jusqu'à la Première Guerre mondiale, ce qu'on a appelé
00:42:48 le "merveilleux scientifique", c'est-à-dire que la science, les avancées
00:42:52 scientifiques de cette époque étaient tellement extraordinaires que
00:42:56 on les a présentées comme des merveilles, et parfois on parlait même, voyez,
00:43:00 de romans fantastiques, avec un floutage évidemment générique absolu,
00:43:04 pour parler donc des évolutions de la science.
00:43:08 Par exemple, Marie Curie et la découverte du radium,
00:43:12 si vous saviez le nombre d'histoires qui ont été inventées en France
00:43:16 à propos justement de la découverte de la radioactivité,
00:43:20 mais qui étaient, à l'époque, présentées comme un fait extraordinaire.
00:43:24 Par exemple, mesdames et messieurs, il y avait des crèmes, moi j'ai découvert ça
00:43:28 en travaillant sur ces sujets-là, il y avait des crèmes à base de radium
00:43:32 en 1925. - Ça bouffe en vie, non ?
00:43:36 - Je vous le dis, voyez, et donc c'était présenté comme
00:43:40 une véritable merveille. Donc, dès l'origine de la science-fiction,
00:43:44 la science a eu une part extrêmement importante, qui fait qu'aujourd'hui,
00:43:48 moi j'appartiens à un programme de recherche où je travaille notamment avec un laboratoire
00:43:52 d'astrophysique, où justement on essaie de théoriser
00:43:56 ces rapports entre science et science-fiction. Aujourd'hui, on peut parler de
00:44:00 co-évolution, c'est-à-dire qu'en fait, non seulement les scientifiques
00:44:04 sont de très très grands lecteurs de science-fiction, et je pense que vous en êtes
00:44:08 une des preuves aujourd'hui ici, mais que les auteurs
00:44:12 de science-fiction sont eux-mêmes parfois des scientifiques, et quand ils ne le sont pas,
00:44:16 évidemment ils s'intéressent extrêmement aux découvertes
00:44:20 scientifiques et aux dernières technologies. Ce sont des gens qui se tiennent
00:44:24 toujours toujours à la pointe de la technologie.
00:44:28 Une de nos écrivaines françaises, qu'Arielle connaît bien, qui s'appelle Catherine Dufour,
00:44:32 elle est ingénieure informaticienne et elle n'écrit pas
00:44:36 de la science-fiction par hasard. Il y a ce rapport
00:44:40 co-substantiel entre la science et la science-fiction
00:44:44 qui est très fort et qui continue encore plus
00:44:48 maintenant de se développer. - Radja ? - Oui, moi je pense
00:44:52 que les auteurs de science-fiction sont des gens formidables
00:44:56 parce qu'ils inventent des futurs possibles.
00:45:00 Ils font des expériences de pensée.
00:45:04 Ils nous plongent dans ces mondes possibles, dans ces expériences
00:45:08 de pensée. Les scientifiques souvent en raisonnent en termes d'expériences de pensée,
00:45:12 ils imaginent. Einstein adorait ça. Vous êtes dans un train
00:45:16 qui roule à une certaine vitesse. Est-ce que quand vous vous déplacez dans le train, vous allez
00:45:20 à la même vitesse que... ou bien est-ce que vous vous êtes accéléré ? Si vous êtes
00:45:24 dans un photon, c'est-à-dire un grain de lumière, vous vous déplacez à une vitesse constante,
00:45:28 quelle que soit la vitesse du train. Donc ça permet d'engager la pensée
00:45:32 et effectivement ça inspire beaucoup. Les gens de la...
00:45:36 enfin les industriels de la Silicon Valley, Elon Musk et d'autres sont aussi...
00:45:40 ont aussi été nourris à la science-fiction.
00:45:44 Ils inventent des scénarios. Donc ces scénarios inspirent. Et quand ils inspirent,
00:45:48 on invente des choses qui n'existent pas. Mais attention, ils ne pensent pas à tout.
00:45:52 Évidemment. Ils pensent à des futurs possibles et il y a des choses auxquelles
00:45:56 ils ne pensent pas. Et donc moi je pense que la science-fiction, c'est aussi
00:46:00 un moteur pour la science. Lire de la science-fiction, c'est
00:46:04 réfléchir dans un sens scientifique. En l'occurrence, "Odyssée de l'espace",
00:46:08 c'est un véritable film et un roman d'abord de...
00:46:12 - C'est les deux en fait. C'est le scénario et le roman qui ont été écrits en même temps.
00:46:16 - C'est deux science-fiction. Je vois "Star Wars" comme étant moins de la science-fiction.
00:46:20 C'est une saga qui... accessoirement,
00:46:24 il y a de la science-fiction, d'une certaine façon. Et c'est ça qui est fantastique.
00:46:28 C'est des vrais romans de science-fiction qui nous font réfléchir à ce qui est
00:46:32 possible de faire ou de ne pas faire, mais qui fait effectivement
00:46:36 fructifier l'imagination. - Mathias, quand même, au sortir du film,
00:46:40 finalement, est-ce que cette co-évolution de l'un et de l'autre a semblé évidente ? - Oui.
00:46:44 Oui. Et d'ailleurs, Asimov dit aussi que
00:46:48 ce n'est pas que le travail des écrivains de science-fiction. Il dit quelque part, toute bonne
00:46:52 littérature est censée, il dit, "illuminer l'espèce humaine",
00:46:56 c'est-à-dire offrir des éclairages sur ce qu'on vit
00:47:00 pour nous permettre de regarder sous un autre angle
00:47:04 nos propres vies et avancer dans nos expériences.
00:47:08 Tous les écrivains devraient faire ça. Les écrivains de science-fiction vont encore plus loin.
00:47:12 - Pour info, le métavers a été inventé par Nell Stéphanson en 1992
00:47:16 dans un roman qui s'appelle "Snow Crash", le samouraï virtuel, avant d'être pris par
00:47:20 ce petit nidier de Mark Zuckerberg.
00:47:24 Si je puis me permettre. - Je crois que c'est l'heure des questions. - Oui, c'est l'heure des questions.
00:47:28 Donc, allez-y, levez la main et...
00:47:32 C'est à vous de jouer.
00:47:36 - Oui, bonsoir. Vous m'entendez ? - Oui, oui, très bien. - J'ai une question pour
00:47:40 M. Terry et une pour M. Shatila. J'ai beaucoup aimé
00:47:44 votre film. Juste, j'ai pas compris, en fait,
00:47:48 est-ce que c'est uniquement le dernier plan dans lequel sa voix change
00:47:52 dans lequel vous avez utilisé l'IA ou est-ce que ça a été utilisé à d'autres
00:47:56 moments du film ? - C'est à chaque fois que vous voyez le...
00:48:00 Le dernier plan, c'est le même que le premier plan. C'est celui où on met la cassette vidéo au début
00:48:04 et à chaque fois qu'on le voit apparaître. Et en gros, c'est le...
00:48:08 Tous les moments du film où il nous parle en voix off, on va dire.
00:48:12 Toute cette partie-là est une composition de plein de textes
00:48:16 d'Isaac Asimov où j'ai compilé plein d'extraits pour créer un discours
00:48:20 qui est le discours du film. C'est juste cela. - Donc il s'est
00:48:24 adressé aux générations futures mais dans un texte ? - Oui. Il a fait des articles
00:48:28 où il s'amusait à écrire l'humain du futur.
00:48:32 Ça, il l'a fait à plusieurs reprises. Je trouvais ça intéressant.
00:48:36 Et du coup, ça devient l'introduction du film et ensuite,
00:48:40 tous ses développements, il le faisait dans des textes où c'était
00:48:44 pas directement adressé à aujourd'hui mais c'était adressé au lecteur.
00:48:48 - Ok. Et j'avais aussi une question pour M. Chattilard. Vous avez
00:48:52 parlé tout à l'heure de la réglementation européenne
00:48:56 mais moi, il me semble que l'appellation d'intelligence artificielle est fautive
00:49:00 parce que c'est juste des machines qui
00:49:04 ont nourri de tonnes d'informations et qui les ressortent
00:49:08 mais c'est ce que vous disiez sans faire preuve vraiment d'intelligence.
00:49:12 Et du coup, j'ai l'impression qu'on peut mettre toutes les règles en place
00:49:16 qu'on veut mais si un employeur voit qu'en utilisant l'IA,
00:49:20 il va pouvoir faire la même chose mais beaucoup plus vite avec une machine
00:49:24 qu'avec un être humain, ça ne va pas l'empêcher d'utiliser une machine.
00:49:28 - Je crois que ça, ce n'est pas interdit. Ça fait longtemps que les machines
00:49:32 remplacent les humains dans les usines. Ça va juste aller crescendo.
00:49:36 Mais en fait, on voit souvent dans la science-fiction des scénarios où
00:49:40 la race humaine va être anéantie par l'IA
00:49:44 mais dans la réalité, est-ce que ce n'est pas plutôt les gens qui vont perdre leur boulot
00:49:48 qui vont être mis au chômage et les événements
00:49:52 des fake news qui vont envenimer... - J'ai envie de reprendre votre question
00:49:56 pour la reposer parce qu'elle me semble essentielle. C'est-à-dire que
00:50:00 vous dites qu'il y a un problème avec
00:50:04 la définition du mot "intelligence artificielle". J'ai l'impression que
00:50:08 c'est une notion hyper abstraite alors qu'on est face à plein de cas très concrets
00:50:12 qui ne sont pas forcément toujours les mêmes choses et qu'on devrait
00:50:16 gagner en connaissance de toutes ces définitions.
00:50:20 Qu'est-ce qu'il y a derrière ce flou artistique de l'IA ?
00:50:24 - La définition de l'IA, il faut remonter
00:50:28 plusieurs dizaines d'années. Le mot, l'expression "intelligence
00:50:32 artificielle" a été utilisé pour la première fois en 1956.
00:50:36 C'était des scientifiques américains
00:50:40 mathématiciens pour la plupart, l'informatique n'existait pas en tant que science,
00:50:44 qui ont, dans une conférence,
00:50:48 dans un séminaire, proposé d'étudier
00:50:52 l'intelligence artificielle, c'est-à-dire faire tout ce que
00:50:56 les humains peuvent faire via des machines, c'est-à-dire ordinateurs.
00:51:00 C'est un programme de recherche. Ce programme de recherche
00:51:04 se poursuit depuis 1956 et il avance, il recule
00:51:08 parfois, etc. Malheureusement, le terme
00:51:12 "intelligence artificielle" qui a été introduit par eux est porteur d'énormément d'ambiguïté
00:51:16 bien sûr, donc il est porteur d'imaginaire,
00:51:20 etc. Je ne vais pas détailler trop.
00:51:24 La question de l'emploi est fondamentale évidemment, mais je généralise
00:51:28 ce n'est pas que l'intelligence artificielle qui va effectivement
00:51:32 être utilisée pour faire des choses que des humains font
00:51:36 parce que toutes les technologies sont inventées dans ce but
00:51:40 d'une certaine façon. Je vais prendre une technologie extrêmement simple,
00:51:44 ça s'appelle la pompe et la tuyauterie qui fait que quand vous ouvrez votre robinet
00:51:48 il y a de l'eau qui coule, il n'y a plus de puits à thier.
00:51:52 Cette réalisation technologique a éliminé les puits à thier.
00:51:56 Certainement le premier puits à thier,
00:52:00 ou le dernier puits à thier. Mais vous voyez, je veux dire que
00:52:04 on est toujours dans une situation où au lieu de faire
00:52:08 un certain travail qui est plutôt pénible, qui prend du temps, etc.
00:52:12 on est en train d'écouter des gens dire n'importe quoi dans une salle.
00:52:16 C'est quand même assez... une évolution,
00:52:20 un progrès assez remarquable.
00:52:24 Donc la technologie sert à ça et l'intelligence artificielle va évidemment
00:52:28 remplacer des humains, faire des choses que les humains font
00:52:32 mais aussi créer de nouveaux emplois,
00:52:36 de nouvelles possibilités.
00:52:40 L'objectif finalement c'est que ça va rendre
00:52:44 notre vie plus simple, plus facile. Ça ne veut pas dire que ça va se passer sans problème.
00:52:49 La révolution industrielle dont on parle depuis tout à l'heure,
00:52:53 avec des révoltes, des révolutions du sang,
00:52:57 c'est pour ça qu'il faut politiquement et socialement
00:53:01 gérer cette transformation.
00:53:03 - En tout cas c'est un grand débat.
00:53:05 Une autre question peut-être ? Sachant que le terme "intelligence artificielle"
00:53:09 a été créé dans le monde anglo-saxon et que le terme "intelligence"
00:53:13 dans le monde anglo-saxon n'a pas le même sens que pour nous.
00:53:16 C'est un sens logico-déductif, c'est un type d'intelligence,
00:53:19 mais toutes les intelligences telles que nous n'en sommes pas en souhait.
00:53:22 - Un algorithme n'est pas une intelligence,
00:53:25 une calculette n'est pas une intelligence.
00:53:27 - Je vais rebondir sur la question précédente,
00:53:31 en citant notamment le philosophe Miguel Benasaya
00:53:36 qui a travaillé sur la comparaison entre l'intelligence artificielle
00:53:40 et l'intelligence humaine.
00:53:44 La différence principale, c'est que le robot n'a pas de conscience.
00:53:53 La conscience, les émotions, c'est quelque chose qui n'est pas envisageable pour une machine.
00:54:02 Ce qui me semble intéressant chez Asimov, c'est toute la réflexion éthique,
00:54:08 c'est-à-dire comment penser l'éthique par rapport aux machines, par rapport aux robots.
00:54:14 Alors que par contre, il me semble un peu daté,
00:54:18 et on le voit dans le documentaire qui est passionnant,
00:54:22 et j'aime beaucoup Asimov, de toute manière,
00:54:25 mais quand il dit à un moment donné "un cerveau humain n'est jamais qu'une machine,
00:54:32 c'est des connexions comme une machine",
00:54:34 c'est extrêmement naïf,
00:54:36 parce que la réalité, la pensée humaine ne fonctionne pas du tout comme un ordinateur,
00:54:42 et qu'un cerveau, si vous mettez un cerveau comme ça dans l'air,
00:54:45 il ne va pas penser, parce qu'il faut qu'il soit plongé dans un corps,
00:54:48 lui-même dans une culture, dans un environnement.
00:54:51 Si vous prenez des individus et que vous les faites grandir dans la forêt,
00:54:56 ils ne penseront pas.
00:54:58 J'aimerais avoir vos réactions éventuellement là-dessus,
00:55:01 sur cette différence et sur ce que Asimov a pu amener comme réflexion intéressante,
00:55:07 et sur ses limites aussi, peut-être.
00:55:09 Je vais faire comme tout à l'heure, je vais doubler votre question.
00:55:12 En effet, j'ai l'impression qu'aujourd'hui, je n'ai pas encore eu la preuve
00:55:17 d'assister à une véritable intelligence de la machine.
00:55:20 J'ai vu des super ordinateurs, des super calculateurs, des algorithmes complexes.
00:55:24 Est-ce qu'on est, ou est-ce qu'on arrive, on va voir venir quelque chose
00:55:30 qui se rapproche plus de l'intelligence, comparable à l'intelligence humaine,
00:55:34 ou est-ce qu'on est juste avec des super calculettes ?
00:55:37 Moi je crois que d'abord il faut faire la différence, peut-être on ne l'a pas dit,
00:55:40 mais entre l'intelligence générale, c'est nous, c'est-à-dire des êtres
00:55:44 qui sont capables de prendre des décisions, de penser, d'analyser.
00:55:47 Quand je discute souvent avec les collègues qui travaillent sur l'IA,
00:55:52 ils me disent notamment que par exemple un humain est capable d'apprendre
00:55:57 un jeu de cartes, d'apprendre des jeux très très facilement.
00:56:00 Une machine ou une intelligence spécialisée, elle va mettre du temps,
00:56:06 il va falloir vraiment la programmer, réfléchir, pour lui faire apprendre
00:56:10 des tâches que nous nous mettons très très peu de temps.
00:56:14 - C'est un animal. - Exactement.
00:56:17 Et donc par rapport à ce que disait Asimov, je reviens à l'homme bicentenaire,
00:56:22 parce que dans l'homme bicentenaire, il y a vraiment cette réflexion,
00:56:26 il y a cette image du cerveau positronique, et ce cerveau-là,
00:56:33 c'est un cerveau qui est capable justement d'apprendre par rapport à des émotions,
00:56:38 mais il apprend aussi parce qu'il est dans un corps.
00:56:41 Et donc la première prise de conscience du robot, ce sera peut-être ça,
00:56:44 à l'avenir, je ne sais pas, mais la première prise de conscience,
00:56:47 c'est finalement je suis dans un corps, ce corps est limité,
00:56:51 je ne peux pas ressentir certaines choses, je ne peux pas toucher,
00:56:54 il se pose des questions par rapport aux larmes, quand il voit les humains pleurer, etc.
00:56:58 Et donc il y aurait tout un, encore une fois on ne peut pas parler d'apprentissage,
00:57:03 mais il y aurait tout un ensemble de perceptions finalement
00:57:07 que la machine devrait apprendre pour peut-être commencer d'éprouver
00:57:11 des émotions qui pour nous sont totalement évidentes.
00:57:15 - Une dernière question peut-être ? Ou deux très courtes.
00:57:19 - Est-ce que je peux juste rebondir sur la question du corps,
00:57:22 ça m'intéressait en fait, je me suis noté,
00:57:25 est-ce que ce qui n'est pas daté justement dans la vision d'Azimov,
00:57:27 ce n'est pas la vision d'un robot extérieur comme un individu,
00:57:31 donc j'avais noté exosomatique parce que j'aimais bien ce terme,
00:57:35 plutôt que la grande réticulation justement qu'il y a en ce moment
00:57:38 de toutes les machines les unes avec les autres dans une espèce de grand espace.
00:57:42 Et je me questionnais sur le corps au fond,
00:57:46 est-ce que ce n'est pas devenu obsolète dans la mesure où Neuralink,
00:57:50 l'entreprise d'Elon Musk a réussi la grève de cette puce dans le cerveau
00:57:53 il y a quelques semaines ?
00:57:55 - Non, non, non.
00:57:56 - Il n'y a pas eu ces histoires ? Alors je veux bien qu'on me corrige justement là-dessus.
00:57:59 Mais je voulais savoir ce que vous en pensiez en tant que spécialiste de robotique
00:58:02 sur ces histoires justement d'intégration en direct avec le corps
00:58:07 qui n'est pas un corps extérieur comme un organe de repos
00:58:11 mais qui est en fait le corps humain lui-même, le cerveau en lien avec la puce.
00:58:17 - Je crains qu'elle soit à Raja à le répondre.
00:58:20 - Oui, non mais ça c'est des implants effectivement qui communiquent avec le cerveau.
00:58:27 Ça existe depuis longtemps, je vous rassure, ou pas.
00:58:31 Donc qui permettent d'envoyer des signaux électriques au cerveau
00:58:37 ou de recevoir des signaux électriques du cerveau.
00:58:40 La personne qui est atteinte d'un certain...
00:58:45 - Des frappes légiques en fait.
00:58:47 C'est quelqu'un qui a des frappes légiques.
00:58:49 - On peut stimuler certaines zones du cerveau pour que la personne retrouve des fonctions.
00:58:58 Parmi les usages bien connus, c'est la maladie de Parkinson
00:59:03 où la stimulation d'une région du cerveau
00:59:08 qui en fait est une sorte de zone qui donne le rythme de la marche,
00:59:15 le rythme des actions en fait,
00:59:17 quand elle est stimulée, le parkinsonien retrouve sa capacité à agir.
00:59:23 Bon, ça fonctionne pendant une dizaine d'années, après ça ne fonctionne plus pour d'autres raisons.
00:59:26 Alors, toujours est-il que la question éthique qui est posée,
00:59:33 c'est est-ce qu'on peut contrôler des êtres humains à travers des programmes d'ordinateurs
00:59:38 et donc interférer avec leur autonomie.
00:59:42 C'est ça la véritable question éthique qui est posée.
00:59:44 Mais l'autre question, si vous voulez, c'est que...
00:59:51 mais ça, ça existe aussi, mais avec des systèmes d'IA, on peut faire des choses.
00:59:57 En lisant, quand vous faites un scanner ou une imagerie fonctionnelle du cerveau,
01:00:05 vous voyez des zones s'allumer, c'est-à-dire c'est là où le sang vient,
01:00:08 donc ce sont ces zones-là qui sont irriguées,
01:00:12 c'est-à-dire c'est là qu'elles sont en train de fonctionner.
01:00:14 On peut en déduire, selon les zones en question cérébrales,
01:00:18 ce que la personne active, pas ce qu'elle est en train de penser.
01:00:24 Ce que la personne active.
01:00:26 Donc on peut aussi essayer d'interpréter l'état d'esprit de la personne
01:00:31 et on peut aussi effectivement contrôler.
01:00:33 Là, il y a de véritables questions éthiques absolument profondes et importantes
01:00:37 sur ces neurotechnologies qui sont posées,
01:00:40 où l'IA peut venir, parce qu'elle traite des données,
01:00:43 peut venir ajouter à la capacité de la machine,
01:00:49 mais ce n'est pas le problème de l'IA en tant que tel,
01:00:53 et le contrôle de l'être humain par les machines,
01:00:57 bon, ça, ce n'est pas encore pour demain,
01:01:01 parce qu'on ne comprend déjà pas très bien comment le cerveau fonctionne,
01:01:04 donc pour le contrôler, c'est une autre affaire.
01:01:06 Ou alors il faut se référer à Matrix,
01:01:09 où les êtres humains produisaient simplement de l'énergie.
01:01:13 On va essayer d'être rapide, parce qu'il faut qu'on ferme bientôt.
01:01:15 Il y avait une question là, puis la jeune femme, là, ici, avait demandé aussi.
01:01:19 Question très simple, j'aurais voulu savoir, en littérature occidentale,
01:01:23 est-ce que c'est Jules Verne le premier à avoir écrit, à lancer la science-fiction,
01:01:28 ou est-ce qu'il s'est inspiré d'autres auteurs déjà, auparavant ?
01:01:32 C'est 18e siècle.
01:01:34 Oui, pardon, très très rapidement, parce que ça, c'est un énorme débat.
01:01:38 Enfin, débat ou point d'histoire de la science-fiction.
01:01:42 En fait, on peut se poser la question, est-ce que Jules Verne,
01:01:45 qui est souvent considéré comme le père de la science-fiction,
01:01:48 a-t-il réellement écrit de la science-fiction ?
01:01:50 En fait, il anticipe sur la technologie à venir,
01:01:53 par exemple, le Nautilus, c'est un engin qui fonctionne à l'électricité.
01:01:58 Par exemple, dans ses deux romans,
01:02:01 qui évoquent donc de la Terre à la Lune et autour de la Lune,
01:02:05 il va parler d'une fusée qui n'atterrit pas sur la Lune,
01:02:10 d'ailleurs, qui reste en fait autour de la Lune.
01:02:13 Moi, je pense que c'était un grand vulgarisateur scientifique.
01:02:17 Et il a mis en avant, véritablement, le rôle de la science dans la société
01:02:22 et de futures grandes inventions.
01:02:25 Il a, en quelque sorte, poétisé la science et la mise en scène.
01:02:30 C'est la science-fiction, oui.
01:02:32 Mais si vous voulez, d'un point de vue de la thématique de la science-fiction,
01:02:37 d'autres thèmes, par exemple,
01:02:39 Jules Verne n'a jamais parlé ni de voyages dans le temps, ni de mutations,
01:02:43 il parle un petit peu de technologie du futur,
01:02:46 mais il ne se situe jamais dans le futur.
01:02:48 Donc, je pense que, oui, c'est un des éléments,
01:02:51 c'est un des pères de la science-fiction,
01:02:53 mais l'autre auteur qui, lui, par contre,
01:02:55 a réellement développé la science-fiction moderne telle qu'on la connaît,
01:02:58 c'est Wells, c'est Herbert George Wells.
01:03:00 Et les deux auteurs se connaissaient assez bien,
01:03:03 ils ont même correspondu ensemble.
01:03:05 Et je pense qu'il faut les prendre, les deux ensemble,
01:03:08 pour se dire que dans cette période,
01:03:10 c'est-à-dire à peu près la moitié du 19e siècle,
01:03:13 la science-fiction est née grâce à eux.
01:03:15 Il y a Brian Aldiss, en fait, qui est un auteur de science-fiction,
01:03:18 qui ajoute, et je suis d'accord avec lui,
01:03:20 qu'il faut rajouter Mary Shelley,
01:03:22 parce qu'en 1818, lorsqu'il y a Frankenstein ou le Prométhée moderne,
01:03:25 il y a quelque chose d'assez unique,
01:03:27 c'est qu'elle défend des mythes, celui de la création et de la destruction de la vie,
01:03:31 des mythes qui appartiennent à la religion,
01:03:34 et en quelque sorte, elle les fait entrer dans le monde profane,
01:03:37 puisque le docteur Frankenstein, il crée sa créature à des fins de connaissances.
01:03:41 Et ce moment-là, 1818, Mary Shelley, pour moi,
01:03:44 et je trouve ça plutôt sympathique que ce soit une femme,
01:03:47 qui soit la reine de la science-fiction.
01:03:49 - C'est ce que j'allais te dire, c'est qu'en fait, la science-fiction n'a pas un père,
01:03:51 mais bien une mère, donc c'est plutôt sympa.
01:03:54 - Et beaucoup d'enfants.
01:03:56 - Et la jeune femme.
01:03:58 - La jeune femme, puis monsieur, puis madame, puis...
01:04:02 - Après, il faudra qu'on arrête peut-être.
01:04:04 - Moi, j'avais une question, surtout pour vous, en tant que réalisateur,
01:04:08 en tant que public, quand je regarde un documentaire
01:04:10 et que je vois un comédien interpréter Asimov,
01:04:12 je sais dès le départ que c'est un comédien,
01:04:14 et donc que c'est une construction du récit fait par l'auteur-réalisateur qui l'a fait.
01:04:19 Là, dans ce cas-là, je le découvre à la fin, si je ne le sais pas avant,
01:04:22 est-ce que vous vous êtes posé des questions d'éthique ?
01:04:24 Parce que autant, effectivement, c'est les propos d'Asimov,
01:04:27 mais la construction et l'ordre dans lesquels vous les mettez
01:04:30 ne sont pas une construction d'Asimov, mais de vous en tant qu'auteur,
01:04:33 est-ce qu'il y a des questions éthiques ?
01:04:34 - Réponse courte.
01:04:35 Évidemment, énormément de questions éthiques, systématiquement, dans tous mes films.
01:04:39 Pour moi, je suis très attaché à ce qu'on appelle le pacte documentaire,
01:04:43 c'est-à-dire qu'est-ce que le spectateur sait, etc.
01:04:45 Je communique beaucoup, même, dans tous mes films là-dessus.
01:04:48 Dans celui-ci, il est très important pour moi
01:04:51 que le spectateur soit très bien documenté sur ce qui a été fait exactement.
01:04:56 Mais sur ce projet-ci, je voulais que le spectateur fasse l'épreuve de la tromperie.
01:05:01 Il ressort du film en se disant "on peut se faire avoir".
01:05:04 C'est juste ce détail-là, mais tout en étant totalement transparent.
01:05:07 C'est-à-dire que le spectateur peut se dire "ok, je suis au courant de tout ce que je viens de voir.
01:05:13 Je sais là où j'étais trompé, là où ça a été vrai.
01:05:15 La fin liste bien ce qui est faux, ce qui est vrai, etc."
01:05:19 Et voilà, essentiel pour moi, toujours.
01:05:22 Monsieur ?
01:05:24 La question que je me pose, c'est par rapport à la technologie.
01:05:27 Je considère que l'IA...
01:05:29 [Rires]
01:05:31 Le coup près, voilà. Sur le menton.
01:05:33 C'est la tactique en fait qu'on a habitué.
01:05:35 [Rires]
01:05:37 Vous comprenez ?
01:05:38 Oui, super.
01:05:39 Je considère que l'IA, en quelque sorte, ce sont des manières d'approche d'application,
01:05:44 des algorithmes, des programmations.
01:05:46 Et les technologies, c'est effectivement les investisseurs qui vont permettre à l'IA
01:05:50 de faire beaucoup de choses dans plusieurs domaines.
01:05:52 Domaine médical, domaine autre.
01:05:57 Et aujourd'hui, la question que je me pose, c'est...
01:06:00 Il y aura des investisseurs au niveau technologique pour faire développer ces applications.
01:06:05 Et qui vont orienter notre vision, notre pensée, sans doute.
01:06:09 Parce que les investisseurs n'auront pas cette ontologie
01:06:12 qu'on peut avoir au niveau gouvernemental d'un pays où...
01:06:16 En quelque sorte.
01:06:17 Oui.
01:06:18 [Rires]
01:06:21 Vous avez raison.
01:06:23 Je vais prendre l'exemple de ChatGPT
01:06:25 qui a été déployé au grand public, disons.
01:06:30 Alors qu'il ne fonctionne pas bien.
01:06:33 Et il est porteur de beaucoup d'erreurs.
01:06:36 Donc, il y a une certaine responsabilité
01:06:39 de la part de ceux qui l'ont déployé
01:06:41 de mettre au main du grand public quelque chose
01:06:44 qui s'appelle "intelligence artificielle", etc.
01:06:47 Et qui va produire des données fausses.
01:06:50 Qui va produire des choses qu'il ne comprend absolument pas
01:06:54 mais sur lesquelles nous, on projette.
01:06:56 Et ça, c'est la responsabilité de celui qui investit
01:06:59 de celui qui met sur le marché des choses immatures.
01:07:03 Allez, une ultime question avant de clore ce débat.
01:07:07 Alors voilà, ma question c'est
01:07:10 est-ce qu'il ne faudrait pas tout d'abord
01:07:12 se poser la question que l'intelligence artificielle
01:07:16 elle est d'abord créée par l'humain ?
01:07:21 Parce que, à ce que je sache,
01:07:24 un ordinateur ne se crée pas tout seul.
01:07:28 Donc, premièrement, il ne se crée pas tout seul
01:07:32 et deuxièmement, il suffit de le débrancher
01:07:34 pour qu'il se taise.
01:07:37 Voilà.
01:07:38 C'est un outil créé par les humains
01:07:40 mais question, est-ce qu'il y a déjà des ordinateurs
01:07:43 créés par les ordinateurs ?
01:07:47 Non, pas entièrement.
01:07:48 Pas encore ?
01:07:49 Les ordinateurs sont un outil qu'on peut utiliser
01:07:53 c'est-à-dire des programmes
01:07:55 qu'on peut utiliser pour concevoir d'autres ordinateurs.
01:07:57 Aujourd'hui, c'est impossible de faire autrement.
01:07:59 D'ailleurs, quand on écrit des programmes
01:08:03 ça tourne et on va utiliser d'autres ordinateurs
01:08:06 pour créer de nouveaux programmes.
01:08:08 Donc, bien sûr que c'est créé par un être humain
01:08:10 en utilisant l'outil qui est l'ordinateur lui-même
01:08:13 mais une autre génération.
01:08:15 Oui, de toute façon, c'est créé par des humains.
01:08:18 C'est en ça que c'est important d'affirmer encore et toujours
01:08:22 la responsabilité de l'être humain
01:08:25 dans le développement, dans le déploiement,
01:08:28 dans l'utilisation de la technologie.
01:08:30 Et la responsabilité de l'être humain, ça veut dire que
01:08:33 nous devons, en tant que citoyens,
01:08:37 ne pas ignorer cela et agir pour que
01:08:40 ces technologies restent sous notre contrôle.
01:08:42 Et pour répondre ou rebondir sur votre dernière remarque sur l'énergie
01:08:48 en fait, c'est absolument fondamental.
01:08:50 C'est-à-dire que sans électricité
01:08:52 ou avec des problèmes d'électricité
01:08:54 ou d'acheminement d'énergie
01:08:56 tout ceci n'existera plus.
01:08:58 Et la science-fiction, on le dit bien d'ailleurs
01:09:00 dans notamment toutes les œuvres post-apocalyptiques
01:09:03 où la première chose qui s'arrête, c'est bien évidemment la technologie.
01:09:07 J'ai été à la RoboCup à Bordeaux,
01:09:10 qui était à Bordeaux l'année dernière,
01:09:12 j'ai été absolument sidérée de voir
01:09:14 alors je ne sais pas si vous voyez les robots
01:09:17 qui ressemblent à des chiens de garde là.
01:09:20 Vous voyez ça, ils sont jaunes,
01:09:22 je n'ai plus le nom, excusez-moi,
01:09:24 je n'ai pas mémorisé.
01:09:26 Il y en a qui s'appelle Spot aussi.
01:09:30 Et en fait Spot,
01:09:32 je voulais absolument le voir marcher
01:09:34 parce qu'il est quand même un petit peu flippant comme robot.
01:09:37 Et bien en fait, je n'ai pas pu le voir marcher
01:09:39 parce qu'il fallait le recharger,
01:09:41 il m'était quasiment une demi-journée à recharger
01:09:43 pour une demi-journée de fonctionnement.
01:09:45 Là je me suis dit, ah ouais, quand même,
01:09:47 on est loin de Terminator.
01:09:49 Bon, si vous voulez bien, on va arrêter là,
01:09:51 on peut applaudir nos intervenants.
01:09:53 (Applaudissements)

Recommandations