Pourquoi encore penser à l'heure de l'intelligence artificielle (2024)

  • il y a 3 mois
Le documentaire "Pourquoi encore penser à l'heure de l'intelligence artificielle" diffusé en 2024 explore les enjeux philosophiques et sociétaux liés à l'essor de l'IA dans notre société contemporaine. Ce programme aborde probablement les points suivants :

L'impact de l'IA sur la cognition humaine : Comment l'omniprésence des systèmes d'IA influence-t-elle notre façon de réfléchir et de raisonner ?
La valeur de la pensée humaine : En quoi la réflexion humaine reste-t-elle pertinente et irremplaçable face aux capacités croissantes de l'IA ?
Les défis éthiques : Comment l'IA remet-elle en question nos conceptions morales et nos processus de prise de décision ?
La créativité et l'innovation : L'IA peut-elle véritablement être créative, ou la pensée humaine reste-t-elle essentielle pour l'innovation ?
L'éducation et l'apprentissage : Comment adapter nos systèmes éducatifs pour favoriser une pensée critique à l'ère de l'IA ?
La conscience et l'identité : L'IA nous pousse-t-elle à redéfinir ce que signifie être humain et conscient ?
Les biais et la prise de décision : Comment garantir que la pensée humaine reste un contrepoids aux biais potentiels des systèmes d'IA ?
L'avenir du travail intellectuel : Quels types de réflexion et de compétences resteront l'apanage des humains dans un monde de plus en plus automatisé ?

Ce documentaire vise probablement à susciter une réflexion critique sur la place de la pensée humaine dans un monde où l'IA joue un rôle croissant, tout en soulignant l'importance de continuer à cultiver et valoriser nos capacités intellectuelles uniques.
Transcript
00:00:00C'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'
00:00:30est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est
00:01:00ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce que j'ai fait, c'est ce
00:01:30que j'ai fait, c'est ce que j'ai fait.
00:02:00si on regarde, par exemple, sur les côtés.
00:02:02Donc, le dessin...
00:02:04Donc, la philosophie nous permet d'avoir un point de vue un peu différent.
00:02:08Oui, par exemple, il ne faut pas toujours...
00:02:11La porte, il ne faut pas toujours la...
00:02:13Je ne sais pas.
00:02:14Super exemple.
00:02:15La petite boîte, c'est plein de surprises, la philosophie.
00:02:18Voilà, on peut avoir de belles surprises, on peut avoir de belles surprises.
00:02:22Attendez, on va...
00:02:23Des bonnes ou des mauvaises.
00:02:30C'est Luc.
00:02:55Un jour, Dieu sait pourquoi,
00:02:57je me suis mis en tête que notre faculté de penser était en danger.
00:03:02Quel danger ?
00:03:06Pensée n'est-ce pas naturelle, commune,
00:03:09aussi familier que manger et dormir ?
00:03:12Et certains n'ont-ils pas fait de cette faculté
00:03:14une discipline, une spécialité,
00:03:17peut-être même un art de vivre ?
00:03:24C'est toujours aussi difficile de penser.
00:03:26C'est toujours aussi haut chez toi.
00:03:35Éric, comment as-tu découvert la philosophie ?
00:03:38Très jeune, je l'ai découvert,
00:03:41je dirais, presque depuis des bandes dessinées
00:03:45et des récits que je lisais quand j'étais adolescent.
00:03:48Même Dumas avait fini par me lasser, pourtant j'ai adoré.
00:03:52Donc je me suis lancé vers autre chose
00:03:54que simplement de la littérature romancée.
00:03:59Et je suis tombé sur des livres de poche.
00:04:02Il y avait Pascal en livre de poche déjà, à ce moment-là,
00:04:05les pensées de Pascal.
00:04:06Et puis des petits volumes de la collection Larousse,
00:04:10qui donnaient des digests de philosophes,
00:04:14ou même des œuvres complètes.
00:04:16Par exemple, le discours de la méthode de Descartes,
00:04:19c'était complet.
00:04:20Ou des extraits d'Auguste Comte.
00:04:22Et donc tout ça, ça me fascinait.
00:04:23C'était plus compliqué que le...
00:04:26Apparemment, j'ai cherché un peu de complications.
00:04:28Et puis après, c'est les études de philosophie elles-mêmes,
00:04:31où je n'ai pas été brillant au début,
00:04:34mais ça, on ne va pas insister là-dessus.
00:04:36Mais à la fin, bien. Enfin, brillant.
00:04:39En tout cas, à la fin, la morsure a tenu
00:04:42et elle s'est approfondie jusqu'à aujourd'hui,
00:04:45où j'espère enfin comprendre un petit peu ce que c'est que la philosophie.
00:04:49Tu sais quand tu penses ?
00:04:51Ou tu penses que tu penses tout le temps ?
00:04:54Ou c'est vraiment juste à des moments que tu penses ?
00:04:57Je ne sais pas, j'ai l'impression de penser tout le temps,
00:04:59parce qu'on le pense tout le temps.
00:05:01Tu penses tout le temps ?
00:05:02Est-ce que vous avez l'impression de penser tout le temps ?
00:05:04Oui.
00:05:05Toi, tu ne penses jamais, Marceau ?
00:05:07À part à l'atelier.
00:05:09À part à l'atelier et maman.
00:05:11C'est juste à l'atelier de philosophie que tu penses ?
00:05:14Oui, quand tu dors.
00:05:15Attends, attends, attends. Eliott ?
00:05:17Des fois, je pense trop
00:05:18et du coup, j'ai des problèmes de tête.
00:05:21Et mes pensées, elles m'encombrent complètement.
00:05:24Donc, je n'arrive plus à réfléchir
00:05:27et du coup, mon cerveau, il se met à moitié sur pause.
00:05:30OK, donc tu penses trop et ça encombre ta tête, tu dis.
00:05:34On pense surtout la nuit,
00:05:37parce que la nuit, on fait des rêves,
00:05:39et des rêves, c'est de penser.
00:05:44N'étais-je pas rassuré par ces enfants ?
00:05:47Leur vivacité de penser ?
00:05:49Oui, bien sûr.
00:05:52Et si la menace ou le danger étaient ailleurs ?
00:05:57Alors, Huc, peux-tu nous dire comment es-tu entré dans l'IA ?
00:06:01Comment tu as découvert l'intelligence artificielle ?
00:06:05Je me suis toujours intéressé aux sciences.
00:06:07J'étais un passionné des sciences.
00:06:09Mais quand on est passionné des sciences,
00:06:11il y a une science fondamentale
00:06:12qui, finalement, l'emporte sur toutes les autres.
00:06:14C'est comment est-ce que l'esprit humain
00:06:16réussit à penser la science,
00:06:18à résoudre des problèmes, etc.
00:06:19Il m'avait semblé que la science fondamentale,
00:06:22c'est celle qui réussirait à résoudre le mystère de l'esprit humain.
00:06:25Et donc, j'ai commencé à travailler cette science-là,
00:06:28qui, dans les années 50, 60, 70, s'appelait l'intelligence artificielle.
00:06:33C'est comme ça que je suis rentré dans l'IA,
00:06:35pour comprendre comment l'esprit humain pense,
00:06:38comment il est capable de résoudre les mystères de la nature.
00:06:41Ça s'appelait les sciences cognitives,
00:06:43et petit à petit, l'ordinateur, on s'est rendu compte
00:06:45que cette machine-là,
00:06:46cette machine dont on va beaucoup parler,
00:06:48parce que l'intelligence artificielle est évidemment née avec l'informatique,
00:06:51qu'on avait, avec l'ordinateur,
00:06:53le moyen idéal pour comprendre la façon dont fonctionne l'esprit humain.
00:06:57Est-ce que, pour vous, penser, c'est quelque chose qui est agréable,
00:07:00ou c'est plutôt une corvée, quelque chose qui n'est pas agréable ?
00:07:03Pour qui est-ce que c'est agréable de penser ?
00:07:08Moi, Bof.
00:07:09Bof, les plus grands.
00:07:11Marceau, toi, non.
00:07:12Bilal, à fond la caisse.
00:07:14Aïda, toi aussi, tu adores penser ?
00:07:15Oui, j'adore, parce que j'adore penser pour les calculs.
00:07:19Ah, t'adores penser pour les calculs.
00:07:21Donc, il y a différents types de pensées.
00:07:22Oui, j'adore.
00:07:23Donc, vous pensez qu'il y a différents types de pensées ?
00:07:25Il y a des pensées qu'on aime bien et des pensées qu'on n'aime pas ?
00:07:28Par exemple, moi, j'adore construire des légos,
00:07:31et quand on construit des légos,
00:07:33on a besoin de penser pour les pièces.
00:07:37Alors, en amont de la philosophie, il y a d'abord eu la lecture,
00:07:41et la lecture, très jeune, m'a amenée un peu dans une boulimie,
00:07:45un peu incontrôlée de lire ce qui m'était accessible.
00:07:49J'ai découvert le monde de Sophie.
00:07:52Ça a été la première porte d'entrée, très jeune,
00:07:55dans l'univers de la philosophie.
00:07:56Puis, il y a eu les dialogues socratiques de Platon,
00:08:01des choses pareilles,
00:08:03et aussi, assez rapidement, des auteurs de romans philosophiques.
00:08:08Camus, Sartre, et puis la poésie, en fait, la poésie philosophique.
00:08:13Des Baudelaire, René Char, déjà à l'école.
00:08:17Et puis, c'est assez naturellement
00:08:19que je me suis inscrite en philo à l'université.
00:08:23Mais là, découvrir la philosophie dans un cadre purement académique,
00:08:27en fait, ça m'a éloignée de ce que j'aimais,
00:08:30parce que je pense que j'ai eu peur de ma propre pensée
00:08:35dans les auditoires.
00:08:36Assez paradoxalement, on n'interroge pas la matière,
00:08:41on n'ose pas s'adresser aux professeurs.
00:08:43Il y a une figure d'autorité qui est assez impressionnante.
00:08:46Et c'est par après, quand même quelques années plus tard,
00:08:50que j'ai découvert la philosophie pratique,
00:08:53la pratique de la philosophie, les nouvelles pratiques philosophiques,
00:08:56la philosophie avec les enfants, les cafés philo, les balades philo.
00:09:00Et tout en préservant la rigueur philosophique que j'adore,
00:09:04ça m'a permis de redécouvrir ce qui m'a toujours plu dans la philosophie,
00:09:08c'est-à-dire donner du sens, pratiquement.
00:09:16Alors, Hugues, qu'est-ce qui se passe ici ?
00:09:20Tu vois, Luc, un des volets de l'intelligence artificielle,
00:09:24c'est l'intelligence artificielle inspirée par la biologie.
00:09:27La biologie a toujours été une source d'inspiration,
00:09:29puisque nous sommes des êtres biologiques
00:09:31avec un cerveau fait de biologie, etc.
00:09:34Alors ici, ce que tu vois, c'est ce qu'on appelle la robotique par essence.
00:09:37Donc, chaque petit robot fait des choses extrêmement élémentaires,
00:09:40très simples, et toute l'idée, c'est de les faire faire collectivement,
00:09:44donc ensemble, quelque chose d'intéressant
00:09:46dont aucun des robots, finalement, n'en a pris individuellement conscience.
00:09:49Par exemple, ici, tu vois, les robots doivent se mettre d'accord
00:09:53simplement en interagissant, en dialoguant.
00:09:55Donc, chaque fois que deux robots se touchent,
00:09:57il y a une forme de dialogue qui s'installe entre les robots.
00:10:00Les robots doivent se mettre d'accord,
00:10:01doivent faire consensus autour de la couleur qu'ils ont vue.
00:10:04Ils oscillent entre les deux couleurs, que sont le rouge et le bleu.
00:10:06Après un certain temps, tous les robots se seront mis d'accord
00:10:09pour s'accorder sur la couleur qu'ils ont vue,
00:10:12si c'est du rouge et du bleu.
00:10:14Alors ici, c'est aussi une expérience
00:10:16dans laquelle on a mis en place le protocole dit de la blockchain.
00:10:19Tu sais, c'est le protocole qui fait marcher les crypto-monnaies,
00:10:22parce qu'il pourrait y avoir des robots un peu fraudeurs,
00:10:25un peu malveillants,
00:10:26et les autres essayent d'éviter la malveillance de ces robots.
00:10:30Donc, je ne peux pas te dire lequel est malveillant,
00:10:32mais il y en a qui essaient de troubler la collectivité.
00:10:36Et les autres vont s'en défendre en dialoguant, en s'harmonisant.
00:10:40Une certaine intelligence les anime.
00:10:42Exactement, c'est une intelligence collective.
00:10:43On ne peut pas comprendre ce qui se passe
00:10:45si tu ne regardes pas ça avec un certain recul,
00:10:48ce qu'on appelle aussi souvent l'émergence.
00:10:49Tu vois, il y a une émergence de comportements intéressants.
00:10:51Mais tu sais, Luc, notre vie aujourd'hui,
00:10:54elle est truffée d'algorithmes qui nous suivent tout le temps,
00:10:57qui n'arrêtent pas de guider un peu nos comportements.
00:11:00Et ces algorithmes sont basés sur de l'intelligence artificielle.
00:11:03Ces algorithmes d'intelligence artificielle,
00:11:05d'une certaine manière, te profilent
00:11:07et t'aident à te sortir de situations comme celle de
00:11:11« quel prochain film je vais voir ? »
00:11:12dans la quantité extraordinaire de films et de séries
00:11:16qui te sont proposés par Netflix.
00:11:17Pareil, si tu veux faire un achat,
00:11:19de plus en plus, tu as des logiciels
00:11:21qui vont te recommander un certain type d'achat, etc.
00:11:24Alors, c'est parfois encore un peu plus dramatique
00:11:26quand tu es sur Facebook ou quand tu es sur Twitter
00:11:28et que tu reçois certaines informations
00:11:31qui sont plus proches de ta manière de penser le monde.
00:11:34C'est ce qu'on appelle la bulle Internet.
00:11:36Tu es ciblé en fonction de, je dirais,
00:11:38tes intérêts intellectuels, tes intérêts scientifiques.
00:11:41Alors ça, c'est une IA qui est un peu plus discutable.
00:11:44Mais pratiquement toute ta vie aujourd'hui
00:11:46est dictée par des logiciels, est guidée par des logiciels.
00:11:49Et ça va de plus en plus loin, de plus en plus fort.
00:11:51Il y a de plus en plus maintenant de logiciels qui te surveillent,
00:11:54des logiciels de reconnaissance faciale,
00:11:56dans des pays qui sont un peu moins démocratiques que les nôtres.
00:11:59Ils font un usage quand même très, très terrifiant
00:12:01de l'intelligence artificielle
00:12:03pour pouvoir te calibrer, te canaliser,
00:12:06te forcer à te comporter d'une certaine manière.
00:12:09Donc tous les objets de ton quotidien
00:12:10sont maintenant truffés de logiciels et d'intelligence artificielle.
00:12:25Donc ici, on est dans le hall, un des halls de la gare centrale.
00:12:29Et c'est un petit jeu que je fais de demander aux participants
00:12:33de regarder autour et de compter le nombre de capteurs
00:12:37qui peuvent collecter de la donnée dans cet espace.
00:12:39Est-ce que vous voulez bien faire ce petit jeu ?
00:12:49À première vue, j'en vois six.
00:12:51J'en vois six.
00:12:54Pas mal. Sept.
00:12:56Vous voulez qu'on les compte ensemble ?
00:12:57Oui.
00:12:58Alors, un, deux, trois, quatre.
00:13:02On en a cinq, six, sept.
00:13:06Ah oui, je ne l'avais pas vu, celui-là.
00:13:08Voilà. Alors, il y a des caméras de surveillance
00:13:12qui sont vues par les services de sécurité
00:13:13qui sont équipées d'algorithmes.
00:13:15À quoi peuvent servir ces algorithmes ?
00:13:17C'est à, par exemple, détecter des comportements suspects
00:13:20dans les espaces publics.
00:13:22Alors, quels comportements suspects ?
00:13:24Eh bien, ça, je ne peux pas vous dire exactement
00:13:27comment sont fabriqués ces algorithmes,
00:13:29puisque c'est évidemment des secrets d'entreprise,
00:13:31pour détecter ce type de comportement.
00:13:32Mais on peut essayer d'imaginer,
00:13:34peut-être des regroupements anormaux, anormalement longs,
00:13:38ou des mouvements de foule avec des gestes
00:13:41qui pourraient évoquer une bagarre ou quelque chose comme ça.
00:13:44Et puis aussi, avec ce type de caméras
00:13:47qui sont dotées d'algorithmes,
00:13:49on peut faire de la reconnaissance d'images.
00:13:51Vous vous souvenez, pendant les attentats, par exemple,
00:13:52il y avait un homme avec un bob, un chapeau un peu spécial.
00:13:56Eh bien, ce chapeau peut être un élément dans l'image
00:14:00qui peut être cherché dans une base de données d'images
00:14:03pour comprendre d'où est partie cette personne terroriste
00:14:06et où on l'a vue sur les caméras
00:14:07et ainsi retracer son parcours dans la ville.
00:14:10Tous ces dispositifs, notamment les caméras,
00:14:12légalement, il doit y avoir une signalisation
00:14:14qui nous indique qu'elles sont là.
00:14:19Donc voilà, c'est vraiment une fiche signalétique
00:14:21qui permet une visibilité sur qui prend les données,
00:14:24où elles sont stockées.
00:14:26Et donc ça, ça fait partie, évidemment,
00:14:27du dispositif de la loi Kemara.
00:14:29Et de protection, en fait.
00:14:30Et de protection, bien sûr.
00:14:32C'est-à-dire qu'on pourrait avoir recours
00:14:35à ces banques de données d'images
00:14:38s'il était nécessaire qu'on y ait accès.
00:14:41Donc, en fait, pendant cette promenade,
00:14:43on peut voir différents types de capteurs.
00:14:45On voit des objets connectés, des caméras,
00:14:48mais il y a aussi un type de capteur
00:14:50qui est placé dans la ville
00:14:51et c'est plutôt des capteurs mis par des citoyens.
00:14:53Par exemple, il y a des associations de citoyens
00:14:55qui ont posé des capteurs pour la qualité de l'air.
00:14:59Et là, c'est aussi une autre dimension
00:15:00très intéressante de la collecte des données
00:15:02et qui, moi, me passionne le plus dans cette aventure.
00:15:14Alors, on parle toujours de l'intelligence artificielle,
00:15:17mais en fait, il y a plusieurs IA.
00:15:20Alors, en tous les cas, moi, j'en vois deux.
00:15:23C'est ce que j'ai eu tendance à appeler
00:15:25l'IA consciente et puis l'IA inconsciente.
00:15:27Pour essayer de bien différencier ces deux IA,
00:15:30il pourrait y en avoir plus,
00:15:31mais on va se limiter à deux pour l'instant.
00:15:33Pour essayer de différencier ces deux IA,
00:15:34je vais donner un exemple de la première IA,
00:15:37c'est-à-dire celle qui pense
00:15:38et celle qui, en fait, s'est beaucoup inspirée
00:15:41de la façon dont les humains pensent
00:15:42et les humains résolvent des problèmes.
00:15:44Donc, prenons par exemple un jeu
00:15:46que tous les enfants connaissent bien,
00:15:47qui est le jeu du puissance 4.
00:15:49Je vais jouer contre une IA.
00:15:50Donc, l'IA va jouer contre moi.
00:15:52Et vous connaissez ce jeu.
00:15:53Donc, je mets, par exemple,
00:15:55je joue les jaunes et l'IA joue les rouges.
00:15:58Donc, en fait, qu'est-ce qui se passe ?
00:15:59L'IA va jouer exactement comme le cerveau humain joue.
00:16:02C'est-à-dire que l'IA va essayer de prédire
00:16:05les coups que je vais faire
00:16:06et prédire les réponses qu'elle peut faire à mes coups
00:16:08et prédire les réponses que je ferai à ses coups, etc.
00:16:11Donc, créer une espèce d'arbre prédictif.
00:16:13Le cerveau humain est une machine prédictive extraordinaire.
00:16:17On considère d'ailleurs que ça nous différencie en ça des animaux
00:16:19puisque les animaux n'ont pas cette capacité prédictive que l'on a.
00:16:22Donc, moi, j'ai joué jaune.
00:16:25L'IA a joué rouge parce que l'IA s'attend
00:16:27à ce que je continue dans cette ligne-là.
00:16:29Moi, je joue jaune.
00:16:30Vous voyez que l'IA a joué rouge.
00:16:31Elle essaie de me bloquer.
00:16:32Je joue jaune.
00:16:33Vous savez qu'à la fin, de toute façon, l'IA va me battre.
00:16:36Je ne vais pas jouer de manière extrêmement sophistiquée,
00:16:38mais c'est pour vous montrer.
00:16:39Donc, je joue là et hop, voilà.
00:16:42Donc, j'ai très, très mal joué.
00:16:43L'IA m'a battu.
00:16:44Puis, il y a une autre IA qui échappait à cette IA-là
00:16:46pendant très longtemps,
00:16:48qui est en fait liée un peu à tous nos processus inconscients.
00:16:51Par exemple, quand vous reconnaissez un visage
00:16:53ou quand vous reconnaissez une photo,
00:16:55vous ne déployez pas une grande intelligence.
00:16:56Donc, cette IA-là qui apprend, qui rencontre beaucoup d'expériences,
00:17:00qui se sert des expériences pour apprendre,
00:17:02celle-là, elle est très différente de la précédente,
00:17:04notamment parce qu'elle n'a plus besoin de l'expertise humaine.
00:17:07On a pu jouer au go sans aucun joueur de go.
00:17:10Donc, c'est une IA assez surprenante
00:17:11parce qu'elle fonctionne presque en mode propre.
00:17:18Il est de retour, l'IA est de retour.
00:17:31Le système AlphaGo, le système artificiel intelligent,
00:17:33a battu l'Issy-Dolle en cinq manches.
00:17:37Et au départ, l'Issy-Dolle était persuadé
00:17:39qu'il allait battre à plate couture la machine
00:17:44parce qu'elle était dix fois champion du monde.
00:17:46La machine avait bien battu un champion d'Europe,
00:17:48mais dit que champion d'Europe, c'est équivalent d'un deuxième Dan.
00:17:51Moi, je suis le dixième Dan.
00:17:52Donc, il était persuadé qu'il allait gagner.
00:17:54Et puis, on voit l'employé de DeepMind
00:17:57qui déplace les pions sur le jeu, les pièces blanches et les pièces noires,
00:18:01en suivant les instructions d'AlphaGo.
00:18:03Et puis, très rapidement, l'Issy-Dolle,
00:18:07on voit son visage qui comprend qu'il va perdre cette première manche.
00:18:17AlphaGo a joué quelque chose d'un peu particulier.
00:18:21Je ne suis pas sûr de ce qu'AlphaGo essaie de faire ici.
00:18:24Qu'est-ce que c'est ?
00:18:25Je ne comprends pas.
00:18:27Le jeu de Go, il y a 10 puissance 150 possibilités.
00:18:30Donc, c'est 10 suivi de 150 0.
00:18:32Donc, vous imaginez la quantité de possibilités du jeu de Go.
00:18:35Imaginons que le jeu de Go,
00:18:37c'est une quantité de possibilités stratégiques comme ça.
00:18:40Les joueurs humains se sont toujours cantonnés
00:18:42dans une petite limite du jeu de Go,
00:18:44en jouant, en s'inspirant des autres, en s'imitant les uns les autres,
00:18:47mais vraiment une toute petite manière de jouer.
00:18:50Puisque ce qu'a fait l'IA,
00:18:51en apprenant presque à coup d'essai et d'erreur,
00:18:54donc en jouant au hasard,
00:18:55ils ont appris à jouer au Go différemment.
00:18:57Donc, en fait, ils ont mis le jeu de Go sur un autre plan.
00:19:01Ils ont découvert les stratégies de Go
00:19:03qu'aucun joueur humain n'avait jamais même imaginé.
00:19:05Donc, c'est un peu perturbant,
00:19:06parce que non seulement le meilleur joueur de Go s'est fait battre,
00:19:09mais il n'a même pas compris comment.
00:19:24Bon, on va parler un peu de ce qui reste à l'homme, en fait.
00:19:30Avec plaisir, oui.
00:19:32J'ai envie de te demander, Jean-Noël,
00:19:34avec cette puissance de l'intelligence artificielle
00:19:36qui envahit un peu tous les secteurs de notre cognition,
00:19:38à ton avis, c'est quoi encore le propre d'homme ?
00:19:40Qu'est-ce qui reste à l'homme
00:19:41que la machine est incapable de reproduire ?
00:19:44Il y a beaucoup de choses, à vrai dire.
00:19:46Je dirais, le plus évident, c'est sans doute la question
00:19:50de la conscience, de l'expérience intérieure,
00:19:53de la conscience phénoménale,
00:19:54et puis aussi la complexité inouïe du cerveau humain
00:19:58par rapport à ces systèmes d'intelligence artificielle générative.
00:20:03Par exemple, AlphaGo, donc il y a une victoire extraordinaire...
00:20:07Toi, il n'est pas conscient, AlphaGo.
00:20:08Mais c'est justement pour ça, c'est ça qui est d'impression.
00:20:10Moi, il est conscient, pour moi, il a envie de gagner.
00:20:12Il est conscient, AlphaGo.
00:20:14Il a envie de gagner, donc il a une intention, il joue pour gagner.
00:20:17Mais l'intention n'est pas la conscience.
00:20:19On peut avoir des intentions non conscientes.
00:20:21Si tu prends la définition de la conscience,
00:20:24l'essence de la conscience, c'est l'expérience intérieure.
00:20:26Par exemple, une brique ou même sans doute une plante
00:20:30n'a pas une expérience intérieure, même un arbre, encore.
00:20:33On peut se poser la question, on n'a pas d'expérience intérieure.
00:20:35Mais nous, on perçoit, on est ici à l'ULB, on voit les arbres, etc.
00:20:41On a cette expérience intérieure.
00:20:43Le système artificiel...
00:20:45Bien qu'il y ait du mal à me le prouver.
00:20:47AlphaGo a du mal à me le prouver,
00:20:49mais toi, tu as du mal à me prouver ton expérience intérieure.
00:20:51C'est vrai, parce que...
00:20:52Ça, c'est vrai, mais c'est un des problèmes
00:20:54de l'épistémologie des neurosciences,
00:20:55à savoir que l'expérience intérieure,
00:20:57c'est une expérience à la première personne.
00:20:59Et donc, tu ne peux pas...
00:21:00Pourquoi AlphaGo, à la première personne,
00:21:02ne pourrait pas ressentir quelque chose
00:21:04quand il gagne contre Lee Siedel ?
00:21:06On pourrait... On ne peut pas prouver le contraire,
00:21:09mais comme moi, tu es d'accord.
00:21:12J'en doute, hein ?
00:21:13Tu en doutes.
00:21:14Tu en doutes, mais...
00:21:15Mais est-ce que c'est pas plus simple de penser
00:21:18qu'il agit consciemment quand on doit interagir avec lui
00:21:21que de lui dénier toute conscience ?
00:21:30...
00:21:41Mais donc, j'ai passé toute ma carrière
00:21:43à m'intéresser aux différences
00:21:45entre ce qu'on peut faire avec et sans conscience.
00:21:48Donc, il y a des tas de choses que nous sommes capables
00:21:49de faire sans conscience ou avec peu de conscience,
00:21:51comme conduire en voiture, en parlant à ses amis.
00:21:55Il y a des choses qu'on fait
00:21:56sans parvenir à les expliciter complètement,
00:21:58comme, par exemple, rouler à vélo.
00:22:00C'est très difficile d'expliquer comment on roule à vélo.
00:22:03Et il y a des habiletés dont on dispose,
00:22:06comme, par exemple, notre capacité à parler,
00:22:09à s'exprimer en français, en anglais, enfin, bref,
00:22:12dans une langue que nous apprenons
00:22:15sans savoir quoi que ce soit à propos de la grammaire.
00:22:18Il n'y a que les linguistes qui s'intéressent à la grammaire.
00:22:20Donc, il y a une série de choses qu'on peut faire sans conscience.
00:22:22Et puis, il y a d'autres choses qu'on peut faire
00:22:24qu'en étant conscients du fait qu'on est en train
00:22:28de faire cette chose, comme, par exemple,
00:22:30raisonner, résoudre un problème.
00:22:32Et là, la question est un petit peu différente.
00:22:33C'est simplement celle de savoir
00:22:35comment est-ce que l'activité biologique du cerveau
00:22:38produit tous nos états mentaux,
00:22:40c'est-à-dire tout ce que nous ressentons,
00:22:41y compris les pensées, par exemple,
00:22:44mais aussi toutes les sensations, toutes les émotions.
00:22:46Il y a des gens qui disent que la table est un petit peu inconsciente.
00:22:49Pas beaucoup, mais un petit peu.
00:22:50Un livre, c'est un petit peu inconscient.
00:22:51Moi, je trouve que ça n'a pas de sens.
00:22:54Avec la plupart de mes collègues en neurosciences cognitives,
00:22:57disons, on s'accorde pour penser qu'on a besoin d'un système nerveux d'abord.
00:23:02Donc, ça exclut, par exemple, les bactéries
00:23:04et d'autres organismes vivants,
00:23:06mais qui ne disposent pas de la complexité nécessaire
00:23:09pour avoir une espèce de vie intérieure, de vie mentale,
00:23:12ce qu'on associe à la conscience.
00:23:13Donc, il faut un système nerveux d'une complexité suffisante.
00:23:17Et de cette activité biologique-là émerge un autre univers,
00:23:21en fait, l'univers dématérialisé, quelque part, de la pensée,
00:23:24justement, tout ce qui se passe dans notre tête
00:23:26au moment où on est en train de parler, par exemple,
00:23:29ou de ressentir la rayon du soleil, quelque part,
00:23:32ou de penser à ce qu'on va faire demain.
00:23:35Tout ça, ça n'est pas complètement matériel,
00:23:37mais ça doit tirer son origine d'une activité
00:23:41qui est enracinée dans la matière.
00:23:43Et la question des rapports entre les deux,
00:23:45donc matière-esprit, cœur-esprit,
00:23:49mais aussi, donc, cerveau-pensée,
00:23:51c'est la grande question de nos ressources cognitives,
00:23:53c'est la grande question de la philosophie de l'esprit.
00:23:55Quand on aura compris ça,
00:23:57on aura fait un immense pas en avant.
00:23:59...
00:24:17Est-ce qu'il y a une image possible de la pensée, pour toi ?
00:24:20Donc, oui, il y a une image possible de la pensée, je pense.
00:24:25Il y en a plusieurs, d'ailleurs.
00:24:27La pensée a une inscription biologique.
00:24:30Tout ce que tu penses, pour l'instant, a une inscription biologique.
00:24:33La seule raison pour laquelle tu te rappelleras demain
00:24:35de la conversation qu'on a maintenant,
00:24:37c'est parce que je suis en train de modifier tes neurones
00:24:40avec le langage que j'utilise,
00:24:43et qui s'inscrit, donc, dans la biologie de ton cerveau.
00:24:45Et donc, il y a des images qui montrent
00:24:48la manière dont l'activation se propage dans ton cerveau, par exemple.
00:24:51On peut illustrer ça ?
00:24:53Oui, montre. Je serais bien de vous le montrer.
00:24:55Par exemple, ici, un film qui illustre ce qui se passe
00:25:00quand je montre un stimulus visuel à quelqu'un,
00:25:03dont on voit le cerveau, ici, qui a été gonflé.
00:25:05Comme ça, les sillons ont disparu.
00:25:07Mais donc, on voit ici, au moment zéro.
00:25:11Donc, maintenant, ça s'allume à l'arrière du cerveau, voilà.
00:25:16Et ça, c'est le cortex visuel.
00:25:18Donc, c'est le cortex occipital.
00:25:19C'est la première région de mon système visuel.
00:25:22Et puis, si on suit le film,
00:25:24on voit que l'activation se propage vers le lobe temporal, qui est ici,
00:25:28et le lobe parietal, qui est là.
00:25:30Et si on est très attentif,
00:25:31on voit qu'environ 400 millisecondes après que ça se soit allumé ici,
00:25:35l'activation revient.
00:25:36Donc, ça forme une sorte de boucle.
00:25:38Voilà, ça commence, ça se propage, et puis, ça se rallume là-bas.
00:25:43Donc, ça, c'est une image de la pensée, quelque part.
00:25:45C'est une image du traitement d'informations,
00:25:47parce qu'on voit dans le cerveau la manière dont se propage une activation.
00:25:51Et puis, cette activation globale a des conséquences
00:25:55sur la source de cette activation, à savoir le cortex visuel,
00:25:59qui, d'après la théorie, donne lieu à la conscience,
00:26:01parce que, comme on a une boucle récurrente,
00:26:04à ce moment-là, cette activation peut devenir découplée
00:26:07du stimulus extérieur.
00:26:08Ça peut s'entretenir tout seul sans que le stimulus extérieur
00:26:12ne soit nécessaire.
00:26:18Quand on entre dans ton dessin, Lucie,
00:26:21qu'est-ce qu'on voit, là, exactement ?
00:26:24Ben, oui...
00:26:32C'est ma respiration.
00:26:34C'est ma respiration.
00:26:38Est-ce qu'on pourrait dire que ce sont aussi tes pensées ?
00:26:40Tout ! Tout va là-dedans.
00:26:43Mon cerveau, c'est ma force, c'est mon espoir et c'est ma vie.
00:26:46Tout ce qui est là-dedans, c'est ma vie.
00:26:49On m'a déjà dit, même,
00:26:52« T'en as pas marre des signes des cerveaux ? » Jamais.
00:26:55Parce que c'est une force en moi, vraiment,
00:26:58c'est toute ma vie là-dedans.
00:27:00Parce qu'en sortant de la clinique,
00:27:01je ne peux pas dire le mot « j'existe » pendant des mois, quand même.
00:27:05Mais c'est ma force, c'est mon espoir.
00:27:10Les bébés cerveaux, déjà, d'où ça vient ?
00:27:14La maman, les petits,
00:27:17et ça, les tout-petits en néonatal.
00:27:19Ah, mais je n'ai pas fait, ici, les tout-petits.
00:27:22Zut, alors ! C'est vrai qu'il y a encore beaucoup à faire.
00:27:24Je n'ai pas fait les tout-petits, ici, là.
00:27:48Musique douce
00:27:51...
00:28:05Si on veut penser plus loin, il faut dire.
00:28:08Il faut traverser les langues, les langues et les langages.
00:28:11Il y a pensée quand on commence à s'affronter à ce qu'on ne comprend pas.
00:28:15Ça, c'est évident.
00:28:17Musique douce
00:28:22Encore une fois, le cerveau, il inscrit tout.
00:28:25Je pense qu'il a même plus de mémoire que je puisse m'en rendre compte,
00:28:29et j'en suis certain, même, de ça.
00:28:31Sauf que la conscience, c'est quoi ?
00:28:32La conscience, c'est énormément de choses.
00:28:34C'est d'abord, élémentairement, ce que les philosophes disent,
00:28:37c'est la conscience de quelque chose.
00:28:40Il n'y a pas de conscience sans qu'il y ait une conscience de quelque chose.
00:28:43Je ne peux pas avoir une conscience pure, ça n'existe pas.
00:28:46Mais après, la conscience, elle est en même temps affective.
00:28:49C'est ce que je ressens en voyant.
00:28:51Bien sûr, si je dis que j'ai conscience d'un fauteuil,
00:28:54ça ne va pas aller très loin.
00:28:55Encore que ça peut être le fauteuil de mon enfance,
00:28:57et alors, ça devient déjà toute autre chose.
00:28:59Où mon père se trouvait, ou ma mère, etc.
00:29:02Donc, c'est affectif.
00:29:04Et puis, ça peut être aussi imaginatif, évidemment, la conscience.
00:29:08C'est-à-dire que c'est conscient de ce qui n'existe pas.
00:29:13C'est ça, l'imagination.
00:29:14C'est inventer ce qui n'existe pas.
00:29:16C'est essayer de penser à ce qui n'existe pas.
00:29:19Donc, aujourd'hui, on va partir d'un livre.
00:29:23Alors, c'est un livre qui est très, très...
00:29:26Une histoire qui est très, très, très, très, très ancienne,
00:29:30qui a été écrite par un monsieur qui s'appelle Platon.
00:29:34Et il a écrit des mythes.
00:29:35Est-ce que le mot mythe, ça vous dit quelque chose ?
00:29:37Oui, je sais.
00:29:38Oui, Mia ?
00:29:39C'est un peu comme une légende.
00:29:41Comme une légende ?
00:29:42Ça, c'est pas exactement la même chose,
00:29:46mais c'est plutôt une...
00:29:48Là, c'est plus une histoire, un mythe.
00:29:51OK. Quelqu'un d'autre, juste, a déjà entendu parler du mythe ?
00:29:54Les mythes de la mythologie grecque.
00:29:56Il y a beaucoup de mythes sur des héros, sur des dieux.
00:30:00OK, la mythologie grecque, t'as entendu parler.
00:30:02Oui, Marceau ?
00:30:03Comme les insectes.
00:30:05Les insectes, ce sont des mythes ?
00:30:07Oui.
00:30:07Ah, les mythes, bah oui.
00:30:08C'est une enveloppe tissu.
00:30:10Bah oui, c'est vrai, t'as raison.
00:30:11Ça, c'est les mythes.
00:30:13Alors, cette histoire, sans la connaître, vous la connaissez,
00:30:17parce qu'une des particularités des mythes,
00:30:19c'est qu'ils continuent à vivre à travers plein d'histoires différentes.
00:30:24Et cette histoire-là, elle est encore bien vivante.
00:30:27Vous voyez, c'est un peu... Qui connaît le seigneur des anneaux ?
00:30:29Moi.
00:30:29Ah non, moi, je ne connais pas le seigneur des anneaux.
00:30:31Moi, je connais le Hobbit de Tolkien.
00:30:33Voilà.
00:30:33Comme c'était la même chose.
00:30:34Une histoire d'anneaux qui rend invisible.
00:30:37Là-dedans, il y a un anneau.
00:30:38On le tourne à son doigt et on en devient visible.
00:30:41Imaginez que vous êtes comme le berger
00:30:46et que vous trouvez une bague.
00:30:48Alors un, est-ce que vous la prenez ? Est-ce que vous ne la prenez pas ?
00:30:51Deux, vous vous rendez compte
00:30:54que vous pouvez devenir invisible avec cette bague.
00:30:57Qu'est-ce que vous allez faire ?
00:30:59Séraphine ?
00:31:01Moi, je volerais de l'argent aux riches pour le donner aux pauvres.
00:31:05Ah, OK.
00:31:06Donc, Séraphine, elle s'infiltrerait chez les riches.
00:31:10Elle volerait, donc tu déciderais de voler quand même,
00:31:13mais pour le redistribuer.
00:31:15OK.
00:31:16Parce que moi, être invisible, c'est un peu comme si on disparaît du monde.
00:31:20Même si on peut parler, qu'on peut faire des choses,
00:31:23les gens ne le voient pas.
00:31:25Je ne sais pas ce que je pourrais faire avec l'invisibilité.
00:31:28Et le fait de disparaître du monde,
00:31:30c'est quelque chose qui ne te plairait pas trop, peut-être ?
00:31:32Non.
00:31:33Tu n'aurais peut-être pas envie d'utiliser ce pouvoir, en fait.
00:31:36OK, Aïden, il n'aurait pas envie de disparaître.
00:31:39Bilal ?
00:31:40Je...
00:31:42Je...
00:31:43Je pourrais devenir invisible
00:31:45pour voler de l'argent.
00:31:48Pour voler de l'argent.
00:31:50Et tu ferais quoi avec cet argent ?
00:31:52Moi, je le partagerais.
00:31:54Tu le partagerais ?
00:31:55Tu partages un peu l'idée de Séraphine, alors ?
00:31:57OK, d'accord.
00:31:59Je louperais l'école pour pouvoir voyager.
00:32:01Donc, toi, tu en profiterais pour voyager,
00:32:05pour acquérir plus de liberté, peut-être ?
00:32:08Moi, ce que je ferais, c'est que je la mettrais à un mannequin.
00:32:13Tu la mettrais à quelqu'un d'autre, à un mannequin ?
00:32:15Oui.
00:32:16Ou bien alors, je la mettrais dans un coffre.
00:32:18Ou bien alors, je la donnerais à maman.
00:32:20En tant qu'animatrice, on a un peu à la...
00:32:22Quand il y a des pépites qui sortent,
00:32:25on sent que la pensée se déplace, en fait, même pour eux.
00:32:29Ça, c'est merveilleux de sentir qu'ils partent d'un point A,
00:32:32qu'ils arrivent à un point B.
00:32:34C'est pas évident, que ce soit avec des adultes, que ce soit avec des enfants.
00:32:37Souvent, on a l'impression d'avoir une certitude, on la maintient.
00:32:41Moi, j'essaye de transformer leur certitude en questionnement.
00:32:45Oui, mais là, ils ont déplacé.
00:32:48Quand ils disent qu'on ne veut pas l'invisible,
00:32:50ça, c'est extraordinaire.
00:32:51Normalement, un adulte, quand il n'est pas d'accord avec quelque chose,
00:32:55il nie, il dit non, quoi.
00:32:57Et effectivement, l'invisible, c'est ça.
00:32:59On dit non au visible.
00:33:00Et il y a des gosses qui ont dit, mais non, nous, on ne veut pas l'invisible.
00:33:03Ils ont fait une double négation,
00:33:05ce qui est vraiment de la pensée qu'on peut, d'adultes, atteindre.
00:33:08Et ça, c'est dingue qu'ils l'aient faite par eux-mêmes, spontanément, quoi.
00:33:11Et je trouve ça absolument remarquable.
00:33:14Ils montrent bien que la question est quelque chose de faux, quoi.
00:33:16Oui, ou je vais l'offrir à maman.
00:33:18Ou d'artificiel, oui, ou je vais l'offrir à maman.
00:33:20C'est une façon de déplacer aussi, quoi.
00:33:27J'aime croire que penser, c'est aussi distinguer,
00:33:31différencier cerveau, conscience, intuition,
00:33:35IA symbolique, neuronale.
00:33:40Mais où est passé le corps dans tout ça ?
00:33:44Alors Sandrine, est-ce que tu peux revenir sur ton parcours de psychanalyste
00:33:48et quel en a été, en fait, l'incident déclencheur, si je puis dire ?
00:33:54Alors, je dirais d'abord que je ne me définis pas comme psychanalyste,
00:33:57mais orientée par la psychanalyse.
00:34:00C'est tout un trajet, un parcours,
00:34:02et ça appartient à des écoles qui sont très sensibles et tâtillonnent
00:34:05sur la question de se revendiquer ou se dire psychanalyste.
00:34:09Et donc, dans ce cadre-là,
00:34:11j'ai assez vite été passionnée par deux champs,
00:34:13qui étaient à la fois les neurosciences,
00:34:15j'étais tout à fait appelée par la compréhension des modèles cognitifs,
00:34:21et ça me semblait plus tangible que la psychologie,
00:34:23qui me paraissait assez éthérée, en fait, et assez datée.
00:34:27Avant, pour ce parcours de psychologie,
00:34:29j'étais danseuse et donc j'avais un parcours
00:34:34où la question du corps et de comment est-ce qu'on rend compte
00:34:37de la pensée à travers le corps était vraiment fondamentale pour moi.
00:34:42Et donc, une fois que je suis revenue en Belgique,
00:34:43puisque je vivais à Londres pour cette carrière de danseuse,
00:34:49et que j'ai démarré mes études,
00:34:50c'était... je n'arrivais pas à faire le lien entre les deux.
00:34:53À Londres, j'avais l'impression d'avoir perdu ma tête
00:34:57et de n'être que dans le corps,
00:34:58et puis à l'UNIF, je me sentais très...
00:35:02J'avais perdu mon habitat, c'était mon corps.
00:35:05Et donc, le fait de croiser les neurosciences,
00:35:09dans ce cas-là, et la psychanalyse,
00:35:11et d'avoir une approche qui était beaucoup plus clinique, humaine,
00:35:14et qui investiguait un peu le ratage, qu'est-ce qui fait que ça rate,
00:35:17alors qu'en sciences cognitives, on s'intéresse avant tout
00:35:20à qu'est-ce qui fait que ça fonctionne,
00:35:21et puis les marges de ce qui ne fonctionne pas.
00:35:24La psychanalyse, elle part presque du postulat inverse,
00:35:28elle insiste sur le fait qu'on est structurellement constitué
00:35:31pour se mettre les pieds dans le tapis,
00:35:34et après, comment on fait pour se débrouiller avec ça ?
00:35:38Ne penses-tu pas qu'aujourd'hui,
00:35:40avec l'importance qu'a pris l'intelligence artificielle,
00:35:43il faudrait, en tout cas, à nouveau briser cet espèce de schéma
00:35:47qu'il y a entre la faculté de pensée et le corps,
00:35:50comme si l'un ou l'une étaient séparés de l'autre ?
00:35:55Je ne sais pas si l'intelligence artificielle sépare les deux.
00:35:58J'ai l'impression que l'intelligence artificielle part de l'idée
00:36:03qu'il n'y aurait pas de différence entre les deux,
00:36:05et que si on traite des commissions in extenso,
00:36:09ça s'inscrit dans le corps,
00:36:11et que le corps, finalement, n'a que peu d'importance.
00:36:15Là où, par contre, du côté de la psychanalyse,
00:36:18il y a un écho, une empreinte dans le corps, une trace dans le corps,
00:36:22mais on ne peut pas considérer que les deux ont la même logique.
00:36:25Chad GPT ou les intelligences artificielles, plus largement,
00:36:28ne sont pas du tout sur ces modèles-là.
00:36:31Ils sont sur des modèles vraiment tout à fait,
00:36:34d'une certaine manière, déterministes.
00:36:35Il suffit d'engranger un nombre d'informations maximale,
00:36:40de pouvoir produire des algorithmes ultra-complexes
00:36:43qui vont permettre, à un moment donné, d'obtenir,
00:36:45une fois qu'on aura décelé l'ensemble de la complexité d'un phénomène,
00:36:48la réponse.
00:36:50C'est un fantasme qui a existé de tout temps et qui est,
00:36:53pour moi, une utopie, en fait.
00:36:55Je suis à moitié inquiète de Chad GPT,
00:36:57parce que c'est, pour moi, un modèle très utopiste
00:37:00qui est voué, comme tous les grands modèles utopistes,
00:37:03à son propre échec.
00:37:13Chad GPT, c'est un agent conversationnel
00:37:17qui a appris à converser en se servant de tous les textes
00:37:21qui ont été laissés sur des serveurs informatiques.
00:37:24Donc, ce sont des centaines de milliards de textes
00:37:26dont Chad GPT s'est nourri de façon à pouvoir répondre
00:37:30à n'importe quelle question et de produire n'importe quel texte.
00:37:33Donc, Chad GPT a engrangé tout le savoir du monde,
00:37:36donc tout le web, tout Wikipédia, tous les bouquins,
00:37:39toutes les conversations qu'on avait abandonnées sur le web,
00:37:42donc tous les réseaux sociaux.
00:37:44Et Chad GPT s'est servi d'un réseau de neurones.
00:37:46Les réseaux de neurones dont on a parlé plus avant,
00:37:50les réseaux de neurones ont appris à converser
00:37:53simplement par une technique très étrange,
00:37:55mais qui a très bien fonctionné.
00:37:57Chaque fois qu'on lui présentait une phrase,
00:38:00le réseau de neurones essaie de prédire le mot d'après.
00:38:03Et cette capacité de prédire le mot d'après
00:38:06fait que, petit à petit, Chad GPT a appris à produire du texte,
00:38:09à produire n'importe quel type de texte.
00:38:11Il en a, je pense, digéré des centaines de milliards.
00:38:15Il faut aussi savoir que c'est un réseau de neurones très complet,
00:38:19qui lui-même possède 1 000 milliards de paramètres.
00:38:211 000 milliards de paramètres, c'est énorme.
00:38:24Il consomme une énergie extraordinaire.
00:38:26Il coûte d'ailleurs beaucoup, très cher, pour le faire fonctionner.
00:38:29Je crois que c'est 1 million de dollars par jour
00:38:32pour faire fonctionner le Chad GPT, en tout cas, de OpenAI.
00:38:35Est-ce qu'on pourrait lui poser la question de notre film,
00:38:38qui est « Pourquoi encore penser ? »
00:38:40On va tenter l'expérience.
00:38:41Je vais lui demander pourquoi encore penser,
00:38:44mais pour être un tout petit peu original,
00:38:46je vais lui demander de répondre
00:38:47à la manière d'un de nos philosophes les plus prestigieux dans notre pays,
00:38:52c'est-à-dire à la manière de Jean-Claude Van Damme.
00:38:56Donc, allons-y.
00:38:58Tu vois, penser, c'est comme être dans un roundhouse kick.
00:39:01Tu tournes, tu tournes, et tu te demandes pourquoi tu tournes.
00:39:03Mais la vérité, c'est que tu tournes parce que tu penses,
00:39:05et tu penses parce que tu tournes.
00:39:07C'est un cycle, comme le jour et la nuit, le yin et le yang.
00:39:09Alors, pourquoi encore penser ?
00:39:11Parce que sans penser, on ne tourne pas, et sans tourner, on ne vit pas.
00:39:13C'est ça, la réalité de la vie.
00:39:16« Rappelez-vous, dit Chagé-Pété,
00:39:17c'est une parodie et non une citation réelle de Jean-Claude Van Damme. »
00:39:44Est-ce que vous pouvez me dire ce que vous faites exactement ici,
00:39:47et où sommes-nous ?
00:39:49Nous sommes à l'école 19.
00:39:50C'est une école qui forme des gens à vraiment être des développeurs.
00:39:56Donc, c'est à savoir programmer et à savoir apprendre à apprendre.
00:40:00Donc, quand on a un problème,
00:40:02on n'a pas un professeur qui va nous dire juste « c'est ça la solution ».
00:40:06On nous dit souvent « demande à la personne à ta gauche,
00:40:09puis demande à la personne à ta droite.
00:40:10Si ça ne va pas, tu vas sur Internet. »
00:40:12On a un tronc commun avec plein de projets qui sont obligatoires,
00:40:16qui touchent à plein de domaines différents.
00:40:19Et une fois qu'on a fini ce tronc commun,
00:40:21on peut choisir des spécialisations, une ou plusieurs.
00:40:25Et donc, moi, je suis en cybersécurité.
00:40:28Et toi, tu es dans quoi exactement ?
00:40:30Moi, je suis en développeur web.
00:40:33C'est en système d'administration plutôt.
00:40:35C'est vrai qu'aujourd'hui, il y a un essor foudroyant de l'IA.
00:40:38Est-ce que ça a changé aussi votre rapport
00:40:41à ce que vous êtes occupé à apprendre l'un et l'autre ?
00:40:44Alors, pas nécessairement ce qu'on apprend,
00:40:46mais en tout cas, la manière d'apprendre, ça, oui.
00:40:49Parce qu'on ne peut pas se le cacher, le chat GPT,
00:40:53c'est quand même une mine d'informations.
00:40:56C'est juste un outil.
00:40:57Mais des fois, il nous dit vraiment quelque chose qui est faux.
00:41:01Et on a tendance à quand même le croire parce qu'il le dit très bien.
00:41:05Et nous, on ne sait pas, sinon on n'aurait pas posé la question.
00:41:08Et donc, on essaie, des fois, on se met à perdre du temps
00:41:11à avoir utilisé chat GPT au lieu d'utiliser de la manière traditionnelle.
00:41:14Il ne faut jamais oublier son esprit critique
00:41:16où on lui pose une question.
00:41:20Ça a été fait par des humains, du coup, ça ne peut pas être parfait.
00:41:23On est tous les deux des grands fervents de l'open source.
00:41:28Et chat GPT, ce n'est pas quelque chose d'open source.
00:41:30Ça s'appelle OpenAI, ceux qui ont fait chat GPT,
00:41:32mais vraiment, ils sont ouverts que de noms.
00:41:34Rien n'est ouvert chez OpenAI.
00:41:36Le code n'est pas public.
00:41:37Microsoft a la majorité des actions chez eux.
00:41:40Et là, franchement, c'est quelque chose qui pourrait être assez grave
00:41:43parce que c'est une avancée technologique que pour certaines personnes.
00:41:46Du coup, ça veut dire que même juste si on commence à manipuler
00:41:49des informations sensibles, il ne faut jamais passer par chat GPT
00:41:52parce qu'il va juste les engloutir.
00:41:54Et ce genre d'informations, il ne faut pas les donner.
00:41:57Même maintenant, justement, dans le domaine de la sécurité,
00:42:01on sait qu'on peut retrouver des mots de passe
00:42:03ou des clés d'authentification ou des trucs comme ça
00:42:07qui ont été donnés à chat GPT par des gens qui sont un peu inconscients.
00:42:10Pour ce qui est de l'intelligence artificielle
00:42:13et ce que je voulais dire pour le fait que ce soit un progrès ou pas,
00:42:17ça pourrait poser problème parce qu'ici, là, maintenant,
00:42:19dans notre génération, on est dans un fameux confort,
00:42:23mais on est aussi connu pour être une génération très triste.
00:42:26Et c'est parce qu'avec cette intelligence artificielle
00:42:29qui préfère beaucoup à notre place,
00:42:31qu'on serait beaucoup moins satisfait de ce qu'on fait.
00:42:34Parce que des fois, quand on fait juste quelque chose de nous-mêmes
00:42:36et qu'on arrive à un résultat, on est très content.
00:42:38Mais si après, c'est juste qu'on a demandé à une machine
00:42:40de le faire à notre place, c'est beaucoup moins satisfaisant.
00:42:49Si l'intelligence artificielle était un crime,
00:42:53que cache-t-il ?
00:42:56L'assassin paraît insaisissable.
00:42:59Quant à la victime, jusqu'où est-elle consentante ?
00:43:05Quelle est la vraie question ?
00:43:07Est-ce que la vraie question, c'est
00:43:08« Facebook se fait de plein d'argent,
00:43:10Facebook est en train de corrompre les jeunes
00:43:14ou YouTube promeut telle ou telle vidéo, etc. ? »
00:43:17Est-ce que c'est ça, la vraie question ?
00:43:18Ou est-ce que la vraie question, c'est pourquoi est-ce que,
00:43:21alors qu'on sait que les réseaux sociaux sont terriblement nocifs,
00:43:24pourquoi est-ce qu'on reste ?
00:43:26Et là, effectivement, j'emprunte très humblement
00:43:29à Étienne de la Boétie son terme de « servitude volontaire »,
00:43:32qu'il a écrit au XVIe siècle, le discours sur la servitude volontaire.
00:43:36Et donc, de revenir un petit peu là-dessus,
00:43:38pourquoi est-ce qu'on accepte ?
00:43:39Parce que c'est vrai que, de façon peut-être un peu utopique,
00:43:42mais si demain, tout le monde décidait de quitter Facebook,
00:43:46Facebook serait complètement désemparé,
00:43:48le cours de bourse s'effondrerait.
00:43:50Enfin, je veux dire, le pouvoir n'appartient pas tellement à Facebook,
00:43:54finalement.
00:43:54Et de nouveau, la vraie question, est-ce que c'est
00:43:57« comment est-ce que la tech fait pour éloigner les gens ? »
00:43:59ou est-ce que la vraie question, c'est plutôt
00:44:01« mais pourquoi est-ce que les gens, aujourd'hui,
00:44:03ne sont plus capables d'aller sonner chez leurs voisins et de dire
00:44:06« c'est marrant, on n'est pas d'accord sur ça,
00:44:08j'ai amené un gâteau, je sais que t'as du café,
00:44:10est-ce qu'on peut en parler ? »
00:44:11Et donc, effectivement, on like sa servitude
00:44:14parce que, pour moi, on est tellement satisfait
00:44:17d'une sorte de confort un peu lénifiant,
00:44:20d'une sorte de plaisir un peu factice, mais quand même gratuit.
00:44:25Et donc, c'est tellement facile.
00:44:26Alors après, je dis bien « on »,
00:44:28c'est très important pour moi de m'inclure là-dedans.
00:44:30Je pense que je suis tout aussi asservi
00:44:32que les personnes qui nous écoutent.
00:44:34Je ne veux pas du tout apparaître comme une sorte de moralisateur
00:44:36qui « j'ai un compte LinkedIn, j'ai une adresse mail,
00:44:39je suis sur mon téléphone très souvent également. »
00:44:41Donc voilà, pour moi, c'est vraiment très important
00:44:43de pouvoir rappeler que c'est vraiment le cas de tout le monde.
00:44:46Mais ce n'est pas grave.
00:44:47Mais je pense que ce qui est grave, c'est de ne pas se poser la question
00:44:49de ce qui se passe.
00:44:50Alors, tu travailles surtout sur les addictions.
00:44:53Est-ce que tu peux nous raconter cette expérience
00:44:56d'une appli de rencontre qui a changé considérablement
00:45:00les relations sexuelles ?
00:45:02Alors, c'est vrai que c'est dans le cadre d'une de mes recherches
00:45:08où je travaille à l'interface des enjeux d'addiction,
00:45:10comme tu viens de le dire, et de sexualité.
00:45:13Les gays ou les LGBT, plus largement, ont toujours dû se cacher
00:45:17pour pouvoir sociabiliser, ont dû le faire dans des lieux
00:45:19qui étaient interdits, de très grande promiscuité.
00:45:22Et dans ce contexte-là, les applis sont venues déplacer
00:45:25ces lieux de sociabilité, qui étaient sur des parkings,
00:45:30dans des bars, etc., vers l'intérieur des foyers.
00:45:33Mais en même temps, ces applications, en fait,
00:45:35reproduisent des stéréotypes et des moyens de discrimination
00:45:41encore plus puissants que ceux qu'on va avoir dans la société.
00:45:45Ça va rendre les hommes racisés encore plus discriminés qu'avant,
00:45:49ou encore plus objectifiés, puisqu'on va les érotiser
00:45:53vraiment comme des figures très exotiques.
00:45:56Le noir qui a certaines, soi-disant, certaines compétences,
00:46:00certaines aptitudes particulières.
00:46:01Et donc, ça les isole encore plus.
00:46:03J'ai des hommes gays qui me décrivaient
00:46:05qu'ils se retrouvent dans ces lieux où, à peine, ils arrivent,
00:46:10ils consomment, et puis, à peine, ils sont en descente,
00:46:12qui sont de nouveau sur leur application,
00:46:14entourés d'une dizaine de gars,
00:46:16mais quand même en train de chercher autre chose.
00:46:20Et donc, c'est une sorte d'insatiabilité
00:46:23que l'application ne coupe même plus,
00:46:26puisqu'elle s'appuie sur l'idée même que ça ne doit pas cesser.
00:46:31Aujourd'hui, notamment via le logiciel Replica,
00:46:34on connaît beaucoup de gens qui tombent amoureux,
00:46:36effectivement, qui disent, en tout cas, tomber amoureux
00:46:38d'un agent conversationnel avec qui ils échangent
00:46:41et qu'ils ont l'impression, je cite,
00:46:44que cet agent conversationnel les écoute, les comprend, les aime,
00:46:47alors que ce n'est que du code, ce ne sont que des zéros et des un,
00:46:50ce ne sont que des signaux électriques qui sont envoyés.
00:46:52Et ça, de nouveau, la vraie question n'est pas,
00:46:54est-il possible de tomber amoureux d'une intelligence artificielle ?
00:46:58Peut-être, tous les goûts sont dans la nature,
00:47:00mais pour moi, est-ce qu'il est souhaitable
00:47:02que des gens qui se sentent délaissés,
00:47:05qui se sentent peut-être abandonnés, qui ne croient plus en l'amour,
00:47:07se réfugient dans une relation
00:47:09qui ne peut être naturellement que factice avec un robot ?
00:47:12Les gens, dans leur utilisation de la technologie,
00:47:16ne se rendent pas forcément compte que la technique n'est jamais neutre.
00:47:20Olivier Ciboney disait,
00:47:21il n'existe pas d'architecture de choix neutre.
00:47:23Et donc, effectivement, quand on crée de la technique,
00:47:26elle n'est pas neutre, elle est porteuse d'une vision du monde,
00:47:28qui est souvent la vision du monde des concepteurs de cette technique.
00:47:31Il y a énormément de choses qui se jouent en dehors de la machine.
00:47:34Ce n'est pas dans les circuits, pour caricaturer un peu,
00:47:37ce n'est pas dans l'ordinateur qu'il se passe tellement de choses.
00:47:39C'est au moment de la conception,
00:47:41et donc au moment de l'éducation des gens,
00:47:43au moment de l'éducation des développeurs,
00:47:45au moment de la gouvernance qu'on va choisir pour une entreprise.
00:47:48Tout ça, en fait, ça se joue bien avant les premières lignes de code.
00:48:03Alors, Zoé, comment a surgi ton intérêt pour l'IA ?
00:48:06D'où c'est venu ?
00:48:08Écoute, Luc, mon intérêt pour l'IA a un peu surgi par nécessité,
00:48:11parce que je ne suis pas un profil d'ingénieur à l'origine,
00:48:14je suis linguiste.
00:48:15Et en fait, je suis belge,
00:48:16mais j'ai déménagé en Australie à 17 ans.
00:48:19J'ai effectué mes études là-bas,
00:48:21et j'y ai travaillé pendant presque trois ans comme tutrice d'anglais.
00:48:24Et on s'est rendu compte qu'en tant que prof,
00:48:26d'un point de vue logistique, c'était très compliqué, en fait,
00:48:29de transmettre ces compétences à nos étudiants,
00:48:31parce qu'elles sont très individuelles.
00:48:33Et c'est là où j'ai commencé à m'intéresser à la technologie.
00:48:37Personnel.
00:48:45Personal.
00:48:49Petit à petit, on a développé un outil
00:48:51qui permettait aux enseignants de personnaliser l'apprentissage
00:48:53de la prononciation en anglais,
00:48:55et de la déléguer à un outil en complément de leur cours.
00:48:57Et en fait, l'IA, elle va venir analyser leur voix,
00:49:00détecter les erreurs de prononciation,
00:49:03et ensuite leur donner des retours correctifs personnalisés.
00:49:06Oui, et donc, l'enseignant n'est pas remplacé par l'IA.
00:49:10Non, il est vraiment complémenté.
00:49:13Économique.
00:49:16Économique.
00:49:19Sustainable.
00:49:21Analysis.
00:49:25Ma question, c'est de savoir un petit peu,
00:49:26est-ce qu'il n'y a pas un risque d'uniformisation de l'apprentissage,
00:49:29par exemple de l'anglais, et donc de perte de richesse avec ça,
00:49:33si toutes les applications forment un peu les mêmes recommandations ?
00:49:37Donc, on n'apprend pas à avoir un accent parfait britannique, par exemple,
00:49:40où là, justement, il faut inscrire une norme dans l'apprentissage,
00:49:44mais on se base sur la recherche en linguistique
00:49:47pour isoler les aspects de prononciation
00:49:49qui ont été démontrés comme étant importants
00:49:51pour se faire comprendre facilement et parler avec les gens.
00:49:55Si je comprends bien, l'objectif, c'est vraiment plutôt
00:49:57que chaque individu puisse s'exprimer et être compris,
00:50:00et pas forcément que chaque individu soit Shakespeare demain.
00:50:02Exactement.
00:50:03Et donc, quand on développe une technologie comme la nôtre,
00:50:05effectivement, il faut faire attention
00:50:08à ce que les données d'entraînement qu'on utilise
00:50:10soient suffisamment diversifiées, donc inclusives,
00:50:15tout à fait, représentent aussi bien des hommes que des femmes,
00:50:18qui c'est des personnes non-binaires, des personnes racisées,
00:50:21des personnes blanches, d'âges différents également,
00:50:25et d'accents différents, que ce soit de langue maternelle
00:50:27ou, dans le cas des natifs, de régions différentes, voilà.
00:50:31Est-ce que, dans votre équipe, vous avez un éthicien
00:50:33ou une personne dont le travail est justement de faire attention à ça ?
00:50:36On n'a pas de personnes dédiées à ça dans l'équipe,
00:50:41mais en tant qu'entrepreneuse et en tant que femme dans la tech,
00:50:46ayant déjà peu de représentation,
00:50:48je me suis sensibilisée aussi, malgré moi,
00:50:50aux problématiques de diversité, d'équité, d'inclusion
00:50:54dans mon travail de manière globale,
00:50:55et donc, c'est une problématique à laquelle je dédie du temps
00:50:58et de l'attention dans la manière dont on construit notre outil.
00:51:00Et donc, ce que moi, je recommande, et on le disait justement un peu plus tôt,
00:51:04le monde de la tech est un monde qui est extrêmement privilégié,
00:51:06puis c'est une bulle, ce qu'il y a très peu dans la tech,
00:51:09et notamment sur quoi vous travaillez, moi, je trouve ça génial.
00:51:11Vous avez des linguistes.
00:51:12Je n'aurais pas du tout été surpris que tu me dises
00:51:14« Non, non, on n'a pas de linguistes, nous, c'est que des ingénieurs. »
00:51:16Et j'aurais trouvé ça terrible, et je ne serais pas surpris
00:51:18que vous ayez des concurrents qui n'aient pas de linguistes.
00:51:20Moi, ce que je trouverais super, ce serait qu'on engage
00:51:22des philosophes, des éthiciennes et des éthiciens,
00:51:24des anthropologues, des sociologues, des juristes, des psychologues.
00:51:28Dieu sait que c'est nécessaire, surtout dans le numérique.
00:51:30Et c'est le rôle, entre autres, des entreprises et des pouvoirs publics,
00:51:34que les gens soient plus éduqués, que les gens sachent
00:51:36qu'il y ait plus de cours d'introduction à l'IA,
00:51:38d'introduction à l'éthique de l'IA.
00:51:40Mais moi, je prône qu'il y ait ça dès le primaire ou dès le secondaire au moins.
00:51:44Et je pense que c'est vraiment ça la clé,
00:51:45c'est que chacune et chacun puisse apprendre
00:51:49à vraiment maîtriser les outils de son quotidien.
00:51:54Musique douce
00:51:57...
00:52:06Justine et Jean-Yves,
00:52:08vous êtes connus comme des grands spécialistes des droits humains.
00:52:11Et ce qui est original dans ce travail,
00:52:14c'est qu'il est souvent collectif, il se fait à deux.
00:52:17Et je voudrais savoir comment vous le faites,
00:52:19parce qu'après tout, c'est une amorce de démocratie déjà,
00:52:23de dialogue démocratique.
00:52:25Comment ça a commencé avec Jean-Yves,
00:52:27c'est que j'avais commencé à écrire un certain nombre de textes
00:52:31que je lui avais envoyés,
00:52:32et il m'envoyait tellement de commentaires pertinents
00:52:34que je passais mon temps à faire des notes de bas de page
00:52:36pour dire je dois cette remarque à Jean-Yves Francher.
00:52:39Puis à un moment, je me suis dit, on va peut-être arrêter là.
00:52:42Et je lui ai dit, si on continuait à deux.
00:52:44Et donc, nous avons poursuivi à deux.
00:52:46Et je dois dire, c'est quelque chose qui est extrêmement enrichissant
00:52:51et stimulant pour les deux,
00:52:53puisque ça oblige tout le temps à se confronter à un autre argument,
00:52:56à une autre façon de penser.
00:52:57Une des questions brûlantes qui se posent aujourd'hui,
00:52:59c'est tout de même la propagation des nouvelles faux et vraies
00:53:03qui s'entremêlent et qui se confondent.
00:53:06Et c'est une véritable menace pour la démocratie.
00:53:08Comment est-ce que vous voyez ce problème ?
00:53:11Sur cette question du vrai et du faux,
00:53:13là, il y a un effet amplificateur des réseaux sociaux
00:53:17et de l'intelligence artificielle,
00:53:19et qui est tellement fort qu'on peut se demander
00:53:21si, effectivement, là, il n'y a pas un seuil qualitatif qui est atteint.
00:53:24Un point qui est très frappant,
00:53:25quand tu regardes la façon dont les étudiants trichent
00:53:27en utilisant ChatGPT, par exemple,
00:53:29c'est que ChatGPT se fait le relais, finalement,
00:53:33de ce qui traîne massivement sur le net.
00:53:35Et donc, il va y avoir plein de fausses informations,
00:53:37de fausses citations, de livres,
00:53:39de références à des livres qui n'existent pas, etc.
00:53:42Et donc, là, effectivement, il y a un seuil qui est franchi,
00:53:44qui est la création de ce qu'on pourrait appeler un univers alternatif,
00:53:49et dont l'effet n'est pas seulement d'enfermer les gens
00:53:51dans des bulles informationnelles,
00:53:53mais de créer aussi de la désorientation.
00:53:55Il y a une phrase d'Aran qui est sous-mobilisée aujourd'hui,
00:53:58et à juste titre, qui est la phrase dans laquelle on dit, en fait,
00:54:02ce qui convient le mieux à un régime totalitaire,
00:54:04ce n'est pas tellement le méditant fanatisé,
00:54:06c'est celui qui n'est plus capable de savoir
00:54:08où est la différence entre le vrai et le faux.
00:54:10Et là, effectivement, il y a un problème très lourd
00:54:12qui nous concerne spécifiquement.
00:54:13Je vais prendre un exemple très concret,
00:54:16mais on en fait tous l'expérience.
00:54:17Mon fils, hier soir, ne comprend pas une distinction
00:54:21dans son cours de sciences, il me dit, ce n'est pas vrai.
00:54:24Il regarde sur Internet, il dit, regarde, la prof de sciences se trompe.
00:54:27La prof de sciences ne se trompait pas, en fait.
00:54:30Et il y a ce que t'es, c'est sur Internet, donc c'est vrai.
00:54:35Mais sur toutes les questions de sciences sociales aujourd'hui,
00:54:39l'université est une source d'informations parmi d'autres.
00:54:44Donc, comment est-ce qu'à votre avis, la pensée,
00:54:48la libre pensée et les droits de l'homme qui la garantissent,
00:54:51sont-ils menacés par l'intelligence artificielle ?
00:54:54Il faudrait voir, mais j'ai envie de dire,
00:54:57c'est un obstacle, mais ça peut être aussi une ressource.
00:55:00Non, mais l'intelligence artificielle n'est pas un obstacle.
00:55:03Mais elle peut le devenir quand elle est manipulée.
00:55:06Mais si on prend le cas de la propagande russe
00:55:09qui se fait à partir de boots, de robots massivement utilisés,
00:55:13qui, par exemple, vont interdire sur les réseaux sociaux
00:55:15pour dire du bien de Poutine
00:55:17chaque fois que quelqu'un fait un tweet ou un post Facebook
00:55:21pour critiquer Poutine.
00:55:22On a là des phénomènes de propagande
00:55:25dont les moyens sont décuplés, mais qui restent relativement classiques.
00:55:30Donc, on a simplement une explosion quantitative
00:55:35des moyens utilisés, des bulles informationnelles.
00:55:38Mais je ne suis pas sûr qu'il y ait eu, par exemple,
00:55:40un seuil de franchi par rapport à ce qu'était, disons,
00:55:43le pouvoir de la télévision il y a 40 ans, par exemple.
00:55:46Les publicités qui se faisaient dans les boîtes aux lettres
00:55:48ou bien même à la radio ou à la télévision
00:55:50s'adressaient à tout le monde.
00:55:52À partir du moment où l'intelligence artificielle intervient
00:55:55et permet de cibler les gens et d'accentuer leurs préjugés,
00:55:59il y a un seuil qui est franchi.
00:56:01Ce qui se perd de plus en plus,
00:56:04et je pense que le phénomène se constate aussi bien
00:56:07au niveau des élites qu'au niveau de la population en général,
00:56:10c'est une perte de l'autorité du savoir
00:56:14sur un certain nombre de sujets.
00:56:16C'est-à-dire qu'on ne croit plus
00:56:17ce qui a été établi par des chercheurs.
00:56:20On les accuse d'être sous l'emprise de leurs biais idéologiques
00:56:25et où donc le sentiment que j'ai parfois,
00:56:28moi, en discutant avec des gens qui sont pourtant éduqués et cultivés,
00:56:33donc je ne parle pas ici de ce qu'on entend généralement par complotisme,
00:56:37qu'en fait, nous ne partageons plus un monde commun.
00:56:53Comment rapprocher alors plus sereinement
00:56:55le citoyen de l'intelligence artificielle ?
00:56:58Est-ce seulement possible ?
00:57:01Farid, c'est un institut en intelligence artificielle,
00:57:03données, robotiques,
00:57:05qui est spécialisé sur toutes les questions sociétales
00:57:08et qui est situé, comme vous pouvez le voir, au cœur de Bruxelles.
00:57:11On a plusieurs composantes.
00:57:13On a des bureaux pour pouvoir faire nos projets,
00:57:15mais on a aussi un centre de tests et d'expériences
00:57:17où les gens peuvent venir voir concrètement
00:57:2016 démonstrations d'IA, de données, de robotiques
00:57:23pour voir de façon très concrète à quoi ça ressemble.
00:57:26On a fait, par exemple, des consultations avec des citoyens
00:57:30menées par notre panel et on posait la question
00:57:33où est-ce que c'est l'intelligence artificielle
00:57:35et les données dans votre vie ?
00:57:36Où est-ce que c'est l'intelligence artificielle
00:57:38et les données dans Bruxelles ?
00:57:39Et on était frappés de voir que les gens n'étaient pas toujours
00:57:42en mesure de répondre assez simplement à cette question.
00:57:45Soit c'était partout, soit c'était nulle part.
00:57:48Donc, avoir ce centre d'expériences comme on l'a en ce moment,
00:57:51c'est justement un endroit où les gens peuvent,
00:57:54à partir de cas très concrets, de projets concrets
00:57:57qui ont été menés localement, comprendre un peu mieux
00:58:00où est-ce que c'est l'IA, où est-ce que c'est les données ?
00:58:02Et peut-être qu'ils ne s'en étaient pas rendus compte.
00:58:20Carmen, on se connaît bien, mais il y a un aspect
00:58:22qui m'a toujours intéressé dans la façon dont tu fais ta recherche,
00:58:25c'est que tu as plein de profils différents.
00:58:27Tu viens aussi apporter des côtés sciences sociales,
00:58:30tu as des côtés beaucoup plus sciences dures.
00:58:32Et en ce moment, il y a une question que je me pose beaucoup,
00:58:35c'est est-ce que tu penses qu'un chercheur ou une chercheuse en IA
00:58:39a une responsabilité sociale ?
00:58:41Oui. Moi, personnellement, je trouve que tous les chercheurs
00:58:45ont une responsabilité sociale.
00:58:48Moi, je l'ai aussi essayé de le faire pendant mes années de mon doctorat.
00:58:53Aller parler aux gens, de faire des lectures sur mon topic.
00:58:58Le billet de l'IA, c'est un topic que les gens aiment aussi écouter un peu
00:59:03parce qu'ils ont des questions, beaucoup de questions.
00:59:06C'est quoi exactement l'IA ? C'est quoi exactement les billets ?
00:59:08Ça veut dire quoi ? Ça m'impacte comment dans ma vie ?
00:59:13Ça demande aussi du temps de pouvoir bien analyser
00:59:18tous les aspects d'un projet, d'une technologie
00:59:20avant qu'elle soit immédiatement déployée,
00:59:23du point de vue technique, éthique.
00:59:24Et je pense que ça, c'est une valeur que je vois un peu dans le travail.
00:59:28Et de ce que les universités peuvent apporter,
00:59:30c'est aussi un peu cette respiration, ce temps-là.
00:59:33Mais on a déjà eu des révolutions technologiques
00:59:36et ça a changé la vie, ça a changé notre manière de penser
00:59:40sur le boulot, sur la vie quotidienne et tout ça.
00:59:44Et avec l'IA, ça va aussi se passer.
00:59:47Qui va gagner ? Qui va perdre dans cette révolution ?
00:59:51Moi aussi, j'aimerais savoir qui va gagner,
00:59:53qui va perdre dans cette révolution.
00:59:58Mais parmi ceux qui songent à notre futur,
01:00:01il y en a-t-il pas qui pensent déjà plus loin ?
01:00:03Beaucoup plus loin ?
01:00:06Depuis une vingtaine d'années, je travaille sur la question
01:00:10de l'amélioration, de l'augmentation de l'humain,
01:00:13c'est-à-dire la modification, la transformation de l'humain.
01:00:17Je m'intéresse au rêve des transhumanistes,
01:00:19à l'imaginaire technoscientifique sans être moi-même transhumaniste.
01:00:23Le transhumanisme, pour dire les choses simplement,
01:00:25c'est un peu la peur de la mort.
01:00:27La motivation centrale des transhumanistes,
01:00:30c'est la peur de la mort.
01:00:31La quête, c'est la quête de l'immortalité par la technoscience.
01:00:34Mais au-delà de ça, il y a la même chose au niveau de l'espèce humaine.
01:00:38C'est la quête de l'immortalité par la technoscience.
01:00:42C'est la quête de l'immortalité par la technoscience.
01:00:45C'est l'idée que l'espèce humaine, c'est comme un organisme,
01:00:50et donc il faut maximiser aussi la durée de vie de cette espèce humaine
01:00:54sur de très nombreuses générations.
01:00:57Et pour ce faire, il faut éviter les risques existentiels,
01:01:02c'est-à-dire des catastrophes qui pourraient supprimer
01:01:06ou anéantir l'espèce humaine.
01:01:08Les risques existentiels classiques comme la bombe atomique
01:01:12ou le réchauffement climatique ou une pandémie catastrophique, etc.,
01:01:17mais aussi les technologies, y compris l'intelligence artificielle.
01:01:21Et là, on est dans une situation paradoxale
01:01:23où à la fois ces concepteurs,
01:01:27donc les Sam Altman et les autres de Missa Service,
01:01:30de Google DeepMind, etc.,
01:01:32ils créent de nouveaux systèmes artificiels intelligents,
01:01:36et en même temps, ils alertent sur les risques existentiels
01:01:41que posent ces machines.
01:01:42Donc, on a à la fois une accélération de la production
01:01:44des systèmes artificiels intelligents, et en même temps, on dit que c'est dangereux.
01:01:48Tu dis que le cerveau de chair s'est périmé,
01:01:51que tu peux un petit peu revenir là-dessus.
01:01:53Ce n'est pas moi qui ai dit ça, je ne pense pas du tout ça.
01:01:56C'est Marvin Minsky, encore une fois, qui est vraiment un des pionniers,
01:02:02qui a contribué à introduire le concept d'intelligence artificielle en 1956,
01:02:07et qui dit précisément que le cerveau biologique,
01:02:10donc le cerveau humain,
01:02:12c'est une machine de viande, une machine de chair, si on veut.
01:02:17Et ça veut dire que c'est périssable, que c'est imparfait, que c'est lent,
01:02:21que c'est limité dans l'espace,
01:02:23et que ce serait mieux de remplacer ce cerveau biologique,
01:02:27qui est imparfait, par un cerveau artificiel,
01:02:30qui serait plus performant.
01:02:32Moi, je suis très sceptique par rapport à ces ambitions.
01:02:37On ne sait même pas si c'est possible,
01:02:38parce qu'on n'a pas encore, aujourd'hui,
01:02:40même un embryon de recherche opérique nous montrant que c'est possible
01:02:43de créer un système artificiel intelligent
01:02:46qui possède aussi la conscience au sens d'expérience intérieure.
01:03:02Si j'étais invisible, je ne vais pas faire des trucs mals,
01:03:06parce qu'après, ça me retombe dans la conscience,
01:03:08je n'arrive pas à dormir, et ça me reste pour plusieurs jours.
01:03:12OK, donc là, Aïden, il a introduit un mot
01:03:15qu'on n'a pas encore entendu, c'est la conscience.
01:03:18Est-ce que quelqu'un sait ce que c'est la conscience ?
01:03:20Ou a une idée, à peu près, déjà entendue ?
01:03:24Oui, Emile.
01:03:25La conscience, c'est comme si tu fais un truc de mal,
01:03:29mais après, tu vas le regretter.
01:03:31Ah, d'accord. Marez.
01:03:33C'est comme quand tu vois quelque chose de pas bien
01:03:38et que tu dis continue,
01:03:41et après, tu vas le regretter.
01:03:44OK. Est-ce que vous pensez que vous avez tous une conscience ?
01:03:48Oui.
01:03:50C'est comme Pinocchio, il y a la petite sauterelle,
01:03:53c'est sa conscience.
01:03:55Elle lui dit non, il ne faut pas faire ça, oui, il faut faire ça.
01:03:59D'accord, donc il y a la conscience quand même
01:04:02qui va un peu guider nos choix
01:04:06vers ce qu'on considère comme bien et ce qu'on considère comme moins bien.
01:04:10Aylan.
01:04:11Il y a des gens qui n'écoutent pas leur conscience
01:04:15et donc ils font des mauvais choix.
01:04:17C'est mieux d'écouter sa conscience que de ne pas l'écouter.
01:04:32J'ai été fascinée par les cerveaux depuis l'âge de 2 ans.
01:04:36Parce qu'à 2 ans, je portais mon premier électroencephalogramme
01:04:39pour l'épilepsie.
01:04:41C'est très difficile à m'exprimer, à raconter tout ça.
01:04:44C'est pas du tout facile.
01:04:46Mais c'est vrai qu'il y a eu des longues périodes
01:04:49où je n'en parlais même plus.
01:04:51Parce que bon, en clinique avec les malades,
01:04:54t'as tellement beau rythme, tu ne parles pas,
01:04:56tu ne parles pas, tu ne parles pas, tu ne parles pas,
01:04:59tu ne parles pas, tu ne parles pas, tu ne parles pas,
01:05:01t'as tellement beaucoup de médicaments que t'es insommée.
01:05:04Pendant longtemps, c'est à peine si je parlais.
01:05:07Mais moi, je voyais tout, les patients autour de moi,
01:05:09carrément tout bouger à l'intérieur.
01:05:11C'est pour ça que je dessine des petites limaces.
01:05:14Même des petites limaces...
01:05:16Ça grouille un petit peu.
01:05:19Oui.
01:05:20C'est comme une bouloire, comme une bouloire qui siffle.
01:05:23Le pire, c'est que maintenant, j'ai des acouphènes depuis 20 ans,
01:05:26donc ça siffle vraiment.
01:05:27Ah oui.
01:05:28J'ai des acouphènes comme ça sans arrêt depuis 20 ans.
01:05:31J'aimerais bien entrer dans mon cerveau,
01:05:34carrément dans mon cerveau, pour que ça soit plus clair.
01:05:37C'est vrai.
01:05:38J'aimerais entrer tout mon corps dans mon cerveau.
01:05:42Et en clinique, j'ai tout caché, je ne parlais pas aux infirmières.
01:05:46Tout est venu par après, surtout aux côtes, surtout aux côtes.
01:05:49Qu'est-ce qui a fait dans ta vie
01:05:50que t'as dû cacher tout ce que tu ressentais ?
01:05:52Bon, dans ma famille, tout le monde a fait des études, sauf moi.
01:05:56Et quand mon frère me traitait d'anormal, je me dis...
01:05:58D'ailleurs, je me déteste depuis l'âge de 8 ans, je me déteste.
01:06:01Eh bien, je me dis, j'ai plus qu'à me taire, j'ai plus qu'à me taire.
01:06:04Maintenant, tu te sens mieux ?
01:06:08Mais bon, on me dit que je suis quelqu'un,
01:06:10parce que mon frère m'a tellement diminuée,
01:06:13qu'on me dit quand même, bon, aux côtes, tout le monde m'aime bien,
01:06:17et moi, j'aime bien tout le monde,
01:06:19mais enfin, ça peut sortir de mon cerveau.
01:06:22Tout peut sortir de mon cerveau.
01:06:24On dirait vraiment que c'est comme un élastique.
01:06:27Tout, regarde, maintenant,
01:06:28c'est maintenant que je décide de faire ce petit point-là.
01:06:33Mais je compte jusqu'à 3, je n'avais pas d'idée juste avant.
01:06:36Tout se passe au moment même.
01:06:38Et là, tout s'est déclenché avec ce livre-là.
01:06:41Oui, donc il y a une vieille gravure d'un cerveau,
01:06:44et puis du coup, effectivement, ça t'a fascinée tout de suite.
01:06:47Et du coup, c'était ton modèle pour tous les cerveaux qui ont suivi, en fait.
01:06:53François, qu'est-ce que tu fais, toi, exactement, aux côtes ?
01:06:56Je dirige l'atelier d'art plastique du Côte.
01:06:58J'essaie aussi de promouvoir les travaux qu'ils font
01:07:03par des expositions ou des événements.
01:07:06J'ai fait les Beaux-Arts, etc.,
01:07:08donc on est quand même formatés d'une certaine manière.
01:07:10Et je pense que de voir des personnes autodidactes,
01:07:14qui ne viennent pas du tout du milieu de l'art,
01:07:17travailler, faire vraiment des créations qui sortent vraiment de là,
01:07:22ça m'a...
01:07:24Oui, c'est ça, vraiment, décomplexé
01:07:26pour créer de manière beaucoup plus intuitive et spontanée, en fait.
01:07:30Voilà.
01:07:33Et puis, tu nous donnes un petit chocolat ou un petit biscuit ?
01:07:37Pendant le dessin, vers 11h, je ne sais pas.
01:07:41Il est aimé, François, ça.
01:07:43Quand t'es pas là, tout le monde, on va aller le chercher.
01:07:52Musique douce
01:07:54...
01:08:08Tu sais, Eric, ce tableau me rappelle un truc incroyable.
01:08:11Quand j'étais à l'UNIF, on avait un cours de physique
01:08:14et la couverture du bouquin de physique quantique,
01:08:17c'était ce tableau, L'Empire des Lumières.
01:08:19Je ne me demande pas pourquoi, je ne l'ai jamais su,
01:08:21mais ce tableau me fascine pour ça.
01:08:23Tu t'es intéressé beaucoup à Magritte.
01:08:25Oui, moi, tu sais bien, je suis fasciné par la peinture
01:08:30et en particulier, j'ai beaucoup étudié Magritte
01:08:33parce que c'est un univers créatif.
01:08:35Il faut partir d'une phrase très philosophique et très générale.
01:08:39C'est que la liberté est l'essence de la vérité.
01:08:43Qu'est-ce que ça veut dire ?
01:08:44Ça veut dire qu'il y a des vérités construites par l'être humain,
01:08:48et c'est par ses langages.
01:08:50Et le langage de la peinture s'en éteint.
01:08:52Et Magritte, c'est quelqu'un qui crée un langage spécifique
01:08:56qui fait voir un tout autre univers que l'univers habituel.
01:09:00Le langage de la peinture, on le sait,
01:09:02ce sont les instruments d'abord, évidemment, et les matériaux,
01:09:06mais c'est d'abord la couleur et le geste du peintre.
01:09:08Et c'est avec ça, avec ce langage,
01:09:11que Magritte crée un univers qui, lui, est tout à fait différent
01:09:14de l'univers commun.
01:09:15Ici, le tableau est assez fascinant.
01:09:18Je veux dire, c'est une fiction au sens direct du mot,
01:09:23puisque ça n'existe pas,
01:09:24un sol qui est dans la nuit et un ciel qui est dans le jour.
01:09:27Et c'est ce contraste, évidemment,
01:09:30qui est la création, qui est l'invention de Magritte.
01:09:33Alors l'IA, comme tu sais, peut créer des œuvres culturelles, etc.
01:09:38L'IA peut se nourrir de milliers de Magritte et faire du Magritte.
01:09:41Est-ce que ça revient à créer un univers ?
01:09:43C'est la question fondamentale de la créativité en IA.
01:09:46Mais par exemple, en combinant Magritte avec Rembrandt
01:09:48ou en combinant Magritte avec des peintres du XVIIIe ou du XVIIe,
01:09:52tu peux ne pas t'inventer un nouvel univers.
01:09:54Combiner, c'est une chose,
01:09:56mais pour créer, il faut partir de la différence.
01:10:00C'est-à-dire du fait que le réel, tel que je le vois,
01:10:04tel que je le reçois plutôt, de façon chaotique, en gros,
01:10:08précisément, il est différent des langages dont je dispose.
01:10:11Jouer sur la différence entre le réel et les langages,
01:10:15je ne sais pas si l'IA en a la réflexion.
01:10:19Il faut une réflexivité sur cette division.
01:10:21Est-ce que l'IA peut créer un univers inédit ?
01:10:24Ce qui a été surprenant.
01:10:25Un univers qui est combiné de plusieurs univers, d'accord,
01:10:29mais est-ce qu'il est inédit au sens où il donne une autre aperception du monde ?
01:10:32On est tellement surpris par les productions de ces dernières années de l'IA
01:10:35que moi, je laisse tout ouvert maintenant.
01:10:36Toi, tu fermes, tu dis que c'est impossible pour une IA.
01:10:38Non, je ne dis pas que c'est impossible.
01:10:40Je dis que c'est un nouveau défi pour les artistes.
01:10:42Tu vois, l'IA, les artistes doivent s'en inspirer.
01:10:45Est-ce que l'IA prend conscience de l'irreprésentable ?
01:10:49Est-ce qu'il part de l'impossible à représenter ?
01:10:51Est-ce qu'il part de l'infigurable ?
01:10:53Magritte part de...
01:10:54C'est infigurable, le contraste du jour et de la nuit.
01:10:58Eh bien, lui, si, le contraste, il l'est montré, là.
01:11:01Alors, montrer le contraste, il faut en avoir le projet.
01:11:04Je ne sais pas comment, oui, tu vois.
01:11:06Et il faut y réfléchir avec les moyens de la peinture.
01:11:09Et c'est ce qu'a fait Magritte.
01:11:10Donc, moi, je questionne l'art de demain, si tu veux.
01:11:13Est-ce que l'IA va jouer un rôle très important
01:11:15dans les productions artistiques de demain ?
01:11:17Le défi, moi, je réponds toujours par le défi.
01:11:19Effectivement, grâce à l'IA, le défi est plus grand.
01:11:23Ah oui, c'est vrai.
01:11:23On se rejoint là-dessus.
01:11:24Oui, voilà.
01:11:25Et il n'est pas du tout une catastrophe.
01:11:28Et au contraire, je dirais qu'on verra encore mieux
01:11:31ce qu'est vraiment un univers créatif
01:11:33et qui bouleverse notre façon de voir.
01:11:35Parce que c'est tout même ça, bouleverser notre façon de voir.
01:11:41J'aime cet optimisme, et je le partage.
01:11:46Pourtant, le pari de ce beau défi
01:11:49ne craque-t-il pas déjà de toute part ?
01:11:56Hey, Luc !
01:12:11Alors, ce que tu vois ici, c'est que j'appuie sur une seule touche
01:12:15et j'ai toute une séquence sonore qui démarre,
01:12:19qui a été pré-programmée.
01:12:23Et donc, voilà, ce qui s'est passé dans l'histoire de la musique,
01:12:25c'est que les premiers musiciens qui ont perdu leur boulot,
01:12:27c'est les batteurs.
01:12:29Pourquoi ? Parce que les sons percussifs,
01:12:30ils étaient plus faciles à sampler,
01:12:33ils étaient plus faciles à échantillonner.
01:12:35Et puis, les sons percussifs,
01:12:36ils étaient plus faciles à échantillonner.
01:12:38Et un peu plus tard, on arrive à sampler des sons d'orchestre.
01:12:41Par exemple, ici, on a des pizzicatos.
01:12:53Et puis, voilà, on peut maintenant, avec mon clavier ici,
01:12:55je peux piloter à peu près n'importe quel son.
01:12:57Ça s'est connu déjà depuis très longtemps pour les musiciens.
01:13:00Et ce qui se passe aujourd'hui, c'est quoi ?
01:13:02C'est quand même un peu plus compliqué,
01:13:03parce qu'il y a beaucoup de choses à faire.
01:13:06Et ce qui se passe aujourd'hui, c'est quoi ?
01:13:08C'est que tout à coup, on touche à quoi ?
01:13:10On touche tout à coup à la voix humaine.
01:13:12Et là, il y a un pas où tout le monde sent que ça, c'est un peu touchy.
01:13:19Si on peut utiliser la voix humaine de n'importe qui,
01:13:22et qu'on peut même la reproduire et lui faire dire n'importe quoi,
01:13:26et lui faire doubler n'importe quel film,
01:13:29une fois qu'on a scanné cette voix correctement
01:13:31et qu'on a tous les paramètres de la voix,
01:13:33et qu'on a le timbre et tout,
01:13:35là, tout à coup, on a l'impression qu'on touche à un autre degré de l'humanité.
01:13:39Récemment, il y a eu deux grands rappeurs qui ont été clonés en quelque sorte,
01:13:45et dont on a fait un morceau en les mettant ensemble sans qu'ils le sachent.
01:13:51Et ça a fait 1 600 000 vues sur Spotify.
01:14:05« You, you, you, you... »
01:14:17J'entends des sons, de la musique, des mélodies dans ma tête.
01:14:21La musique m'a attiré spontanément.
01:14:24Une pièce avec un piano, je fonçais dessus quand j'étais enfant.
01:14:27La musique, c'est quelque chose qui m'habite comme une seconde peau,
01:14:32mais depuis toujours, vraiment.
01:14:34Qu'est-ce qui t'a amené à être à la fois musicien et philosophe ?
01:14:40Je crois une passion pour l'être humain, d'abord,
01:14:43et pour le sens de la vie de manière générale en ce qui concerne la philosophie.
01:14:47Il y a une histoire très célèbre où Platon raconte que Socrate se promène dans la rue
01:14:51et que tout à coup, en plein milieu de la rue, il s'arrête.
01:14:55Et il stoppe, il dit rien et il contemple quelque chose.
01:14:59Et il est là comme dans une espèce d'extase.
01:15:02C'est à ce moment-là que lui viennent les intuitions les plus fortes de sa pensée
01:15:05qui va communiquer à ses disciples.
01:15:07Le philosophe, il a vraiment ce regard légèrement décalé.
01:15:10Il va poser un regard sur une réalité.
01:15:13Mais ce regard-là, c'est le regard de l'artiste aussi.
01:15:15Parce que l'artiste, qu'est-ce qu'il fait ?
01:15:17Il pose un regard sur la réalité
01:15:19et il voit quelque chose que l'un des mortels ne voit pas.
01:15:23Parce qu'il a aiguisé son regard, il a aiguisé ses antennes.
01:15:26Et en fait, c'est là que j'ai trouvé la connexion entre les deux.
01:16:03Mon travail, à moi, est particulièrement basé sur tout ce qui est vibratoire.
01:16:08Vraiment.
01:16:09Donc j'essaie vraiment de revenir de plus en plus au vibratoire.
01:16:14Pourquoi ? Parce que la vibration est en relation avec notre corps.
01:16:33Ce qui est intéressant, c'est quand la pensée est connectée au corps.
01:16:37C'est quand la pensée reste en résonance avec le corps, avec le ressenti.
01:16:54Ce qui n'existe pas encore pour le moment dans les voix artificielles,
01:16:59c'est tout l'aspect émotionnel de la voix.
01:17:01Lorsque, par exemple, quelqu'un va dire un conte pour enfant,
01:17:04va doubler un film pour enfant, par exemple,
01:17:07on va se rendre compte que, quand il fait ce doublage,
01:17:11si c'est fait par un vrai comédien, il va y avoir une émotion humaine derrière
01:17:14et ça s'entend quand même dans les petites inflexions de la voix.
01:17:18Et ça, pour le moment, l'IA ne sait pas le faire.
01:17:20Quelque part, c'est trop parfait.
01:17:21Mais ça évolue.
01:17:22C'est-à-dire qu'il semblerait que ces logiciels
01:17:25soient capables d'apprendre les imperfections.
01:17:27Si des enfants s'habituent à regarder des films doublés
01:17:32uniquement de manière artificielle,
01:17:34et s'ils s'habituent, eux, tout petits, à ces voix robotisées,
01:17:38même si elles sont quasiment proches de la perfection,
01:17:40n'est-ce qu'il n'y a pas un danger sur leur développement psychologique ?
01:17:43C'est bien d'avoir des outils,
01:17:45mais il faut toujours que l'humain soit préservé.
01:17:58Préserver l'humain, a-t-il dit.
01:18:01J'ai pensé aussitôt à la santé.
01:18:04N'est-ce pas là où l'IA investira bientôt le plus vivement notre corps ?
01:18:16Nous sommes ici à Orsi Academy,
01:18:19et Orsi Academy, c'est l'université de l'humanité.
01:18:23Nous sommes ici à Orsi Academy,
01:18:26et Orsi Academy est un centre d'innovation
01:18:30en la médecine minimale invasive et robot assisté.
01:18:36La grande différence entre la chirurgie classique et la robotique,
01:18:41c'est qu'avec la chirurgie classique,
01:18:44il y a un contact direct entre le chirurgien et le patient,
01:18:49tandis que pour le robot,
01:18:51entre les deux, le patient et le chirurgien,
01:18:54il a un ordinateur.
01:18:56Ici, vous voyez le chirurgien
01:18:58qui est en train de contrôler
01:19:03les instruments dans le corps du patient
01:19:06par ses manivelles.
01:19:08Il fait des manœuvres virtuelles,
01:19:11et ça se rend dans le corps du patient,
01:19:14mais miniaturisé jusqu'à cinq fois.
01:19:17Donc, cinq fois plus précis.
01:19:20On peut faire un nœud avec un petit fil de 3 cm.
01:19:24Essayer de faire ça à main nue, c'est très difficile.
01:19:28Deuxième avantage,
01:19:30c'est qu'on a une vue splendide en 3D.
01:19:36Et moi-même, je peux regarder comment le chirurgien est en train de faire,
01:19:41et je dis toujours, le mieux qu'on voit, le mieux qu'on peut opérer.
01:19:45C'est logique.
01:19:46Donc, si on regarde le robot en lui-même,
01:19:51vous voyez que le robot a quatre bras.
01:19:56Moi, je n'en ai que deux.
01:19:57Mais grâce à cette console,
01:20:01je peux contrôler,
01:20:03et c'est ça qu'il faut apprendre ici.
01:20:07Par exemple, avec mon bras,
01:20:10je peux tourner à 180 degrés.
01:20:14Ici, on peut tourner les instruments jusqu'à 720 degrés.
01:20:20Moi, je peux faire ça aussi, mais seulement une fois, ça va se casser.
01:20:24C'est comme une petite main en miniature
01:20:27qui nous donne la possibilité de faire beaucoup mieux,
01:20:31beaucoup plus fin, et de faire des dissections super précises.
01:20:37Est-ce que le robot ou les bras du robot
01:20:39peuvent faire des choses sans que le chirurgien intervienne ?
01:20:43Pour l'instant, le robot ne fait rien du tout à lui seul.
01:20:48Mais c'est pour cela qu'il nous faut l'intelligence artificielle,
01:20:52Big Data et automation,
01:20:56et on aura dans le prochain futur, certainement,
01:21:00des parties d'opérations ou certaines formes d'opérations
01:21:05qu'on pourra faire complètement automatisées
01:21:08sous contrôle d'un chirurgien,
01:21:11mais en fait, ce sera le robot qui fera le travail.
01:21:15Donc aujourd'hui, il y a un chirurgien qui opère,
01:21:19mais demain, dans une salle d'op,
01:21:21il n'y aura pas seulement un chirurgien, mais également un ingénieur.
01:21:25Mon film s'appelle Pourquoi encore penser ?
01:21:28À l'heure de l'intelligence artificielle.
01:21:31La pensée humaine, je trouve qu'elle vit une véritable révolution
01:21:36avec l'importance que prend la robotique et l'IA.
01:21:40J'adore ce titre, pour être honnête.
01:21:42Et on pourrait penser qu'il ne faut plus penser,
01:21:46mais je pense encore plus qu'avant.
01:21:49Je pense, donc je suis.
01:21:53Merci bien.
01:22:07L'intelligence artificielle,
01:22:09quand elle entre en contact avec les neurosciences
01:22:11et la psychologie cognitive, permet d'élaborer des théories.
01:22:15Et donc, on fait une sorte de psychologie expérimentale,
01:22:18parce qu'on peut faire des expériences avec des systèmes artificiels
01:22:21et essayer de voir si ces systèmes finissent par produire la même chose
01:22:25que les autres systèmes artificiels.
01:22:27Et ça, c'est une expérience qui permet d'élaborer des théories.
01:22:30Et donc, on fait une sorte de psychologie expérimentale
01:22:33et essayer de voir si ces systèmes finissent par produire la même chose
01:22:36que les systèmes naturels.
01:22:37Donc, ton cerveau à toi, par exemple.
01:22:41Donc, j'ai des images de cerveau et alors j'applique à ces images de cerveau
01:22:45des algorithmes d'apprentissage qui vont, par exemple,
01:22:47essayer de savoir si je peux prédire une décision que quelqu'un va prendre.
01:22:51Et en fait, on peut.
01:22:52Donc, on peut entraîner un réseau de neurones artificiels
01:22:57à prédire, sur base de l'activité cérébrale de ton cerveau,
01:23:00si tu vas pousser à gauche ou à droite sur un bouton
01:23:02dans quelques secondes.
01:23:04Avant même que tu le saches toi-même.
01:23:06C'est pas de la science-fiction.
01:23:07C'est pas de la science-fiction, non, non.
01:23:09Et donc, maintenant, il y a des travaux fascinants
01:23:11qui consistent à tenter de reconstruire, par exemple,
01:23:15ce qu'une personne perçoit à partir de l'activité de ses neurones.
01:23:19Et donc là, il y a vraiment une sorte de décodage de la pensée
01:23:21ou plutôt de construction de la pensée.
01:23:23Donc, je te montre quelque chose.
01:23:26L'algorithme ne voit que l'activité de ton cerveau,
01:23:29mais parce qu'il a été entraîné sur des images appropriées avant,
01:23:33il est capable de dire, par exemple,
01:23:34que tu es en train de percevoir un objet rond
01:23:36ou le visage d'une personne ou une voiture, des choses comme ça.
01:23:40Donc, il y a des chercheurs japonais qui ont, par exemple,
01:23:43montré comment on pouvait reconstituer des rêves
01:23:46avec des techniques comme celles-là.
01:23:47Et alors, on voit des films un peu fantasmagoriques comme ça
01:23:50qui montrent les choses que la personne...
01:23:52Enfin, que l'algorithme pense que la personne est en train de percevoir
01:23:55dans son rêve à partir de l'analyse de son activité cérébrale.
01:23:59...
01:24:13Est-ce qu'on n'a pas envie de se poser la question de notre rapport à la tech ?
01:24:16Parce que penser, c'est difficile, parce que penser, c'est fatigant,
01:24:19parce que neurologiquement, c'est épuisant
01:24:21de vraiment penser et d'exercer un esprit critique.
01:24:23Moi, ce que j'essaie de faire, justement, avec mes recherches,
01:24:25avec mes livres, avec les articles que je peux écrire,
01:24:27c'est de dire, mais qu'est-ce qu'on peut faire pour réveiller ça ?
01:24:29Qu'est-ce qu'on peut faire pour animer ça, pour éclairer cette petite flamme ?
01:24:33Ce qu'Emmanuel Kant appelait les lumières,
01:24:36quand il posait la question de qu'est-ce que les lumières, c'est ça.
01:24:38C'est oser penser par soi-même, et je pense qu'il y a encore beaucoup de travail.
01:24:42Moi, mes pensées, puisque parfois, ils s'en vont,
01:24:47j'écris un petit papier.
01:24:49Par exemple, si je veux retenir le code du cadenas de mon frère,
01:24:55je l'écris sur un petit papier, parce que parfois, ça s'en va.
01:24:59Ah, les pensées, elles peuvent partir.
01:25:01Je pense pendant la nuit,
01:25:04parce qu'en fait, je fais tout le temps des cauchemars,
01:25:06et moi, je pense que ça va vraiment se réaliser, en fait.
01:25:09Ah, donc toi, t'as une pensée qui te fait peur.
01:25:11C'est des pensées qui font peur. Terrible, ça.
01:25:14On a une pensée, enfin, on a une pensée,
01:25:17puis on le met dans une boîte à pensées,
01:25:20on le met dans sa tête, et puis c'est comme si, pour la dire,
01:25:23on la retirait,
01:25:24mais du coup, il fallait faire très attention à ne pas l'oublier.
01:25:27La boîte aux pensées.
01:25:29Il y a Luna, qu'on n'a pas encore entendue de l'atelier,
01:25:31qui veut parler, donc on va lui laisser la parole.
01:25:34Je vais oublier.
01:25:35Ah, la pensée, elle est partie.
01:25:37Elle est partie où, la pensée ?
01:25:39Au ciel.
01:25:40Elle part au ciel, la pensée ?
01:25:41Non, dans le monde des pensées.
01:25:43Dans le monde des pensées. Un platonicien, ici.
01:25:47Donc, l'étonnement, c'est la base de la philosophie,
01:25:51c'est la beauté de l'humanité, je trouve,
01:25:53c'est cet étonnement, cet émerveillement,
01:25:56qui peut être parfois angoissant aussi.
01:25:59Les enfants, ils l'ont de façon très spontanée,
01:26:02mais si on ne le travaille pas avec eux, ils risquent de le perdre.
01:26:05Le fait d'avoir une temporalité,
01:26:08de créer un espace qui est tout à leur disposition
01:26:12pour mettre en valeur l'étonnement qu'ils ont sur le monde,
01:26:15je trouve ça fondamental.
01:26:16Moi, j'ai envie de les encourager là-dedans,
01:26:18et c'est le temps que je prends avec eux pour faire ça.
01:26:21Moi, je voudrais qu'on mette l'intelligence artificielle
01:26:24au service de la connectivité, au service des biens publics.
01:26:27Il y a beaucoup de précurseurs, de pionniers de l'intelligence artificielle
01:26:30qui sont très pessimistes sur l'évolution de l'intelligence artificielle.
01:26:34Ils ont peur que les robots prennent le contrôle
01:26:36ou que les logiciels prennent le contrôle.
01:26:38Moi, je ne pense pas du tout comme eux.
01:26:40Je pense qu'au contraire, on va trouver dans ces outils
01:26:42des opportunités extrêmement stratégiques
01:26:45pour faire face aux menaces du futur.
01:26:47Beaucoup de problèmes de notre monde sont liés à sa complexification.
01:26:50Les inégalités, les crises économiques, la mobilité,
01:26:54tout ça est très compliqué.
01:26:56L'intelligence artificielle, à mon avis,
01:26:57sera la seule manière de trouver des solutions.
01:27:00Je ne suis pas inquiète d'être résorbée ou absorbée
01:27:04par les intelligences artificielles
01:27:07parce qu'il y a quelque chose qui continue
01:27:10de se soustraire à cette logique-là dans le psychisme.
01:27:14Le psychisme ne se laisse jamais attraper
01:27:17comme on voudrait l'attraper.
01:27:19Ce qui est le fondement même, c'est le ratage.
01:27:21C'est le moment où ça n'a pas pris comme on attendait
01:27:24et c'est dans ce ratage que se forme la créativité,
01:27:27c'est dans ce ratage que se forme l'inédit.
01:27:29Et donc, Tchad GPT rate beaucoup aussi en même temps.
01:27:33Donc, c'est pas mal. On peut se dire que c'est peut-être
01:27:35dans le ratage de Tchad GPT qu'on va voir...
01:27:37Il répond fort à côté de la plaque, Tchad GPT.
01:27:39Donc, c'est pas mal.
01:27:41Ça force à se repositionner aussi, finalement.
01:27:45D'abord, il ne faut pas oublier que la philosophie commence
01:27:48quand on comprend que les mots ne sont pas les choses.
01:27:51Et donc, de ce point de vue-là, tout être humain est philosophe.
01:27:56Le but, c'est pas, contrairement à ce qu'on dit souvent,
01:27:59me semble-t-il, c'est pas uniquement de trouver des idées,
01:28:03et surtout des idées qui, alors, sont fixées dans des concepts
01:28:06qui seraient, une fois pour toutes, la vérité des choses.
01:28:09Il faut avoir plus que le concept. Il faut avoir le sens de la chose.
01:28:13Donc, la philosophie cherche le sens d'eux
01:28:16et à communiquer le sens d'eux qui nous aident à nous émanciper
01:28:19et qui ouvrent alors, qui rouvrent les possibles,
01:28:21parce que c'est toujours ça qui est émanciper.
01:28:23Émanciper, c'est ouvrir les possibles.
01:28:33Tout l'enjeu est là, finalement.
01:28:36Réveiller sans cesse cette petite lumière,
01:28:39à l'instant même où l'IA prédit mes désirs et devine mes rêves.
01:28:46Mais alors, entre l'intelligence artificielle et notre faculté de penser,
01:28:52tout semble jouer ou rien n'est encore joué ?
01:28:56Qui sait ?
01:29:07Musique douce

Recommandée