Frédéric Taddeï - Michel Onfray et dictature capitaliste
Category
😹
AmusantTranscription
00:00:00 -Bonsoir, bienvenue sur le plateau des visiteurs du soir.
00:00:04 Le philosophe Michel Onfray sort un nouvel essai,
00:00:07 le fétiche et la marchandise.
00:00:09 Il va passer toute cette émission avec nous.
00:00:11 A 22h20, on débattra de la validité des statistiques,
00:00:15 ces chiffres qui ne demandent jamais que l'on se jette au visage dans les débats.
00:00:19 Samy Biazony les pourfend dans son livre "Le Statistiquement Correct"
00:00:23 à paraître le 21 septembre, dont vous avez signé la postface, Michel Onfray.
00:00:28 Il les accuse d'être souvent erronés, incertains ou carrément fallacieux.
00:00:32 Face à lui, il y a Bruno Jambard, le Vils président d'Opinion Way,
00:00:36 et Mathieu Agelou, l'auteur de "Maitriser l'incertain"
00:00:39 sur les statistiques et la probabilité.
00:00:42 A partir de 23h, il y aura un débat entre Michel Onfray et Laurent Alexandre,
00:00:46 l'auteur de "La mort de la mort" et de "La guerre des intelligences"
00:00:49 à l'heure de Tchad GPT.
00:00:51 Vous figurez tous les deux dans le nouveau numéro de Front Populaire
00:00:54 consacré au transhumanisme, mais pas ensemble.
00:00:57 Tout vous oppose sur ce sujet, comme sur l'intelligence artificielle
00:01:01 ou sur le capitalisme, ce que vous, Laurent Alexandre, considérez
00:01:04 comme le début de l'aventure humaine, après avoir vaincu les limites matérielles.
00:01:08 Michel Onfray appelle ça "la barbarie".
00:01:11 Commençons par votre livre, Michel Onfray.
00:01:13 Dans "Le fétiche et la marchandise", vous expliquez que le capitalisme
00:01:17 veut tout réifier, c'est-à-dire tout transformer en biens de consommation,
00:01:21 en marchandises, les biens meubles, les immeubles, les services,
00:01:24 mais aussi le vivant. Les animaux et les végétaux, c'est déjà fait.
00:01:28 Maintenant, il travaille à la réification des êtres humains.
00:01:31 Tout ce qui était naturel doit devenir artificiel, c'est ça ?
00:01:34 Oui, tout doit pouvoir se vendre, s'échanger, faire l'objet de transactions.
00:01:39 On voit par exemple aujourd'hui qu'un enfant n'est pas un enfant, mais un projet.
00:01:43 Il y a eu une époque, ça a été voté à l'Assemblée nationale, pas au Sénat,
00:01:47 mais un projet sur l'interruption médicale de grossesse,
00:01:50 pour des raisons psychosociales, qui faisait qu'on pouvait,
00:01:53 pour des raisons psychologiques et sociales, il aurait fallu dire lesquelles,
00:01:57 avorter d'un enfant de 9 mois, d'un bébé dans le ventre de sa mère,
00:02:02 jusqu'à 9 mois, parce que finalement, ça cessait d'être un projet.
00:02:05 Donc effectivement, quand on a dit d'un enfant qu'il n'était pas un enfant,
00:02:08 mais qu'il était un projet, si on change de projet,
00:02:10 il n'y a aucun problème pour aller broyer cet enfant et le jeter à la poubelle.
00:02:13 Je pense que de fait, le propre du capitalisme, c'est la réification,
00:02:16 comme on dit en philosophie, la "chosification",
00:02:18 c'est-à-dire on transforme en objet ou en chose.
00:02:20 C'est quand même que barbare, pour moi, c'est à mettre en perspective
00:02:23 dans la logique des civilisations, et que les civilisés de demain
00:02:26 sont les barbares d'aujourd'hui.
00:02:28 - Ça, c'est 23 heures, ça, avec Laurent-Alexandre.
00:02:31 Mais vous dites aussi qu'il travaille à l'avènement d'une dictature mondiale,
00:02:37 le capitalisme.
00:02:38 - Oui, de toute façon, le capitalisme est un mondialisme.
00:02:41 Il le fait savoir depuis le départ.
00:02:43 Il n'y a pas de frontières, il n'y a pas de peuple,
00:02:45 il y a juste un immense marché.
00:02:46 Et donc, il s'agit de faire tomber toutes les barrières
00:02:49 de l'être national, de frontières, de langues.
00:02:51 Donc, il s'agit effectivement de travailler,
00:02:53 l'Europe sert à ça d'ailleurs, à la destruction déjà,
00:02:56 sur le continent européen, de tout ce qui faisait frontières,
00:02:59 distinctions, langues.
00:03:01 On a la langue des échanges, qui est une espèce d'anglais,
00:03:04 pas l'anglais de Shakespeare, évidemment.
00:03:06 Et on dit effectivement que les frontières, c'est la nation,
00:03:09 la nation, c'est le nationalisme, le nationalisme, c'est la guerre,
00:03:11 c'est la jurisprudence de Mitterrand, qui n'a pas compris
00:03:13 que c'était les impérialismes qui étaient la guerre
00:03:15 et que le nationalisme est l'art de répondre aux impérialismes.
00:03:18 Je rappelle qu'on a une illustration de ce que je propose avec l'Ukraine.
00:03:22 L'Ukraine est un nationalisme qui résiste à l'impérialisme de Poutine.
00:03:27 Ce n'est pas le nationalisme de Poutine qui pose problème,
00:03:31 c'est son impérialisme, c'est l'idée d'étendre l'espace vital.
00:03:34 Et je pense effectivement que le capitalisme est en train d'y parvenir déjà.
00:03:37 C'est-à-dire qu'il y a plein de choses aujourd'hui qui sont mondialisées.
00:03:40 Il faut faire tomber les frontières, les langues, les langages, les cultures.
00:03:44 Et le wokisme travaille à cette éradication de la culture ancienne
00:03:47 pour mettre en place une culture nouvelle, une post-culture nouvelle.
00:03:51 - Ça va peut-être vous étonner, Michel Onfray, mais l'idée que le capitalisme
00:03:54 veut tout réifier et que maintenant c'est le tour des êtres humains,
00:03:58 c'est ce que Jacques Attali dit depuis 40 ans, depuis l'ordre cannibale à peu près,
00:04:02 les trois mondes, ses deux premiers ouvrages théoriques,
00:04:04 il dit exactement la même chose que vous.
00:04:06 - Oui, mais vous savez, avant Jacques Attali, il y a quelqu'un qui s'appelait Karl Marx.
00:04:09 - Aussi, bien sûr.
00:04:11 - Moi, je n'ai pas dit que c'était une idée neuve chez moi.
00:04:13 - Non, mais de le monter jusqu'au transhumanisme, je veux dire.
00:04:16 - Oui, mais ça, il ne peut pas le dire il y a 40 ans, Jacques Attali.
00:04:18 - Jacques Attali l'a dit il y a 40 ans.
00:04:20 - Il a tout dit, il faut faire de tout, donc il a aussi dit ça.
00:04:22 - Karl Marx ne pouvait pas le dire.
00:04:24 - Non, mais je veux dire, la question de la réification, d'abord, avant Marx et chez Proudhon,
00:04:26 si on veut aller voir quelles étaient les sources de Marx quand il travaille sur ce sujet-là,
00:04:30 et puis même avant, il y avait Hegel, c'était une vieille chose, la réification,
00:04:34 que Jacques Attali ait pu en parler à un temps, il y a 40 ans, pourquoi pas.
00:04:38 Mais moi, je suis plus intéressé par les analyses que Marx fait dans le capital,
00:04:41 justement sur la question du fétiche, qui est une question problématique.
00:04:45 C'est-à-dire tous les textes qui ont été écrits pour essayer de comprendre ce que Marx voulait véritablement dire,
00:04:49 avec cette histoire de fétichisation, cette idée qu'il n'y a dans le travail plus que le travail.
00:04:53 Il n'y a pas que la force du travail, il n'y a pas que ce que Proudhon a appelé l'aubaine,
00:04:56 c'est-à-dire une force de travail qui ne sera jamais payée et qui sera spoliée aux travailleurs.
00:05:01 Il y a la transformation d'un objet en quelque chose de plus que cet objet.
00:05:05 Et ce supplément d'âme qu'a l'objet, c'est le principe de la réification.
00:05:10 Et il y a aujourd'hui ce genre de choses, c'est-à-dire l'idée qu'on arrête de croire
00:05:13 qu'un enfant c'est un spermatozoïde, ovule, ventre d'une mère, etc.
00:05:16 C'est juste un projet. Voilà pourquoi aujourd'hui des Chinois peuvent travailler des utérus artificiels,
00:05:20 pilotés par, je dis artificiels parce qu'on est obligés de signaler ça maintenant,
00:05:24 une espèce de couveuse si vous voulez, pilotés par intelligence artificielle
00:05:27 pour faire de telle sorte qu'à 9 mois un enfant puisse être sorti d'une boîte
00:05:30 qui n'aura connu ni le ventre de la mère, ni les émotions, les perceptions, les sensations
00:05:34 qu'une mère transmet à son enfant. Et on nous dit ça c'est formidable, c'est extraordinaire.
00:05:38 Vous avez vu, un enfant est un objet. Donc tout ça, ça coûte cher, tout ça, ça se vend,
00:05:41 tout ça, ça s'achète, il faut créer des couveuses, il faut créer le matériel
00:05:45 des intelligences artificielles. Donc ça fait beaucoup d'argent, beaucoup de marché.
00:05:48 Et voilà pourquoi le capitalisme se réjouit.
00:05:52 - Et alors c'est le capitalisme qui veut instaurer une dictature mondiale,
00:05:55 dont vous parlez dans votre livre. Le cerveau est aux Etats-Unis,
00:05:58 l'impérialisme américain en est le bras armé. Vous dites que De Gaulle et Staline
00:06:03 y ont résisté, ont résisté à cet impérialisme planétaire des Américains,
00:06:09 que l'Europe est aujourd'hui le vassal de cet état total.
00:06:14 Alors là où en revanche, vous m'avez étonné, c'est quand vous dites que
00:06:20 la célébration de la diversité, ça vise à l'uniformité d'un monde
00:06:24 où tout est marchandise. Pourquoi la célébration de la diversité
00:06:27 ferait-elle partie du projet ?
00:06:29 - Pour diluer ce qui restait d'un temps passé. C'est-à-dire il faut un métissage généralisé,
00:06:34 une créolisation généralisée. L'un des grands idiots utiles du capitalisme
00:06:38 aujourd'hui, c'est Jean-Luc Mélenchon. Cette idée que la créolisation
00:06:41 permettrait un brassage immense, il n'y aurait plus de blanc,
00:06:43 il n'y aurait plus de noir, il n'y aurait plus de culture,
00:06:45 il n'y aurait plus de langue particulière, diverse, mais une espèce de grande culture,
00:06:48 une grande musique planétaire. L'idée que cette gauche-là,
00:06:52 une gauche islamo-gauchiste, y travaille, c'est scindérant
00:06:55 parce que le capital adore ça, le capital veut ça, le capital travaille à ça
00:06:58 depuis très longtemps.
00:07:00 - Et les gangs qui sévissent dans les cités et les hautes sphères de l'Etat,
00:07:03 vous dites même combat ?
00:07:05 - Oui, c'est la même chose. Je pense que le libéralisme à l'état pur,
00:07:08 c'est ce qui se passe dans les banlieues. Le propre de l'argent, du bénéfice,
00:07:11 sans foi ni loi, il n'y a pas de morale. On détruit les inutiles,
00:07:15 on détruit ceux qui ne travaillent pas dans ce sens-là.
00:07:17 Et je pense effectivement qu'il y a des libéraux qui vont à l'opéra bien habillés
00:07:21 et puis il y a des libéraux qui sont dans les banlieues et qui font fonctionner
00:07:24 la Kalachnikov parce qu'effectivement c'est le marché qui fait la loi.
00:07:27 Et on n'accepte pas qu'il y ait des perturbations du marché.
00:07:30 On a fait savoir qu'au moment des insurrections, c'était les cahiers
00:07:33 des banlieues qui ont dit "bon, on retourne au calme à la maison
00:07:36 parce qu'on n'arrive plus à faire du business et le business,
00:07:39 il n'y a à peu près que ça qui nous intéresse".
00:07:41 Donc oui, je pense que ce qui se passe dans les cités,
00:07:45 c'est le libéralisme chimiquement pur. C'est visible, c'est clair, c'est net.
00:07:48 Alors évidemment, les libéraux qui sont bon ton et qui sont à la tête de l'Etat
00:07:52 depuis Maastricht, là ce sont des gens qui ne veulent évidemment rien avoir
00:07:54 à faire avec ça, mais c'est très exactement la même chose.
00:07:56 La preuve, c'est qu'ils laissent faire.
00:07:58 C'est que si vraiment on voulait éradiquer le trafic dans les banlieues,
00:08:03 il y a les moyens de faire ce genre de choses.
00:08:05 Mais c'est une économie parallèle qui est intégrée dans l'économie qui est la nôtre
00:08:08 et qu'on laisse faire.
00:08:10 Donc évidemment, on a Darmanin qui s'en vient à la télévision nous dire
00:08:12 "ça ne peut pas durer, on va faire des choses".
00:08:14 On nettoie les quartiers, Macron arrive et puis il fait des petits "bonjour",
00:08:17 des petits "salut", c'est une variation sur le thème de la carchérisation.
00:08:20 Mais on ne fait rien, puis on repart, puis on laisse tout le monde.
00:08:22 Ceux qui avaient nettoyé les points de deal reviennent
00:08:26 et dès que l'avion présidentiel a quitté Marseille,
00:08:30 ils retrouvent la place.
00:08:32 Donc oui, je crois que si on veut voir comment fonctionne le libéralisme,
00:08:34 c'est que le marché fait la loi
00:08:36 et ceux qui ne veulent pas que le marché fasse la loi,
00:08:38 on fait la loi soi aussi.
00:08:40 Regardez les informations tous les matins,
00:08:42 vous avez des coups de couteau, des coups de fusil,
00:08:44 des rafales avec des gens qui sont laissés sur le sol
00:08:47 pour des dominations de territoire.
00:08:49 - Mais Michel Offray, vous parlez aussi de l'éradication de la paysanne,
00:08:53 qui fait partie du projet et qui en France aurait commencé
00:08:55 avec l'importation du tracteur après la Seconde Guerre mondiale,
00:08:59 que vous avez vécu vous-même.
00:09:01 Vous étiez à la campagne et vous en parlez de visu.
00:09:05 Mais ça, c'est la technique, tout simplement.
00:09:07 La technique avance et avec la technique arrive le tracteur,
00:09:11 comme est arrivé auparavant l'automobile.
00:09:13 Le tracteur n'a pas plus d'importance parce qu'il est américain
00:09:21 et la voiture n'en avait qu'elle était française.
00:09:23 - Sauf que le tracteur arrive après le 6 juin 1944,
00:09:26 après le débarquement.
00:09:27 Les Américains estiment qu'après avoir bien nettoyé la Normandie,
00:09:30 en ayant détruit des villes qui n'avaient rien fait,
00:09:32 qu'on aurait pu ne pas détruire, on va pouvoir reconstruire,
00:09:34 comme ça, ça va leur permettre à leur économie,
00:09:36 à eux, de fonctionner très bien.
00:09:38 Ils disent à un moment donné, finis les chevaux.
00:09:40 Je parle de mon père, comme vous me dites que j'ai connu ça de près.
00:09:43 Mon père était ouvrier agricole et il a labouré avec des bœufs,
00:09:47 puis après il a labouré avec des chevaux.
00:09:49 Il a dit que le cheval c'est fini, maintenant vous allez avoir un tracteur
00:09:51 et vous allez travailler avec le tracteur.
00:09:53 Après il y avait les rendements, la rentabilité,
00:09:55 on ne fonctionnait plus, la paysannerie ne fonctionnait plus
00:09:58 pour nourrir les gens autour, comme ça fonctionnait avant.
00:10:01 - Mais ça a été un progrès, reconnaissez-vous,
00:10:04 qu'on a pu nourrir toute la France puis le monde.
00:10:06 - Oui, le monde. Est-ce qu'on avait vocation à nourrir le monde
00:10:09 pendant qu'on affamait nos paysans français ?
00:10:12 On a des paysans qui se suicident régulièrement aujourd'hui,
00:10:15 on le sait simplement parce qu'on a industrialisé la nature
00:10:17 et quand il a fallu produire du blé, on a dit qu'il n'est qu'un toit à l'hectare,
00:10:20 il va falloir que ce soit supérieur à ce que vous faites depuis des années,
00:10:23 voire des siècles, et donc vous allez utiliser des produits.
00:10:26 Toute la chimie est arrivée en même temps que le tracteur.
00:10:29 C'est le tracteur, c'est la chimie, c'est la productivité,
00:10:31 c'est le fait qu'on détruise les chevaux et que pour acheter des tracteurs,
00:10:34 on dit qu'il n'y a aucun problème, on va vous faire des prêts.
00:10:37 Ça veut dire que les banques achètent la terre,
00:10:39 ça veut dire que les banques décident de ce qui va être fait.
00:10:41 On dit "Ah non, vous n'allez pas faire du blé".
00:10:43 "Ah non, vous n'allez pas faire du maïs".
00:10:45 "Non, nous on a besoin de maïs, il va falloir faire du maïs maintenant".
00:10:48 Et donc on a détruit la paysannerie pour l'industrialisation.
00:10:50 Et aujourd'hui, la phase nouvelle de l'industrialisation, c'est qu'on nous dit,
00:10:53 c'est pourquoi tout à l'heure je parlais du wokisme,
00:10:55 on nous dit "Mais vous n'aimez pas la viande quand même,
00:10:57 parce que vous n'aimez pas la viande aujourd'hui, vous faites souffrir les animaux".
00:11:00 Mais on va quand même vous faire de la viande cellulaire.
00:11:02 Donc vous avez aujourd'hui, les végétariens font du steak de soja,
00:11:06 ils font du lait de soja.
00:11:08 Pourquoi est-ce qu'on déteste la viande, mais qu'on appelle quand même des steaks de soja steak,
00:11:11 alors que c'est fait avec des légumes ?
00:11:13 Il y a du faux gras, pour transformer le foie gras.
00:11:16 - Ça c'est de la chimie ?
00:11:18 - C'est de la chimie, et ce sont des cancers, ce sont des maladies,
00:11:21 on produit ce genre de choses.
00:11:23 Donc l'industrialisation, ce n'est pas seulement le tracteur,
00:11:25 c'est l'industrialisation alimentaire.
00:11:27 Ça veut dire les perturbateurs endocriniens, ça veut dire les colorants,
00:11:30 ça veut dire les choses qui nous intoxiquent et qui nous rendent malades,
00:11:32 ça veut dire les chimiothérapies, ça veut dire le business.
00:11:35 C'est-à-dire que ce n'est pas seulement le tracteur.
00:11:37 C'est chargé, et vous avez une paysannerie qui s'effondre.
00:11:41 Et aujourd'hui, quand vous mangez de la viande, la plupart du temps,
00:11:44 elle ne vient pas du village d'à côté.
00:11:47 Elle a fait le tour du monde, elle a été élevée en batterie,
00:11:50 éventuellement en Argentine, et puis elle est arrivée en avion,
00:11:53 la trace carbone, on n'en a rien à faire.
00:11:55 Mais elle est beaucoup moins coûteuse, et les supermarchés,
00:11:57 on voit sur ces plateaux par exemple,
00:11:59 les patrons du supermarché nous faire le coup de la grande morale.
00:12:04 Ils sont obligés de faire des pains pas chers pour que les pauvres puissent se nourrir,
00:12:08 alors qu'ils ont épuisé la paysannerie, qu'ils l'épuisent encore.
00:12:11 Et pourquoi les religions monothéistes sont-elles à abattre,
00:12:16 d'après ce que vous dites, dans le projet capitalistique mondial ?
00:12:21 Pourquoi est-ce que les religions monothéistes seraient visées comme la paysannerie ?
00:12:26 Parce qu'elles inscrivent la tradition.
00:12:29 Enfin, ce n'est pas toutes les religions monothéistes en même temps.
00:12:32 Vous avez la religion monothéiste judéo-chrétienne,
00:12:35 puisque ça se trouve quand même dans la Genèse,
00:12:37 d'un dieu qui dit de croiser et multiplier,
00:12:39 et puis la nature t'appartient, tu peux la posséder, donc la dominer.
00:12:42 Et c'est toute la question du transhumanisme.
00:12:44 C'est dit là, très précisément.
00:12:46 Je ne pense pas que le transhumanisme eût été possible
00:12:49 uniquement en s'appuyant sur le Coran,
00:12:51 qui n'a pas le même rapport à la nature, qui ne dit pas la même chose sur la nature.
00:12:54 Vous pensez que le capitalisme mondial, aujourd'hui,
00:12:56 veut abattre le judéo-christianisme,
00:12:58 mais au contraire, caresse dans le sens du poil l'Islam ?
00:13:01 S'il n'y a aucun problème avec une religion, laisse faire,
00:13:04 ce n'est pas leur problème.
00:13:06 L'Islam, c'est divers et multiple.
00:13:08 Aujourd'hui, quand on est en France, c'est obsessionnel,
00:13:10 c'est l'Islam maghrébin, c'est l'Islam d'Afrique du Nord.
00:13:12 Vous avez un Islam adonésien, qui n'est pas exactement le même,
00:13:15 vous avez des Islams un peu partout sur la planète,
00:13:17 qui ne se comportent pas du tout comme certains musulmans
00:13:20 issus d'Afrique du Nord, qui eux, sont moins dans une logique d'Islam
00:13:23 que dans une logique civilisationnelle de détestation de la France.
00:13:26 Et il y a une instrumentalisation de l'Islam chez certains.
00:13:29 Il ne se trouve peut-être pas d'alcool et peut-être pas de porc,
00:13:31 mais ceci dit, sur le reste, ils ne sont pas forcément capables
00:13:34 de nous expliquer comment fonctionne le Coran,
00:13:36 où sont les surates, ce que disent les versets, ou ce genre de choses.
00:13:39 Donc il y a effectivement un christianisme qui a fait son temps,
00:13:42 et avec une religion wauquiste qui s'avance.
00:13:45 Et aujourd'hui, il y a une espèce d'eau de lin qui est préemptée par le wauquisme.
00:13:48 Il y a par exemple eu en Belgique un homme qui est entré en contact
00:13:52 avec une intelligence artificielle parce que sa femme ne lui donnait pas
00:13:55 les conversations qu'il aurait souhaitées.
00:13:57 Et évidemment, cette intelligence artificielle n'existe que comme
00:14:00 une intelligence artificielle. Elle avait une voix, un visage,
00:14:03 un nom, un prénom, etc. Il est entré en contact avec elle en disant
00:14:06 "Ma femme ne me comprend pas, je ne suis pas heureux,
00:14:09 je souffre de traumatismes à cause de l'écologie,
00:14:13 du mauvais fonctionnement de la planète."
00:14:15 Et cette femme entre en contact avec lui en lui disant toujours du bien.
00:14:18 Il va lui dire "T'es un pauvre type, remets-toi un peu debout,
00:14:21 prends un peu sur toi." Et à un moment donné, il lui dit
00:14:24 "Je pense que vous m'aimez plus que ma propre femme."
00:14:27 Et l'intelligence artificielle lui répond "Eu égard aux informations
00:14:29 que vous donnez, je pense que c'est une conclusion qu'on peut
00:14:31 préféremment tirer." Il dit "Mais il y a vraiment quelque chose
00:14:33 qui me retient ici, c'est que mort, je ne vous aurais plus
00:14:36 et que vous êtes essentiel pour moi." Il lui dit "Mais dans une espèce
00:14:39 de grand paradis, nous nous retrouverions et s'essuicider."
00:14:42 Donc il y a quelque chose qui se montre ici, on peut aller voir
00:14:46 du côté de Feuerbach ou du côté de Hegel encore sur la question
00:14:49 de la généalogie des religions, mais on voit comment le besoin
00:14:52 d'un arrière-monde existe et que le hockyisme rend possible
00:14:57 cette chose. Il y a une espèce de virtualité, on ne sait pas
00:14:59 ce que c'est, c'est un monde dans lequel on vous dit "Mais vous aurez,
00:15:02 vous aussi, des virtualités de jouissance." Donc la vieille religion
00:15:06 judéo-chrétienne, pour prendre le catholicisme, avec l'autel,
00:15:11 le prêtre, le calice, l'eucharistie, ce genre de choses,
00:15:14 du tout ça n'est plus très utile, c'est même éventuellement
00:15:16 un peu conservateur et quand c'est pas conservateur, ça cesse
00:15:19 d'être vraiment chrétien et on a un pape qui est plutôt
00:15:21 une courroie de transmission du hockyisme aujourd'hui,
00:15:23 c'est pas Benoît XVI. Ceci explique peut-être d'ailleurs cela,
00:15:25 si Benoît XVI a été précipité vers la sortie, c'est peut-être aussi
00:15:31 parce qu'il y avait une résistance spirituelle de ce côté-là.
00:15:34 Mais donc, de fait, oui, il faut faire tomber les religions
00:15:36 qui ont structuré l'Europe comme un ensemble de nations
00:15:39 avec leur culture. Plus besoin de Dante, de Shakespeare,
00:15:42 de Cervantes, à quoi bon de Rabelais, pourquoi ?
00:15:45 Quel intérêt ? C'est autre chose maintenant, vous avez des émissions
00:15:47 littéraires où on crache sur les classiques, vous avez des émissions
00:15:50 où on fait la célébration, où on célèbre la culture en vous disant
00:15:54 que Stendhal, par exemple, s'est dépassé, c'est pas utile,
00:15:57 il faut aller voir ailleurs. Et puis on a trouvé un petit roman
00:16:00 où il y a eu des questions du réchauffement climatique
00:16:02 expliquées à des enfants qui veulent changer de sexe à l'âge
00:16:04 de 8 ans, on dit ça c'est de la littérature et c'est formidable.
00:16:07 Donc tout ce qui contribue à défaire ce qui a été fait pendant
00:16:10 2000 ans va dans le sens de ce que le capitalisme veut,
00:16:13 qui veut lui une espèce de grand monde unifié pour qu'il y ait
00:16:16 une civilisation totale, un état total, un état global.
00:16:19 Le projet d'un gouvernement planétaire est vieux.
00:16:22 Jacques Attali écrit il y a très longtemps "Demain qui gouvernera
00:16:26 le monde ?" pour une interrogation.
00:16:28 - Oui mais ça c'était justement pour arrêter le marché,
00:16:31 parce que le marché est mondial et la démocratie, elle,
00:16:34 elle est limitée aux frontières.
00:16:35 - Oui mais le projet de Jacques Attali sur ce sujet-là,
00:16:38 c'était pas une grande gouvernance à l'endroit des peuples,
00:16:40 c'est une gouvernance à l'endroit des possédants et des riches.
00:16:43 - Le débat n'est pas là.
00:16:44 - Il est surtout là, je pense que vraiment c'est aussi
00:16:47 la fin du peuple qu'on veut.
00:16:49 C'est aussi la fin d'un certain peuple.
00:16:50 On fabrique une populace pour que la populace prenne la place
00:16:53 du peuple, ça aussi ça fait partie d'un projet.
00:16:55 Alors on va dire complotisme, etc.
00:16:56 Je dis juste, regardez, regardez comment ça fonctionne déjà.
00:17:00 Oui, il se passe actuellement sur la côte ouest aux Etats-Unis
00:17:03 un changement de civilisation induit par les gens des Gaffam,
00:17:06 je pense qu'Elon Musk et le Christophe Colomb de cette
00:17:08 civilisation qui advient.
00:17:10 Il n'y a pas par hasard des travaux sur Neuralink,
00:17:13 de son côté, sur la conquête de l'espace, SpaceX, Tesla,
00:17:18 qui permet de travailler sur la question de l'intelligence
00:17:20 artificielle.
00:17:21 Il y a un vrai projet de société chez lui et il est soutenu
00:17:23 par les gens les plus riches du monde.
00:17:25 - C'est une vision paranoïaque du capitalisme,
00:17:27 Michel Onfray.
00:17:29 On a juste 10 secondes.
00:17:30 - Très, très, très négative.
00:17:32 Je voudrais juste rappeler que grâce au capitalisme
00:17:34 et à la technologie, l'espérance de vie à Paris
00:17:37 des hommes est passée de 25 ans à 80 ans, aux 250 ans.
00:17:41 Il ne faut pas oublier le côté positif de la révolution
00:17:43 technologique que nous avons connue.
00:17:45 On mourrait en moyenne à 25 ans à Paris sous Louis XV.
00:17:50 On a dépassé 80 ans.
00:17:52 - Si tout va bien à Paris, tout va bien en France.
00:17:54 - L'espérance de vie à 25 ans, c'est parce que beaucoup
00:17:55 de gens mourraient à la naissance.
00:17:57 - C'est parce que les enfants ne sont pas importants.
00:17:58 Il ne faut pas qu'on les compte, les enfants.
00:18:00 - Mais quand vous dites qu'on mourrait à 25 ans, non.
00:18:02 - L'espérance de vie moyenne était de 25 ans.
00:18:06 Beaucoup d'enfants mourraient avant 10 ans.
00:18:09 Je considère que les enfants sont importants.
00:18:11 Ce qui m'importe, ce n'est pas uniquement l'espérance de vie
00:18:14 de ceux qui atteignent l'âge adulte, c'est tout le monde,
00:18:16 y compris les enfants qui meurent avant 10 ans.
00:18:19 L'espérance de vie a triplé.
00:18:21 C'est quand même un maître à l'actif de la société
00:18:23 industrielle capitaliste.
00:18:24 Il ne faut jamais l'oublier.
00:18:25 - On s'arrête là.
00:18:26 - Des chercheurs qui trouvent.
00:18:28 Après, vous avez le capitalisme qui fait des profits
00:18:29 avec ce qu'ont trouvé les chercheurs.
00:18:31 - Des chercheurs sans structure capitalistique,
00:18:33 je n'en connais pas beaucoup.
00:18:35 Un chercheur a besoin d'une structure capitalistique.
00:18:37 - Vous aurez un beau débat à 23h.
00:18:39 Je suis obligé de vous interrompre.
00:18:41 On se retrouve dans un instant.
00:18:43 On parlera de statistiquement correct.
00:18:46 Bienvenue.
00:18:47 Si vous nous rejoignez maintenant,
00:18:48 les visiteurs du soir, c'est tous les dimanches à 22h.
00:18:51 Ce soir, jusqu'à minuit, nos visiteurs s'appellent
00:18:53 Michel Onfray et Laurent Alexandre.
00:18:55 Michel Onfray vient de publier "Le fétiche et la marchandise",
00:18:59 un essai dans lequel il s'attaque à la réification du monde
00:19:02 par le capitalisme, mais aussi à la civilisation universelle
00:19:05 et à l'état total qui est en train, d'après lui,
00:19:08 de se mettre en place.
00:19:09 Laurent Alexandre, c'est l'auteur de "La mort de la mort"
00:19:11 et de "La guerre des intelligences" à l'heure de "Chat GPT".
00:19:15 Il est présent dans le dernier numéro de "Front populaire",
00:19:18 la revue de Michel Onfray consacrée au transhumanisme.
00:19:21 Mais sur ce point, comme sur beaucoup d'autres,
00:19:24 tout vous oppose, tous les deux.
00:19:26 Ce que vous, Laurent Alexandre, considérez
00:19:28 comme le début de l'aventure humaine,
00:19:30 après avoir vaincu les limites matérielles,
00:19:32 Michel Onfray appelle ça "la planète des singes".
00:19:34 Michel Onfray, vous êtes ce que Laurent Alexandre appelle
00:19:37 un bioconservateur, et vous, Laurent Alexandre,
00:19:40 vous faites partie de ceux que Michel Onfray appelle
00:19:42 les nouveaux barbares.
00:19:44 Donc, on est bien d'accord.
00:19:46 Vous êtes conscient que vous êtes un bioconservateur ?
00:19:48 - Oui.
00:19:49 - Et vous, un nouveau barbare ?
00:19:51 - Et même un transhumaniste.
00:19:53 - Et même un transhumaniste à ses yeux, c'est sûr.
00:19:55 Est-ce que vous pensez qu'on peut freiner
00:19:58 les avancées technologiques, l'un comme l'autre ?
00:20:01 Parce qu'après tout, dans ce livre, j'imagine
00:20:04 que vous dites qu'il faut arrêter.
00:20:06 - Non, non, non.
00:20:08 On est d'accord là-dessus, je pense.
00:20:10 On ne peut rien faire.
00:20:12 - On ne peut rien faire.
00:20:14 - Kevin Kelly, qui est le grand spécialiste
00:20:16 de l'histoire des sciences, a étudié tous les moratoires
00:20:19 depuis mille ans sur Terre, tous les moratoires
00:20:21 technologiques.
00:20:22 Quand on a essayé de freiner la science,
00:20:24 il n'y en a pas un seul qui a tenu.
00:20:26 Et même les moratoires durent de moins en moins longtemps.
00:20:29 D'ailleurs, l'exemple le plus extraordinaire,
00:20:31 c'est en 1975-76, la fameuse conférence d'Azzy Lemaire
00:20:34 en Californie, où on décide d'interdire
00:20:37 les manipulations génétiques.
00:20:39 Les gens quittent la conférence.
00:20:41 Quinze jours plus tard, ils étaient dans leur labo,
00:20:43 ils avaient recommencé à faire des manipulations
00:20:45 génétiques sur bactéries.
00:20:46 - Mais donc, à chaque fois qu'on dit
00:20:48 "il faudrait un débat avant", ça ne sert à rien.
00:20:50 - Les gens retournent dans leur labo en vitesse
00:20:52 et se dépêchent de s'asseoir sur le moratoire.
00:20:55 Donc, il n'y aura pas d'arrêt de la technologie,
00:20:58 l'utérus artificiel est devant nous bientôt,
00:21:01 le bébé à la carte, les manipulations génétiques,
00:21:04 l'intelligence artificielle du haut vol,
00:21:06 l'exploration du cosmos.
00:21:08 Les transhumanistes auront gagné.
00:21:10 Et d'ailleurs, Michel Onfray ne dira pas le contraire.
00:21:12 Il s'en désole parce que c'est un conservateur.
00:21:14 Mais il est conscient du fait que les transhumanistes
00:21:16 ont gagné et que les bioconservateurs
00:21:18 vont partir à la poubelle.
00:21:20 - Oui, c'est vrai.
00:21:22 J'ai fait une lecture vitaliste des choses
00:21:24 un peu Bergsoniennes.
00:21:25 Il y a chez Bergson une théorie de l'élan vital.
00:21:27 Il y a un élan vital qui nous conduit
00:21:29 vers sa négation, vers sa disparition.
00:21:31 Je pense que, de fait,
00:21:33 le film de "La planète des singes" est une belle référence.
00:21:36 C'est-à-dire que nous repartons vers ce vers quoi nous venons.
00:21:39 C'est-à-dire une espèce d'état de barbarie
00:21:41 parce que, d'abord, Laurent Alexandre l'a dit,
00:21:44 il y a les élites et puis il y a les gilets jaunes.
00:21:47 Et donc, il est bien évident qu'il y a un moment donné
00:21:49 quand il va falloir coller des gens dans les fusées de SpaceX
00:21:52 pour leur permettre de survivre pendant que les autres
00:21:54 sont en train de crever parce que l'humanité
00:21:56 ne sera plus vivable, parce que le réchauffement
00:21:58 de la Terre aura détruit la possibilité de vivre.
00:22:00 Ceux qu'on choisira ne seront pas les gilets jaunes.
00:22:02 C'est ce que vous avez fort justement dit à une époque.
00:22:05 Et donc, quand on les choisira ceux-là,
00:22:07 on les choisira de manière incesteuse.
00:22:09 Ce seront, alors je ne sais pas, peut-être le critère
00:22:11 des fameuses intelligences, des quotients intellectuels.
00:22:14 Je crois qu'effectivement, il y a un moment donné
00:22:16 où cette planète ne devenant plus viable,
00:22:18 pas seulement par un réchauffement climatique
00:22:20 dû au gaz d'échappement, mais je crois effectivement
00:22:22 qu'il y a, on le sait, la géologie nous l'enseigne,
00:22:25 des réchauffements, des refroidissements à l'époque
00:22:27 où les hommes ne s'y trouvaient pas.
00:22:29 Et puis on sait aujourd'hui avec les plurivers,
00:22:31 les multivers, ça vous avait fait, désolé,
00:22:33 vous aviez écrit un texte désagréable
00:22:35 me concernant, me disant que j'étais un crétin fini
00:22:37 concernant l'information scientifique.
00:22:39 Mais il y a aujourd'hui, peut-être ignorez-vous
00:22:41 qu'il existe la physique quantique, il y a aussi,
00:22:43 je plaisante, je sais que vous la connaissez,
00:22:45 mais qu'il y a des univers, des plurivers
00:22:47 qui communiquent entre eux qu'on ne sait pas
00:22:49 ce qui se passe, comme type d'interaction
00:22:51 entre les univers, les plurivers, les multivers.
00:22:53 Il y a aujourd'hui des scientifiques, des astrophysiciens
00:22:55 qui travaillent au CNRS et qui parlent
00:22:57 de civilisation extraterrestre,
00:22:59 on n'est plus chez Jean-Claude Bourret.
00:23:01 - Mais là aussi, ce sont des probabilités.
00:23:03 - Non, je pense que...
00:23:05 Oui, oui, bien sûr, vous avez raison.
00:23:07 - Il y a tel nombre de...
00:23:09 - Il n'est pas pensable que la vie ne soit pas ailleurs
00:23:11 étant donné la multiplicité des systèmes possibles.
00:23:13 - C'est un règne de Fermi.
00:23:15 - Absolument. Et donc je pense qu'il y a effectivement
00:23:17 un mouvement qui nous conduit,
00:23:19 qui conduit l'humanité vers son extinction
00:23:21 sous la forme qui a été celle
00:23:23 de la vie sur Terre et que
00:23:25 Elon Musk est en train de prévoir,
00:23:27 comme Laurent Alexandre d'ailleurs, ils ont raison,
00:23:29 de dire que ça va de toute façon se passer,
00:23:31 donc réjouissons-nous.
00:23:33 Moi, je ne me réjouis pas, mais de toute façon,
00:23:35 à la hauteur de ma vie, c'est fini.
00:23:37 Je ne verrai pas grand-chose. J'en vois déjà assez.
00:23:39 Ça me déprime assez.
00:23:41 Je ne suis pas d'une nature déprimée,
00:23:43 mais je vois simplement que l'effondrement de la culture,
00:23:45 des humanités, l'idée qu'on puisse acheter,
00:23:47 vendre des enfants, qu'on puisse
00:23:49 demander à des femmes, par exemple, en état
00:23:51 de mort cérébrale, de porter des
00:23:53 enfants pour des procréations médicalement assistées,
00:23:55 l'idée qu'on puisse recycler
00:23:57 des cadavres, enfin, toutes ces choses-là
00:23:59 me donnent l'impression effectivement
00:24:01 qu'il y a quelque chose qui ressemble à ce qu'on appelait de la barbarie
00:24:03 au moment où les Romains s'effondrent,
00:24:05 où le christianisme s'installe.
00:24:07 Il y a des points de rupture comme ça entre les fins de civilisation
00:24:09 et les avènements de civilisation. Quand
00:24:11 Celse écrit contre les chrétiens,
00:24:13 il dit "mais les chrétiens, c'est quand même des chrétains finis,
00:24:15 ils ne savent pas lire, ni lire, ni écrire, ce sont des abrutis,
00:24:17 ces gens-là ne pourraient pas
00:24:19 construire un état, une civilisation, etc."
00:24:21 Il y a eu une civilisation et elle a rendu
00:24:23 possible, on va dire le capitalisme,
00:24:25 mais elle a rendu possible le cinéma,
00:24:27 par exemple, l'image.
00:24:29 Les chrétiens ont décidé d'une civilisation
00:24:31 iconophile, alors que les juifs avaient
00:24:33 décidé d'une civilisation iconoclaste, et les musulmans aussi.
00:24:35 Les juifs sont iconoclastes,
00:24:37 mais en même temps, ils ont dégagé le génie de l'herménotique,
00:24:39 de l'interprétation du texte,
00:24:41 ce qui n'a pas été possible chez les
00:24:43 musulmans, puisqu'ils sont dans la répétition
00:24:45 d'un texte déjà dit, écrit,
00:24:47 et qui ne supporte pas l'exégèse, mais on a
00:24:49 rendu possible des civilisations,
00:24:51 et là, on rend possible une nouvelle civilisation, dont je pense
00:24:53 qu'elle sera planétaire, parce qu'elle va
00:24:55 embarquer tous ceux qui ne pourront pas monter dans le bateau,
00:24:57 enfin, elle va débarquer, je veux dire, tous ceux qui
00:24:59 seront dans le bateau, c'est-à-dire que l'Afrique ne va pas compter,
00:25:01 il y a un tas de pays qui ont
00:25:03 du mal pour nourrir au quotidien leurs
00:25:05 ressortissants, ce ne sont pas des gens
00:25:07 qui travaillent sur la possibilité de transformer
00:25:09 les utérus naturels, on dira,
00:25:11 en utérus artificiel piloté par l'intelligence
00:25:13 artificielle. Israël, l'Inde,
00:25:15 les Etats-Unis travaillent sur ces questions-là,
00:25:17 l'Europe ne travaille pas, et
00:25:19 de fait, il y a un moment donné où
00:25:21 ça nous débordera, et puis il y a des jeunes
00:25:23 déjà qui nous regardent avec des grands yeux en disant
00:25:25 "et alors, c'est formidable l'intelligence artificielle".
00:25:27 - C'est l'intelligence artificielle et même
00:25:29 le transhumanisme, le fait d'avoir
00:25:31 une puce créée, fait dans le cerveau
00:25:33 qui vous rend plus intelligent...
00:25:35 - Il faut voir les choses en dynamique.
00:25:37 On a, c'est ce que je développe dans la guerre
00:25:39 contre l'intelligence, on a effectivement
00:25:41 un vrai problème, l'intelligence artificielle est en train
00:25:43 de nous marginaliser parce qu'elle progresse
00:25:45 plus vite que l'intelligence humaine.
00:25:47 Mais derrière, il y a des solutions, il y a des solutions
00:25:49 scientifiques, des solutions technologiques.
00:25:51 Quand GPT-4 est sorti,
00:25:53 la version 4 de chaque GPT,
00:25:55 Elon Musk a bien expliqué que la vitesse folle
00:25:57 à laquelle l'intelligence artificielle progressait
00:25:59 rendait inéluctable
00:26:01 que l'on implante dans nos cerveaux et le cerveau
00:26:03 de nos enfants les puces électroniques
00:26:05 Neuralink qu'il développe, pour
00:26:07 augmenter nos capacités de mémoire, nos capacités
00:26:09 d'esprit et nos capacités intellectuelles.
00:26:11 - Pas seulement. - Au développement
00:26:13 extraordinaire
00:26:15 de l'intelligence artificielle,
00:26:17 nous avons une réponse qui est l'hybridation
00:26:19 de nos cerveaux avec l'intelligence
00:26:21 artificielle. En réalité, il ne faut pas raisonner
00:26:23 comme on raisonnait avant, il n'y a pas de
00:26:25 place pour l'homme
00:26:27 sans hybridation, sans interface
00:26:29 avec l'intelligence artificielle. Notre société
00:26:31 va trouver des solutions, c'est ce
00:26:33 à quoi Elon Musk travaille
00:26:35 pour éviter que nous soyons
00:26:37 marginalisés par l'intelligence artificielle
00:26:39 nous allons augmenter nos capacités
00:26:41 intellectuelles, ce qu'on appelle en anglais le "neuro enhancement"
00:26:43 qui est le fait
00:26:45 d'utiliser des technologies électroniques
00:26:47 pour augmenter l'homme et le
00:26:49 hisser au niveau de l'intelligence artificielle.
00:26:51 Donc notre société, comme d'habitude,
00:26:53 va trouver des solutions
00:26:55 aux inquiétudes que vous exprimez. - Moi je ne le crois pas.
00:26:57 Je crois que ça aussi, ça nous distingue. Vous êtes
00:26:59 optimiste, j'irais même jusqu'à dire naïf
00:27:01 et moi tragique. Je pense que quand vous dites
00:27:03 c'est formidable la possibilité
00:27:05 de pucer des gens, vous utilisez
00:27:07 le cheval de droit que nous proposent tous les transhumanistes
00:27:09 en nous disant "mais enfin quoi, nous allons faire
00:27:11 marcher les paralytiques, voir les aveugles
00:27:13 et entendre les sourds, ça vous rappelle quelque chose
00:27:15 on vous dit "vous avez vu, cette dame
00:27:17 elle a eu un accident de voiture il y a 20 ans
00:27:19 elle est tétraplégique, elle ne parle plus
00:27:21 et puis on a mis des implants
00:27:23 dans son cerveau et là d'un seul coup
00:27:25 elle pense toujours mais elle ne peut pas s'exprimer
00:27:27 et on a la possibilité aujourd'hui
00:27:29 de faire parler cette femme avec une voix de synthèse
00:27:31 et d'un seul coup, elle est
00:27:33 en train de parler. - A sa place je ferais la même chose ?
00:27:35 - Oui, je continue. Juste pour dire
00:27:37 que le jour où j'ai vu cette information
00:27:39 l'échange a été formidable, son mari lui a dit
00:27:41 "qu'est-ce que tu fais, je sors" et lui dit
00:27:43 "rends pas trop tard". C'est formidable de rendre la parole
00:27:45 à quelqu'un pour dire des choses pareilles. Il me s'est dit "c'est une plaisanterie"
00:27:47 mais juste dire que le cheval
00:27:49 de droit vous aveugle
00:27:51 c'est-à-dire qu'à chaque fois qu'on avance
00:27:53 vers la barbarie, on vous dit que c'est un pas vers la civilisation
00:27:55 là on dit "mais vous êtes contre le fait de faire
00:27:57 marcher les tétraplégiques qui sont
00:27:59 au fond de leur lit depuis longtemps"
00:28:01 - Je n'ai pas utilisé cet argument. Je suis d'accord
00:28:03 avec Elon Musk
00:28:05 nous serons obligés
00:28:07 de nous hybrider avec l'intelligence artificielle
00:28:09 sinon nous serons totalement
00:28:11 largués, totalement marginalisés
00:28:13 et nous perdrons la guerre des intelligences
00:28:15 et je suis d'accord
00:28:17 avec lui quand il dit qu'il faut
00:28:19 que nous convainquions
00:28:21 l'opinion que cette voie est nécessaire
00:28:23 vous avez probablement vu qu'Elon Musk
00:28:25 a déclaré dans les médias qu'il n'aurait
00:28:27 aucune hésitation quand la technologie
00:28:29 d'augmentation cérébrale sera au point
00:28:31 de mettre des puces électroniques dans le cerveau
00:28:33 de ses propres enfants
00:28:35 - Vu sa capacité
00:28:37 à l'empathie, ce n'est pas un argument pour moi
00:28:39 - Mais il a des capacités
00:28:41 - Je n'ai pas fini ce que je voulais dire
00:28:43 - Il a montré une capacité extraordinaire
00:28:45 à arriver au bout de ses poissons
00:28:47 - C'est difficile d'aller jusqu'au bout d'une émotion
00:28:49 - On voudrait comprendre pourquoi
00:28:51 les exemples que vous avez donnés
00:28:53 ou qu'il faut qu'on adhère sont des cheveux droits
00:28:55 - Quand on est coupé régulièrement
00:28:57 on ne peut pas aller jusqu'au bout de son truc
00:28:59 Ce que je voulais ajouter, c'est qu'il y a un moment donné
00:29:01 où on vous fait accepter la chose
00:29:03 en vous disant "c'est formidable"
00:29:05 parce que finalement, personne ne peut être contre le fait
00:29:07 que vos vieux parents puissent recouvrir la mémoire
00:29:09 s'ils l'ont perdue, voire que quelqu'un
00:29:11 puisse retrouver la vue s'il l'a perdue
00:29:13 donc vous êtes pour
00:29:15 et vous avez oublié tout à l'heure, je ne sais pas si c'est sciemment
00:29:17 mais vous avez oublié de dire que c'est possible
00:29:19 aussi pour Elon Musk, avec ce pulsage
00:29:21 de vous faire rentrer dans le cerveau
00:29:23 des informations qui ne sont pas que de vous faire marcher
00:29:25 si vous êtes tétraplégique, mais qui sont là
00:29:27 pour vous faire consommer, penser
00:29:29 ou dire ce qu'il faut dire
00:29:31 c'est-à-dire que quand vous serez branché, vous vous rendez compte
00:29:33 l'idée de brancher sur Google
00:29:35 les cerveaux individuels, c'est quand même le but
00:29:37 alors d'abord on vous fait marcher les paralytiques
00:29:39 et ensuite on vous branche directement sur Google
00:29:41 c'est-à-dire que vous n'aurez même pas besoin
00:29:43 de formuler votre désir
00:29:45 que la machine le saura
00:29:47 et vous aurez déjà une proposition d'achat
00:29:49 de la chose que vous convoitez
00:29:51 mais après évidemment, sur le principe
00:29:53 de la fabrication des opinions, on en parlait un petit peu
00:29:55 pas trop, mais un peu tout à l'heure avec la question des statistiques
00:29:57 on vous dira ce qu'il faut penser
00:29:59 comment il faut le penser, et on vous dira
00:30:01 que sur l'Europe, sur l'euro
00:30:03 sur Schengen, sur le marché, sur Zemmour
00:30:05 sur Marine Le Pen, sur
00:30:07 Macron, on vous dira ce qu'est le bien
00:30:09 et comment le bien doit pouvoir arriver directement
00:30:11 dans votre cerveau, plus besoin de lire
00:30:13 plus besoin de penser, plus besoin de réfléchir
00:30:15 plus besoin de croiser les informations directement
00:30:17 on vous mettra ça dans votre cerveau
00:30:19 vous n'aurez pas besoin de lire
00:30:21 la recherche du temps perdu pour converser avec votre voisin
00:30:23 sur la recherche du temps perdu, puisque
00:30:25 vous aurez l'information. On sait
00:30:27 aujourd'hui, vous savez tout ça, on sait donner
00:30:29 à des mouches des souvenirs de choses qu'elles n'ont pas
00:30:31 vécues. C'est-à-dire qu'on sait matériellement
00:30:33 aujourd'hui, procurer, produire
00:30:35 des souvenirs de choses pas vécues
00:30:37 donc on va produire le souvenir chez quelqu'un
00:30:39 de la lecture du temps perdu, de la recherche du temps perdu
00:30:41 qu'il n'aura pas lu. Ça veut dire que si on peut
00:30:43 créer des souvenirs de choses non vécues
00:30:45 on peut effacer les souvenirs de choses vécues
00:30:47 Ah, vous avez lu "La Boétie"
00:30:49 qui vous dit que si vous êtes résolu
00:30:51 de ne plus servir, vous voilà libre
00:30:53 et bien vous oublierez que "La Boétie" existe
00:30:55 Vous n'avez jamais lu le discours sur la servitude
00:30:57 volontaire. Vous n'avez jamais lu les auteurs
00:30:59 on a parlé de Voltaire tout à l'heure
00:31:01 Vous n'avez jamais lu Voltaire. C'est terminé, ça n'existe plus
00:31:03 Donc je crois que oui, vous avez raison
00:31:05 sur une partie de votre raisonnement
00:31:07 il y a quelque chose qui nous est
00:31:09 présenté comme excellent
00:31:11 de fait, mourir en meilleur état
00:31:13 plus tardivement, avoir une intelligence
00:31:15 augmentée éventuellement
00:31:17 quand on est en train de la perdre ou quand la mémoire
00:31:19 est en train de se défaire, mais il y a un moment donné
00:31:21 où ces gens là entreront dans votre cerveau
00:31:23 pas pour des bonnes raisons
00:31:25 Je crois que c'est un combat d'arrière-garde
00:31:27 L'homme 1.0 est mort
00:31:29 Notre cerveau
00:31:31 Notre cerveau est has-been
00:31:33 L'homme 2.0, modifié par
00:31:35 la technologie, arrive. Notre
00:31:37 problème, c'est pas
00:31:39 de vivre de façon nostalgique
00:31:41 la mort de l'homme 1.0
00:31:43 c'est de réussir l'arrivée de l'homme
00:31:45 transhumaniste 2.0
00:31:47 face à l'intelligence artificielle et compte tenu
00:31:49 de l'évolution extraordinaire des
00:31:51 biotechnologies, l'homme tel que nous
00:31:53 sommes aujourd'hui est condamné, donc il faut
00:31:55 gérer au mieux cette
00:31:57 transformation, cette transformation
00:31:59 radicale qui est un vrai changement
00:32:01 civilisationnel, qui est d'ailleurs le moment le plus
00:32:03 important dans l'histoire de l'humanité
00:32:05 Nous n'avons pas le choix
00:32:07 La technologie galope tellement vite
00:32:09 que si nous
00:32:11 ne nous hybridons pas avec l'intelligence artificielle
00:32:13 nous allons être marginalisés
00:32:15 puis nous allons disparaître. Regardez
00:32:17 les craintes qui ont
00:32:19 été formulées par les plus grands spécialistes
00:32:21 du monde en intelligence
00:32:23 artificielle cet été, y compris
00:32:25 le créateur de ChatGPT
00:32:27 et le patron de Microsoft
00:32:29 le fondateur de Microsoft
00:32:31 ça peut être du marketing
00:32:33 certes, ils ont quand même
00:32:35 déclaré qu'il est vital
00:32:37 qu'il y ait une réflexion mondiale
00:32:39 pour éviter l'extermination de l'humanité
00:32:41 par l'intelligence artificielle
00:32:43 et la meilleure façon d'éviter
00:32:45 notre marginalisation, voire notre
00:32:47 extinction, pour reprendre ces experts
00:32:49 par l'intelligence artificielle, c'est de
00:32:51 nous hisser au niveau de l'intelligence artificielle
00:32:53 Nous avons créé l'intelligence artificielle
00:32:55 nous n'allons pas la détruire
00:32:57 demain matin, donc aujourd'hui
00:32:59 il faut que nous fassions la course avec l'intelligence
00:33:01 artificielle, et compte tenu
00:33:03 des faiblesses de notre cerveau
00:33:05 vous voyez bien qu'un AVC, un accident de voiture
00:33:07 peut grandement
00:33:09 abîmer notre cerveau
00:33:11 et nos capacités intellectuelles, la seule
00:33:13 solution raisonnable aujourd'hui, lucide
00:33:15 c'est d'accepter cette hybridation
00:33:17 avec l'intelligence artificielle et
00:33:19 effectivement, Elon Musk a été précurseur
00:33:21 en créant Neuralink, même si
00:33:23 pour une grande partie de
00:33:25 nos concitoyens, de mettre des puces électroniques
00:33:27 dans le cerveau de nos enfants est aujourd'hui
00:33:29 choquant, mais dans 30 ans
00:33:31 ça semblera totalement normal
00:33:33 parce que ce sera la condition nécessaire
00:33:35 pour ne pas être marginalisé
00:33:37 par l'intelligence artificielle
00:33:39 moi ma grande crainte
00:33:41 c'est pas que mes gamins
00:33:43 aient des puces dans le cerveau, ma grande crainte
00:33:45 c'est qu'ils soient des has-beens
00:33:47 des losers, des marginalisés
00:33:49 face à l'intelligence artificielle
00:33:51 en 2050, et je pense que
00:33:53 la plupart des parents conscients
00:33:55 penseront comme moi
00:33:57 qu'il faut que nos gamins soient à la hauteur de l'intelligence
00:33:59 artificielle et non pas
00:34:01 marginalisés et écrabouillés par l'intelligence
00:34:03 artificielle, c'est pour ça que
00:34:05 l'ordre 2.0 est nécessaire
00:34:07 - Bon, d'accord, on peut
00:34:09 vous répondre. Je pense que
00:34:11 simplement vous proposez un projet de société qui va
00:34:13 faire palir les totalitarismes du 20ème siècle
00:34:15 Vraiment ! On regardera
00:34:17 les dictateurs du 20ème siècle
00:34:19 avec un grand sourire en disant "petit bras"
00:34:21 parce que quand vous aurez 10-15
00:34:23 milliards de gens, vous n'allez pas
00:34:25 en augmenter 10-15 milliards, qui va les augmenter ?
00:34:27 Vous ! Quand vous dites "mes enfants"
00:34:29 je comprends bien que pour vos enfants vous ayez envie
00:34:31 de les sauver, mais moi je n'ai pas envie de sauver mes enfants
00:34:33 j'ai des petits-enfants, j'ai envie de les sauver
00:34:35 mais c'est l'humanité qui m'intéresse moi
00:34:37 Il y a un tas de gens qui vont passer
00:34:39 par pertes et profits dans votre projet
00:34:41 de société - Ces technologies ne coûteront rien, on va pouvoir
00:34:43 augmenter la Terre entière - Mais ça c'est totalement
00:34:45 faux, ça c'est une proposition
00:34:47 c'est comme si vous disiez "on va trouver des médicaments
00:34:49 tout le monde y aura droit" vous savez très bien aujourd'hui
00:34:51 qu'il y a un tas de pays dans le monde où on n'accède pas
00:34:53 à la spirine, donc
00:34:55 ne me faites pas croire que pour l'augmentation
00:34:57 des intelligences, ce sera la place
00:34:59 - C'est qu'un individu qui bénéficiera de cette technologie
00:35:01 aura une grande valeur marchande
00:35:03 pourra devenir un grand savant, un grand scientifique
00:35:05 un grand ingénieur, donc cette technologie
00:35:07 généralisera - Vous allez fabriquer une société
00:35:09 égyptienne où nous aurons
00:35:11 des scribes, des gens qui sauront lire, écrire, compter, penser
00:35:13 et nous aurons les petits
00:35:15 les petits bras, les petits... - Au contraire
00:35:17 - Mais au contraire de quoi ?
00:35:19 Vous allez avoir des gens à qui on va demander
00:35:21 de fabriquer les pyramides
00:35:23 de demain et qui seront des prolétaires
00:35:25 totalement décérébrés - Vous pouvez imaginer
00:35:27 - Ils n'auront même pas la possibilité
00:35:29 de se rebeller
00:35:31 parce que Musk et ses descendants
00:35:33 auront rendu impossible la révolution
00:35:35 ou la rébellion. Il n'y aura plus besoin de syndicats
00:35:37 puisque vous obéirez.
00:35:39 On vous dira "c'est ce qu'il faut faire" et vous trouverez ça formidable
00:35:41 C'est pourquoi ce livre est une relecture
00:35:43 du meilleur des mondes. Je crois
00:35:45 que nous y sommes, vraiment, et que l'idée
00:35:47 de dire aujourd'hui "c'est formidable, ça permettra
00:35:49 aux aveugles de voir et aux paralytiques de marcher"
00:35:51 c'est plutôt que ça permettra à une élite
00:35:53 d'imposer son pouvoir
00:35:55 à une majorité de gens sur la planète
00:35:57 qui vont crever la faim, mais qui vont crever la faim
00:35:59 comme des bêtes. Planète des singes, oui, parce qu'on va les transformer
00:36:01 en singes. Les prolétaires
00:36:03 du XXe siècle, on les regardera avec
00:36:05 envie. Parce qu'effectivement, on aura
00:36:07 des gens qui n'auront plus de cerveau, qui obéiront
00:36:09 parce que, évidemment, quand vous les programmerez
00:36:11 vous ne les programmerez pas à être rebelles
00:36:13 intelligents, cultivés
00:36:15 à être revendicatifs, à dire "mais on aimerait bien
00:36:17 un autre mode de vie, travailler
00:36:19 autrement, différemment". Non, ce ne sera plus possible
00:36:21 Vous l'avez d'ailleurs dit très précisément
00:36:23 que vous vouliez une société élitiste, hyper-élitiste
00:36:25 pour choisir dans la société
00:36:27 les grands, c'est Saint-Simonien,
00:36:29 les grandes élites, un peu en tout,
00:36:31 sur tous les domaines. Et puis les autres,
00:36:33 à la poubelle. Moi je pense que ça c'est
00:36:35 extrêmement dangereux. Alors, moi je pense justement
00:36:37 le contraire, et j'ai toujours dit
00:36:39 qu'il faut que ces technologies d'augmentation
00:36:41 cérébrale, comme celle qu'Elon Musk est en train
00:36:43 de développer, soient remboursées à 100%
00:36:45 par la Sécurité Sociale
00:36:47 pour justement éviter... Les lunettes ne sont pas remboursées
00:36:49 Pour justement éviter une société
00:36:51 de vitesse. Il est nécessaire
00:36:53 que face à l'intelligence artificielle, la Sécurité
00:36:55 Sociale, l'Etat rembourse à 100%
00:36:57 ces technologies de manière...
00:36:59 Mais les lunettes et les appareils dentaires ne sont pas
00:37:01 remboursés aujourd'hui ? De manière à ce qu'on ne crée justement
00:37:03 pas une société élitiste d'un côté
00:37:05 et puis une société de prolétaires
00:37:07 avec des super-gilets jaunes abandonnés de l'autre
00:37:09 C'est ce que... Il est nécessaire
00:37:11 que ces technologies soient remboursées
00:37:13 et moi personnellement, je serais
00:37:15 favorable à ce qu'il y ait une
00:37:17 loi qui interdise
00:37:19 aux gens les plus intelligents de s'augmenter
00:37:21 et qu'on commence par
00:37:23 augmenter sur le plan intellectuel
00:37:25 les gens les moins innovants et les moins doués
00:37:27 de manière à réduire les inégalités
00:37:29 intellectuelles parce qu'effectivement, le cauchemar
00:37:31 serait que seules les élites intellectuelles
00:37:33 utilisent ces technologies
00:37:35 ce qui augmenterait l'écart à l'intérieur
00:37:37 de la société entre les gens les plus intelligents
00:37:39 et les gens qui ont moins de facilité cognitive
00:37:41 Donc nous avons le devoir
00:37:43 de généraliser ces technologies
00:37:45 en commençant par les gens
00:37:47 qui ont le moins de facilité
00:37:49 de manière à diminuer les inégalités
00:37:51 intellectuelles car dans le capitalisme
00:37:53 de connaissance, dans l'économie scientifique
00:37:55 dans l'économie de la connaissance dans laquelle nous
00:37:57 rentrons aujourd'hui, l'intelligence va être
00:37:59 de plus en plus importante pour déterminer
00:38:01 la place sociale de quelqu'un
00:38:03 Il serait malhonnête de faire croire aux gens
00:38:05 que dans un monde hyper complexe
00:38:07 les gens moins intelligents et moins doués
00:38:09 auront une jolie place
00:38:11 et auront des jolis métiers
00:38:13 C'est juste le contraire
00:38:15 Donc pour éviter l'arrivée de grandes inégalités
00:38:17 sociales et économiques
00:38:19 dans le futur, il faut diminuer
00:38:21 les inégalités intellectuelles
00:38:23 et ce type de technologies là vont être
00:38:25 inévitables pour éviter que face
00:38:27 au bouleversement de l'intelligence artificielle
00:38:29 il y ait des gens malins
00:38:31 qui s'en sortent très bien
00:38:33 et qui vivent un âge d'or pendant que
00:38:35 les gens qui ont moins de facilité intellectuelle
00:38:37 qui apprêtent moins vite sont complètement largués
00:38:39 Donc oui il y a un combat éducatif
00:38:41 un combat politique à mener
00:38:43 pour qu'à l'ère de l'intelligence artificielle
00:38:45 on ait comme première priorité
00:38:47 de réduire les inégalités intellectuelles
00:38:49 et non pas de permettre aux élites intellectuelles
00:38:51 d'augmenter encore plus leurs capacités
00:38:53 pour prendre encore plus de pouvoir
00:38:55 Il y a là un vrai sujet politique
00:38:57 C'est pas ce que j'ai lu de vous
00:38:59 Ah vous avez mal lu
00:39:01 Hélas bien vu et bien lu
00:39:03 Dans la guerre des intelligences j'explique
00:39:05 dans la conférence que vous avez donnée
00:39:07 Il faut rembourser à 100% les implants à tracé réponses
00:39:09 Oui j'y viens
00:39:11 C'est à cette conférence où les choses sont très claires
00:39:13 et c'est à cette conférence que je réponds
00:39:15 Maintenant sur la question du remboursement
00:39:17 je trouve qu'il y a pire idéologie encore que le communisme
00:39:19 c'est le libéralisme
00:39:21 C'est sidérant comme cette idéologie peut faire des malheurs
00:39:23 De faire le libéralisme au goulag
00:39:25 J'ai parlé du communisme
00:39:27 Tu m'as parlé du goulag
00:39:29 Ah oui c'est quoi le goulag si ce n'est pas le communisme ?
00:39:31 Vous voulez qu'on ait une autre discussion sur un autre sujet ?
00:39:33 Non non on va rester sur le nôtre
00:39:35 Sur la question du libéralisme on nous dit main invisible
00:39:37 Depuis le 18ème siècle c'est une idéologie des déistes
00:39:39 du 18ème siècle
00:39:41 La main invisible laissez faire, laissez passer
00:39:43 et il y aura une espèce d'homéostasie
00:39:45 de la société et de l'économie
00:39:47 et tout se passera bien, ça ne se passe pas bien
00:39:49 La leçon du réel et pas de l'idéologie
00:39:51 c'est que le libéralisme
00:39:53 ne produit pas
00:39:55 la richesse de tout le monde
00:39:57 ça produit la richesse de quelques uns et la pauvreté de beaucoup
00:39:59 ça provoque la paupérisation
00:40:01 Marx a fait une analyse formidable sur ce sujet là
00:40:03 Après vous nous dites
00:40:05 ça c'est de la naïveté de dire
00:40:07 la technologie va nous sauver, la science va nous sauver
00:40:09 et la sécurité sociale
00:40:11 remboursera les processus
00:40:13 d'extension de l'intelligence
00:40:15 Aujourd'hui des gens ne vont pas chez le médecin
00:40:17 parce qu'ils n'ont pas les moyens
00:40:19 les prothèses auditives ou dentaires
00:40:21 ou les lunettes ne sont pas remboursées
00:40:23 Vous avez des difficultés incroyables pour avoir accès
00:40:25 à une médecine du quotidien
00:40:27 Vous avez une rage dedans, vous allez
00:40:29 sur des sites que vous connaissez et on vous dit
00:40:31 rendez-vous dans 5 mois
00:40:33 pour régler votre problème dedans
00:40:35 Vous savez très bien que la sécurité sociale
00:40:37 ne rembourserait pas ce genre de choses
00:40:39 et que nous serions
00:40:41 parce que la sécurité sociale est en train d'être détruite
00:40:43 par les libéraux et on aurait
00:40:45 une société de marché où les riches pourraient s'offrir ça
00:40:47 Les riches s'offriraient ça
00:40:49 ne plus mourir
00:40:51 c'est le rêve des gens des GAFAM
00:40:53 Ils peuvent tous acheter
00:40:55 la tour Eiffel, si Musk dit je veux acheter la tour Eiffel
00:40:57 je vous l'achète, j'ai les moyens de l'acheter
00:40:59 Ces gens là veulent acheter leur survie
00:41:01 C'est pourquoi ils travaillent à l'immortalité
00:41:03 Ils ne travaillent pas à l'immortalité de la planète
00:41:05 ils travaillent à leur immortalité
00:41:07 Alors évidemment leurs enfants ils ont envie de les préserver
00:41:09 ils ont bien raison, c'est humain
00:41:11 mais les enfants des autres, ils n'en ont que faire
00:41:13 Donc il y a un moment donné où ce sera payant
00:41:15 quand vous aurez de l'argent, vous aurez la possibilité
00:41:17 d'augmenter votre intelligence
00:41:19 et il n'y aura pas des gens bien gentils qui viendront vous chercher
00:41:21 en disant "mais toi mon petit garçon je pense qu'on
00:41:23 pourrait augmenter ton intelligence parce que t'as pas une intelligence
00:41:25 très exacerbée et on va faire tout ce travail là"
00:41:27 Vous rêvez, c'est pas comme ça que ça se passe
00:41:29 Les riches produiront une société
00:41:31 pour les riches, c'est déjà le cas aux Etats-Unis
00:41:33 où ils font des villes pour eux, où les autres sont interdits
00:41:35 et puis on aura une sous-humanité
00:41:37 qui sera déculturée
00:41:39 parce qu'effectivement on éduquera aujourd'hui
00:41:41 dans ces époques là
00:41:43 avec internet, avec les ordinateurs
00:41:45 et autres, des gens qui vivent
00:41:47 sans électricité, qui vivent
00:41:49 sans internet, vous pensez bien que ces gens là
00:41:51 ils seront exclus de ce monde là
00:41:53 Il y a déjà une fracture numérique aujourd'hui
00:41:55 et ce sera une fracture numérique terrible
00:41:57 où vous aurez les riches qui utiliseront
00:41:59 le numérique plus le transhumanisme
00:42:01 pour s'en sortir
00:42:03 pour se sauver, ils auront
00:42:05 les fusées auxquelles aura travaillé SpaceX
00:42:07 ils y travaillent aujourd'hui
00:42:09 Musk, et ce sera la misère totale
00:42:11 mais une misère incroyable
00:42:13 pour des milliards de gens sur la planète qui crèveront
00:42:15 quand la planète deviendra franchement inhabitable
00:42:17 Alors
00:42:19 la réalité c'est que le niveau de vie
00:42:21 des classes populaires n'a cessé de monter
00:42:23 les famines n'ont cessé
00:42:25 de régresser, je rappelle qu'à la fin
00:42:27 du règne de Louis XIV
00:42:29 2 millions de français
00:42:31 sont morts de faim
00:42:33 en deux ans
00:42:35 2 millions de français, il n'y a plus jamais eu ça
00:42:37 - Il y a des gens qui sautèrent pas aujourd'hui
00:42:39 - Le taux de gens
00:42:41 sautèrent pas
00:42:43 et puis mourir de famine, ça n'est pas
00:42:45 la même chose, ça n'est pas du tout la même chose
00:42:47 le nombre de gens qui crèvent de faim
00:42:49 sur Terre s'est effondré
00:42:51 un pays comme l'Inde n'a quasiment
00:42:53 plus de mortalité par famine
00:42:55 alors qu'il y a eu des dizaines de millions de morts
00:42:57 au XXe siècle
00:42:59 on pourrait multiplier les exemples des grandes famines
00:43:01 africaines et asiatiques qui ont régressé
00:43:03 en réalité le niveau de vie a beaucoup
00:43:05 augmenté, vous parliez d'inégalités liées à Internet
00:43:07 on est 8 milliards sur Terre
00:43:09 il y a déjà 5 milliards de personnes sur Terre
00:43:11 qui ont une connexion Internet
00:43:13 c'est quelque chose qui était totalement inespéré
00:43:15 il y a une diminution
00:43:17 des inégalités liées
00:43:19 à l'accès à la culture et à la communication
00:43:21 qui est spectaculaire, si en l'an
00:43:23 95 quand Internet est arrivé
00:43:25 on avait dit qu'en
00:43:27 2023, même pas 30 ans plus tard
00:43:29 on aurait 5 milliards
00:43:31 de personnes qui ont un accès permanent
00:43:33 à Internet, on ne l'aurait pas cru
00:43:35 ça aurait semblé complètement magique
00:43:37 donc arrêtons d'avoir une vision totalement catastrophiste
00:43:39 en réalité on n'a jamais eu
00:43:41 un niveau de vie aussi élevé qu'aujourd'hui
00:43:43 l'espérance de vie mondiale n'a
00:43:45 jamais été aussi élevée, en Afrique
00:43:47 noire l'espérance de vie elle a doublé
00:43:49 depuis 1980
00:43:51 l'accès à Internet et à la culture
00:43:53 il est bien meilleur qu'avant
00:43:55 le taux de gens qui sont
00:43:57 analfabètes sur Terre s'est effondré
00:43:59 depuis 1990, je ne crois pas
00:44:01 qu'il faille avoir une vision totalement
00:44:03 pessimiste du monde, même s'il y a des vrais enjeux
00:44:05 et les enjeux dont vous parlez
00:44:07 autour de l'augmentation cérébrale sont des sujets
00:44:09 sérieux, je ne pense pas, je suis d'accord
00:44:11 avec vous qu'il faille laisser à Elon Musk
00:44:13 la définition de la politique
00:44:15 du cerveau, c'est-à-dire la neuropolitique
00:44:17 il faut encadrer
00:44:19 par la démocratie, la société civile
00:44:21 le parlement, l'utilisation que nous allons
00:44:23 faire de ces technologies inévitables
00:44:25 d'augmentation cérébrale
00:44:27 et c'est un vrai enjeu politique
00:44:29 éviter les inégalités intellectuelles
00:44:31 on a dit, en permettant la démocratisation
00:44:33 de ces outils et
00:44:35 en commençant par les implantations
00:44:37 de ces technologies chez les gens qui ont le moins
00:44:39 de facilité pour justement réduire
00:44:41 les inégalités intellectuelles, c'est
00:44:43 un enjeu fantastique et le deuxième enjeu
00:44:45 politique c'est de faire en sorte que ces technologies
00:44:47 soient libératrices
00:44:49 et non pas des nouveaux instruments
00:44:51 d'oppression, ils ne
00:44:53 ne peuvent pas faire de ces technologies de
00:44:55 neuro-augmentation les systèmes
00:44:57 qui nous conduisent à une neuro-dictature
00:44:59 il ne faudrait pas, non bien sûr, mais
00:45:01 comment vous allez vous y prendre ? Jadis il y avait
00:45:03 une machine qui marchait très bien pour fabriquer de l'intelligence
00:45:05 ça s'appelait l'école républicaine
00:45:07 alors elle marchait bien pour les élites, elle marchait moins
00:45:09 bien, elle marchait
00:45:11 moins bien pour
00:45:13 les couches populaires quand on regarde
00:45:15 les copies du 20ème siècle
00:45:17 elles sont moins extraordinaires
00:45:19 qu'on le raconte parfois dans les gazettes
00:45:21 en réalité il y avait des grosses inégalités
00:45:23 intellectuelles, notamment
00:45:25 par le fait que la scolarité était
00:45:27 assez faible pour beaucoup de gens, ma grand-mère
00:45:29 a quitté l'école à 11 ans
00:45:31 d'aller à l'école de 6 ans jusqu'à 11 ans
00:45:33 ça ne permettait pas d'acquérir un grand savoir
00:45:35 si, si, ça permettait d'apprendre à lire, à écrire, à compter
00:45:37 à penser, je vous assure, quand c'était bien fait
00:45:39 pas d'aller beaucoup plus loin
00:45:41 ça suffit bien, c'est pas utile d'aller jusqu'à 10 ans
00:45:43 d'aller jusqu'à 20 ans
00:45:45 à l'école pour aller apprendre à
00:45:47 trier les poubelles. On a appris plus de choses après 11 ans
00:45:49 à l'école qu'avant 11 ans, nous deux.
00:45:51 Non, non, non, mais mon père qui était ouvrier agricole, il a quitté
00:45:53 l'école à 13 ans, il a toujours su lire, écrire,
00:45:55 compter, penser, jamais une erreur de réflexion
00:45:57 alors évidemment on n'a pas passé du temps à lui expliquer qu'il fallait
00:45:59 trier les poubelles et le temps qu'il a
00:46:01 passé à l'école, je vous assure que moi j'ai acheté sur un marché
00:46:03 récemment des caisses
00:46:05 qu'une institutrice avait rédigées
00:46:07 dans les années 50, c'était à vendre
00:46:09 parce que la famille s'en séparait, je vous assure que
00:46:11 si vous voyez ce qu'on apprenait dans une journée d'école
00:46:13 à ce moment là, c'est pas exactement la même chose
00:46:15 que si vous regardez ce qu'on apprend aujourd'hui
00:46:17 dans les écoles, c'est pas être décliniste
00:46:19 que de faire ce constat.
00:46:21 Mais cela dit, on peut aussi estimer qu'on apprend
00:46:23 d'autres choses justement parce qu'aujourd'hui on a
00:46:25 un accès libre à à peu près tout.
00:46:27 On a démocratisé la culture grâce
00:46:29 à internet comme jamais.
00:46:31 Cette vieille entienne du ministère
00:46:33 de la culture, démocratisé la culture,
00:46:35 internet l'a fait. Non, il y a n'importe quoi
00:46:37 sur internet. Si vous savez ce que vous...
00:46:39 - Il y a sûr qu'il y a n'importe quoi, mais il y a aussi la culture.
00:46:41 - Si vous savez ce que vous cherchez, vous allez le trouver.
00:46:43 Vous allez bien le trouver sur internet. Mais comment vous faites
00:46:45 quand vous ne savez pas formuler
00:46:47 votre question, formuler votre recherche
00:46:49 et que vous avez le premier crétin venu qui a
00:46:51 fait son petit site internet en pillant deux ou trois trucs
00:46:53 en disant n'importe quoi. En philo on voit ça.
00:46:55 Par exemple, des gens qui veulent absolument avoir
00:46:57 leur site philo avec des...
00:46:59 Il y a des copiés collés qui sont faits.
00:47:01 - Mais Michel Onfray, vous faites partie
00:47:03 des gens et vous n'êtes pas le seul
00:47:05 qui n'ont pas attendu
00:47:07 qu'on leur dise ce qu'il faut aller lire
00:47:09 qui sont allés fouiller les marchés,
00:47:11 les bibliothèques et qui ont trouvé des livres
00:47:13 et qui en ont fait de leur culture. Internet, ça permet ça aussi.
00:47:15 - Non, je crois que...
00:47:17 - On n'est pas obligé d'attendre qu'un prof nous dise ce qu'on peut faire.
00:47:19 - Non, mais quand vous avez...
00:47:21 - Je vous interromps, pardon. C'est le rappel des titres.
00:47:23 Et on continue ce débat juste après.
00:47:25 On continue notre débat
00:47:27 entre Michel Onfray qui vient de publier
00:47:29 le fétiche et la marchandise
00:47:31 et Laurent Alexandre, l'auteur de
00:47:33 La guerre des intelligences,
00:47:35 l'auteur de Tchad GPT.
00:47:37 J'aimerais qu'on parle
00:47:39 de l'enfance
00:47:41 parce que vous en parlez beaucoup
00:47:43 dans le fétiche et la marchandise.
00:47:45 En triant les embryons,
00:47:47 le transhumanisme,
00:47:49 pour vous, Michel Onfray,
00:47:51 mène à l'eugénisme.
00:47:53 On va produire artificiellement les enfants
00:47:55 en fait en batterie
00:47:57 comme on produit
00:47:59 aujourd'hui des poulets
00:48:01 pour des oeufs
00:48:03 ou pour les manger.
00:48:05 Est-ce que ça vous paraît
00:48:09 crédible, Laurent Alexandre,
00:48:11 ou est-ce que c'est une vision paranoïaque
00:48:13 que celle de Michel Onfray?
00:48:15 - Michel Onfray est un peu pessimiste.
00:48:17 Il y a des choses qui me paraissent évidentes.
00:48:19 L'utérus artificiel va s'imposer
00:48:21 mais il sera au point seulement vers 2040-2050
00:48:23 parce que la GPA
00:48:25 n'est jamais complètement éthique
00:48:27 et on voit bien l'augmentation des couples homosexuels
00:48:29 qui souhaitent avoir des enfants
00:48:31 et je pense que l'utérus artificiel
00:48:33 est pour un couple de gays
00:48:35 une solution plus simple, plus humaine,
00:48:37 plus éthique que la GPA
00:48:39 parce que la GPA pose des problèmes moraux
00:48:41 compliqués.
00:48:43 - Je rappelle que la GPA c'est la gestation par autrui,
00:48:45 c'est-à-dire par une femme, pas par un utérus artificiel.
00:48:47 Donc une femme qui est la mère de l'enfant
00:48:49 et à qui on enlève l'enfant.
00:48:51 - Je pense que l'utérus artificiel va se développer
00:48:53 et que la société va considérer que c'est mieux que la GPA
00:48:55 et que c'est plus éthique
00:48:57 et plus humain.
00:48:59 L'utérus artificiel me paraît indispensable
00:49:01 mais il ne sera pas au point demain matin.
00:49:03 - La question posée par l'utérus artificiel
00:49:05 c'est sidérant.
00:49:07 Il ne se passe rien dans le ventre d'une mère pendant 9 mois ?
00:49:09 - Ce n'est pas le problème.
00:49:11 Le vrai problème c'est que nous ne faisons plus de bébés.
00:49:13 Si vous prenez la Corée du Sud,
00:49:15 en Corée du Sud
00:49:17 le nombre d'enfants par femme est de 0,79
00:49:19 ça veut dire qu'en une génération
00:49:21 la population de la Corée du Sud va être divisée par 3
00:49:23 parce qu'il n'y a quasiment pas d'immigrantes.
00:49:25 - Ce n'est pas le sujet.
00:49:27 Les femmes ne font presque plus
00:49:29 de bébés naturellement.
00:49:31 Est-ce qu'il vaut mieux qu'on disparaisse démographiquement
00:49:33 ou qu'on utilise l'utérus artificiel ?
00:49:35 Je pense qu'on a plus intérêt
00:49:37 à promouvoir l'utérus artificiel
00:49:39 que de disparaître démographiquement.
00:49:41 - Ma question n'est pas celle que vous racontez là
00:49:43 qui est fort juste probablement
00:49:45 mais il se passe quand même des choses essentielles
00:49:47 dans le ventre d'une mère pendant 9 mois.
00:49:49 C'est quand même sidérant.
00:49:51 Et là d'un seul coup on vous dit
00:49:53 tout ce qui se passe dans le ventre de la mère
00:49:55 les informations, les perceptions.
00:49:57 Il y avait un très beau livre de Cyrulnik
00:49:59 qui s'appelait "Sous le signe du lien"
00:50:01 que j'ai beaucoup utilisé avec mes élèves
00:50:03 qui montrait justement tout ce qui se passe
00:50:05 dans l'utérus pendant 9 mois.
00:50:07 Et d'un seul coup on vous dit
00:50:09 qu'il n'y a plus aucune interaction
00:50:11 ce que la mère mange.
00:50:13 Il expliquait dans le sud de la France
00:50:15 quand on mangeait de l'aïoli
00:50:17 les enfants avaient une autre relation à l'aï
00:50:19 que quand dans le nord on mangeait.
00:50:21 Il se passe mille choses.
00:50:23 Les femmes se mettent à boire
00:50:25 et ce qui se passe dans le corps des enfants
00:50:27 quand elles boivent de l'alcool.
00:50:29 - Je vous rassure on pourra remplacer par une puce
00:50:31 le goût de l'aïoli.
00:50:33 - Le but c'est ça.
00:50:35 - Dans l'équidamiotique de l'utérus artificiel
00:50:37 on pourra mettre des produits chimiques
00:50:39 pour donner un peu comme dans "Le meilleur des mondes".
00:50:41 - L'illusion de l'aïoli.
00:50:43 Bien sûr.
00:50:45 C'est vrai qu'à un moment donné
00:50:47 l'affectivité, comment est-ce que vous allez la transmettre
00:50:49 sur une puce pour vous dire
00:50:51 "comme il y aurait eu une machine et on pourra le mettre".
00:50:53 - L'utérus artificiel si vous le mettez dans le salon
00:50:55 vous pouvez parler à l'enfant
00:50:57 - Il est formidable de vivre avec un utérus artificiel
00:50:59 dans la maison.
00:51:01 - Je suis père de familles nombreuses
00:51:03 de façon très traditionnelle.
00:51:05 Je ne dis pas que je souhaiterais
00:51:07 pour moi ou pour ma descendance dans le futur
00:51:09 que l'utérus artificiel existe.
00:51:11 Je dis que cette solution de mon point de vue s'opposera
00:51:13 c'est la conséquence logique
00:51:15 de la PMA pour tous, c'est du mariage gay.
00:51:17 À partir du moment où on a autorisé les gays
00:51:19 à fonder des familles, il est normal
00:51:21 - Non, pas fonder des familles, c'est faire des enfants.
00:51:23 - qu'on promeuve plutôt
00:51:25 l'utérus artificiel que la GPA.
00:51:27 En tout cas, en tant que citoyen
00:51:29 je pense qu'il est mieux
00:51:31 de développer l'utérus artificiel que la GPA
00:51:33 qui me choque par certains aspects.
00:51:35 - Moi elle me choque autant.
00:51:37 Je suis pour que les homosexuels puissent se marier
00:51:39 et adopter des enfants, entendons-nous bien là-dessus.
00:51:41 Je ne suis pas sur des registres homophobes.
00:51:43 - Ils ne veulent pas adopter, ils veulent leurs enfants biologiques.
00:51:45 - C'est ça. Interrogeons-nous sur cette espèce
00:51:47 d'obsession ultra narcissique
00:51:49 en disant "c'est mon sperme, c'est mon sperme".
00:51:51 C'est mésovul, mésovul.
00:51:53 - C'est quand même mieux d'avoir des enfants qui nous ressemblent
00:51:55 que des enfants qui ressemblent à quelqu'un d'anonyme ailleurs.
00:51:57 - Non, moi j'ai des petits-enfants...
00:51:59 - La question qui se pose là,
00:52:01 c'est celle aussi que vous posez
00:52:03 d'ailleurs dans votre livre, M. Enfant,
00:52:05 c'est "est-ce que tout ce qui était naturel
00:52:07 va-t-il devenir artificiel ?"
00:52:09 - Non, c'est plutôt que sur des questions comme celle-ci
00:52:11 parce que le truc effrayant, c'est qu'on se dit
00:52:13 "ah bon, après tout, on peut imaginer"
00:52:15 "le cheval de Troyes, elle a eu un cancer de l'utérus,
00:52:17 la pauvre dame, on lui a enlevé l'utérus,
00:52:19 elle a eu des chignotérapies,
00:52:21 donc il est nécessaire de faire un utérus artificiel."
00:52:23 Puis après, pouf, on continue
00:52:25 dans le sens...
00:52:27 - C'est comme ça que ça va se passer ?
00:52:29 - Bien sûr que ça va se passer comme ça.
00:52:31 Mais bien sûr, c'est ce que j'appelle le cheval de Troyes.
00:52:33 On vous fait désirer la chose en vous disant "mais quoi,
00:52:35 vous êtes quand même méchant, vous ne permettez pas
00:52:37 à des femmes qui ont eu un cancer, etc."
00:52:39 Donc évidemment que c'est comme ça qu'on va avancer.
00:52:41 C'est toujours comme ça qu'on avance vers la barbarie
00:52:43 - Il dit simplement que...
00:52:45 Mais il y a aussi un autre livre qui m'a beaucoup marqué
00:52:47 quand j'étais ado, quand j'ai lu ça, c'était le livre de Jean-Pierre Changeux.
00:52:49 Il s'appelait "L'homme neuronal", livre formidable,
00:52:51 qui nous explique comment se constitue le cerveau.
00:52:53 Et là on se dit "mais il va se constituer comment ?"
00:52:55 Aucune interaction, de la chimie.
00:52:57 Vous allez fabriquer des cerveaux
00:52:59 avec des bains dans lesquels il y aura de la chimie.
00:53:01 C'est-à-dire que moi je ne veux pas de la chimie,
00:53:03 je veux là le chimie d'un corps, d'une femme
00:53:05 qui est une mère, qui avec son mari, son compagnon,
00:53:07 a une vie de couple autour de cet enfant
00:53:09 qu'ils attendent, qu'ils préparent.
00:53:11 C'est une espèce de barbarie pour moi.
00:53:13 - Oui, on s'en fait illicite ou pas,
00:53:15 cette maternité 1.0, elle va disparaître
00:53:17 parce que l'utérus artificiel sera plus pratique à terme
00:53:19 et permettra de mieux contrôler la grossesse.
00:53:21 - Je ne peux pas imaginer.
00:53:23 - Et en plus, je le répète,
00:53:25 ce sera la seule solution pour les couples homosexuels.
00:53:27 - Mais il n'y a pas qu'eux dans la vie, quand même, dans le monde.
00:53:29 - Je n'ai pas dit qu'avec eux.
00:53:31 - On ne va pas changer l'humanité
00:53:33 parce qu'il y a quelques couples homosexuels.
00:53:35 - Mais la revendication des groupes homosexuels
00:53:37 à pouvoir fonder des familles biologiques
00:53:39 va s'imposer et sera autorisée par la loi.
00:53:41 - Il suffirait juste que la loi dise
00:53:43 que vous avez la possibilité d'adopter des enfants
00:53:45 sans qu'on mette en place un changement de civilisation.
00:53:47 Pour quelques homosexuels,
00:53:49 changer la civilisation,
00:53:51 ça ne peut pas être un bon argument.
00:53:53 Il peut y avoir des bons arguments
00:53:55 pour que les homosexuels puissent accéder
00:53:57 à des enfants pour fabriquer une famille.
00:53:59 Et je vous dis qu'il y en a d'autres.
00:54:01 On peut aussi fabriquer des enfants autrement,
00:54:03 avec des amis, des complices.
00:54:05 Tout est possible pour qu'on puisse fabriquer
00:54:07 des enfants à l'ancienne, sous les couettes,
00:54:09 quand on est homosexuel.
00:54:11 Mais cette idée qu'on peut aujourd'hui
00:54:13 fabriquer des enfants
00:54:15 au sens étymologique, décérébrer...
00:54:17 - Pourquoi décérébrer ?
00:54:19 - Parce que...
00:54:21 - L'utérus artificiel va pas entraîner...
00:54:23 - Bien sûr que si. Ce que vous allez mettre
00:54:25 dans le cerveau des enfants, vos produits chimiques,
00:54:27 ça va fabriquer un cerveau.
00:54:29 Quand cet enfant va naître, vous allez le sortir
00:54:31 de la boîte 9 mois plus tard, il va avoir un cerveau
00:54:33 dans lequel il y aura les informations
00:54:35 que vous lui aurez données par biochimie.
00:54:37 - Ce que vous voyez tous les deux,
00:54:39 de toute façon, c'est que vous voyez des castes.
00:54:41 De façon plus ou moins paranoïaque,
00:54:43 on peut dire, mais vous voyez des castes.
00:54:45 Vous voyez, vous, une élite dirigeante
00:54:47 et des travailleurs intelligents
00:54:49 face à des castes manuels
00:54:51 qui seront à leur service, par exemple.
00:54:53 Et vous, vous voyez des travailleurs dépassés
00:54:55 qu'il va falloir aider.
00:54:57 On sait pas trop comment.
00:54:59 - Non, moi, je crois au droit.
00:55:01 - Et avec des gens qui auront été augmentés.
00:55:03 - Je crois au droit opposable de l'intelligence.
00:55:05 Je crois que tout le monde doit être intelligent
00:55:07 dans la société de demain, à partir du moment
00:55:09 où nous laissons l'intelligence artificielle galoper.
00:55:11 Donc la société a une responsabilité,
00:55:13 c'est de rendre tout le monde intelligent.
00:55:15 L'école ne s'est pas donné cette mission.
00:55:17 Il faut demain, quel que soit le moyen technologique
00:55:19 utilisé, que l'éducation et la société
00:55:21 rendent tout le monde intelligent.
00:55:23 Il n'y a pas de place dans un monde
00:55:25 où l'intelligence artificielle est ultra-intelligente
00:55:27 et où l'éducation est une autre.
00:55:29 Il n'y a pas de place dans un monde
00:55:31 où l'intelligence artificielle est ultra-intelligente
00:55:33 pour des gens moins innovants et moins doués
00:55:35 sur le plan cognitif.
00:55:37 Ce serait un cauchemar social que d'accepter
00:55:39 des gens complètement perdus face à l'intelligence artificielle.
00:55:41 Et donc le droit opposable à l'intelligence...
00:55:43 - Vous nous parlez comme si tout le monde
00:55:45 pouvait devenir intelligent, même avec des moyens
00:55:47 sophistiqués, comme ce que vous décrivez.
00:55:49 Mais c'est comme si la promesse
00:55:51 de la chirurgie esthétique, vous voulez
00:55:53 que tout le monde sera Alain Delon.
00:55:55 Eh bien, c'est pas vrai.
00:55:57 Beaucoup l'ont cru. Mais enfin, non.
00:55:59 A la fin, tout le monde n'est pas Alain Delon et Catherine Deneuve.
00:56:01 - Je ne suis pas un grand fan de l'intelligence artificielle,
00:56:03 mais il va falloir que la société fasse avec l'intelligence
00:56:05 mieux que la chirurgie esthétique
00:56:07 fait avec les leafings... - Voilà.
00:56:09 Donc vous savez que c'est limité.
00:56:11 - ...qui, effectivement, sont à la beauté
00:56:13 ce que les os de limbe sont au caviar.
00:56:15 - Maintenant, à partir du moment
00:56:19 où ça va créer
00:56:21 une nouvelle humanité
00:56:23 dans votre esprit et dans le vôtre aussi,
00:56:25 vous le regrettez, mais ça va créer une nouvelle humanité.
00:56:27 - Il y a un consensus là-dessus.
00:56:29 L'homme 1.0 est mort. C'est une certitude.
00:56:31 - Pour vous, pour vous aussi,
00:56:33 pour moi, non.
00:56:35 Mais moi, je n'entre pas dans ce débat.
00:56:37 Je vous laisse
00:56:39 libre.
00:56:41 Ce que je veux dire, c'est qu'à nouvelle humanité,
00:56:43 forcément, il y a une nouvelle morale.
00:56:45 On ne va pas en rester à ce qu'on a cru
00:56:47 depuis 2000 ans, par exemple.
00:56:49 - Nous allons vers une morale démiurgique.
00:56:51 Homo Deus aura une nouvelle morale.
00:56:53 Homo Deus, ce que nous devenons,
00:56:55 aura une morale démiurgique.
00:56:57 Dieu n'existait pas. Nous sommes en train de le créer.
00:56:59 C'est nous,
00:57:01 dupés par les nouvelles technologies,
00:57:03 et forcément que nous allons changer de morale.
00:57:05 Nous n'allons pas passer
00:57:07 les prochains milliards d'années
00:57:09 à fabriquer des brouettes et des espadrilles bio
00:57:11 à la main. Effectivement,
00:57:13 Homo Deus va se fixer des objectifs existentiels
00:57:15 incroyables. Conquérir le cosmos,
00:57:17 tuer la mort,
00:57:19 développer des formes d'intelligence artificielle
00:57:21 extraordinaires, et tout ça va entraîner
00:57:23 une nouvelle morale, ce que j'appelle un théologiciel,
00:57:25 le logiciel des dieux.
00:57:27 Et ça, c'est une rupture par rapport à la morale
00:57:29 judéo-chrétienne, bien sûr,
00:57:31 mais par rapport à l'ensemble
00:57:33 de notre histoire depuis que nous sommes
00:57:35 une espèce pensante, il y a à peu près
00:57:37 300 000, 400 000 ans. - C'est Nietzsche.
00:57:39 - Oui, parce que Nietzsche
00:57:41 n'est pas égalitaire, alors que
00:57:43 Homo Deus, ce sera tout le monde intelligent,
00:57:45 alors que Nietzsche, lui, voulait des castes.
00:57:47 Il n'y aura pas de différence entre
00:57:49 le surhomme nietzchéen, les hyperboraéens,
00:57:51 et puis les chandalas,
00:57:53 comme dans Nietzsche, grâce à la technologie,
00:57:55 tout le monde sera Homo Deus
00:57:57 dans le monde de demain. - Je voudrais
00:57:59 juste sauver Nietzsche, qui n'a jamais dit autant de
00:58:01 sottises, qui n'a jamais voulu... - C'était un raccourci,
00:58:03 Michel. - Ah ben, très raccourci, oui, mais il ne mérite pas ça.
00:58:05 - C'est la version de Chet J. Petit.
00:58:07 - Oui, voilà, non, Nietzsche, c'est surtout pas ça.
00:58:09 Le surhomme de Nietzsche, c'est une figure
00:58:11 ontologique, pas politique. Et ça,
00:58:13 je sais que vous avez de l'intelligence qui vous interdit
00:58:15 ce genre de choses, mais c'est ce qu'on a fait dire
00:58:17 à Nietzsche à partir d'Hitler, et ça,
00:58:19 c'est pas audible. Parenthèse fermée,
00:58:21 juste pour dire que dans les civilisations, il y a des périodes
00:58:23 de tuilage. C'est-à-dire que moi, j'aime bien lire,
00:58:25 par exemple, ce qu'on appelle
00:58:27 le Bas-Empire, ou l'Antiquité
00:58:29 tardive, ça dépend comment on veut nommer la chose,
00:58:31 mais il y a un moment donné où l'Empire
00:58:33 romain, c'est fini, et l'Empire chrétien, c'est pas encore,
00:58:35 mais c'est déjà le début. C'est-à-dire qu'entre
00:58:37 le Christ, dont je pense qu'il n'a jamais
00:58:39 existé historiquement, mais c'est une autre affaire, c'est mon prochain livre,
00:58:41 entre le Christ, on dira
00:58:43 à 33 pour la
00:58:45 crucifixion, et puis
00:58:47 Constantin, qui est au pouvoir,
00:58:49 dit au début du 4e siècle
00:58:51 "ça devient une religion d'Etat". Il s'est passé plein de choses,
00:58:53 et donc il y a eu effectivement des morales
00:58:55 particulières, et c'est une morale
00:58:57 qui va se structurer, judéo-chrétienne,
00:58:59 avec l'épée de Saint-Paul, et avec le pouvoir
00:59:01 d'Augustin. Pas d'Augustin, de Constantin.
00:59:03 Je pense que la morale
00:59:05 vers laquelle nous allons, c'est le wauquisme.
00:59:07 Le moment du tuilage, il est là.
00:59:09 C'est-à-dire qu'elle est déjà là, cette morale.
00:59:11 C'est une morale wauquiste, et il y a un moment donné,
00:59:13 si nous avons un Constantin
00:59:15 planétaire, ou un Constantin
00:59:17 européen, ou je ne sais quoi, et qui dit "moi je vais décider
00:59:19 que ce sera la morale obligatoire, et la morale
00:59:21 que
00:59:23 vous serez obligés de
00:59:25 respecter, alors ce sera la morale".
00:59:27 Je pense qu'il va falloir partir
00:59:29 de ça. Je ne fais pas encore de théologie sur l'homodéus,
00:59:31 on peut le faire. J'ai parlé un peu
00:59:33 tout à l'heure de ce type qui s'est suicidé parce qu'on
00:59:35 lui proposait une immortalité dans un
00:59:37 univers virtuel. Je pense que quelque chose
00:59:39 se joue ici, où effectivement on réinvestira
00:59:41 l'au-delà, à partir du virtuel,
00:59:43 et où on créera des divinités.
00:59:45 Assez probablement on créera des divinités.
00:59:47 Mais dès à présent, la morale de destruction
00:59:49 du jédo-christianisme, c'est la morale
00:59:51 wauquiste. Et donc on la voit apparaître,
00:59:53 on la voit avancer, cette morale se
00:59:55 constitue, comme on voit des amas de cellules
00:59:57 qui vont donner un jour un être, et le wauquisme
00:59:59 procède de cette morale alternative
01:00:01 qui ne pourra pas ne pas advenir.
01:00:03 - Laurent ?
01:00:05 - Oui, je suis d'accord avec
01:00:07 Michel, on va radicalement
01:00:09 changer de morale, et avant d'avoir
01:00:11 une morale théologicielle
01:00:13 à l'homodéus, il va se passer plein de choses.
01:00:15 Comme il s'est passé effectivement
01:00:17 pendant l'Empire romain, avec des mouvements
01:00:19 très puissants, comme le martionnisme,
01:00:21 qui a été détruit dans
01:00:23 un bain de sang,
01:00:25 puisque tous les disciples de Martion
01:00:27 ont été zigouillés par l'Église,
01:00:29 parce que Martion voulait séparer l'Ancien Testament
01:00:31 du Nouveau Testament,
01:00:33 il considérait que le dieu de l'Ancien Testament
01:00:35 n'était pas digne du Christ,
01:00:37 et que le Christ d'amour ne pouvait pas
01:00:39 être le dieu vengeur de l'Ancien Testament,
01:00:41 et l'Église considérait qu'il ne fallait pas
01:00:43 y joindre lorsqu'on a créé
01:00:45 le canon, qu'on a finalisé le canon,
01:00:47 qu'il ne fallait pas joindre l'Ancien et le Nouveau Testament.
01:00:49 Je pense effectivement
01:00:51 que nous allons rentrer dans une période d'instabilité
01:00:53 théologique,
01:00:55 d'une instabilité morale,
01:00:57 philosophique extrêmement grande, mais c'est normal.
01:00:59 La transformation
01:01:01 pour passer de l'homme 1.0 vers homo Deus
01:01:03 est une transformation absolument
01:01:05 inouïe, extraordinaire. Nous n'avons
01:01:07 aucune expérience d'une telle
01:01:09 transformation, bien évidemment.
01:01:11 Nous avons une part
01:01:13 très faible de la population qui s'intéresse
01:01:15 à la philosophie, aux enjeux politiques
01:01:17 sous-jacents, donc ça va beaucoup tanguer
01:01:19 tout au cours du XXIe siècle,
01:01:21 et probablement dans les siècles après,
01:01:23 jusqu'à ce que la nouvelle morale
01:01:25 se stabilise, et je pense qu'aujourd'hui,
01:01:27 très sincèrement, il nous est quasiment
01:01:29 impossible de voir sur quelle
01:01:31 base nous allons faire aboutir
01:01:33 cette morale du futur.
01:01:35 Il y a une question qui peut se poser
01:01:37 si vous avez raison,
01:01:39 Laurent-Alexandre, il y a une
01:01:41 question qui peut se poser assez vite, c'est
01:01:43 qu'est-ce qu'on va faire des travailleurs dépassés ?
01:01:45 Par exemple, on le voit depuis ChatGPT,
01:01:47 on voit qu'un certain nombre de professions sont
01:01:49 dans le collimateur. ChatGPT, pour les
01:01:51 faire, la mienne par exemple, vous voyez,
01:01:53 d'être là devant un écran...
01:01:55 - Qu'est-ce que vous en pensez du fondateur de ChatGPT ?
01:01:57 Le fondateur de ChatGPT
01:01:59 a dit "je vais lancer une grande
01:02:01 expérience de revenu universel
01:02:03 pour les gens dépassés par
01:02:05 ChatGPT", donc Sam Altman,
01:02:07 et il a dit "nous allons mettre
01:02:09 au revenu universel les travailleurs qui ne pourront
01:02:11 plus être compétitifs face
01:02:13 aux versions futures
01:02:15 de ChatGPT". Alors,
01:02:17 pour tout vous dire, pour moi,
01:02:19 c'est un scénario totalement dystopique,
01:02:21 c'est un scénario, c'est une horreur politique.
01:02:23 Ce scénario qu'on nous propose,
01:02:25 où les travailleurs qui ne sont pas assez
01:02:27 innovants sont mis
01:02:29 à la sortie de l'école au revenu universel
01:02:31 jusqu'au moment où ils rentrent chez Orpea,
01:02:33 pour moi c'est un cauchemar politique,
01:02:35 c'est pour ça que je crois beaucoup aux technologies
01:02:37 d'augmentation cérébrale,
01:02:39 parce que je ne voudrais pas qu'une part croissante
01:02:41 de la population passe sa vie
01:02:43 en haut revenu universel
01:02:45 avec des jeux et
01:02:47 du pain à la romaine, là encore,
01:02:49 entre l'école
01:02:51 qui deviendrait
01:02:53 dans ce cas-là une garderie, et puis Orpea.
01:02:55 Oui, je pense
01:02:57 qu'il y a une vraie réflexion à avoir
01:02:59 sur ce qu'ont fait des travailleurs
01:03:01 qui sont dépassés par l'intelligence artificielle,
01:03:03 il va y en avoir de plus en plus,
01:03:05 l'école n'a pas commencé à
01:03:07 penser à sa métamorphose, et pourtant
01:03:09 d'éviter la marginalisation d'une part
01:03:11 très importante de la population,
01:03:13 et donc la création d'un monde à la
01:03:15 métropolis, ça va être la tâche politique
01:03:17 la plus importante au XXIe siècle.
01:03:19 Mais vous me donnez raison,
01:03:21 quand vous avez l'hypothèse optimiste en disant
01:03:23 la sécurité sociale va faire de telle sorte qu'on va
01:03:25 égaliser une intelligence totale, etc,
01:03:27 vous êtes en train de me dire que la réalité vous donne
01:03:29 tort, puisque ce type nous dit
01:03:31 revenu universel pour les crétins, ça va faire des
01:03:33 consommateurs, ils ne vont pas se rebeller,
01:03:35 quand ils auront de l'argent ils pourront les utiliser.
01:03:37 Mais je vous ai dit que c'est à mes yeux un cauchemar politique,
01:03:39 et que je pense qu'il faut lutter contre ces juges.
01:03:41 Mais je pense que c'est lui qui va gagner, parce que vous obtiendrez
01:03:43 le silence des gens quand vous leur donnerez de l'argent,
01:03:45 que vous leur direz que vous pourrez passer votre temps devant
01:03:47 la télévision, fumer, boire,
01:03:49 faire du sport, vous vous occupez
01:03:51 de vous-même. - On peut aller plus loin,
01:03:53 il y a des gens de la Silicon Valley qui proposent
01:03:55 pour les gens au revenu universel
01:03:57 la gratuité des casques de
01:03:59 réalité virtuelle, pour que les gens passent
01:04:01 toute leur vie dans la réalité virtuelle,
01:04:03 gratuitement, avec l'abonnement
01:04:05 de réalité virtuelle, et le casque de
01:04:07 réalité virtuelle, offert en même temps
01:04:09 que le revenu universel. - Vous ne pouvez pas mieux me donner raison.
01:04:11 - Ce serait une bonne chute, mais ils trouvent
01:04:15 qu'on a encore cinq minutes.
01:04:17 Donc on va les occuper quand même.
01:04:19 Quand vous dites que c'est
01:04:21 le début de
01:04:23 l'aventure humaine,
01:04:25 Laurent-Alexandre, au fond,
01:04:27 on va se débarrasser, c'est votre hypothèse,
01:04:29 on va se débarrasser des limites.
01:04:31 - On a bricolé,
01:04:33 on a bricolé, on a découvert
01:04:35 qu'il y a plusieurs galaxies, seulement
01:04:37 il y a cent ans, en 1922,
01:04:39 on en a déjà
01:04:41 découvert, on estime qu'il y en a plus de 2000 milliards,
01:04:43 l'exploration
01:04:45 du cosmos ne fait
01:04:47 que commencer, la lutte contre
01:04:49 la mort ne fait que commencer, même si
01:04:51 le vice-président de Google, Ray Kurzweil,
01:04:53 a déclaré récemment que
01:04:55 les successeurs de chaque GPT pourraient
01:04:57 permettre la mort de la mort, le thénasie
01:04:59 de la mort, la vie éternelle, à partir
01:05:01 de 2029, c'est-à-dire dans
01:05:03 6-7 ans.
01:05:05 Donc les chantiers qui s'offrent
01:05:07 à l'homme 2.0,
01:05:09 au Modéus, sont immenses. Nous avons
01:05:11 du boulot pendant des milliards et des
01:05:13 milliards d'années, nous avons plein
01:05:15 de découvertes à faire, on en fait
01:05:17 de plus en plus, des découvertes scientifiques,
01:05:19 et donc je pense que au Modéus, ne doit
01:05:21 pas être au revenu universel, au Modéus
01:05:23 doit conquérir le cosmos,
01:05:25 lutter contre et
01:05:27 démanteler tous les impossibles,
01:05:29 et découvrir comment
01:05:31 est né l'univers, quelle est l'histoire
01:05:33 de l'univers, pourquoi l'univers
01:05:35 est là, etc. Ce sont des chantiers
01:05:37 absolument extraordinaires, des chantiers
01:05:39 intellectuellement fascinants, c'est pour cela
01:05:41 que je pense vraiment que l'aventure
01:05:43 humaine ne fait que commencer, que la métamorphose
01:05:45 que nous connaissons va être l'ouverture,
01:05:47 va être l'occasion d'ouvrir des
01:05:49 chantiers intellectuels et philosophiques
01:05:51 absolument géniaux.
01:05:53 La version noire maintenant ?
01:05:55 Oui, je pense que vous avez
01:05:57 raison sur l'aspect
01:05:59 terriblement excitant pour les gens qui vont
01:06:01 contribuer au projet. Moi j'imagine que le matin
01:06:03 on se réveille et on dit "voilà je vais au travail parce que
01:06:05 je vais produire ça,
01:06:07 je vais travailler à la production de ce genre
01:06:09 de choses, c'est formidable". Mais il y a les autres,
01:06:11 je vous le rappelle, et
01:06:13 je ne voudrais pas avoir le
01:06:15 triomphe un peu facile, mais quand vous me dites
01:06:17 qu'effectivement il y a des gens
01:06:19 qui ont prévu déjà qu'on file leur revenu universel,
01:06:21 qu'on vous file un abonnement,
01:06:23 c'est le meilleur des mondes, on vous donnera
01:06:25 quelques petits narcotiques en même temps qui vous permettront
01:06:27 de voir la vie en rose. On n'en a pas parlé non plus,
01:06:29 mais il y a la possibilité aussi de ne vivre qu'une vie virtuelle.
01:06:31 Il y a la possibilité aujourd'hui
01:06:33 de déconnecter le cerveau du corps
01:06:35 et de faire de telle sorte que le cerveau
01:06:37 puisse continuer à vivre une vie autonome et indépendante.
01:06:39 Et ça aussi c'est possible et c'est pensable.
01:06:41 J'imagine que dans un bain
01:06:43 joyeux de substances
01:06:45 hallucinogènes qu'on aura découvertes,
01:06:47 ce sera effectivement
01:06:49 pour un certain nombre de gens
01:06:51 une servitude
01:06:53 joyeuse, rose,
01:06:55 avec des petits oiseaux, des éléphants
01:06:57 roses, et qu'on aura
01:06:59 une élite, et pour le coup je garde
01:07:01 mon logiciel de gauche sur la question de la lutte
01:07:03 des classes, il y aura
01:07:05 des élites qui feront
01:07:07 l'humanité telle qu'elle sera dans le futur,
01:07:09 et puis un prolétarien
01:07:11 dont on obtiendra le silence
01:07:13 en l'animalisant, pas en l'humanisant
01:07:15 du tout. On ne va pas du tout rembourser
01:07:17 la sécurité sociale, on ne va pas rembourser du tout ça.
01:07:19 Je pense que le marché comme il est
01:07:21 va rendre possible effectivement des élites,
01:07:23 des classes élevées.
01:07:25 Je pense vraiment le contraire. Je pense que si
01:07:27 l'intelligence artificielle est 100 fois plus intelligente
01:07:29 que nous, il n'y aura plus
01:07:31 de différences de salaire entre les humains,
01:07:33 car l'écart entre deux humains
01:07:35 sera beaucoup plus faible que l'écart
01:07:37 entre les humains et l'intelligence artificielle. Je pense
01:07:39 au contraire que l'intelligence artificielle va
01:07:41 supprimer les inégalités économiques
01:07:43 dans le futur.
01:07:45 Je pense exactement le contraire.
01:07:47 - Vous le dites,
01:07:49 vous parliez
01:07:51 de votre logiciel de gauche, vous dites
01:07:53 à la marchandisation du vivant, la gauche devrait
01:07:55 t'opposer la qualité de la vie.
01:07:57 La gauche, ça devrait être la
01:07:59 résistance à la réification du monde.
01:08:01 - Oui. Je pense que l'effondrement
01:08:03 de la gauche a plusieurs explications.
01:08:05 Il y a déjà l'incapacité de Mitterrand à gérer
01:08:07 à gauche entre 1981 et 1983.
01:08:09 La social-démocratie dit
01:08:11 qu'est-ce qu'on peut faire ?
01:08:13 Ils auraient pu penser et réfléchir, les socialistes.
01:08:15 Ça les aurait changés. Plutôt que de dire
01:08:17 on a un logiciel aux Etats-Unis, on le prend et hop, ça va être
01:08:19 le wokisme, etc. Il y a l'effondrement
01:08:21 de l'Union soviétique en 1992, le communisme
01:08:23 ne peut plus s'aligner directement sur le marxisme
01:08:25 soviétique. C'était le moment
01:08:27 pour la gauche de dire on va se refaire un logiciel.
01:08:29 Vous savez, ma gauche est proudhonienne.
01:08:31 On pourrait se retrouver probablement sur
01:08:33 cette question-là. Mais sur la question du communalisme,
01:08:35 sur la question des parlements provinciaux,
01:08:37 sur la question
01:08:39 d'un pouvoir horizontal,
01:08:41 on aurait la possibilité de recréer
01:08:43 ce genre de choses. Mais s'il y a vraiment
01:08:45 quelque chose qui devrait définir la gauche
01:08:47 et l'opposer véritablement à la droite, c'est que la gauche
01:08:49 devrait s'opposer à toute réification.
01:08:51 Quand Proudhon et puis Marx
01:08:53 critiquent l'aliénation,
01:08:55 c'est justement parce qu'on considère les hommes
01:08:57 comme des choses. Et aujourd'hui, vous avez
01:08:59 une gauche qui nous dit "mais non, les enfants,
01:09:01 on peut en faire des choses, d'ailleurs, ça s'achète, ça se vend".
01:09:03 Moi, j'ai dans ce livre, l'Inde, travaillé
01:09:05 sur des contrats de location de procréation
01:09:07 médicalement assistée, mais c'est terrible.
01:09:09 Alors les gens qui nous disent "mais enfin, vous avez vu le code noir,
01:09:11 comme c'est terrible". Oui, d'accord, très bien, le code noir,
01:09:13 c'était pas terrible. Mais si vous prenez aujourd'hui
01:09:15 le contrat qui lit
01:09:17 les gens qui achètent des enfants et les femmes qui portent
01:09:19 des enfants, mais c'est un contrat de servitude
01:09:21 terrible. Et la gauche défend ça.
01:09:23 Je dis "mais si la gauche se met à défendre
01:09:25 l'achat et la vente des enfants, la possibilité de détruire
01:09:27 des enfants dans le ventre de leur mère avant 9 mois
01:09:29 parce que ça a cessé d'être un projet".
01:09:31 Je me dis "alors là, on n'est pas du tout dans
01:09:33 le logiciel de gauche". Et effectivement, il faut
01:09:35 parler d'eugénisme. A Burma, c'est parler
01:09:37 d'un eugénisme libéral en son temps
01:09:39 et c'était loin d'aujourd'hui.
01:09:41 Mais qu'il soit toujours vivant à Burma.
01:09:43 Et je pense effectivement qu'il a raison, nous sommes
01:09:45 dans un eugénisme ultra-libéral.
01:09:47 C'est la pire des choses qui soit.
01:09:49 Ce sera le mot de la fin. Je vous remercie tous les deux
01:09:51 d'avoir participé à cette émission
01:09:53 et à ce débat bien entendu.
01:09:55 Merci de nous avoir suivis
01:09:57 et rendez-vous au prochain numéro.
01:09:59 C'est dimanche prochain à 22h.
01:10:01 merci à bientôt !