#Lolo.

  • il y a 3 mois
Transcript
00:00Selon Elon Musk, elle pourrait être plus dangereuse que les armes nucléaires.
00:05Les intelligences artificielles, aussi appelées IA, sont au cœur de l'actualité depuis que fin 2022,
00:10le robot conversationnel Chad GPT a été médiatisé.
00:14Certains parlent de révolution, d'autres même d'apocalypse.
00:18Certains évoquent même une quatrième faille narcissique de l'humanité
00:22après la révolution copernicienne, le darwinisme et la psychanalyse.
00:26Voilà que l'intelligence échapperait désormais à l'homme.
00:29Alors l'intelligence artificielle est-elle une véritable révolution ?
00:33En quoi va-t-elle impacter socialement l'humanité ?
00:36Peut-on y résister ? Peut-on la réguler ?
00:38Voilà les questions vertigineuses que je vais poser à mes deux invités,
00:42le docteur Laurent Alexandre et le professeur de philosophie Jean-Michel Beignet.
00:46Bienvenue dans le club Le Figaro ID.
01:00Bonsoir à tous les deux, merci d'avoir accepté cette invitation.
01:04Laurent Alexandre, vous êtes énarque, chirurgien,
01:08auteur de nombreux ouvrages autour de ces questions brûlantes des nouvelles technologies.
01:12Vous avez notamment publié La guerre des intelligences et vous publiez ce livre,
01:16Chad GPT va nous rendre immortels, avec une affirmation,
01:20prenez le risque d'une prédiction, vous nous expliquerez pourquoi selon vous c'est crédible.
01:25Vous dites que pour vous l'intelligence artificielle n'est pas un choix,
01:29c'est le sens de l'histoire et qu'il faut nous y convertir tous collectivement sous peine d'être marginalisés.
01:35Jean-Michel Beignet, vous êtes professeur émérite de philosophie à la Sorbonne Université.
01:41Vous aviez publié il y a quelques années Demain les postes humains,
01:45le futur a-t-il encore besoin de nous ?
01:47Vous êtes un des pionniers dans la réflexion autour des nouvelles technologies et de la philosophie.
01:52Vous avez publié un livre avec Laurent-Alexandre, un livre au titre aguicheur,
01:57Les robots font-ils l'amour ? Le transhumanisme en douze questions.
02:01Vous répondez à des tas de questions qu'on peut se poser à propos de ces nouvelles technologies.
02:05Est-il désirable de vivre mille ans ? On va en parler.
02:08Demain tous cyborgs, c'est absolument passionnant, je vous recommande, ça vient de ressortir en poche.
02:13Alors Laurent-Alexandre, j'aimerais débuter cette conversation par votre livre,
02:19qui, je l'avoue, m'a bouleversée, m'a inquiétée en tout cas,
02:23parce que vous faites une série de pronostics absolument, moi je trouve, de mon point de vue, effrayants.
02:28Vous dites que l'immortalité est à portée de main grâce à chaque GPT, grâce à l'intelligence artificielle.
02:34Alors je voudrais d'abord qu'on commence par vous poser cette question.
02:39En quoi, selon vous, cette révolution chaque GPT de l'intelligence artificielle
02:43est-elle une rupture absolument fondamentale pour l'humanité ?
02:47Pour vous, c'est quelque chose de sans-précédent.
02:49C'est une révolution choumpétérienne, bien sûr, comme la vapeur et l'électricité,
02:53mais c'est aussi un changement civilisationnel,
02:55parce que l'intelligence artificielle va permettre de faire des progrès incroyables en génétique,
03:00des progrès incroyables en médecine, des progrès incroyables, par exemple,
03:04avec l'arrivée à maturité de l'utérus artificiel, qui est là encore un processus révolutionnaire.
03:09Et puis c'est une révolution anthropologique.
03:11Comme le père des intelligences artificielles modernes, Geoffrey Hinton, l'a déclaré récemment,
03:17nous sommes en train de devenir la deuxième espèce la plus intelligente sur Terre,
03:22la plus intelligente sur Terre étant l'intelligence artificielle.
03:25Ce moment de bascule où l'intelligence artificielle nous dépasse,
03:29même si elle n'a pas encore de conscience artificielle,
03:31est un moment bouleversant pour tout le monde,
03:34et le monde, la société civile et les politiques n'en ont pas pris acte
03:38et n'ont pas pris conscience du tsunami technologique profondément révolutionnaire que nous vivons aujourd'hui.
03:44Ne plus être l'espèce la plus intelligente, ça a mille conséquences sur l'avenir de l'humanité.
03:51Et vous croyez en la singularité, c'est-à-dire la possibilité d'une intelligence non seulement supérieure, mais autonome ?
03:57Alors, l'idée de la singularité, c'est-à-dire d'un moment où il y a une explosion de l'intelligence,
04:02ce que les dirigeants de Google imaginent pour les années 2040, je ne sais pas, c'est une thèse.
04:07Ce, en revanche, que je crois, c'est que l'intelligence artificielle est en train de nous dépasser assez rapidement.
04:12Entre GPT-4 et moi, en cancérologie, par exemple, eh bien, GPT-4 est bien meilleure que moi.
04:20GPT-4, en quelques secondes, fait des diagnostics ultra compliqués qu'il me faut énormément de temps pour faire.
04:27Et on pourrait multiplier les exemples.
04:29Alors, l'intelligence artificielle ne nous dépasse pas encore dans tous les domaines,
04:32elle n'est pas autonome dans tous les domaines, mais elle progresse extrêmement vite.
04:36Le patron fondateur de Nvidia, qui est l'une des sociétés les plus chères au monde, à la bourse de New York,
04:42et qui fabrique la quasi-totalité des puces électroniques pour l'intelligence artificielle,
04:47a déclaré il n'y a pas longtemps, en 2033, l'intelligence artificielle sera un million de fois plus intelligente que chaque GPT-4,
04:57c'est-à-dire la meilleure version actuelle de l'intelligence artificielle.
05:01Et Sam Altman a déclaré que la super-intelligence artificielle, des millions de fois plus intelligente que l'homme, sera là avant 2033.
05:11Il a d'ailleurs prédit que dans peu d'années, sur Terre, 99,9% de l'intelligence sera de l'intelligence artificielle,
05:19et que l'intelligence biologique humaine, celle issue de nos cerveaux, ne représentera plus qu'un millième de l'intelligence sur Terre.
05:27Ce mouvement est effectivement bouleversant, et il a beaucoup de conséquences politiques et sociales qui n'ont pas encore été réfléchies.
05:34Jean-Michel Bénier, est-ce que vous êtes d'accord avec ce diagnostic d'une rupture absolue, sans précédent, qui va nous faire entrer dans une autre humanité ?
05:41Non, pas vraiment. Mais, comme toujours avec Laurent, puisque nous dialoguons quelquefois,
05:50l'emphase des chiffres est toujours un peu vertigineuse.
05:56Ce ne sont pas les miens.
05:59Non, je sais bien. Et me laisse un petit peu dans une manière de perplexité.
06:06C'est-à-dire que plus je l'entends m'annoncer que l'intelligence artificielle va nous reléguer à l'état de chimpanzé du futur,
06:16et plus je me dis que, décidément, l'intelligence artificielle, ce n'est pas grand-chose.
06:21Ce n'est pas grand-chose, que c'est peut-être un peu plus qu'une bulle de savon,
06:27mais je n'arrive pas à me laisser entraîner par l'enthousiasme juvénile de Laurent.
06:36Pourquoi ?
06:37Parce que l'intelligence artificielle, d'abord on en parle depuis très très longtemps,
06:43même si le grand public ne s'est pas saisi de la chose depuis longtemps.
06:49Moi, j'ai enseigné à l'université de Compiègne autrefois l'intelligence artificielle.
06:55C'était à la fin des années 1980.
06:59Il y avait l'intelligence artificielle qui produisait des systèmes experts tout à fait raisonnables,
07:07qui répondait à des questions bien posées.
07:12Il y avait l'intelligence artificielle qui alimentait déjà des machines à traduire.
07:17Ce n'était pas extraordinaire, mais ça existait.
07:21Puis il y avait l'intelligence artificielle qui alimentait aussi tous ces jeux vidéo.
07:26Ça existait.
07:27Et puis j'enseignais à mes étudiants la façon dont la cybernétique de la fin des années 40
07:35avait inventé des dispositifs qui permettaient à des machines d'anticiper des mots, des segments de phrases,
07:43pour réaliser des télécommunications capables de résister à du bruit.
07:48Baf, aujourd'hui ce n'est pas grand-chose de plus.
07:52Chat GPT, c'est également effectivement un dispositif technologique qui permet d'anticiper
07:59en ayant puisé des données considérables, capables de mobiliser la suite de phrases
08:12et qui construit des choses absolument effectivement étonnantes.
08:16Et je suis quand même d'accord avec Laurent pour m'extasier devant les prouesses de cette machine.
08:26Mais je ne pense pas que ce soit bouleversant au point de me laisser oublier que l'intelligence,
08:35ça n'est pas simplement la faculté de résoudre des problèmes.
08:40L'intelligence c'est bien autre chose.
08:42L'intelligence c'est la capacité à apprécier l'ambiguïté des relations humaines.
08:50C'est la capacité à interférer avec d'autres humains dans des relations qui sont des relations d'échange de signes,
09:03pas de signaux.
09:04Je fais bien la distinction entre les signes et les signaux, ça me paraît très important.
09:09Et je n'arriverai jamais à confondre le dialogue établi avec Siri, si performant qu'il ou qu'elle soit,
09:19je ne confondrai jamais ça avec le dialogue échangé par des personnages de Proust, par exemple.
09:28Laurent Alexandre ?
09:29Je crois que tout le problème est résumé par Jean-Michel.
09:32On n'est plus au temps de Siri.
09:34D'accord.
09:35Siri est un produit merdique, complètement dépassé.
09:38Apple est en train de l'abandonner et d'ailleurs va utiliser cette GPT dans pas très longtemps, si l'on en croit Reuters.
09:44Le problème est qu'on n'est plus en 1950 ni en 1990.
09:50Siri c'est plus tard.
09:52Il faudrait que tu regardes les progrès absolument inouïs qui ont été faits par la version de GPT-4 qui est sortie hier soir.
09:59GPT-4 O, qui est bouleversant, qui est au niveau de ce que est H.E.R. dans le fameux film éponyme,
10:06avec une capacité d'empathie et de compréhension de notre psychisme et une capacité de nous répondre qui est absolument bouleversante.
10:14Une étude récente publiée dans JAMA montre que chaque GPT est deux fois plus empathique que les médecins.
10:20Une étude qui a sorti il y a un mois et demi montre que GPT-4 est plus convaincant qu'un humain pour convaincre quelqu'un de quelque chose.
10:33Donc en réalité, tu imagines qu'il y a une spécificité humaine dans les relations humaines et ça n'est pas le cas.
10:40GPT-4 est plus empathique et plus convaincant que nous le sommes nous-mêmes.
10:44Donc il y a un vrai problème, on n'est plus autant de Siri, on est autant de versions bouleversantes d'intelligence artificielle comme GPT-4 O,
10:52que tu n'as pas encore essayé et tu devrais l'essayer, ça changerait ton regard sur l'intelligence artificielle qui est aujourd'hui datée, dépassée,
10:59je te le dis en toute amitié, on se connait depuis longtemps.
11:02Il ne faut pas rester scotché dans le passé, il faut voir la réalité bouleversante de l'IA et ses progrès constants.
11:08Je te promets, va voir GPT-4 O et j'invite tous les auditeurs à y aller, tu vas changer d'avis.
11:13Est-ce que Chad GPT aurait pu écrire votre livre ?
11:16Alors moi je l'ai écrit sans GPT-4, d'ailleurs en page 3 j'indique que ce livre a été écrit par moi.
11:22GPT-4 va mieux écrire que moi avant 2030, ça va poser un énorme problème aux écrivains, aux essayistes.
11:30Les progrès conceptuels de l'IA sont très importants.
11:33Qu'est-ce qui va rester à l'homme ? C'est très difficile à dire, il y a des gens qui sont très inquiets.
11:37Elon Musk devant le Premier ministre britannique le 3 novembre dernier a déclaré que très bientôt,
11:44l'homme le plus intelligent sur Terre serait moins intelligent que les successeurs de Chad GPT
11:49et il a même fixé une échéance, décembre 2025.
11:53Donc nous sommes à un moment où l'IA galope et où nous ne savons pas encore,
11:57parce que nous n'avons pas travaillé la question, comment devenir complémentaire de l'IA.
12:01Et surtout, question plus importante, comment faire en sorte que le système universitaire,
12:06que le système éducatif fasse de nos enfants des gens complémentaires de l'IA et non pas des gens substitués par l'IA.
12:13On va en parler, mais je voudrais quand même revenir sur ce mot immortel que vous mettez dans votre titre.
12:17Qu'est-ce que c'est que cette immortalité et pourquoi, selon vous, un robot comme Chad GPT pourrait nous aider à devenir immortels ?
12:24De quelle immortalité vous parlez ?
12:26Il faut savoir qu'au sein de la Silicon Valley et aux États-Unis,
12:30parmi les milliardaires de l'intelligence artificielle, il y a deux courants.
12:33Il y a ceux qui souhaitent une immortalité biologique et qui souhaitent augmenter l'homme par la technologie.
12:38C'est le cas notamment d'Elon Musk, qui est le chef de file des transhumanistes.
12:43Et à côté de ça, il y a les post-humanistes, comme les dirigeants de Google,
12:47qui pensent que nous devons laisser la place à l'intelligence artificielle
12:50et que nous devons uploader notre cerveau dans les ordinateurs.
12:55C'est aussi ce que pense Sam Altman, qui a déclaré
12:58« Je suis convaincu que le contenu de mon cerveau va être téléchargé dans le cloud. »
13:02Mais qu'est-ce que ça veut dire, télécharger ?
13:03Dans l'informatique dématérialisée.
13:04Ça veut dire que notre pensée, notre conscience ne serait plus dans notre cerveau biologique,
13:10mais serait mise directement dans les ordinateurs.
13:13C'est une hybridation entre l'informatique et puis notre cerveau biologique.
13:18Alors, je ne prends pas parti, mais je constate qu'il y a deux courants.
13:22Un courant de pensée qui veut l'immortalité biologique
13:24par la manipulation biologique de notre corps,
13:27et puis un courant post-humaniste qui, lui, veut que l'intelligence artificielle
13:31incorpore notre pensée et nous remplace,
13:34ce qui serait finalement une immortalité numérique
13:37et non plus une immortalité biologique.
13:39On vivrait des millions d'années, mais sous forme d'un petit morceau des ordinateurs.
13:45Alors, entre venir en asticot et mourir,
13:49et puis vivre un million d'années dans un microprocesseur,
13:53finalement, je préfère vivre un million d'années dans un microprocesseur
13:57pour voir le futur extraordinaire qui s'annonce à venir.
14:01J'allais dire, qu'est-ce que ça vous inspire, cette quête d'immortalité ?
14:05Écoutez, là, j'aime beaucoup, parce que Laurent ne change pas.
14:11Il a toujours dessiné cela.
14:14Au moins, il y a du petit...
14:16Jean-Michel, moi, je ne dessine pas mon opinion, que je n'ai pas donnée.
14:20J'ai simplement montré les deux courants, celui d'Elon Musk et celui de Larry Page,
14:25qui est le fondateur de Google.
14:27L'alternative, donc, homme bionique ou cyborg,
14:30ça, c'est une alternative matricielle.
14:32Mais qui n'est pas la mienne.
14:34Bon, écoutez, que vous dire ?
14:37L'immortalité, si l'immortalité, c'est la pérennisation des métabolismes
14:42qui sont les nôtres,
14:44pourquoi pas ?
14:46Cette immortalité, là,
14:50bionique ou biotechnologique,
14:54on peut la concevoir.
14:56On peut imaginer qu'à brève échéance,
14:59on réalise des organoïdes qui nous permettront de remplacer nos organes défaillants
15:05à la demande.
15:07Bon, alors, est-ce que c'est l'humain en moi qui sera immortalisé ?
15:13Ou la carcasse qui m'abrite pour l'instant ?
15:17Ça, je vous laisse en décider.
15:19L'immortalité, dans les traditions que j'ai fréquentées par vocation depuis toujours,
15:26c'est autre chose.
15:28Ça n'a pas grand-chose à voir avec l'immortalité de Faust
15:33ou l'immortalité d'Ulysse.
15:38Enfin, l'immortalité qu'ils refusent.
15:40Il y a une immortalité qui est culturellement marquée
15:44comme l'accession obtenue grâce à la mort.
15:49Pour être immortel, il faut mourir.
15:51C'est la leçon de pratiquement toutes les grandes spiritualités
15:55et toutes les religions.
15:57Il faut mourir.
15:59Là, l'immortalité dont nous parlons,
16:01c'est une immortalité qui nous permettrait d'esquiver effectivement la mort
16:06et de nous pérenniser dans des microprocesseurs
16:10ou dans je ne sais quoi.
16:12Moi, je ne m'y retrouve pas.
16:14Cette immortalité, elle ne m'intéresse absolument pas.
16:18D'abord, je ne la conçois même pas
16:20parce que modéliser mon cerveau
16:23et le transférer sur un logiciel,
16:27ça n'a pas grand sens.
16:29On sait très bien que la conscience a besoin du cœur.
16:31Elle a besoin d'un cœur.
16:34Un cerveau qui serait coupé du corps,
16:38qui flotterait dans un liquide amniotique,
16:42ça n'a pas de sens.
16:44C'est une glande qui vivoterait.
16:49Donc, tout ça, je trouve que c'est, j'allais dire, pathétique.
16:57Mais oui, je pense que c'est pathétique.
17:00Donc, ce culte de l'immortalité
17:03chez les transhumanistes m'a toujours fait sourire
17:07et je me suis étonné que le grand public s'en soit emparé
17:13il n'y a pas très longtemps, il y a 4 ou 5 ans.
17:15Cette question tout à coup de l'immortalité
17:18est devenue une question brûlante,
17:21alors même que nous avons...
17:23Ça avait failli changer.
17:26Avec la Covid, tout à coup,
17:30les annonces hyperboliques des transhumanistes
17:33se sont trouvées quand même tout à coup freinées.
17:35On a découvert qu'un petit animal
17:38pouvait éradiquer l'espèce humaine,
17:42alors même que peu de temps auparavant,
17:44on nous annonçait l'immortalité pour demain.
17:46Justement, c'est intéressant que vous disiez ça
17:49parce que Laurent Alexandre, en 2011,
17:50vous avez publié un livre, La mort de la mort,
17:53où vous prédisiez aussi que l'immortalité allait advenir.
17:58Vous disiez notamment que l'espérance de vie
18:00doublera au minimum au cours de ce siècle,
18:02le 21ème siècle.
18:03Or aujourd'hui, ce qu'on constate
18:05dans les grandes démocraties occidentales,
18:07c'est une stagnation, voire même une régression
18:09de l'espérance de vie aux Etats-Unis.
18:11L'espérance de vie a régressé de 2 ans,
18:13elle est maintenant au stade de la fin des années 90.
18:15Et donc, on n'est pas du tout dans l'augmentation
18:19infinie de l'espérance de vie.
18:21Je souhaiterais qu'on relise La mort de la mort.
18:23Dans La mort de la mort, en 2011,
18:25je prévois effectivement qu'il y aura des grands progrès
18:28en matière d'espérance de vie, mais après 2050.
18:30Et je dis que l'extrême complexité...
18:32On sera tous morts, on ne pourra pas vérifier.
18:34Non, 2050, c'est dans pas très longtemps.
18:37Il y a ici des gens dont j'espère qu'ils ne seront pas morts,
18:39il y a des gamins dont j'espère qu'ils ne seront pas morts en 2050
18:42et qu'ils pourront vérifier.
18:44Et donc, je disais que les principales innovations
18:47en matière de longévité ne commenceront pas avant 2050,
18:50que la mort, le vieillissement
18:53sont des processus extraordinairement complexes
18:55et de les combattre nécessitera des progrès énormes
18:57en matière de capacité informatique.
18:59Donc, je maintiens mon pronostic.
19:02Mais la chose nouvelle, c'est que cette idée transhumaniste
19:05de vivre plus longtemps par le bidouillage biologique
19:08est impactée aujourd'hui par l'arrivée,
19:10le retour en force d'un courant post-humaniste
19:12qui pense qu'en réalité, comme l'intelligence artificielle
19:14va très, très vite,
19:16nous devons fusionner, nous hybrider avec l'IA,
19:19parce que, finalement, notre corps n'a pas beaucoup d'avenir
19:22et notre cerveau est pathétique.
19:24Donc, vous voyez, par rapport à ce que j'écrivais en 2011,
19:26l'évolution, l'accélération de l'IA,
19:28contrairement à ce que Jean-Michel pense, à tort,
19:31parce qu'il n'a pas vu GPT-4 haut,
19:33eh bien, a changé un peu l'agenda
19:36et a créé une problématique qui, maintenant, est double,
19:39une vision transhumaniste et une vision post-humaniste.
19:42Mais est-ce que les discours de futurologie
19:44n'ont pas été toujours démentis par les faits ?
19:46Vous connaissez sans doute la citation de Peter Thiel,
19:49le cofondateur de PayPal et milliardaire de la Silicon Valley,
19:52qui disait, nous rêvions de voitures volantes,
19:54nous avons eu 140 signes,
19:56où il disait que, finalement, quand vous demandiez à quelqu'un,
19:58à la fin du XIXe siècle, l'avenir,
20:00et vous décrivez la voiture volante, ça n'est jamais arrivé.
20:02Et on est arrivé avec Twitter,
20:04un truc que personne n'avait jamais imaginé.
20:06Le métavers, on nous avait annoncé
20:08que ce serait demain un généralisé, c'est un échec commercial.
20:10Est-ce que toutes ces annonces futurologiques que vous nous dites,
20:13finalement, ne sont pas aussi des pures spéculations ?
20:16Et demain, finalement, le progrès nous surprendra.
20:18Il faut bien faire des scénarios pour préparer l'avenir
20:21et pour préparer nos gamins.
20:23Pour savoir quelles études faire à mes gamins,
20:25je me suis posé des questions sur ce que peut être l'avenir.
20:29Et j'ai essayé d'imaginer des scénarios.
20:31Je ne veux pas les envoyer dans des métiers
20:33qui vont disparaître à cause de l'intelligence artificielle
20:36et de la robotique dopée à l'intelligence artificielle.
20:38Donc nous sommes bien obligés de faire des scénarios sur le futur.
20:41D'ailleurs, en permanent, j'ajuste mes prévisions.
20:44Les premiers mots de mon nouveau livre,
20:46« Chaque GPT va nous rendre immortels »,
20:48c'est « je me suis trompé ».
20:50Par exemple, en médecine, ce que fait GPT-4 en médecine aujourd'hui,
20:53je n'envisageais pas que cela soit possible avant 2040 ou 2050.
20:58J'ai complètement sous-estimé la révolution de l'intelligence artificielle
21:03sous la forme de ce qu'on appelle les LLM,
21:05les Large Language Models.
21:07Donc effectivement, prédire le futur est très compliqué.
21:11C'est plus compliqué que de faire de l'histoire, encore.
21:13Et nous sommes obligés d'ajuster nos scénarios.
21:16Mais ne pas faire de scénarios,
21:18sous-estimer la révolution technologique en cours,
21:21c'est envoyer nos gamins face aux murs.
21:24On va parler de l'éducation tout de suite.
21:25C'est les envoyer aux casse-pipes.
21:27Jean-Michel Beny, est-ce qu'il n'y a pas une forme de messianisme technologique
21:31en annonce des formidables ruptures ?
21:33Parce que peut-être, d'ailleurs, on est pris dans une forme de marasme.
21:35C'est le propre de ce qu'on appelle le transhumanisme.
21:38Ce sont les annonces hype.
21:40On les appelle comme ça.
21:42Les annonces hype, qui sont destinées, évidemment,
21:46à récolter de l'argent, d'abord.
21:50Il s'agit bien de ça.
21:52Donc, les scientifiques sont contraints à toujours en dire plus,
21:58qu'ils ne sont capables de faire.
22:01C'est la loi du marché néolibéral.
22:05Donc, rien d'étonnant.
22:07Est-ce qu'il y ait des annonces hype ?
22:09Laurent me paraît tout à fait en phase avec cet état d'esprit.
22:18Il accepte que le fantasme soit régulateur.
22:23Ce que j'appelle un fantasme régulateur.
22:25Le fantasme, donc, c'est une illusion.
22:27Mais une illusion qui doit régler, en quelque sorte, l'action.
22:31Ou, en tout cas, régler les préconisations.
22:35Donc, il accepte que le transhumanisme soit cet arsenal de fantasmes
22:43qui doivent pouvoir orienter les choses.
22:46Mais là où quelque chose me gêne un petit peu,
22:50c'est qu'il est capable de dire que, finalement, nous n'avons pas le choix.
22:55Il dit souvent, nous n'avons pas le choix.
22:57Nous devons fusionner avec l'intelligence artificielle,
23:00sans quoi nous sommes fichus.
23:02Est-ce que j'ai dit ça ?
23:03Oui, souvent, tu l'as dit.
23:04Dès le début.
23:06Vous dites que l'intelligence artificielle n'est pas un choix,
23:10c'est le sens de l'histoire.
23:11Je n'ai pas dit que c'était mon choix, moi.
23:13Non, mais le choix.
23:14Tel que tu le dis, on a l'impression...
23:17Ce que je récuse, c'est qu'il y ait un sens de l'histoire.
23:21Tout simplement.
23:22Il y a des choix, effectivement.
23:24Et toi, tu fais le choix de faire grandir tes enfants
23:29dans l'idée d'un transhumanisme accompli,
23:32voire d'un post-humanisme à l'horizon.
23:35Moi, je pourrais très bien faire le choix inverse,
23:40dire que c'est l'écologie qui m'intéresse,
23:42c'est une vie paisible, en harmonie,
23:45ça serait aussi un scénario un peu bucolique,
23:50mais pourquoi pas.
23:51Et sympathique.
23:52Et sympathique.
23:53Ils vont avoir du mal à bouffer, quoi.
23:57Sauf que dans ce scénario,
24:01où je pourrais annexer quelques technologies suffisantes
24:06pour réaliser un certain nombre de progrès,
24:10bon, voilà.
24:12On est scénario contre scénario.
24:14Moi, je veux bien.
24:15Là, on discute, on est libres, l'un comme l'autre,
24:18d'imaginer, de mobiliser des ressources
24:22pour dessiner l'avenir.
24:24Mais ce que je récuse,
24:25c'est cette espèce de frénésie à dire
24:30nous n'avons plus le choix, il faut y aller.
24:33Si en 2030, on n'a pas réalisé cela,
24:37alors on est fichus, etc.
24:40Je crois qu'il faut être cohérent.
24:42Il faut être cohérent.
24:43L'intelligence artificielle détermine une entropie nécessaire
24:49où l'intelligence artificielle est une mode,
24:53comme il y en a eu d'autres et comme il y en aura d'autres.
24:56Je voudrais qu'on vienne au deuxième sujet,
24:58qui est la question de la guerre des cerveaux,
25:00puisque c'est le titre de votre précédent livre,
25:02et vous en parlez aussi dans ce livre,
25:04la manière dont, finalement, l'intelligence artificielle
25:07va avoir un impact sur l'économie de la connaissance
25:11et sur les conséquences sociales.
25:14Vous dites d'ailleurs que l'intelligence artificielle
25:16va conduire à une gilet jaune de la société.
25:19Ça veut dire quoi ?
25:21On va tous se transformer en gilets jaunes ?
25:23Si on suit la vision bucolique de Jean-Michel,
25:27nos enfants vont forcément être des gilets jaunes
25:30face aux gamins qui auront été formés à ces nouvelles technologies.
25:34Mais ça peut être un choix, et je le respecte,
25:36mais ce n'est pas le choix que j'ai fait pour mes enfants.
25:38Mais effectivement, si on a d'un côté des gamins
25:40qui sont complètement branchés sur l'économie de la connaissance
25:42et sur l'IA et qui maîtrisent ce nouveau langage,
25:46et d'un côté des gamins qui sont complètement hors-sol
25:49et qui suivent ta voie écolo-bienveillante,
25:52ils vont finir gilets jaunes par rapport aux autres.
25:55Alors, je ne dis pas que c'est bien,
25:57et ne me fais pas dire ce que je n'ai pas dit.
25:58Mais il faut savoir qu'aujourd'hui,
26:01les salaires des bons développeurs chez OpenAI,
26:04c'est 10 millions de dollars par an.
26:07Google vient de changer sa grille salariale,
26:10et les bons développeurs sont également à 10 millions de dollars par an
26:13pour éviter de se les faire piquer par OpenAI.
26:16Donc, on est dans un monde qui est effectivement inégalitaire.
26:19Les gens qui comprennent bien cette économie de la connaissance,
26:22qui comprennent bien l'IA, gagnent beaucoup d'argent,
26:25ont des très gros salaires.
26:27Et puis, les gens qui sont restés dans l'économie ancienne,
26:31ils ont vocation à être un peu largués.
26:36En tout cas, ils auront des moins bons salaires
26:38que les salaires de la Silicon Valley.
26:41Je ne dis pas que ça ne pose pas de problème.
26:43Je ne dis pas que ce modèle, avec d'un côté une élite
26:46qui bénéficie de ces technologies-là,
26:49et puis un grand groupe de gilets jaunes qui ne suivent pas,
26:52me séduit.
26:54J'ai déjà plusieurs fois expliqué que ce modèle à la Harari,
26:57avec d'un côté des gens qui sont des homodéus,
27:00qui avaient dit d'un côté des dieux,
27:03des dieux qui comprennent l'IA,
27:06et puis de l'autre, des « useless », des gens inutiles
27:09qui ne comprennent pas l'IA.
27:11J'ai à plusieurs reprises expliqué et écrit
27:13que c'est pour moi un cauchemar politique
27:16et qu'il est important que tout le monde soit dans le bateau.
27:19Donc, pour vous, il faut pousser les gens, en gros, pour les...
27:22Il faut pousser les...
27:23Il faut pousser, j'ai dit.
27:24Il faut améliorer leur intelligence pour qu'ils puissent monter dans le bateau ?
27:27Il faut mener nos gamins
27:29là où ils vont être complémentaires
27:32de l'intelligence artificielle.
27:34Et ça ne veut pas dire en faire des techniciens étroits.
27:37Ma philosophie et celle de ma femme
27:40sur l'éducation de nos enfants à l'ère de l'IA,
27:43elle rejoint ce que disait Charles de Gaulle
27:46en 1934 dans l'armée de métiers.
27:49La base du commandement, c'est la culture générale.
27:52Derrière chaque victoire d'Alexandre le Grand,
27:54il y a toujours Aristote,
27:55qui était le précepteur particulier d'Alexandre le Grand.
27:58Eh bien, je crois fondamentalement,
28:00et c'est le pari qu'on a fait avec ma femme pour mes enfants,
28:03c'est que les trois points essentiels pour l'éducation des enfants
28:06à l'ère de l'IA, c'est un, la culture générale,
28:09deux, la culture générale, et trois, la culture générale.
28:12Pour être complémentaires, compétitifs à l'ère de l'IA,
28:15il ne faut pas faire de nos gamins des techniciens étroits,
28:18il faut en faire des gamins et des futurs adultes
28:21qui ont une compréhension globale des enjeux,
28:24holistique, avec beaucoup d'humanité,
28:27pour être complémentaires de l'IA.
28:29De penser qu'on va arrêter avec notre bite et notre couteau
28:32l'intelligence artificielle est d'une naïveté absolument consternante.
28:35On est sur un toboggan élu lien,
28:38et Jacques Ellul avait raison dès les années 40,
28:41il est très compliqué d'arrêter la technologie,
28:44je vous défie d'arrêter la loi de Moore,
28:47je vous défie d'arrêter les progrès de l'intelligence artificielle,
28:50c'est le doublement tous les 18 mois de la puissance informatique.
28:53Aujourd'hui, on met 208 milliards
28:56de transistors électroniques
28:59sur une seule puce électronique,
29:03et les ordinateurs les plus puissants vont bientôt réaliser
29:06400 milliards de milliards d'opérations par seconde.
29:09Donc, d'arrêter ce processus est difficile,
29:12donc je pense qu'il vaut mieux préparer nos enfants au monde qui vient,
29:15qui va être un monde gorgé d'intelligence artificielle,
29:18et les préparer, de mon point de vue,
29:21c'est leur donner une très solide culture générale,
29:24et surtout ne pas en faire des techniciens étroits.
29:27Jean-Michel Beny, est-ce que vous êtes d'accord avec ce diagnostic
29:30de l'intelligence qui s'annonce ?
29:33On n'a sûrement pas la même notion de la culture générale, c'est tout.
29:36Est-ce que c'est un procès d'intention ?
29:39Non, je ne sais pas, je me pose la question,
29:42parce que la culture générale, telle que je la conçois,
29:45c'est plutôt un espace qui privilégie la réflexion,
29:48une certaine lenteur.
29:51Et là, on ne va pas être d'accord ?
29:54Oui, bien sûr qu'on ne va pas être d'accord.
29:57C'est plutôt un lieu de conversation.
30:00Et ça n'a pas grand-chose à voir
30:03avec les valeurs de réactivité
30:06que génère une société d'automatisme.
30:09La culture générale ne peut pas vouloir
30:12que notre société soit dominée
30:15par des machines et des automatismes.
30:18Ça me paraît complètement évident.
30:21Donc, tu élèves tes enfants
30:24dans le culte de cette culture générale,
30:27mais je ne vois pas comment ils ne...
30:30Comment tu disais ?
30:33Gilets...
30:36Gilets jaunisations.
30:39Comment ils ne se gilets jauniseraient pas
30:42en pratiquant la culture générale
30:45qui invite à la discussion, à la réflexion,
30:48à la tchatche, sans préoccupation forcément
30:52utilitaire, immédiate.
30:55Donc, il y a une espèce d'utopie
30:58dans la culture générale
31:01qui reste vive, qui me fait vivre
31:04en ce qui me concerne.
31:07Et je vois mal qu'elle puisse s'accommoder
31:10avec un monde dans lequel l'intelligence artificielle
31:13aurait pris le pouvoir, tout simplement.
31:16Je suis bien d'accord avec toi pour dire qu'il faut...
31:19On est obligés, effectivement,
31:22de fréquenter ces machines, de faire amis
31:25avec elles. Et là, je suis très proche
31:28d'un philosophe qui s'appelle Gilbert Simondon
31:31qui disait que ce qui nous est imposé
31:34c'est de faire amis avec nos machines,
31:37de ne pas les repousser
31:40a priori, loin de là, mais
31:43de faire en sorte qu'elles restent à notre service,
31:46tout simplement, et qu'elles n'en prennent pas
31:49à leur aise avec nous. Et ça, ça me parait
31:52être le béabat de la sagesse contemporaine.
31:55Mais alors, l'idée qu'il faudrait
31:58rendre les armes à l'intelligence artificielle
32:01parce qu'elle fonctionne avec des vitesses
32:04absolument exorbitantes, je dis non.
32:07Pour moi, la vitesse n'est pas une valeur. La vitesse,
32:10c'est au mieux, pour l'instant, une fatalité
32:13mais faisons en sorte de ralentir,
32:16ralentissons. Et je voudrais juste vous faire écouter un extrait
32:19de, je sais que vous l'appréciez beaucoup, Laurent Alexandre,
32:22Raphaël Enthoven, qui était dans mon émission
32:25il y a quelques semaines, et voilà ce qu'il disait
32:28sur l'intelligence artificielle et la philosophie. On va l'écouter et vous allez réagir.
32:31La philosophie, l'exercice de la philosophie,
32:34la pratique de la philosophie, est totalement hermétique
32:37au bénéfice de l'intelligence artificielle. Ce sur quoi
32:40l'exercice de la pensée repose,
32:43pour le dire très simplement,
32:46la construction, par exemple, d'une problématique,
32:49ce sur quoi l'exercice de la pensée repose,
32:52est absolument étranger au process
32:55mis en oeuvre par l'intelligence artificielle.
32:58Il a d'ailleurs combattu l'intelligence artificielle
33:01dans l'épreuve du bac de philosophie, il a eu 20 sur 20
33:04et l'intelligence artificielle 11 sur 20.
33:08Vous connaissez la vérité sur ce concours entre Enthoven et l'intelligence artificielle ?
33:11Moi, je ne connais pas.
33:14D'abord, ça a été noté par la philosophe Elietta Beccasi
33:17qui est une amie d'Enthoven, ça n'était pas anonyme,
33:20et d'autre part, on a donné 45 minutes
33:23à Raphael et 45 secondes
33:26à GPT-4. Donc franchement,
33:29avant de crier victoire, on va donner 45 secondes
33:32à Raphael Enthoven pour faire la copie de philosophie
33:35et là, on va le noter. Il va être écrabouillé par l'IA.
33:38D'abord,
33:41c'était avec l'aversion d'il y a un an
33:44de GPT-4. Depuis, l'IA
33:47a progressé, elle va continuer à progresser. Et d'ailleurs, j'ai parié
33:50avec Raphael que l'IA
33:53le dépasserait en philosophie dans pas très longtemps. Ce à quoi
33:56il m'a répondu, et il a tweeté, dans 10 000 ans,
33:59l'intelligence artificielle ne me battra toujours pas
34:02en philosophie. Je pense qu'il se trompe gravement
34:05et je pense que... Vous pensez que l'intelligence artificielle
34:08pourra produire des oeuvres du niveau de Montaigne,
34:11de Platon, d'Aristote ? Oui, elle va faire beaucoup mieux.
34:14C'est impossible. Elle va faire beaucoup mieux et c'est bien le problème.
34:17Ne faisons pas
34:20ce que les gens disaient il y a 5 ans, 10 ans, 20 ans,
34:23l'IA ne pourra jamais gagner aux Jeux de Go, elle ne pourra
34:26jamais gagner aux échecs, elle ne pourra jamais faire
34:29un diagnostic médical, elle ne pourra jamais analyser une radio
34:32et à chaque fois, on s'est planté. Il faut maintenant
34:35cesser de courir après l'IA et il faut préparer
34:38nos enfants et la société à ce tsunami. Moi, je suis
34:41très inquiet de ton discours.
34:44Ton discours pourrait pousser les gens dans cette salle,
34:47les auditeurs, la société en général, à ralentir.
34:50Alors qu'il faut courir pour ne pas être
34:53dépassé par l'IA, il faut surtout éviter que nos enfants
34:56soient marginalisés face à l'IA. Alors, on peut effectivement être
34:59comme les aristocrates de 1920 qui ne voulaient pas
35:02le téléphone et qui considéraient que le téléphone était démoniaque
35:05parce qu'il ne voulait pas être sonné par les communs. Mais ne
35:08jouons pas les aristocrates d'il y a 100 ans avec l'intelligence
35:11artificielle aujourd'hui. Il faut vivre dans notre temps. C'est pas parce qu'on est
35:14des vieux machins, toi et moi, et que nous sommes tous les deux à l'âge
35:17de la retraite qu'il faut que nous regardions le futur de nos enfants
35:20avec l'âge de nos 20 ans. Ce serait franchement
35:23ne pas rendre un service à la génération qui vient
35:26d'avoir cette vision, cet oeil aussi
35:29conservateur. Franchement.
35:32Jean-Michel Bénièche, la différence entre
35:35ce que dit Raphaël Enthoven, est-ce que cette intelligence
35:38artificielle est capable de résonner
35:41comme un humain ou est-ce qu'il y aura quelque chose quand même
35:44et Laurent Alexandre parlait de la culture générale, est-ce qu'il y aura quelque chose dans la philosophie
35:47qui résistera justement à ces machines ?
35:50Absolument.
35:53Ce cœur qui va résister, qu'est-ce qui va résister ?
35:56La philosophie aborde l'humain comme un être
35:59complexe, comme un être ambigu, comme un être
36:02versatile, comme un être imprévisible.
36:05C'est ce que nous sommes en tant qu'humains
36:08et la philosophie est un dialogue
36:11permanent avec cette réalité-là, cette réalité
36:14humaine-là. L'intelligence artificielle,
36:17quand elle aborde l'humain, elle a d'abord besoin
36:20de clarifier les choses.
36:23Ces valeurs sont des valeurs de désambiguïté,
36:26de désambiguation, comme on dit
36:29de manière très très jargonnante et
36:32le rêve de l'intelligence artificielle, c'est de pouvoir
36:35aborder l'humain comme une boîte
36:38noire qui reçoit des stimuli
36:41et puis qui émet des outputs.
36:44Si nous sommes capables d'envisager
36:47l'humain uniquement sous cet angle-là,
36:50à ce moment-là, effectivement, l'intelligence artificielle
36:53peut rendre des services
36:56en améliorant la transmission
36:59de l'input à l'output
37:02et à ce moment-là, nous sommes effectivement des
37:05petites machines imparfaites et
37:08l'intelligence artificielle pourra nous
37:11restituer une efficacité. Mais si
37:14l'humain reste ce qu'il est, c'est-à-dire un être foncièrement
37:17ambigu, foncièrement méchant,
37:20peut-être aussi, parce que
37:23j'en prendrai à témoin Machiavel,
37:26si l'humain est
37:29cet être-là
37:32qui résiste à l'interrogation,
37:35qui nous fait toujours problème, qui nous oblige, comme disait
37:39à problématiser les choses, à le mettre en situation
37:42et à comprendre qu'il est un être
37:45de valeur, qui fonctionne sur la base de valeur
37:48et qui peut tourner le dos aux faits, aux faits bruts,
37:51à ce moment-là, effectivement,
37:54soit l'intelligence artificielle triomphe et il n'y aura plus de philosophie,
37:57c'est évident, ça ne serait même plus la peine
38:00de confronter Raphaël Einthoven
38:03à Chad Jipiti 7 ou 12,
38:06parce qu'il n'y aura plus de philosophie, c'est évident,
38:09mais il n'y aura plus d'humain non plus.
38:12C'est ça, moi, qui m'inquiète le plus dans le développement de l'intelligence
38:15artificielle, c'est qu'elle risque
38:18de nous habituer à nous considérer
38:21nous-mêmes comme malléables
38:24par des machines.
38:27L'idée, par exemple,
38:30de rendre transparent notre langage
38:33m'inquiète beaucoup.
38:36Si nous finissions par nous exprimer
38:39les uns avec les autres
38:42de manière à ce que nos langages
38:45soient toujours formalisables, soient toujours transférables
38:48en termes de machines,
38:51à ce moment-là, je ne donne pas cher de notre humanité.
38:54C'est fait.
38:57Laurent Alexandre, est-ce que cette question de la guerre de l'intelligence ne pose pas
39:00une question fondamentale qui est celle de l'eugénisme ?
39:03Dans le sens où, pour améliorer l'espèce humaine,
39:06pour être concurrencée par l'intelligence artificielle,
39:09on pourrait être tenté de sélectionner les intelligences,
39:12notamment de sélectionner les embryons pour les rendre
39:15les plus intelligents possibles. A priori, ce que vous me disiez,
39:18c'est qu'Elon Musk aurait pratiqué ça sur ses propres enfants.
39:21Est-ce que c'est quelque chose qu'il faut prendre en considération, une menace ?
39:24Évidemment. Les parents prennent peur.
39:27Il y a un pays qui, à l'origine, était très peu eugéniste, les États-Unis.
39:30La grande revue médicale Science,
39:33qui est la deuxième plus grande revue au monde avec Nature,
39:36a fait un sondage il y a quelques mois
39:39et a montré que depuis la sortie de chaque GPT,
39:42les Américains devenaient
39:45de plus en plus eugénistes.
39:4838% des Américains souhaitent utiliser
39:51la sélection embryonnaire et le séquençage ADN
39:54pour choisir le bébé plus intelligent
39:57pour qu'il soit compétitif face à l'intelligence artificielle.
40:00Et 28% des Américains, plus d'un quart,
40:03souhaitent bidouiller l'ADN de leur bébé
40:06pour qu'il puisse rentrer dans une bonne université
40:09de façon à être complémentaire de l'intelligence artificielle
40:12quand il sortira de l'école.
40:15Donc, on voit qu'à côté de ce que dit
40:18Elon Musk, qui affirme
40:21qu'il va mettre des implants intracérébraux dans le cerveau de ses enfants
40:24pour les rendre complémentaires de l'intelligence artificielle,
40:27ce qui est une voie de neuroaugmentation par voie électronique,
40:30il y a une volonté croissante des parents, notamment aux Etats-Unis et en Chine,
40:33d'utiliser la sélection embryonnaire,
40:36l'eugénisme génétique,
40:39de manière à ce que la jeune génération ne soit pas larguée,
40:42ne soit pas abandonnée face à l'intelligence artificielle.
40:45Cela présuppose que l'intelligence serait purement génétique.
40:48Elle est majoritairement génétique, mais elle est
40:51partiellement liée à l'environnement. D'ailleurs, c'est pour ça
40:54qu'on peut se cultiver.
40:57Deux jumeaux identiques génétiquement peuvent,
41:00s'il y en a un qui fait des efforts et l'autre n'en fait pas,
41:03s'il y en a un qui se cultive et l'autre ne se cultive pas,
41:06avoir des résultats académiques différents.
41:09Mais l'intelligence est hélas majoritairement génétique.
41:12C'est la raison pour laquelle il y a des enfants qui, même avec des très bons professeurs,
41:15des professeurs très motivés, ont du mal à avoir
41:18des résultats académiques éblouissants.
41:21Jean-Michel Lénier, sur cette perspective d'eugénisme,
41:24c'est d'ailleurs un des chapitres du livre que vous avez écrit tous les deux.
41:27C'est inquiétant ? Il faut le prendre au sérieux ?
41:30Il faut le prendre au sérieux, c'est évident.
41:33Là, Laurent évoque Elon Musk.
41:36Moi, j'évoquerais, pourquoi pas, Emmanuel Charpentier
41:39et Crisper Cas9, ce ciseau moléculaire
41:42qui permet d'envisager,
41:45effectivement, l'intervention sur les génomes
41:48et l'amélioration des génomes.
41:51Autant citer Emmanuel Charpentier,
41:54prix Nobel de médecine,
41:57dont la perspective
42:00d'eugénisme n'est pas la sienne,
42:03mais l'instrument qu'elle a inventé
42:06le permettra.
42:09La question de l'eugénisme, c'est une question récurrente.
42:12Elle est défendue par certains grands humanistes.
42:15Jean Rostand,
42:18dans les années 25-30,
42:21proclamait que la biologie,
42:24ça doit servir à améliorer l'espèce.
42:27Contorsé aussi.
42:30Ça ne me choque pas, a priori, qu'on puisse
42:33vouloir améliorer l'espèce
42:36et, éventuellement,
42:39doter ses enfants des meilleures chances.
42:42Ce qui me préoccupe, c'est plutôt
42:45cette espèce d'acharnement
42:48à vouloir refuser tout ce qui relève
42:51du don,
42:54du don de la nature, etc.
42:57Mais en même temps,
43:00c'est presque une fatalité.
43:03La technique est, par définition,
43:06un monde qui envisage de substituer au don la fabrication.
43:09Donc, il est quasiment logique
43:12qu'on veuille fabriquer l'humain
43:15plutôt que de se laisser imposer
43:18par la nature.
43:21Alors, là, on peut
43:24imaginer des régulations
43:27pour tâcher de tempérer
43:30cette espèce de démesure
43:33qu'il peut y avoir là,
43:36parce que ça pose une question politique.
43:39Enfin, l'idée de fabriquer
43:42des générations d'Einstein,
43:45comme l'avaient envisagé
43:48les Chinois après
43:51l'apparition de CRISPR-Cas9,
43:54ça pose des problèmes
43:57de géopolitique.
44:00Mais l'eugénisme, je vois mal
44:03comment on pourrait
44:06empêcher nos contemporains
44:09de considérer les biotechnologies
44:12comme un instrument de consommation possible.
44:15Donc, l'amélioration, oui, pourquoi pas.
44:18Alors, soit en recourant
44:21effectivement à l'eugénisme négatif
44:24plutôt que l'eugénisme positif.
44:27L'eugénisme négatif, ça consiste à supprimer
44:30des imperfections. L'eugénisme positif, ça consiste
44:33à fabriquer
44:36de bout en bout des êtres
44:39correspondants à des canons
44:42ou à des desiderata. C'est pas la même chose.
44:45Il est à noter que si Elon Musk a développé Neuralink,
44:48c'est parce qu'il a considéré que la voie de l'eugénisme génétique
44:51ne pouvait concerner que pour les nouvelles générations.
44:54Et il a dit, mais que va-t-on faire des gens qui sont déjà nés ?
44:57Et il a dit, la seule solution, c'est un dispositif électronique
45:00d'augmentation. C'est pour ça qu'il a créé Neuralink.
45:03Donc, effectivement, cette question
45:06est une question très douloureuse.
45:09Moi, je ne suis pas un eugéniste fou
45:12et comme je l'ai déjà à plusieurs reprises,
45:15si l'un de nos enfants
45:18avec ma femme avait eu une trisomie 21,
45:21nous n'aurions probablement pas recouru
45:24à l'IMG. Nous l'aurions accepté
45:27tel qu'il était. Donc, je ne suis pas un fanat d'eugénisme.
45:30Mais je fais l'hypothèse que comme les parents américains,
45:33les parents français vont être affolés par les progrès
45:36de l'intelligence artificielle et vont recourir
45:39ou envisager de recourir à l'eugénisme dans les décennies
45:42qui viennent, surtout si l'intelligence artificielle
45:45dépasse rapidement l'intelligence humaine. Je pense que ça va paniquer
45:48les parents et la société.
45:51Un petit mot sur la régulation parce que
45:54on cite souvent la loi de Gabor.
45:57Tout ce qui est technologiquement faisable sera un jour réalisé.
46:00Pourtant, il demeure certaines exceptions. Par exemple, le clonage
46:03qui est possible mais qui est interdit. Est-ce que vous croyez
46:06en la possibilité d'une régulation de ces technologies
46:09ou est-ce que dans un monde mondialisé
46:12où on est en concurrence permanente avec des pays plus libéraux,
46:15c'est illusoire ?
46:18Ça va être très difficile parce que cette régulation, d'où proviendrait-elle ?
46:21On peut être complètement idéaliste et se dire que cette régulation
46:24pourrait être morale. C'est-à-dire que nous pourrions
46:27devenir les uns et les autres suffisamment moraux
46:30pour nous interdire
46:33un certain nombre de choses.
46:36C'est un courant qui se développe.
46:39Les courants...
46:42Je vais utiliser un très gros mot pour Laurent, peut-être.
46:45Des courants de décroissance, par exemple, en appellent
46:48la sobriété technologique. Je savais bien que ça pouvait...
46:51Arrête, je vais être malade.
46:54C'est bien, mais ça fait rien, on a les moyens de te soigner.
46:57Ne t'inquiète pas.
47:00Bon, laissons tomber cette hypothèse
47:03d'une moralisation de l'humanité
47:06qui, d'un coup, prendrait conscience.
47:09Cette régulation, elle peut être
47:12d'ordre autoritaire.
47:15On peut, effectivement, mettre en place
47:18des interdictions
47:21et des interdictions sanctionnées
47:24énormément.
47:27Le péché de clonage
47:30ou l'infraction d'un clonage humain,
47:33je crois que c'est 30 ans de prison
47:36et je ne sais plus combien de milliers d'euros.
47:3930 ans de prison,
47:42c'est un crime contre l'espèce humaine.
47:45On a inventé même ce concept
47:48de crime contre l'espèce humaine.
47:51La régulation, elle peut être aussi politique.
47:54Elle peut répondre à des stratégies
47:57que se donneraient les nations et, après tout,
48:00introduire un concept du genre
48:03de celui de la dissipation nucléaire
48:06pour permettre
48:09de tempérer la démesure
48:12d'un Etat par rapport à d'autres
48:15et établir une espèce d'équilibre.
48:18Et ça, ce n'est pas complètement invraisemblable.
48:21Donc la régulation, il y a des moyens
48:24à imaginer.
48:27Je milite évidemment pour des régulations.
48:30J'ai appartenu à plusieurs comités d'éthique,
48:33celui du CNRS, de l'INRA, etc.,
48:36où notre travail consistait
48:39à examiner des situations
48:42pour tâcher de déterminer
48:45des solutions et de préconiser
48:48des avis à des organismes de recherche
48:51qui les suivent ou qui ne les suivent pas,
48:54de la réflexion,
48:57et mobiliser pour tâcher
49:00de tempérer les choses.
49:03Donc l'adage de Gabor,
49:06tout ce qui est techniquement réalisable sera réalisé,
49:09quoi qu'il en coûte moralement,
49:12ne me paraît pas être une fatalité.
49:15Il est possible que nous soyons,
49:18que nous restions volontaristes,
49:21que nous restions libres par rapport à ce que certains
49:24nous présentent comme un destin.
49:27La régulation va être extrêmement compliquée,
49:30d'abord pour des raisons géopolitiques.
49:33Si on interdisait les intelligences artificielles
49:36les plus sophistiquées pendant que la Chine les développe,
49:39nous devrions être une colonie chinoise
49:42et nos enfants auraient cette fois-ci un mandarin
49:45comme première langue et français en option langue régionale.
49:48On ne pourrait pas arrêter la guerre technologique
49:51de l'intelligence artificielle.
49:54TikTok, c'est un autre sujet plus compliqué
49:57qu'il y paraît.
50:00Donc réguler va être difficile.
50:03Je ne suis pas opposé du tout à la régulation.
50:06C'est mon atavisme énergique qui me pousse
50:09à ne pas refuser la régulation.
50:12Mais il faut une régulation intelligente et on va avoir du mal à réguler
50:15alors que la techno bouge très vite.
50:18L'AI Act européen est complètement dépassé par la nouvelle version de GPT-4
50:21qui est sortie hier soir dont je parlais,
50:24GPT-4O. L'AI Act n'a pas envisagé un produit
50:27comme celui que chaque GPT a sorti hier soir.
50:30La toute dernière version, GPT-4O.
50:33La technologie va être en permanence en avance
50:36par rapport aux organismes de régulation
50:39donc cette régulation va être difficile.
50:42Il est clair qu'il va falloir réguler les deepfakes
50:45c'est-à-dire les avatars d'IA faux.
50:48Vous avez probablement vu qu'à Hong Kong, une grande institution
50:51financière a été
50:54il y a quelques semaines victime d'une attaque.
50:57Le comptable a été appelé à une réunion
51:00vidéo avec les principaux
51:03responsables de l'entreprise, le COMEX, le directeur financier
51:06et pendant la téléconférence, on lui demande
51:09de faire un virement de 25 millions de dollars.
51:12Ce qui n'est pas extraordinaire dans cette banque où il y a des gros virements en fait.
51:15Il fait le virement de 25 millions de dollars sous l'ordre
51:18de la direction générale et du directeur financier
51:21de cette institution financière. Il se rend compte
51:24peu de temps après que personne
51:27dans cette réunion à part lui n'était humain.
51:30C'était uniquement des intelligences artificielles
51:33parfaitement paramétrées et qui imitaient l'éthique
51:36de l'âge, qui imitaient parfaitement la façon de parler et de s'exprimer
51:39de ses supérieurs qui ont ordonné
51:42le virement de 25 millions de dollars. Le virement
51:45court toujours et la banque n'a pas récupéré
51:48les 25 millions de dollars volés grâce à cette intelligence
51:51artificielle quasi parfaite. En attendant
51:54la généralisation des escrocs artificiels
51:57merci en tout cas pour ce débat
52:00passionnant. On aurait pu continuer encore longtemps parce que ce sont des sujets
52:03vraiment vertigineux. Vous pouvez retrouver cette émission
52:06sur le figaro.tv.fr et sur Youtube
52:09ainsi qu'en podcast. N'hésitez pas à la regarder
52:12pendant vos heures d'immortalité que va vous offrir cher GPT.
52:15En attendant je vous souhaite une très bonne soirée et je vous dis à la
52:18semaine prochaine. Mes invités seront Sonia Mabrouk et
52:21Amnous Chalmani. Nous parlerons de laïcité. Bonne soirée à tous.
52:33Sous-titres réalisés para la communauté d'Amara.org