"Internet etc." est un spectacle de l'humoriste Haroun, enregistré lors d'une performance en live streaming en 2018. Haroun, connu pour son style unique mêlant humour acerbe et critique sociale, aborde dans ce spectacle des thèmes contemporains liés à la société numérique, à l'influence d'Internet, et aux absurdités de la vie moderne. Avec son approche satirique et un ton souvent décalé, il traite de sujets comme la surveillance en ligne, les réseaux sociaux, et les comportements humains dans l'ère numérique.
Le spectacle s'inscrit dans la continuité de ses performances précédentes, où il utilise l'humour pour encourager une réflexion critique sur des enjeux sociétaux actuels. Haroun se distingue par sa capacité à jongler entre des sujets légers et des thèmes plus profonds, tout en gardant une touche d'ironie et de cynisme.
Le spectacle s'inscrit dans la continuité de ses performances précédentes, où il utilise l'humour pour encourager une réflexion critique sur des enjeux sociétaux actuels. Haroun se distingue par sa capacité à jongler entre des sujets légers et des thèmes plus profonds, tout en gardant une touche d'ironie et de cynisme.
Category
😹
AmusantTranscription
00:00:00...
00:00:26...
00:00:33Une menace a été détectée.
00:00:35...
00:00:53...
00:01:01...
00:01:11...
00:01:21...
00:01:44Merci.
00:01:45...
00:01:50Merci.
00:01:51...
00:01:53Merci, merci beaucoup, merci.
00:01:56Merci d'être là, en vrai, vivant.
00:01:59En cette époque, on est souvent derrière nos écrans.
00:02:02Désolé pour le retard, on avait un petit problème technique.
00:02:05Le problème avec la technique, c'est les problèmes techniques, en fait.
00:02:08C'est ça.
00:02:10...
00:02:14Moi aussi, je suis content d'être là, vivant.
00:02:16J'aurais pu venir en hologramme,
00:02:18mais je me suis dit, quand même, pour le premier rang,
00:02:20c'est mieux de prendre les vrais postillons.
00:02:22...
00:02:23Salut.
00:02:24...
00:02:29Théâtre de l'Atelier, 1822.
00:02:31C'était vraiment les débuts d'Internet.
00:02:33Tout début.
00:02:34C'est des modèles à charbon.
00:02:36C'était pas très pratique,
00:02:38mais en tout cas, le taxiphone est d'époque.
00:02:41C'est que des câbles, Internet.
00:02:44C'est que des câbles tirés entre nous.
00:02:46Il y a 300 câbles qui font tout Internet mondial.
00:02:49Il suffirait de couper ces 300 câbles pour qu'on obtienne le Grand O.
00:02:53Ce que j'ai appelé le Grand O, en fait,
00:02:55c'est une coupure d'Internet sur toute la Terre.
00:02:58On entendrait toute l'humanité qui ferait...
00:03:00...
00:03:05Et j'ai envie d'être là.
00:03:07...
00:03:09C'est une très belle invention, Internet.
00:03:11Le problème, c'est que pour chaque invention,
00:03:13dans toute l'histoire de l'humanité,
00:03:15il y a toujours eu un groupe de personnes qui étaient là pour casser l'ambiance.
00:03:18On a découvert la poudre.
00:03:19On s'est dit, c'est génial, ça fait des couleurs.
00:03:21On va pouvoir faire des feux d'artifice et des fêtes.
00:03:24Et des bombes.
00:03:27On a découvert l'aviation.
00:03:28On s'est dit, on va pouvoir voyager plus vite,
00:03:30s'envoyer des courriers plus vite.
00:03:32Et des bombes.
00:03:34La fission nucléaire.
00:03:35On s'est dit, c'est génial, ça va faire de l'énergie pour tout le monde.
00:03:38Et des bombes pour tout le monde.
00:03:40Et avec Internet, on s'est dit, super invention.
00:03:43Pas possibilité de lancer des bombes avec.
00:03:46On va pouvoir s'échanger de l'information, du savoir.
00:03:49Et des tutoriels pour créer des bombes aussi.
00:03:54C'est ça, Internet.
00:03:55C'est ça, la nouvelle technologie.
00:03:57On est en train d'entrer dans une période
00:03:59où on est peut-être en train de se faire dépasser par la nouvelle technologie.
00:04:03Il y a une course à l'innovation en ce moment.
00:04:05On ne prend pas le temps de réfléchir, d'où ce spectacle.
00:04:08Une course à l'innovation, il n'y a qu'à voir l'explosion des startups.
00:04:11Il y a peut-être des gens qui travaillent dans les startups dans les salles.
00:04:14Ne vous manifestez pas.
00:04:16Parce que je ne vous aime pas vraiment, en fait.
00:04:19J'en peux plus des startups.
00:04:21Overdose de startups, j'en peux plus.
00:04:23Je sais que Macron adore les startups.
00:04:25Il a dit, je veux que la France soit une startup nation.
00:04:29Vous allez voir qu'une startup a à peu près 5% de chance de passer les 3 ans.
00:04:33Macron, c'est un mec qui joue au poker.
00:04:35Il a un 2, un 5, il te dit, tapis.
00:04:38Tapis, ouais, tout.
00:04:39La montre, la voiture, le pays, je mets tout.
00:04:45Il a dit aussi, je veux que la France soit un pays qui bouge et pense comme une startup.
00:04:51OK.
00:04:52Mais on commence par toi, Macron.
00:04:54C'est-à-dire que c'est fini l'Elysée, les dorures, les costards, tout ça.
00:04:57Maintenant, tu travailles sur un pouf avec un t-shirt Star Wars.
00:05:09J'en peux plus des startups.
00:05:12Souvent, les startupers, ils te disent, ouais, avant, j'étais dans une grande entreprise.
00:05:15J'ai voulu donner un sens à ma vie.
00:05:20Tu sais, moi, je pensais que donner un sens à sa vie, ça voulait dire se rendre utile.
00:05:23Oh non !
00:05:24Non, ça veut dire avoir des investisseurs et lever des fonds pour une idée moyenne.
00:05:28Non, mais tu vois souvent, dans les journaux, tu sais, un article avec le titre,
00:05:32c'est Valentin a levé 2 millions d'euros en créant le premier chausse-pieds connecté.
00:05:37Tu vois ?
00:05:38Tu sais, pour mettre tes chaussures, il y a le wifi.
00:05:43J'ai l'impression que les startupers, c'est les gens qui se réunissent pour dire,
00:05:45les gars, il faut qu'on invente quelque chose de pas vraiment utile, mais avec un port USB.
00:05:50Des idées ?
00:05:55Il y a un GPS pour se perdre.
00:05:56Ils ont créé un GPS pour se perdre.
00:06:00Je pensais que marcher, ça suffisait, en fait.
00:06:03Eux, ils ont créé un GPS qui te dit, tu vois là où t'es ?
00:06:05Ben, c'est pas là.
00:06:08Bravo.
00:06:10Bravo.
00:06:12Ça m'a donné une idée, moi, d'appli.
00:06:14Je pense que je vais créer une appli pour se perdre, mais dans la vie.
00:06:17Ça s'appellerait iLose.
00:06:20Dès que t'as un choix à faire, tu consultes ton appli.
00:06:22Ok, iLose.
00:06:24On me propose un poste de directeur d'hôtel au Seychelles.
00:06:26C'est payé 8 000 euros par mois. Qu'est-ce que t'en penses ?
00:06:28Surtout pas.
00:06:31Va plutôt dans une startup.
00:06:33C'est mal payé, mais il est smoothie.
00:06:39Il y a une appli qui te permet de t'aider à te passer de ton téléphone.
00:06:47Hein ?
00:06:48On arrive doucement vers la fin, quand même, hein ?
00:06:54Il y a le management des startups, aussi.
00:06:56Nouveau management.
00:06:57Hyper novateur.
00:06:58Ils ont pris l'exemple sur Google.
00:07:00Ils ont remplacé les salaires par les tables de ping-pong et les dragibus gratuits.
00:07:03C'est génial.
00:07:04Il y a un patron de startup qui parlait dans un article.
00:07:06Il disait...
00:07:07Moi, dans ma startup, on a enlevé le mot problème.
00:07:09On cultive la positive attitude.
00:07:11On a enlevé le mot problème.
00:07:12On l'a remplacé par besoin.
00:07:16Tu modifies la langue française directement, toi.
00:07:19Et comment tu fais quand tu veux vraiment utiliser besoin ?
00:07:22J'ai besoin de tes ciseaux.
00:07:23Ah !
00:07:24T'as besoin de mes ciseaux ou t'as besoin de mes ciseaux ?
00:07:27Il y a des nouveaux métiers, aussi, dans les startups.
00:07:29Il y a les happiness managers.
00:07:32C'est les gens qui gèrent le bonheur.
00:07:33Tout ce qui est bonheur.
00:07:36Tu fais quoi dans la vie ? Je gère le bonheur.
00:07:38Ok.
00:07:39T'es dealer ? Non, non, je suis happiness manager.
00:07:45C'est les gens qui viennent te voir quand t'es en train de bosser.
00:07:47Ils viennent te voir et ils te disent...
00:07:48T'es heureux, là ?
00:07:49T'es heureux ?
00:07:50T'es heureux ?
00:07:51T'es heureux ?
00:07:52T'es heureux ?
00:07:53T'es heureux ?
00:07:54T'es heureux ?
00:07:55T'es heureux, là ?
00:07:57Non ? Ok.
00:07:59Et là ?
00:08:01Tu veux un dragibus ?
00:08:08J'ai vu un témoignage de happiness manager.
00:08:10La fille, elle dit...
00:08:12Moi, le matin, je vais voir mes collègues
00:08:14et je leur demande leur météo intérieur.
00:08:20Lâche-nous.
00:08:22T'imagines, il est 8h30 du mat',
00:08:24tu sors des heures de pointe.
00:08:27Tu sens encore l'aisselle de ton voisin de métro.
00:08:30C'est quoi ta météo intérieure ?
00:08:31La grêle.
00:08:33La grêle.
00:08:34Des gros grêlons en marbre comme ça
00:08:35qui tombent sur les start-up.
00:08:38Et à chaque fois que ça touche un happiness manager,
00:08:39on entend...
00:08:40Lol.
00:08:42Dans ces start-up, il y a des cours de rire.
00:08:45Il y a du yoga, du rire.
00:08:46C'est les gens qui se réunissent, ils rigolent.
00:08:48Comme ça.
00:08:49Il n'y a pas de vanne.
00:08:50Comme là, mais sans moi, en fait.
00:08:53Ils ont ubérisé mon métier, ces bâtards.
00:09:01C'est comme ça.
00:09:03C'est comme ça.
00:09:05C'est comme ça.
00:09:07C'est comme ça.
00:09:08C'est comme ça.
00:09:09C'est comme ça.
00:09:11Suivez-moi des gens dans la salle
00:09:12qui ont un ami qui s'est lancé dans une start-up.
00:09:14Qui a changé le...
00:09:15Ah ouais.
00:09:18Qui a changé le statut sur les réseaux sociaux.
00:09:20Qui s'est mis CEO.
00:09:23CEO.
00:09:24Ça veut dire PDG.
00:09:26T'es PDG, toi ?
00:09:28Tu es auto-entrepreneur au chômage.
00:09:30Qu'est-ce que tu racontes ?
00:09:33Ta banque, c'est la CAF.
00:09:36T'es PDG, toi ?
00:09:37Tu te fais des réunions avec toi-même.
00:09:40Tu t'es auto-recruté.
00:09:41Quel est votre plus grand défaut, perfectionniste ?
00:09:43Comme moi.
00:09:53Je peux prendre un café ?
00:09:54Je peux prendre un jus de tomate ?
00:09:56Je pourrais faire des heures de ça.
00:09:57Je pourrais faire tout un spectacle.
00:09:58Je pense que je vais faire un film un jour
00:10:00avec que des mains, comme ça.
00:10:01J'irai à Cannes avec Hypernovateur.
00:10:02Je ne sais plus où j'en suis.
00:10:06Je t'aime quand même.
00:10:07Voilà, c'est la bonne annonce.
00:10:11Je ne fais pas confiance à ces startups.
00:10:13Je n'ai pas confiance en ces startups.
00:10:15Ils prennent l'exemple sur des gens
00:10:17en qui je n'ai vraiment pas confiance.
00:10:18Mark Zuckerberg, par exemple,
00:10:19c'est un exemple pour des startups.
00:10:21Mark Zuckerberg, c'est quand même un gars
00:10:23qui a créé Facebook
00:10:24parce qu'il était tout seul dans sa chambre d'étudiant.
00:10:26Il n'était pas invité au BOUM.
00:10:28Je ne fais pas confiance à quelqu'un
00:10:29qui n'est pas invité au BOUM.
00:10:31Je sais qu'un jour,
00:10:32il va prendre sa revanche sur le monde.
00:10:33Je sais.
00:10:34Je sais qu'il veut se venger.
00:10:35À la base, Facebook, c'était face-match.
00:10:37C'était face-to-face.
00:10:38À la base, Facebook, c'était face-match.
00:10:40Son principe, c'était de mettre en réseau
00:10:42les photos des filles du campus
00:10:44et les gens pouvaient mettre des notes.
00:10:46Ça pue un peu, hein ?
00:10:49Le pire, c'est que Facebook n'a pas tellement changé.
00:10:52Aujourd'hui, il y a même des gens
00:10:54qui discutent de harcèlement sexuel sur Facebook.
00:10:56Il y a des filles qui disent
00:10:57« J'en ai marre de me faire frotter dans le métro.
00:10:58Hashtag balance ton port. »
00:10:59Il y a des mecs qui commentent
00:11:00« Moi, je te soutiens. »
00:11:01Sache que ce mec-là,
00:11:02il est allé voir ton profil avant.
00:11:04Il a regardé tes photos de plage.
00:11:06Il s'est dit « Oh, comment je la soutiens.
00:11:10Oh, je la soutiens quand elle veut. »
00:11:16C'est ça, Facebook.
00:11:19Elon Musk aussi, c'est un exemple pour les start-up.
00:11:21Elon Musk.
00:11:22Génie de sa génération.
00:11:24Génie, mais beauf.
00:11:26Il a envoyé la fusée la plus puissante du monde
00:11:29et il a mis sa caisse.
00:11:31Beauf, on est d'accord.
00:11:33Il a envoyé sa voiture.
00:11:34Il veut que tout le monde voit sa caisse.
00:11:36Il a même déclaré peut-être
00:11:37que les extraterrestres vont tomber dessus.
00:11:39Donc lui, il pense en plus
00:11:40que les extraterrestres,
00:11:41c'est des beaufs comme lui.
00:11:42Il pense que les gars,
00:11:43ils vont être là et ils vont dire
00:11:44« Oh, regardez, on voit une planète bleue.
00:11:45Apparemment, il y aurait de la...
00:11:46Oh, la caisse !
00:11:47Wouhou !
00:11:48Ok !
00:11:49Jean-Thalia, j'ai tout, sa mère.
00:11:50Ok, d'accord.
00:11:51Ok, ok.
00:11:52Eh, les gars,
00:11:53avant d'atterrir,
00:11:54on rajoute des néons à la socope.
00:11:58Comme ça, on va atterrir
00:11:59et ils vont faire « Oh, la socope ! »
00:12:05C'est des gens qui ont réussi.
00:12:06C'est des gens qui ont réussi
00:12:07grâce aux nouvelles technologies,
00:12:08grâce à Internet.
00:12:09C'est ça aussi Internet,
00:12:10c'est que ça permet à n'importe qui
00:12:11de réussir.
00:12:12Les gens comme ça
00:12:13qui vivent grâce à Internet.
00:12:15Les influenceurs, par exemple.
00:12:19Les influenceurs,
00:12:20pour ceux qui ne savent pas ce que c'est,
00:12:21c'est des gens qui sont très suivis
00:12:22sur Internet
00:12:23et les marques les payent
00:12:24pour qu'ils parlent de ces marques-là.
00:12:26C'est par exemple
00:12:27les blogueurs, les blogueuses.
00:12:28Il y a des blogueuses
00:12:29qui sont payées pour aller sur Internet.
00:12:30C'est des gens qui sont très suivis
00:12:31sur Internet
00:12:32et les marques les payent
00:12:33pour qu'ils parlent de ces marques-là.
00:12:34Il y a des blogueuses
00:12:35qui sont payées pour aller faire
00:12:36un brunch vegan.
00:12:37Elles se prennent en photo
00:12:38avec une tartine de tofu comme ça.
00:12:40Elles prennent la photo
00:12:41et après elles font « Allez,
00:12:42on va à McDo. »
00:12:44C'est ça, c'est ça,
00:12:45les influenceurs.
00:12:46On m'a proposé un jour
00:12:47d'être influenceur.
00:12:48On m'a dit « Ça serait bien
00:12:49que t'influences.
00:12:50En échange,
00:12:51on t'offre deux places de cinéma. »
00:12:53C'est mon niveau d'influence.
00:12:55Deux places de cinéma,
00:12:56voilà, sans les pop-corn.
00:12:58Ça m'a vexé,
00:12:59j'ai dit non.
00:13:00Et après coup,
00:13:01j'accepte,
00:13:02mais je fais n'importe quoi
00:13:03avec l'influence.
00:13:04Je mettrais une caméra,
00:13:05je ferais « Bon, moi,
00:13:06salut les influencés
00:13:07ou les influençables
00:13:08ou les idiots,
00:13:09je sais pas comment on dit.
00:13:10On m'a proposé de tester
00:13:11le nouveau jeu FIFA.
00:13:12Voilà, je suis très content.
00:13:13Je n'arrive pas à l'ouvrir.
00:13:14Fin de l'influence.
00:13:21Il y a des gens
00:13:22qui sont champions de l'influence.
00:13:23Kim Kardashian,
00:13:24reine de l'influence.
00:13:25Kim Kardashian,
00:13:26elle est suivie
00:13:27par des millions de personnes.
00:13:28Pour ceux qui ne connaissent pas
00:13:29Kim Kardashian,
00:13:31c'est à peu près tout
00:13:32ce qu'il faut savoir sur elle.
00:13:36Très influente.
00:13:37Très influente,
00:13:38Kim Kardashian, en fait,
00:13:39elle a fait une sextape,
00:13:40elle s'est mariée
00:13:41avec un schizophrène,
00:13:42donc les gens disent
00:13:43« Ben oui, modèle,
00:13:44dis-nous. »
00:13:54Elle a fait une vidéo
00:13:55d'influenceuse,
00:13:56elle a posté
00:13:57les cadeaux de son mari.
00:13:58Son mari est millionnaire,
00:13:59il lui a offert,
00:14:00en fait, tu vois,
00:14:01au début, le cadeau,
00:14:02c'est des chaussettes Adidas,
00:14:03un abonnement Netflix
00:14:04et des écouteurs iPhone.
00:14:05Tu te dis « C'est bizarre,
00:14:06il est millionnaire,
00:14:07normalement. »
00:14:08Et en fait, c'est une feinte,
00:14:09elle bouge après
00:14:10et elle met le vrai cadeau
00:14:11et c'est une boîte
00:14:12avec 500 000 dollars d'actions,
00:14:13Apple, Netflix, Adidas,
00:14:14une QIU2, je crois,
00:14:15ou un truc comme ça.
00:14:18Je ne sais pas trop,
00:14:19suivie.
00:14:20Et elle met ça
00:14:21sur les réseaux sociaux,
00:14:22les gens disent
00:14:23« C'est génial, c'est génial.
00:14:24Moi, tu m'offres ça,
00:14:25je panique.
00:14:26500 000 dollars d'actions,
00:14:27je serais là,
00:14:28mais qu'est-ce qu'on fait ?
00:14:29On attend, on vend,
00:14:30qu'est-ce qu'on fait ? »
00:14:31Donc là, je suis trader,
00:14:32en fait.
00:14:33Faut que je prenne de la coke,
00:14:34comment ça se passe ?
00:14:40Elle a une sœur aussi,
00:14:41qui s'appelle Kylie.
00:14:42Elle s'appelle Kylie
00:14:43parce que Kim Kardashian
00:14:44s'était déjà prise,
00:14:45donc elle s'appelle Kylie.
00:14:48C'est sa sœur
00:14:49ou sa demi-sœur, je crois,
00:14:50ou son quart de sœur,
00:14:51je ne sais jamais,
00:14:52je n'arrive pas à suivre,
00:14:53ça change tout le temps.
00:14:54Je sais qu'elle avait un père,
00:14:55c'est devenu sa mère.
00:15:02Kylie, elle est très influente,
00:15:04parce qu'en fait,
00:15:05elle, elle a fait
00:15:06de la chirurgie esthétique
00:15:07à 17 ans.
00:15:08A 17 ans, elle a dit,
00:15:09avant la colo,
00:15:10il faut absolument
00:15:11que j'ai les faux seins,
00:15:12donc les gens disent
00:15:13« Bah oui, modèle.
00:15:14On va savoir, on va savoir. »
00:15:16Elle a mis un tweet,
00:15:17et sur ce tweet,
00:15:18elle a écrit
00:15:19« En fait, Snapchat,
00:15:20c'est pas dingue.
00:15:21Dans les secondes
00:15:22qui ont suivi,
00:15:23Snapchat a perdu 6%
00:15:24à la bourse.
00:15:261,2 milliard,
00:15:27ils ont perdu
00:15:28à cause du tweet
00:15:29de Kylie.
00:15:32Il y a des gens
00:15:33en Wall Street
00:15:34qui font des hautes études.
00:15:36Ils lisent
00:15:37la presse économique
00:15:38tous les matins.
00:15:39Ils ont vu ça,
00:15:40ils ont fait
00:15:41« Ah merde.
00:15:42Non, non,
00:15:43elle faut qu'on l'écoute.
00:15:44Non, non.
00:15:45La vérité sort toujours
00:15:46de la bouche
00:15:47des enfants siliconés,
00:15:48toujours. »
00:15:50On a le même type
00:15:51d'influenceuse en France,
00:15:52on a Nabila aussi.
00:15:53Nabila, très grosse influenceuse.
00:15:55Elle a mis une vidéo un jour,
00:15:56elle se filmait comme ça.
00:15:57En fait,
00:15:58elle a été payée
00:15:59par un site
00:16:00qui vend des bitcoins
00:16:01pour dire
00:16:02« Ouais, les bitcoins,
00:16:03c'est vachement bien.
00:16:04Faut investir dans les bitcoins.
00:16:05C'est un placement sûr. »
00:16:06Tu te dis « Waouh.
00:16:07Elle parle d'investissement.
00:16:08C'est bizarre. »
00:16:09Elle marche comme ça.
00:16:10Après, elle dit
00:16:11« J'ai perdu ma chambre. »
00:16:12Et tu fais
00:16:13« Ah, voilà. »
00:16:16Elle, elle donne
00:16:17des conseils financiers.
00:16:18Elle a oublié
00:16:19son numéro de chambre.
00:16:21T'imagines,
00:16:22aller voir un banquier
00:16:23qui te dit
00:16:24« Vous êtes dans
00:16:25le bon établissement ici. »
00:16:26« Ah ouais.
00:16:27Vous pouvez nous faire confiance.
00:16:28On est des pros.
00:16:29On travaille directement
00:16:30avec Wall Street.
00:16:31Bon, il y a 6 heures
00:16:32de décalage.
00:16:33Ça veut dire qu'en ce moment,
00:16:34Wall Street, il est...
00:16:35C'est la petite ou la grande ?
00:16:36Je sais jamais.
00:16:37Hein ?
00:16:38Non, parce que...
00:16:44Je voulais prendre
00:16:45avec les chiffres,
00:16:46mais ils font pas
00:16:47chez Rolex, en fait.
00:16:51On regarde bien.
00:16:59Ces gens-là postent
00:17:00toute leur vie
00:17:01sur les réseaux sociaux,
00:17:02les influenceurs.
00:17:03Les Kardashian,
00:17:04c'est très impressionnant.
00:17:05Ils prennent tout en photo.
00:17:06Ils prennent tout en photo.
00:17:07Tu vois les paparazzi ?
00:17:08Les Kardashian,
00:17:09ils prennent en photo
00:17:10les paparazzi.
00:17:11Même les paparazzi,
00:17:12ils leur disent
00:17:13« Un peu de vie privée,
00:17:14quand même, non ? »
00:17:18On a tendance, comme ça,
00:17:19à poster sur les réseaux sociaux.
00:17:20Ouais, et souvent,
00:17:21c'est les bons côtés de sa vie.
00:17:22On poste la photo de plage
00:17:23quand on est en vacances,
00:17:24tu vois ?
00:17:25Avec cette petite tendance
00:17:26malsaine à essayer
00:17:27de faire envie aux autres
00:17:28qui sont pas en vacances.
00:17:29« Hein ? On a bien le café ? »
00:17:30« Hein ? »
00:17:31Moi, je ne t'envie pas
00:17:32quand tu postes une photo de plage.
00:17:33Je ne t'envie pas,
00:17:34parce que je pense au moment
00:17:35où t'as dû prendre la photo
00:17:36sous le soleil,
00:17:37t'étais comme ça.
00:17:38« Ah putain, je vois rien. »
00:17:39« Oh là là. »
00:17:40« Attends, je vous montre
00:17:41la luminosité. »
00:17:42« Attends deux secondes. »
00:17:44Je me suis mis en mode avion,
00:17:45je crois, j'avoue.
00:17:46« Eh, va te baigner, en fait.
00:17:47Lâche-nous. »
00:17:50On poste les bons côtés de sa vie
00:17:52à tel point qu'il faut préciser
00:17:53quand on dit la vérité, maintenant.
00:17:54Il faut mettre nos filtres.
00:17:56C'est la vraie lumière.
00:17:57Nos make-up, c'est ma vraie peau.
00:18:01Moi, je pense qu'il faudrait
00:18:02créer le pendant d'Instagram.
00:18:04Il faudrait créer Instagram
00:18:06pour poster les mauvais côtés
00:18:07de sa vie.
00:18:08Voilà, en direct du pôle emploi,
00:18:10en mode radiation.
00:18:15Petit dîner ce soir, hop,
00:18:16biscottes à l'eau.
00:18:18Hashtag fin du mois.
00:18:22Allez, je vous fais un petit live, là.
00:18:23En fait, je viens de sortir
00:18:24de la garde à vue.
00:18:26Je me suis fait attraper
00:18:27en train de voler à Sephora.
00:18:28Bon bah, nos make-up.
00:18:41Toute personne qui s'est retrouvée
00:18:43devant un rayon maquillage à Sephora
00:18:45a eu envie de voler.
00:18:46Hommes ou femmes ?
00:18:48Un crayon à papier à 25 euros,
00:18:49tu fais quoi ?
00:18:50Mais attends, mais attends.
00:18:54C'est pas du vol, c'est de la justice.
00:18:55C'est pas pour...
00:18:56Non ?
00:19:02Mais je critique les réseaux sociaux
00:19:03alors que...
00:19:04alors que j'utilise beaucoup
00:19:05les réseaux sociaux,
00:19:06alors que j'utilise beaucoup
00:19:07les réseaux sociaux,
00:19:08alors que...
00:19:09alors que j'utilise beaucoup
00:19:10les réseaux sociaux.
00:19:11Ça m'a permis de me faire connaître.
00:19:13Sans les réseaux sociaux,
00:19:14je pense que je serais encore
00:19:15en train de jouer dans un bar PMU.
00:19:18Même si on est d'accord
00:19:19que le bar PMU,
00:19:20c'est l'ancêtre du réseau social.
00:19:21Oui, si, c'est les gens
00:19:22qui se réunissent
00:19:23pour dire de la merde.
00:19:25C'est un réseau social, tu vois.
00:19:26Tout le monde a un avis sur tout,
00:19:27personne n'a raison sur rien.
00:19:32Très impressionnant
00:19:33pour ça, les réseaux sociaux.
00:19:34Les commentaires des réseaux sociaux.
00:19:37Moi, je mets des vidéos,
00:19:38je demande des thèmes aux gens.
00:19:40Il y a un mec, un jour,
00:19:41il m'a dit,
00:19:42les pains au chocolat.
00:19:44Il y a un mec, il a répondu,
00:19:45on dit chocolatine.
00:19:49J'étais pas prêt.
00:19:52Le mec a re-répondu,
00:19:53FTG, FDP.
00:19:56Ce qui veut dire,
00:19:57je suis pas tout à fait d'accord
00:19:58avec ton point de vue.
00:20:00Et l'autre, c'est pas démonté,
00:20:02nazi.
00:20:04Nazi.
00:20:06En quatre phrases,
00:20:07on avait atteint le point Godwin.
00:20:09Pain au chocolat,
00:20:10trois phrases après, on part du nazisme.
00:20:11Sérieusement ?
00:20:12Ça, ça n'existe pas dans la vie.
00:20:14Dans la vie, ça ne se passe pas comme ça.
00:20:16Tu vois pas, à Toulouse,
00:20:17je voudrais un pain au chocolat.
00:20:18On dit chocolatine.
00:20:19Ferme ta gueule, fils de pute.
00:20:23Nazi ?
00:20:33Ça n'existe pas, ça.
00:20:34Ça n'existe pas.
00:20:35Parce qu'en plus, on sait que
00:20:37les nazis n'aimaient pas trop
00:20:38les vinoiseries, en plus.
00:20:39Non, ils étaient au régime.
00:20:40Ils étaient au régime.
00:20:41Régime totalitaire.
00:20:43Si, parfois,
00:20:44ils se faisaient un petit four,
00:20:45comme ça, mais...
00:21:06J'aime aussi...
00:21:08Il y a ces gens qui m'ont mis...
00:21:10Ils sont nombreux, en plus.
00:21:11Ils m'ont mis juif.
00:21:14Comme ça, pas de phrase, pas d'article.
00:21:16Voilà, juste juif.
00:21:18Le gars, il faut qu'il écrive
00:21:19juif quelque part le matin
00:21:20quand il se lève.
00:21:21C'est viscéral, je te jure.
00:21:23Juif, juif, juif.
00:21:30Tu sens tout l'appel
00:21:33aux juifs.
00:21:34Il est sur sa moto.
00:21:35Juif, juif, juif.
00:21:45C'est les gens comme ça,
00:21:46sur Internet, souvent,
00:21:47qui se disent anti-système.
00:21:48Ils disent le monde est dirigé
00:21:49par les juifs, les francs-maçons.
00:21:51Le mec, il te dit ça sur YouTube.
00:21:53Sur YouTube.
00:21:54Ça appartient à Google.
00:21:55Ça a été créé par des juifs.
00:21:56Qu'est-ce que tu fais là, en fait ?
00:21:58Même si tu vas sur Facebook,
00:21:59Mark Zuckerberg.
00:22:00Berg.
00:22:03T'es vraiment anti-système,
00:22:04va sur Copain d'Avant.
00:22:08Y'a pas de juifs sur Copain d'Avant.
00:22:10Y'a pas de francs-maçons,
00:22:11y'a pas d'Illuminati.
00:22:12Y'a personne sur Copain d'Avant.
00:22:13Y'a juste un mec qui te dit
00:22:14quoi neuf depuis le CE2.
00:22:28C'est toi, c'est toi ?
00:22:31C'est moi, le CE2.
00:22:35J'ai mis des vidéos sur le monde arabe.
00:22:37J'ai mis des vidéos sur la Shoah.
00:22:39J'ai mis des vidéos sur le harcèlement.
00:22:41Apparemment, je suis sioniste,
00:22:43antisémite, sexiste.
00:22:45Ne vous inquiétez pas,
00:22:46tout va bien pour moi.
00:22:47Tout va bien pour moi
00:22:48parce qu'en fait, sur YouTube,
00:22:50plus t'as d'insultes,
00:22:51plus ça fait des commentaires.
00:22:53Du coup, ta vidéo remonte
00:22:54dans les tendances.
00:22:55Tu fais des vues.
00:22:56Donc du coup,
00:22:57t'as encore plus d'insultes.
00:22:58Ça remonte encore.
00:22:59C'est génial.
00:23:01C'est l'algorithme.
00:23:02C'est génial.
00:23:03C'est l'algorithme de la médiocrité.
00:23:06C'est parfait.
00:23:10Tous ces gens qui t'insultent
00:23:11à chaque fois que tu dis quelque chose
00:23:12sur les réseaux sociaux,
00:23:13je pense qu'il faudrait tous les prendre
00:23:14et les réunir dans un pays
00:23:15qui s'appelle la susceptibli.
00:23:18Il y aurait tous les salafistes,
00:23:19les sionistes, les sexistes.
00:23:20Tout ce qui est en is qui nous fait chier.
00:23:22Les quistes, tout.
00:23:24Ils sont réunis comme ça
00:23:25et ils se regardent
00:23:26et ils n'ont pas le droit de parler.
00:23:27Parce que dès que tu parles,
00:23:28ça peut être retenu contre toi.
00:23:30Tu vas dire, bonjour.
00:23:31Ah ouais, bonjour.
00:23:33C'est Hitler, il disait bonjour aussi.
00:23:36Pas bonjour alors.
00:23:37Donc toi, tu viens, tu dis même pas bonjour en fait.
00:23:39T'es un colonialiste en fait.
00:23:40T'es contre la Palestine ?
00:23:41Mais non.
00:23:43Je suis pour les droits de l'homme, voilà.
00:23:45Et la femme ?
00:23:47C'est mort.
00:23:48C'est mort.
00:23:50C'est mort.
00:23:57Quand je vois ça, franchement,
00:23:58je me dis, c'est peut-être normal
00:23:59qu'il y ait de l'intelligence artificielle.
00:24:01On en a peut-être besoin finalement.
00:24:06L'intelligence artificielle,
00:24:09c'est la grosse tendance en ce moment.
00:24:11Ce sont les programmes en fait
00:24:12qui sont capables d'apprendre eux-mêmes.
00:24:13Ils deviennent de plus en plus intelligents
00:24:15avec les informations qu'on leur donne.
00:24:17Ils progressent comme ça.
00:24:18Le problème, c'est que c'est nous
00:24:19qui donnons les informations.
00:24:20Je suis pas sûr qu'on soit les meilleurs profs.
00:24:22Je ne suis pas sûr.
00:24:23Microsoft a créé une intelligence artificielle
00:24:25qui discute avec les gens
00:24:26sur les réseaux sociaux.
00:24:27Ils ont dit,
00:24:28plus vous discutez avec elle,
00:24:29plus elle devient intelligente.
00:24:30En une journée,
00:24:31elle est devenue raciste.
00:24:37Je ne suis pas sûr qu'on soit capable
00:24:38de gérer tout ça en fait.
00:24:40Il y a des entreprises
00:24:41qui utilisent l'intelligence artificielle
00:24:42pour répondre aux clients
00:24:44sur leur site internet.
00:24:46Ils mettent des prénoms d'humains.
00:24:48Il y a des prénoms de femmes parfois.
00:24:50Il y a des mecs,
00:24:51ils ont dragué les IA.
00:24:53Ils ont vu écrit Julie,
00:24:54ils ont dit,
00:24:55qu'est-ce que tu fais ce soir Julie ?
00:24:56Le robot qui dit,
00:24:57ce n'est pas dans mes compétences
00:24:58de répondre à cette question.
00:25:01Elle n'a pas dit non.
00:25:06On pourrait se dire,
00:25:07eux ils ne savent pas.
00:25:08Ils ne savent pas.
00:25:11Il y a des trucs qui volent parfois.
00:25:14On pourrait dire,
00:25:15ils ne savent pas.
00:25:16C'est une IA,
00:25:17c'est pas clair.
00:25:19Et au Japon en fait,
00:25:21il y a une simulation amoureuse.
00:25:23C'est un jeu comme ça,
00:25:24c'est un jeu vidéo.
00:25:25Tu fais comme si
00:25:26tu vivais avec quelqu'un.
00:25:27Il y a un mec,
00:25:28il s'est marié avec sa console.
00:25:30Il s'est marié avec sa console.
00:25:32Je me demande comment
00:25:33ils font les mises à jour.
00:25:34Tu penses qu'au bout de 20 ans
00:25:35de mariage,
00:25:36il y a une mise à jour jalousie ?
00:25:37Avec le simulateur qui fait,
00:25:38hé !
00:25:39Tu crois que je n'ai pas vu
00:25:40comment tu regardes Le Grip 1 ?
00:25:44Je ne suis pas sûr qu'on soit prêt
00:25:45à gérer l'IA.
00:25:47Un robot qui s'appelle Sofia aussi.
00:25:48Un robot femme en fait.
00:25:50Il a l'apparence d'une femme,
00:25:51vraiment,
00:25:52avec des expressions de femme.
00:25:53On lui a dit,
00:25:54vous voulez détruire l'humanité.
00:25:55Elle a dit,
00:25:56ok,
00:25:57je vais détruire l'humanité.
00:25:58Flippant, flippant.
00:26:00Flippant,
00:26:01sauf qu'en Arabie Saoudite,
00:26:02ils ont vu ça,
00:26:03ils ont dit,
00:26:04on veut ce robot.
00:26:05Ils l'ont fait venir
00:26:06en Arabie Saoudite.
00:26:07Ils lui ont donné les papiers.
00:26:08Ils l'ont nationalisé.
00:26:09Elle a la nationalité saoudienne.
00:26:11Ils sont au courant,
00:26:12les réfugiés,
00:26:13de ça ou pas ?
00:26:14Ils savent qu'il y a des robots
00:26:15qui ont des papiers
00:26:16et pas eux ?
00:26:17Qui vont passer la frontière
00:26:18comme ça ?
00:26:25En Arabie Saoudite,
00:26:26si t'es une femme,
00:26:27t'es obligé de porter le voile.
00:26:28Si t'es un robot-femme,
00:26:29t'es pas obligé.
00:26:30On est en train
00:26:31d'entrer dans une ère
00:26:32où il y a certains robots
00:26:33qui ont plus de droits
00:26:34que certains humains.
00:26:35Il y a des pays
00:26:36où les femmes
00:26:37n'ont pas le droit de conduire.
00:26:38Il y a d'autres pays
00:26:39où il y a des voitures autonomes.
00:26:40C'est-à-dire qu'il y a des robots,
00:26:41ils ont leurs caisses.
00:26:42Ils ont leurs voitures à eux.
00:26:44Ils sont même en train
00:26:45de remplacer les chauffeurs Uber
00:26:46par des robots.
00:26:47Ils ont uberisé Uber.
00:26:48Fin du game.
00:26:49Fin du jeu.
00:26:50Fin du jeu.
00:26:52Je me demande si...
00:26:54C'est pour pas qu'on soit
00:26:55trop dépaysés.
00:26:56Ils ont pris des robots
00:26:57qui ont le même profil
00:26:58que les chauffeurs Uber.
00:26:59Tu sais, des robots
00:27:00qui galèrent un peu dans la vie.
00:27:01Ils se disent
00:27:02« Je sais pas trop quoi faire.
00:27:03Je vais devenir chauffeur Uber.
00:27:04C'est pas mal.
00:27:05T'as ton petit Peugeot 118.
00:27:06T'es bien.
00:27:07Et bientôt,
00:27:08on va entrer dans des voitures.
00:27:09On entendra
00:27:10« Bienvenue dans la voiture
00:27:11autonome, frère.
00:27:12»
00:27:13« Bienvenue dans la voiture
00:27:14autonome, frère. »
00:27:15« Bienvenue dans la voiture
00:27:16autonome, frère. »
00:27:17« Bienvenue dans la voiture
00:27:18autonome, frère. »
00:27:19« Bienvenue dans la voiture
00:27:21autonome, frère. »
00:27:28On n'est pas vraiment
00:27:29prêt à gérer l'IA.
00:27:30Il y a des recherches
00:27:31qui sont faites
00:27:32qui vont peut-être
00:27:33un peu loin.
00:27:34Google va très loin
00:27:35sur la recherche pour l'IA.
00:27:36Ils ont
00:27:37mandaté quelques ingénieurs,
00:27:38une quinzaine d'ingénieurs
00:27:39pour créer un robot
00:27:40qui s'appelle AlphaGo,
00:27:41qui est capable d'intuition.
00:27:42En fait, c'est un robot
00:27:43qui joue au go,
00:27:44le jeu chinois de stratégie.
00:27:46Ça ressemble à des dames
00:27:47mais c'est plus sophistiqué.
00:27:48Ça demande beaucoup
00:27:49d'intuition.
00:27:50un reportage là-dessus, un documentaire, et tu vois les ingénieurs qui parlent déjà,
00:27:54tu sens qu'eux ils ont un problème de communication avec les humains, tu sens, tu sens qu'ils
00:27:58sont là... tu sens que si une femme s'approche trop près, ils s'écrètent du sébum, vraiment,
00:28:01tu vois ? Pareil, je leur fais pas confiance. Ils ont créé ce robot qui est capable d'intuition
00:28:14qui a gagné 4-1 contre le champion du monde de Go, 4-1, et il y a des gens qui ont commencé
00:28:19à dire que c'est la fin de l'humanité, on est dépassé par les machines, je pense
00:28:22pas, je pense que c'est pas équitable. Parce que le robot il fait que ça de sa vie de
00:28:25jouer au Go, alors que l'humain il a d'autres choses à se gérer, il a ses émotions, ses
00:28:29désirs, sa famille, il faudrait créer une famille au robot, qui lui prend la tête.
00:28:34T'es un robot beau frère qui va le voir juste avant le match, eh, c'est que si tu perds
00:28:38t'es une grosse merde ! Même nous les humains, on a mis la pression au robot, à l'humain
00:28:49faut que tu gagnes, tu représentes l'humanité, il avait la pression tu vois ? Faudrait créer
00:28:52des robots supporteurs autour du robot qui joue aussi, des robots un peu lourds, t'sais
00:28:561-1-1-0, 0-1-1, 1-1-0-0, 0-0-1, 1-1-0-0, 1-1-0-0-1, c'est les robots de Marseille, vous avez reconnu ?
00:29:15Et donc il a gagné, et à un moment les ingénieurs ils sont là, ils sont contents parce que le
00:29:20robot a gagné contre l'humain, ils sont là, ils sont contents, et ils disent ce robot
00:29:25n'a quasiment aucun point faible, j'en vois un très gros quand même, la prise électrique.
00:29:31Je pense que le robot un jour va faire une partie de Go, ce sera une partie très importante,
00:29:38il sera à 3h du matin, ça dure depuis longtemps, tout le monde est fatigué, il va jouer son
00:29:40dernier coup, il entendra piou, et t'as le mec du ménage qui est là, t'es pour l'aspirateur
00:29:49en fait, j'ai fait une connerie, j'ai fait une connerie ?
00:29:51Je pense qu'on a encore un avantage sur l'IA, c'est que l'IA ne peut pas comprendre notre
00:30:02bêtise, elle n'est pas encore assez intelligente pour comprendre notre bêtise, nous on vit
00:30:06avec les abrutis, on s'adapte, on sait, l'IA elle vient nous voir, elle va dire pourquoi
00:30:12vous mettez des radars à 130 alors qu'il suffirait de fabriquer des voitures qui sont
00:30:15limitées à 130 ? Tu veux pas comprendre ok ? Ok ok je peux pas comprendre, mais si le
00:30:25pétrole crée des guerres, pourquoi vous apprenez pas à vous passer du pétrole ? Arrête avec
00:30:28tes questions, je suis pas venu ici pour souffrir ok ? On a encore un coup d'avance,
00:30:38un coup stupide mais un coup d'avance, je pense même qu'un jour si les machines dirigent
00:30:43le monde, on pourra encore envoyer notre élu, il faudrait prendre le plus bête d'entre
00:30:48nous, le plus bête, il irait faire une dernière partie de Go qui décidera du sort de l'humanité,
00:30:53il sera face à la machine mère, il prendra un puant noir et il dira, belote ! Et la
00:31:02machine elle sera là, mais qu'est-ce que tu racontes, contre qui aime ça ? Et la machine
00:31:08elle sera là, il est trop con, il est trop con, je m'auto-détruis, bah...
00:31:12Une nouvelle technologie internet, c'est vraiment en train de prendre une place dans
00:31:25nos vies qui est impressionnante, je pense que ça remplace même la religion parfois.
00:31:29Tu sais avant quand t'avais une question existentielle, t'allais voir un religieux, un sage, un philosophe,
00:31:33aujourd'hui tu vas sur Google, tu vas taper, y'a quoi après la mort ? Et y'a des gens
00:31:38qui ont répondu, y'a des gens qui savent aussi, sur internet y'a des gens qui savent,
00:31:44sur jeuxvideo.com, forum du 18-25 ans, y'a quoi après la mort ? Ta mère ! Et personne
00:32:00peut lui prouver qu'il a tort, si ça se trouve y'a vraiment ta mère après la mort, y'a
00:32:04vraiment ta mère qui t'attend comme ça, t'as mangé ? Internet prend beaucoup de
00:32:13place dans nos vies, maintenant nos principes de vie sont dictés par internet, on avait
00:32:19les traditions, la transmission, les sages, la religion avant, maintenant on a internet,
00:32:24internet te dit comment éduquer tes enfants, y'a ce genre d'article là, les 5 conseils
00:32:27pour bien éduquer ses enfants, ne pas s'énerver, ah oui, oui c'est vrai, tu sais tu sens que
00:32:34le gars qui a écrit ça il était là, ne pas s'énerver, ah mais lâche moi putain,
00:32:38va jouer, papa il travaille, allez prends la tablette, va jouer dégage, prends la tablette,
00:32:42fais ce que tu veux sur la tablette, évitez les écrans, on va chercher nos principes
00:32:51de vie sur internet, y'a des gens qui vont beaucoup trop sur internet, j'ai un ami qui
00:32:54va beaucoup trop sur internet, si, si, un jour il est venu me voir, il sait qu'en fait
00:32:59faut faire des monodiètes, faut manger qu'un seul aliment pendant deux semaines, là je
00:33:03fais une monodiète de Curly, je mange que les Curly, les Curly, les Curly, les Curly
00:33:10aux Curly, parfois j'énerve, ça va, ça va, je le vis bien, parfois ça tourne un peu
00:33:14quand même, un jour il est venu me voir, il dit hé, j'ai vu sur internet, tu sais
00:33:20que c'est des conneries de dormir 8h par nuit, ça c'est pour nous vendre des couettes,
00:33:23il dit, maintenant je dors une demi-heure par nuit et je fais les cesses de 4 minutes
00:33:35toutes les 55 minutes, je lui dis « mais t'es sérieux ? », il m'a répondu « rrrrrrrr
00:33:44». C'est une vraie question, la religion et les nouvelles technologies, y'a un ingénieur
00:33:52qui veut créer une religion autour d'une IA.
00:33:55Il pense que l'IA sera une nouvelle divinité.
00:33:58Il veut réunir des gens, je sais pas, dans un datacenter.
00:34:01Il veut prier un gros serveur, comme ça.
00:34:03Oui, IA, sois loué !
00:34:05Oh, grande IA !
00:34:07Dis-nous, quel est l'avenir de l'humanité ?
00:34:09Pas de réponse.
00:34:10Grande IA ?
00:34:11Pas de réponse.
00:34:13Grande IA.
00:34:14Et on verra un mec sortir de derrière le serveur.
00:34:18Aspirateur, en fait.
00:34:20J'ai fait une connerie, j'ai fait une connerie.
00:34:27L'information d'Internet nous hape.
00:34:29On est hapés par Internet.
00:34:30Même si Jésus revenait, on le verrait pas.
00:34:32Il a pas Snapchat, il a pas Twitter, il a pas Insta.
00:34:34On s'en fout.
00:34:36Frédéric, je suis venu pour vous sauver.
00:34:38Il est con, ce chat.
00:34:44Même ces miracles, tu sais, maintenant,
00:34:47on a la réalité virtuelle, on serait même pas impressionnés par les miracles.
00:34:49Ils multiplient les pains, on fait « Oh, c'est pas mal. »
00:34:52C'est sans gluten.
00:34:54Je l'ai vu sur Internet, il faut manger sans gluten.
00:35:00Si Jésus veut faire le buzz, ça servirait à rien de marcher sur l'eau.
00:35:04Il faudrait la rigueur qui marche sur la famille Kardashian.
00:35:06Là, oui.
00:35:07Aïe, aïe, aïe, aïe.
00:35:12Y'a un truc qui a explosé, là.
00:35:20Y'a des gens qui sont plus intelligents que tout le monde, apparemment,
00:35:23qui commencent à vraiment prendre conscience.
00:35:27Et ils commencent à pratiquer le transhumanisme.
00:35:30On commence à prendre la place de Dieu,
00:35:31on met des nouvelles technologies sur nos corps,
00:35:32parce que c'est pas assez bien.
00:35:34On aime pas trop la création, donc on s'est dit « Voilà, c'est mieux. »
00:35:37Avec des trucs...
00:35:38Nouvelles technologies, tout ça.
00:35:39Tu sais, souvent, ils te disent « Ouais, mais t'inquiète, c'est que pour la santé.
00:35:42C'est pour nous soigner. »
00:35:43Tu sais qu'il y en a qui vont faire des dingueries avec, tu sais.
00:35:45Tu sais qu'il y a des mecs qui vont arriver avec une liasse de billets,
00:35:47ils vont dire « Hé, mets-moi une deuxième langue.
00:35:50Pour rouler mes bédots plus vite.
00:35:51Allez, hop !
00:35:52Blaaaah !
00:35:55Je veux les griffes de Wolverine aussi.
00:35:57Je veux les griffes de...
00:35:58Pour couper mon shit.
00:36:00Mais mieux, tu vois.
00:36:08Même pour les légumes, c'est quand même pratique.
00:36:14Pour l'apéro, c'est les olives.
00:36:18Par contre, pour les chips, c'est pas top, hein.
00:36:24Alors bien sûr, il va y avoir des lois pour nous protéger, bien sûr.
00:36:27Il va y avoir des lois pour nous protéger.
00:36:28Mais sur Internet, les lois...
00:36:31Tu peux tout trouver sur Internet.
00:36:33Il suffit d'aller sur le Darknet.
00:36:34Sur le Darknet, tu peux tout trouver.
00:36:36Darknet, c'est Internet, mais sans les lois, sans la surveillance.
00:36:39C'est pratique pour les militants qui sont sous les dictatures,
00:36:42les journalistes qui sont sous les dictatures.
00:36:43C'est pratique pour les militants qui sont sous les dictatures.
00:36:46Les journalistes qui sont sous les dictatures pour communiquer sans être surveillés.
00:36:49C'est aussi pratique pour tous les fous du monde.
00:36:53Darknet, c'est un peu le bon coin géré par Satan.
00:36:56Ouais, tout est à vendre.
00:36:59Occasion à saisir, j'ai un lot de reins à peine servi.
00:37:04Message en MP.
00:37:11C'est vrai que c'est important, cette question de la régulation d'Internet.
00:37:13Parce que le Darknet, en fait, ce serait Internet sans la régulation.
00:37:17Il y a des gens qui sont payés pour trier le contenu violent,
00:37:21les vidéos, les images violentes.
00:37:22Ils sont payés pour devenir fous, en fait.
00:37:24Vraiment, ils deviennent fous pour que nous,
00:37:26quand on cherche concombre sur Google, on tombe bien sur le légume.
00:37:29Parce que tu sais, il y a des gens qui ont mis des trucs bizarres.
00:37:34C'est important de se protéger sur Internet,
00:37:36de se protéger des méchants, bien sûr,
00:37:37et de se protéger aussi des gentils.
00:37:39Google, Amazon, Facebook, ils sont gentils.
00:37:42Oui, ils sont gentils.
00:37:43Ils prennent tes données gentiment.
00:37:45Ils te disent, ouais, mais t'inquiète.
00:37:47Et nous, on est là, on fait, bon, c'est bon, ils ont dit t'inquiète.
00:37:50On leur donne ?
00:37:52Eh, les données, c'est notre faute.
00:37:54Les données, c'est notre faute.
00:37:55Ah ouais, c'est nous qui donnons les données.
00:37:57Ouais, bien sûr, c'est notre faute.
00:37:59Tu sais, qui lit les conditions générales quand tu télécharges une appli ?
00:38:02Oh là, c'est trop long.
00:38:04On est là, oui, oui, oui, oui, oui, oui, oui, j'ai compris, j'accepte, j'accepte, j'accepte.
00:38:08Facebook se réserve le droit de brûler ta famille.
00:38:10Oui, oui, oui, oui, oui.
00:38:12J'ai envie de liker les trucs.
00:38:13Allez, vite, vite, vite.
00:38:16Ils ont demandé à Mark Zuckerberg pour les données, là, comme range analytical.
00:38:20Ils ont demandé, pourquoi vous prenez les données ?
00:38:22Il a fait, ouais, désolé.
00:38:25Désolé.
00:38:26Tu sais, tu sens que dans sa tête, il se dit,
00:38:27eh, ça va, c'est des données, les gars, c'est pas grave.
00:38:30Pas être invité au boom, ça, c'est grave.
00:38:37Il y a un mec, un jour, qui a dit,
00:38:39il a dit, on sait où vous étiez, on sait où vous êtes, on sait ce à quoi vous pensez.
00:38:43Ouais, c'est flippant, hein ?
00:38:44C'est l'ancien patron de Google qui avait dit ça, Eric Schmidt.
00:38:47Il avait même ajouté un jour,
00:38:49si t'as rien à te reprocher, en quoi ça te dérange qu'on prenne tes données ?
00:38:53Hum.
00:38:55Moi, je veux qu'on aille chez lui, en fait.
00:38:57Et je veux qu'on regarde par sa fenêtre.
00:38:59Et on lui dit, quoi ?
00:39:00T'as rien à te reprocher ?
00:39:02Eh ben, on regarde.
00:39:04Par contre, mets un pantalon, s'il te plaît.
00:39:10L'État, aussi, s'intéresse à nos données, hein.
00:39:12L'État, ouais. Il y a des lois qui sont passées récemment.
00:39:15On n'est pas trop au courant, mais bon.
00:39:16Il y a des lois qui sont passées.
00:39:18Parce que pour lutter contre le terrorisme,
00:39:19ils ont installé des boîtes pour surveiller les réseaux,
00:39:21pour prendre nos données.
00:39:23Tu dis, ok, c'est pour nous protéger du terrorisme.
00:39:25Tu sais, tu peux rien dire.
00:39:27Mais non, c'est pour nous protéger du terrorisme.
00:39:28Mais ok, mais après, quand il n'y aura plus de terrorisme,
00:39:30vous arrêtez de nous surveiller ?
00:39:32Non, non.
00:39:34Non, non, parce qu'il y a d'autres gens, en fait, à surveiller.
00:39:36C'est flippant, hein.
00:39:39En fait, quand tu commences à surveiller quelqu'un,
00:39:41tu ne peux plus t'arrêter de le surveiller.
00:39:43Tu te dis, c'est au moment où je vais arrêter de le surveiller
00:39:45qu'il va devenir dangereux.
00:39:47Tu sais, quand t'es à ton arrêt de bus,
00:39:49t'attends le bus et qu'il ne vient pas.
00:39:51Tu ne quittes pas l'arrêt.
00:39:53Mais tu te dis, c'est au moment où je vais quitter l'arrêt
00:39:55qu'il va arriver.
00:39:57Et tu commences à développer une parano,
00:39:58tu te dis, ça se trouve, il sait que je suis là.
00:40:00Lui, il est au coin de la rue,
00:40:01il attend que je parte.
00:40:02On te dit souvent, on te surveille, mais c'est pour ton bien.
00:40:04C'est toujours pour ton bien qu'on te surveille.
00:40:06Comme les enfants, tu sais, on te surveille, mais c'est pour ton bien.
00:40:09Moi, je me sens pas bien quand je me sens surveiller.
00:40:10Je ne sais pas vous, mais moi, si je me sens surveiller
00:40:12dans ma salle de bain,
00:40:13je ne chanterais pas Céline Dion comme d'habitude.
00:40:16Je vais essayer de chanter un truc un peu plus viril,
00:40:18genre Freddie Mercury.
00:40:19Tu ne sais pas.
00:40:21Je suis un peu viril.
00:40:23Je suis un peu viril.
00:40:25J'ai une espèce de cérémonie.
00:40:26Je suis un peu viril.
00:40:27Je suis un peu viril.
00:40:28Je suis un peu viril.
00:40:29Je vais essayer de chanter un truc un peu plus viril, genre Freddie Mercury, tu vois.
00:40:32[...]
00:40:41Cette surveillance, cette collecte de données, on appelle ça le Big Data.
00:40:44Big Data, c'est toute la collecte de données qui est analysée par des intelligences artificielles
00:40:49pour donner des tendances, tout ça.
00:40:50Facebook travaille sur le fait de prévoir nos pensées.
00:40:53Ils veulent lire dans nos pensées, voilà.
00:40:55La justice s'intéresse aussi à ça.
00:40:57Ils voudraient prévoir les crimes.
00:41:00Alors qu'on a tous eu, un jour, une petite intention de meurtre.
00:41:03Non, mais pas beaucoup, un petit meurtre, un petit meurtre, tu sais, juste comme ça, vite fait, là.
00:41:08Pour voir comment ça fait quand la personne se tait, là, tu vois.
00:41:11Après, tu continues, mais tu sais, pour l'expérience, quoi, vraiment.
00:41:14Pour le fun, quoi.
00:41:17Moi, j'ai déjà eu une intention de meurtre.
00:41:18Ouais, j'ai déjà eu une intention de meurtre.
00:41:19Un jour, en fait, j'étais avec mon vélo dans Paris,
00:41:22et j'avais le pneu crevé, je devais marcher à côté de mon vélo, j'étais énervé un peu.
00:41:26Et j'étais sur le trottoir, comme ça, je suis tombé sur un obstacle, c'était une terrasse de café.
00:41:31Ouais, parce qu'il faut savoir qu'à Paris, le piéton est roi, mais celui qui a la terrasse est empereur.
00:41:35Ouais, il te domine, voilà, il est droit sur toi.
00:41:38Et donc, je marchais comme ça, donc j'ai dû éviter,
00:41:41parce qu'il y avait la terrasse de café où des gens profitent de l'absence de soleil.
00:41:43Enfin, bref, donc, voilà, donc, j'ai évité comme ça.
00:41:47Et là, il y avait une fille qui était assise aussi à sa terrasse,
00:41:50qui avait les pieds qui dépassaient, parce qu'en fait, il y avait la terrasse, un petit peu d'espace,
00:41:53et ensuite, la mort.
00:41:55Et elle, elle avait ses pieds qui dépassaient, comme ça, de 30 centimètres à peu près.
00:41:57C'est pas énorme, 30 centimètres, quoi qu'à Paris, c'est quand même pas mal, 30 centimètres.
00:42:00À Paris, 30 centimètres, bah, t'ouvres un kebab, quand même, donc, tu vois.
00:42:04C'est quand même pas mal, tu vois.
00:42:08Donc, elle avait ses pieds qui dépassaient, comme ça, et moi, j'ai rien dit,
00:42:11parce que je n'avais pas trouvé d'insulte adéquate.
00:42:13Et donc, je l'ai évité, comme ça, et je suis passé.
00:42:15Et au moment où je l'ai dépassé, elle a dit à sa copine,
00:42:17« Je m'en fous, il a qu'à se débrouiller. »
00:42:22Et à ce moment-là...
00:42:25J'ai rien fait.
00:42:27Pas parce que j'avais peur d'elle,
00:42:28c'est que j'avais peur de moi, en fait.
00:42:30Je me suis regardé, je me suis dit, « Oh !
00:42:32Un criminel !
00:42:34Mais...
00:42:35Mais qu'est-ce qu'il se passe ?
00:42:37Il y avait quelqu'un, moi, qui me parlait, qui me disait,
00:42:38« Non, tranquille, détends-toi, détends-toi.
00:42:40Détends-toi, tu mets tranquillement ton vélo sur sa béquille,
00:42:43tu retournes la voir, et très cordialement, tu lui écrases la gueule sur son spritz,
00:42:48tu prends les deux glaçons, tu lui mets bien dans le nez,
00:42:50la touillette, tu lui enfonces dans l'oeil,
00:42:51tu sens que tout touche la partie du cerveau réservée à la polythèse,
00:42:53comme ça, de tout à coup, « Hé hé, bonjour, bonjour, merci, merci ! »
00:43:07À ce moment-là,
00:43:09si une caméra gérée par une IA
00:43:11m'avait filmé, ils auraient détecté un criminel.
00:43:13Ils auraient dit, « Oh, code rouge, on intervient. »
00:43:14Ils m'auraient arrêté.
00:43:16Je me serais retrouvé devant un juge qui m'aurait dit, « Vous l'avez tué ? »
00:43:18J'aurais dit, « Mais grave...
00:43:2020 ans.
00:43:24Prévoir les crimes, prévoir les criminels, ok.
00:43:26Pourquoi on prévoit pas les victimes ?
00:43:28Tu sais, il y a des gens, tu sais, qui vont mourir.
00:43:31Tu sais qu'ils vont se faire tuer, tu sais.
00:43:32Tu sais.
00:43:34Tu sais, bien sûr.
00:43:35Tu sais, le collègue, le collègue qui vient avec une chemise rose saumon, manche courte,
00:43:39une cravate Mickey bleue,
00:43:41il va se faire tuer, lui, un jour, hein ?
00:43:43Hein ?
00:43:44Il y a des pellicules.
00:43:46Il sait, il sait qu'il y a des pellicules.
00:43:47Il n'ignore pas ces pellicules. Personne n'ignore ces pellicules.
00:43:49Il suffit de regarder dans l'angle mort, tu vois les pellicules.
00:43:51Il entretient ses pellicules. Il se lave les cheveux avec un shampoing pelliculaire.
00:43:54Qu'est-ce qu'il y a ?
00:43:56Lui, il va se faire tuer, lui.
00:43:58Il commence ses phrases par « au jour d'aujourd'hui ».
00:44:02Au pot de départ, il a son gobelet comme ça.
00:44:03Il dit, « Santé, mais pas des pieds. »
00:44:05Mais il va mourir, lui.
00:44:07Il va mourir.
00:44:12Il a quatre stylos, il a quatre stylos dans sa poche de chemise.
00:44:16Les quatre couleurs.
00:44:17Quand je lui ai dit, « Tu peux me prêter ton stylo ? »
00:44:18Il dit, « Ah, ok, mais il s'appelle Reviens. »
00:44:19« Mais oui, on va le tuer. Mais oui, bien sûr. »
00:44:22Lui, il dit, « Faut le repérer, lui. »
00:44:30Mais je ne suis pas d'accord pour que l'IA se mêle de justice
00:44:32parce que l'IA, c'est bête. C'est des 1 ou des 0.
00:44:35C'est binaire, en fait.
00:44:37Pour une IA, qui vole un œuf, vole un bœuf.
00:44:39Non.
00:44:41Non, je suis désolé. Voler un œuf, c'est facile.
00:44:43Mais non, mais tu prends un œuf.
00:44:45Il ne va pas sonner aux portiques. Tu le mets dans ta poche, c'est facile.
00:44:48Même l'agent de sécurité, il dit, « Viens voir. Tu crois que je ne t'ai pas vu ? »
00:44:54« Ben, allez, ben, vas-y, maintenant. »
00:44:59Voler un œuf, c'est facile.
00:45:01Voler un bœuf ? Voler un bœuf, c'est autre chose.
00:45:03Voler un bœuf, ouais.
00:45:05Le bœuf, il ne sonne pas non plus dans les portiques.
00:45:06Il détruit les portiques.
00:45:09Mais l'agent de sécurité, « Ouais, ben, oui, ben, vas-y, maintenant. »
00:45:13Les big data s'intéressent aussi à nous parce qu'ils veulent nous proposer de la pub ciblée.
00:45:17Parce que nous, en fait, on est des cibles.
00:45:19Pour eux, on est des cibles. Ils nous tirent dessus.
00:45:21Bam ! 100 points dans le cerveau. Bam !
00:45:25Ils veulent nous proposer de la pub ciblée. Ils veulent nous proposer des pubs.
00:45:27On ne saura pas encore qu'on a besoin de ça, mais en fait, on a vraiment besoin de ça.
00:45:31Tu verras une pub pour un spray pour la laine.
00:45:33Tu diras, « Mais, je n'ai pas besoin de ça. »
00:45:35Et les big data, t'as pas besoin de ça.
00:45:37Et les big data, t'as pas besoin de ça.
00:45:39Tu diras, « Mais, je n'ai pas besoin de ça. »
00:45:41Et les big data te diront, « Oh, oh, si, si. »
00:45:44« C'est Siri qui nous a dit. »
00:45:47« Tu parles trop près du téléphone, apparemment. »
00:45:55Les assurances aussi s'intéressent à nos données.
00:45:57Les assurances.
00:45:58Les assureurs, pour savoir si t'es vraiment en bonne santé ou pas.
00:46:00Tu sais, quand tu vas voir un assureur et qu'il te dit que t'es en bonne santé,
00:46:02tu te dis, « Ben, ouais, ouais, ça va. »
00:46:04Ils pourront t'appeler et te dire, « Allez, dis-le, t'es en bonne santé, t'es en bonne santé. »
00:46:07Sur ta montre connectée, tu fais que 10 000 pas par jour.
00:46:09C'est pas top.
00:46:11Et puis sur Deliveroo,
00:46:13on commande pas que de la salade, apparemment.
00:46:21Les big data, c'est tout de toi.
00:46:23Ils connaissent ton nom, ils connaissent ton genre,
00:46:25ils connaissent tes orientations, tes goûts.
00:46:27Ils savent tout. Ils savent que t'es là. Ils savent que moi, je suis là.
00:46:29Ils savent qu'on est en train de parler.
00:46:31On peut même faire coucou aux big data, si vous voulez.
00:46:33Il est où, le big data ? Quelqu'un le voit, le big data ?
00:46:37Non.
00:46:39Le pire dans toute cette surveillance,
00:46:41c'est pas les grandes entreprises
00:46:43ou l'État qui nous surveillent,
00:46:45c'est qu'on commence à se surveiller entre nous.
00:46:47Ouais, ça, c'est le plus efficace.
00:46:49La surveillance entre nous, c'est vraiment hyper efficace.
00:46:51On commence, petit à petit, on s'habitue
00:46:53à mettre des notes sur Internet,
00:46:55à mettre des avis, à faire des petits rapports aux autres.
00:46:57Et quand ils sortent du restaurant, pour les prévenir.
00:46:59Le problème des notes,
00:47:01c'est que personne ne note ce qu'ils notent.
00:47:03Personne ne note ce qu'ils notent.
00:47:05Est-ce que t'es légitime pour noter ?
00:47:07Est-ce que si tu vas dans un restaurant,
00:47:09tu dis que le service était déplorable ?
00:47:11Est-ce que c'est pas toi qui es déplorable, en fait ?
00:47:13Peut-être que si tu commandes ton plat comme ça,
00:47:15c'est peut-être normal que le serveur
00:47:17crache dans ta salade, en fait.
00:47:21Google a bien compris qu'on met des avis sur tout.
00:47:23On est des experts de tout.
00:47:25On est capables de tout critiquer.
00:47:27C'est pour ça que maintenant, dès que tu vas dans un lieu,
00:47:29Google te dit, met un avis.
00:47:31Mets un avis.
00:47:33J'ai cherché une plage sur Google.
00:47:35Il y a des gens qui ont mis un avis sur la plage.
00:47:37Ils ont mis un avis sur la plage.
00:47:39Le sable n'est pas assez fin.
00:47:41À marée basse, la mer est trop loin.
00:47:43300 mètres pour aller se baigner. Merci bien.
00:47:45À qui tu parles ?
00:47:47À qui tu t'adresses ?
00:47:49Tu parles à la nature.
00:47:51Tu es en train de critiquer la nature, en fait.
00:47:53Toi, t'aurais mieux fait à la place de la nature.
00:47:55Je pense que la nature a un community manager
00:47:57qui dit, on n'est pas top sur les marées.
00:47:59C'est ça.
00:48:07Ça va même plus loin.
00:48:09En Chine, ils développent un programme pour qu'on se note entre nous.
00:48:11On se note d'humain à humain, comme ça.
00:48:13Tu sais, quand tu partiras de chez les amis.
00:48:15Tu seras là dans la voiture.
00:48:17D'habitude, tu dois faire un débrief un peu long.
00:48:19Là, tu vas, mets-leur deux.
00:48:21Parce que j'ai rien compris à l'heure de société.
00:48:23J'ai perdu. Ça m'énerve. Mets-leur deux. On prévient les autres.
00:48:25On prévient les autres. Allez.
00:48:27Ils veulent faire ça pour les incivilités.
00:48:29Tu pourras noter quelqu'un qui traverse au péton rouge.
00:48:31Quelqu'un qui double dans une file d'attente.
00:48:33Tu sais, aujourd'hui, quand quelqu'un te double dans une file d'attente,
00:48:35tu lui dis, excuse-moi, tu peux passer derrière.
00:48:37Parce que tout le monde fait la queue, en fait, connard.
00:48:39Et ça se passe plutôt bien.
00:48:41Ça se passe plutôt bien, tu vois.
00:48:43Et bientôt, on pourra faire,
00:48:45vas-y, double, je t'en prie.
00:48:53Les banquiers ou les loueurs d'appart
00:48:55veulent connaître ces notes-là en Chine
00:48:57pour savoir si tu mérites ou pas d'avoir ton prêt ou ton appart.
00:48:59Si un jour ça, ça arrive en France,
00:49:01je ferai n'importe quoi avec les notes.
00:49:03Faites-moi confiance, je ferai n'importe quoi.
00:49:05Un mec qui rackette un note, 5 sur 5.
00:49:07Force de persuasion, super.
00:49:09Il sauve l'avion d'un crash, 1 sur 5.
00:49:11Aucun sens du spectacle.
00:49:17Ça existe déjà, ça, un peu, en France.
00:49:19Tinder.
00:49:21Tinder te met des notes.
00:49:23Quand t'es inscrit sur Tinder,
00:49:25il te met une note de désirabilité.
00:49:27T'es pas au courant, mais en fait, eux, ça les aide
00:49:29à mettre en contact les gens qui sont désirables comme toi.
00:49:31Selon s'ils t'aient sélectionné ou pas.
00:49:33Donc aujourd'hui, quand t'es sur Tinder
00:49:35et que tu te dis, je tombe que sur des cassos,
00:49:41sache que les cassos tombent sur toi.
00:49:53J'ai mis cet extrait sur Internet.
00:49:55La banne que je viens de vous faire, je l'ai mise sur Internet.
00:49:57Il y a des gens qui ont commenté, ils ont dit
00:49:59« Aaron, tu copies Black Mirror ? »
00:50:01Ils ont dit « Tu copies Black Mirror ? »
00:50:03En fait, c'est une série d'anticipation.
00:50:05Et pour eux, le problème,
00:50:07c'est pas que ça existe en Chine
00:50:09et que c'est plus fort que la fiction.
00:50:11Pour eux, le problème, c'est qu'ils disent
00:50:13que j'ai copié Black Mirror.
00:50:15Les mecs sont en train de m'en coller à leurs écrans.
00:50:17Tu leur racontes une réalité, ils voient pas.
00:50:19C'est un truc de fou.
00:50:21C'est que les dinosaures, ils étaient là,
00:50:23il y a des millions d'années.
00:50:25Ils lui ont dit « Ah ouais ? Il y a des millions d'années,
00:50:27il y avait des dinosaures ? Ok. »
00:50:29Donc en fait, il est grave vieux Spielberg.
00:50:41On met des commentaires comme ça.
00:50:43On met des avis sur tout.
00:50:45Vous pouvez mettre un avis sur mon spectacle par exemple.
00:50:47Si vous venez me voir en spectacle, vous pouvez mettre un avis.
00:50:49Il y a un truc qui n'a jamais été fait, par contre,
00:50:51c'est qu'un comédien mette un avis sur le public.
00:50:53Ça, ça n'a jamais été fait.
00:50:55Bon, on va commencer ce soir.
00:50:59Je peux m'allumer la salle, s'il vous plaît ?
00:51:01Bonsoir.
00:51:03Bonsoir.
00:51:13Vous applaudissez
00:51:15pour que je mette un bon avis ?
00:51:17Non, en fait,
00:51:19je vais faire connaissance un peu avec vous.
00:51:21Je ne vais pas vous demander ce que vous faites dans la vie,
00:51:23parce que je pourrais tomber sur un startupeur.
00:51:25Ni si vous êtes en couple ou pas,
00:51:27parce que je crois que je m'en fous.
00:51:29Non, je voulais vous poser une question
00:51:31très simple en fait. Imaginons que,
00:51:33ça y est, Elon Musk a réussi son projet,
00:51:35on va envoyer le premier humain sur Mars
00:51:37et vous êtes désigné par toute l'humanité
00:51:39pour aller sur Mars.
00:51:41C'est trois ans de voyage et c'est un aller et son retour.
00:51:43Qu'est-ce que vous prenez comme objet
00:51:45pour aller sur Mars ?
00:51:47Un livre ?
00:51:49Quoi comme livre ?
00:51:51Kundera.
00:51:53Oh, excuse-moi.
00:51:57Kundera, d'accord.
00:51:59Philosophe. Heureusement que tu as dit ça.
00:52:01Tu aurais pu dire oui, oui.
00:52:03C'est hyper philosophique.
00:52:05Il y a d'autres idées ?
00:52:07Un doliprane.
00:52:09Un doliprane ?
00:52:11Dans quel but ?
00:52:13T'as mal à la tête ?
00:52:15Genre la NASA, c'est des abrutis en fait.
00:52:17Merde, on a oublié les dolipranes les gars.
00:52:19Oh merde.
00:52:21Oh merde.
00:52:23Qui a fait la trousse à pharmacie ?
00:52:31D'autres idées ?
00:52:33Oula.
00:52:35Tes lunettes ?
00:52:37Tes lunettes ?
00:52:39Ah oui, tu considères quand même ça comme un objet.
00:52:41Ouais, ok.
00:52:43Non mais c'est vrai.
00:52:45T'es pas né avec.
00:52:47Elle m'a dit, je suis pas né avec, c'est bon.
00:52:49Je suis pas né avec mes lunettes.
00:52:53Je vois bien que tu les portes pas.
00:52:57Moi non plus, si tu veux savoir.
00:53:03Ça va être sympa avec les martiens.
00:53:05La relation va être sympa.
00:53:07Un barbecue.
00:53:09Un barbecue.
00:53:11Voilà.
00:53:13Voilà.
00:53:19Toi Elon Musk va te choisir en premier.
00:53:23Je veux envoyer un beauf.
00:53:25Je veux qu'on ait un beauf sur Mars.
00:53:29Avec une tente.
00:53:31Ah oui d'accord.
00:53:33T'as dit une tente hein ?
00:53:35C'est ça ? Une tente ?
00:53:37T'es sur Mars ou pas ?
00:53:41Heureusement que j'ai mon IV.
00:53:43Moi 135.
00:53:45Ils font des trucs bien chez Decathlon.
00:53:51D'autres idées ?
00:53:53Ton ordinateur.
00:53:55Dans quel but ?
00:53:57Hein ?
00:53:59Pour kicker ouais.
00:54:01Il est où le réseau ?
00:54:03Quoi ?
00:54:05Y'a des jeux solos ?
00:54:15Les gens ont pas compris ça ?
00:54:17T'as dit jeux solos ?
00:54:19Ah ouais d'accord.
00:54:21Des jeux solos.
00:54:23Ok d'accord.
00:54:27D'autres idées ?
00:54:29Un transat.
00:54:31Ah ouais.
00:54:37C'est très marrant un transat.
00:54:41Tu servirais à vraiment rien
00:54:43si t'étais sur Mars.
00:54:45Comment c'est ?
00:54:47Je n'ai pas eu le temps d'aller voir.
00:54:49Je suis fatigué.
00:54:51Demain j'y vais.
00:54:53Promis je fais une rando demain.
00:54:55J'ai entendu un téléphone.
00:54:57Un téléphone ? Mais pourquoi un téléphone ?
00:54:59Pour les selfies ?
00:55:09Quoi ?
00:55:13J'ai entendu quoi ? Du shit t'as dit ?
00:55:17Je suis sûr que c'est lui
00:55:19qui va faire le contact avec les extraterrestres.
00:55:21C'est sûr.
00:55:23C'est sûr.
00:55:25Bien les gars quoi ?
00:55:29Tiens, tiens.
00:55:31Après on parle.
00:55:35Un quoi ?
00:55:37Un billet retour.
00:55:39T'as pas compris la question en fait.
00:55:45Oui c'est un aller simple.
00:55:47Parce qu'en fait t'as pas d'énergie là-bas
00:55:49pour revenir.
00:55:51Mais c'est pas grave un billet retour.
00:55:53Il y a toujours un malin qui a pensé à un truc.
00:55:55Un billet retour.
00:55:57Tu sais quand tu dis si t'as le droit à un vœu.
00:55:59Je commande plein de vœux.
00:56:01Il y a toujours un malin.
00:56:03T'es venu avec tes stylos 4 couleurs ou pas ?
00:56:11Merci.
00:56:13Tu peux éteindre la salle.
00:56:15Je vous aime beaucoup ce soir.
00:56:17Lui il aime pas quand je fais du texte.
00:56:19Il veut que je sois...
00:56:21Moi je pense que
00:56:23si je pars sur Mars
00:56:25et que je suis tout seul.
00:56:27Je prends l'intégrale des ch'tis à Mykonos.
00:56:29Pour me souvenir de...
00:56:33Du fait que j'ai bien fait de quitter la Terre.
00:56:41On travaille pour Internet.
00:56:43Quand on met des avis, on met des notes.
00:56:45On met des commentaires.
00:56:47Tout ça c'est des choses qui ont une valeur en fait.
00:56:49Ça fait marcher ces sites qui gagnent de l'argent grâce à ça.
00:56:51On travaille pour eux.
00:56:53A la rigueur on est au courant.
00:56:55Il y a quand même une start-up.
00:56:57Encore eux.
00:56:59Qui a découvert qu'on passait 10 secondes
00:57:01à résoudre les captchas.
00:57:03Les captchas c'est ce genre de LED tordu.
00:57:05Pour vérifier que t'es ni un robot
00:57:07ni un abruti.
00:57:09Parce qu'il y en a, tu sens, ils échouent à ça.
00:57:11Tu sens.
00:57:13J'ai pas révisé moi.
00:57:15Tant pis.
00:57:19Ils ont vu qu'on passait 10 secondes
00:57:21et qu'il y avait 200 millions de captchas par jour dans le monde
00:57:23et que ça faisait 500 millions d'heures de travail
00:57:25et ils se sont dit il faut qu'on rentabilise ce travail.
00:57:27En fait ils se disent pas
00:57:29le temps c'est de l'argent, ils se sont dit
00:57:31le temps des gens c'est l'argent de nous.
00:57:33Et c'est pour ça que maintenant t'as des petites photos associées aux captchas.
00:57:35Que tu dois reconnaître.
00:57:37Un numéro de rue, une voiture.
00:57:39En fait tu aides les robots de Google à identifier des photos.
00:57:41C'est ça qu'ils font.
00:57:43En fait tu travailles pour Google.
00:57:45Prends 10 secondes, tu travailles pour Google.
00:57:47Ils ont inventé le micro esclavage.
00:57:49Non parce que
00:57:51entre le travail gratuit et l'esclavage la question se pose quand même.
00:57:53Tu sais quand on te propose
00:57:55on te demande de dire
00:57:57est-ce que tu veux bien m'aider à déménager
00:57:59cet après-midi ?
00:58:01Tu sais tu acceptes, tu dis c'est un pote, c'est qu'une après-midi,
00:58:03il y a des pizzas à la fin, tu le fais.
00:58:05Mais si on part de ce principe là.
00:58:07La construction des pyramides.
00:58:09C'est un très gros déménagement en fait.
00:58:11Tu sais que le pharaon avait
00:58:132 millions de potes
00:58:15C'était pas des cartons, c'était des blocs de 2 tonnes.
00:58:17Il leur a dit vous mettez ça là, mais bien.
00:58:19Faut que ça soit joli.
00:58:21C'est ça l'esclavage.
00:58:23C'est un service rendu
00:58:25à certaines populations à d'autres.
00:58:27Sauf qu'il n'y avait pas de pizza.
00:58:29Peut-être que ça a même commencé comme ça.
00:58:31Qu'est-ce que tu fais, tu peux me rendre un service ?
00:58:33Ouais ouais, qu'est-ce qu'il faut faire ?
00:58:35Monte dans le bateau, je t'explique.
00:58:41À la rigueur qu'on travaille gratuit pour eux, ok pourquoi pas.
00:58:43Mais j'aimerais bien savoir où va cet argent.
00:58:45J'aimerais bien qu'il serve des belles causes.
00:58:47Peut-être que cet argent collecté par Google
00:58:49pourrait servir à éradiquer
00:58:51le vrai esclavage.
00:58:53Au moment où j'ai commencé à écrire ce spectacle,
00:58:55c'était pile au moment où on commençait à parler d'esclavage en Libye.
00:58:57Je l'ai appris comme vous,
00:58:59j'ai été choqué comme vous, à plusieurs titres.
00:59:01D'abord tu apprends qu'il y a de l'esclavage, donc c'est choquant.
00:59:03Ensuite tu apprends que ces gens sont vendus
00:59:05400 euros.
00:59:07Tu peux même mettre un prix sur une vie humaine
00:59:09mais 400 euros c'est pas beaucoup.
00:59:11400 euros c'est pas beaucoup.
00:59:13C'est 3 fois moins qu'un iPhone X.
00:59:15Et je pense qu'un Nigérian a la reconnaissance faciale.
00:59:27Tu sais les mecs,
00:59:29il est au moins un peu tactile.
00:59:31C'est là que tu te rends compte que selon
00:59:33les zones du monde où t'es, la vie n'a pas la même valeur.
00:59:35T'imagines pas en France quelqu'un qui
00:59:37appellerait et qui disait, hé j'ai votre fille en otage.
00:59:39Si vous voulez la revoir un jour, c'est à 400 euros.
00:59:41Ok d'accord.
00:59:43Il me demande 400 euros le gars.
00:59:45Et la police qui fait, on paye jamais de rançon.
00:59:47Mais là franchement,
00:59:49je te l'avance mec.
00:59:53Ok d'accord.
00:59:55380.
01:00:01C'est là que l'houssinisme d'internet,
01:00:03quand tu t'informes sur internet.
01:00:05J'apprenais en même temps qu'il y avait l'esclavage en Libye,
01:00:07c'était la même période que le Black Friday
01:00:09aux Etats-Unis.
01:00:11J'ai vu esclavage, Black Friday, esclavage, Black Friday,
01:00:13ça a fait dans ma tête une association d'idées malsaine.
01:00:15J'imaginais les Libyens qui ont mal traduit
01:00:17Black Friday.
01:00:19C'est à dire quoi Black Friday ? C'est moins 70% sur les noirs je crois.
01:00:21Ok bah c'est parti.
01:00:27Et il y avait ces vidéos qui se côtoyaient.
01:00:29J'ai vu ces vidéos sur l'esclavage et j'ai vu aussi ces vidéos sur le Black Friday
01:00:31avec des gens qui se jettent sous des rideaux de fer,
01:00:33ils se tirent les cheveux pour s'acheter une télé moins chère.
01:00:35Tu te demandes qui a vraiment perdu sa dignité dans ce monde.
01:00:37Le pire c'est que dans ces gens
01:00:39qui se jettent sous des rideaux de fer, il y a des noirs américains.
01:00:41Des descendants d'esclaves.
01:00:43Et eux, en pleine période d'esclavage en Libye,
01:00:45leur but c'est d'acheter une télé.
01:00:47Et ça se trouve la veille, le gars était devant sa télé,
01:00:49et il a un sujet sur l'esclavage,
01:00:51il était là, hé chéri viens voir, viens voir,
01:00:53les enfants, regardez. Non mais il a regardé, regardez.
01:00:55On est d'accord que ça pique s'élise.
01:01:05C'est cynique Internet.
01:01:07C'est cynique.
01:01:09Le problème de l'info sur Internet c'est que souvent
01:01:11l'info sérieuse est en conflit avec le divertissement.
01:01:13Vous voulez me renseigner sur le glyphosate ?
01:01:15Et juste dans la marge
01:01:17de l'article, il y avait une vidéo,
01:01:19c'était un homme nu shooté au Viagra,
01:01:21dans l'aéroport de Pouquet.
01:01:25Là je me suis dit, le glyphosate va attendre.
01:01:27Ben oui,
01:01:29parce que ce genre de vidéo, si tu la regardes pas maintenant,
01:01:31t'as l'impression d'avoir raté ta vie.
01:01:33Regarde.
01:01:35C'était nul, j'ai cliqué, c'était nul, vraiment.
01:01:37Vraiment, c'était flou, on voyait rien.
01:01:39Alors que le titre est quand même très prometteur.
01:01:41Un homme nu shooté au Viagra dans un aéroport,
01:01:43tu te dis mais il va violer des poubelles, c'est génial.
01:01:49C'est ce qu'on appelle les vidéos putaclic.
01:01:51Le contenu putaclic.
01:01:53Peu importe que ce soit du bon contenu,
01:01:55l'important c'est que ça clique. Faut que ça clique.
01:01:57C'est ces vidéos aussi qui commencent par...
01:01:59Vous ne devinerez jamais
01:02:01ce que ce SDF a fait quand on lui a offert une couverture.
01:02:03Pour le savoir, cliquez ici.
01:02:05Et toi tu te dis mais j'ai trop envie de savoir.
01:02:07Il a dû planter une seringue,
01:02:09c'est génial, tu t'imagines les trucs,
01:02:11c'est génial.
01:02:13Il a juste dit merci.
01:02:15C'est hyper décevant,
01:02:17mais c'est trop tard, t'as cliqué.
01:02:19C'est pour proposer de la pub aussi.
01:02:21Juste en avant de la vidéo, il y a de la pub.
01:02:23Parfois la pub est très mal placée.
01:02:25Je voulais regarder un mini-reportage
01:02:27sur les migrants qui meurent en mer,
01:02:29et juste avant, il y avait une pub pour les croisières en Méditerranée.
01:02:31J'étais là mais non,
01:02:33pas là, pas là.
01:02:35J'ai voulu enlever la pub, j'ai cliqué,
01:02:37je suis tombé sur la pub.
01:02:39C'est quand même pas cher.
01:02:45Le problème
01:02:47du putaclic, c'est que ça se propage
01:02:49de plus en plus. Il y a des articles maintenant, putaclic.
01:02:51Les articles putaclic. Au moment du harcèlement,
01:02:53j'ai vu un article putaclic.
01:02:55C'est les 12 citations que vous pouvez sortir à un relou en soirée.
01:02:57Un relou en soirée.
01:02:59Tu lui sors une citation, ça marche ?
01:03:01On n'a pas la même définition du relou, je crois.
01:03:03Moi, les relous, je connais sans parler.
01:03:05Elle dit, je peux te frotter ?
01:03:07Je dis, laisse-moi te frotter.
01:03:09Tu sais ce qu'elle a dit Simone Desbevoirs ?
01:03:11Elle a dit, on ne naît pas femme, on le devient.
01:03:13Ah ouais ? Ah merde.
01:03:15Tu veux dire comme le père de Kardashian ?
01:03:27Il y a de l'info sérieuse sur Internet.
01:03:29Faut pas être médisant, il y a de l'info sérieuse.
01:03:31Il y a des articles sérieux. Pour savoir si un article
01:03:33est vraiment sérieux, en général, c'est celui que tu finis pas.
01:03:35Comme les conditions de général.
01:03:37Oui, oui, oui, les moyens d'argument, d'accord.
01:03:41En fait, tu penses que
01:03:43t'es libre de naviguer sur Internet, mais en fait,
01:03:45il y a des algorithmes, il y a des robots
01:03:47qui te proposent du contenu selon ce que t'aimes.
01:03:49Quand tu regardes une vidéo d'abruti,
01:03:51t'as un robot qui fait, ah !
01:03:53J'en ai un, les gars !
01:03:57Il est idiot, ce robot.
01:03:59Vas-y, mets-lui des vidéos d'abruti, il aime bien ça.
01:04:01Et toi, t'es là.
01:04:03Tu regardes des vidéos d'abruti.
01:04:05Au début, tu voulais juste regarder une vidéo,
01:04:07puis après, t'es devenu totalement abruti.
01:04:09T'es là, j'en veux d'autres, j'en veux d'autres.
01:04:13C'est pour ça, les fake news.
01:04:15Je pense que les fake news, c'est à cause de ça.
01:04:17On préfère une bonne fake news courte, divertissante
01:04:19qu'un article trop long, tu vois.
01:04:21Hein ? Ouais.
01:04:23Ouais.
01:04:25Tu sais, je pense que les fake news,
01:04:27c'est vraiment notre faute. T'as qu'à vérifier l'info, en fait.
01:04:29T'as qu'à te renseigner, en fait.
01:04:31T'es une fake news si tu ne le crois pas,
01:04:33ça reste une légende, tu vois.
01:04:35La mythologie grecque, c'est des légendes pour nous.
01:04:37Et pour eux, c'était une fake news.
01:04:41Bon, eux, ils n'avaient pas les vidéos, ils avaient des vases.
01:04:43Ouais.
01:04:45Vous ne devinerez jamais ce que Hercule
01:04:47a fait à ses titres. Pour le savoir,
01:04:49tournez ce vase.
01:04:51Ils avaient des putes à vase.
01:04:55Bon.
01:05:01Il faut faire attention avec l'info
01:05:03sur Internet.
01:05:05Sur Twitter, par exemple, il ne faut pas s'informer sur Twitter.
01:05:07C'est beaucoup trop court pour avoir une vraie information.
01:05:09Il y a eu une alerte missile à Hawaï.
01:05:11Il y a eu une alerte missile à Hawaï.
01:05:13En fait, les gens y croyaient, parce que c'était une vraie alerte,
01:05:15mais ils ont confondu avec le test d'alerte, en fait.
01:05:17Ils ont expliqué après, ils ont dit, oh, on a confondu
01:05:19avec le logiciel, c'était pas clair.
01:05:21Il y a été là, Michel,
01:05:23comment tu lances un test d'alerte ?
01:05:25Alors tu vas dans paramètres,
01:05:27paramètres généraux, options,
01:05:29options avancées,
01:05:31et là, normalement, tu as un test d'alerte.
01:05:33C'est juste à côté de la vraie alerte. C'est bon ?
01:05:35Ouais, mais comment tu as eu
01:05:37une vraie alerte, maintenant ?
01:05:39Et là, c'est déjà trop tard. Tu vois, l'alerte a été lancée,
01:05:41les gens ont commencé à paniquer. Sur Twitter, ça s'enflamme.
01:05:43Ah, c'est la guerre à Hawaï.
01:05:45La Corée du Nord qui attaque Hawaï et tout.
01:05:47Ça a mis 38 minutes à être corrigé. 38 minutes, c'est beaucoup trop long
01:05:49pour Twitter. Ça s'est propagé
01:05:51beaucoup trop vite. 38 minutes, je ne sais pas ce qu'ils ont fait pendant ce temps-là.
01:05:53Va dans Head.
01:05:55Oh là là, je comprends rien.
01:05:57C'est quoi ? Redémarre, redémarre.
01:05:59Voilà.
01:06:01Ah, les mises à jour Windows.
01:06:03Ah, putain.
01:06:0938 minutes restantes.
01:06:11Pendant ce temps-là, Twitter continue à s'enflammer.
01:06:13C'est Kim Jong-un.
01:06:15Kim Jong-un, qui est sur Twitter, il est là.
01:06:17Mais j'ai tiré ?
01:06:19J'ai tiré ?
01:06:21J'étais bourré ou quoi ? Qu'est-ce qui s'est passé ?
01:06:23L'état-major américain qui panique
01:06:25forcément. Mais Kim, pourquoi t'as tiré sur nous ?
01:06:27Mais c'est pas moi.
01:06:29C'est qui alors ? J'en vois qu'un seul.
01:06:31Trump ? Mais t'es con.
01:06:33Hawaï, c'est américain.
01:06:35Est-ce qu'il le sait ?
01:06:49Depuis tout à l'heure, je critique un peu Internet.
01:06:51Et je pense vraiment
01:06:53que c'est une belle invention.
01:06:55Si on se responsabilise, si on sait que ça appartient à nous.
01:06:57Ça appartient pas aux GAFA,
01:06:59Google, Facebook. Ça appartient à nous. On pourra en faire ce qu'on veut.
01:07:01Le truc, c'est qu'il faudrait quand même virer
01:07:03certaines personnes d'Internet.
01:07:05Il y a des gens, il faudrait leur interdire Internet.
01:07:07Il y a des gens qui pensent que la Terre est plate.
01:07:09Il y a des gens
01:07:11qui pensent que la Terre est plate.
01:07:13Tu sais, avant, Internet,
01:07:15ça allait. Tu le croisais en soirée, tu disais
01:07:17la Terre est plate. Je vais me reprendre de la sangrière.
01:07:19Et tu le laissais dans son coin.
01:07:21Lui, aujourd'hui, il a Internet.
01:07:23Et il trouve des gens sur Internet
01:07:25qui lui disent, mais oui.
01:07:27Mais moi aussi, je pense que la Terre est plate.
01:07:29Et il se confirme
01:07:31entre eux comme ça. Il se réunit sur des forums.
01:07:33Et moi, je m'inscris sur ces forums.
01:07:35Parce que je passe vraiment de très bons
01:07:37moments. Et vous savez quoi ?
01:07:39Je les confirme dans leurs thèses aussi.
01:07:41Je ne cherche même pas à les contredire.
01:07:43Il y en a un qui a dit, la Terre ne tourne pas
01:07:45sinon on devrait sentir le vent que ça fait.
01:07:51Je lui ai dit, oui.
01:07:53Je lui ai dit,
01:07:55apparemment, la Terre tourne à 1600 km heure.
01:07:57C'est pas normal. Ça veut dire qu'on devrait
01:07:59marcher comme ça.
01:08:01On arrivera en retard chez les amis.
01:08:03On va dire, ouais, mais t'habites à contre-vent aussi.
01:08:05C'est pas pratique.
01:08:07Il y en a un qui a dit, la Terre ne tourne pas
01:08:09sinon les avions se cracheraient au moment d'atterrir.
01:08:13Donc lui, il pense que les avions arrivent.
01:08:15Comme ça, il voit la piste d'atterrissage qui s'en va.
01:08:17Comme ça.
01:08:19Les pilotes...
01:08:21Je lui ai dit, mais oui.
01:08:23Oui, tu as raison.
01:08:25Selon ta thèse,
01:08:27la Terre ne tourne pas, sinon à chaque fois qu'on saute,
01:08:29on se prendrait le mur, en fait.
01:08:31Attends, attends, attends.
01:08:33Il pense que les pilotes sont complices.
01:08:35Il pense que les pilotes savent.
01:08:37Il pense que les pilotes sortent de l'école.
01:08:39Par contre, pour la Terre plate...
01:08:45À chaque fois qu'on est dans un vol locurier,
01:08:47à chaque fois qu'on arrive au bord du monde,
01:08:49il nous le cache. Il dit, regardez les mouettes à gauche.
01:08:51Hop là.
01:08:53Il y en a un qui a posté une photo de l'horizon de l'océan.
01:08:55Il a dit, j'étais en vacances à Biscarosse.
01:08:57Vous avez vu comme l'horizon est plat
01:08:59et c'est pas possible de mettre autant d'eau sur une boule.
01:09:01Lui, il m'a séché, lui.
01:09:03Lui, scientifiquement,
01:09:05c'est imparable.
01:09:07C'est imparable, scientifiquement.
01:09:09Je lui ai dit...
01:09:11Je lui ai dit,
01:09:13c'est pas possible de mettre autant d'eau sur une boule.
01:09:15Lui, il m'a séché.
01:09:17Lui, scientifiquement,
01:09:19c'est imparable.
01:09:21Je lui ai dit,
01:09:23merci d'être allé à Biscarosse pour tes expériences.
01:09:25Merci, merci de nous rendre service.
01:09:27Et je lui ai dit, t'as raison,
01:09:29la terre doit être plate. Faut juste qu'on croise les doigts
01:09:31pour pas qu'elle penche.
01:09:33Sinon l'eau va se déverser quelque part.
01:09:35Faut qu'on se mette d'accord pour bien se répartir sur terre
01:09:37pour pas être trop lourd. La zine fait peur.
01:09:39Hé, tsunami, tsunami, c'était trop nombreux.
01:09:41Hop, on a penché beaucoup d'eau.
01:09:47On pourrait dire ça aux migrants. Dégagez, on va être trop lourds.
01:09:49Dégagez.
01:09:53Y'en a un qui a dit, la terre n'est pas ronde,
01:09:55sinon on pourrait pas dire aux quatre coins du monde.
01:09:57Quoi ?
01:09:59Mais là, j'avais une sensation.
01:10:03Je te jure, j'avais...
01:10:05J'avais des papillons dans le ventre.
01:10:07J'étais comme ça.
01:10:09J'ai dit, oui, merci.
01:10:11Merci de mettre de la poésie là-dedans.
01:10:13J'ai dit, selon ta thèse, la Lune n'est pas si loin.
01:10:15Sinon, à Melbourne, t'allais jamais viser la Lune.
01:10:17Ça ne me fait pas peur, en fait.
01:10:21Ces gens-là ont des leaders.
01:10:23Ils ont des leaders. Y'a un rappeur qui s'appelle B.O.B.
01:10:25Il veut financer un satellite.
01:10:27Il a demandé aux internautes de financer un satellite
01:10:29pour prouver que la Terre est plate.
01:10:31Le principe du satellite, c'est de tourner
01:10:33autour d'une planète.
01:10:35Tu veux prouver que la Terre est plate parce que la Terre est ronde ?
01:10:37Mais je veux qu'on lui paie son satellite, moi.
01:10:39Je veux qu'on le mette dans son satellite.
01:10:41On l'envoie en orbite, lui.
01:10:43Il fait des tours de planètes comme ça.
01:10:45On lui dit, qu'est-ce que tu vois ?
01:10:47Ouais, c'est vrai que la Terre est ronde, je veux bien rentrer.
01:10:49Mais non ! Tu restes, tu réfléchis.
01:10:51Tu réfléchis.
01:10:53Depuis des centaines d'années,
01:10:55des scientifiques cherchent.
01:10:57Ils se sont tous mis d'accord.
01:10:59Toutes les cultures confondues, toutes les religions confondues
01:11:01se sont mises d'accord pour dire que la Terre est ronde.
01:11:03Et eux, ils sont dans leur canapé, en slip, sur Facebook.
01:11:05Non ! Photo de Biscarosse !
01:11:07T'imagines, Galilée, il voit ça.
01:11:09Galilée, il a eu un procès pour dire que la Terre tournait autour du Soleil.
01:11:11Et à l'époque, les procès, c'était pas genre
01:11:13un moment de diffamation. Non, non !
01:11:15Tu dis quoi, Galilée ? Prépare les bûches.
01:11:17Et Galilée, il a vu ça.
01:11:19Non, non, non ! J'ai mal fait mes calculs, en fait.
01:11:21Je me suis trompé dans mes calculs.
01:11:23Selon mes calculs, la Terre est comme toi t'aimes. Qu'est-ce que t'aimes ?
01:11:25Les gâteaux ? La Terre est un gâteau, voilà.
01:11:37Il y a un mec qui a dit...
01:11:39N'a un.
01:11:43Il a dit...
01:11:45La Terre est recouverte
01:11:47à 70% d'eau.
01:11:49Et l'eau est soit plate, soit gazeuse.
01:11:59Il a ajouté, la Terre n'est pas
01:12:01une planète gazeuse.
01:12:03Je voulais relancer.
01:12:05J'étais comme ça.
01:12:07Je pleurais, je pleurais.
01:12:09Des larmes de joie.
01:12:11J'ai découvert le génie inversé.
01:12:13Ce mec utilise toutes les capacités
01:12:15de son cerveau dans la mauvaise direction.
01:12:17Il a un QI
01:12:19négatif.
01:12:21Moins 140 de QI.
01:12:27Je voulais en savoir plus sur lui.
01:12:29Je lui ai envoyé un message. Je lui ai dit, mais qui es-tu ?
01:12:31D'où viens-tu ? Quel est ton but ?
01:12:35Et il m'a répondu...
01:12:37Contre Kemps.
01:12:41Applaudissements
01:12:43...
01:12:45...
01:12:47...
01:12:49...
01:12:51...
01:12:53...
01:12:55...
01:12:57...
01:12:59...
01:13:01...
01:13:03...
01:13:05...
01:13:07...
01:13:09...
01:13:11...
01:13:13...
01:13:15...
01:13:17...
01:13:19...
01:13:21...
01:13:23...
01:13:25...
01:13:27...
01:13:29...
01:13:31...
01:13:33...
01:13:35...
01:13:37...
01:13:39...
01:13:41...
01:13:43...
01:13:45...
01:13:47...
01:13:49...
01:13:51...
01:13:53...
01:13:55...
01:13:57...
01:13:59...
01:14:01Merci à tous d'avoir été là
01:14:03ce soir.
01:14:05la dernière sa soirée du spectacle Internet etc. J'espère que ça vous a
01:14:09plu.
01:14:17Il est où Sheldon ? Il est venu que pour ça lui, d'accord.
01:14:20Donc là juste je voulais remercier toute une équipe qui a travaillé autour de ce
01:14:25spectacle. Je vais d'abord remercier les techniciens, il y avait Norman, Derek,
01:14:29Samuel, Vincent, Paul, Olivier et plein d'autres.
01:14:36Toute l'équipe technique aussi, qui a fait la captation ce soir. Vraiment il faut
01:14:41les applaudir. Jean-Philippe Bouchard Productions aussi, vous pouvez applaudir
01:14:44l'équipe, qui a notre thune à la mise en scène, qui a notre thune à la mise en scène.
01:14:49Samy, Caroline, il faut encore les applaudir, vraiment, vraiment.
01:14:55C'est au décor, c'était Seralf aussi, vous pouvez applaudir le décor, Seralf.
01:15:04Le chat, le chat qui a fait toute la direction artistique, voire plus, beaucoup plus.
01:15:10Je le fais chier le soir, parfois très tard, je dis alors ça se passe. Je sais que lui il est
01:15:16toujours là pour me répondre, donc vraiment, je voulais le remercier.
01:15:19Voilà, il y avait aussi, il y avait aussi mots de la place du milieu, Maxime et
01:15:23Évotion, qui ont beaucoup travaillé, merci.
01:15:28Merci à vous aussi, merci beaucoup, merci.