• l’année dernière
A l'ère de la manipulation de masse : Propagande, réseaux sociaux et démocratie en danger.

David Colon, spécialiste de l’histoire de la propagande contemporaine, prof à science Po, nous parle des fondements et des techniques de la persuasion de masse dans le monde contemporain.
La propagande n’est pas nouvelle, mais elle n'a cessé de se perfectionner à mesure que les sciences sociales et les neurosciences ont permis d'améliorer l'efficacité des techniques de persuasion, d'influence ou de manipulation au point de mettre en danger, en silence et en sous-main, le fonctionnement de nos démocraties.

De quoi parle-t-on ?
00:00 - Intro
02:00 - Pourquoi comprendre les techniques de manipulation de masse est important ?
03:30 - Différence entre convaincre, persuader et manipuler
04:30 - Rôle de l’inconscient
06:00 - Histoire et perception de la rhétorique ?
08:00 - Jeux de persuasion en démocratie
12:30 - Techniques de propagande classiques
18:45 - Fonctionnement du cerveau dans la formation des choix
26:00 - Comment sommes-nous convaincus de faire des choix rationnels ?
28:30 - La technologie persuasive
34:00 - Les techniques de manipulation pour le plus grand bien ?
41:00 - Fonctionnement de Facebook (Graph Social)
49:00 - Économie de l’attention
55:00 - Le modèle de C-News et FoxNews
01:00:00 - Les démocraties, une farce ?
01:04:30 - Quelle stratégie pour reprendre la main sur le pouvoir politique ?
01:08:30 - Conseil pour individuellement être moins manipulables
01:12:03 - Les livres recommandés par David Colon
Transcription
00:00:00 Que se passe-t-il quand nous ne sommes plus en mesure de faire la distinction entre les faits et la fiction, entre le vrai et le faux ?
00:00:06 Comment faire que l'information qui nous arrive est mise en forme afin de nous faire adhérer à certaines idées, développer certaines opinions ?
00:00:13 La question semble d'actualité alors que nous assistons en direct à une campagne de désinformation massive en Russie, dirigée par Poutine,
00:00:19 qui veut nous faire croire, ou plutôt faire croire à son peuple, que sa décision d'envahir l'Ukraine est parfaitement justifiée.
00:00:25 On croit aussi qu'il nous faut être vigilant par rapport aux informations que nous recevons de notre côté, aux traitements médiatiques de cette guerre,
00:00:31 à la remise au second plan de tous les autres sujets qui comptent.
00:00:34 Avec David Collomb, spécialiste de l'histoire de la propagande contemporaine, prof à Sciences Po,
00:00:39 nous ne parlons pas de cette actualité fraîche, mais des fondements et des techniques de la persuasion de masse dans le monde contemporain.
00:00:46 La propagande n'est pas nouvelle, mais elle a cessé de se perfectionner à mesure que les sciences sociales et les neurosciences
00:00:51 ont permis d'améliorer l'efficacité des techniques de persuasion, d'influence et de manipulation,
00:00:56 au point de mettre en danger, en silence et en soumain, le fonctionnement de nos démocraties.
00:01:00 Si vous vous croyez parfaitement maître de vos opinions et de vos vies, écoutez cet épisode jusqu'au bout et venez en parler avec la communauté sur SISMIC.fr.
00:01:07 Je ne sais pas si vous êtes au courant, mais le monde ne vous attend pas. Le monde, il bouge. Et il bouge vite.
00:01:12 Bienvenue sur SISMIC.
00:01:14 Rien de tout ça n'est réel. Qu'est-ce que le réel ? Quelle est la définition du réel ?
00:01:19 Chaque génération, sans doute, se croit vouée à refaire le moindre.
00:01:24 Notre savoir nous a fait devenir cyniques. Nous sommes inhumains à force d'intelligence.
00:01:28 L'humanité est menacée dans ses fondamentaux.
00:01:31 Tu dois trouver dans tes rêves l'avenir pour lequel tu as envie de te battre.
00:01:35 Bonjour David Collomb.
00:01:37 Bonjour.
00:01:39 Alors nous allons parler ensemble de persuasion, de propagande, de manipulation de masse,
00:01:44 avec pour idée de comprendre comment nous sommes tous influencés, souvent sans nous en rendre compte,
00:01:50 influencés par l'information qui nous arrive, qu'on consomme, comme on dit,
00:01:55 et comment nous sommes influencés, et aussi par qui, et avec quels outils, et dans quel but.
00:01:59 C'est un thème qui me passionne pas mal en ce moment.
00:02:02 C'est une thématique que je trouve très importante parce qu'on ne peut pas bien comprendre les mécaniques du monde
00:02:06 si on ne comprend pas la manière dont les humains font des choix, et qui décide de ces choix.
00:02:11 Ma première question est simple, et en lien avec ce que je viens de dire.
00:02:14 Pourquoi selon vous c'est un sujet important, au point de vous être spécialisé dessus,
00:02:20 et en quoi comprendre la propagande et les techniques de manipulation de masse est important ?
00:02:25 C'est un sujet important parce que la révolution numérique que nous avons connue ces 20 dernières années,
00:02:31 avec les réseaux sociaux, les smartphones, les objets connectés, le data mining,
00:02:36 a permis l'avènement de ce que j'appelle une propagande totale.
00:02:42 C'est-à-dire une propagande à laquelle il devient très difficile d'échapper,
00:02:47 dans la mesure où nous sommes continuellement exposés à des écrans,
00:02:51 dans la mesure également où les techniques développées sont de plus en plus efficaces,
00:02:56 et reposent sur une démarche de plus en plus précise et scientifique,
00:03:00 et dans la mesure enfin où une bonne partie de cette propagande tend à être désormais automatisée.
00:03:07 J'ai pris le temps de lire votre dernier livre, vous en avez écrit plusieurs,
00:03:12 qui s'appelle "Les maîtres de la manipulation",
00:03:15 et je vais m'appuyer dessus et citer quelques passages pour qu'on puisse développer le thème.
00:03:19 Je voudrais qu'on commence par définir de quoi on parle, ce que je fais souvent,
00:03:22 parce que ce n'est pas si évident.
00:03:24 Quelle est la différence entre convaincre, persuader, manipuler ?
00:03:30 Convaincre, c'est amener quelqu'un par un raisonnement, ou par des preuves, par des faits,
00:03:36 à admettre quelque chose comme vrai ou comme nécessaire.
00:03:40 Persuader, c'est convaincre, mais c'est aussi amener quelqu'un à faire quelque chose.
00:03:49 C'est-à-dire que, comme on dit, la persuasion repose fondamentalement sur une influence,
00:03:57 sur les conduites des individus, leurs attitudes, leurs comportements,
00:04:02 autant sinon plus que leurs convictions.
00:04:05 Et la manipulation, enfin, c'est le fait de persuader quelqu'un à son insu,
00:04:10 c'est-à-dire de fausser la réalité le plus souvent, d'influencer les individus sans qu'ils s'en rendent compte.
00:04:16 Dans cette notion de manipulation, est-ce que ça implique une forme inconsciente de persuasion ?
00:04:27 C'est-à-dire que la personne amène l'autre à faire des choix et à faire des choses, à agir,
00:04:35 sans qu'il ait à utiliser sa raison.
00:04:37 Est-ce qu'il y a... Je voudrais m'arrêter un petit peu sur cette notion de raisonnement et de raison.
00:04:43 Oui, et ça depuis très longtemps.
00:04:45 Si vous revenez à la rhétorique classique à l'époque athénienne,
00:04:49 et si vous vous référez aux grands auteurs de l'époque, et puis les auteurs de l'époque romaine,
00:04:54 vous constaterez qu'à côté du logos, c'est-à-dire le raisonnement,
00:05:00 il était fait appel au pathos, c'est-à-dire à l'émotion, aux affects,
00:05:06 pour agir sur la perception du discours par les personnes à qui on s'adresse.
00:05:12 Autrement dit, la persuasion a toujours reposé sur une dimension inconsciente
00:05:17 à travers notamment les expressions non-verbales d'un persuadeur ou d'une persuadeuse,
00:05:24 à travers également le recours à un certain nombre de techniques bien connues.
00:05:29 Vous pouvez aisément influencer quelqu'un par exemple en le flattant,
00:05:33 car nous sommes toutes et tous sujets à... Enfin, objet de flatterie et flatté d'être flatté,
00:05:40 ce qui nous rend sans le savoir beaucoup plus influençable que nous aimerions le croire.
00:05:46 La rhétorique est quelque chose d'ancien, qui était chère aux grecs,
00:05:51 et qui était centrale dans la manière dont la démocratie fonctionnait,
00:05:55 qui était considérée comme un art, mais qui avait plutôt quelque chose qui a une connotation positive.
00:06:01 C'est-à-dire que même quand on arrive à influencer quelqu'un sans qu'il ne s'en rende compte,
00:06:08 via des images, via des processus aussi rhétoriques,
00:06:14 on va considérer que finalement ça fait partie du jeu.
00:06:17 À partir de quel moment on passe à quelque chose qui va être considéré comme moins éthique,
00:06:24 et qu'on va catégoriser dans la manipulation ? La limite est difficile à recevoir, non ?
00:06:31 Je ne partage pas tout à fait votre point de vue sur ce point,
00:06:35 dans la mesure où dans l'Antiquité, ce qui était perçu comme vertueux à Athènes,
00:06:41 c'était la parésia, c'est-à-dire la parole vraie.
00:06:45 Tandis que la rhétorique était précisément une forme de discours
00:06:49 qui pouvait apparaître superficielle, en particulier lorsqu'il était fait recours par les sophistes.
00:06:55 Et aujourd'hui encore, quand il est question de rhétorique,
00:06:58 très souvent on s'attache à un art du discours détaché de son contenu et de sa finalité persuasive.
00:07:06 Ce qui est certain à mes yeux, c'est que dans un pays comme la France,
00:07:10 la rhétorique a occupé une place très importante depuis le Moyen-Âge
00:07:14 dans les arts libéraux enseignés à l'université, et plus tard dans les collèges jésuites,
00:07:18 mais cet art de la parole disparaît des enseignements en 1902.
00:07:23 Et depuis lors, la rhétorique n'est plus véritablement enseignée
00:07:28 en dehors de quelques cadres professionnels, par exemple les conférences d'avocats,
00:07:35 et certains milieux, de sorte que la rhétorique a effectivement tendu à être instrumentalisée
00:07:40 à des fins de persuasion, et parfois de manipulation.
00:07:45 Alors la thèse de votre livre, c'est de dire que les techniques de persuasion et de manipulation
00:07:52 sont considérablement développées au cours du XXe siècle,
00:07:55 et depuis le XXIe siècle, elles sont devenues tellement sophistiquées,
00:07:59 ce que vous avez évoqué en introduction,
00:08:01 et tellement puissantes que les fondements de notre démocratie sont en danger.
00:08:05 J'aimerais qu'on parle du lien de base, pour commencer,
00:08:10 entre la démocratie et les choix individuels,
00:08:13 et de la place de ces jeux de persuasion dans la vie démocratique.
00:08:17 Je vais vous citer une phrase, une partie d'une phrase,
00:08:21 qui est dans votre livre d'Edouard Bernays.
00:08:24 Je vais citer la première partie, ensuite on pourra parler de la seconde partie.
00:08:28 "La manipulation consciente, intelligente des opinions et des habitudes organisées des masses
00:08:32 joue un rôle important dans une société démocratique."
00:08:35 Est-ce que vous pouvez expliciter cette phrase ?
00:08:38 En fait, j'écris pour ma part dans mon précédent livre
00:08:41 que la propagande est fille de la démocratie.
00:08:44 Elle découle de la démocratie dans la mesure où, à la différence d'un régime autoritaire,
00:08:48 on ne peut pas recourir à la contrainte et à la terreur pour agir sur les conduits des individus.
00:08:52 En démocratie, on doit conduire les citoyens et les citoyennes
00:08:56 à adopter d'eux-mêmes le comportement que l'on attend,
00:09:00 qu'il s'agisse d'un comportement citoyen, tel que le fait d'aller voter,
00:09:04 ou d'un comportement de consommateur ou de consommatrice.
00:09:08 Et pour atteindre cet objectif,
00:09:12 il est plus volontiers faire recours à des techniques de persuasion
00:09:16 que dans les régimes autoritaires où la contrainte est d'abord exercée.
00:09:22 Je parle des régimes autoritaires en place, bien évidemment.
00:09:25 Avant d'accéder au pouvoir, des partis fascistes, nazis,
00:09:30 peuvent recourir à des techniques de persuasion ou de manipulation.
00:09:34 Et donc, je raconte dans mon dernier livre que l'art de la persuasion de masse
00:09:38 est né aux États-Unis au tournant du siècle, du XXe siècle,
00:09:42 pour la simple raison que les États-Unis étaient alors la démocratie la plus avancée.
00:09:47 Ils accordent le droit de vote aux femmes en 1920.
00:09:50 C'est une grande puissance économique, industrielle, un très grand marché intégré,
00:09:54 un pays également qui exporte beaucoup de ses biens à l'étranger,
00:09:59 des biens culturels aussi bien que des biens de consommation.
00:10:02 Et tout cela conduit cette société démocratique et libérale
00:10:06 à concevoir la nécessité de recourir à des dispositifs de persuasion de masse
00:10:13 dans l'intérêt même de la démocratie,
00:10:16 à travers ce que Bernays, à la suite de Walter Lippmann,
00:10:19 a appelé la fabrique du consentement,
00:10:21 c'est-à-dire le fait de faire consentir la majorité du peuple
00:10:24 à des décisions qui sont prises par les élites pour le bien du peuple
00:10:28 ou par les experts, par les dirigeants pour le bien du peuple.
00:10:32 Cela se traduit très concrètement par la naissance aux États-Unis,
00:10:35 des relations publiques, le mot apparaît en 1897,
00:10:39 du lobbying, de la publicité scientifique, du marketing,
00:10:43 des études de marché, des sondages,
00:10:46 d'écoles de pensée tout entièrement vouées à l'étude des comportements humains
00:10:50 mais aussi des laboratoires de recherche vouées à l'étude de la communication persuasive.
00:10:56 Les États-Unis, comme je l'écris dans mon livre,
00:10:58 sont au XXe siècle et encore aujourd'hui l'atelier de la persuasion de masse,
00:11:03 l'atelier du monde de la persuasion de masse.
00:11:06 Il y a une deuxième partie, comme je l'évoquais à cette phrase,
00:11:11 Bernays parle de cette manipulation consciente et intelligente des sociétés démocratiques,
00:11:16 puis il ajoute "ceux qui manipulent ce mécanisme social imperceptible
00:11:20 forment un gouvernement invisible qui dirige véritablement le pays.
00:11:23 Nous sommes pour une large part gouvernés par des hommes dont nous ignorons tout,
00:11:28 qui modèlent nos esprits, forgent nos goûts et nous soufflent nos idées."
00:11:32 Alors on va voir que cette idée de gouvernement invisible est probablement à nuancer,
00:11:37 mais on voit l'idée en fait, nous serions en permanence manipulés,
00:11:41 amenés à faire des choix et à nous comporter d'une certaine manière sans en avoir conscience.
00:11:46 Et si on ne comprend pas ça, en fait on ne peut pas comprendre comment évoluent nos sociétés
00:11:51 et donc qui est derrière, qui décide, qui est influent.
00:11:56 Donc on va essayer de mettre tout ceci un peu en lumière.
00:11:59 Et comme votre livre est un peu chronologique, je voudrais qu'on suive aussi ça.
00:12:05 Et puis vous avez parlé de l'apparition des premières techniques de propagande.
00:12:08 Vous parlez notamment de l'invention de l'ARP, de la publicité, de Walt Disney même,
00:12:13 du livre de Mao et puis de Goebbels.
00:12:16 Qu'est-ce qu'il faut retenir de ces techniques de propagande dites classiques,
00:12:23 pré-internet, pré-technologie numérique ?
00:12:26 Et quels sont les fondamentaux qui sont encore valides et utilisés aujourd'hui ?
00:12:30 Puisqu'en fait il y en a plein.
00:12:32 Je vais vous répondre en deux temps.
00:12:34 D'abord je voudrais revenir sur la citation que vous avez donnée de Bernays.
00:12:37 Il y a du vrai dans ce qu'il écrit, à savoir que des maîtres de la manipulation
00:12:41 ont fait profession d'agir à notre insu sur nos comportements et nos attitudes.
00:12:46 Et dans mon livre je décris des portraits des 20 plus grands d'entre eux.
00:12:49 Il y a en revanche du faux lorsqu'il parle d'un gouvernement invisible,
00:12:53 ce qui suggère une forme de complot.
00:12:56 Jamais ces 20 hommes ne se sont assis autour d'une table
00:12:59 et lorsqu'ils ont travaillé ensemble c'était le plus souvent en concurrence.
00:13:03 Ils se sont plagiés, enviés tout au long du XXe siècle.
00:13:09 Il s'agissait pour Bernays d'essayer de pousser sa propre entreprise
00:13:15 et de se présenter comme un grand génie manipulateur
00:13:19 qu'il était en partie mais certainement pas autant qu'il le prétendait.
00:13:22 Ensuite, pour répondre maintenant à votre question,
00:13:25 je dirais que la persuasion est une science appliquée.
00:13:30 Autrement dit, elle a pour objectif quelque chose de très concret, très pratique,
00:13:37 encourager les gens à voter, acheter ou ne pas voter,
00:13:41 ne pas manifester ou manifester, cliquer sur un lien.
00:13:43 Donc c'est un objectif pratique qui, pour être atteint,
00:13:47 fait appel à des connaissances tirées des sciences et des techniques.
00:13:55 Et l'art de ces ingénieurs des âmes, de ces ingénieurs du comportement
00:14:00 est d'identifier dans les progrès technologiques et scientifiques
00:14:03 ce qui peut être mis au service de la persuasion.
00:14:09 Pour maintenant synthétiser en quelques phrases un siècle de persuasion de masse,
00:14:14 je dirais que les principaux acquis sont au nombre de trois.
00:14:20 Le premier, c'est l'acquis d'une démarche de publicité scientifique
00:14:25 qui consiste à tester des discours publicitaires,
00:14:30 tester des dispositifs de persuasion, mesurer leur impact
00:14:34 pour les adapter et les rendre toujours plus efficients.
00:14:38 C'est ce qui a guidé l'évolution non seulement de la publicité
00:14:41 mais du marketing politique et aujourd'hui des outils numériques.
00:14:45 La deuxième grande voie de la persuasion, c'est les mystères de l'esprit humain.
00:14:51 C'est la quête des mobiles humains. Qu'est-ce qui nous pousse à acheter ?
00:14:55 Qu'est-ce qui nous conduirait à participer à une élection ?
00:14:59 Qu'est-ce qui peut nous conduire à prendre une voiture pour monter jusqu'à Paris,
00:15:04 tenter de bloquer un périphérique ?
00:15:07 Cette question-là est une question qui a fasciné les psychologues
00:15:11 et certains psychologues ou publicitaires inspirés par la psychologie
00:15:17 qui ont entrepris de percer ces mystères de la psychologie humaine
00:15:22 et d'appliquer un certain nombre de connaissances de nos faiblesses
00:15:26 à l'art de fabriquer le consentement ou de fabriquer l'acte d'achat.
00:15:31 Et enfin, il y a une autre démarche
00:15:34 qui est une démarche qui repose davantage sur une forme de contrainte qui ne dit pas son nom
00:15:40 et qui repose sur l'art de la répétition.
00:15:43 Répétition d'un slogan publicitaire, répétition d'un slogan politique,
00:15:47 répétition de clips publicitaires
00:15:51 qui produisent des effets qui ont été à maintes fois mesurés.
00:15:57 Pour revenir à la rhétorique antique,
00:16:01 l'une des choses les plus délicates qui avait été identifiée par Aristote
00:16:06 c'est le kairos, c'est-à-dire qu'une fois que l'on a respecté les trois premières règles
00:16:13 l'ethos, c'est-à-dire la prestance, l'influence de l'orateur,
00:16:17 le logos, la logique du discours, le pathos, l'appel au sentiment,
00:16:21 encore faut-il déterminer le moment le plus opportun pour procéder à cette démarche de persuasion.
00:16:28 Et ces progrès des sciences du comportement au XXe siècle
00:16:34 ont permis à la fin du XXe siècle et de nos jours
00:16:40 à un grand nombre d'ingénieurs des âmes
00:16:44 de déterminer avec une plus grande précision le moment opportun pour nous persuader.
00:16:48 Je vais vous donner un seul exemple, qui est un exemple que je trouve extrêmement parlant.
00:16:52 Le neuromarketing a établi depuis maintenant pratiquement 20 ans
00:16:59 que le cerveau humain retenait mieux les discours publicitaires
00:17:04 ou n'importe quel discours lorsque nous avons faim.
00:17:07 Parce qu'il y a dans le produit de l'évolution du cerveau humain
00:17:11 une caractéristique fondamentale de notre espèce
00:17:15 et de toute espèce animale d'ailleurs,
00:17:17 quand nous avons faim, il est vital pour nous de nous souvenir où se trouve la nourriture.
00:17:22 Et la gréline est émise par le cerveau qui vient se fixer sur les parties du cerveau
00:17:28 vouées à l'apprentissage pour nous permettre de nous souvenir
00:17:32 de l'endroit où se trouve la nourriture, où se trouve la source d'eau.
00:17:37 Et c'est exploité aisément par les publicitaires
00:17:41 qui savent que les publicités les plus persuasives sont situées avant l'heure des repas,
00:17:47 à la télévision, à la radio en particulier.
00:17:50 Donc ce n'est pas pendant la mi-temps d'un match de foot ou pendant le Super Bowl,
00:17:56 c'est quand on a faim.
00:17:58 Quand on a faim.
00:18:00 Je voudrais qu'on s'attarde là-dessus, puisque ça m'a semblé être aussi un tournant
00:18:06 qui apparaît dans le livre des techniques de manipulation de masse.
00:18:10 Ce tournant qu'on peut appeler l'économie comportementale
00:18:14 ou plus généralement les recherches autour des biais cognitifs,
00:18:18 notamment de Richard Thaler, de Daniel Kahneman, de Sistein, etc.
00:18:23 Dont plusieurs d'ailleurs ont eu un prix Nobel, enfin un prix de la Banque de Suède.
00:18:27 D'abord, vous avez cité un exemple, mais je pense que c'est important
00:18:31 parce que c'est un sujet qui m'avait énormément marqué et qui est finalement assez méconnu.
00:18:35 Qu'est-ce qu'il est essentiel de comprendre sur le fonctionnement du cerveau humain
00:18:39 et sur la manière dont on forme nos opinions
00:18:42 et qui fait qu'on est certainement beaucoup plus manipulable,
00:18:46 beaucoup plus influençable qu'on ne le pense généralement ?
00:18:50 Peut-être quelques exemples.
00:18:53 Richard Thaler est parti d'un constat.
00:18:57 Lorsqu'il était étudiant en économie, les êtres humains ne se comportent pas
00:19:02 comme se comporte l'homo economicus dans la théorie économique néoclassique.
00:19:08 Il y a des comportements qui ne sont pas conformes à ce modèle économique.
00:19:15 Par exemple, le fait que nous sommes prêts à payer plus cher une bière dans un endroit chic
00:19:21 que dans un endroit qui ne l'est pas, alors qu'il s'agit du même produit,
00:19:25 de la même bière, de la même marque.
00:19:28 C'est un élément non pertinent pour la théorie néoclassique,
00:19:31 mais qui se révèle extraordinairement pertinent.
00:19:34 Il a mené de très nombreuses études et expériences,
00:19:38 précisément parce qu'il cherchait à comprendre
00:19:41 ces anomalies dans le comportement des consommateurs et des consommatrices.
00:19:45 Son talent a été de s'inspirer des avancées de la psychologie sociale,
00:19:50 de certains grands psychologues qui sont devenus prix de la Banque de Suède
00:19:54 dans le science économique en mémoire d'Alfred Dommel,
00:19:57 c'est-à-dire prix Nobel d'économie,
00:19:59 en étudiant précisément les biais cognitifs, les biais heuristiques
00:20:03 qui affectent notre façon de voir les choses.
00:20:06 Je vais vous donner un autre exemple qui est fondamental pour Kahneman.
00:20:10 Il distribuait des objets à ses étudiants dans une expérience,
00:20:13 dans son amphithéâtre, des objets de la même valeur.
00:20:18 Et il constatait que les étudiants avaient beaucoup de mal
00:20:27 à échanger l'objet qui leur avait été donné
00:20:30 contre un objet de la même valeur,
00:20:32 en particulier les mugs de l'université,
00:20:35 qu'il voulait par-dessus tout garder.
00:20:38 Et c'est ce qu'il a appelé l'effet de dotation.
00:20:41 Cet effet de dotation, qui lui a valu le prix Nobel,
00:20:44 se traduit par de très nombreux comportements
00:20:48 qui ne sont pas très rationnels du point de vue de l'économie néoclassique,
00:20:53 mais qui se révèlent évidents lorsque l'on est confronté à la vie courante.
00:21:01 Par exemple, cela se traduit par le phénomène des soldes.
00:21:06 Thaler a écrit « Fixez un prix que vous considérez comme normal,
00:21:12 donnez un rabais,
00:21:15 et les gens considéreront économiser de l'argent
00:21:21 en achetant le produit au rabais. »
00:21:24 Vous voyez, c'est les gens qui rentrent des soldes en vous disant
00:21:26 « Tu ne sais pas combien d'argent j'ai économisé aujourd'hui,
00:21:29 alors qu'ils ont fait brûler la carte bancaire. »
00:21:33 Autrement dit, on peut exploiter certaines caractéristiques
00:21:39 de notre appréhension de l'environnement à des fins de persuasion.
00:21:44 Très facile de persuader les gens d'acheter.
00:21:46 C'est très facile également de les persuader d'adopter un comportement
00:21:51 qu'ils n'auraient pas adopté d'eux-mêmes si on n'a pas agi sur leur environnement.
00:21:57 Et c'est là l'idée fondamentale, avec Kass Sunstein, du « nudge »,
00:22:01 c'est-à-dire de ce petit coup de coude, de ce petit coup de pouce,
00:22:05 coup de coude pour attirer l'attention des gens sur quelque chose,
00:22:08 coup de pouce pour les encourager à agir dans le sens voulu,
00:22:12 en agissant sur l'environnement du choix, l'architecture du choix.
00:22:17 Placez des légumes à hauteur des yeux dans un restaurant universitaire
00:22:21 et vous encouragerez de facto les étudiants à consommer davantage de légumes
00:22:25 sans avoir à leur tenir de discours en ce sens.
00:22:28 Dessinez une petite mouche au fond des urinoirs
00:22:31 et vous verrez les coûts de nettoyage des toilettes baisser en flèche.
00:22:37 Dessinez des ronds sur les quais de gare et vous verrez les usagers du train
00:22:46 respecter davantage la distanciation physique que sans ces petits ronds,
00:22:51 sans qu'il soit nécessaire de leur tenir un discours comitatoire.
00:22:55 Dites aux contribuables que 90% d'entre eux payent leurs impôts dans les temps,
00:23:01 si auparavant il y en avait 70%, vous en verrez peut-être 5% de plus
00:23:05 payer leurs impôts dans les temps par biais de conformisme.
00:23:08 Les psychologues sociaux et les économistes comportementaux
00:23:11 ont établi une liste de plusieurs centaines de biais heuristiques cognitifs.
00:23:15 Chacun de ces biais heuristiques cognitifs s'est traduit
00:23:18 par l'élaboration de dispositifs de persuasion qui les exploitent.
00:23:23 Cette compréhension de... on pourrait passer des heures là-dessus
00:23:28 puisqu'on n'imagine pas justement... il y a combien de biais identifiés au total ?
00:23:35 Plusieurs centaines, c'est ça ?
00:23:36 Des centaines.
00:23:37 Des centaines, oui.
00:23:38 Donc on n'imagine pas bien, ça m'étonne toujours de percevoir
00:23:43 à quel point on ne comprend pas la manière dont on fait nos propres choix.
00:23:48 Pardonnez-moi, je vais vous donner l'exemple le plus simple
00:23:51 que j'ai moi-même expérimenté quand j'étais directeur du campus
00:23:54 de Sciences Po à Paris.
00:23:58 On avait des imprimantes en libre-service pour les étudiants
00:24:02 qui imprimaient en recto.
00:24:04 Et moi, ça m'horripilait de voir la consommation de papier
00:24:07 pour imprimer en recto.
00:24:09 On a fait passer les imprimantes en recto verso par défaut,
00:24:14 en exploitant ce que l'on connaît comme le biais de statu quo.
00:24:20 C'est-à-dire que la plupart du temps, lorsque vous êtes face à un objet de ce type
00:24:24 ou à une interface numérique, vous acceptez les choix par défaut
00:24:29 qui ont été faits, sans avoir conscience d'être influencé comme ça.
00:24:35 Passer les imprimantes en recto verso a réduit de 40% la consommation de papier.
00:24:42 Nous sommes continuellement l'objet de ce type de dispositifs
00:24:50 qui ont un grand mérite.
00:24:52 Je n'ai pas brimé la liberté de mes étudiants en mettant le recto verso par défaut.
00:24:58 Chaque étudiant ou étudiante pouvait continuer d'imprimer en recto
00:25:04 à condition de modifier les paramétrages.
00:25:07 On a toujours la possibilité de modifier les paramétrages
00:25:10 et le nudge à cela de fantastique qu'il respecte formellement la liberté,
00:25:14 le libre arbitre des individus qui peuvent très bien ne pas suivre
00:25:18 l'orientation qu'il leur est suggérée.
00:25:20 Par contre, dans cette…
00:25:22 Non, non, non, mais comment… Je voudrais rester un petit peu là-dessus,
00:25:24 ça m'amène à une question qui est comment se fait-il
00:25:28 que nous soyons malgré tout toujours autant convaincus
00:25:33 que nous faisons l'essentiel de nos choix de manière rationnelle ?
00:25:37 D'abord, j'imagine parce que nous n'avons pas connaissance de ça,
00:25:42 on ne nous l'apprend pas, on ne nous l'enseigne pas.
00:25:44 Pourtant, à chaque fois, on a l'impression que nos opinions sont construites
00:25:48 parce qu'on a raisonné, que nos choix de vie sont construits parce qu'on a raisonné,
00:25:53 alors qu'en fait, la plupart du temps, ce n'est pas la raison
00:25:56 qui intervient dans la plupart de nos choix.
00:25:58 Qu'est-ce qui fait qu'on reste à ce point convaincu
00:26:01 et qu'est-ce qui fait qu'on se raccroche à la raison pour expliquer nos choix ?
00:26:05 Je crois que fondamentalement, l'espèce humaine a du mal à admettre
00:26:09 la part de l'aléa, du hasard, dans un certain nombre de phénomènes.
00:26:14 Il y a un biais bien connu qui est le biais rétrospectif,
00:26:18 qui nous voit rétrospectivement considérer l'événement le plus aléatoire
00:26:24 comme prévisible, logique.
00:26:29 Nous voulons attribuer une cause à chaque chose.
00:26:33 Et vis-à-vis de nous-mêmes, nous souffrons d'un autre biais
00:26:36 qui est un biais d'optimisme, qui nous conduit précisément
00:26:40 à surevaluer nos capacités à appréhender le monde qui nous entoure
00:26:45 et l'imprévisibilité.
00:26:47 Il y a des livres extraordinaires, des études fantastiques
00:26:50 sur les prédictions des experts.
00:26:53 Et tous ces livres sur les prédictions des experts montrent une chose,
00:26:56 c'est que les experts se sont toujours trompés quand ils ont fait des prédictions.
00:26:59 Ils se sont systématiquement trompés,
00:27:02 parce que nous avons une confiance exagérée
00:27:06 dans nos capacités d'analyse et de prédiction.
00:27:09 Nous, êtres humains, il ne s'agit pas de stigmates.
00:27:11 Donc on post-rationalise, c'est-à-dire qu'à chaque fois qu'on...
00:27:14 On s'est dit "oui, c'était logique, évidemment ça s'est passé parce que...
00:27:17 évidemment j'ai fait ce choix parce que..."
00:27:19 Alors qu'en fait, ce n'est pas comme ça que ça se passe, c'est un peu ça.
00:27:22 Notre cerveau est une machine statistique absolument extraordinaire
00:27:25 qui fonctionne par induction, par une approche inductive.
00:27:28 Chaque série d'événements nous conduit à construire
00:27:32 une forme de rationalisation et de déterminisme,
00:27:35 à établir des corrélations là où il n'y en a pas nécessairement.
00:27:39 Et c'est une caractéristique qui est aisément exploitable
00:27:43 à des fins de persuasion ou de manipulation.
00:27:46 Alors on va parler de ça, donc cette compréhension de la psychologie humaine
00:27:50 est un tournant parce que ces recherches ont bien sûr été utilisées
00:27:53 pour influencer nos comportements.
00:27:55 Ce qui nous amène à parler aussi de ce qui se passe depuis une vingtaine d'années
00:27:59 et des structures actuelles de manipulation de masse
00:28:02 qui caractérisent donc notre présent, notre époque.
00:28:05 Et je cite Tristan Harris, qui est un ancien de Google,
00:28:09 qui est une sorte de repenti en quelque sorte, qui dit
00:28:12 "Nous dans l'industrie de la technologie avons créé des outils
00:28:15 pour déstabiliser et éroder le tissu des sociétés dans tous les pays du monde.
00:28:20 À la base du fonctionnement de ce qu'on appelle les GAFA,
00:28:23 donc Google, Amazon, Facebook, Apple,
00:28:26 il y a ce qu'on appelle la technologie persuasive.
00:28:29 Est-ce que vous pouvez nous raconter cette histoire
00:28:32 et m'expliquer en quoi elle est fondamentale
00:28:35 pour comprendre la manière dont notre monde fonctionne aujourd'hui ?
00:28:39 On pourrait d'abord ne plus les appeler les GAFA et les appeler les MAMA,
00:28:44 parce que c'est Méta, Amazon, Microsoft, Alphabet.
00:28:50 Donc je trouve que MAMA, c'est pas...
00:28:54 Et puis il y a les équivalents en Chine et ailleurs.
00:28:57 Et BRTX, oui.
00:28:59 La technologie persuasive est l'invention d'un homme qui avait lu Aristote,
00:29:03 qui s'appelle Brian Jeffrey Fogg,
00:29:06 et qui un jour a eu l'idée, il était à Paris, en échange universitaire,
00:29:11 il a eu l'idée de croiser la pensée d'Aristote avec les ordinateurs.
00:29:16 J'entends l'objet ordinateur, on était au début des années 1990.
00:29:20 Et il a fait une thèse en informatique à Palo Alto,
00:29:26 à Stanford, à Palo Alto,
00:29:30 sous la direction de Zimbardo, un grand psychologue du XXe siècle,
00:29:36 thèse sur ce qu'il appelait les ordinateurs charismatiques.
00:29:40 Autrement dit, l'idée principale, la thèse qu'il développait,
00:29:45 c'est que nous, êtres humains, interagissons avec les machines
00:29:48 comme nous interagissons avec les autres êtres humains.
00:29:51 Nous sommes enclins à projeter des caractéristiques humaines sur des objets.
00:29:56 Il y a deux semaines, je prends un café à Sciences Po
00:30:00 et j'entends la machine me dire merci.
00:30:03 Très surpris, mais je réponds de rien.
00:30:05 C'est plus fort que moi, je ne peux pas ne pas répondre de rien.
00:30:07 Oui, on est poli.
00:30:09 Nous avons...
00:30:11 Et sa thèse est absolument extraordinaire,
00:30:13 parce qu'elle repose sur une série d'expériences qui vont toutes dans ce sens,
00:30:16 qui avaient été faites par d'autres depuis la fameuse expérience d'Eliza en 1968,
00:30:21 avec un ingénieur qui avait créé
00:30:25 une application
00:30:30 qui donnait l'impression d'un ordinateur qui répondait à nos questions,
00:30:34 alors qu'il se contentait de les répéter, de les reformuler,
00:30:36 mais nous nous étions conduits à échanger avec cet ordinateur.
00:30:40 Nous accordons une confiance à la machine
00:30:43 comparable à celle que nous accordons aux humains.
00:30:45 Et ensuite, à partir de là,
00:30:48 Fogg, dans son laboratoire qu'il a créé à Stanford,
00:30:54 un laboratoire voué à la formation de comportements humains,
00:30:59 de behavior design,
00:31:02 de design du comportement,
00:31:04 a conçu une multitude de techniques
00:31:09 visant à influencer les utilisateurs d'un ordinateur dans le sens voulu.
00:31:15 Il a, dans son livre, résumé une bonne partie de son œuvre,
00:31:20 son livre Persuasive Technology,
00:31:24 et il a par exemple identifié le fait
00:31:29 que nous étions aisément influençables par des compagnons numériques,
00:31:34 vous savez, ces coachs numériques,
00:31:36 qui peuvent nous orienter dans le sens voulu par leur designer.
00:31:40 Nous sommes volontiers influencés par la facilité
00:31:44 avec laquelle nous réalisons quelques actions,
00:31:46 par exemple le fait de pouvoir acheter en un clic
00:31:49 favorise un achat impulsif au détriment de la réflexion
00:31:53 et nous fait consommer davantage.
00:31:55 Ça a été une grande révolution,
00:31:58 dans la mesure où, à son corps défendant,
00:32:02 Brian Jeffrey Fogg a implanté l'idée chez ses élèves
00:32:06 que ces faiblesses de la psychologie humaine
00:32:09 pouvaient être exploitées au service de grandes entreprises
00:32:14 qui ont recruté ses élèves, Google, Facebook,
00:32:17 des entreprises qui, au début des années 2000,
00:32:19 étaient obsédées par une chose
00:32:21 qui était la croissance du nombre d'utilisateurs,
00:32:23 c'est-à-dire que la valeur d'une entreprise
00:32:25 n'était pas déterminée par les bénéfices qu'elle dégageait,
00:32:28 elle ne dégageait pas de bénéfices,
00:32:31 mais par le nombre d'utilisateurs que l'on avait
00:32:35 et la qualité de leur engagement.
00:32:37 C'est ce qui a donné naissance,
00:32:38 c'est ce que l'on appelait le growth hacking,
00:32:42 le piratage de croissance,
00:32:44 qui en réalité reposait sur un piratage du cerveau humain
00:32:47 pour nous rendre accros à ces outils numériques.
00:32:52 Les plus anciens dont je suis se souviennent
00:32:54 de ce moment où vous êtes entré en contact avec Facebook
00:32:57 lorsque vous recevez un mail pour vous dire
00:32:59 que quelqu'un que vous connaissez a publié sur Facebook
00:33:02 une photo de vous,
00:33:03 et que si vous voulez voir la photo,
00:33:05 il vous faut cliquer et vous inscrire sur Facebook,
00:33:07 ce que naturellement vous faites,
00:33:08 de peur de voir quelques photos compromettantes.
00:33:11 C'est un exemple parmi tant d'autres outils
00:33:16 qui alors ont été créés à des fins de manipulation
00:33:21 par ces géants numériques.
00:33:23 On va parler de Facebook plus particulièrement
00:33:26 puisque c'est évidemment important de comprendre
00:33:28 comment ça fonctionne.
00:33:29 Je voudrais m'arrêter sur un point,
00:33:32 une forme de digression ou de retour en arrière
00:33:34 dans notre conversation,
00:33:35 mais qui est sur cette idée que ceux qui utilisent,
00:33:39 certains de ces personnes qui utilisent
00:33:42 des techniques de manipulation,
00:33:44 le font aussi parce que pour eux,
00:33:48 ça peut être pour un bien supérieur.
00:33:51 C'est-à-dire qu'à partir du moment
00:33:53 où on comprend qu'on peut influencer les masses
00:33:56 dans un sens et que les humains ne sont pas rationnels,
00:33:59 finalement il faut les aider à faire des meilleurs choix
00:34:03 pour eux-mêmes, etc.
00:34:05 Est-ce qu'on peut parler un petit peu de ça,
00:34:08 de savoir aussi,
00:34:09 puisque ce n'est pas forcément des gens
00:34:10 qui veulent faire du mal ou manipuler à tout prix,
00:34:11 il y en a, on va en reparler,
00:34:12 mais voilà, il y a une philosophie derrière.
00:34:14 Beaucoup de ces grands maîtres de la manipulation
00:34:19 ont fait le constat de l'irrationalité
00:34:23 du comportement humain
00:34:24 et de la nécessité de rationaliser,
00:34:27 autant que faire se pouvait,
00:34:29 cette irrationalité,
00:34:31 de sorte de conduire les gens à leur bonheur,
00:34:37 y compris malgré eux.
00:34:39 Thaler en est un bon exemple,
00:34:41 parce que le nudge visait à encourager les gens
00:34:45 à faire ce qui était bon pour eux,
00:34:48 Fogg en est également un bon exemple,
00:34:51 puisque personnellement,
00:34:52 il a développé des outils
00:34:54 pour la société White Watchers,
00:34:56 pour aider les gens qui voulaient maigrir à le faire,
00:34:59 mais la persuasion et la manipulation
00:35:03 est un outil.
00:35:04 Autrement dit,
00:35:06 comme le décrivait le psychologue Dichter,
00:35:08 c'est l'équivalent d'un couteau.
00:35:10 Avec un couteau,
00:35:12 vous pouvez faire le bien
00:35:13 comme vous pouvez faire le mal.
00:35:15 Et des techniques conçues pour faire le bien
00:35:18 peuvent aisément se retourner contre nous.
00:35:21 Permettez-moi de vous donner un exemple,
00:35:23 qui est un exemple de B.J. Fogg
00:35:26 qui évoquait beaucoup un psychologue comportementaliste
00:35:29 qui est Burrus Friedrich Skinner,
00:35:31 un comportementaliste radical
00:35:33 qui a travaillé sur le conditionnement opérant,
00:35:37 c'est-à-dire le moyen par lequel
00:35:40 on peut renforcer un comportement voulu
00:35:42 chez les individus
00:35:44 et ses expériences les plus célèbres
00:35:46 concernaient des rats dans une boîte
00:35:48 que l'on appelle la boîte de Skinner
00:35:50 avec un levier de nourriture
00:35:52 et puis des stimuli.
00:35:54 Un stimuli positif,
00:35:56 il appuie sur le levier et obtient de la nourriture.
00:35:58 Et un stimuli négatif,
00:36:00 il appuie sur le levier et reçoit une décharge électrique.
00:36:02 Bien évidemment, quand vous recevez de la nourriture,
00:36:04 vous êtes plus en paix appuyé sur le levier
00:36:07 que quand vous recevez une décharge électrique.
00:36:09 Et puis, il a perfectionné son expérience
00:36:12 en distinguant deux formes de récompenses
00:36:14 pour le conditionnement positif.
00:36:16 Dans un cas,
00:36:18 la récompense était fixe.
00:36:20 Vous appuyez sur le levier et le rat obtient
00:36:22 une dose fixe de nourriture.
00:36:24 Donc il mange et quand il n'a plus faim,
00:36:26 il cesse d'appuyer sur le levier jusqu'à ce qu'il ait faim à nouveau.
00:36:28 Et puis, la récompense aléatoire.
00:36:31 Le rat appuie,
00:36:33 obtient une dose de nourriture,
00:36:35 appuie à nouveau, il n'y a plus de nourriture.
00:36:37 Appuie, il n'y a plus de nourriture.
00:36:39 Appuie une quatrième fois,
00:36:41 et là c'est le jackpot.
00:36:43 Et que fait le rat dans ce cas-là ?
00:36:45 Le rat se met à appuyer de façon
00:36:47 compulsive et obsessionnelle sur le levier,
00:36:49 sans considération même
00:36:51 pour sa satiété,
00:36:53 dans la mesure où
00:36:55 s'est déclenché le circuit
00:36:57 de la récompense qui délivre
00:36:59 de la dopamine par l'anticipation
00:37:01 de la récompense d'une forte dose de nourriture.
00:37:04 Ce dispositif a été exploité
00:37:06 par les fabricants de machines à sous.
00:37:08 Les machines à sous exploitent
00:37:10 le circuit dopaminique de la récompense
00:37:12 pour nous rendre accros aux machines à sous.
00:37:14 Mais les ingénieurs
00:37:16 des années 2000 ont vite compris
00:37:18 que ce circuit était
00:37:20 aisément exploitable
00:37:22 par les systèmes de récompense
00:37:24 des interfaces numériques.
00:37:26 La notification,
00:37:28 la réponse au mail que vous avez adressé,
00:37:30 les partages,
00:37:32 le like, le nombre de gens
00:37:34 qui vont visionner notre vidéo
00:37:36 vont engager notre
00:37:38 circuit dopaminique.
00:37:40 De sorte que nous avons été traités
00:37:42 par les ingénieurs de la Silicon Valley
00:37:44 comme des rats de laboratoire,
00:37:46 comme des rats de Skinner.
00:37:48 Nos smartphones
00:37:50 sont l'équivalent
00:37:52 de la boîte de Skinner.
00:37:54 Il n'y a qu'à voir avec quelle obsession
00:37:56 nous posons nos doigts dessus,
00:37:58 des milliers de fois par jour.
00:38:00 L'obsession avec laquelle moi,
00:38:02 qui passe beaucoup trop de temps sur Twitter,
00:38:04 je scrolle à la recherche
00:38:06 du tweet le plus récent,
00:38:08 ce qui est proprement absurde d'un point de vue rationnel
00:38:10 dans la mesure où un tweet
00:38:12 qui a 30 secondes
00:38:14 n'est pas moins intéressant
00:38:16 qu'un tweet qui vient d'être publié.
00:38:18 Mais là encore, c'est un autre
00:38:20 processus cognitif qui est exploité.
00:38:22 La quête de la nouveauté, la quête de l'information
00:38:24 est inscrite dans l'évolution
00:38:26 de notre cerveau à des fins de survie.
00:38:28 Il était indispensable à notre survie
00:38:30 il y a quelques dizaines de milliers d'années
00:38:32 d'avoir l'information la plus récente.
00:38:34 Mais on ne sait pas où sont les ennemis,
00:38:36 où sont les dangers, où sont les bêtes sauvages,
00:38:38 où sont les précipices, alors qu'aujourd'hui
00:38:40 nous sommes dans une société de sur-information
00:38:42 où notre cerveau
00:38:44 connaît en la matière
00:38:46 une forme d'orgie informationnelle,
00:38:48 d'orgie dopaminique
00:38:50 qui est stimulée par ses ingénieurs.
00:38:52 Pardon d'avoir été très long pour...
00:38:54 C'est un point extrêmement important.
00:38:56 C'est important aussi parce que c'est souvent méconnu
00:38:58 alors que...
00:39:00 L'exemple de la machine à sous est intéressant
00:39:02 puisque c'est souvent cité
00:39:04 pour illustrer comment
00:39:06 les designers de ces apps
00:39:08 se servent
00:39:10 de la manière dont notre cerveau fonctionne.
00:39:12 Et on a ce petit jeu
00:39:14 que je montre là si vous êtes sur YouTube.
00:39:16 Quand on veut
00:39:18 mettre à jour nos messages
00:39:20 on a ce geste d'aller vers le bas
00:39:22 et il y a un petit
00:39:24 petit rond qui load
00:39:26 les messages, qui charge les messages.
00:39:28 Et en fait c'est typique, c'est exactement ce geste
00:39:30 du joueur de la machine à sous.
00:39:32 On tire le levier vers le bas,
00:39:34 on voit
00:39:36 les images qui défilent
00:39:38 en attendant d'avoir le résultat final.
00:39:40 C'est exactement ça.
00:39:42 Et c'est conscient, c'est-à-dire qu'il faut savoir
00:39:44 que les gens qui ont pensé
00:39:46 ça sont partis
00:39:48 de ce constat que voilà, on allait faire appel
00:39:50 aux techniques qui existaient déjà dans les casinos
00:39:52 et donc ça marchait, donc on utilise ça.
00:39:54 C'est délibéré par exemple...
00:39:56 L'inventeur, pardon de vous interrompre,
00:39:58 l'inventeur du bouton "like" sur Facebook
00:40:00 qui s'appelle Julius Rosenstein
00:40:02 est désormais un repenti
00:40:04 et explique qu'il a
00:40:06 exploité précisément certaines failles
00:40:08 de notre cerveau pour nous rendre
00:40:10 accro à cette forme
00:40:12 de récompense qui est ce "like"
00:40:14 ce "like" en bas de nos postes.
00:40:16 Et tous ces boutons rouges
00:40:18 que nous avons en permanence, toutes ces sollicitations
00:40:20 visuelles qui sont là pour exciter notre
00:40:22 cerveau et nous donner
00:40:24 ces récompenses.
00:40:26 Et ça devient intéressant aussi, c'est de se rendre
00:40:28 compte qu'effectivement il y a des gens qui sont
00:40:30 brillants,
00:40:32 qui sont très bien payés pour passer leur temps
00:40:34 à savoir comment, quelle couleur va fonctionner,
00:40:36 quel est le meilleur timing pour nous envoyer
00:40:38 la notification et
00:40:40 que le jeu
00:40:42 n'est pas fait, n'est pas
00:40:44 égal, puisqu'en fait ce sont des gens qui ont
00:40:46 énormément d'informations
00:40:48 que nous n'avons pas sur la
00:40:50 manière dont nous fonctionnons. Ce qui m'amène
00:40:52 à parler de Facebook, évidemment,
00:40:54 plus en détail, donc "Meta"
00:40:56 maintenant, qui s'est renommé à la fois certainement pour
00:40:58 faire un peu oublier le nom de Facebook
00:41:00 et aussi pour se positionner, ce qu'on appelle le
00:41:02 "Metaverse", enfin voilà, c'est pareil,
00:41:04 c'est un procédé, en changeant le nom, ça nous amène
00:41:06 à regarder l'entreprise
00:41:08 différemment. Mais bref,
00:41:10 pour la Facebook, vous dites dans le livre que Facebook
00:41:12 est une innovation de rupture,
00:41:14 un outil doté d'une
00:41:16 capacité d'influence
00:41:18 inédite dans l'histoire de l'humanité.
00:41:20 Donc comment est-ce que
00:41:22 Facebook fonctionne, sachant que c'est une illustration
00:41:24 d'autres outils, mais c'est peut-être
00:41:26 l'outil le plus abouti, comment est-ce que
00:41:28 Facebook fonctionne, et pourquoi, dites-vous, c'est
00:41:30 une arme de manipulation massive
00:41:32 et aussi à la portée de
00:41:34 quiconque, avec un budget suffisant ?
00:41:36 Il ne faut
00:41:38 d'abord pas oublier que
00:41:40 Mark Zuckerberg est fils de psychiatre
00:41:42 et a étudié la psychologie à Harvard.
00:41:44 Et qu'il a
00:41:46 dès février 2004
00:41:48 exploité ses connaissances de la
00:41:50 psychologie humaine à des fins de manipulation
00:41:52 pour parvenir à persuader ses camarades
00:41:54 féminines à Harvard
00:41:56 de s'inscrire sur
00:41:58 The Facebook, ce qui s'appelait The Facebook à l'époque,
00:42:00 mettre leurs photos de profil,
00:42:02 indiquer leur numéro de téléphone portable,
00:42:04 indiquer également leur orientation
00:42:06 sexuelle et leur situation sentimentale.
00:42:08 Avant février 2004,
00:42:10 personne ne se promenait dans les rues avec une
00:42:12 porte-carte indiquant "Bonjour, je m'appelle David,
00:42:14 je suis hétérosexuel, marié".
00:42:16 Ça n'existe pas. Et voici mon numéro
00:42:18 de téléphone portable et mes photos de vacances.
00:42:20 Quelqu'un qui finissait rapidement à l'asile.
00:42:22 Ça c'est le premier point.
00:42:24 Il y a eu une intention délibérée dès le départ
00:42:26 d'exploiter un certain nombre de caractéristiques
00:42:28 psychologiques humaines
00:42:30 pour le succès de cette plateforme
00:42:32 et puis ensuite il y a eu le piratage
00:42:34 de croissance que j'évoquais, puis le tournant se produit
00:42:36 en 2007. Lorsqu'il s'agit
00:42:38 pour Zuckerberg
00:42:40 de monétiser sa plateforme
00:42:42 qui n'est pas encore la première,
00:42:44 MySpace est devant en nombre d'utilisateurs
00:42:46 et
00:42:48 il s'appuie sur
00:42:50 les innovations de Google
00:42:52 en matière de
00:42:54 ciblage publicitaire.
00:42:56 Et,
00:42:58 du jour au lendemain, est créé
00:43:00 ce que l'on appelle alors
00:43:02 chez Facebook le "graph social"
00:43:04 qui consiste
00:43:06 à enregistrer
00:43:08 et analyser les interactions
00:43:10 sociales entre les utilisateurs de Facebook.
00:43:12 La grande particularité de Facebook
00:43:14 par rapport à Google, c'est précisément que c'est un réseau social.
00:43:16 On connaît
00:43:18 la nature de vos liens
00:43:20 avec telle ou telle personne, votre degré
00:43:22 d'amitié, de proximité, etc.
00:43:24 Et, il ouvre
00:43:26 la plateforme à des développeurs extérieurs
00:43:28 sur une API qui permet
00:43:30 aussi d'accélérer le rythme
00:43:32 de l'innovation en permettant
00:43:34 aux développeurs
00:43:36 de capter des données de leur côté, des utilisateurs
00:43:38 et de leurs amis, mais aussi à Facebook
00:43:40 de capter les données
00:43:42 produites par ces développeurs
00:43:44 et de capter aussi certaines de leurs idées.
00:43:46 Comment est-ce que Facebook
00:43:48 procède ? C'est assez simple en réalité.
00:43:50 D'abord,
00:43:52 le métier de Facebook, comme Zuckerberg
00:43:54 l'a dit, c'est d'apprendre. D'apprendre de qui ?
00:43:56 Des utilisateurs, c'est-à-dire
00:43:58 des êtres humains, de leurs interactions.
00:44:00 Cet apprentissage
00:44:02 repose sur des
00:44:04 outils qui suivent
00:44:06 les principales
00:44:08 démarches de ce que l'on appelle l'apprentissage machine.
00:44:10 Il y a d'abord
00:44:12 la démarche inductive.
00:44:14 Vous allez inférer des probabilités
00:44:16 sur la base des données disponibles
00:44:18 quant au comportement des individus,
00:44:20 déterminer des caractéristiques personnelles
00:44:22 sur la base de leurs comportements
00:44:24 sur les réseaux sociaux. Il y a une démarche
00:44:26 déductive qui consiste
00:44:28 à réaliser des expériences sur
00:44:30 les utilisateurs, ce qui est parfaitement légal,
00:44:32 puisque ça fait partie des conditions d'utilisation
00:44:34 de Facebook. Nous acceptons, quand nous utilisons
00:44:36 Facebook, d'être sujet à des
00:44:38 expériences pour, je cite, "améliorer la qualité
00:44:40 du service".
00:44:42 Et puis enfin, il y a ce que l'on appelle
00:44:44 communément l'intelligence
00:44:46 artificielle, c'est-à-dire le deep learning,
00:44:48 l'apprentissage profond, qui consiste
00:44:50 à détecter en temps réel
00:44:52 des visages, identifier des gens,
00:44:54 détecter des émotions,
00:44:56 détecter des traits de personnalité.
00:44:58 Facebook
00:45:00 innove
00:45:02 par l'échelle.
00:45:04 On parle de 3 milliards d'utilisateurs,
00:45:06 près de 2 milliards d'utilisateurs
00:45:08 quotidiens connectés,
00:45:10 50 minutes par jour en moyenne.
00:45:12 L'ampleur des données collectées
00:45:14 qui ne se résument pas
00:45:16 aux données produites par l'utilisation de
00:45:18 Facebook, mais qui
00:45:20 reposent sur des données
00:45:22 gigantesques collectées par des partenariats,
00:45:24 notamment avec des courtiers
00:45:26 en données, notamment avec des fabricants
00:45:28 de téléphones, notamment avec des développeurs
00:45:30 d'applications, et
00:45:32 des accords avec certains
00:45:34 services aussi.
00:45:36 Et, outre l'échelle,
00:45:38 il y a cette
00:45:40 possibilité absolument
00:45:42 démentielle
00:45:44 qui est de tester
00:45:46 en temps réel
00:45:48 l'influence
00:45:50 de la plateforme sur le comportement
00:45:52 des individus. Facebook, au début
00:45:54 des années 2000, avait publié certaines études absolument
00:45:56 fascinantes, il y en avait qui parlaient
00:45:58 sur l'influence de Facebook sur la participation
00:46:00 aux élections aux États-Unis.
00:46:02 Et deux études ont été
00:46:04 publiées qui vont dans le même sens,
00:46:06 à savoir que Facebook peut influencer
00:46:08 la participation électorale
00:46:10 tout simplement par un petit nudge,
00:46:12 une petite boîte de dialogue qui rappelle
00:46:14 aux utilisateurs qu'il y a
00:46:16 une élection pour
00:46:18 les encourager à...
00:46:20 Et que leurs amis ont déjà voté, etc.
00:46:22 Voilà, dire qu'ils ont déjà voté, dire où ils peuvent
00:46:24 aller voter. Seulement,
00:46:26 le pouvoir de Facebook
00:46:28 en la matière,
00:46:30 c'est de pouvoir croiser ce petit nudge
00:46:32 avec la connaissance des utilisateurs.
00:46:34 En théorie, Facebook
00:46:36 peut choisir de ne montrer
00:46:38 ce petit dispositif
00:46:40 qu'à une partie des électeurs.
00:46:42 Et
00:46:44 peut par conséquent
00:46:46 influencer une élection en dehors
00:46:48 de tout contrôle démocratique, parce que, en l'occurrence,
00:46:50 ce que l'on sait, c'est qu'il n'y a
00:46:52 pas de contrôle démocratique, ni aucun
00:46:54 véritable contrôle éthique sur
00:46:56 ce qui est fait par
00:46:58 les ingénieurs
00:47:00 de Facebook.
00:47:02 Donc, c'est un outil
00:47:04 qui, enfin, a une caractéristique qui me
00:47:06 semble absolument extraordinaire,
00:47:08 c'est que chaque avancée en matière
00:47:10 de connaissance de l'esprit humain,
00:47:12 ou chaque avancée en matière
00:47:14 d'analyse prédictive du comportement humain
00:47:16 donne lieu à des brevets,
00:47:18 et à une utilisation commerciale.
00:47:20 Le Wall Street Journal
00:47:22 a récemment, ou Washington Post,
00:47:24 je ne sais plus,
00:47:26 je crois que c'était Wall Street Journal,
00:47:28 a publié un article sur
00:47:30 le métaverse dont vous parliez tout à l'heure,
00:47:32 et les brevets relatifs au métaverse.
00:47:34 Les premiers brevets
00:47:36 qui ont été publiés par Meta
00:47:38 en vue du métaverse sont des brevets
00:47:40 sur l'exploitation
00:47:42 de nos mensurations.
00:47:44 Autrement dit,
00:47:46 le métaverse s'inscrit
00:47:48 toujours dans la même perspective
00:47:50 qui est la monétisation
00:47:52 de nos données,
00:47:54 l'exploitation de nos
00:47:56 existences et de nos comportements.
00:47:58 C'est un point important, et peut-être
00:48:00 un dire deux mots, sur
00:48:02 cette histoire de monétisation
00:48:04 qui était aussi la fin de la question,
00:48:06 qu'il faut bien comprendre
00:48:08 que Facebook, le business
00:48:10 de Facebook, c'est l'économie de l'attention.
00:48:12 Et que leur but,
00:48:14 comme la plupart des entreprises,
00:48:16 c'est de faire
00:48:18 de l'argent, de faire du chiffre,
00:48:20 de dégager des bénéfices,
00:48:22 donc pour ça, ils jouent sur...
00:48:24 Le jeu c'est de capter notre attention
00:48:26 pour pouvoir la revendre au plus offrant.
00:48:28 Donc dans la question,
00:48:30 ils disaient à quiconque un budget suffisant.
00:48:32 C'est-à-dire que
00:48:34 la finalité, en fait,
00:48:36 ce n'est pas que Facebook
00:48:38 va nous manipuler
00:48:40 dans le but
00:48:42 de soutenir un agenda caché
00:48:46 de Zuckerberg. La finalité, c'est de pouvoir
00:48:48 offrir ça
00:48:50 à qui a le budget suffisant.
00:48:52 Ce qui m'amène à parler de...
00:48:54 On pourra dire deux mots là-dessus, sur ce qu'est l'économie
00:48:56 d'attention, mais ce qui m'amène à parler de Cambridge Analytica
00:48:58 qui illustre, qui a un scandale qui est sorti
00:49:02 dont on va dire deux mots, qui illustre la puissance
00:49:04 de l'outil Facebook, l'influence que
00:49:06 peut avoir cet outil quand il est mis
00:49:08 avec les bons budgets
00:49:10 dans les mains de certaines personnes qui savent
00:49:12 l'utiliser, donc pour
00:49:14 influencer une élection. Est-ce qu'on peut
00:49:16 parler de Cambridge Analytica et aussi
00:49:18 parler du personnage de Steve Bannon
00:49:20 qui est très représentatif aussi
00:49:22 de notre époque et qui va nous permettre
00:49:24 de parler des médias américains ?
00:49:26 Je voudrais d'abord préciser
00:49:28 qu'à mon sens,
00:49:30 on est bien au-delà de l'économie de l'attention
00:49:32 dans la mesure où
00:49:34 comme Shoshana Zoubov l'a remarquablement
00:49:36 montré dans son livre "Le capitalisme
00:49:38 de surveillance", ce
00:49:40 à quoi on a à faire, c'est un marché de comportement
00:49:42 futur. Ce qu'achète un publicitaire,
00:49:44 ce n'est pas du temps de cerveau disponible comme
00:49:46 on le fait à la télévision
00:49:48 selon la formule de Patrick Lelay.
00:49:50 Ce que l'on achète avec Facebook,
00:49:52 c'est la promesse
00:49:54 que les utilisateurs adopteront
00:49:56 le comportement voulu, ce qui va
00:49:58 beaucoup plus loin dans la
00:50:00 mesure où ce comportement
00:50:02 peut être
00:50:04 encouragé de diverses
00:50:06 manières par les outils publicitaires
00:50:08 ciblés qui ont été
00:50:10 élaborés. Alors, Steve Bannon
00:50:12 est un personnage absolument fascinant, sans doute
00:50:14 aujourd'hui encore l'un des plus grands
00:50:16 manipulateurs au monde. On lui doit
00:50:18 le Brexit, on lui doit
00:50:20 l'élection de Donald Trump, on lui
00:50:22 doit l'insurrection du 6 janvier
00:50:24 2021 à Washington
00:50:26 DC au Capitol, on lui doit
00:50:28 l'essentiel de la propagande
00:50:30 climato-sceptique sur Facebook
00:50:32 et ailleurs à travers Breitbart,
00:50:34 on lui doit aussi l'instrumentalisation
00:50:36 d'un certain nombre de théories du complot à des
00:50:38 fins politiques, à commencer par le mouvement QAnon
00:50:40 aux Etats-Unis. Les antivaxxants, actuellement ?
00:50:42 Les antivaxxants,
00:50:44 tout ce que vous voulez,
00:50:46 toute théorie du complot est bonne à prendre lorsqu'elle
00:50:48 est instrumentalisable
00:50:50 à des fins politiques pour quelqu'un
00:50:52 comme Bannon. Parce que Bannon
00:50:54 en 2005 a fait
00:50:56 une expérience tout à fait extraordinaire,
00:50:58 il avait
00:51:00 un intérêt financier dans une société
00:51:02 qui s'appelait IGE à Hong Kong
00:51:04 qui était une société spécialisée
00:51:06 dans la vente
00:51:08 à des clients occidentaux
00:51:10 de profils de joueurs
00:51:12 sur World of Warcraft, profils
00:51:14 qui étaient générés par des salariés
00:51:16 chinois qui donc jouaient toute la
00:51:18 journée et ensuite les profils
00:51:20 étaient revendus pour des clients
00:51:22 pressés qui ne voulaient pas
00:51:24 faire le jeu dans son intégralité.
00:51:26 Les
00:51:28 joueurs de World of Warcraft,
00:51:30 les vrais joueurs,
00:51:32 considéraient que cette triche était inacceptable,
00:51:34 ils se sont mobilisés
00:51:36 sur Internet et ils ont eu gain de cause,
00:51:38 faisant perdre de l'argent
00:51:40 à Bannon et faisant perdre de l'argent
00:51:42 à Goldman Sachs, l'ancien employeur
00:51:44 de Bannon que Bannon avait impliqué dans cette affaire.
00:51:46 Mais Bannon
00:51:48 a réalisé
00:51:50 à cette occasion-là
00:51:52 que ces forums
00:51:54 de joueurs
00:51:56 étaient
00:51:58 instrumentalisables
00:52:00 à des fins politiques.
00:52:02 Il a eu l'intuition
00:52:04 que l'on pouvait faire
00:52:06 de ces jeunes hommes blancs
00:52:08 en colère, s'agissant des joueurs américains,
00:52:10 une armée
00:52:12 au service, pensait-il, à l'époque
00:52:14 du Tea Party, puis
00:52:16 de Donald Trump, et Bannon
00:52:18 est allé beaucoup plus loin puisque
00:52:20 avec l'aide de
00:52:22 Robert Mercer, le milliardaire qui a
00:52:24 financé beaucoup de ses activités à l'époque,
00:52:26 il a conçu un écosystème
00:52:28 d'information,
00:52:30 plus exactement de désinformation
00:52:32 d'un type tout à fait nouveau
00:52:34 qui reposait
00:52:36 notamment sur deux
00:52:38 piliers. Le pilier Breitbart
00:52:40 qui existe encore
00:52:42 et le pilier Cambridge Analytica.
00:52:44 Le pilier Cambridge Analytica
00:52:46 était
00:52:48 un outil d'analyse comportementale
00:52:50 conçu par des équipes
00:52:52 d'une société britannique
00:52:54 qui travaillait depuis très longtemps
00:52:56 dans la guerre psychologique
00:52:58 au profit de services de renseignement
00:53:00 occidentaux, en particulier en Afrique,
00:53:02 et
00:53:04 l'idée de Bannon
00:53:06 était de se servir de cet outil d'abord
00:53:08 pour modéliser les comportements politiques
00:53:10 par des outils
00:53:12 d'analyse
00:53:14 d'apprentissage profond,
00:53:16 des outils algorithmiques,
00:53:18 et ensuite de cibler
00:53:20 un certain nombre d'individus
00:53:22 en fonction de caractéristiques
00:53:24 psychologiques,
00:53:26 afin précisément d'exploiter
00:53:28 ces caractéristiques psychologiques
00:53:30 pour orienter
00:53:32 leur comportement électoral.
00:53:34 C'est un outil
00:53:36 d'une précision remarquable,
00:53:38 un outil d'une discrétion absolue
00:53:40 puisqu'il repose sur des dispositifs
00:53:42 publicitaires qui sont invisibles
00:53:44 au grand jour, en particulier ce que l'on appelle
00:53:46 les "dark ads" de Facebook
00:53:48 qui sont adressés à un utilisateur
00:53:50 que seul l'utilisateur voit
00:53:52 et qui disparaissent lorsque
00:53:54 l'utilisateur a vu
00:53:56 la publicité en question,
00:53:58 et ce sont des outils qui
00:54:00 aujourd'hui tentent à se
00:54:02 généraliser, même si comme
00:54:04 Rige Analytica a disparu.
00:54:06 Donc on
00:54:08 pourrait faire un épisode entier sur
00:54:10 cette thématique et sur Facebook, mais je voudrais
00:54:12 parler aussi d'autre chose, puisqu'on a vu
00:54:14 les techniques
00:54:16 de persuasion moderne reposent
00:54:18 sur des dispositifs qui abolissent
00:54:20 le libre arbitre,
00:54:22 qui, je vous cite, "annulent le
00:54:24 jugement personnel et soumettent à leur insu les
00:54:26 individus à la volonté
00:54:28 des maîtres de la manipulation et
00:54:30 de leurs commanditaires".
00:54:32 Puisque vous avez évoqué les milliardaires, derrière
00:54:34 il y a aussi des intérêts, même si
00:54:36 ce ne sont pas des gens qui manipulent.
00:54:38 Donc on est donc très loin de l'époque
00:54:40 où seules les techniques de rhétorique comptée
00:54:42 qui sont finalement
00:54:44 très visibles
00:54:46 et par ailleurs on ne voit plus du tout
00:54:48 quand on est manipulé
00:54:50 et qui nous manipule.
00:54:52 Je voudrais aussi parler du rôle de la télévision
00:54:54 qui reste malgré tout un média extrêmement
00:54:56 important. C News est
00:54:58 devenue, je crois, la première chaîne d'info
00:55:00 de France,
00:55:02 si je ne me trompe pas.
00:55:04 Première chaîne d'information en continu, oui,
00:55:06 en termes d'audience.
00:55:08 C News est calqué sur le modèle de
00:55:10 Fox News aux Etats-Unis.
00:55:12 Qu'est-ce qu'il faut comprendre
00:55:14 de ce modèle et de comment
00:55:16 il structure le
00:55:18 rapport au monde de millions
00:55:20 d'Américains, pour le cas de Fox News,
00:55:22 et comment ça est en train de structurer
00:55:24 le rapport au monde de millions de Français ?
00:55:26 À
00:55:28 l'origine de Fox News, il y a Roger Ells
00:55:30 et puis Rupert Murdoch
00:55:32 qui a financé son lancement.
00:55:34 Fox News a été créé
00:55:36 en 1996 mais Roger Ells avait d'ores et
00:55:38 déjà une très longue expérience de consultant
00:55:40 en communication télévisuelle.
00:55:42 Il a, pour aller vite,
00:55:44 fait l'élection ou la réélection de quatre présidents
00:55:46 des Etats-Unis. Le premier d'entre eux c'était Richard Nixon
00:55:48 en 68
00:55:50 qui avait un gros problème
00:55:52 qui ne passait pas du tout bien
00:55:54 enfin il passait très mal à la télévision
00:55:56 la télévision, c'est à cause de la télévision
00:55:58 qu'il avait perdu l'élection en 1960.
00:56:00 Je me souviens du débat avec Kennedy.
00:56:02 Le débat avec Kennedy
00:56:04 la télévision également lui a fait perdre
00:56:06 le poste de gouverneur en
00:56:08 62 en Californie
00:56:10 et l'équipe
00:56:12 de Nixon
00:56:14 dont Ells a fait partie
00:56:16 a eu une idée
00:56:18 qui était
00:56:20 de s'appuyer sur la télévision pour construire
00:56:22 une image de la réalité du candidat
00:56:24 précisément distincte
00:56:26 de la réalité. Construire
00:56:28 l'image d'un candidat à l'aise
00:56:30 qui dialogue, qui répond
00:56:32 d'un candidat pour lequel
00:56:34 on a envie de voter. Ce qui
00:56:36 reposait sur un certain nombre de stratagèmes
00:56:38 que je n'ai pas le temps de développer en détail mais
00:56:40 qui a influencé
00:56:42 fondamentalement la conception que
00:56:44 Roger Ells avait d'une chaîne de télévision
00:56:46 à savoir qu'à ses yeux
00:56:48 il s'est toujours agi d'un outil
00:56:50 de propagande afin
00:56:52 d'agir sur
00:56:54 ses téléspectateurs
00:56:56 pour les rendre accros
00:56:58 pour les rendre
00:57:00 fidèles, loyaux, engagés
00:57:02 ce qui caractérise
00:57:04 jusqu'à nos jours le public
00:57:06 de Fox News
00:57:08 et pour le
00:57:10 cas échéant les mobiliser
00:57:12 soit électoralement
00:57:14 soit socialement.
00:57:16 Facebook a été
00:57:18 orchestrateur de mouvements
00:57:20 sociaux en 2009
00:57:22 avec le Tea Party
00:57:24 des manifestations antifiscales à Washington
00:57:26 qui réunissait des dizaines de milliers de manifestants
00:57:28 et il s'agit
00:57:30 de servir
00:57:32 un discours politique
00:57:34 bien déterminé. Ce qui
00:57:36 distingue
00:57:38 Fox News de ses
00:57:40 concurrents, même orientés
00:57:42 politiquement en faveur
00:57:44 des démocrates dans la mesure
00:57:46 où on est loin
00:57:48 du respect de l'éthique
00:57:50 journalistique traditionnelle.
00:57:52 Vous citez ces
00:57:54 news, je ne sais pas s'il y a eu une volonté délibérée
00:57:56 de calquer. En tout cas
00:57:58 il est clair qu'on est
00:58:00 très proche du modèle de
00:58:02 Fox News à travers la fusion
00:58:04 de l'information et du divertissement
00:58:06 à travers également un choix
00:58:08 éditorial qui consiste à privilégier
00:58:10 un certain nombre de thèmes
00:58:12 tels que la question du
00:58:14 wokisme, la question de l'immigration
00:58:16 etc.
00:58:18 afin d'agir sur
00:58:20 un type de public
00:58:22 bien particulier qu'il s'agit en quelque sorte
00:58:24 de fédérer. C'est une forme de télévision
00:58:26 de niche, c'est-à-dire qu'on ne va pas
00:58:28 chercher à gagner
00:58:30 l'ensemble de la population. En revanche
00:58:32 il s'agit de fidéliser un petit nombre
00:58:34 de téléspectateurs, un petit nombre, quelques
00:58:36 millions peut-être, centaines de milliers
00:58:38 de téléspectateurs qui sont particulièrement
00:58:40 engagés et qui peuvent être mobilisés
00:58:42 électoralement, socialement
00:58:44 ou politiquement. Je crois que j'avais vu passer
00:58:46 un chiffre récemment qui disait qu'autour
00:58:48 de 90% avaient richi
00:58:50 mais dans cet ordre
00:58:52 d'idées
00:58:54 de ceux qui regardaient
00:58:56 des téléspectateurs qui regardaient Fox News
00:58:58 étaient convaincus que l'élection
00:59:00 américaine avait été volée à Donald Trump.
00:59:02 Donc ça illustre bien
00:59:04 cette idée que ça porte
00:59:06 sur l'idéologie et que ça
00:59:08 c'est très ciblé.
00:59:10 Au-delà de l'idéologie, il y a
00:59:12 l'idée de déconnecter
00:59:14 totalement les individus de la réalité
00:59:16 empirique.
00:59:18 Il ne s'agit pas tant de les informer
00:59:20 que de leur donner le sentiment qu'ils sont
00:59:22 informés. Et c'est ça qui est
00:59:24 absolument tragique dans le cas de Fox News
00:59:26 dans la mesure où cela
00:59:28 conduit à l'adoption
00:59:30 sans réflexion de théories
00:59:32 du complot. De très nombreuses
00:59:34 études ont été publiées ces 20 dernières années
00:59:36 à ce propos. Et c'est
00:59:38 quelque chose que nous pourrions connaître
00:59:40 bientôt en France
00:59:42 également. Oui, puisque les stratégies sont les mêmes
00:59:44 un peu partout. On voit ce modèle-là
00:59:46 se répliquer dans énormément de pays
00:59:48 en Inde,
00:59:50 en Angleterre, on l'a vu avec le Brexit,
00:59:52 donc la France n'est absolument pas à l'abri.
00:59:54 Je voudrais...
00:59:56 Collectivement,
00:59:58 aujourd'hui, c'est quelque chose qui m'inquiète parce que nous sommes
01:00:00 face à des défis finalement
01:00:02 gigantesques qui exigent
01:00:04 de nous des choix difficiles.
01:00:06 Or, on le voit,
01:00:08 les opinions de millions
01:00:10 de personnes, de tout le monde,
01:00:12 sont manipulées
01:00:14 en vue de satisfaire soit des intérêts
01:00:16 économiques, soit des choix
01:00:18 politiques. C'est l'agenda de certaines personnes.
01:00:20 C'est le principe de fonctionnement
01:00:22 de ces plateformes
01:00:24 et de ces médias dont on vient de parler.
01:00:26 Est-ce qu'on a encore la main ?
01:00:28 Est-ce que
01:00:30 nos démocraties
01:00:32 sont-elles pas devenues
01:00:34 des farces, des pièces
01:00:36 de théâtre, comme certains disent, qui nous donnent
01:00:38 l'illusion du choix, alors
01:00:40 qu'en fait, tout est décidé par
01:00:42 quelques-uns,
01:00:44 ces hommes de l'ombre,
01:00:46 qui... Nos comportements nous sont dictés
01:00:48 par des gens qu'on ne connaît pas. Et comme
01:00:50 nos comportements sont dictés, du coup, l'avenir
01:00:52 de nos démocraties est aussi
01:00:54 dicté quelque part. Qu'est-ce que vous pensez de cette
01:00:56 idée ?
01:00:58 Je pense que l'on n'en est pas tout à fait
01:01:00 là,
01:01:02 mais que l'on en prend le
01:01:04 chemin, en particulier
01:01:06 en raison de la concentration
01:01:08 extrême des
01:01:10 médias et du divertissement entre les mains
01:01:12 de quelques personnes
01:01:14 qui n'ont pas nécessairement
01:01:16 l'information pour métier, mais
01:01:18 d'autres métiers qui les conduisent
01:01:20 à privilégier leurs intérêts économiques,
01:01:22 industriels ou commerciaux à travers
01:01:24 leurs médias, et puis, qui
01:01:26 naturellement ont une tendance
01:01:28 à chercher à exercer une
01:01:30 influence politique à travers
01:01:32 leurs médias. Et puis, le
01:01:34 deuxième phénomène à côté de cette concentration,
01:01:36 c'est l'essor sans précédent
01:01:38 du lobbying
01:01:40 d'un certain nombre d'industries.
01:01:42 Je songe aux industries polluantes
01:01:44 qui ont lancé une véritable
01:01:46 campagne contre l'environnement
01:01:48 et les environnementalistes depuis très longtemps
01:01:50 pour que
01:01:52 la question du réchauffement
01:01:54 climatique disparaisse purement
01:01:56 et simplement de l'agenda politique. En France,
01:01:58 j'ai l'impression que ça marche pas trop mal, dans la mesure
01:02:00 où pratiquement personne n'en parle
01:02:02 parmi les candidats et les
01:02:04 candidates à l'élection, qui sont pourtant
01:02:06 très nombreux. Et
01:02:08 il y a aussi
01:02:10 le lobbying des géants du numérique,
01:02:12 qui est un lobbying
01:02:14 d'une intensité extraordinaire,
01:02:16 jamais
01:02:18 rencontré à ce jour
01:02:20 dans notre histoire,
01:02:22 même au moment des négociations du RGPD,
01:02:24 et qui peut avoir
01:02:26 des conséquences délétères sur
01:02:28 l'évolution de nos démocraties.
01:02:30 Dans la mesure où le modèle qui est proposé
01:02:32 par ces géants du numérique
01:02:34 est précisément un modèle
01:02:36 de marché absolu
01:02:38 des comportements humains à l'échelle
01:02:40 de la planète, pour que rien
01:02:42 ne puisse échapper ni à la
01:02:44 captation de données numériques,
01:02:46 ni à l'exploitation de ces données numériques
01:02:48 à des fins d'analyse prédictive du comportement
01:02:50 et d'influence du comportement humain.
01:02:52 Donc, il est de
01:02:54 notre responsabilité collective
01:02:56 de refuser
01:02:58 cette évolution et d'encourager
01:03:00 les pouvoirs publics à prendre les mesures
01:03:02 qui s'imposent. Les mesures qui s'imposent
01:03:04 c'est bien évidemment la réglementation
01:03:06 des géants du numérique, peut-être le démantèlement
01:03:08 de ces géants aux États-Unis,
01:03:10 seuls les États-Unis peuvent le faire, l'interdiction
01:03:12 d'outils de manipulation massive,
01:03:14 la protection des données
01:03:16 des utilisateurs européens,
01:03:18 c'est peut-être aussi, comme le suggère
01:03:20 ma collègue Julia Cagé à
01:03:22 Science Po, économiste,
01:03:24 la refonte
01:03:26 totale du modèle de financement
01:03:28 de la vie politique, pour
01:03:30 démocratiser ce financement de la vie politique,
01:03:32 la refonte totale du modèle de
01:03:34 financement des médias, pour
01:03:36 permettre la renaissance
01:03:38 de grands médias,
01:03:40 de masse,
01:03:42 qui aient pour
01:03:44 visée fondamentale
01:03:46 l'intérêt de leurs lecteurs
01:03:48 et non pas quelques intérêts cachés, qu'il
01:03:50 s'agisse de ceux de leurs
01:03:52 propriétaires ou de leurs annonceurs
01:03:54 ou au cas échéant du gouvernement.
01:03:56 Mais faire ça,
01:03:58 ça suppose de
01:04:00 reprendre la main sur
01:04:02 le pouvoir politique.
01:04:04 Comment est-ce qu'on fait ça
01:04:06 dans un contexte
01:04:08 où Facebook existe toujours,
01:04:10 où, comme vous le disiez,
01:04:12 ce sont des milliardaires avec
01:04:14 certainement leur propre
01:04:16 intérêt en vue, qui détiennent
01:04:18 la majorité des médias ?
01:04:20 Est-ce que le système
01:04:22 n'est pas déjà
01:04:24 finalement trop
01:04:26 fermé ?
01:04:28 Je ne crois pas.
01:04:30 Quelle serait la stratégie pour
01:04:32 aboutir ? Est-ce qu'il faut interdire Facebook ?
01:04:34 Je vois que Metta parlait de quitter l'Europe d'ailleurs.
01:04:36 Je ne crois pas
01:04:38 un instant.
01:04:40 Ils ont annoncé pour la première fois
01:04:42 que le nombre de leurs utilisateurs est perdu
01:04:44 de 350 milliards de valorisation boursière.
01:04:46 Ils ne vont pas renoncer aux
01:04:48 centaines de millions d'utilisateurs européens.
01:04:50 En revanche, je pense qu'on peut
01:04:52 retourner un certain nombre de caractéristiques
01:04:54 de la technologie
01:04:58 contre les géants du numérique.
01:05:00 On peut retourner la pensée
01:05:04 de certains libertariens
01:05:06 à la tête de ces géants du numérique
01:05:08 contre eux. Ils ont
01:05:10 souvent en tête
01:05:12 le roman d'Einrand
01:05:14 que l'on a traduit en français
01:05:16 par "La grève"
01:05:18 "Atlas shrugged"
01:05:20 Einrand, dans son roman, imaginait ce qu'il
01:05:22 adviendrait si les entrepreneurs
01:05:24 les industriels
01:05:26 faisaient la grève, allaient se retirer sur une île
01:05:28 et bien évidemment, explique Einrand,
01:05:30 la société s'effondrait. Qu'arriverait-il
01:05:32 à Facebook ?
01:05:34 Google ?
01:05:36 Si nous refusions
01:05:38 d'utiliser
01:05:40 non seulement les outils numériques
01:05:42 mais le matériel numérique
01:05:44 porteur de manipulations.
01:05:46 La voie a été
01:05:48 ouverte par
01:05:50 Apple
01:05:52 lorsque il y a eu la révélation
01:05:54 de l'utilisation des outils de Facebook
01:05:56 pour du trafic d'êtres humains au Moyen-Orient.
01:05:58 Apple a dit à Facebook
01:06:00 "écoutez, vous réglez ce problème
01:06:02 ou sinon vous disparaissez de l'App Store".
01:06:04 Le problème a été réglé dans la journée.
01:06:06 Autrement dit,
01:06:08 pourquoi ne pas nous
01:06:10 exercer une pression sur les fabricants
01:06:12 pour
01:06:14 qu'ils nous proposent
01:06:16 des outils matériels
01:06:18 sur lesquels aucun logiciel
01:06:20 malveillant ne figure, sur lequel
01:06:22 on ne va pas voir nos
01:06:24 données GPS
01:06:26 consulter des centaines de fois par jour
01:06:28 pour alimenter des bases de données à l'autre bout
01:06:30 du monde. Autrement dit,
01:06:32 de la même façon qu'on a
01:06:34 utilisé un certain nombre de choses,
01:06:36 on pourrait concevoir un label éthique
01:06:38 en matière numérique
01:06:40 qui s'appliquerait à des produits
01:06:42 qui nous garantissent
01:06:44 d'être préservés
01:06:46 de la manipulation de masse. Et je suis certain
01:06:48 que si un tel outil existait,
01:06:50 nous serions nombreux
01:06:52 à l'acheter. Aujourd'hui, nous n'avons pas le choix.
01:06:54 Nous n'avons pas le choix.
01:06:56 Ce choix devrait exister. Et ce choix,
01:06:58 à mon sens, suffirait. Et puis, enfin,
01:07:00 il y a certaines solutions toutes simples.
01:07:02 La force
01:07:04 de la manipulation numérique
01:07:06 repose sur une caractéristique
01:07:08 de ces outils qui est
01:07:10 le fait que le code fait la loi
01:07:12 selon l'expression de Lawrence Lessig.
01:07:14 Autrement dit, les lignes
01:07:16 de code produisent des
01:07:18 effets immédiats et universels.
01:07:20 C'est immédiatement
01:07:22 et universellement que l'invention du like
01:07:24 a bouleversé nos vies. C'est
01:07:26 universellement et immédiatement
01:07:28 que l'invention du bouton partage
01:07:30 a décuplé
01:07:32 la quantité et l'impact
01:07:34 de la désinformation.
01:07:36 On peut partager sans bouton partage,
01:07:38 mais si le bouton partage
01:07:40 venait à disparaître, la
01:07:42 désinformation
01:07:44 disparaîtrait pratiquement. Ce n'est pas moi qui le dis,
01:07:46 ce sont les ingénieurs de Facebook
01:07:48 dans l'équipe de Frances Hogan
01:07:50 selon les documents qui ont été publiés,
01:07:52 enfin rendus publics, par
01:07:54 Frances Hogan.
01:07:56 Donc, on peut aussi espérer tout simplement
01:07:58 que les ingénieurs
01:08:00 défassent un certain nombre de ces dispositifs
01:08:02 et nous proposent
01:08:04 une forme
01:08:06 de persuasion éthique
01:08:08 qui ne repose pas sur l'exploitation
01:08:10 de nos faiblesses et nos fragilités
01:08:12 humaines. On arrive à la
01:08:14 fin. Individuellement,
01:08:16 un conseil pour être
01:08:18 moins manipulable, pour échapper
01:08:20 à ça, est-ce que ça veut dire
01:08:22 et l'arbitrage est souvent difficile parce que
01:08:24 c'est dur de renoncer
01:08:26 à une forme de confort et de facilité, c'est ça
01:08:28 qui nous piège souvent. Mais qu'est-ce que ça veut dire ?
01:08:30 Ça veut dire ne plus être sur les réseaux,
01:08:32 ça veut dire utiliser différents outils, quitter Gmail,
01:08:34 comment, qu'est-ce que vous faites vous
01:08:36 et qu'est-ce que vous recommandez ? Non, vous savez,
01:08:38 il est très difficile
01:08:40 de quitter ces outils dans la
01:08:42 mesure où ils sont devenus oligopolistiques
01:08:44 et incontournables
01:08:46 pour notre vie entière et quels que soient les outils
01:08:48 que nous utilisons, les données sont
01:08:50 au final récupérées par
01:08:52 Google, Meta et par d'autres.
01:08:54 Non, je pense que
01:08:56 il y a deux choses à faire.
01:08:58 Si on veut être moins manipulable,
01:09:00 la première, c'est
01:09:02 selon la formule du premier commandement
01:09:04 de Douglas Roushkoff, dans les dix commandements
01:09:06 du numérique,
01:09:08 ne pas être toujours "on",
01:09:10 c'est-à-dire se
01:09:12 réserver du temps "off".
01:09:14 Faire une petite expérience,
01:09:16 une journée sans téléphone portable, on réapprend
01:09:18 des choses extraordinaires, on réapprend
01:09:20 d'un point A à un point B, on réapprend
01:09:22 à se perdre. Se perdre, c'est
01:09:24 parfois bien, on fait des rencontres quand on
01:09:26 se perd, on découvre des choses quand on se perd.
01:09:28 On va au-delà
01:09:30 du chemin qui nous est tracé
01:09:32 par Waze ou par
01:09:34 tout autre outil de ce genre. Donc,
01:09:36 ne pas être toujours "on", c'est aussi
01:09:38 éteindre ses écrans une
01:09:40 heure avant de s'endormir, c'est de se
01:09:42 préserver du temps pour la lecture. Je ne parle pas
01:09:44 nécessairement de mon livre, c'est
01:09:46 se préserver du temps pour passer
01:09:48 des moments de qualité avec
01:09:50 sa famille. Je me surprends de temps en temps,
01:09:52 enfin même trop souvent, à scroller
01:09:54 sur Twitter en présence de mes
01:09:56 enfants, c'est pas quelque chose de... Oui, ne pas allumer
01:09:58 son téléphone avant
01:10:00 une certaine
01:10:02 heure d'atteint. Ne pas être toujours "on",
01:10:04 c'est aussi préserver certains espaces sans
01:10:06 numérique. Aucun
01:10:08 outil numérique dans la chambre à coucher,
01:10:10 aucun objet connecté
01:10:12 dans la chambre des enfants,
01:10:14 aucun objet qui vient
01:10:16 prélever des données à
01:10:18 l'abri de ses utilisateurs. Ça, je pense que c'est
01:10:20 une règle absolument fondamentale, préserver
01:10:22 un minimum d'espace
01:10:24 chez soi, à l'abri de la
01:10:26 collecte systématique de données.
01:10:28 Et puis enfin,
01:10:30 s'agissant de notre propre attitude à l'égard
01:10:32 des outils, je crois que
01:10:34 il faut
01:10:36 que nous réapprenions
01:10:38 à exploiter les potentialités de notre
01:10:40 cerveau. Daniel Kahneman, que vous citiez tout à
01:10:42 l'heure, distinguait le système M1,
01:10:44 intuitif, qui est souvent exploité
01:10:46 à des fins de manipulation numérique, et le système
01:10:48 2, qui n'est pas infaillible non plus,
01:10:50 réflexif, mais qui nous
01:10:52 préserve d'un certain nombre de réflexes
01:10:54 affectifs, qui
01:10:56 contribuent par exemple à la propagation
01:10:58 de la colère, de la haine,
01:11:00 des fausses informations sur les réseaux sociaux.
01:11:02 À chaque fois que nous sommes tentés de partager un
01:11:04 contenu sur la base
01:11:06 de ces sentiments,
01:11:08 la haine, la colère,
01:11:10 ou une extraordinaire joie,
01:11:12 prenons le temps de réfléchir, et demandons-nous
01:11:14 vraiment si nous avons
01:11:16 besoin de partager,
01:11:18 si ce partage est véritablement utile.
01:11:20 C'est un effort que je m'impose
01:11:22 personnellement, ce qui me conduit
01:11:24 à publier relativement peu et à partager
01:11:26 relativement peu de contenus,
01:11:28 mais si
01:11:30 nous développons cette attitude, nous pouvons
01:11:32 espérer réduire
01:11:34 la part et l'influence
01:11:36 et l'impact de la désinformation
01:11:38 sur les réseaux sociaux.
01:11:40 Je vais commencer par aller éteindre mon
01:11:42 "OK Google", mon enceinte connectée.
01:11:44 C'est pareil,
01:11:46 c'est l'invasion des objets connectés,
01:11:48 c'est la suite de ça.
01:11:50 Pour finir,
01:11:52 deux livres que,
01:11:54 en dehors des vôtres, qui seront
01:11:56 de toute façon référencés sur
01:11:58 sismic.fr, mais deux livres que vous
01:12:00 conseillez de lire absolument dans une vie.
01:12:02 Un roman, un essai, pas nécessairement
01:12:04 sur ces sujets-là, mais...
01:12:06 Je conseille de lire
01:12:08 "Toute l'œuvre" d'Anna Arendt.
01:12:10 Et...
01:12:12 Commencer par la condition humaine.
01:12:14 Et je
01:12:16 conseille ensuite un livre
01:12:18 beaucoup plus récent, mais qui me parlait
01:12:20 extrêmement important, de lire
01:12:22 le livre de Shoshana Zuboff,
01:12:24 "Le capitalisme de surveillance", qui est extraordinairement
01:12:26 épais, mais qui est une révélation
01:12:28 pour quiconque n'a pas
01:12:30 une connaissance intime de ces
01:12:32 enjeux de l'exploitation de nos données.
01:12:34 Merci beaucoup David,
01:12:36 c'était passionnant, merci.
01:12:38 Merci Julien,
01:12:40 à bientôt.
01:12:42 Je vais m'arrêter là, la prochaine fois que vous regarderez
01:12:44 les informations, ou que vous ferez défiler
01:12:46 votre fil Facebook, Twitter ou Instagram,
01:12:48 vous verrez peut-être les choses
01:12:50 un peu différemment. Personnellement,
01:12:52 je trouve assez difficile de décrocher les infos
01:12:54 alors qu'une guerre a lieu en Europe,
01:12:56 et que la situation peut dégénérer à tout moment,
01:12:58 mais j'essaie de prendre du recul par rapport aux images
01:13:00 et aux gros titres, du recul par rapport
01:13:02 à notre manque collectif de recul,
01:13:04 et de ne pas me laisser hypnotiser par la
01:13:06 machine médiatique. Je parviens aussi
01:13:08 maintenant un peu mieux à observer cette guerre
01:13:10 de propagande qui a lieu,
01:13:12 et il est d'ailleurs intéressant de voir que les organes de presse
01:13:14 russes ont été rapidement fermés,
01:13:16 tant il y a un enjeu important ici.
01:13:18 Les régimes totalitaires sont évidemment experts
01:13:20 en techniques de propagande, mais ce que
01:13:22 cette conversation nous rappelle, c'est que les démocraties,
01:13:24 par nature dépendantes
01:13:26 du consentement et des opinions,
01:13:28 sont aussi, et peut-être encore davantage,
01:13:30 le théâtre de jeu des grands manipulateurs.
01:13:32 Pour continuer
01:13:34 sur cette thématique, je vous propose d'écouter l'épisode
01:13:36 81 avec Elodie Miag-Zarek,
01:13:38 sur le thème du "bullshit"
01:13:40 et de l'importance des mots et des signes.
01:13:42 Et je vous laisse avec une citation.
01:13:44 "Ce que nous désignons toujours
01:13:46 par opinion publique ne repose
01:13:48 que pour une part minime sur l'expérience
01:13:50 personnelle et sur les connaissances
01:13:52 des individus. Par contre,
01:13:54 elle est en majeure partie suscitée
01:13:56 et cela avec une persévérance et une force
01:13:58 de persuasion, souvent remarquables
01:14:00 par ce qu'on appelle l'information.
01:14:02 De même que les convictions
01:14:04 religieuses de chacun sont issues de l'éducation
01:14:06 et que ce sont seulement les aspirations
01:14:08 religieuses qui sommeillent au cœur de l'homme,
01:14:10 ainsi l'opinion politique de la masse
01:14:12 est l'aboutissement d'une préparation
01:14:14 de l'âme et de l'esprit,
01:14:16 souvent incroyablement opiniatres et profondes."
01:14:18 Adolf Hitler.
01:14:20 A bientôt.
01:14:22 [Rires]
01:14:24 Changer le monde ?
01:14:26 Quelle drôle d'idée !
01:14:28 Il est très bien comme ça le monde, pourquoi changer ?
01:14:30 *Bruit de coup de pied*

Recommandations