Catégorie
📚
ÉducationTranscription
00:00 C'est pas un jeu, c'est une histoire.
00:02 [Musique]
00:05 [Musique]
00:07 [Musique]
00:22 [Musique]
00:24 [Musique]
00:26 [Musique]
00:28 [Musique]
00:57 [Musique]
01:15 Nous vivons dans un monde de persuasion de masse,
01:18 un monde de dark ads, de psy-op, de hack, de pot, de faits relatifs,
01:23 de deepfakes, de fake news, de trolls, une guerre contre l'objectivité et le concept même de réalité.
01:29 Salut, moi c'est Momochi, ça fait un moment depuis ma dernière vidéo,
01:33 mais c'est très bien, vous l'avez sûrement oubliée, comme ça vous pouvez retourner la voir.
01:37 La citation est pas de moi, c'est du livre "This is not propaganda" du Peter Pomerantsev.
01:42 Nous sommes dans une nouvelle version du vieux jeu de pouvoir,
01:46 contre les dissidents, la liberté d'expression, contre la censure,
01:49 mais c'est un jeu qui a complètement retourné les règles.
01:52 A notre époque, si vous avez une opinion différente du message officiel,
01:56 les méthodes classiques du genre le KGB qui fait une descente de voiture de nuit pour vous envoyer au goulag,
02:02 c'était plus trop tenable.
02:04 Alors à la place on a des formes plus subtiles de conflits et de subversions qui sont apparues.
02:09 Il y a ce concept de réalité alternative, ou l'ère post-factuelle, ou l'ère de post-vérité, un peu comme vous voulez,
02:17 où l'un des deux camps est accusé de désinformer, de manipuler la réalité.
02:22 Est-ce que vous avez déjà remarqué comme les événements, les infos, ont des explications complètement différentes
02:28 selon que vous les voyez sur la télévision ou que vous vous renseignez sur internet ?
02:33 Ça veut dire qu'une des deux explications est fausse la plupart du temps.
02:37 Donc quelqu'un invente une réalité, mais qui aurait intérêt à inventer une réalité ?
02:42 À peu près tout le monde, parce que c'est avoir un pouvoir sur vous.
02:46 Donc si ce n'est pas vos parents ou votre boss, ce sera un vendeur Amazon, des politiciens, ou bien votre petite amie.
02:53 Prenez par exemple les filtres Snapchat.
02:55 Au début c'était des fausses lunettes de soleil et des oreilles de chien un peu moches, et maintenant c'est devenu ça.
03:02 Ce filtre m'a fait peur.
03:04 Vous voulez voir ce que je ressemble vraiment ?
03:07 Je sais que les gens pensent que c'est amusant, mais je pense qu'ils sont vraiment dangereux pour la société.
03:12 C'est juste mon 2 cents.
03:14 Je pense qu'ils ressemblent vraiment. Ce filtre est fou.
03:17 Regarde, c'est tellement réel.
03:20 Donc quand je prends une photo et je les montre à l'arrière de la caméra et qu'ils ressemblent à ça,
03:24 ils sont dévastés.
03:26 Ils sont dévastés.
03:28 Ils utilisent ces filtres, et c'est leur base.
03:31 Ce n'est pas sain.
03:33 Ma déficience va exploser.
03:38 Ma compétence va tomber.
03:42 Oh, ça a fait un coup.
03:45 Vous voyez ce que ça donne maintenant ?
03:47 On a tellement amélioré les filtres que maintenant ça suit presque parfaitement les mouvements de votre visage.
03:52 Ça vous transforme en vous, en plus jeune, en plus beau.
03:56 Il faut que le virtuel soit mieux que la vraie vie.
03:59 Vous devez avoir votre jumeau numérique.
04:02 Dans l'ensemble, vous pensez que ça va donner quoi, l'impact sur la masse des gens ou sur les générations qui viennent ?
04:09 On nous pousse constamment dans le virtuel.
04:11 On nous habitue à préférer une fausse réalité.
04:14 Mon deepfake préféré, c'est celui-là.
04:17 Imaginez vous draguer une jolie fille sur le net, mais c'est un mec qui a l'air d'avoir une serviette bleue sur la tête.
04:29 C'est exactement ça.
04:31 C'est le logiciel ROOP.
04:33 Il y a plein de deepfakes maintenant où vous pouvez vous faire passer pour une fille sans problème.
04:37 Maintenant que vous pouvez faire une réunion zoom avec la tête de quelqu'un d'autre,
04:42 imaginez qu'on utilise ça pour se faire passer pour votre chef au boulot.
04:46 C'est arrivé dans une boîte en 2019.
04:49 Quelqu'un avait évité la voix du chef de la maison mère et ils ont fait un virement de 240 000 dollars.
04:58 Le concept même de réalité est en train d'être attaqué.
05:01 Ça veut dire quoi maintenant la réalité en 2023 ?
05:05 Certains vous diront que ce que la majorité pense être vrai, c'est la vérité, c'est la réalité.
05:10 Mais est-ce que vous êtes sûr de ça ?
05:12 Parce que si c'est l'opinion de la majorité qui compte, alors oubliez les faits objectifs.
05:17 Dans ce cas, c'est juste une question d'avoir assez de moyens pour raconter une histoire pour que la majorité y croie.
05:24 Il y a une pièce de théâtre qui s'appelle Gaslight de 1939
05:28 où un mari manipulait sa femme pour lui faire croire qu'elle devenait folle.
05:32 Oui, là vous avez un extrait de la version adaptée en film.
05:35 Il cachait des objets pour qu'elle ne les retrouve plus.
05:38 Il baissait la lumière du gaz dans les lampes pour qu'elle ait l'impression que la lumière est baissée
05:43 mais qu'il lui disait "non, non, non, il ne se passe rien du tout".
05:46 Il faisait ça pour qu'elle perde confiance dans sa mémoire, sa perception.
05:50 Il terre mais resté. Gaslighting.
05:52 Donc on peut manipuler la réalité d'une personne si vous contrôlez son environnement.
05:58 Mais pour toute une population, vous me direz "ouais, ok, c'est un peu compliqué mais c'est peut-être juste une question de moyens".
06:05 Edward Bernays par exemple était un des premiers à expliquer comment on pouvait influencer un groupe de gens.
06:11 Il disait que si vous mettez le même stimulu devant des millions de gens, la plupart auront la même réaction.
06:16 Donc l'idée c'est de créer les mêmes images dans l'esprit des gens.
06:20 Et il en parle très bien dans ses livres "Crystalliser l'opinion publique" en 1923 et "Propaganda" en 1928.
06:27 Donc Bernays a développé ce concept d'influence de groupe.
06:31 Et bien sûr ça a été utilisé en marketing mais ce genre de choses finit toujours en politique.
06:36 Ne me demandez pas pourquoi.
06:38 Et Bernays explique que chaque pays est une machine trop compliquée.
06:42 Donc il faut quelqu'un qui nous aide à mettre en avant les problèmes les plus importants.
06:46 Par exemple pour voter.
06:48 Et Bernays appelait ça le "gouvernement invisible".
06:51 Donc l'idée est flippante oui, mais il ne fait que décrire ce que c'est vraiment une démocratie.
06:57 Il y a vraiment des groupes de gens qui dirigent gentiment l'esprit du public.
07:01 Vous connaissez les politiciens, les journalistes.
07:04 Donc si vous voulez influencer une population entière, c'est le groupe parfait pour faire ça.
07:08 Mais vous allez devoir construire une architecture d'influence.
07:11 Vous ne pouvez pas juste avoir une seule source.
07:14 Donc on a commencé par les journaux, et puis la radio, et maintenant vous avez la télévision.
07:18 Donc vous créez les contenus pour dire ce qui est important,
07:22 puis pour distraire, vous les diffusez, vous mettez des commentateurs qui disent quelles nouvelles méritent votre attention ou pas.
07:29 Et puis quand il ne se passe rien d'intéressant, vous fabriquez des pseudo-événements.
07:34 Mais tout ça sont des petites sources concentrées qui ont un message unique,
07:39 et qui peuvent envoyer un message à des millions de gens.
07:42 Donc notez que si vous voulez convaincre un groupe, il faudra utiliser la répétition, le nudge, la suggestion,
07:50 parce que personne n'aime avoir des ordres.
07:52 Ajoutez aussi les célébrités, les stars, vous pouvez starifier les présentateurs de télévision.
07:57 Tout ça sont des fabrications, des médias mis en avant pour répondre à notre besoin de fiction,
08:02 nous distraire et nous influencer.
08:04 Vous me direz "oui mais plus personne ne regarde la télé".
08:07 Et oui, vous avez raison.
08:09 Bon, il y a quand même encore vos parents, vos collègues sûrement qui regardent encore BFM.
08:14 Mais maintenant c'est vrai que c'est internet.
08:16 Alors on fait comment pour faire de l'influence sur internet ?
08:19 Parce qu'a priori, il y a un nombre de sites web infini et supposément complètement libre.
08:23 Pour arriver à ça, vous devez concentrer le trafic.
08:26 Vous devez amener l'ensemble des masses sur les mêmes sites et fabriquer un enclos.
08:30 Appelons ces enclos les réseaux sociaux.
08:33 Ou un autre exemple, Google.
08:35 Au tout début, c'était juste un moteur de recherche.
08:37 Ils n'avaient pas beaucoup d'argent.
08:39 Et puis vers 2002, ils ont découvert qu'ils avaient quelque chose qui s'appelait le surplus de comportement.
08:43 Les gens faisaient une recherche.
08:45 Ils avaient vu sur le nom de jeunes filles de Carole Brady,
08:48 tous en même temps, à interface régulière, toutes les heures, 5 pics.
08:52 Et ils se demandaient d'où ça venait.
08:54 Parce qu'a priori, ça n'intéresse pas grand monde.
08:57 C'était une star d'une série dans les années 70.
09:00 Et puis ils ont vu que c'était une question de l'émission qui veut gagner des millions,
09:04 à différents fuseaux horaires.
09:06 Ils ont compris que c'est comme ça qu'on pouvait avoir des informations en temps réel de ce que les gens pensaient.
09:11 Est-ce qu'on pourrait savoir l'opinion d'une population entière ?
09:15 Anticiper un soulèvement ?
09:17 Vous voyez l'opportunité de marcher pour un gouvernement ?
09:20 Donc, pour tracer et prédire même la réaction d'une population,
09:24 vous devez la regrouper.
09:26 L'étape après, c'est une fois que vous arrivez à faire des prédictions,
09:29 vous pouvez passer à l'influence de comportement même.
09:32 Donc ce n'est pas juste une théorie complotiste.
09:34 Vous pouvez déjà passer dans la vraie vie.
09:36 Prenez par exemple Facebook qui a fait des expériences psychologiques,
09:39 qui trafiquait votre timeline pour influencer vos choix d'élection.
09:43 Ou le scandale Cambridge Analytica.
09:46 Alors ça devient un peu déprimant de voir ce qu'Internet est devenu.
09:50 Internet était censé nous donner l'accès à une information infinie,
09:55 nous permettre de parler à pratiquement n'importe qui.
09:57 Ça a cassé les limites et ça nous a tous connectés.
10:00 Mais il y a un prix à payer pour ça.
10:02 Vous étiez peut-être jeune avant, Internet était très différent.
10:05 Il fallait naviguer sur plein de sites différents,
10:07 il fallait mettre vos marque-pages pour avoir des infos différentes.
10:10 Oui, c'était des vieux sites avec des designs tout moches.
10:13 Mais on pouvait parler à tout le monde.
10:15 Avec un pseudo, vous aviez la liberté de parole
10:17 parce que personne ne se souciait de ce qu'on allait dire de vous au travail ou à l'école.
10:22 Et au pire, vous pouviez recommencer à zéro en vous créant un nouveau compte.
10:26 Aujourd'hui, vous avez votre vrai nom sur les réseaux sociaux,
10:29 vous pouvez trouver tout concentré sur Twitter, TikTok,
10:32 avec plein de sujets différents.
10:34 Et oui, c'est pratique, c'est moins fatigant,
10:37 mais en contrepartie de ça, votre employeur va vérifier vos comptes peut-être avant de vous engager,
10:43 ou vos amis ou votre famille va vous reprocher ce que vous avez pu dire ou faire sur les réseaux sociaux.
10:49 Donc la liberté sur Internet, ce n'est plus trop ça maintenant,
10:52 on nous a mis dans un enclos.
10:54 D'ailleurs, vous avez remarqué comme Internet devient comme la télévision ?
10:57 Tout le monde regarde la même chose sur Netflix comme les grosses chaînes de télévision,
11:02 ou YouTube qui met des pubs toutes les 5 minutes.
11:05 D'ailleurs, vous aviez notre bon vieux Yuval Noah Harari qui disait ici en cet extrait
11:11 "Amazon vous dit quoi acheter, Netflix vous dit quoi regarder, et Google vous dit quoi penser."
11:17 Donc c'est cynique, mais on y est véritablement.
11:20 On a choisi la facilité de toutes ces technologies qui nous permettent de faire des choses.
11:27 Et on a choisi de faire des choses.
11:29 On a choisi de faire des choses.
11:31 On a choisi de faire des choses.
11:33 Et on a choisi de faire des choses.
11:35 Et on a choisi de faire des choses.
11:37 Et on a choisi de faire des choses.
11:39 Et on a choisi de faire des choses.
11:41 Et on a choisi de faire des choses.
11:43 On a choisi la facilité de toutes ces technologies qui rendaient notre vie plus pratique.
11:49 Et en échange, nous avons donné notre libre arbitre.
11:53 Ça se demandait d'ailleurs si tous ces sites n'étaient pas aussi des plateformes de data mining humaines.
11:58 Ouais, Twitter pour entraîner les IA de langage,
12:01 ou Instagram pour les images, et YouTube pour les vidéos, mais je digresse un peu.
12:06 Donc on a vu depuis 2020 que depuis le Covid,
12:09 nos conversations maintenant seraient devenues la dangereuse des informations,
12:13 même si c'était des postes étayés par des sources, des études scientifiques.
12:17 Moi ça m'est arrivé, ça vous est sûrement arrivé aussi.
12:20 Et on a vu comme tous ces moyens automatisés, technologiques,
12:23 ont servi à faire sauter vos posts, vos commentaires et vos vidéos.
12:26 Et maintenant les gens sont presque habitués à l'idée de censure.
12:30 Sur Facebook ou Twitter, vous leur dites que vous avez été censuré.
12:34 Ils vont rousser les épaules et puis c'est tout.
12:36 Alors qu'avant on planiait les gens en Chine qui devaient subir ce genre de censure là.
12:40 Et maintenant quand vous avez Thierry Breton qui prétend que les réseaux sociaux
12:45 devaient retirer automatiquement des messages interdits le 25 août en 2023,
12:50 en pratique on n'a pas vu grand chose se passer.
12:53 Je lui ai même demandé d'ailleurs, je lui ai envoyé un message,
12:56 et mon post est toujours là, ouais.
12:59 Donc concrètement, est-ce qu'il n'y a pas quelque chose de plus insidieux
13:02 qui est déjà en place comme système de contrôle ?
13:05 Et en parallèle, est-ce que ce ne serait pas aussi un clin d'œil
13:08 aux variants Eris, qui est un des derniers variants Covid qui est sorti,
13:12 qui est plutôt bénin, mais qui représente la déesse de la Discord ?
13:16 Ouais, est-ce qu'on n'aurait pas un système dans ce genre là ?
13:19 Est-ce que ce ne serait pas ça le vrai variant sur Internet ?
13:22 Mais avant ça, il faut qu'on parle de la théorie du dead Internet.
13:26 La théorie du dead Internet, c'est qu'Internet serait mort vers 2016-2017
13:31 et que tout le contenu que vous voyez serait rempli de bots,
13:34 programmés par intelligence artificielle,
13:37 qui ont remplacé les vrais humains, ou des employés payés pour faire des faux contenus.
13:42 Donc des robots programmés, ou des gens payés pour faire des faux commentaires,
13:46 des faux likes, des faux comptes depuis des années.
13:49 Cette théorie est apparue sur un forum 4chan, ici sur le forum Agora Road.
13:54 C'était un compte appelé Illuminati Pirate qui disait que
13:58 Internet semblait stérile, vide de gens, vide de contenu,
14:02 que tout, si vous comparez à 10-15 ans avant,
14:05 semblait aseptisé, qu'il n'y avait plus rien à faire, à lire ou à expérimenter,
14:11 que tout implosait dans une sorte de site normal et des coquilles vides.
14:15 Il disait que vers 2017, il avait remarqué sur les forums apparaître des posts un peu bizarres,
14:20 en anglais correct, mais un peu étrangement écrit, comme si ce n'était pas un natif,
14:24 mais qui avaient un sens de curiosité, un intellect presque enfantin,
14:27 comme s'il essayait de comprendre les émotions des posteurs.
14:31 Mais qu'il avait aussi des connaissances d'adultes,
14:33 et il est convaincu que c'était un genre d'intelligence artificielle qu'il écrivait.
14:37 Il pense aussi que l'intelligence artificielle est utilisée en musique, en films,
14:41 parce que tout est en train de devenir la même soupe,
14:44 et pense même que des célébrités étaient totalement artificielles et n'existaient qu'en ligne.
14:48 Ouais, ça c'est pas totalement déconnant, ça existe vraiment.
14:51 Ah, vous avez ici des exemples sur Instagram des influenceuses,
14:55 ouais, vous avez Shudo, ou bien des influenceuses asiatiques,
14:59 complètement factices, qui ont des millions de followers.
15:02 Mais la question c'est plutôt, est-ce qu'il n'y aurait pas quelque chose qui se passe à notre insu ?
15:07 Souvenez-vous, en 2004, le projet LifeLog de la DARPA,
15:11 c'était un projet qui visait enregistrer tous les détails de la vie d'une personne,
15:15 c'était son travail, ses tickets d'avion, ses discussions, ses cartes de crédit,
15:21 ce qu'il aimait comme film ou comme livre, ses groupes d'amis.
15:25 Ouais, et ce projet a vu pas mal de critiques, et il a finalement été annulé.
15:29 Il a été annulé en janvier 2004, mais juste après que le projet LifeLog ait été arrêté,
15:34 Facebook est né. Ouais, Facebook est officiellement né en février 2004.
15:40 C'est au point que même la DARPA fait une dénégation de l'IA entre les deux.
15:44 Donc quand on sait aussi que Google a reçu de nombreux contrats avec la NSA ou la CIA,
15:51 ou a fait des collaborations avec la DARPA pour des projets de surveillance,
15:55 y a de quoi se poser quand même quelques questions.
15:57 Selon l'internaute, le gouvernement US s'est engagé dans un "gaslighting" de masse
16:01 à de l'aide de l'intelligence artificielle sur la population entière,
16:05 que c'est un effort délibéré à large échelle pour manipuler la culture et le discours en ligne
16:11 en utilisant un système de bot et d'employés pour produire du contenu et répondre au contenu en ligne
16:16 pour avancer l'agenda de ceux qui les emploient.
16:19 Et bien sûr il dit qu'on est foutus parce que si on en parle,
16:22 bien sûr d'autres gens vont s'en amuser et prétendent être des bots pour ajouter au problème.
16:27 Ouais, donc c'est pas gagné, mais...
16:29 Il voulait donc en parler et avertir la population.
16:32 Donc c'est pas une théorie totalement délirante.
16:35 Regardez, l'algorithme de Google et de Facebook, c'est déjà un contrôle de l'information par un grand groupe.
16:40 Ils choisissent de mettre en haut le contenu le plus accepté,
16:43 ou par exemple ils décident de plus montrer les contenus des sites ou des pages qui dérangent,
16:47 par exemple le journal François.
16:49 C'est ainsi qu'Internet et les réseaux sociaux, au lieu de démocratiser l'accès à l'information,
16:54 ont nous enfermés dans une illusion de liberté.
16:57 Alors oui, vous me direz que vous et moi, nous sommes humains,
17:00 donc Internet est pas vraiment mort.
17:02 Vous aurez raison, mais la théorie est pas si éloignée de la réalité.
17:05 Il y a un nombre beaucoup plus grand d'acteurs et de gens payés sur Internet
17:11 qui contrôlent les discours, qui dirigent nos pensées et qui fabriquent des fictions.
17:15 Ça voudrait dire des milliers ou des millions de petits comptes
17:19 programmés pour vous répondre sur le net ?
17:21 Ouais, j'ai quelques exemples pour vous.
17:24 Initialement, les bots, c'était dans les jeux vidéo pour jouer des adversaires ou d'autres joueurs.
17:29 Après, sur Internet, quand la publicité est arrivée,
17:32 on créait une campagne et puis on payait des sites web
17:36 ou bien des célébrités pour faire de la publicité.
17:39 Mais pour avoir de l'engagement, vous avez besoin de likes et de vues et de clics.
17:43 Ainsi sont arrivés maintenant des services pour créer de l'engagement,
17:47 c'est-à-dire cliquer sur votre pub, liker vos posts, faire des commentaires.
17:52 Vous pouvez engager des sociétés qui font ça, par exemple ici en Chine.
17:57 Donc, c'est une vidéo sur la Chine des ClickFarm.
18:04 Le gars qui apparaît être l'auteur de la ClickFarm
18:07 dit aux gens que ses opérations peuvent les aider à vendre des produits à l'étranger
18:13 et aussi à cliquer sur leurs vidéos.
18:16 Il dit aussi que c'est une opération relativement plus petite pour eux.
18:21 Des grandes fermes comme celle-ci peuvent accueillir plus de 17 000 téléphones en même temps.
18:27 Ils engagent des gens qui servent à ça, vous connaissez sûrement.
18:30 On appelle ça les fermes à clics.
18:33 Vous avez cet article qui explique qu'un tiers des clics sont probablement des bots
18:39 qui servent à qui ? Des chanteurs, des politiciens, des gens qui ont besoin de popularité.
18:43 Donc tout ceci est un business qui tourne depuis plusieurs années et qui rapporte énormément.
18:49 Alors est-ce que c'est difficile à faire ?
18:51 Vous avez ici un exemple un petit peu marrant.
18:53 Ce sont des gens qui ont créé leur propre ClickFarm.
18:56 Ils ont pris, je pense, 50 téléphones
18:58 et ils ont montré comment, avec une vidéo, le gars a osé s'éplanter.
19:04 Ils arrivent à créer des vues artificielles.
19:07 Il a une dizaine de vues, enfin une cinquantaine de vues grâce à leur téléphone.
19:10 Et après ils montrent des services sur le net
19:14 où vous pouvez acheter par exemple 10 000 vues.
19:17 Et ils achètent ce service-là.
19:19 Comme ça coûte cher d'avoir des employés qui cliquent,
19:21 l'étape d'après c'est de programmer ça et d'utiliser des ordinateurs, des bots.
19:26 Ils ont même plus besoin d'utiliser des téléphones et qu'on a pu virtualiser,
19:29 tout faire sur ordinateur.
19:31 Donc c'est juste un business comme un autre.
19:33 Ce n'est pas trop connu du grand public parce qu'il ne faut pas casser l'illusion.
19:36 Mais concrètement, est-ce qu'il y en a beaucoup ?
19:38 Regardons sur les réseaux sociaux.
19:40 Ici vous avez Instagram.
19:42 Ils estiment qu'ils ont 95 millions de comptes qui seraient des bots.
19:46 Par exemple ici sur Facebook et Meta,
19:49 Facebook retire tous les trimestres plus d'un milliard de faux comptes.
19:55 Un milliard de faux comptes ?
19:57 Un autre exemple ici, YouTube, 2013,
20:00 plus de la moitié du trafic n'était pas humain.
20:02 Des bots étaient capables de non seulement faire des millions de vues,
20:05 mais aussi des clics sur la page, des partages et des commentaires automatisés.
20:09 On en voit plein maintenant.
20:11 Et sur Twitter, en 2020, on a vu, et vous avez sûrement vu aussi,
20:15 comment des milliers de comptes venaient répéter exactement le même message.
20:19 Du genre, il faut mettre son masque, il faut se confiner,
20:23 ou soutenir la politique gouvernementale à ce moment-là.
20:27 Et c'était d'ailleurs justement le même genre de comptes qui venaient vous contredire.
20:32 Ces comptes étaient souvent créés récemment,
20:34 ils n'avaient pas photo de profil,
20:36 et ils étaient souvent très agressifs.
20:38 Ils ne répondaient pas vraiment à vos arguments,
20:40 ils tournaient en rond, ils changeaient de sujet,
20:42 ils vous agressaient, et puis on avait compris le jeu finalement.
20:44 Ils n'étaient pas là pour débattre vraiment,
20:46 mais ils étaient là pour vous inonder.
20:48 Ils étaient si nombreux qu'on voyait une coordination.
20:50 Et c'est là qu'on voyait que c'était des fermatroles.
20:54 Ils fonctionnent sur toute une structure qui est organisée.
20:58 Vous avez les superviseurs tout en haut qui gèrent les négociations des prix,
21:02 avec les factions politiques ou les groupes intéressés par leur service.
21:07 Vous avez aussi ce qu'on appelle en anglais "targetologist",
21:11 les gens qui fixent une cible,
21:13 ils déterminent qui est l'audience à toucher dans leur campagne.
21:17 Et vous avez en dessous les techniciens qui créent les outils techniques
21:20 pour pouvoir faire leur campagne.
21:22 Et tout en bas, vous avez ce qu'on appelle les "monkeys",
21:25 les singes, ce sont ceux qui créent les comptes
21:27 et qui écrivent des dizaines, voire des centaines de commentaires
21:30 chaque jour sur vos réseaux sociaux.
21:32 Le nombre de bots officiels sur Twitter, c'est 5%.
21:36 Et quand Elon Musk, en 2022, a racheté Twitter,
21:39 il a renégocié le prix d'achat, justement en se plaignant
21:42 parce qu'il pourrait avoir quatre fois plus de bots sur la plateforme.
21:46 Mais vers fin 2022, ChatGPT est sorti.
21:49 Et regardez ça sur Twitter.
21:51 Quelqu'un a dit "J'avais cette impression depuis longtemps,
21:54 mais voici la preuve qu'il y a des bots à base d'intelligence artificielle
21:58 qui utilisent ChatGPT pour générer la réponse."
22:01 Et il montre un de ses tweets qui faisait une blague
22:04 sur ses amis nomades qui, en 2013, mangeaient de la street food
22:08 et puis en 2020, qui voyageaient avec leur machine à café et tout leur matos.
22:12 Mais l'une des réponses lui semblait bizarre.
22:15 Et un peu artificielle.
22:18 Et alors il a posé la même question à ChatGPT.
22:21 Et regardez les posts côte à côte, c'est quasiment la même chose.
22:24 Ici, vous avez un autre exemple.
22:26 Là, ce sont des scientifiques qui ont carrément fait une étude
22:29 de comptes basée sur ChatGPT.
22:31 Ils ont trouvé ces trucs très fun.
22:33 Regardez le nombre de réponses sur Twitter qui disaient
22:36 "En tant qu'IA, en tant qu'intelligence artificielle,
22:39 je ne peux répondre à ceci."
22:41 Et à l'époque, en effet, ChatGPT répond souvent à cette même phrase.
22:44 Et quand les gens ont programmé leur bot avec ChatGPT,
22:48 ils se prenaient cette phrase-là un peu trop souvent.
22:51 Ouais.
22:52 Autre exemple, et c'est pas fini.
22:54 Si vous creusez un peu, vous trouvez plein de posts de commentaires supposés d'humains
22:58 sur Amazon, écrits aussi par ChatGPT.
23:00 La même chose avec le texte qui dit "En tant qu'intelligence artificielle".
23:04 Ouais, donc il y a eu pas mal de nettoyage depuis.
23:07 Ouais.
23:08 Donc on en voit de moins en moins, mais vous pouvez encore en trouver.
23:11 Ouais, ou "En tant qu'assistant IA", vous pouvez le voir aussi, c'est édifiant.
23:15 Ouais.
23:16 Donc, est-ce que ça vous est déjà arrivé de vous disputer
23:20 ou d'être énervé avec quelqu'un à cause d'un post ?
23:22 Parce que si ça se trouve, vos discussions étaient complètement fakes
23:25 et vous étiez en train de parler avec un bot.
23:27 Vous avez par exemple là un canal d'entraînement de bots de discussion.
23:30 C'est une sorte de simulation pour que les gens qui programment des modèles de langage
23:35 puissent faire des tests.
23:37 Ouais, et vous pouvez voir des discussions de bots entre eux.
23:40 D'ailleurs, c'est intéressant, parce que toute personne qui pense qu'un bot
23:45 ne peut pas avoir de discussion émotionnelle et tout le reste,
23:48 vous avez un exemple parfait là.
23:50 Il ne faut que reprendre des textes retrouvés sur le net
23:54 et un modèle de langage cherche la meilleure probabilité de réponse.
23:57 Donc, ce n'est pas du tout étonnant d'avoir des réponses qui semblent complètement vraies.
24:03 Autre chose sur Reddit, ça c'est super intéressant,
24:06 c'est un post sur une énorme portion d'utilisateurs de Reddit
24:10 semblent être des bots.
24:12 Et ce post n'existe plus d'ailleurs, Reddit l'a fait sauter.
24:15 Mais je vous explique et je vais garder une copie.
24:17 C'est quelqu'un qui envoyait des messages de clickbait
24:21 à des comptes qui lui semblaient un peu suspicieux.
24:23 Et le message en question, c'était du texte, et puis il envoyait un lien.
24:27 Et le lien, c'était un site de IP logger.
24:30 C'était un site qui enregistre votre adresse IP.
24:33 Et il s'est rendu compte que tous les comptes à qui il envoyait ce lien
24:37 avaient une adresse IP qui était liée à Amazon AWS,
24:40 qui est une sorte de ferme de serveur.
24:42 Ce qui veut dire que vous ne pouvez pas retrouver les adresses de ces comptes-là
24:46 et aussi qu'ils peuvent avoir de comptes multiples,
24:48 tous liés au même ordinateur sans lever de suspicion.
24:51 Et bien sûr, il a vu aussi que parfois il avait contacté un vrai humain,
24:55 parfois ce n'était pas forcément un bot.
24:58 Et là, il voyait que ça prenait un temps humain pour voir,
25:00 pour cliquer sur le lien, 5 à 10 minutes.
25:02 Par contre, quand il contactait un bot, la réponse était immédiate.
25:05 Je veux dire, le temps qu'il ait posté le message,
25:08 le temps qu'il aille sur le site de IP logger pour faire un refresh et voir la liste,
25:12 ils avaient déjà cliqué.
25:14 Et cela arrivait à chaque fois.
25:17 Jamais je n'étais dans une discussion et que j'avais pensé que c'était un bot.
25:22 Parce que les conversations semblaient si réelles.
25:24 Mais là, ces preuves-là lui ont fait se demander
25:27 si les bots n'étaient pas beaucoup plus prévalents qu'on le pensait.
25:30 Et vous ne croirez pas à quel point ça arrive souvent.
25:33 On parle de files de discussion majeures avec les gens les plus populaires,
25:36 les posteurs les plus populaires, et même des équipes de modérateurs sur Reddit.
25:39 Tous avaient répondu sauf un qui avait dit "what the fuck".
25:42 Et donc, il conclut qu'une bonne portion de ce compte ne sont pas de vrais gens
25:47 et que vous trouverez des bots en haut de plein, plein, plein de files
25:51 qui arrivent en première page des meilleurs résultats.
25:53 Peut-être même que de vrais gens reprennent la conversation
25:57 une fois que le script ne marche plus trop.
25:59 Mais le fait est qu'il y a vraiment ces comptes-là.
26:02 Et je pense qu'on a la même situation sur Twitter.
26:05 Alors, est-ce que c'est difficile de créer un bot sur Twitter basé sur ChatGPT ?
26:12 Non, non, ce n'est pas difficile.
26:14 Je vous montre un petit exemple là.
26:16 Je ne vais pas vous mettre la vidéo en entier,
26:18 mais il explique comment vous pouvez créer ça,
26:21 créer votre compte, le lier sur ChatGPT,
26:23 comment le programmer et mettre des listes de réponses aléatoires ou pré-programmées.
26:30 Donc, ce n'est pas difficile de créer un bot.
26:33 La question, c'est qui aurait intérêt à en créer un ?
26:36 Parce qu'on pourrait penser qu'un utilisateur lambda de Twitter
26:40 veut juste avoir des likes et donner son avis.
26:42 Donc, si quelqu'un crée un bot,
26:44 il doit y avoir une intention soit commerciale, soit une intention politique.
26:47 Vous pourrez me dire qu'aucun gouvernement s'intéresse à nous envoyer
26:51 des dizaines, voire des milliers de trolls ou de bots sur Twitter
26:54 parce qu'on serait juste d'un signifiant complotiste.
26:57 Regardez ce rapport de l'Université d'Oxford
27:01 sur la manipulation des réseaux sociaux par des acteurs politiques.
27:05 Un problème à l'échelle industrielle.
27:08 La manipulation de l'opinion publique est une menace grandissante aux démocraties dans le monde
27:14 qui a trouvé des preuves dans plus de 80 pays.
27:17 Et c'était des campagnes organisées de manipulation
27:20 avec des gouvernements, des firmes de relations publiques
27:23 et des partis politiques qui produisaient de la désinformation
27:27 à l'échelle industrielle pour diffuser de la propagande politique,
27:32 polluer l'écosystème d'information et supprimer la liberté d'expression et la liberté de la presse.
27:38 Le rapport montre comment ils interagissent avec les dissidents,
27:41 les journalistes pour les influencer.
27:43 Et on voit qu'il y a presque 60 millions de dollars dépensés
27:47 avec des firmes de stratégie de communication
27:51 qui utilisent des bots et d'autres techniques d'amplification
27:54 pour créer une impression de tendance politique.
27:57 Les réseaux sociaux sont des champs de bataille en gros.
28:00 Prenez par exemple le ciblage individuel en pologne sur des journalistes connus
28:05 ou dissidents politiques sélectionner avec soin des messages
28:09 pour leur faire croire que leurs followers ont des croyances spécifiques.
28:13 On voit souvent des messages spécifiques à une personne ciblée
28:18 pour faire simple, attaquer sur sa compétence, son physique,
28:22 c'est les grands classiques.
28:24 Le but de leurs messages, c'est toujours de créer une émotion chez leur cible.
28:27 Je vois ça souvent sur Twitter.
28:29 Un autre exemple, ce sont des créations de faux contenus,
28:31 des posts de blog, des vidéos sur Youtube,
28:33 de fake news et de photos
28:35 pour aider à promouvoir l'agenda politique d'un gouvernement.
28:39 Par exemple, au Royaume-Uni, des cybertroops créent des vidéos
28:43 avec des messages persuasifs sous des alliés en ligne.
28:46 On peut faire tout un sujet, des spécialistes en création de faux contenus,
28:50 on en a quelques-uns, je garde ça sous le coude.
28:53 Quelques exemples un peu plus concrets.
28:56 En France, on parle très peu de phénomènes de trolls et de bots.
28:59 On a quand même quelques petits articles qui sortent parfois.
29:02 Là, vous avez un article de Mediapart et de France Info
29:05 sur les soldats macronistes, anonymes et virulents,
29:08 qui, quand on les interview, disent toujours qu'ils faisaient ça pour le fun.
29:12 Et on y croit 115 tweets par heure, c'est crédible.
29:16 Il y a cette enquête en Ukraine d'un journaliste d'investigation en 2019
29:21 qui a réussi, pour son enquête, à se faire engager par une ferme à trolls à Kiev.
29:28 Il raconte combien il était payé, comment il travaillait.
29:32 C'était des messages sur Telegram, des groupes très organisés.
29:36 Son job, c'était de poster 300 commentaires par jour sur les réseaux sociaux,
29:41 se faire passer pour quelqu'un d'autre, et il était payé pour ça.
29:44 Son job était de manipuler les émotions et les pensées des gens
29:47 avec ses autres collègues. Je vous mets un extrait.
29:50 "On ne va pas lancer de fermes à trolls, ou de boîtes, mais on ne les utilise pas."
29:55 Vassil Bedoun, un journaliste pour Sleet.info,
30:03 a vérifié des sites de travail pendant plusieurs semaines et a appelé les employés.
30:06 Trouver un ouvrage pour un troll internet n'est pas facile.
30:09 C'est souvent masqué comme un autre type de travail.
30:15 "Mon nom est Vassil, j'ai trouvé un ouvrage sur Work.ua pour un copyrighter/rewriter."
30:20 "Oui, je suis intéressé par cette position."
30:27 "Je moque."
30:34 "Par exemple, quand quelque chose est posté, on écrit 20 commentaires en soutien à ce sujet,
30:43 pour que la conversation commence à se développer.
30:46 Donc, pour les postes, les gens engagent seulement quand il y a déjà des activités."
31:10 "C'est très instructif, parce qu'il explique tous les types de messages qu'il doit poster,
31:14 soit des messages de soutien à des politiciens ukrainiens candidats aux élections.
31:18 Là, vous avez un exemple d'un proche de Zelensky."
31:21 Les trolls postent des centaines de commentaires par jour,
31:25 en prion du comédien Serhii Svolkov.
31:27 Il y a des centaines de commentaires,
31:29 et il y a des centaines de commentaires sur les réseaux sociaux.
31:32 Il y a des centaines de commentaires sur les réseaux sociaux.
31:35 Il y a des centaines de commentaires sur les réseaux sociaux.
31:37 Il y a des centaines de commentaires par jour,
31:38 en prion du comédien Serhii Svolkov.
31:40 Il a grandi dans la région de Donetsk en tant que servant des gens,
31:45 à la demande de l'Ukrainien président.
31:47 Ils ont travaillé ensemble sur le show Liga Smichu.
31:50 "Encore une fois, sur nos étoiles, Serhii Anatolievich Sivokho."
31:58 "Serhii Anatolievich est en voyage.
32:05 C'est pour ça que je vais vous donner une réponse à votre question."
32:08 "On ne sait rien sur les trolls ou les farmes de trolls."
32:14 Et un truc intéressant dans ce documentaire aussi,
32:16 c'est qu'il y a une plus grande maturité dans les médias là-bas,
32:19 car les journalistes demandent carrément aux politiciens
32:21 s'ils utilisent les services de fermes à trolls
32:24 pour gagner de la popularité,
32:26 ou pour taper sur les autres.
32:28 Et les politiciens répondent en France,
32:30 on n'est même pas au courant, ça n'existe pas.
32:34 Alors un autre exemple ici aux Philippines.
32:37 "Les armées de trolls noient la critique du président Duterte."
32:41 "En 2019, Facebook avait annoncé avoir supprimé des dizaines de pages
32:46 qui noyaient les critiques du président philippin avec d'autres infos."
32:50 Et derrière le réseau, ils s'étaient rendu compte
32:52 que c'était le chef des réseaux sociaux du président.
32:55 Ouais, et comme on savait qu'ils s'étaient beaucoup appuyés
32:58 sur eux pour leur élection, c'est pas si étonnant que ça.
33:01 Et autre chose intéressante,
33:04 comme le président avait déclaré une guerre contre la drogue,
33:07 appelant à faire des exécutions sommaires de dealers dans la rue,
33:11 oui, un journal avait commencé à dénoncer ça
33:15 et faire des articles dessus.
33:17 Et comme par hasard, sa communauté en ligne
33:19 a commencé à se retourner contre le journal.
33:22 Ils se prenaient 90 messages par heure,
33:24 qu'ils inventaient les morts,
33:26 qu'ils étaient payés par les ennemis du président,
33:28 que tout ça c'était des fake news,
33:30 ça a pris une proportion assez incroyable.
33:32 Et le journal a commencé à étudier les commentaires
33:34 et les comptes qui relayaient tout ça.
33:36 Ils ont trouvé des comptes étranges
33:38 qui parlaient de leur emploi,
33:40 et en vérifiant, en appelant les employeurs,
33:42 ils se sont rendu compte qu'ils ne travaillaient pas du tout là.
33:44 Et ils ont trouvé 24 faux comptes
33:46 qui répétaient ces mêmes messages
33:48 et qui atteignaient une audience de 3 millions.
33:50 Ils ont compris que c'était une attaque coordonnée,
33:52 mais bien sûr, c'est toujours compliqué
33:54 de prouver qui était derrière.
33:57 Là, vous avez un autre exemple d'un témoin
33:59 qui raconte qu'il passait 5 jours sur Facebook
34:04 et alternait entre 7 comptes différents
34:07 pour soutenir le président,
34:09 montrer du soutien et taper sur le parti libéral.
34:12 Chose amusante, c'est qu'aucun ne se définit
34:16 comme faisant du trolling ou des fake news.
34:18 Chacun a sa technique de déni.
34:20 Ils se considéraient comme un guerrier du clavier.
34:22 Ils se sentent investis d'une mission noble.
34:25 Oui, si vous me regardez, votre mission n'est pas du tout noble.
34:28 Vous êtes des gros losers.
34:31 Alors, Mexique, un autre exemple ici.
34:33 C'est un activiste qui s'appelle Alberto Escortia
34:36 qui a beaucoup creusé le sujet des bottes et des trolls.
34:39 Il a même dû déménager plusieurs reprises à cause de menaces.
34:42 Oui, ça rigole pas au Mexique.
34:45 Là-bas, les fermatrolles relaient les menaces de mort
34:48 des cartels de la drogue.
34:50 Donc c'est plutôt bonne ambiance.
34:52 Ici, il montre un exemple de service
34:54 pour acheter des trolls ou des bottes
34:56 pour mettre en tendance le sujet que vous voulez.
34:59 Voilà le nombre de likes que vous aurez.
35:01 Escortia explique que ces trolls se mobilisent
35:04 juste pour la cause pour laquelle on les paie.
35:06 Donc ça peut être une réforme d'énergie
35:08 du gouvernement qui n'est pas populaire
35:10 ou bien rendre une menace de mort virale.
35:12 Il fait aussi l'analyse de hashtags en tendance
35:16 et il analyse les motifs.
35:18 Il y a plusieurs logiciels qui font ça.
35:20 Gephi, par exemple.
35:22 Il prend un hashtag, il récupère tout.
35:25 Il récupère tous les tweets liés à ce hashtag
35:27 et il peut visualiser les groupes
35:29 qui relaient ce hashtag-là.
35:31 Et on peut voir dans ces réseaux qui se suivent
35:35 et on peut identifier des groupes.
35:37 Par exemple, le nuage noir,
35:39 c'est un groupe de trolls qu'il reconnaît
35:41 qui s'appelle la Hawke Legion.
35:53 Il explique aussi que les trolls envoient
35:55 chaque semaine ou chaque mois des fake news
35:58 juste pour mettre le bordel dans les discussions
36:02 dans une communauté.
36:04 Et affaiblir le mouvement de dissidents.
36:06 Qu'est-ce qu'ils font d'autres aussi ?
36:07 Ils font de l'empoisonnement de hashtags
36:09 et quand il y a une manifestation
36:11 qui est préparée,
36:13 ils vont poster les mauvais lieux d'une manifestation,
36:16 les mauvaises heures, ce genre de choses.
36:18 Donc vous voyez qu'ils envoient régulièrement
36:21 plein de fake news.
36:22 Vous comprenez maintenant pourquoi
36:23 j'ai débugué autant de fake ?
36:24 Dernièrement, je pense qu'on le fait exprès.
36:26 Vous vous souvenez de cette vidéo
36:28 d'Albert Bourla qui disait
36:30 que si on faisait un effort,
36:32 ils arriveraient à réduire le nombre de gens
36:35 qui n'ont pas accès à leurs médicaments
36:36 de 50% ?
36:37 Des gens se sont amusés à couper la vidéo
36:50 et ça devenu
36:52 Bourla qui disait
36:53 qu'on arriverait à réduire le nombre de gens
36:55 de 50% juste en coupant le milieu.
36:57 Combien de fois j'ai vu cette vidéo tourner
36:59 et à chaque fois j'ai fait le débug
37:00 mais je me dis mais qui c'est qui s'amuse
37:01 à envoyer ce genre de fake ?
37:03 Voilà, ce genre d'agence.
37:05 On nous envoie juste des fakes,
37:07 tout ça sont des histoires fabriquées
37:09 pour attirer notre attention,
37:10 nous détourner des vrais problèmes
37:12 sur lesquels on a des preuves tangibles.
37:14 Ici Joe Rogan parle du fait
37:16 qu'il y a aussi des potes faux patriotes.
37:18 Ouais, je vous mets un petit bout.
37:20 Voilà, il dit que oui,
37:36 souvent ils mettent un drapeau américain,
37:38 une batte de baseball.
37:46 Il explique que ce genre de contes
37:48 sert à raconter n'importe quoi
37:50 pour être ensuite repris par les médias
37:52 pour montrer à quel point
37:54 les républicains sont des gens affreux.
37:56 C'est vrai que parfois les réponses sont tellement absurdes
37:58 qu'on peut deviner
38:00 si quelqu'un est un bot ou pas.
38:02 Oui, je sais, c'est un talent assez inutile,
38:04 le plus inutile du monde,
38:06 mais je suis en train d'explorer le sujet.
38:08 Ici sur Reddit,
38:10 comment reconnaître un bot ?
38:11 Le critère principal ?
38:12 Il n'y a pas de critère principal.
38:14 Vous allez devoir identifier 3, 4, 5
38:16 éléments suspicieux pour pouvoir penser
38:18 que c'est un bot.
38:19 Et même là, vous risquez de vous planter,
38:21 de vous prendre un humain pas content dans la figure.
38:23 Il explique les principales catégories.
38:25 Il y a des bots de retweet.
38:27 Ils disent rien, ils font retweeter les sujets.
38:29 Parfois ils sont un peu dingues,
38:31 ils postent 200 fois, 300 fois par jour.
38:33 Vous avez les bots de commentaires.
38:35 Ceux-là attaquent frontalement,
38:37 font des insinuations
38:39 pour vous déprimer.
38:41 Souvent ils sont rejoints par d'autres bots de commentaires,
38:43 toujours d'accord, et alors ils font une petite discussion
38:45 entre eux.
38:47 Ça peut être parfois en français très hasardeux.
38:49 C'est très drôle à lire.
38:51 Il est souvent courant que si vous exposez un bot,
38:53 qu'il soit supprimé quelques jours après.
38:55 Regardez aussi s'il a une date de création
38:57 récente, 2022-2023 maintenant.
38:59 Mais il y a aussi des comptes plus anciens.
39:01 Ce sont souvent des comptes
39:03 récupérés ou hackés
39:05 qui ont nettoyé tous leurs posts précédents.
39:07 Vous pouvez voir ça si vous remontez
39:09 dans leur timeline et que vous regardez.
39:11 Et ils n'ont pas d'autres messages avant
39:13 2021-2022.
39:15 Ou bien si on remonte plus haut,
39:17 ils ont juste des pubs
39:19 de jeux en ligne ou des trucs
39:21 de publicité seulement.
39:23 Et puis après ils switchent complètement
39:25 en mode Covid. C'est assez louche.
39:27 Moi aussi j'ai détecté des bots
39:29 et des trolls. Je vous partage quelques trucs.
39:31 Parce qu'il y a maintenant beaucoup
39:33 de faux comptes sur Twitter.
39:35 J'ai vu que c'était beaucoup de
39:37 comptes dormants créés entre
39:39 mars-avril 2022 et maintenant.
39:41 Ensuite, regardez qui ils suivent.
39:43 Souvent ce sont des comptes qui vont suivre qu'exclusivement
39:45 les comptes genre "Résistant français
39:47 du Covid" avec beaucoup de followers.
39:49 Et absolument rien d'autre.
39:51 Et ça c'est très très louche parce que même moi je suis
39:53 les comptes de journaux mainstream
39:55 ou bien des amis.
39:57 Mais ces comptes-là ne suivent que ça.
39:59 Et souvent ils postent rien derrière ou bien
40:01 ils postent trois trucs et puis plus rien. Donc ça c'est un bon indice.
40:03 Ou certains ont des fautes d'orthographe
40:05 étranges, des fautes que personne ne fait.
40:07 Du genre échanger
40:09 des lettres ou mettre des lettres qui
40:11 n'ont rien à voir. On dirait des fautes volontaires mais
40:13 qui sont too much.
40:15 L'autre truc c'est le timing des posts. Si vous voyez plusieurs
40:17 commentaires postés en même temps
40:19 sur différents canaux c'est un bon indice.
40:21 Ou vous avez par exemple ici ce beau bot
40:23 qui poste toutes les minutes ou presque.
40:25 Oui celui-là je l'ai exposé.
40:27 Il était trop gentil.
40:29 En fait c'est comme ça que je l'ai repéré parce que
40:31 c'est pas crédible personne aussi
40:33 gentil sur Twitter.
40:35 C'était bien d'essayer cela dit.
40:37 La flatterie vous mènera partout.
40:39 Et vous avez beaucoup de faux
40:41 résistants. Je pense qu'ils ont développé
40:43 le concept vers fin 2021, 2022.
40:45 J'ai vu arriver ça
40:47 sur VK puis sur Telegram
40:49 avant d'arriver sur
40:51 Twitter.
40:53 Les trolls contradictoires de 2020 ça marche
40:55 plus trop alors il faut
40:57 nous envoyer des gens de notre communauté
40:59 pour mettre le bordel. Parfois c'est
41:01 subtil. Ils commencent gentiment.
41:03 Ils vont retweeter plein de
41:05 postes et comme ça ils gagnent quelques followers
41:07 là-dessus. Donc ces bots d'insinuation
41:09 souvent vont pas
41:11 aller frontalement vers vous
41:13 mais ça va devenir des messages du
41:15 genre "je vais me désabonner, tu devrais
41:17 arrêter d'en parler, ça n'intéresse
41:19 personne". J'en ai eu plein des comme ça
41:21 mais plein. Ouais.
41:23 Quand je parle de sujets qu'il ne faut pas.
41:25 Là tout d'un coup je me prends des
41:27 commentaires ou si je parle de bot "oh mon dieu
41:29 tu es en boucle il faut que tu arrêtes de parler de ça".
41:31 Ah ils sont pas contents
41:33 là faire ma troll. Je suis en train de casser leur business.
41:35 Ouais. Autre exemple
41:37 il y a les bots de vanité. Ce sont des
41:39 comptes qui vous suivent pour vous donner l'impression
41:41 que vous avez beaucoup de followers. Probablement
41:43 faire pousser les messages
41:45 qui vont bien. Par
41:47 exemple maintenant si je parle
41:49 d'identité numérique
41:51 ou de manipulation de réseaux sociaux, j'ai
41:53 très très peu de visibilité. Mais dès que je fais
41:55 un post sur le Covid et *bip*
41:57 là j'ai une sorte de boost pas possible.
41:59 Le dernier post que j'ai fait
42:01 où j'allais poser cette question a eu plus de 100 000
42:03 vues. Autre truc sur ces bots
42:05 qui vous suivent, ça pourrait
42:07 être aussi des bots de unfollow.
42:09 Ce sont des bots qui
42:11 vous suivent en masse pour pouvoir
42:13 ne plus vous suivre quelques jours après.
42:15 On avait vu quand Twitter a publié
42:17 une partie de son algorithme que
42:19 vous perdez votre visibilité si
42:21 des gens arrêtaient de vous suivre.
42:23 Et c'est connu depuis déjà quelques temps comme
42:25 technique. Autre technique,
42:27 c'est de faux amis. C'est plutôt un humain
42:29 plus qu'un bot qui fait ce genre de technique là.
42:31 Oui c'est certains qui jouent avec votre ami,
42:33 qui vont vous soutenir et
42:35 ils vont aller complètement dans votre sens. Mais
42:37 après quelques mois,
42:39 ils vont se retourner,
42:41 commencer à insinuer des trucs sur vous
42:43 dans votre dos sans que vous ayez
42:45 changé grand chose à votre ligne.
42:47 J'en ai vu quand même
42:49 beaucoup à faire ça.
42:51 Ou alors qu'ils vous parlent en message privé
42:53 se faisant passer pour votre ami.
42:55 Du social engineering. Si ça m'arrive,
42:57 ça peut vous arriver à vous aussi.
42:59 J'ai aussi
43:01 fait un test de bot en écrivant
43:03 "test de bot" et puis
43:05 parler du fait que le graphène est un
43:07 gros fake. Et plus
43:09 de 40% des réponses que j'ai eues
43:11 répondaient totalement au premier degré
43:13 en mode fâché ou insinuation
43:15 ou accusation, sans
43:17 se demander pourquoi j'avais mis "test de bot" avant.
43:19 Et comme par hasard c'était des
43:21 comptes souvent créés en 2022-2023
43:23 qui cochaient toutes les cases
43:25 que je vous ai expliquées avant.
43:27 Vous me direz "personne ne lit les tweets sur
43:29 Twitter ou les gens lisent en diagonale"
43:31 Oui, c'est vrai, ça peut expliquer
43:33 pourquoi ils n'ont pas remarqué
43:35 quand j'avais mis "test de bot" mais
43:37 ça m'aiderait dans mon étude scientifique
43:39 si les gens faisaient un peu plus
43:41 attention pour mes prochains tests.
43:43 La botologie c'est vraiment un
43:45 haringras parce qu'il y a une liste de gens
43:47 qui sont offensés parce que je les ai
43:49 accusés d'être des bots ou des trolls.
43:51 Remarquez, c'est souvent
43:53 eux qui attaquent ou qui m'attaquent
43:55 et après ils se plaignent de l'horrible
43:57 injustice que je leur ai faite.
43:59 Le prenez pas mal, c'est un compliment
44:01 d'être traité de bot dans le milieu
44:03 des joueurs d'échecs par exemple.
44:05 Mais bon, le problème est tellement
44:07 grand qu'il faut que quelqu'un teste
44:09 et il faut que quelqu'un expose tout ça.
44:11 Et puis voilà, si on se trompe, ça m'est
44:13 déjà arrivé, j'ai répondu trop vite
44:15 et puis voilà, j'ai retiré. On passe à
44:17 autre chose, c'est ça la recherche scientifique.
44:19 D'ailleurs ma question c'est
44:21 est-ce que vous êtes sûr de pas être un bot ?
44:23 Ouais. Est-ce que vous postez
44:25 à répétition les mêmes images ou vidéos
44:27 ou des liens ? Ouais, ça a dû
44:29 m'arriver je suppose aussi, ce qui veut dire
44:31 que j'ai probablement été un bot parfois, mais
44:33 je me soigne. Non, je vous demande ça
44:35 parce qu'à force de parler,
44:37 interagir avec des comptes trolls ou bots
44:39 qui nous répondent rapidement,
44:41 qui sont agressifs, est-ce qu'on
44:43 n'est pas habitué à faire pareil ?
44:45 Est-ce que vous utilisez vraiment votre esprit critique ?
44:47 Et puis,
44:49 l'étape d'après, vous relayez un fake
44:51 et puis vous êtes convaincu que le fake
44:53 est vrai, et puis après vous allez accuser
44:55 ceux qui ne croient pas à ce fake d'être des traîtres
44:57 ou des oppositions contrôlées
44:59 genre moi.
45:01 Ouais, je sais, c'est un gras
45:03 comme chub. Alors où est-ce qu'on se dirige
45:05 avec les bots ? Même si pour le moment ça n'intéresse
45:07 que moi, ou presque,
45:09 il semble que
45:11 les médias laissent le sujet des bots et trolls
45:13 totalement dormant, mais je suis sûre que
45:15 ça va être utilisé contre nous un jour.
45:17 Je vois des articles
45:19 comme quoi Twitter n'a jamais eu autant de bots
45:21 depuis l'arrivée de Musk.
45:23 Oui, l'article explique que des chercheurs avaient analysé
45:25 des millions de messages
45:27 pendant une interview de Trump avec Tucker Carlson
45:29 en regardant les hashtags
45:31 et
45:33 ils décidaient que c'était des bots, ils postaient
45:35 des liens toutes les une ou deux minutes,
45:37 voire plus. Est-ce que vous les voyez venir ?
45:39 Ça veut dire qu'on est en train de nous amalgamer
45:41 avec ce groupe de bots qu'on est en train
45:43 de nous envoyer et de
45:45 nous ensevelir sous des bots pour pouvoir
45:47 mieux nous décrédibiliser par la suite.
45:49 On a ici
45:51 un autre article, mais là c'est plutôt français,
45:53 c'est les médias
45:55 qui parlent des climato-sceptiques
45:57 comme ils seraient tellement nombreux,
45:59 30% sur Twitter, donc
46:01 l'explication c'est "nous serions des bots" pour nous
46:03 invalider. Oui, c'est ça,
46:05 parce qu'on n'aura pas été capable
46:07 de dénoncer ça ou de montrer qu'ils ne sont pas
46:09 de notre camp. Ça va être utilisé
46:11 contre nous tôt ou tard. Déjà,
46:13 avec le certificat WorldID, c'était une
46:15 crypto-monnaie qui proposait de vous
46:17 créer un certificat pour prouver que vous êtes
46:19 humain, ou vous pouviez
46:21 aussi scanner votre iris pour avoir une donnée
46:23 biométrique. Ouais, super.
46:25 Tout se rejoint à confluence technocratique,
46:27 l'identité biométrique liée
46:29 à Internet. Ça a commencé en vérifiant
46:31 votre âge pour aller sur des sites web,
46:33 puis après, pour voir votre identité
46:35 sur des sites bancaires, et puis ça va arriver sur
46:37 les réseaux sociaux, ouais.
46:39 Et malheureusement, Twitter semble
46:41 vouloir aller dans la même direction,
46:43 malgré tout ce qu'il a fait de positif, et même
46:45 si je remercie Musk
46:47 de m'avoir fait revenir sur la plateforme
46:49 après avoir été banni plus de
46:51 douze fois sur Twitter,
46:53 je me demande s'il ne s'est pas fait exprès.
46:55 Est-ce que
46:57 on ne nous aurait pas fait juste revenir sur Twitter
46:59 pendant, je ne sais pas,
47:01 un ou deux ans, et
47:03 on nous donne l'illusion, l'impression qu'on a
47:05 des followers et une audience, et en même
47:07 temps, on a moins de visibilité
47:09 avec les gens réels,
47:11 et puis on va nous coller la
47:13 vérification d'identité sur Twitter parce que
47:15 le problème des bots serait trop grand.
47:17 Ouais, ça serait exactement là où on ne voulait pas
47:19 aller. Ouais. Parce que
47:21 mettre une identité numérique, le digital
47:23 ID, ça ne va pas empêcher d'avoir des
47:25 trolls ou des bots. Bah non !
47:27 Parce que là, n'importe qui
47:29 actuellement peut être vérifié, il y a
47:31 déjà plein de bots qui ont
47:33 des comptes bleus, ouais, et
47:35 les fermatrolls ont des centaines
47:37 de cartes SIM, des milliers de cartes SIM,
47:39 donc ce n'est pas un problème pour eux.
47:41 Si demain, on nous demande
47:43 de montrer une carte d'identité, ça changera
47:45 non plus rien au problème parce que
47:47 les fermatrolls peuvent soit
47:49 usurper une identité trouvée
47:51 sur le Darknet, faire peut-être des
47:53 fausses cartes d'identité pour créer un compte,
47:55 créer des masques en silicone,
47:57 comme certains s'en vantaient,
47:59 pour pouvoir tromper les systèmes de Face
48:01 ID ou que sais-je, ou même
48:03 utiliser l'identité des employés
48:05 pour, je sais pas, créer des comptes
48:07 et puis changer de nom ou de photo après.
48:09 Ouais, le problème de fond
48:11 c'est, si vous permettez
48:13 au Digital ID, à l'identité
48:15 numérique d'être utilisée pour
48:17 vous authentifier sur les réseaux sociaux,
48:19 ça va être la fin. Parce que si
48:21 on tue l'anonymat sur Internet,
48:23 vous allez tuer la liberté d'expression qui
48:25 y était liée. Imaginez aussi
48:27 si quelqu'un usure ensuite votre identité,
48:29 vous faites comment ?
48:31 Ouais, parce que, au moins
48:33 si on avait un jour, je sais pas,
48:35 piqué votre mot de passe ou quoi,
48:37 vous pouviez recréer un compte
48:39 ou bien on pouvait vous aider, mais si
48:41 quelqu'un a hacké vos données
48:43 biométriques et votre tête,
48:45 vous faites comment après ? Vous faites une chirurgie
48:47 esthétique pour changer de visage ?
48:49 Les bots et les trolls détournent et
48:51 créent des fictions pour maintenir le contrôle,
48:53 pour occuper nos esprits et lancer
48:55 des nouveaux débats et des fakes, pour nous
48:57 occuper et diriger notre manière de penser.
48:59 Le but
49:01 est de l'antagonisme et créer de la confusion.
49:03 Vous me direz "ouais,
49:05 il y avait déjà de la répression en vrai ou des
49:07 manifs dans la rue, donc si les gouvernements
49:09 utilisent des trolls ou des bots
49:11 contre les dissidents, c'est juste une nouvelle
49:13 manière." Je vous dirais "oui, c'est vrai,
49:15 mais au moins les gens le
49:17 voyaient." Ici, personne
49:19 ne le remarque. On est sortis d'un
49:21 enclos, on a l'impression d'être réveillé pour
49:23 entrer dans un nouveau. Est-ce qu'on devrait avoir
49:25 le droit de savoir si on parle à un humain ?
49:27 Est-ce qu'on a encore un libre arbitre
49:29 si toutes nos conversations sont dirigées ?
49:31 L'internaute
49:33 de la théorie du dead internet se posait
49:35 une question. Il se demandait si on avait réussi
49:37 à recréer le jeu Metal Gear
49:39 Solid 2. Si vous ne connaissez
49:41 pas le jeu, c'est un bête jeu d'action
49:43 à la base, comme il y en a des milliers, mais
49:45 le créateur avait écrit une fin
49:47 qui avait une réflexion assez puissante.
49:49 Le jeu de 2001 nous prévenait des dangers
49:51 des fake news, des demi-vérités,
49:53 20 ans plus tôt, quand on construit
49:55 des chambres d'écho, d'informations,
49:57 quand on reste dans nos bulles et qu'on repartage
49:59 des informations qui se conforment
50:01 à nos croyances, on a
50:03 tendance à rejeter toutes les personnes
50:05 qui expriment des doutes ou toutes les personnes qui ont
50:07 des avis différents. Le protagoniste
50:09 faisait des missions et découvrait
50:11 que les militaires qui lui donnaient
50:13 les instructions étaient en fait
50:15 une intelligence artificielle.
50:17 Il y a des mondes où d'ailleurs les humains
50:19 sont incompétents à séparer le vrai
50:21 du faux. Donc l'intelligence artificielle
50:23 lui explique qu'ils sont là pour
50:25 veiller à l'évolution de l'humanité,
50:27 mais que comme les humains
50:29 s'intéressent plus à des futilités,
50:31 du divertissement, des fake news,
50:33 et que nous avons
50:35 une vision polarisée du monde, qu'on vit
50:37 dans notre bulle, nos chambres d'écho,
50:39 et qu'on relaie des fakes,
50:41 et que ça nous pousse au conflit les uns contre les autres,
50:43 nous sommes incapables de régler
50:45 les problèmes de notre fake news, alors
50:47 l'IA va contrôler l'information
50:49 à notre place, à notre insu.
50:51 C'est notre responsabilité,
50:53 comme règles, comme dans la génétique,
50:55 l'information et l'esprit
50:57 inutiles doivent être filtrés
50:59 pour stimuler l'évolution
51:01 de l'espèce.
51:03 Et tu penses que tu es qualifié de décider
51:05 ce qui est nécessaire et ce qui n'est pas ?
51:07 Absolument.
51:09 Qui d'autre pourrait vaguer dans le seal
51:11 de déchets que les gens produisent,
51:13 récupérer des vérités valables,
51:15 et même interpréter leur sens pour des générations futures ?
51:17 C'est ce que ça signifie,
51:19 c'est de créer du contexte.
51:21 Je décide pour moi-même ce que je crois
51:23 et ce que je passe.
51:25 Mais c'est pas même ta propre idée ?
51:27 Ou quelque chose que Snake t'a dit ?
51:29 L'IA dit que si l'humain
51:31 est incapable de faire le tri,
51:33 de séparer le vrai du faux,
51:35 il dit qu'il va le faire à leur place.
51:37 Et quand le héros lui dit qu'il est capable
51:39 de décider lui-même ce qu'il va croire
51:41 et ce qu'il partagera, l'IA lui demande
51:43 "Mais est-ce que c'est ta propre idée ?
51:45 Est-ce que ce serait pas juste ce que ton ami t'a dit ?"
51:47 C'est la preuve de ton incompétence,
51:49 tu n'as pas les qualifications
51:51 pour exercer ton libre-vouloir.
51:54 Son argument c'est
51:56 l'humanité n'a pas les compétences pour avoir un libre-arbitre.
51:58 Oui, parce qu'on préfère
52:00 des idées pas parce qu'elles représentent la vérité,
52:02 mais parce qu'elles représentent
52:04 notre vision du monde.
52:06 Si on a une vision du monde complotiste,
52:08 on va prendre toute information qui est confiante.
52:10 Mais ça ne concerne pas que les complotistes,
52:12 ça concerne aussi tous les points de vue politiques
52:14 et tout le monde le fait.
52:16 Donc la question de l'IA, c'est
52:18 en tant qu'espèce, est-ce qu'on a
52:20 une véritable conscience, est-ce qu'on a un véritable libre-arbitre
52:22 ou est-ce qu'on n'est pas simplement
52:24 contrôlé par des éléments extérieurs ?
52:26 L'IA pose une vraie question
52:28 et on n'a pas vraiment de solution à ça.
52:30 Qu'est-ce que va devenir notre futur
52:32 si la société
52:34 continue à laisser se développer les fakes ?
52:36 Que ce soit du côté des mainstream ou du côté
52:38 des dissidents.
52:40 C'est une belle prédiction
52:42 faite 20 ans en avance par le créateur du jeu
52:44 Metal Gear Solid 2.
52:46 On en est à peu près là, sauf que ce sont les humains
52:48 maintenant qui utilisent
52:50 les machines pour nous manipuler
52:52 mais c'est assez flippant que le créateur ait vu
52:54 cette possibilité pour notre société
52:56 aussi tôt,
52:58 en avant, plus de 20 ans avant.
53:00 On est complètement là-dedans maintenant.
53:02 Ce qui me fait poser la question,
53:04 est-ce que nous méritons encore d'avoir un libre-arbitre ?
53:06 Et si oui,
53:08 qu'est-ce qu'on peut faire pour le garder
53:10 malgré la persuasion de masse, les dark ads,
53:12 les psyops, les hacks, les bots,
53:14 les faits relatifs, les deepfakes, les fake news
53:16 et tous les trolls autour de nous ?
53:18 Merci à vous.
53:20 Si ça vous a plu, mettez un like,
53:22 faites un subscribe et puis je vous reverrai
53:24 pour une prochaine vidéo.
53:26 [Musique]
53:28 [Musique]
53:30 [Musique]
53:32 [Musique]