• l’année dernière
Elle se nichait autrefois dans les méandres du net : elle envahit désormais notre quotidien sur les réseaux sociaux.
Protéiforme, omniprésente, la haine 2.0 détruit des vies et divise peu à peu nos sociétés contemporaines. Pourtant,
elle n’était pas au programme des débuts d’internet. Qu’est ce qui a changé ?

Les réseaux sociaux ont contribué à libérer la parole. Mais, le constat est là. Ils ont aussi banalisé l'insulte et l'invective
chez bon nombre de leurs utilisateurs. Harcèlements, propos xénophobes, propos antisémites, propos islamophobes.
Pourquoi tant de haine en ligne ? Et, surtout, quels sont les moyens d'y mettre un terme ?
Transcription
00:00:00 Générique
00:00:02 ...
00:00:15 -Bienvenue à tous. Les réseaux sociaux ont contribué
00:00:18 à libérer la parole, mais le constat est là,
00:00:21 ils ont aussi banalisé la haine chez bon nombre d'utilisateurs.
00:00:24 C'est ce phénomène qui nous préoccupe aujourd'hui
00:00:27 dans ce débat d'hoc, avec pour commencer le documentaire
00:00:30 qui va suivre, "Les réseaux de la colère".
00:00:33 Ici, la haine en ligne va vous être racontée
00:00:35 par des internautes qui l'alimentent, ceux qui la diffusent,
00:00:38 ceux qu'elle a pris pour cible et ceux qui la combattent.
00:00:41 Des témoignages et des images qui rendent compte,
00:00:44 vous allez le voir, d'une réalité aux allures parfois terrifiantes.
00:00:48 Je vous laisse le découvrir et je vous retrouverai
00:00:51 juste après sur ce plateau, en compagnie du ministre délégué
00:00:54 à la République, Jean-Noël Barraud, de la directrice générale
00:00:57 de l'association "E-Enfance", Justine Atlan,
00:01:00 et du journaliste François Saltiel. Avec eux,
00:01:03 nous chercherons les voies pour mieux lutter
00:01:05 contre le déferlement de haine qui se propage quotidiennement
00:01:09 sur les réseaux sociaux. Bon doc.
00:01:18 ...
00:01:24 -Elles sont devenues notre quotidienne banalité.
00:01:27 La colère et la haine ont envahi les réseaux sociaux.
00:01:32 Elles nous divisent et peuvent détruire des vies.
00:01:35 -De la vie ou le mort, personne ne m'interdira de partir.
00:01:38 Nous sommes en train de vivre un génocide.
00:01:41 -Le gouvernement, l'éducation et les religions
00:01:43 sont des systèmes de conduite.
00:01:45 Les plateformes promettaient une vaste conversation mondiale
00:01:49 et des amis virtuels par milliers.
00:01:51 ...
00:01:53 Il n'était pas prévu qu'elles deviennent des lieux de combat
00:01:56 où l'on réclame justice, où l'on tente à tout prix
00:01:59 d'imposer ses idées.
00:02:00 ...
00:02:03 Est-ce que la violence qui guette au moindre clic
00:02:05 est le prix à payer pour pouvoir dire tout,
00:02:08 tout le temps et à tout le monde ?
00:02:10 ...
00:02:12 Sommes-nous tous témoins ou complices ?
00:02:15 Victimes ou bourreaux ?
00:02:17 ...
00:02:30 ...
00:02:47 Message.
00:02:48 ...
00:02:52 Message.
00:02:53 ...
00:02:56 Message.
00:02:58 ...
00:03:05 -Je pense que les réseaux sociaux, c'est vraiment un moyen
00:03:08 où on peut se faire entendre et dénoncer.
00:03:11 Surtout ça, dénoncer, en fait.
00:03:14 ...
00:03:17 Demain, je suis dans la rue, j'assiste une baveur policière.
00:03:20 Je vais sortir mon téléphone et filmer.
00:03:23 -Il a trop de flow et c'est ça que j'aime trop.
00:03:27 ...
00:03:32 ...
00:03:38 -Sir Derek Chauvin a eu son genou sur George Floyd
00:03:41 pendant 8 minutes et 46 secondes,
00:03:44 y compris 2 minutes et 53 secondes
00:03:47 après que Floyd a été irresponsable.
00:03:49 -Relaxe.
00:03:51 ...
00:03:58 -Tous les gens parlaient de ça sur les réseaux.
00:04:01 Instagram, Snap, Twitter, la vidéo,
00:04:04 elle atterrit sur YouTube, même sur Facebook, WhatsApp.
00:04:08 Tout le monde l'a vue. Même mes parents l'ont vue.
00:04:11 Ca se passe aussi très souvent en France, en fait.
00:04:14 Donc on peut quand même s'identifier
00:04:16 à ce qui s'est passé avec George Floyd.
00:04:19 -Regardez, regardez, regardez ! Il a rien fait !
00:04:21 -Les réseaux sociaux regorgent
00:04:23 de vidéos amateurs d'arrestations brutales.
00:04:25 -C'est une dinguerie !
00:04:27 -Ceux qui les postent voudraient faire des plateformes
00:04:30 un outil de justice.
00:04:31 -Non, non, laisse, laisse, laisse !
00:04:33 Filmez, les gars, filmez !
00:04:35 -Ca m'a semblé important de montrer vraiment mon imagination
00:04:39 sur les réseaux sociaux,
00:04:40 parce qu'en fait, j'en avais ras-le-bol
00:04:43 de voir des baveurs policières, surtout pendant le confinement.
00:04:47 Je voyais des vidéos de baveurs policières tous les jours.
00:04:50 Ca m'a choqué, ça m'a dégoûté, donc j'ai mis "Hakab".
00:04:54 C'est de l'anglais, "Hakab, all cops are bastards",
00:04:57 qui veut dire que tous les flics sont des salauds.
00:05:00 Je me suis pas posé la question de savoir si c'est alerté.
00:05:03 C'est clairement pas un problème.
00:05:05 -Hakab, mort au port.
00:05:09 Les slogans anti-flics sont régulièrement en tête
00:05:12 des hashtags recommandés par Twitter.
00:05:16 L'indignation se mue facilement en haine.
00:05:18 Elle réactive des colères anciennes
00:05:21 ou des blessures jamais refermées.
00:05:24 -Avec mon père, j'étais en voiture.
00:05:28 Je devais avoir entre 7 et 9 ans.
00:05:30 Je sais plus ce qu'il avait fait, peut-être un stop ou un feu.
00:05:34 Et de là, il y a 3 ou 4 policiers en voiture
00:05:39 qui ont décidé de faire un contrôle.
00:05:42 Et mon père, au début, s'est laissé contrôler.
00:05:45 Et...
00:05:47 Au fur et à mesure, s'est monté crescendo.
00:05:51 Ils ont commencé à le frapper, à l'insulter,
00:05:54 à sortir des battes, à se mettre sur lui.
00:05:57 Euh... Voilà.
00:06:00 Ca m'a traumatisé.
00:06:02 J'ai vu mon père, il avait des bleus partout,
00:06:05 il saignait du nez.
00:06:06 Ca m'a traumatisé un peu.
00:06:08 Si un sujet me tient à coeur, je le défendrai jusqu'au bout
00:06:15 de toutes les façons possibles.
00:06:16 Je suis entier, je suis comme ça.
00:06:18 Message.
00:06:20 ...
00:06:27 Musique douce
00:06:30 ...
00:06:32 -Les réseaux sociaux ont libéré la parole.
00:06:34 A quel moment sont-ils devenus un outil de lutte militante ?
00:06:39 ...
00:06:43 Ce sont des actrices américaines qui ont ouvert la voie sur Twitter
00:06:47 en dénonçant publiquement les agressions sexuelles
00:06:50 du célèbre producteur Harvey Weinstein.
00:06:52 Des millions d'anonymes leur ont emboîté le pas.
00:06:56 ...
00:06:58 Partout dans le monde, la lutte contre les violences faites aux femmes
00:07:02 s'est imposée comme une urgence, grâce à un simple hashtag
00:07:06 relayé en masse sur Facebook et Twitter.
00:07:08 -T'as masse sur mon cul !
00:07:10 -T'en vois dans ta gueule !
00:07:12 -Dans le sillage du mouvement #MeToo,
00:07:15 un cap a été franchi en France.
00:07:17 Celui qui incite à nommer publiquement son agresseur,
00:07:21 à l'exposer à la vindicte, sans autre forme de procès.
00:07:25 ...
00:07:27 Cette vague a été si puissante qu'elle a inspiré d'autres militants
00:07:32 pour mener d'autres combats sur les réseaux sociaux.
00:07:35 ...
00:07:39 ...
00:07:43 Certains s'improvisent justiciers
00:07:45 en reprenant une pratique anglo-saxonne
00:07:47 qu'Internet a mondialisée, le "name and shame",
00:07:50 littéralement dénoncé pour humilier,
00:07:53 avec l'espoir de provoquer une vague d'indignation sur les réseaux.
00:07:57 ...
00:07:59 ...
00:08:01 ...
00:08:03 ...
00:08:05 ...
00:08:07 ...
00:08:10 ...
00:08:12 -Un clic pour un safari, épisode 5.1, arc barbare.
00:08:16 Je vous présente un grand malade.
00:08:18 ...
00:08:20 ...
00:08:22 Un des principaux responsables de la chasse à l'arc morbide en France,
00:08:27 il chasse à peu près tous les herbivores possibles.
00:08:30 ...
00:08:32 Je m'attaque principalement à des gens qui ont une renommée sociale,
00:08:36 un minimum. Ca peut être un avocat,
00:08:38 ça peut être des patrons de supermarchés,
00:08:41 ça pourrait être un dentiste vétérinaire,
00:08:45 dans le cas, par exemple, d'un pompier,
00:08:47 ça donne une jolie histoire,
00:08:49 avec des photos où il va être en tenue de pompier
00:08:53 et des photos où il va être avec les animaux
00:08:56 une girafe ou un ours ou ce genre de trophées.
00:08:59 Ca peut être une vidéo que je vais trouver particulièrement choquante,
00:09:04 qui va être, par exemple, de chasser une girafe à l'arc.
00:09:07 ...
00:09:10 Et tout ce qu'il fait est légal, mais c'est pas moral.
00:09:14 Je reviendrai plus en détail sur son cas.
00:09:17 Merci de mettre la honte du siècle à cet assassin.
00:09:20 ...
00:09:22 ...
00:09:25 ...
00:09:27 ...
00:09:29 ...
00:09:31 ...
00:09:33 ...
00:09:35 ...
00:09:37 ...
00:09:40 ...
00:09:42 -Aujourd'hui, j'ai plus d'activités professionnelles précises.
00:09:46 Euh...
00:09:48 Je pense que toutes ces activités en ligne
00:09:52 m'ont coûté une mauvaise publicité.
00:09:56 Si on veut faire la litanie des ennuis,
00:09:59 il y a sur un point de vue professionnel
00:10:03 des plaintes qui sont déposées des personnes que je cite.
00:10:07 J'en suis déjà à trois,
00:10:09 avec une liste longue comme le bras de motifs.
00:10:14 Diffamation, injure publique, harcèlement.
00:10:18 Euh...
00:10:20 Même le chantage, dernièrement, ça aurait dû m'arrêter.
00:10:24 Mais comme je n'avais personnellement rien à perdre,
00:10:28 autant continuer.
00:10:30 ...
00:10:33 ...
00:10:35 Message.
00:10:37 ...
00:10:39 ...
00:10:41 ...
00:10:43 ...
00:10:46 ...
00:10:48 ...
00:10:50 ...
00:10:52 ...
00:10:54 ...
00:10:56 Si je publie ces articles, c'est aussi que, pour moi,
00:11:01 ça me soulage.
00:11:03 C'est le fait que les gens s'en emparent
00:11:06 qui devient un jugement populaire.
00:11:09 C'est pas moi qui crée cette justice.
00:11:12 C'est le fait que cette vague naisse.
00:11:15 S'il n'y a pas la vague, mon message reste tout seul sur sa page
00:11:20 et sur personne.
00:11:22 ...
00:11:24 ...
00:11:26 ...
00:11:28 ...
00:11:30 ...
00:11:32 ...
00:11:35 ...
00:11:37 ...
00:11:39 ...
00:11:41 -Qui forme la meute qui insulte sur les réseaux ?
00:11:45 On parle facilement de haters,
00:11:48 là où il serait plus juste de parler de foules en colère.
00:11:52 Une foule de personnes, seules derrière leur écran,
00:11:56 qui trouvent là un exutoire à leur révolte
00:11:59 et à leur frustration.
00:12:01 ...
00:12:03 ...
00:12:06 ...
00:12:08 ...
00:12:10 ...
00:12:12 ...
00:12:14 Message.
00:12:17 ...
00:12:19 ...
00:12:21 ...
00:12:23 ...
00:12:25 ...
00:12:27 ...
00:12:29 -En fait, c'est quelque chose...
00:12:31 C'est pas le vrai défouloir,
00:12:34 mais quand même, ça permet de lâcher un peu
00:12:37 ce qu'on a dans le coeur, dans nos tigres.
00:12:39 Disons que...
00:12:42 En ayant les moyens de dire "merde" sur les réseaux sociaux,
00:12:46 il y a quelque chose qui fait qu'on n'explose pas.
00:12:49 Avant, non, j'étais pas comme ça.
00:12:52 En fait, je découvre ce qu'est la haine.
00:12:55 Je la découvre.
00:12:57 C'est de plus en plus dur, aujourd'hui.
00:13:00 Tu vas faire des courses, t'en as tout de suite pour 80 euros,
00:13:04 on est à deux.
00:13:06 Et ça me fait folie.
00:13:07 Tu peux pas aller au resto, c'est fini.
00:13:10 Tu peux pas aller au ciné, tu peux pas aller au théâtre.
00:13:13 Tu peux pas rencontrer des gens.
00:13:15 Mais c'est quoi, leur bordel ?
00:13:17 Ah là là, oui, j'affirme, je suis violente.
00:13:39 Quand je vois Macron, quand je vois Darmanin,
00:13:41 quand je vois Kastek,
00:13:43 toute cette bande de saloperies,
00:13:45 j'ai envie de leur cracher sur la gueule.
00:13:48 Je commence à monter un petit peu en pression.
00:13:51 C'est quand j'ai vu les Gilets jaunes qui défilaient.
00:13:54 Je suis allée faire quelques fois des ronds-points.
00:13:57 Je comprends pas qu'un gouvernement,
00:14:00 il puisse être indifférent à la souffrance.
00:14:04 En ligne, Annie a trouvé du sens à sa colère
00:14:10 en voyant qu'elle n'était pas seule.
00:14:12 Quand d'autres se sont mis à partager
00:14:14 leurs états d'âme à chaud et en direct,
00:14:17 à l'origine des Gilets jaunes,
00:14:19 il y a cette façon nouvelle de prendre la parole,
00:14:23 la vidéo selfie.
00:14:24 Bonjour à tous.
00:14:26 Alors, je viens faire une petite vidéo coup de gueule.
00:14:30 J'ai deux petits mots à dire
00:14:33 à M. Macron et son gouvernement.
00:14:36 Mais qu'est-ce que vous faites du pognon ?
00:14:39 À part changer la vaisselle de l'Elysée
00:14:41 et vous faire construire des piscines ?
00:14:44 Si on peut faire comme en 98 et en 2018,
00:14:47 pour la Coupe du monde, pour le gasoil,
00:14:49 pour les taxes, on se fait enculer de partout.
00:14:52 On a tous un Gilet jaune dans la bagnole.
00:14:55 Foutez-le en évidence sur le tableau de bord.
00:14:58 -La révolte est un moteur puissant pour faire cliquer.
00:15:02 Via Facebook et Twitter, une somme de malaise,
00:15:05 de millions de vues, de millions de likes,
00:15:08 s'est muée en un véritable mouvement social.
00:15:11 Les plateformes ont rendu la mobilisation possible,
00:15:14 mais elles ont aussi ouvert des vannes,
00:15:16 fait sauter des digues,
00:15:18 celles qui contenaient la violence d'une colère trop longtemps ignorée.
00:15:22 -Réveillez-vous !
00:15:25 Macron, baissez tes chaussures !
00:15:30 Macron, dénue la mission !
00:15:32 ...
00:15:38 -Il y a le principe que nous aurions été condamnés au mutisme
00:15:42 depuis de longues décennies,
00:15:45 que seules des supposées élites
00:15:47 auraient eu le droit de parole,
00:15:49 le droit de s'exprimer,
00:15:52 et aujourd'hui, ce serait, en quelque sorte,
00:15:54 l'heure de la grande revanche.
00:15:56 Et à une époque où il y a tant de souffrances,
00:15:59 tant d'insatisfactions,
00:16:01 c'est comme si, d'un coup, il y avait ce moment historique
00:16:05 qui avait permis à...
00:16:08 à des personnes qui se percevaient comme des laissés pour compte
00:16:13 de reprendre la main,
00:16:17 de pouvoir retrouver des formes de justice,
00:16:21 mais aussi de se faire justice,
00:16:24 de pouvoir trouver des formes de dignité.
00:16:28 Et la forme principale que ça a prise,
00:16:32 les formes principales que ça a prises,
00:16:35 on peut le regretter,
00:16:38 ce sont...
00:16:39 des régimes de la dénonciation.
00:16:42 -Les internautes ne sont pas tous d'accord
00:16:47 sur quoi et qui mérite d'être cloué au pilori.
00:16:50 Sur les réseaux sociaux,
00:16:53 les convictions et les indignations
00:16:55 s'entrechoquent de manière frontale.
00:16:57 ...
00:17:07 Il règne un climat de tensions permanentes
00:17:09 où le débat est devenu impossible,
00:17:12 où la nuance n'a plus sa place,
00:17:14 où l'on est sommé de choisir un camp.
00:17:16 Message.
00:17:18 -Je...
00:17:21 C'est vrai que des fois, je peux sortir un peu les griffes,
00:17:24 mais pour moi, c'est légitime, c'est jamais gratuit.
00:17:27 -Quand une personne a une idéologie opposée à la nôtre
00:17:33 et que, surtout, elle est très virulente
00:17:37 dans ses propos, on va forcément la considérer comme un hater.
00:17:40 Moi, par exemple, les racistes, je les considère comme des haters.
00:17:44 Les racistes, ils me considèrent comme un hater.
00:17:47 -L'homosexuelité !
00:17:48 -L'homosexualité !
00:17:50 -L'homosexualité !
00:17:51 -L'homosexualité !
00:17:52 -L'homosexualité !
00:17:54 -On se déteste, on s'insulte sans scrupule,
00:17:57 on se connaît sur les réseaux sociaux,
00:17:59 on se trolle aussi,
00:18:01 on crée des polémiques pour gâcher le buzz du camp d'en face.
00:18:06 Et à ce petit jeu,
00:18:07 l'extrême droite se montre particulièrement efficace.
00:18:10 -Il y a eu deux ou trois marches.
00:18:13 Je crois que j'ai tout fait.
00:18:15 Je suis descendu dans la rue, je suis monté jusqu'à Paris
00:18:18 avec mes copines.
00:18:19 Tout allait très bien, jusqu'au moment où on voit des gens
00:18:22 sur le toit déballer une banderole.
00:18:24 Au début, on n'a pas compris.
00:18:26 C'était des gens qui étaient de notre côté.
00:18:28 Il y a marqué "Justice pour les Blancs",
00:18:32 "White lives matter".
00:18:34 À partir de ce moment-là,
00:18:36 les gens, ils sont rentrés dans une colère noire.
00:18:40 Ils ont commencé à les insulter, à l'heure d'hier de décembre.
00:18:44 -La victoire ! La victoire !
00:18:45 La victoire ! La victoire !
00:18:47 -Faut que l'on soit dans notre cassette !
00:18:49 -Faut que l'on soit dans notre cassette !
00:18:52 -Faut la justice !
00:18:54 -La justice ! La justice !
00:18:56 -La justice ! La justice !
00:18:57 Musique douce
00:19:00 ...
00:19:04 -Je crois que la manif n'était même pas finie.
00:19:07 Une photo a atterri sur les réseaux sociaux.
00:19:09 On voit des membres de Génin sans identitaire
00:19:12 dans une fourgonnette avec des policiers
00:19:15 en train de se prendre en photo, avec un sourire jusqu'aux oreilles.
00:19:19 Ils font des pisses, ils sont très à l'aise,
00:19:21 alors qu'ils sont censés aller en garde à vue.
00:19:24 La photo, moi, elle m'énerve.
00:19:25 Ils sont là, ils sont tout contents.
00:19:28 ...
00:19:34 ...
00:19:40 Un groupe de jeunes noirs ou arabes,
00:19:42 je pense pas qu'ils auraient pu être aussi à l'aise
00:19:45 dans la fourgonnette avec les policiers.
00:19:47 C'est ça qui a interpellé.
00:19:49 Le seul but d'avoir fait cette photo, c'était de faire parler ou le buzz.
00:19:53 Et ça a bien marché.
00:19:54 Parce que maintenant, Thaïs, on la connaît,
00:19:57 son groupe d'amis, là, on les connaît aussi.
00:20:00 Bref, enfin...
00:20:02 Les propos que les gens tiennent à son égard sont dangereux,
00:20:05 mais ce qu'elle défend aussi, c'est dangereux.
00:20:08 Qu'elle soit pas étonnée, quoi.
00:20:10 Parce que je pense que Thaïs,
00:20:12 elle a dû bien se faire insulter sur Twitter.
00:20:14 Je pense, hein.
00:20:17 ...
00:20:23 -La haine, quand elle se déchaîne, est toujours intolérable.
00:20:26 Même si certains considèrent qu'elle fait partie du jeu...
00:20:30 ...
00:20:32 Et savent s'en servir de tremplin pour gagner en visibilité.
00:20:35 ...
00:20:37 "Petite blanche, j'ai bien envie de te violer ta mère.
00:20:40 "Je te conseille pas de sortir de chez toi.
00:20:42 "Si ça t'attrape, c'est fini pour toi, sale facho.
00:20:45 "Un jour, je vais trouver ton adresse à toi et tes petits potes.
00:20:48 "On va brûler toi et ta famille. On a tous vos noms de salopes."
00:20:51 En quelques heures, j'ai dû comptabiliser, peut-être,
00:20:54 je sais pas, plus de...
00:20:56 En tout cas, dans la soirée après l'action,
00:20:58 plus de 1 000 menaces et insultes sur Twitter.
00:21:02 J'aime bien citer l'exemple de Sainte-Jeanne d'Arc,
00:21:05 parce qu'elle a été diabolisée en son temps
00:21:07 et brûlée sur la place publique.
00:21:09 Donc la cause que je défends, vaut la peine de prendre ces risques-là.
00:21:13 "Génération identitaire", le terme "génération identitaire"
00:21:16 était dans les top tendances Twitter,
00:21:18 c'est-à-dire les sujets les plus discutés en France sur Twitter
00:21:21 à ce moment-là.
00:21:22 Et il y avait "génération identitaire"
00:21:24 et également Thaïs, qui était parmi les top tendances.
00:21:28 Bonjour à tous, c'est Thaïs de "Génération identitaire".
00:21:31 Les réseaux sociaux ont une importance,
00:21:33 parce qu'on est dans une société médiatisée,
00:21:36 la jeunesse s'informe de plus en plus sur les réseaux sociaux,
00:21:39 quitte les médias traditionnels.
00:21:41 Donc effectivement, ça augmente et multiplie
00:21:43 l'impact qu'on peut avoir.
00:21:45 -Les idées comptent moins désormais que l'influence.
00:21:54 Les politiques se battent pour récupérer les passions
00:21:57 qui agitent les réseaux,
00:21:58 car le pouvoir de point zéro se compte en nombre d'abonnés.
00:22:02 Mais comment capter l'attention
00:22:09 dans le pullulement permanent de posts et de commentaires ?
00:22:13 Le député Joachim Sonforger,
00:22:17 aussi connu sous le nom de "roi des trolls",
00:22:19 a conquis ses followers à coups de provocation.
00:22:22 -Quand vous avez peu d'abonnés,
00:22:26 vous êtes satisfaits quand vous en gagnez une centaine.
00:22:29 Il y a quelque chose pour rassasier votre addiction
00:22:32 à cette audience, qui est très progressif.
00:22:35 Quand vous en avez beaucoup, vous voulez encore plus, etc.
00:22:38 Donc il y a un côté de circuit de la récompense,
00:22:41 comme on trouve dans certaines drogues, probablement.
00:22:43 -Le député est devenu une star de Twitter
00:22:46 en organisant un buzz autour de la publication
00:22:49 d'une autre élue, Esther Benbassa.
00:22:51 Elle y prenait à partie Brigitte Macron
00:22:53 à propos des Gilets jaunes.
00:22:55 -La sénatrice Benbassa, à l'époque,
00:22:57 était dans une attitude d'inventer des propos à Brigitte Macron
00:23:00 qu'elle n'avait jamais tenus, qu'elle n'avait jamais pensé.
00:23:04 Je suis venu monter au créneau pour faire la riposte,
00:23:07 pour la défendre.
00:23:08 Je lui ai dit que le pot de maquillage
00:23:10 que vous mettez sur la tête vous incarnez plus que jamais,
00:23:13 parce que vous tentez maladroitement de caricaturer.
00:23:16 Je lui tends un miroir défendant en disant
00:23:19 que les propos déplacés ne sont pas très bienvenus.
00:23:21 La réponse, c'est qu'il est sexiste et qu'il veut me mettre
00:23:25 trop de maquillage sur ma tête.
00:23:27 -Joachim, son forgé, reçoit une pluie de réactions indignées
00:23:30 sur Twitter et il met intentionnellement
00:23:33 de l'huile sur le feu.
00:23:34 ...
00:23:46 -Quand je vois que ça fait le buzz,
00:23:48 soit j'arrête la machine,
00:23:50 soit j'utilise le truc.
00:23:52 Donc à ce moment-là, je trouve le truc tellement absurde,
00:23:56 mais tellement grossièrement efficace,
00:23:58 mes abonnés qui gonflent, qui gonflent, qui gonflent.
00:24:02 Je riposte avec des photos humoristiques
00:24:04 d'elle dans des manifs qui tient un panneau.
00:24:07 Mais c'est des vraies photos.
00:24:09 Je faisais même pas des montages.
00:24:11 Moins de police, plus de cannabis, des trucs comme ça.
00:24:14 C'est elle-même qui se ridiculise.
00:24:16 Je lui peux rien, c'est pas ma faute.
00:24:18 ...
00:24:30 -Il a envoyé quand même en 1h30 50 fois ma photo.
00:24:34 Jusqu'à maintenant, les arguments, on s'énervait entre nous,
00:24:38 mais on argumentait, la politique, ce n'est pas du sexisme.
00:24:42 ...
00:24:48 -Les pitreries du député font de lui un mème,
00:24:51 le héros de montages absurdes qui deviennent viraux.
00:24:54 ...
00:24:57 Ce fait d'armes vautage aux Hakim son forgé,
00:25:00 des dizaines d'articles et d'interviews dans la presse.
00:25:03 ...
00:25:08 -Je suis en capacité de générer à la suite
00:25:10 plusieurs contenus viraux et d'entraîner une communauté.
00:25:13 C'est le but.
00:25:14 ...
00:25:23 Le patron des députés, Gilles Lejean, me convoque
00:25:27 que je passe au conseil de discipline,
00:25:29 que c'est inadmissible.
00:25:30 Je lui dis que je ne peux pas passer au conseil de discipline.
00:25:34 Je me tire du parti en me disant que ma voie politique a continué,
00:25:37 mais il faut que j'aille défricher des terrains inconnus,
00:25:40 chercher des gens que les autres n'arrivent pas à chercher.
00:25:44 J'ai voulu créer le parti, un petit parti, à mon nom.
00:25:47 C'était une petite blague par rapport aux initiales en marche,
00:25:51 Emmanuel Macron, j'ai fait JSF, JE, je suis français et européen.
00:25:55 C'est un truc imprononçable, JSF, JSF...
00:25:58 Ca, c'était du trolling.
00:26:00 J'aimais bien l'idée que les gens ne sachent pas comment prononcer
00:26:03 et doivent se creuser les ménages autour d'un truc absurde
00:26:07 que j'ai pondu dans ma chambre.
00:26:08 ...
00:26:12 ...
00:26:15 Sonnerie.
00:26:17 -Sur les réseaux, le député distille une pensée difficile à suivre
00:26:22 et souvent très conservatrice.
00:26:24 Pro-life, pour le port d'armes
00:26:27 et surtout contre l'obligation d'être politiquement correct.
00:26:31 -Il y a beaucoup de gens qui veulent voir à tout prix
00:26:35 la provocation ou la violence.
00:26:38 Moi, j'ai pas l'habitude de me cacher,
00:26:40 et donc j'ai jamais caché ni mon goût pour les arts martiaux
00:26:44 ni pour la pratique des armes à feu.
00:26:47 ...
00:26:56 Ma cible, pour laquelle j'ai une petite forme de violence,
00:27:00 sont les hypocrites, en fait.
00:27:03 Je suis ce qu'on appelle les bourgeois, je crois, depuis longtemps.
00:27:06 J'aime pas ça.
00:27:07 ...
00:27:22 -Le propre de ce déluge de verbes,
00:27:25 c'est que ça produit à coup sûr
00:27:29 de la satisfaction pour ceux qui les formulent.
00:27:34 Ca fait office de catharsis
00:27:37 pour des centaines de millions d'individus sur Twitter
00:27:40 et des milliards d'individus sur Facebook.
00:27:42 Mais ça ne produit rien.
00:27:44 Les réseaux sociaux,
00:27:46 plutôt que d'instaurer et de pacifier
00:27:49 une société fondée sur la communication
00:27:51 et les échanges entre les personnes,
00:27:53 ont généré une forme de, il faut bien le reconnaître,
00:27:57 de psychiatrisation de la société.
00:28:00 Alors comment fait-on ?
00:28:02 ...
00:28:08 Est-il possible d'enrayer cette mécanique
00:28:10 de l'invectif permanente ?
00:28:11 Aux quatre coins du monde,
00:28:14 des militants tentent d'agir avec les moyens du bord.
00:28:17 Ils font face à la meute quand elles se déchaînent.
00:28:20 ...
00:28:22 Leur groupe s'appelle "Je suis là" et compte 200 000 membres.
00:28:25 Ils essaient de propager un peu de bienveillance
00:28:29 à travers leurs écrans.
00:28:30 ...
00:28:39 -T'es déjà sur le groupe, toi ? -Oui.
00:28:42 -Je crois qu'on va partir sur ça.
00:28:45 Hein ? -Oui.
00:28:46 -Là, je vois...
00:28:47 Il y a...
00:28:48 Jackie, une des modératrices,
00:28:50 qui a repéré un article.
00:28:54 On va vite aller le voir.
00:28:55 -C'est sur le premier mariage gay dans "L'amour est dans le pré".
00:28:59 -Ouh là là !
00:29:00 -Il y a quelqu'un qui a répondu à ça.
00:29:02 Il s'enfile la bague au doigt.
00:29:04 Un peu comme toi, tu t'enfiles en famille.
00:29:06 -Là, je vais mettre un com, moi.
00:29:09 "Pour rappel, exprimer publiquement
00:29:13 "de l'homophobie est un délit."
00:29:16 -Au moins, si ils te répondent,
00:29:18 ça te fait monter dans les commentaires pertinents.
00:29:21 -C'est ça. Plus ils commentent sur mon truc,
00:29:24 plus je deviens visible.
00:29:26 Tu vois celui de Jackie, aussi ?
00:29:29 -Je l'ai "liké".
00:29:31 -Du coup, il me répond.
00:29:33 "Montrer ça à des enfants publiquement, c'est mieux.
00:29:36 "Revoyez vos priorités."
00:29:39 Je lui ai montré des gens qui s'aiment.
00:29:42 Et là, il me dit...
00:29:43 "Qui s'aiment, lol, c'est devenu la mode, ma foi."
00:29:46 Là, je lui réponds que c'est pas une mode,
00:29:49 qu'on choisit pas d'être hétérosexuel ou homosexuel.
00:29:53 Et on ne devient pas...
00:29:58 ...homosexuel
00:30:01 en regardant...
00:30:03 ...un couple qui l'est.
00:30:08 Trois fois par jour,
00:30:11 il y a des actions qui sont lancées sur des articles.
00:30:14 Le but est quand même toujours
00:30:16 d'essayer de rendre nos commentaires visibles
00:30:20 pour, en fait, faire plancher la balance
00:30:24 vers la bienveillance.
00:30:25 Donc on utilise vraiment simplement les armes
00:30:28 qu'utilisent aussi les N.E.
00:30:31 On va sur le même terrain qu'eux
00:30:34 pour apporter des messages bienveillants et sourcés.
00:30:37 Voilà. On sait pas juste dire...
00:30:41 "Aimons-nous les uns les autres ?"
00:30:43 Bien qu'on puisse le faire, totalement,
00:30:46 mais l'idée, c'est aussi des fois d'apporter un vrai contre-discours.
00:30:51 Parce que je me dis, justement, les jeunes qui viennent
00:30:54 sur ces articles et qui voient que de la haine,
00:30:57 finalement, comme ils ont peu de recul
00:30:59 et parfois pas assez d'esprit critique,
00:31:02 ils peuvent prendre des informations fausses
00:31:06 ou de la haine comme étant ce qu'il faut penser.
00:31:09 C'est parce que mes enfants sont ados
00:31:12 et sont donc potentiellement une cible d'être influencés
00:31:17 que j'avais envie de rejoindre le groupe "Je suis là".
00:31:22 Si je commente sur un article qui est sorti récemment
00:31:25 et que je mets le hashtag "Je suis là",
00:31:28 ça peut arriver d'avoir 300 réponses sous un commentaire,
00:31:32 dont 250 qui sont haineuses.
00:31:36 Là, il y a une dame qui me dit,
00:31:38 "Il y avait longtemps que les co-labos de 'Je suis là'
00:31:41 n'étaient pas sortis des égouts."
00:31:43 Une personne qui me dit de dégager de France.
00:31:47 C'est quoi encore ce truc de "Je suis là" ?
00:31:50 "Putain, j'en peux plus de cette époque de tantoufles
00:31:53 "non-genrés, non-racisés, non-binaires, non-gnangnans,
00:31:56 "mais pendez-vous."
00:31:58 On a des fois l'impression que c'est un peu le mythe de Sisyphe
00:32:02 parce que c'est toujours répété, c'est toujours dire les mêmes choses.
00:32:06 Ce qu'on aimerait juste, c'est que ce soit possible
00:32:09 de dialoguer sans s'insulter sur les réseaux sociaux
00:32:12 et accessoirement de respecter les lois aussi.
00:32:16 Parce que, bon,
00:32:18 des commentaires, ceux que je vous ai lus là ou d'autres,
00:32:21 ils sont hors la loi.
00:32:22 On n'a pas le droit de dire à quelqu'un,
00:32:25 de menacer de mort quelqu'un,
00:32:27 de l'insulter sur ce qu'il est,
00:32:29 sur s'il est homosexuel, s'il est juif, s'il est musulman.
00:32:33 Ce sont des choses qui sont interdites,
00:32:35 mais qui sont sur les réseaux sociaux.
00:32:38 Et ça, c'est pas normal.
00:32:41 -L'injure publique, les menaces sont interdites par la loi.
00:32:44 Mais quand elles sont partout sur les réseaux,
00:32:47 à qui demander des comptes, sinon aux plateformes elles-mêmes ?
00:32:51 Et comment faire face
00:32:53 quand on est la cible d'un déferlement de haine ?
00:32:56 Musique douce
00:32:58 ...
00:33:05 -C'est un peu comme si on avait un peu de respect
00:33:08 pour les gens qui sont en danger.
00:33:10 ...
00:33:29 -Je dois reconnaître que j'ai probablement sous-estimé
00:33:32 la dangerosité que Twitter pouvait avoir pour moi.
00:33:36 Dès la sortie de mon premier livre, après mon retour de Syrie,
00:33:40 eh bien, j'ai fait l'objet d'insultes.
00:33:44 Mais j'ai presque envie de dire
00:33:46 que c'est le triste quotidien sur les réseaux sociaux.
00:33:50 Et puis, il y a eu un épisode assez particulier
00:33:55 où un pauvre homme, que j'ai du mal à blâmer,
00:33:58 puisqu'il a lui-même perdu sa fille
00:34:00 dans un attentat terroriste djihadiste au Bataclan,
00:34:03 mais qui a complètement perdu les pédales
00:34:06 et est devenu une espèce de boule de haine,
00:34:09 eh bien, a posté une invitation à tuer des enfants.
00:34:14 ...
00:34:34 Dans la foulée de ce tweet,
00:34:37 eh bien, cet homme a vu son compte suspendu.
00:34:41 Je me suis retrouvé avec des milliers, des dizaines de milliers de tweets
00:34:47 qui m'insultaient, qui me blâmaient,
00:34:50 qui m'accusaient des pires horreurs.
00:34:54 ...
00:35:23 -Nicolas Hénin s'est pris...
00:35:25 C'est pas une vague, c'est un tsunami.
00:35:30 On est dans quelque chose de totalement désendigué,
00:35:34 de quelque chose de massif,
00:35:36 au prétexte qu'il a tenu des propos
00:35:40 qui ont déplu à une frange, on va dire, de la fachosphère
00:35:44 concernant les djihadistes,
00:35:45 pris à partie par un père devenu un peu militant
00:35:50 d'une victime du Bataclan.
00:35:52 Et ça se fait dans un temps...
00:35:55 avec une rapidité expresse.
00:35:58 Le chef de Meuth, il n'a pas besoin de dire les choses précisément.
00:36:02 Quand vous êtes suivi par des aveugles,
00:36:05 ceux-ci vous suivent aveuglément.
00:36:08 Il n'y a plus de raison là-dedans.
00:36:11 Il n'y a plus d'introspection.
00:36:13 À partir de ce moment-là, il n'y a plus de bienveillance.
00:36:16 "Suceur de queue de barbu, ce Hénin.
00:36:19 "Vous n'êtes qu'un journaliste de pacotille
00:36:21 "que nous aurions dû laisser à Raka.
00:36:23 "C'est pas parce que tu as aimé t'enfiler leur chibre
00:36:26 "que tu dois interdire aux autres de dire ce qu'ils pensent.
00:36:29 "Espèce de malade mental.
00:36:31 "Vous êtes une merde.
00:36:33 "Collabo.
00:36:35 "Déjà tendu. Dommage."
00:36:37 Sonnerie.
00:36:39 -Bonjour, Eric. Ah, ça y est, je te vois.
00:36:41 Je suis prêt à aller aussi loin qu'il faudra
00:36:44 dans cette procédure.
00:36:46 Pour, encore une fois, tous les anonymes.
00:36:49 Parce qu'en fait, ce qui m'est arrivé,
00:36:50 c'est exactement ce qui peut arriver à n'importe quel ado
00:36:53 d'une cité ou d'une campagne
00:36:56 ou n'importe quelle personne un peu vulnérable.
00:36:59 -Les processus, c'est les mêmes.
00:37:01 Le type d'insulte, c'est les mêmes.
00:37:02 La volonté de nuire est la même.
00:37:04 -Et ça attend de la même manière que l'on soit
00:37:07 une personnalité publique, plus ou moins,
00:37:09 ou quelqu'un de totalement anonyme.
00:37:12 Ça, c'est...
00:37:14 C'est quelque chose qui fragilise énormément.
00:37:16 C'est pas que des mots.
00:37:18 C'est pas parce que j'ai une certaine visibilité,
00:37:20 une certaine expérience, que je suis complètement insensible
00:37:23 et que je peux pas être blessé.
00:37:25 -Alors, l'attitude des plateformes, elle est...
00:37:27 Elle est...
00:37:29 Peut-être le problème majeur.
00:37:30 Il faut bien voir qu'aujourd'hui, Twitter ne collabore pas.
00:37:33 Ne collabore plus.
00:37:35 Twitter, c'est une société de droits californiens
00:37:38 qui invoque le premier amendement américain.
00:37:40 Je vous rappelle qu'aux Etats-Unis, vous pouvez sortir dans la rue,
00:37:43 être habillé en Asie et faire un salut hitlérien.
00:37:46 Vous ne serez jamais poursuivi.
00:37:48 Le droit américain ne connaît pas d'abus de la liberté d'expression.
00:37:52 -Les réseaux sociaux ne feront absolument rien pour vous protéger.
00:37:56 Et même, peut-être, pire que ça,
00:37:58 peut-être qu'ils feront moins que rien.
00:38:00 Peut-être qu'ils feront ce qu'ils peuvent pour saboter l'enquête.
00:38:04 -On a été entendu par les services enquêteurs,
00:38:06 qui ont fait des réquisitions à Twitter, judiciaires.
00:38:09 Et encore quelques mois, quelques années,
00:38:13 Twitter répondait non
00:38:15 en invoquant le premier amendement.
00:38:16 Aujourd'hui, Twitter ne répond même plus.
00:38:18 En ce qui concerne Nicolas Hénin, il y a eu zéro réponse.
00:38:21 Il y a eu une relance de réquisition judiciaire
00:38:24 et Twitter n'a pas répondu.
00:38:25 Ce faisant, je considère que Twitter s'est mis hors la loi
00:38:29 puisque eux disent qu'il suffit qu'un juge nous demande, on donnera.
00:38:32 En fait, c'est faux.
00:38:33 C'est faux.
00:38:35 On a une fake news de la part de Twitter là-dessus.
00:38:39 Et nous avons décidé de les poursuivre de ce fait.
00:38:41 -Est-ce que je pourrais être fondé
00:38:43 à demander des dommages à intérêt à Twitter pour ça ?
00:38:46 Pas vraiment. -Oui, on le fera, bien sûr.
00:38:48 Le fait de ne pas avoir répondu aux réquisitions
00:38:51 te cause un préjudice.
00:38:52 -Ca n'empêche pas de demander des dommages à intérêt.
00:38:55 -C'est un empêchement ? -Ne serait-ce que pour...
00:38:58 -Qu'il soit obligé d'y répondre.
00:39:00 -Ah.
00:39:01 -Vous savez, on a créé des monstres avec ces gaffes-là.
00:39:04 On les a créés même, peut-être sans s'en rendre compte,
00:39:07 mais finalement, en fermant un petit peu les yeux.
00:39:10 Est-ce qu'on va les laisser gouverner nos vies ?
00:39:12 Est-ce qu'on va les laisser s'immiscer partout ?
00:39:15 Ou est-ce qu'à un moment, on va porter les coups qu'on peut ?
00:39:18 -Cette violence que les plateformes laissent prospérer
00:39:23 conduit à des drames bien réels.
00:39:25 Samuel Paty, professeur d'histoire,
00:39:29 a été désigné par un parent d'élève comme blasphémateur
00:39:32 dans une vidéo devenue virale sur Facebook.
00:39:35 Il a été sauvagement assassiné par un terroriste.
00:39:39 Comment en est-on arrivé là ?
00:39:43 -Peut-être à cause d'un malentendu originel.
00:39:45 Les réseaux sociaux n'ont pas été conçus
00:39:48 pour nous informer ou nourrir le débat public.
00:39:50 Les plateformes captent notre attention
00:39:53 dans un seul et unique but,
00:39:55 collecter nos données personnelles
00:39:57 pour les revendre à des publicitaires.
00:39:59 -Peut-être que nous sommes laissés prendre au piège,
00:40:04 un grand nombre d'entre nous se sont laissés prendre au piège
00:40:07 de cette industrie,
00:40:10 car il faut revenir au coeur de l'affaire.
00:40:12 C'est une industrie.
00:40:14 Ce sont des industries qui viennent de la Silicon Valley,
00:40:17 qui ont été développées par des ingénieurs
00:40:20 et des concepteurs extrêmement habiles
00:40:23 en vue de générer de la dopamine,
00:40:28 c'est-à-dire le sentiment de satisfaction,
00:40:31 de l'importance de soi,
00:40:33 en vue de générer aussi l'envie de y revenir continuellement.
00:40:39 -Pour nous garder en ligne,
00:40:40 les plateformes font appel à des formules mathématiques,
00:40:44 les fameux algorithmes.
00:40:45 Ils favorisent les publications et les commentaires
00:40:48 qui nous applent le plus,
00:40:50 et notre cerveau est ainsi fait
00:40:52 qu'il est facilement captivé par les contenus choquants.
00:40:55 Les algorithmes des réseaux sociaux
00:41:01 sont nés du travail d'une poignée d'ingénieurs.
00:41:04 L'un d'eux est français.
00:41:08 Après son départ de Google,
00:41:09 il a rejoint la liste des repentis de la Silicon Valley.
00:41:13 Il dénonce la responsabilité des algorithmes
00:41:17 dans la montée de la haine en ligne et dans l'essor du complotisme.
00:41:21 -Le complotisme et la haine, c'est les deux faces d'un même problème.
00:41:26 C'est deux attitudes qui font passer énormément de temps
00:41:29 aux gens en ligne,
00:41:30 donc qui sont massivement amplifiées et promues par les algorithmes.
00:41:34 Tout le monde a l'impression d'avoir le contrôle
00:41:37 sur ce qu'il voit et ce qu'il lit,
00:41:39 mais à chaque fois, c'est l'algorithme qui a le contrôle.
00:41:42 Sur Twitter, c'est l'algorithme qui va décider
00:41:45 quels sont les posts que vous allez voir
00:41:47 et ceux que vous n'allez pas voir.
00:41:49 YouTube et Google ont testé beaucoup de méthodes
00:41:52 pour faire rester les gens plus longtemps.
00:41:54 Ce qui marche le mieux, c'est de donner des contenus très similaires
00:41:58 aux contenus que les gens ont déjà regardés avant.
00:42:01 Et en fait, ça va créer cet enfermement algorithmique,
00:42:05 ce qu'on appelle des bulles de filtre en anglais,
00:42:07 où on ne voit toujours que les mêmes informations.
00:42:10 Donc, on ne voit qu'une partie biaisée de l'information.
00:42:13 Donc là, on voit une cartographie de tout YouTube.
00:42:20 En vert, on voit toutes les chaînes d'information.
00:42:24 Donc, il y en a énormément.
00:42:25 Et on voit les liens qu'elles ont entre elles.
00:42:28 Les chaînes complotistes sont éloignées des chaînes non-complotistes.
00:42:32 Et du coup, ça crée deux univers.
00:42:35 Un univers dans lequel on ne voit quasiment que du contenu complotiste
00:42:40 et un univers dans lequel on ne voit quasiment que du contenu non-complotiste.
00:42:44 Et après, on peut aller regarder vidéo par vidéo
00:42:47 quelles ont été les vidéos massivement recommandées par YouTube.
00:42:51 Donc, en 2018, une des vidéos les plus recommandées, par exemple,
00:42:55 c'était une vidéo "Flat water, flat earth",
00:42:58 qui disait que quelqu'un avait vu un mur de glace
00:43:01 qui entoure le monde et qui prouve que la Terre est plate
00:43:05 et entourée par un mur de glace
00:43:07 derrière lequel il y a d'énormes trésors qui nous sont cachés par la NASA,
00:43:12 qui ne veut pas qu'on aille accéder à ces trésors.
00:43:15 Il y avait aussi des théories de Quanon,
00:43:19 théories conspiratorielles de Quanon,
00:43:21 qui ont été massivement recommandées,
00:43:23 des centaines de millions de fois au total, par YouTube.
00:43:28 Quand j'ai vu qu'il y avait des contenus terroristes
00:43:31 et des contenus complotistes favorisés par l'algorithme de YouTube,
00:43:36 j'en ai parlé à des anciens collègues à YouTube.
00:43:40 Et là, sur les contenus terroristes,
00:43:42 ils ont pris mes considérations au sérieux
00:43:45 et il y a eu des changements qui ont été faits.
00:43:48 Par contre, pour les théories du complot,
00:43:50 ils m'ont dit "Bon, ça, c'est pas de notre faute, les gens cliquent là-dessus".
00:43:54 Ils ne pensaient pas qu'ils avaient une responsabilité là-dedans,
00:43:57 donc quand ils recommandaient ces théories du complot par milliards,
00:44:01 en fait, ils mentaient aux gens par milliards de fois.
00:44:05 Les réseaux sociaux diffusent à grande échelle
00:44:10 des informations prétendument secrètes,
00:44:13 des révélations, des vérités cachées.
00:44:16 Dans toutes les langues, à propos de presque tout,
00:44:19 un refrain tourne en boucle.
00:44:21 "On vous manipule et on vous ment."
00:44:26 Il y a longtemps déjà que je m'intéressais à la politique.
00:44:28 Déjà, j'aime beaucoup.
00:44:30 Parce que tu décèles pas mal de choses après
00:44:33 et t'arrives à entendre
00:44:36 entre les lignes ou les paroles.
00:44:39 Parce que les médias, je me suis rendue compte
00:44:40 qu'ils nous mentaient du matin jusqu'au soir.
00:44:43 Le mot "complotiste", mais moi, je m'en orgueillis.
00:44:48 Parce qu'en fait, on dévoile la vérité
00:44:52 un peu avec un temps d'avance,
00:44:55 mais en vérité, c'est pas nous, les complotistes.
00:44:58 C'est ce putain de gouvernement de billets et compagnie
00:45:01 qui te donne envie de vomir.
00:45:03 Je l'ai découvert, c'est pour ça que je te dis par Internet.
00:45:06 La clé, c'est d'en avoir rien à foutre
00:45:09 de ce que disent les médias.
00:45:11 Faut juste en avoir rien à branler.
00:45:13 Le peuple se réveille de son état d'hypnose.
00:45:17 Nous, les Français, nous sommes traités comme des potes.
00:45:20 Et vous aviez les yeux fermés.
00:45:22 Et aujourd'hui, on vous propose de les ouvrir.
00:45:25 Ils ont créé volontairement le Covid-19.
00:45:28 Les dénonces ont reçu un état profond.
00:45:31 C'est une guerre.
00:45:32 Grosse corporation pédo-satanique pour la plupart.
00:45:35 J'ai découvert les viols d'enfants,
00:45:38 le crime d'enfants,
00:45:40 parce qu'ils vont loin,
00:45:42 et notamment aux Etats-Unis.
00:45:44 Mais on sait également que la pédocriminalité,
00:45:48 elle est là, elle est à nos portes.
00:45:52 Ils les violent.
00:45:54 Ils les tuent.
00:45:55 Et dans des conditions abominables.
00:45:57 Ils boivent leur sang.
00:45:58 Et ils arrivent même à manger la chair.
00:46:00 (cris de la foule)
00:46:04 -Nous avons 26 000 militaires qui sont aujourd'hui derrière nous.
00:46:07 -Dans les semaines et les mois qui viennent,
00:46:09 il va y avoir des opérations d'envergure.
00:46:11 Et la France va se retourner d'un seul coup, croyez-y.
00:46:15 -On se retrouve comme si on était une famille
00:46:19 soudée, solidaire,
00:46:21 qui s'aime, en fait,
00:46:24 qui cherche la vérité, mais le bien des autres.
00:46:28 On a les mêmes idées, t'arrives à le voir sur Internet,
00:46:32 même sur Facebook.
00:46:34 C'est pour ça qu'il faut qu'on ouvre les yeux,
00:46:37 qu'on s'unisse.
00:46:39 Oui, ça peut péter.
00:46:41 Et là, on est sur les charbons ardents.
00:46:44 D'une manière ou d'une autre, on va y arriver, c'est obligé.
00:46:47 À la révolution ou à une guerre civile.
00:46:50 -C'est pour les mêmes raisons
00:46:52 et avec les mêmes certitudes que des partisans
00:46:55 de mouvements complotistes comme QAnon
00:46:57 ont pris d'assaut le Congrès des Etats-Unis.
00:46:59 ...
00:47:06 Galvanisés par leurs échanges sur les réseaux,
00:47:09 ils ont tenté de renverser Joe Biden,
00:47:11 le nouveau président des Etats-Unis.
00:47:13 Enfermés dans leur bulle de filtre,
00:47:16 ils étaient sûrs que c'était le premier jour
00:47:19 d'une nouvelle ère.
00:47:20 ...
00:47:26 Les plateformes, dépassées par leurs responsabilités,
00:47:30 sont passées d'un extrême à l'autre.
00:47:32 Après des années de complaisance,
00:47:34 elles ont lancé une vaste purge.
00:47:37 Donald Trump lui-même a été banni à vie de Twitter.
00:47:40 ...
00:47:42 Et avec lui, des dizaines de milliers d'autres utilisateurs,
00:47:46 soudainement identifiés comme une menace pour la démocratie.
00:47:49 ...
00:47:51 Quelques jours après l'invasion du Capitole,
00:47:54 Joachim Sonforger a tenté un coup de poker
00:47:56 qui aurait pu lui rapporter des centaines de milliers d'abonnés.
00:48:00 Il a rebaptisé son profil au nom de Donald Trump.
00:48:03 ...
00:48:05 Twitter a aussitôt supprimé son compte.
00:48:08 -Oui, 375, c'est ta killer, c'est moi.
00:48:12 Tu peux m'ajouter.
00:48:13 ...
00:48:15 OK, igoulet, je te vois, j'accepte.
00:48:19 Vous êtes vraiment les bienvenus à rejoindre le Discord.
00:48:22 -Privé de ses 65 000 abonnés,
00:48:25 le député se console sur d'autres terrains de jeu,
00:48:28 toujours en quête de nouveaux électeurs.
00:48:31 ...
00:48:34 -Ca me permet de rencontrer des nouvelles personnes
00:48:36 et un électorat aussi potentiel.
00:48:39 OK, tu te mets juste connecté,
00:48:42 et je te rajoute au groupe dès que j'ai fini celle-ci.
00:48:45 Je suis vraiment à votre disposition
00:48:47 pour vous ouvrir des portes s'il y a besoin.
00:48:50 Même si vous n'avez pas envie de vous engager avec nous,
00:48:53 si vous avez juste besoin d'un petit coup de main,
00:48:55 y a vraiment aucun souci.
00:48:57 -Fermer des comptes,
00:48:58 est-ce la bonne stratégie pour ramener la paix sur les réseaux ?
00:49:02 -Avant que mon compte se fasse censurer,
00:49:04 j'étais à 20 000.
00:49:06 Puis après, j'en avais recréé un dans la foulée
00:49:08 où en 24 heures, je suis arrivée à 10 000.
00:49:11 Il ressaute, j'en crée un troisième,
00:49:13 il tient 5 jours ou une semaine max,
00:49:15 il remonte à 18 000 et hop, censuré.
00:49:17 Après, c'était fini, tous les comptes de G.I. ont sauté.
00:49:20 -Sur Facebook, je crois qu'en tout,
00:49:22 j'en suis à plus d'une dizaine de comptes
00:49:24 que j'ai dû recréer à la chaîne.
00:49:26 -Mon compte Instagram, j'ai atteint les 10 400 abonnés,
00:49:29 ce qui est déjà pas mal,
00:49:30 mais j'appelle régulièrement les gens qui nous suivent
00:49:33 à nous rejoindre sur Telegram,
00:49:35 parce que je suis pas à l'abri non plus
00:49:37 à ce que ce compte-là saute.
00:49:39 Musique rythmée
00:49:41 -Interdite de Facebook, de Twitter, de TikTok et d'Instagram.
00:49:45 Génération identitaire est bannie, mais pas muselée.
00:49:49 ...
00:49:51 Cela fait des années que l'ultra-droite
00:49:53 est régulièrement visée par des suppressions de comptes.
00:49:56 Cela n'a pas empêché le groupuscule de faire parler de lui.
00:49:59 Cette opération de chasse aux migrants dans les Pyrénées
00:50:02 a été très largement relayée sur les réseaux.
00:50:05 Privée de compte officiel, l'organisation
00:50:07 s'est tout de même assurée une couverture médiatique
00:50:10 impressionnante.
00:50:12 -C'est pas du racisme anti-bloc ?
00:50:14 -C'est pas du racisme anti-bloc ?
00:50:15 -Ca les aide d'être bannis sur des plateformes,
00:50:18 parce qu'après, ils se posent en martyr
00:50:20 et ils ont encore plus de vues qu'avant.
00:50:22 Trop de modération, c'est contre-productif.
00:50:25 Il faut responsabiliser l'amplification algorithmique.
00:50:28 Quand une plateforme recommande un contenu un milliard de fois,
00:50:33 si ce contenu viole une loi,
00:50:36 la plateforme doit être tenue responsable.
00:50:39 Et donc, ça, ça demande une collaboration
00:50:42 entre des politiques et des ingénieurs.
00:50:45 -Plus personne ne nie qu'il y a urgence à réguler.
00:50:56 Mais la masse de contenu est telle
00:50:59 que les autorités, comme les plateformes, sont submergées.
00:51:02 Deux ans après leur publication,
00:51:09 des centaines d'insultes visant Nicolas Hénin
00:51:11 sont toujours en ligne.
00:51:12 Génération Identitaire a popularisé ses idées radicales
00:51:21 grâce aux réseaux sociaux.
00:51:23 Aucune plateforme n'est parvenue à mettre fin à ses activités.
00:51:27 C'est le ministère de l'Intérieur
00:51:29 qui a dit sous le groupuscule, pour incitation à la haine.
00:51:33 Julien est décédé brutalement après le tournage du film.
00:51:42 Malgré les procès qu'il attendait,
00:51:44 il n'a jamais cessé ses activités en ligne.
00:51:46 Il n'y a pas de remède contre l'envie d'insulter
00:51:52 ou de croire des théories absurdes.
00:51:55 Pas de formule magique contre la haine.
00:51:57 Il y a une industrie
00:52:00 et il y a des hommes pris dans un engrenage.
00:52:02 Qui de nous ou de la machine saura y mettre fin ?
00:52:08 Les réseaux sociaux ont contribué à libérer la parole,
00:52:11 mais le constat est là, ils ont aussi banalisé l'insulte
00:52:14 et l'invectif chez bon nombre de leurs utilisateurs.
00:52:17 La preuve, à l'instant, avec ce documentaire,
00:52:20 réalisé par Hélène Lamtrang.
00:52:22 Nous allons en débattre maintenant
00:52:33 avec nos invités présents sur ce plateau de Débat Doc.
00:52:36 Commençant par vous, Jean-Noël Barreau,
00:52:38 vous êtes ministre délégué chargé du Numérique
00:52:41 et vice-président du mouvement démocrate Le Modem.
00:52:44 Au sein du gouvernement,
00:52:45 vous avez notamment porté un projet de loi
00:52:48 visant à sécuriser et réguler l'espace numérique.
00:52:51 C'est un texte qui est toujours en cours d'examen
00:52:53 à l'Assemblée nationale.
00:52:55 Il a été voté par le Sénat,
00:52:57 il vient d'être nommé d'être voté aussi
00:52:59 du côté de l'Assemblée nationale,
00:53:01 mais le verdict final, ça sera pour décembre prochain,
00:53:05 à l'occasion d'une commission mixte paritaire
00:53:07 où sénateurs et députés se mettront d'accord,
00:53:10 on l'espère, sur un texte commun.
00:53:13 Justine Atlan est également avec nous.
00:53:15 Bienvenue. Vous êtes la directrice générale
00:53:17 de l'association Oui Enfance, reconnue d'utilité publique
00:53:21 dans sa mission de protection de l'enfance
00:53:23 sur Internet et d'éducation à la citoyenneté numérique.
00:53:28 Et puis, François Saltiel est également avec nous.
00:53:30 Vous êtes journaliste, auteur, réalisateur,
00:53:33 producteur. Votre chronique, entre autres,
00:53:36 "Un monde connecté", est à écouter chaque jour de la semaine
00:53:39 chez nos confrères de France Culture.
00:53:41 Votre dernier livre s'intitule "La société,
00:53:44 "sû, sans contact, selfie d'un monde en chute",
00:53:47 disponible aux éditions Flammarion.
00:53:49 Ce ne sont plus les plateformes qui font la loi,
00:53:52 mais la loi qui doit faire plier les plateformes,
00:53:55 avez-vous dit, dans une interview que j'ai eu l'occasion de lire.
00:53:58 On va y revenir, bien sûr, et c'est dans cet état d'esprit.
00:54:02 Vous avez travaillé Jean-Noël Barraud.
00:54:04 Pour commencer, on va voir un premier extrait du documentaire.
00:54:07 Il concerne justement le problème de ces fameuses plateformes.
00:54:11 -Alors, l'attitude des plateformes,
00:54:13 elle est peut-être le problème majeur.
00:54:17 Il faut bien voir qu'aujourd'hui, Twitter ne collabore pas,
00:54:21 ne collabore plus.
00:54:22 Twitter, c'est une société de droits californiens
00:54:25 qui invoque le premier amendement américain.
00:54:27 Je vous rappelle qu'aux Etats-Unis,
00:54:30 si vous avez apparu être habillé en Asie et faire un salut hitlérien,
00:54:33 vous ne serez jamais poursuivi.
00:54:35 Le droit américain ne connaît pas d'abus
00:54:37 de la liberté d'expression.
00:54:39 -C'est justement la liberté d'expression
00:54:41 qu'il s'agit de réguler aujourd'hui face à ces monstres
00:54:45 que sont les GAFAM.
00:54:46 C'est un bras de fer, en réalité,
00:54:48 qui est en train de s'engager avec ses opérateurs américains.
00:54:51 Pour la plupart, on peut regretter qu'il n'y ait pas de GAFAM européen.
00:54:55 On en parlera peut-être tout à l'heure.
00:54:58 Mais la réponse européenne est arrivée
00:55:00 avec ce qu'on appelle le Digital Service Act,
00:55:03 qui est en oeuvre depuis le 25 août dernier
00:55:05 partout dans l'Union européenne
00:55:07 et qui doit permettre de protéger les internautes
00:55:10 contre les propos haineux et les opérations
00:55:12 de désinformation en ligne.
00:55:14 C'est pleinement notre sujet.
00:55:16 C'est le sujet soulevé par le film que nous allons voir.
00:55:19 C'est la réponse européenne au bras de fer
00:55:22 qu'il faut engager avec ces fameuses plateformes
00:55:24 essentiellement américaines.
00:55:26 -Oui, après une vingtaine d'années
00:55:28 pendant lesquelles ces grandes plateformes
00:55:31 se sont retranchées, se sont cachées
00:55:34 derrière les différences de nos législations,
00:55:36 de nos réglementations nationales...
00:55:39 -Cette sacro-sainte liberté d'expression.
00:55:41 -...pour ne pas payer d'impôts et échapper à toutes nos règles.
00:55:45 Il faut reconnaître que depuis quelques années,
00:55:47 depuis cinq ans, les choses ont changé,
00:55:50 grâce à la France, notamment,
00:55:52 grâce au président de la République
00:55:54 qui a été une cause
00:55:56 de nos batailles européennes.
00:56:00 Et nous avons, en matière fiscale,
00:56:02 mis fin à cette situation
00:56:04 qui consistait, pour les géants du numérique,
00:56:07 à s'installer systématiquement en Irlande
00:56:09 ou au Luxembourg pour échapper à l'impôt.
00:56:12 Nous avons mis fin avec ce règlement,
00:56:14 le DSA, le règlement sur les services numériques,
00:56:17 qui fait sortir les grandes plateformes
00:56:19 de leur situation d'irresponsabilité totale
00:56:23 vis-à-vis des contenus qui transitent
00:56:26 sur leurs interfaces.
00:56:27 Il y a 20 ans, quand ces plateformes ont émergé,
00:56:30 la manière dont elles ont été régulées
00:56:33 a consisté à dire que Facebook,
00:56:36 Twitter, Instagram et les autres
00:56:38 n'ont pas à connaître des messages
00:56:40 qui transitent sur leurs services.
00:56:43 Si il y a des messages qui sont illicites,
00:56:45 parce qu'ils sont porteurs de violence,
00:56:47 de haine, de cyberharcèlement, etc.,
00:56:49 c'est la faute des auteurs, pas de la plateforme.
00:56:52 En Européen, l'année dernière,
00:56:54 quand la France présidait l'Union européenne,
00:56:57 nous avons dit "stop".
00:56:58 Nous avons dit que les plateformes doivent exercer
00:57:02 ou avoir une responsabilité vis-à-vis de l'impact
00:57:05 qu'elles ont sur la société.
00:57:07 Depuis quelques semaines, depuis le 25 août,
00:57:09 pour les plus grandes, de nouvelles obligations
00:57:12 s'imposent à elles, quel que soit le lieu
00:57:15 où elles sont implantées en Europe.
00:57:17 -Obligations en termes de régulation,
00:57:19 de modulation ? -Elles doivent désormais
00:57:22 retirer les contenus, les messages à caractère illicite
00:57:26 qui leur sont signalés, soit par les utilisateurs,
00:57:29 soit par des associations comme Yenfant,
00:57:31 soit par les autorités.
00:57:33 Elles doivent partager leurs données
00:57:35 avec des chercheurs, faire auditer leurs algorithmes,
00:57:38 s'abstenir de faire de la publicité sur les mineurs.
00:57:41 Et puis, il y a une nouvelle règle qui est très importante,
00:57:45 c'est qu'elles doivent analyser et corriger
00:57:48 le risque qu'elles font peser
00:57:50 sur la santé de leurs utilisateurs,
00:57:52 on pense à l'addiction chez les plus jeunes,
00:57:55 sur le discours civique,
00:57:56 on pense à la propagation de fausses nouvelles,
00:57:59 et sur la sécurité publique,
00:58:01 on pense au dévoiement des réseaux sociaux,
00:58:03 notamment pendant la période des violences urbaines.
00:58:06 C'est important, car pour la première fois
00:58:09 dans l'histoire du monde, ces plateformes
00:58:11 ont une responsabilité, non pas vis-à-vis des messages
00:58:15 uniquement et de leurs obligations de retrait,
00:58:18 mais aussi vis-à-vis de l'impact que leurs algorithmes,
00:58:21 que leur fonctionnement même, va avoir sur la société.
00:58:24 Alors, ce règlement est entré en vigueur.
00:58:26 La question, en réalité, la seule question,
00:58:29 c'est ce qui va pouvoir être appliqué.
00:58:31 Est-ce que les sanctions... -C'est la question.
00:58:34 -Que la Commission européenne va pouvoir prononcer
00:58:37 à l'encontre de ces plateformes. -La carotte, c'est l'accès
00:58:40 plein et entier au marché européen.
00:58:43 -Et le bâton, c'est la sanction.
00:58:44 6 % du chiffre d'affaires mondial,
00:58:47 pour une entreprise comme Twitter, à peu près 300 millions d'euros,
00:58:50 pour une entreprise comme TikTok, à peu près 600 millions d'euros.
00:58:54 En cas de manquement répété à ces obligations nouvelles,
00:58:57 le bâton peut aller jusqu'à l'exclusion,
00:59:00 jusqu'au bannissement de l'Union Européenne.
00:59:02 -Ca fait réagir de l'autre côté de cette table.
00:59:05 -Oui. L'intention, effectivement, est intéressante.
00:59:08 -C'est un acte fondateur. -Oui.
00:59:10 Là où je trouve ça intéressant, c'est qu'entre le temps technologique
00:59:13 et le temps législatif, il y avait un grand écart.
00:59:17 Le temps technologique va vite et le temps législatif est long.
00:59:20 -On a mis très longtemps à réagir du côté de l'Union Européenne.
00:59:23 -Avec le DSA qui est rentré en vigueur à la fin du mois d'août.
00:59:27 Là, on a un cas concret.
00:59:28 On a le conflit entre Israël et le Hamas.
00:59:31 Quand on est utilisateur des réseaux sociaux,
00:59:33 on est tous submergés par un flot d'informations,
00:59:36 par de la désinformation, on parle de brouillard informationnel.
00:59:40 Là, on voit bien que le DSA va jouer, à mon sens, ici,
00:59:43 déjà un premier acte très fort, et sa crédibilité.
00:59:46 Pour l'instant, il n'est pas encore appliqué.
00:59:48 On sait qu'il pourrait être appliqué début 2024,
00:59:51 le temps que tous les coordinateurs des 27 pays
00:59:53 se regroupent pour faire appliquer le règlement.
00:59:56 On veut accélérer cette question.
00:59:58 2004, c'est un autre monde, il peut s'en passer,
01:00:01 mais pour l'instant, on voit bien que la désinformation prolifère
01:00:05 sur les réseaux sociaux.
01:00:06 Si on prend un exemple, celui de Twitter,
01:00:08 aujourd'hui baptisé X, et Elon Musk,
01:00:11 on voit que la manière dont il se comporte,
01:00:13 c'est qu'il a sacrifié son service de modération.
01:00:16 C'est à quel point les modérateurs sont un endroit
01:00:19 vraiment très important pour pouvoir réguler ces messages.
01:00:22 -Il a très bien compris, d'ailleurs.
01:00:24 -Exactement. Là, il a fait un acte qui ne va pas dans le bon sens.
01:00:27 Et puis, on voit bien qu'entre lui et Thierry Breton,
01:00:30 le commissaire au numérique au niveau européen,
01:00:33 il se joue aussi un peu de lui en lui disant
01:00:36 "Qu'est-ce que tu me reproches vraiment ?
01:00:38 "Je vais voir ce que je vais faire."
01:00:40 Le règlement est là, mais il va jouer sa crédibilité prochainement.
01:00:45 Il ne faudrait pas qu'il soit morné, si on veut aller vite.
01:00:48 Il faut qu'il puisse s'appliquer.
01:00:50 Pour l'instant, c'est l'avenir.
01:00:52 -C'est très important, parce que dans la période qu'on vit,
01:00:55 on peut espérer qu'à l'avenir, mais ce n'est pas encore possible,
01:00:59 la Commission européenne puisse exercer l'une des prérogatives
01:01:03 que lui donne ce règlement.
01:01:04 C'est dans l'article 36 de ce règlement.
01:01:07 Il y a une possibilité qui est donnée à la Commission
01:01:12 d'exiger, en cas de crise grave,
01:01:16 des plateformes qu'elles modifient profondément
01:01:19 le fonctionnement de leurs algorithmes
01:01:22 pour éviter les troubles à l'ordre public,
01:01:24 à la santé publique, etc.
01:01:26 Dans une situation comme celle qu'on a connue ces derniers jours,
01:01:30 où l'on voit proliférer sur les réseaux sociaux
01:01:33 des contenus illicites, d'apologie du terrorisme,
01:01:37 de violences manifestes qui portent atteinte
01:01:39 à la dignité ou à l'intégrité des personnes,
01:01:42 on peut très bien imaginer que la Commission,
01:01:45 mais ce ne sera pas avant février 2024,
01:01:47 puisse exiger des plateformes qu'elles déviralisent,
01:01:52 qu'elles invisibilisent ces contenus-là,
01:01:56 le temps, évidemment, de pouvoir les traiter.
01:02:00 -Vous êtes d'accord qu'il y a un problème de temporalité ?
01:02:03 On sait que la viralité, on l'a vu dans le documentaire,
01:02:07 le temps qu'on réagisse,
01:02:08 elle a déjà été partagée des millions de fois.
01:02:11 Il faut attendre février 2024 pour lutter contre la désinformation.
01:02:15 -L'Europe est la première démocratie du monde
01:02:17 à avoir imposé de telles règles aux géants du numérique.
01:02:21 Le monde entier regarde si ce règlement
01:02:23 va pouvoir être appliqué pour s'en aspirer.
01:02:26 -J'ai vu quelque part,
01:02:27 vous aviez particulièrement dans le collimateur X,
01:02:30 un Twitter racheté par Elon Musk
01:02:32 concernant le conflit entre Israël et le Hamas,
01:02:35 que vous avez évoqué, vous aussi, en ce moment.
01:02:38 -Il y a déjà trois enquêtes, je précise,
01:02:40 en attendant que la Commission puisse déclencher
01:02:43 son mécanisme de crise.
01:02:45 Elle a, en attendant, déclenché trois enquêtes
01:02:48 sur Twitter, sur Facebook et sur TikTok.
01:02:53 Et elle a aussi invité les Etats membres,
01:02:55 dont la France fait partie,
01:02:57 à lui faire remonter les constats de contenus
01:03:00 qui seraient contraires aux droits français,
01:03:02 mais qui ne seraient pas retirés.
01:03:05 Je vais, moi-même, réunir dans quelques jours
01:03:07 un certain nombre d'associations et d'administrations
01:03:10 qui participent à la détection de ces contenus illicites,
01:03:14 à leur signalement à ces grandes plateformes,
01:03:17 pour faire un état des lieux avec elles
01:03:19 de tout ce qui s'est passé depuis 15 jours
01:03:22 pour pouvoir ensuite, sur la base de ce constat,
01:03:25 quelle plateforme a joué le jeu, à quelle vitesse ou non,
01:03:28 transférer le tout à la Commission européenne
01:03:31 pour alimenter ces enquêtes.
01:03:33 -Justine Atlan,
01:03:34 cette violence, ce harcèlement,
01:03:36 là, on parle notamment du harcèlement scolaire,
01:03:39 parce que ça aussi, c'est au-dessus de la table,
01:03:42 du côté du gouvernement également,
01:03:44 avec Gabriel Attal, qui entend frapper très fort
01:03:47 pour combattre le harcèlement scolaire.
01:03:50 Ce harcèlement scolaire a lieu dans les établissements scolaires,
01:03:53 mais il a lieu surtout en dehors des établissements scolaires,
01:03:57 à cause des réseaux sociaux.
01:03:59 Est-ce que ce Digital Service Act
01:04:01 trouve des réponses à vos attentes
01:04:04 concernant la protection des enfants,
01:04:07 l'éducation des enfants au numérique ?
01:04:09 Est-ce que vous y trouvez de quoi être rassuré
01:04:13 pour la suite concernant...
01:04:16 -Les deux à la fois. -Les plus jeunes.
01:04:18 -Il faut reconnaître que la Commission européenne
01:04:21 a été précurseur sur la protection de l'enfance en ligne.
01:04:24 Avant le DSA, la Commission européenne a mis en place
01:04:27 des programmes, des Helpline, dont nous faisons partie,
01:04:31 "Enfance opère", la Helpline française,
01:04:33 qui permet de signaler aux plateformes
01:04:35 des cas de mineurs, enfants ou adolescents,
01:04:38 qui sont en danger sur leur plateforme.
01:04:40 C'est un système qui a été mis en place
01:04:43 de façon volontaire, collaborative,
01:04:45 proactive, depuis un certain nombre d'années.
01:04:47 La protection de l'enfance en ligne a permis de tester
01:04:51 un certain nombre de fonctionnements
01:04:53 qui, maintenant, sont modélisés et sanctuarisés
01:04:56 dans un texte européen, le DSA,
01:04:58 qui va sans doute être reconnu
01:05:00 comme ce qu'on appelle un "signaleur de confiance",
01:05:03 dont parlait le ministre,
01:05:05 qui sont ces associations intermédiaires
01:05:07 entre les utilisateurs et les plateformes
01:05:10 pour pouvoir signaler de façon efficace,
01:05:12 pour répondre à ces questions de viralité
01:05:15 et leur demander un retrait.
01:05:16 Il y a eu des choses qui se sont construites
01:05:19 de façon volontaire, proactive,
01:05:21 avec une incitation forte de l'Europe,
01:05:23 mais qui ont pu être testées.
01:05:25 On connaît ce qui marche et ce qui ne marche pas.
01:05:28 -Vous connaissiez parfaitement bien ce domaine.
01:05:31 Est-ce que les solutions techniques
01:05:33 pour la mise en oeuvre de tout ce qui vient d'être dit
01:05:36 auparavant sont également sur la table ?
01:05:38 Est-ce que tout cela est faisable techniquement ?
01:05:41 -Le problème qu'on a, c'est un déséquilibre
01:05:43 de maîtrise de la technique.
01:05:45 C'est pour ça que, dans le DSA, il y a cette idée
01:05:48 qu'on connaisse davantage les algorithmes,
01:05:50 qu'enfin, les plateformes ouvrent leurs API,
01:05:53 puissent permettre aux chercheurs de comprendre
01:05:56 comment fonctionnent les algorithmes.
01:05:58 Ca va être fait de façon très fléchée,
01:06:00 donc on n'arrivera pas à voir tout le temps,
01:06:03 mais on pourra ouvrir selon des thématiques et des sujets.
01:06:06 Mais il reste un déséquilibre très fort
01:06:08 de connaissances, de maîtrise de ces algorithmes
01:06:11 et du fonctionnement de ces outils,
01:06:13 qui est vrai dans le rapport entre le politique
01:06:16 et ces entreprises, et ça reste encore déséquilibré.
01:06:19 Il reste très fort entre utilisateurs et ces entreprises.
01:06:22 C'est un autre sujet abordé dans le documentaire.
01:06:25 Les chercheurs ne savent pas où ils sont,
01:06:27 comment ça fonctionne, et c'est aussi ce qui participe
01:06:30 au fait qu'ils se font avoir et embarquer dans un monde
01:06:33 dont ils ne comprennent pas où ils sont,
01:06:35 à quoi ils servent et comment l'information leur arrive.
01:06:38 Ca laisse place à de la crédulité, à de l'embrasement.
01:06:41 Il faut vraiment appuyer sur cette information.
01:06:44 Cette éducation concerne pas que les enfants,
01:06:47 mais la société en général, tous les acteurs que nous sommes,
01:06:50 à connaître le mieux possible le fonctionnement
01:06:53 de ces entreprises, et c'est flagrant dans le documentaire,
01:06:56 elles vont mourir de ce qu'elles ont créé si elles continuent comme ça.
01:07:00 Ce qu'elles génèrent va détruire le modèle dans lequel elles sont nées
01:07:04 et elles vont y perdre.
01:07:05 Il faut atteindre cette tension pour qu'elles réagissent,
01:07:09 mais elles ont l'intelligence de le savoir.
01:07:11 On est peut-être arrivé à un moment où elles ont compris
01:07:14 qu'il faut qu'elles collaborent et qu'elles vont se sauver.
01:07:17 -Il y a un récent rapport de l'Arkoma
01:07:20 qui dit qu'on n'y est pas encore,
01:07:22 concernant la mise en oeuvre de ce fameux...
01:07:25 Digital Service Act, à suivre,
01:07:27 puisque la mise en oeuvre va...
01:07:29 -Ca dépend notamment de l'Arkoma.
01:07:32 -Le projet de loi visant à sécuriser et réguler
01:07:34 l'espace numérique, c'est votre projet de loi.
01:07:37 Je l'ai dit, il a été voté au Sénat,
01:07:39 voté à l'Assemblée nationale.
01:07:41 Le fin du parcours parlementaire devrait intervenir
01:07:44 à la fin de l'année, décembre prochain.
01:07:47 Vous vous inspirez très directement,
01:07:49 vous êtes dans la continuité
01:07:51 de cette loi européenne, entre guillemets.
01:07:53 C'est le même état d'esprit,
01:07:55 il s'agit de l'inverser le rapport de force.
01:07:57 -Oui, c'est la continuité du travail engagé
01:08:00 au niveau européen, mais également en France,
01:08:03 avec un certain nombre d'initiatives
01:08:05 qui ont été prises ces dernières années
01:08:07 pour qu'on puisse établir un ordre public en ligne
01:08:10 pour que les droits et les devoirs soient respectés
01:08:13 pour mettre fin à la loi du plus fort.
01:08:15 -J'ai la liste sous les yeux des mesures.
01:08:18 Il y en a peut-être une ou deux
01:08:19 qui sont spécifiques à la France,
01:08:22 par rapport à ce qu'est la législation européenne.
01:08:25 -Bien sûr, et je précise que la législation européenne,
01:08:28 ce règlement dont on vient de parler,
01:08:30 s'applique dans tous les Etats membres,
01:08:32 sans qu'il ne soit besoin de le transposer.
01:08:35 -Qu'est-ce que vous rajoutez au niveau national ?
01:08:38 -Au niveau national, il fallait juste établir
01:08:40 les responsabilités des autorités
01:08:42 qui vont faire appliquer le DSA.
01:08:46 Dans le texte de loi, on les désigne,
01:08:48 et puis, en plus, on prend...
01:08:50 -On peut les nommer,
01:08:51 l'autorité de régulation
01:08:53 de communication électronique, et puis l'ARCOM,
01:08:56 l'autorité de régulation de communication individuelle.
01:08:59 -Qui va être le point de contact pour la Commission.
01:09:02 Lorsque la Commission aura besoin de savoir
01:09:05 si, oui ou non, au regard de la loi française,
01:09:08 ces plateformes se comportent bien,
01:09:10 c'est l'ARCOM qui renseignera la Commission
01:09:13 et qui participera notamment à ce travail d'enquête
01:09:16 et aux sanctions éventuelles qui pourront en découler.
01:09:19 Dans le projet de loi, on a ajouté quelques mesures
01:09:22 qui sont inspirées de travaux parlementaires
01:09:25 de ces dernières années,
01:09:26 pour répondre à des inquiétudes, voire même à des souffrances
01:09:30 que ressentent nos concitoyens sur Internet
01:09:33 et qui finissent par saper, à juste titre,
01:09:35 leur confiance dans le numérique.
01:09:37 C'est d'abord le filtre anti-arnaque,
01:09:40 c'était une promesse présidentielle,
01:09:42 ce sera un rempart contre les campagnes de SMS
01:09:45 et de mails frauduleux.
01:09:46 On a tous reçu ces faux SMS du compte personnel
01:09:49 d'information, on en reçoit encore.
01:09:51 On a tous hésité à cliquer, parfois on a cliqué,
01:09:54 et ce sont 18 millions de Français dans notre pays
01:09:58 qui ont été victimes de ce type de manoeuvres
01:10:02 frauduleuses.
01:10:04 -Deuxième mesure, peut-être ?
01:10:06 -Oui, la deuxième mesure,
01:10:08 c'est la peine de bannissement des réseaux sociaux.
01:10:11 C'est quelque chose de nouveau dans notre droit
01:10:14 de juge de décider de suspendre
01:10:19 la participation à un réseau social
01:10:21 d'une personne condamnée pour des faits de violence
01:10:24 ou de haine en réalité.
01:10:25 -Suspendre ou bannir ?
01:10:27 -C'est la même chose, pendant six mois.
01:10:29 Suspendre ou bannir pendant six mois.
01:10:31 -On a peut-être une question technique,
01:10:34 car ça fait partie des mesures qu'on a pu lire,
01:10:37 le bannissement jusqu'à l'exclusion,
01:10:39 je crois, en cas de récidive.
01:10:41 -C'est six mois puis un an.
01:10:43 -On voit qu'on a des problématiques techniques
01:10:45 par rapport au bannissement d'un cyberharceleur,
01:10:48 si on prend la thématique du soir.
01:10:50 Comment on peut être sûr que cette personne-là
01:10:53 ne recrée pas un autre compte
01:10:55 pour continuer à harceler ?
01:10:56 On sait qu'on crée un compte en quelques secondes.
01:10:59 Comment ça va s'opérer techniquement ?
01:11:02 -C'est une question qui vous a été posée de nombreuses fois.
01:11:05 -Il y a deux choses.
01:11:06 La première, c'est que, contrairement à ce qu'on pourrait penser,
01:11:10 depuis 2004, en France,
01:11:12 et la loi pour la confiance dans l'économie numérique,
01:11:15 les plateformes ont l'obligation de conserver
01:11:17 certaines de nos traces numériques.
01:11:20 Il s'agit en particulier, sans rentrer trop dans le jargon,
01:11:23 de l'adresse IP, de la signature du navigateur,
01:11:26 de la signature du téléphone.
01:11:27 Alors, ça ne suffit pas nécessairement
01:11:30 pour empêcher la réinscription sur le réseau social
01:11:34 en utilisant une autre connexion, un autre outil, etc.,
01:11:38 mais c'est assez limitatif.
01:11:39 Par ailleurs, les plateformes,
01:11:41 elles peuvent mettre en place un certain nombre de techniques
01:11:46 pour repérer les comportements
01:11:50 de ceux qui se livrent à ce type de harcèlement
01:11:53 et les répéter une fois inscrits.
01:11:55 Le deuxième point important,
01:11:56 qu'on a ajouté à l'Assemblée nationale,
01:11:59 c'est que l'auteur qui contournerait la peine de bannissement,
01:12:03 qui se remettrait à harceler,
01:12:06 et même, en réalité, s'il ne se remet pas à harceler,
01:12:09 il sera lui-même passible d'une peine de prison et d'une lourde amende.
01:12:13 Il y aura une responsabilité de la part des plateformes
01:12:16 pour empêcher la réinscription et il y aura une sanction
01:12:19 pour l'auteur qui contournerait la peine.
01:12:22 -Il y a aussi une menure qui doit vous intéresser,
01:12:24 c'est l'accès au site pornographique.
01:12:27 Il est prévu quelque chose dans ce texte ?
01:12:29 -Des problématiques techniques, évidentes, là encore.
01:12:32 -Oui, alors, il est prévu,
01:12:34 je ne vais pas parler du texte du ministre à sa place,
01:12:37 mais il y a deux choses différentes qui sont prévues dans ce texte
01:12:40 par rapport à la pornographie.
01:12:42 Il y a des pouvoirs qui sont donnés à l'ARCOM,
01:12:44 dont on a parlé, de blocage administratif
01:12:47 dans les cas de sites pornographiques
01:12:49 qui, malgré des injonctions, ne mettraient pas en place
01:12:52 un système de vérification d'âge qu'il aura imposé par la loi
01:12:55 depuis trois ans, dès qu'ils ne le mettent pas en place.
01:12:59 -Et on voit là toute la difficulté technique ?
01:13:01 -Non, pas du tout. Il n'y a aucune difficulté technique.
01:13:04 La technique, c'est pas difficile.
01:13:06 La chance est que depuis trois ans, comme le temps a passé,
01:13:10 il y a pu y avoir, effectivement,
01:13:12 un marché qui s'est ouvert sur la vérification d'âge.
01:13:15 Maintenant, il y a pas mal d'acteurs français ou étrangers
01:13:18 qui se sont positionnés dessus avec des solutions différentes.
01:13:21 On va du plus simple que les gens imaginent,
01:13:24 la carte d'identité, la carte bancaire,
01:13:26 la reconnaissance biométrique, faciale,
01:13:28 pour que les gens comprennent.
01:13:30 Et puis, il y a ce qu'on appelle le tiers de confiance,
01:13:33 le double anonyma,
01:13:35 qui est un peu ce qui se passe quand vous payez en ligne.
01:13:38 Quand vous payez par banque en ligne,
01:13:40 il y a un tiers qui vous permet de payer,
01:13:42 contrairement que, vous voyez,
01:13:44 c'est pas entre votre banque et le site.
01:13:46 C'est un peu cette idée-là,
01:13:48 qui n'est pas de la vérification d'identité,
01:13:51 c'est de la vérification d'âge.
01:13:52 On va extraire de votre identité,
01:13:54 qui a plein d'éléments, juste, votre date de naissance,
01:13:57 une preuve de votre âge,
01:13:59 qu'on va ensuite pouvoir donner au site pornographique
01:14:02 pour pouvoir l'ouvrir.
01:14:04 Techniquement, il n'y a aucun problème.
01:14:06 La difficulté qu'on a, c'est des sites pornographiques
01:14:09 qui refusent de façon tout à fait consciente
01:14:12 d'appliquer cette loi,
01:14:13 pour des raisons, à nouveau, économiques.
01:14:15 La justice, qui a du mal à assumer le rôle qui lui est donné,
01:14:19 de constater l'illégalité
01:14:20 et donc de mettre en place les mesures qui derrière vont,
01:14:24 et qu'en France, quand un site est déclaré illégal,
01:14:27 il rentre dans une liste de sites illégaux
01:14:29 et doivent être obligatoirement bloqués
01:14:31 par les fournisseurs d'accès Internet,
01:14:34 ce qui veut dire qu'à partir du moment
01:14:36 où un site est considéré comme illégal,
01:14:38 vous ne pouvez plus y avoir accès en France.
01:14:41 Heureusement, on est dans un État de droit,
01:14:43 donc c'est à la justice de le constater
01:14:45 et donc de le mettre en place.
01:14:47 C'est vrai que ça fait deux ans, maintenant,
01:14:50 qu'un bras de fer est en place
01:14:51 entre des associations comme les nôtres et la justice
01:14:55 pour les contraindre, ce qui paraît un peu hubuesque,
01:14:58 mais bon, à appliquer la loi
01:14:59 et donc, évidemment, potentiellement,
01:15:02 la loi de la pornographie, le temps qu'ils mettent en place
01:15:05 un système de vérification d'âge, voilà.
01:15:07 J'espère que dans deux ans, on se dira
01:15:09 "Tu te rends compte qu'en 2023, les mineurs vont pouvoir
01:15:12 "voir de la pornographie ?"
01:15:14 -Et en dehors de ce projet de loi que vous portez,
01:15:17 Jean-Noël Barraud, il y a aussi une proposition de loi,
01:15:20 préalablement, qui concernait cette fois l'autorité par endalle
01:15:24 pour les jeunes de moins de 15 ans.
01:15:26 -Ca a été proposé d'ailleurs par un député Renaissance,
01:15:29 je crois, à l'Assemblée. -Horizontal.
01:15:31 -Vous dites que c'est faisable, mais il va falloir
01:15:34 quand même considérablement changer la donne
01:15:36 pour qu'on y arrive, c'est-à-dire un contrôle par endalle
01:15:40 pour les moins de 15 ans. -Oui.
01:15:41 -On peut plus partager sur cette...
01:15:44 C'est peut-être pas le lieu d'en parler.
01:15:46 -Ca fait partie du lot. -La majorité numérique,
01:15:49 elle a été créée en réalité par le RGPD,
01:15:51 donc elle précède cette loi.
01:15:53 C'est le RGPD qui a... -Le RGPD,
01:15:55 il faut peut-être rappeler. -C'est le Règlement
01:15:57 sur la protection des données, qui existe depuis 2018
01:16:00 comme le DSA, un texte européen,
01:16:02 qui protège nos données personnelles
01:16:04 et qui, pour les mineurs, effectivement,
01:16:07 détermine l'âge à partir duquel un mineur peut donner son accord
01:16:10 tout seul pour la collecte de ces données.
01:16:13 Il n'a plus besoin de l'accord des parents
01:16:15 comme pour plein d'autres choses.
01:16:17 Malheureusement, l'Europe n'a pas été capable
01:16:19 de trancher sur un âge, donc il a laissé chaque pays
01:16:22 déterminer son propre âge. -C'est 15 ans,
01:16:25 dans cette proposition de loi. -La majorité numérique,
01:16:28 on l'a définie à ce moment-là.
01:16:30 On a fait un peu plus loin pour que ça devienne systématique
01:16:33 pour s'inscrire sur les réseaux sociaux,
01:16:35 et donc qu'il faille donner l'accord parental
01:16:37 pour s'inscrire sur les réseaux sociaux
01:16:40 entre 13 et 14 ans, puisque 15 ans,
01:16:42 c'est pas du tout technique.
01:16:43 C'est juste que comment on s'assure
01:16:45 que celui qui dit être le parent est bien le parent ?
01:16:48 Ça n'a de sens qu'à ce moment-là.
01:16:50 Comment on sait qu'il faut demander l'accord du parent ?
01:16:53 On doit savoir déjà qu'il a l'âge auquel on doit demander
01:16:56 l'accord des parents, donc c'est assez complexe
01:16:59 parce qu'on met un peu la charrue avant les bleus.
01:17:02 Essayons de régler le problème de la pornographie
01:17:05 et la vérification d'âge. -Cette proposition de loi
01:17:07 n'est pas encore définitivement adoptée au Parlement.
01:17:10 -Peut-être juste une précision. -Elle est adoptée.
01:17:13 -Juste une petite précision,
01:17:15 parce que je pense que, ici, on a des enfants,
01:17:18 ceux qui nous regardent ont des adolescents.
01:17:20 Sur un réseau social, il faut avoir plus de 13 ans
01:17:23 pour pouvoir s'y inscrire. C'est déjà établi.
01:17:25 Or, dans les faits, on sait très bien
01:17:28 que le taux d'équipement du smartphone,
01:17:30 c'est 9 ans et 9 mois, donc il est de plus en plus précoce.
01:17:33 C'est une étude e-enfance qui l'a révélée il y a quelques semaines.
01:17:37 On a une part de 9-11 ans qui sont en augmentation constante
01:17:40 et que, dès 10 ans, on peut être sur un réseau social
01:17:43 à 11 ans ou 12 ans. Donc, il y a des textes,
01:17:45 il y a ce qu'on aimerait,
01:17:47 et puis il y a une réalité du terrain
01:17:49 qu'il ne faut pas occulter, qu'il faut regarder en face.
01:17:52 Pour l'instant, les plateformes laissent s'inscrire
01:17:55 tout ce qu'il veut sur ces outils.
01:17:57 Les adolescents, eux-mêmes, par désir de divertissement,
01:18:00 de sociabilité, ont besoin d'y être
01:18:03 ou se sentent avec une envie
01:18:04 de pouvoir vivre une expérience adolescente.
01:18:07 Aujourd'hui, l'expérience adolescente
01:18:09 se vit aussi sur les réseaux sociaux.
01:18:11 Un réseau social, c'est pas une autre vie.
01:18:14 -C'est ce qui caractérise cette génération.
01:18:16 -Je trouve que parfois, il n'y a pas une hypocrisie,
01:18:19 mais c'est compliqué d'aller chercher
01:18:21 une obligation des plateformes d'âge 15 ans, 13 ans,
01:18:24 et on voit que dans un état de fait,
01:18:26 à 11 ans, on est sur Snapchat, sur TikTok,
01:18:30 on va pas revenir en arrière.
01:18:31 -Il y a une chose sur laquelle vous n'avez pas voulu aller,
01:18:35 c'est le terrain de la levée de l'anonymat
01:18:37 sur les réseaux sociaux.
01:18:39 Des députés ont déposé des amendements,
01:18:41 il y a eu une machine arrière.
01:18:43 Pourquoi vous n'êtes pas engagé sur ce terrain ?
01:18:46 -D'abord, sur le sujet précédent...
01:18:48 -C'est vrai que ça, c'est soulevé dans ce film.
01:18:50 Sous le couvert de l'anonymat, on peut faire tout.
01:18:53 -Il y a pas d'anonymat. -Attendez,
01:18:55 on va laisser passer...
01:18:57 -Sur le sujet précédent,
01:18:59 ce qu'il faut bien comprendre,
01:19:00 et en résumé, que ce soit sur la question
01:19:03 de l'accès de nos enfants à des contenus réservés aux adultes,
01:19:07 et à la pornographie en particulier,
01:19:09 ou leur accès aux réseaux sociaux,
01:19:11 ou leur accès, en réalité, à de nombreux contenus
01:19:14 qui sont sur Internet, la mère des batailles,
01:19:17 qui n'est pas une bataille technique,
01:19:19 mais une bataille juridique,
01:19:21 qui est une bataille très dure,
01:19:24 parce qu'évidemment, nous avons contre nous
01:19:27 des vents contraires puissants,
01:19:29 et des puissances de l'argent,
01:19:32 qui bataillent et qui militent
01:19:33 pour nous empêcher d'y parvenir,
01:19:36 c'est la vérification d'âge.
01:19:37 Notre objectif prioritaire,
01:19:39 c'est de l'imposer au site pornographique,
01:19:42 mais c'est une bataille juridique épique,
01:19:45 un combat dans lequel la France
01:19:48 est aux avant-postes
01:19:50 et prend tous les risques,
01:19:52 mais ensuite, viendront d'autres combats
01:19:55 pour que la vérification d'âge se généralise
01:19:58 partout et tout le temps.
01:19:59 -Ca, c'est pour la vérification.
01:20:01 -L'anonymat n'existe pas. -On se dit qu'il faut
01:20:04 empêcher l'anonymat, et on va peut-être régler
01:20:07 un certain nombre de problèmes. -Un peu naïvement.
01:20:10 L'anonymat n'existe pas sur Internet.
01:20:12 Comme je l'ai dit tout à l'heure,
01:20:14 les plateformes ont l'obligation de conserver
01:20:17 certaines de vos données pour pouvoir répondre
01:20:20 à des forces de l'ordre et de l'autorité judiciaire.
01:20:23 Quand vous prenez l'affaire Mila,
01:20:25 quand vous prenez l'affaire Ochi,
01:20:27 quand vous prenez l'affaire de Edi De Pretto,
01:20:30 dans les trois cas, des personnalités,
01:20:32 des jeunes femmes, des jeunes hommes,
01:20:34 qui sont des personnalités ou des artistes
01:20:37 qui se sont fait cyberharceler,
01:20:39 et bien leurs cyberharceleurs ont vu prononcer
01:20:42 à leur rencontre des peines de prison fermes.
01:20:44 Dans le cas des émeutes et des violences urbaines,
01:20:47 des violences urbaines, du début du mois de juillet,
01:20:51 vous avez des dizaines de condamnations
01:20:54 à des peines de prison fermes
01:20:56 qui ont été prononcées à l'encontre d'individus
01:20:59 qui, derrière leur écran, ont commis des délits
01:21:02 de propagation de la haine et de la violence en ligne
01:21:05 sans jamais mettre un pied dehors.
01:21:08 Pourquoi ? Eh bien parce que les enquêteurs,
01:21:11 sur réquisition des procureurs et de la justice,
01:21:16 sont allés chercher ces...
01:21:19 ...délinquants
01:21:21 jusque chez eux pour pouvoir les traduire devant la justice
01:21:24 et pour que la justice puisse prononcer à leur rencontre
01:21:27 des condamnations. Nul ne peut impunément
01:21:30 propager la haine et la violence en ligne.
01:21:32 On peut toujours vous retrouver lorsque vous commettez
01:21:36 de tels délits. Ca prend plus ou moins de temps.
01:21:38 La justice a été pendant longtemps paralysée,
01:21:41 mais je rappelle qu'avec la loi de programmation de la justice,
01:21:45 nous allons recruter plus de personnel en cinq ans
01:21:48 que la justice n'en a recruté en 20 ans,
01:21:51 qu'avec la loi de programmation du ministère.
01:21:53 -Peut-être plus spécialisés dans ce domaine.
01:21:56 -Donc, il n'y a pas d'anonymat sur Internet,
01:21:59 et pour peu qu'on en ait les moyens,
01:22:01 on retrouve toujours les auteurs.
01:22:03 -Il nous reste trois minutes. -Vous avez raison,
01:22:06 il n'y a pas d'anonymat sur Internet.
01:22:08 On peut le lire à droite, à gauche,
01:22:10 mais bien sûr, néanmoins,
01:22:12 tous les cas que vous avez donnés sont justes.
01:22:15 Je me mets à la place peut-être de l'adolescente
01:22:17 qui nous regarde ce soir et qui se fait cyberharceler
01:22:20 au quotidien.
01:22:21 Elle peut appeler, il y a une enfance.
01:22:23 Mais on est d'accord que par rapport au nombre de victimes
01:22:27 qu'il y a au quotidien, il n'y a pas une procédure
01:22:30 qui est engagée à chaque fois, comme vous l'avez mentionné,
01:22:33 sur des affaires médiatiques.
01:22:35 Elie de Pretto, le chanteur connu, etc.
01:22:37 Qu'est-ce que vous répondez, justement,
01:22:40 à cette fille de 11 ans, 12 ans, qui se fait cyberharceler,
01:22:43 qui entend qu'effectivement, la personne qui harcèle
01:22:46 pourrait se retrouver en prison,
01:22:48 mais qui, pour autant, voit que la personne continue ?
01:22:51 Il y avait ces deux points de mesure.
01:22:53 -Il faut que chacun prenne conscience
01:22:56 de ce que c'est que le droit et le devoir de chacun
01:22:59 sur Internet, qu'il faut que chacun ait bien conscience
01:23:02 qu'on est en train d'accroître considérablement
01:23:05 la pression sur les plateformes.
01:23:07 Il faut que chacun adopte un réflexe civique.
01:23:10 Lorsque l'on est victime,
01:23:12 mais même lorsque l'on est témoin de violences et de haine
01:23:15 sur Internet, il y a une chose à faire,
01:23:17 c'est de signaler. Signaler, ça veut dire cliquer
01:23:20 sur le petit bouton en haut à droite du contenu,
01:23:23 du message, de la vidéo, pour signaler
01:23:25 qu'il y a probablement un contenu illicite.
01:23:28 C'est la seule manière d'activer la responsabilité des plateformes,
01:23:32 et c'est donc un véritable acte civique.
01:23:37 Lorsque vous êtes témoin ou victime
01:23:39 de cyberharcèlement et de cyberharcèlement scolaire,
01:23:42 vous signalez à la plateforme et vous contactez le 3018,
01:23:45 c'est-à-dire la hotline, qui est un numéro de téléphone,
01:23:49 mais aussi une application opérée par l'association e-Enfance.
01:23:52 Je le dis, et dites-le autour de vous,
01:23:54 parce que dans bien des cas que nous avons connus
01:23:57 ces derniers mois, tragiques,
01:23:59 où des enfants ont même fini par se donner la mort...
01:24:02 -Oui. Un ou deux enfants se donnent la mort
01:24:05 suite à un harcèlement scolaire.
01:24:07 -Il faut que nos auditeurs sachent
01:24:09 que la responsabilité des plateformes
01:24:11 qui contribuent à la diffusion et à la prolifération
01:24:14 des contenus de cyberharcèlement scolaire
01:24:17 ne peut être engagée que si ces contenus leur ont été signalés.
01:24:20 Il vous convient de signaler massivement
01:24:23 les contenus illicites que vous voyez transiter sur les plateformes.
01:24:27 -Je vais vous laisser le mot de la fin.
01:24:29 -Une grande responsabilité, d'avoir le mot de la fin.
01:24:32 -Il y a peut-être quelque chose dans ce texte
01:24:35 de Jean-Noël Barraud qui manque à vos yeux.
01:24:37 -Bien sûr que non. -C'est le ministre.
01:24:39 -Oui, parce qu'en France, il y a des demandes.
01:24:42 -Oui, mais il faut reconnaître qu'on travaille très bien
01:24:45 avec Jean-Noël Barraud et le gouvernement,
01:24:48 dans ce sens-là, parce qu'effectivement,
01:24:50 la France est très moteur sur ces sujets-là,
01:24:53 évidemment en collaboration,
01:24:55 mais il va falloir qu'on travaille avec les réseaux sociaux,
01:24:58 c'est ce qu'il dit dans le reportage,
01:25:00 on ne peut pas faire sans eux,
01:25:02 c'est une responsabilité qu'on doit engager.
01:25:04 Le DSA ne change pas grand-chose,
01:25:06 mais renforce leurs responsabilités,
01:25:09 les rend acteurs, alors qu'ils ont cherché
01:25:11 à se défausser pendant des années.
01:25:13 Ils n'ont plus le choix que de faire avec nous,
01:25:16 et nous, il faut qu'on se serve de cette responsabilité
01:25:19 pour les engager et qu'ils protègent
01:25:22 tous les utilisateurs, car les mineurs sont victimes,
01:25:25 et plein d'adultes sont victimes de cyberharcèlement.
01:25:28 C'est un traumatisme énorme,
01:25:30 de faire une politique privée à un jeune,
01:25:32 à un adulte, c'est traumatisant d'être cyberharcelé.
01:25:35 Je refuse qu'on dise qu'on ne peut rien faire,
01:25:38 on peut faire plein de choses,
01:25:40 mais les gens ne connaissent pas ce qu'il faut faire.
01:25:43 Je vais prêcher pour ma paroisse,
01:25:45 contacter le 3018,
01:25:46 télécharger l'application,
01:25:48 on a une capacité de signaler nos services de modération
01:25:51 directement des réseaux sociaux,
01:25:53 et ils nous répondent toujours et très rapidement.
01:25:56 Si vous avez un enfant-adolescent victime,
01:25:59 vous ne risquez rien à part une bonne solution.
01:26:01 -La suite nous dira si l'Union européenne,
01:26:04 la France a réussi à, un temps soit peu,
01:26:06 à gagner, à commencer à gagner ce bras de fer
01:26:10 qui nous a opposés et qui nous oppose toujours
01:26:12 aux grands opérateurs, que sont les GAFAM,
01:26:15 sur le sujet qui nous concernait.
01:26:17 Un grand merci à tous les trois d'avoir participé
01:26:20 à ce débat, vos réactions, sur #débatdoc.
01:26:22 Il y en aura un certain nombre.
01:26:24 Merci d'avance de réagir à ce que sont les réactions
01:26:27 suite à cette émission.
01:26:29 Merci aussi à Selma Sally,
01:26:30 qui m'a aidé à préparer cette émission.
01:26:33 Prochain rendez-vous avec #débatdoc,
01:26:35 avec son documentaire et son débat.
01:26:37 A bientôt.
01:26:38 SOUS-TITRAGE : RED BEE MEDIA
01:26:41 Générique
01:26:44 ...

Recommandations