• l’année dernière
Cyberharcèlement, raids masculinistes ou algorithmes discriminants : le numérique semble parfois être un miroir grossissant des inégalités. Comment les mouvements technoféministes répondent à ces discriminations ? C'est le sujet du Talk franceinfo. Tous les soirs à partir de 18 heures, Manon Mella et ses invités débattent avec les internautes de la chaîne Twitch de franceinfo.

Category

🗞
News
Transcription
00:00:00 [Musique]
00:00:29 [Musique]
00:00:49 [Musique]
00:01:18 [Musique]
00:01:47 [Musique]
00:02:16 [Musique]
00:02:45 [Musique]
00:02:49 [Musique]
00:03:16 [Musique]
00:03:45 [Musique]
00:03:48 [Musique]
00:03:52 [Musique]
00:03:56 [Musique]
00:04:01 [Musique]
00:04:24 [Musique]
00:04:53 [Musique]
00:05:21 [Musique]
00:05:50 [Musique]
00:05:53 [Musique]
00:05:57 [Musique]
00:06:01 [Musique]
00:06:05 [Musique]
00:06:10 [Musique]
00:06:39 [Musique]
00:07:08 [Musique]
00:07:37 [Musique]
00:07:40 [Musique]
00:07:44 [Musique]
00:07:48 [Musique]
00:07:52 [Musique]
00:07:56 [Musique]
00:08:00 [Musique]
00:08:05 [Musique]
00:08:08 [Musique]
00:08:12 [Musique]
00:08:16 [Musique]
00:08:20 [Musique]
00:08:24 [Musique]
00:08:28 [Musique]
00:08:33 [Musique]
00:08:36 [Musique]
00:08:40 [Musique]
00:08:44 [Musique]
00:08:48 [Musique]
00:08:52 [Musique]
00:08:57 [Musique]
00:09:26 [Musique]
00:09:29 [Musique]
00:09:33 [Musique]
00:09:37 [Musique]
00:09:41 [Musique]
00:09:45 [Musique]
00:09:49 [Musique]
00:09:54 [Musique]
00:09:57 [Musique]
00:10:01 [Musique]
00:10:05 [Musique]
00:10:09 [Musique]
00:10:13 [Musique]
00:10:17 [Musique]
00:10:22 [Musique]
00:10:25 [Musique]
00:10:29 [Musique]
00:10:33 [Musique]
00:10:37 [Musique]
00:10:41 [Musique]
00:10:45 [Musique]
00:10:50 [Musique]
00:10:53 [Musique]
00:10:57 [Musique]
00:11:01 [Musique]
00:11:05 [Musique]
00:11:09 [Musique]
00:11:13 [Musique]
00:11:18 [Musique]
00:11:21 [Musique]
00:11:25 [Musique]
00:11:29 [Musique]
00:11:33 [Musique]
00:11:37 [Musique]
00:11:41 [Musique]
00:11:46 [Musique]
00:11:49 [Musique]
00:11:53 [Musique]
00:11:57 [Musique]
00:12:01 [Musique]
00:12:05 [Musique]
00:12:09 [Musique]
00:12:14 [Musique]
00:12:17 [Musique]
00:12:21 [Musique]
00:12:25 [Musique]
00:12:29 [Musique]
00:12:33 [Musique]
00:12:37 [Musique]
00:12:42 [Musique]
00:12:45 [Musique]
00:12:49 [Musique]
00:12:53 [Musique]
00:12:57 [Musique]
00:13:01 [Musique]
00:13:05 [Musique]
00:13:10 [Musique]
00:13:13 [Musique]
00:13:17 [Musique]
00:13:21 [Musique]
00:13:25 Et bonsoir, bienvenue dans le talk de France Info. Oui, la boucle a duré longtemps, à date,
00:13:31 des comptes de 14 minutes, je n'ai jamais vu ça. Mais on a fait exprès, voilà, on s'est dit qu'on allait,
00:13:36 pour vous laisser le temps d'arriver sur le stream tranquillement, on s'est dit voilà, on va tenter de lancer la boucle d'attente
00:13:43 plus tôt, comme ça, ça envoie la notification plus tôt et on apparaît comme étant en direct plus tôt sur Twitch.
00:13:51 Et je pense que c'est pas mal, voilà, parce que sinon, forcément, si vous arrivez au bout d'un quart d'heure d'émission,
00:13:58 on a déjà eu le temps de raconter plein de trucs intéressants en un quart d'heure, donc voilà.
00:14:02 Dites-nous d'ailleurs comment vous arrivez sur nos streams, ça m'intéresse. Est-ce que vous venez parce que vous connaissez
00:14:09 le rendez-vous et l'horaire et donc du coup, vous venez bien à l'heure ? Est-ce que vous venez parce que vous recevez une notification ?
00:14:17 Est-ce que vous venez parce que vous vous baladez sur Twitch et du coup, vous voyez que France Info est en live et donc,
00:14:23 vous venez curieux voir ce qui s'y passe ? Merci en tout cas d'être là ce soir. Comment allez-vous le chat, le talk ?
00:14:33 Je le rappelle, une heure d'émission, de débat autour d'un sujet d'actualité, un sujet de société. On est ensemble pendant une heure,
00:14:40 on parle que d'un seul sujet et on a des invités en plateau avec nous qui nous éclairent, vous éclairent sur ce sujet-là,
00:14:48 des gens très calés et qui sont là aussi pour répondre à vos questions. Donc n'hésitez pas à les poser dans ce merveilleux outil
00:14:56 qu'est le chat. Et merci aussi aux personnes qui nous écoutent en podcast audio parce qu'ils sont aussi là. Merci beaucoup.
00:15:04 Ce soir, on va parler de cybersexisme entre autres et on en parle sur Twitch, ce qui n'est pas complètement anodin.
00:15:11 On va vous expliquer pourquoi. Le thème de l'émission "Comment le numérique aggrave les inégalités", c'est d'ailleurs le sous-titre du livre
00:15:18 "Technoféminisme" écrit par la journaliste Mathilde Saliou et qui est sortie aujourd'hui aux éditions Grasset.
00:15:25 Un essai critique qui analyse les mécanismes discriminants qui structurent Internet, la toile, harcèlement en meute, sur les réseaux sociaux,
00:15:34 compte fichat, diffusion de contenus intimes sans consentement, racisme, fracture numérique de genre.
00:15:40 Internet a fait apparaître de nouvelles formes de violence. "Mais si le monde numérique n'a rien inventé", écrit Mathilde,
00:15:47 "il a permis au discours masculiniste de prendre de nouvelles dimensions". On va décrypter tout ça. Et sur Internet, ce sont les femmes
00:15:54 et les minorités qui sont particulièrement visées. En 2020, un sondage révélait que 73% d'entre elles avaient déjà été victimes
00:16:02 de violences sexistes ou sexuelles en ligne. Et les femmes sont 27 fois plus susceptibles d'être cyber harcelées que les hommes.
00:16:10 Alors comment le numérique aggrave les inégalités ? Comment les algorithmes peuvent-ils les creuser ? On va aussi parler de ça.
00:16:16 Qui sont ces groupes masculinistes de plus en plus misogynes et violents qui opèrent en ligne mais aussi avec des conséquences hors ligne ?
00:16:24 Comment s'organisent-ils ? Jusqu'où peuvent-ils aller ? On parlera aussi des solutions qui existent. On vous donnera des conseils aussi
00:16:31 pour protéger votre identité en ligne notamment. Et on se demandera aussi comment on peut créer un Internet plus juste, plus inclusif.
00:16:40 Est-ce que c'est possible ça ? Voilà, est-ce que ce programme vous va, le tchat ? Et dans cette première partie d'émission, on reçoit Mathilde Salihou.
00:16:49 Bienvenue Mathilde. Mathilde, tu es journaliste spécialisée dans le numérique.
00:16:57 Exactement. C'est tout bon. Autrice donc, je le remontre, de Techno-féminisme, comment le numérique aggrave les inégalités qui est sorti aujourd'hui.
00:17:05 Exactement, c'est officiel depuis ce matin. Ouais, ça y est, donc publié aux éditions. Grâce et bienvenue à toi.
00:17:12 Merci beaucoup. Chanley Clément-McLaren, bienvenue. Bonsoir. Chanley, tu es étudiante. En quoi ?
00:17:20 Je suis à Sciences Po Paris, j'étudie gouvernance internationale et diplomatie en master.
00:17:24 Et tu es la fondatrice de l'association Stop Ficha ? Alors pas la fondatrice, mais la co-fondatrice. En fait, en réalité, dans l'asso, on est 13 co-fondatrices.
00:17:32 Et on est au total, il me semble qu'on a 70 bénévoles. D'accord. Une grosse équipe.
00:17:38 Association féministe qui lutte contre le cybersexisme et qui a publié notamment ce livre que tu as, "Combattre le cybersexisme", aux éditions Le Duc.
00:17:49 Tu vas nous raconter après tout ce qu'on peut trouver dedans. Et si tu peux rapprocher un tout petit peu ton micro, c'est parfait.
00:17:56 Comme ça, on t'entendra. Je vais pouvoir le toucher là ? Ouais, non, tu peux vraiment prendre le pied et le rapprocher comme ça. C'est parfait.
00:18:01 C'est good ? Oui, comme ça, pour le podcast, c'est mieux. Et en deuxième partie, on recevra Emma Gauthier, qui est doctorante en sociologie numérique spécialisée dans la discrimination algorithmique.
00:18:12 Voilà, donc en gros, les algorithmes, on en parlera plutôt en deuxième partie. Internet, c'est un monde d'hommes ? Mathilde ?
00:18:23 Grande question. Ça date hein ? Depuis le début, il y a des femmes sur Internet, mais elles sont... Alors au tout début, elles étaient assez minoritaires.
00:18:32 Et par contre, il y a énormément de phénomènes qui jouent et qui participent à les faire disparaître.
00:18:37 Parfois, il y a comment on écrit l'histoire d'Internet et comment on écrit l'histoire en général, de toute manière.
00:18:42 Il y a un phénomène récurrent qui pousse un peu à repousser dans l'ombre les femmes et les minorités, alors qu'ils participent à tout, à l'histoire du monde et donc aussi à l'histoire informatique.
00:18:53 Il y a aussi des phénomènes assez classiques dans les milieux professionnels. Donc typiquement dans les entreprises, les femmes sont moins bien payées que les hommes.
00:19:01 Elles ont aussi plus de difficultés souvent à atteindre les postes de direction, les endroits décisifs pour être vus ensuite et potentiellement notés spécifiquement dans l'histoire quand on la fait à rebours.
00:19:13 Et après, sur les réseaux, bien sûr qu'il y a des espaces pour les femmes. Bien sûr que les femmes se créent des espaces par elles-mêmes et des réseaux.
00:19:22 Je pense que Stop Fiche, là, en est d'ailleurs un très bon exemple.
00:19:25 Mais sur la conversation globale, on se rend bien compte, en particulier ces dernières années, qu'il y a une ambiance pas hyper accueillante pour les femmes et les minorités.
00:19:36 Et une des choses que j'essaie de pointer dans Techno-féminisme, c'est que c'est hyper important de s'en inquiéter, de s'en emparer, parce que ça finit par venir toucher la démocratie elle-même.
00:19:49 Et je pense que certains groupements qui, à la base, se réunissent autour d'idées spécifiquement sexistes, misogynes ou racistes, ou les deux, à la fin, dans certains cas, ils sont tellement radicalisés qu'ils vont, par exemple, aller jusqu'à attaquer le Capitole aux Etats-Unis ou la place des Trois Pouvoirs au Brésil.
00:20:06 Et en fait, ce qu'ils font quand ils font ça, c'est qu'ils attaquent des symboles de la démocratie et du vivre ensemble.
00:20:12 Mais d'ailleurs, pour la petite anecdote, on est transparent, là le live a commencé depuis à peu près 7 minutes.
00:20:20 D'ailleurs, je salue les modérateurs et les modératrices du tchat.
00:20:23 Et en fait, il y a quand même déjà énormément de critiques dans le tchat, voire des insultes, alors qu'on n'a pas encore commencé à parler du sujet.
00:20:33 Ne vous inquiétez pas, tout ça est modéré, mais c'est vrai que moi, je vois tout, là. Je vous vois.
00:20:41 Chanley, tout à l'heure, je l'ai dit, donc, 73% de femmes qui déclarent avoir déjà été victimes de violences sexistes et sexuelles en ligne, c'est beaucoup.
00:20:53 C'est les femmes, en fait, les principales victimes, entre guillemets, de ces inégalités qui règnent en ligne.
00:20:58 En fait, je pense que c'est important de dire que, justement, les violences sexistes et sexuelles qui ont lieu dans l'espace physique,
00:21:03 donc dans la rue, partout, en fait, c'est des violences qu'on retrouve aussi sur Internet, sur le cyberespace.
00:21:10 Et c'est pour ça que nous, on souligne la notion de cybersexisme pour montrer que le sexisme, en fait, il se transpose aussi sur Internet.
00:21:18 Et donc, du coup, il y a des cyberviolences, en fait, dont les femmes sont particulièrement victimes, mais aussi les personnes racisées, les personnes LGBT.
00:21:25 Et en fait, on le voit quand on va sur TikTok, on voit tous les discours masculinistes, on voit tous les discours homophobes, etc.
00:21:32 Et en fait, il y a quelque chose qui facilite cette haine à l'encontre des femmes et des minorités, parce que, justement, ça fait du buzz,
00:21:39 parce que, justement, ça attire plus l'attention, il y a des interactions.
00:21:44 Et en fait, tout ça, ça fait un peu le business model de ces entreprises.
00:21:48 Finalement, TikTok, Insta, etc. c'est des entreprises. Et finalement, c'est là qu'on se rend compte que le cybersexisme, en fait, il fait profit, tout simplement.
00:21:57 Et alors, ce sexisme, entre guillemets, sur Internet, il existe depuis longtemps dans ton livre.
00:22:04 Mathilde, tu parles notamment de la règle numéro 30.
00:22:07 Alors, ça fait partie de la culture Internet.
00:22:11 C'est né sur 4chan, c'est ça ?
00:22:14 Sur des forums un peu old school, où il n'y avait pas nécessairement...
00:22:21 Enfin, en même temps, ça ne sert à rien de parler spécifiquement de leur modération, parce qu'on a les mêmes problèmes aujourd'hui sur les réseaux sociaux.
00:22:26 Mais bref, il y a cette blague Internet qui existe depuis les années 90, avec les X règles de l'Internet, on va dire qu'il y en a peut-être une cinquantaine.
00:22:35 Et la règle numéro 30, c'est "il n'y a pas de femmes sur Internet".
00:22:38 L'idée étant que soit on ne les voyait pas, parce qu'en fait, elles étaient là, mais effectivement, pour éviter de se faire harceler ou juste de se prendre des commentaires désagréables.
00:22:50 Une tactique très fréquente et qui existe encore énormément aujourd'hui, en particulier dans le monde du jeu vidéo, c'était de se faire passer pour des hommes.
00:22:56 Parce que comme ça, on ne peut pas se dire que c'est des femmes et donc que c'est des cibles.
00:23:00 Et puis, ça correspondait quand même à une forme de réalité dans le sens où dans certains groupes, comme les discours sont excluants, violents, misogynes, peut-être qu'il y avait effectivement très peu de femmes.
00:23:12 Et du coup, cette règle permettait à la fois de décrire une situation qui existait, alors pas aussi brutalement, mais il y avait un déséquilibre.
00:23:23 Mais en plus de la renforcer, parce que s'il y a cette règle, une femme n'a pas forcément envie de venir si on lui dit ouvertement "C'est pas fait pour toi cet endroit".
00:23:31 Et il y a Kyle CM dans le chat qui dit "Tiens, ça me fait penser à la fabrique du mensonge de cette semaine".
00:23:39 On va en reparler sur l'affaire, le procès Amber Heard et Johnny Depp.
00:23:43 Et donc, ça veut dire que la culture "geek" à la base originelle, elle est masculiniste et sexiste ?
00:23:53 Pas jusque là. C'est une culture parmi d'autres dans un monde qui, de toute manière, est patriarcal.
00:24:00 C'est un monde qui est tissé d'inégalités.
00:24:03 Après, quand la culture gamer en particulier s'est construite, dans les années 80, il y a eu un choix économique, encore une fois, qui a été fait.
00:24:12 En particulier par les entreprises japonaises, à un moment où c'était elles qui avaient le haut du marché.
00:24:18 Qui a été de viser spécifiquement les jeunes hommes occidentaux, parce que du coup, ils avaient des financements et ils étaient plus susceptibles d'acheter des jeux.
00:24:27 Donc, ils ont tourné leur marketing à fond pour viser spécifiquement cette catégorie-là.
00:24:32 Alors qu'auparavant, les jeux étaient moins genrés et potentiellement, les filles y jouaient plus.
00:24:36 Le fait que le marketing ait été fait de cette manière fait que ces hommes ont construit toute une culture autour de ça.
00:24:46 Les jeux eux-mêmes étaient construits de telle manière qu'ils poussaient des logiques spécifiques de virilité, plutôt militarisées, on appelle ça.
00:24:54 Puisque beaucoup des grands titres de jeux vidéo consistent à désinguer un peu tout ce qui passe.
00:24:59 Et donc oui, là, il y a une culture spécifique qui s'est construite autour de cet univers.
00:25:04 Et dans sa forme la plus radicale, la plus extrême, elle est devenue masculiniste.
00:25:11 Donc, véritablement excluant de tout ce qui ne ressemblait pas à des jeunes hommes blancs qui jouent aux jeux vidéo.
00:25:16 Et Chanley, du coup, est-ce que tu peux nous parler des contes fichas, peut-être ?
00:25:22 Qu'est-ce que c'est pour qu'on essaye un petit peu de comprendre l'écosystème qui peut exister,
00:25:27 un écosystème de haine et de violence envers les femmes sur les contes fichas ?
00:25:32 Oui, alors les contes fichas, déjà, ce serait intéressant de voir dans le tchat si les gens y connaissent,
00:25:36 s'ils savent ce que c'est, s'ils en ont déjà entendu parler.
00:25:38 Dites-nous dans le tchat, est-ce que vous connaissez ?
00:25:40 Ce serait super intéressant.
00:25:42 Et en fait, du coup, les contes fichas, c'est quelque chose qui a toujours existé, en soi.
00:25:46 Quand il y a eu les réseaux sociaux et tout, c'est quelque chose qui a toujours existé.
00:25:49 C'est en fait un conte qui va être créé sur un réseau, donc Snap, Insta, Telegram, Twitter,
00:25:55 en fait, peu importe le réseau.
00:25:57 Et en fait, ça va être un conte qui aura pour but d'afficher les contenus intimes,
00:26:01 donc les nudes de meufs ou de jeunes filles, avec leurs informations personnelles.
00:26:07 Et en fait, tout ça dans le but de les humilier et de les afficher sur la place publique,
00:26:11 un peu comme une chasse aux sorcières.
00:26:13 On va demander "Est-ce que tu as des nudes sur elle ? Est-ce que tu as des nudes sur elle ?
00:26:15 Ouais, toi, je sais que c'était ton ex. Est-ce que tu peux m'envoyer un petit truc sur elle ?
00:26:19 T'as vu, nous, on aime bien tout ça."
00:26:21 Pour se venger ?
00:26:22 Même pas pour se venger, en fait.
00:26:23 Parce que souvent, ça s'appelle "revenge porn".
00:26:25 Et en fait, nous, c'est un terme qu'on trouve problématique,
00:26:28 parce que ça signifierait que, imaginons, moi, je subis ça,
00:26:31 ça signifierait que moi, j'ai provoqué la vengeance.
00:26:34 Que tu es responsable en quelque sorte.
00:26:36 Et toujours, ça, c'est le victime un peu de...
00:26:38 Tu t'habilles pas trop court dans la rue, sinon tu cherches.
00:26:41 On voit pas de nudes, sinon tu cherches.
00:26:42 Mais on dit jamais les discours dans l'autre sens.
00:26:45 Et c'est là où on remarque que c'est une dynamique qui est purement sexiste,
00:26:48 puisque du coup, ça s'applique qu'aux femmes.
00:26:50 Et du coup, les comptes Ficha, c'est quelque chose qui s'est créé massivement
00:26:53 pendant le confinement.
00:26:55 C'est ma petite sœur, en fait.
00:26:56 Il y a quelques jours après le confinement, à 1h du mat,
00:26:59 elle m'a dit "Wesh, Anne-Lé, il se passe un truc sur Snap.
00:27:01 Je vais voir sur Snap."
00:27:02 Et là, je vois plein de comptes avec marqué "Ficha 7, 8, 9, 2, 9, 3, 9, 5" et tout.
00:27:07 Donc des comptes pour afficher les meufs de sa ville.
00:27:11 Et pour moi, je voyais vraiment ça comme un slut-shaming de masse,
00:27:14 mais aussi comme une chasse aux sorcières à l'ère du numérique, finalement.
00:27:18 Et en fait, vu que la modération ne faisait rien, comme d'hab, on a l'habitude,
00:27:23 mais là, c'était pire en raison du Covid.
00:27:24 Ils disaient qu'on a moins d'effectifs, etc. pour modérer.
00:27:26 Et en fait, vu qu'il y avait une modération qui était inexistante,
00:27:29 je me suis dit "En fait, moi, je peux pas rester là, voir tout ça
00:27:32 et dormir sur mes deux oreilles comme si de rien n'était."
00:27:35 Donc du coup, c'est là où j'ai essayé de faire du bruit sur les réseaux, sur Twitter,
00:27:39 et où il y a plein de meufs qui m'ont contactée.
00:27:42 Une avocate, des militantes, des victimes, des parents de victimes, etc.
00:27:46 Et on a formé l'assaut comme ça.
00:27:49 Et dans le chat, pour répondre à la question que tu as lancée aux viewers,
00:27:54 il y a quand même plutôt une majorité de "non, jamais entendu parler".
00:27:59 Alors il y a quand même des gens qui connaissent, mais non.
00:28:01 "Je connais pas, excusez-moi, je connais pas."
00:28:04 - Si je peux rebondir, on a fait une enquête sur ce sujet
00:28:07 avec une collègue qui s'appelle Ingrid Bergo.
00:28:10 Et on s'est rendu compte que c'était un phénomène qui était très peu connu,
00:28:13 tant que les gens n'en avaient pas été victimes ou proches de victimes.
00:28:16 Et c'est un vrai problème, parce que tout ce que vient de raconter Shanley,
00:28:20 très souvent, ça touche des femmes mineures, des filles mineures.
00:28:23 Donc littéralement, on est dans des cas de pétopornographie.
00:28:26 Ça devrait être puni beaucoup plus rapidement,
00:28:28 parce que c'est des choses qui sont hyper strictement illégales
00:28:31 dans quasiment tous les pays.
00:28:33 Les réseaux sociaux eux-mêmes, théoriquement, ont des lois,
00:28:36 des conditions d'utilisation qui interdisent ce type d'usage.
00:28:41 Et en fait, ça a réussi à rester tellement sous-marin,
00:28:44 alors que c'est quand même un phénomène de masse,
00:28:46 c'est un phénomène de masse en sous-marin,
00:28:48 qu'il n'y a pas du tout de réaction suffisante.
00:28:51 C'est assez problématique, ouais.
00:28:54 - Mais comment ça se fait ? C'est une sorte d'angle mort médiatique ?
00:28:59 Est-ce qu'on ne s'intéresse pas suffisamment à ce qui se passe en ligne ?
00:29:04 Est-ce qu'on sous-estime ?
00:29:06 On voit ça comme une sorte de petite guerre entre des gens sur Internet.
00:29:10 C'est ça aussi le problème, l'enjeu médiatique ?
00:29:15 Il faut prendre ces sujets au sérieux ?
00:29:17 Les journalistes péginent ?
00:29:19 - Je pense que le monde numérique est sous-estimé, en fait.
00:29:23 Typiquement, si la violence masculiniste peut être aussi forte,
00:29:26 si elle peut participer à des explosions hors ligne aussi fortes
00:29:31 que ce qu'elle a fait dans les dernières années,
00:29:33 c'est bien qu'on l'a laissé proliférer sans cadre,
00:29:36 et donc qu'elle a pu prendre de l'ampleur.
00:29:40 Et sur le cas spécifique de Revenge Porn,
00:29:42 c'est aussi que les personnes dont on parle sont souvent des gens jeunes,
00:29:48 mais c'est des gens très connaisseurs de tous les outils numériques,
00:29:51 donc ils sont très forts pour aller faire des boucles de messagerie,
00:29:54 y compris sur des messageries cryptées.
00:29:56 Je n'ai rien contre les messageries cryptées,
00:29:57 c'est très bien de protéger les informations,
00:29:59 mais quand c'est dans cet usage-là, ça pose quand même des questions.
00:30:02 Ils savent les reproduire, donc s'il y en a une qui saute,
00:30:04 ils en auront trois derrière.
00:30:07 Et en fait, il y a toute une organisation et toute une expertise
00:30:11 des outils numériques derrière ce type de phénomène.
00:30:15 Et je pense que c'est sous-estimé à la fois par les adultes,
00:30:19 si je puis le dire comme ça,
00:30:20 si ce n'est pas complètement juste de dire que ce sont que des mineurs.
00:30:24 Et aussi, c'est au croisement à la fois des crimes numériques
00:30:29 et des crimes sexistes,
00:30:30 qui les deux, même pris séparément,
00:30:32 ne sont de toute façon pas très bien traités par les forces de police
00:30:36 et de justice en France, faute de moyens le plus souvent,
00:30:39 ou pour les cas sexistes, faute peut-être de connaissances,
00:30:42 puisque je n'apprendrai rien à personne
00:30:44 quand je dirai que les histoires de violences sexistes sexuelles
00:30:48 ne sont pas très bien reçues.
00:30:50 Les filles sont proches à Ymé.
00:30:54 - Je suis totalement d'accord avec ce que tu dis.
00:30:56 J'ai en plus une lecture en plus.
00:30:58 C'est-à-dire que, pour moi,
00:31:00 quand j'ai lancé l'alerte pendant le confinement
00:31:03 sur la prolifération de ces comptes,
00:31:05 en fait, on me disait « tu fonces dans un mur ».
00:31:08 - Qui t'a dit ça ?
00:31:10 - Mais franchement, c'est un discours qui m'est grave revenu.
00:31:13 C'est-à-dire que c'était carrément…
00:31:14 On me le faisait ressentir.
00:31:16 Partout où j'allais, je toquais à la porte des assos,
00:31:18 je toquais à la porte de tout le monde.
00:31:20 On me disait « ouais, tu vas foncer dans un mur ».
00:31:22 Les contenus, genre pédoporno en ligne et tout,
00:31:25 c'est un truc qui existe depuis la nuit des temps,
00:31:27 mais en fait, laisse tomber, ça ne sert à rien,
00:31:29 tu ne pourras rien y faire.
00:31:30 Et donc, du coup, je pense qu'il y a ce discours-là…
00:31:32 - Une sorte de fatalité.
00:31:33 - Exactement, il y a ce discours-là,
00:31:35 où en fait on doit accepter ce qui se passe et ne rien faire,
00:31:37 sauf que non, sinon ça va juste s'aggraffer.
00:31:39 En plus de ça, les outils technologiques
00:31:41 se développent de plus en plus.
00:31:42 Donc au contraire, il faut justement s'en saisir maintenant,
00:31:46 que ce soit encore saisissable, on va dire.
00:31:48 Et du coup, ça c'est ma première lecture
00:31:50 de pourquoi ce n'est pas autant visibilisé.
00:31:52 Ma deuxième lecture, ce serait parce que ça concerne des femmes,
00:31:55 mais aussi parce que ça concerne des jeunes filles.
00:31:57 Et en fait, souvent, quand ça touche les enfants, les mineurs,
00:32:00 vu qu'ils n'ont pas de voix dans l'espace politique ou de l'espace public,
00:32:04 ce n'est pas qu'ils n'ont pas de voix, mais souvent on ne veut pas les entendre,
00:32:06 parce qu'il y a du mépris, souvent vers ce que les enfants vont dire,
00:32:09 on ne va pas les prendre au sérieux.
00:32:10 Même moi, on ne m'a pas pris au sérieux.
00:32:11 Quand je commençais à contacter la presse, on me disait
00:32:14 « il faut que tu montres, tu vois ».
00:32:16 Et quand je leur montrais, ils étaient complètement choqués.
00:32:18 Donc je pense qu'il y a beaucoup de mépris,
00:32:20 et si on écoutait un peu plus les jeunes,
00:32:22 enfin je suis jeune aussi, mais voilà, si on nous écoutait un peu plus,
00:32:25 je pense que les choses changeraient.
00:32:27 Et il y a beaucoup de...
00:32:28 Moi, je pense qu'il y a une prise de conscience en ce moment
00:32:30 sur les enjeux de cyber, cybersexisme, etc.
00:32:33 Donc ça va très doucement,
00:32:35 je vois notamment dans les pouvoirs publics et tout,
00:32:38 mais je pense qu'il y a du travail,
00:32:39 et notamment, il faut reconnaître la parole des jeunes,
00:32:42 et des femmes.
00:32:43 Pour moi, c'est hyper important.
00:32:44 - Et à Stop Ficha, qu'est-ce que vous faites concrètement
00:32:48 si jamais on tombe sur un compte Ficha,
00:32:51 ou si on en est soi-même la victime,
00:32:53 qu'est-ce qu'on doit faire ?
00:32:55 - En fait, quand on est victime de compte Ficha,
00:32:57 donc là je vais un peu déballer le guide,
00:32:59 tout d'abord, vous prenez un maximum de captures d'écran possible.
00:33:03 Ensuite, il faut le signaler, direct.
00:33:06 Donc vous pouvez le signaler à nous,
00:33:07 vous allez sur notre compte Insta, donc Stop Ficha,
00:33:09 et en fait, vous allez voir en bio, il y a un lien,
00:33:11 vous cliquez dessus, ça mènera vers le formulaire de signalement.
00:33:13 Dès que vous avez connaissance du compte,
00:33:15 ou d'une cyberviolence en général, vous pouvez nous le signaler.
00:33:18 Franchement, n'hésitez pas,
00:33:19 on a des partenariats, etc. qui font que...
00:33:22 - Faros dit Yann Amat dans le chat.
00:33:24 - Ouais, du coup, il faut le signaler à nous.
00:33:26 Après, il faut le signaler à Faros,
00:33:28 du coup, c'est un peu la police numérique.
00:33:30 Et après, nous, on peut venir vous accompagner
00:33:34 sur cette partie signalement,
00:33:35 et après, il y a la partie morale, psy, qui est hyper importante,
00:33:39 parce qu'en fait, c'est une blessure.
00:33:41 Ce que tu vis, c'est une violence,
00:33:42 et même si ça se passe sur l'espace digital, numérique,
00:33:45 c'est une violence qui est réelle, qui a un impact réel,
00:33:48 non seulement dans son intimité,
00:33:50 mais aussi dans la vie sociale,
00:33:52 parce que ta réputation, en fait, elle est bousillée.
00:33:54 Et en fait, du coup, c'est là où le soutien est hyper important,
00:33:56 soutien psy, soutien juridique, si on veut déposer plainte,
00:33:59 et soutien moral, en fait, de tout le monde autour de soi,
00:34:02 qu'on ne fasse pas culpabiliser les victimes,
00:34:04 puisqu'on est là pour elles.
00:34:05 Mathilde, tu commences vraiment ton livre
00:34:08 par justement parler des sphères masculinistes.
00:34:11 Est-ce que tu peux nous en dire plus ?
00:34:13 C'est qui ? Ils sont où ?
00:34:15 Qu'est-ce qu'ils font comme raid ?
00:34:17 Raconte-nous un petit peu.
00:34:19 Après, juste pour préciser,
00:34:20 ceux qui commettent ce que certains appellent revenge porn,
00:34:23 du fichat et tout ça,
00:34:24 ce n'est pas forcément exactement les mêmes cercles
00:34:26 que les questions masculinistes.
00:34:28 Toutes les questions d'affichage,
00:34:31 enfin, de partage de news,
00:34:33 il y a certainement quelques mascus dedans,
00:34:35 mais ça recroise aussi souvent des questions de cyber-harcèlement
00:34:37 dans des milieux géographiques précis, etc.
00:34:40 Ça, c'était une précision de départ.
00:34:42 Et les masculinistes, c'est qui ?
00:34:45 A priori, c'est des gens qui n'aiment pas trop les filles.
00:34:48 C'est des gens très en ligne
00:34:51 qui se regroupent dans plein de types de forums.
00:34:54 Et surtout, là où ça devient un vrai sujet de société,
00:34:58 c'est que ce sont des groupes très organisés,
00:35:00 très efficaces en ligne,
00:35:01 comme on en parlait tout à l'heure.
00:35:03 Ils savent, eux aussi, très bien gérer tous les aspects de réseau
00:35:06 qui font la magie d'Internet en réalité,
00:35:08 mais qui peuvent aussi être utilisés à des fins négatives.
00:35:11 Et la raison pour laquelle il faut qu'on s'en inquiète,
00:35:14 c'est qu'ils se radicalisent les uns les autres.
00:35:17 Et comment ?
00:35:19 En échangeant plein de...
00:35:20 Ils utilisent beaucoup les cultures numériques.
00:35:22 En fait, ça devient cool, dans un sens, aujourd'hui,
00:35:25 d'écouter des influenceurs masculinistes, par exemple.
00:35:28 Andrew Tate, je l'ai regardé il y a deux jours,
00:35:30 il a 5 millions de followers sur Twitter.
00:35:33 Il est cool, dans un sens.
00:35:35 Et pourtant, ce type, il est actuellement détenu en Roumanie.
00:35:39 Il est accusé de viol, de trafic d'êtres humains,
00:35:42 de trucs mais horribles, quoi.
00:35:44 Mais ils ont réussi à tellement bien utiliser la culture Internet,
00:35:49 les logiques de mèmes, de blagues, de trucs, de machins,
00:35:51 que c'est devenu un peu, probablement,
00:35:54 une culture underground stylée, pour certains.
00:35:57 Pour des gens moins radicalisés.
00:35:59 Mais en gros, c'est ça.
00:36:00 C'est vu comme un truc anti-système.
00:36:01 Ça peut être vu comme sexy pour des jeunes
00:36:04 qui cherchent des logiques anti-système et tout.
00:36:06 Et donc, c'est pour ça qu'il faut qu'on s'en inquiète.
00:36:09 Parce que derrière, tout le monde ne tombe pas dans la radicalisation extrême.
00:36:12 Heureusement.
00:36:13 Certains vont développer de l'esprit critique
00:36:15 et commencer à s'en éloigner.
00:36:17 Mais il y a une petite minorité,
00:36:19 et c'est vraiment là-dessus.
00:36:21 En fait, c'est très souvent comme ça, dans le numérique.
00:36:22 Il faut s'inquiéter, malheureusement, à cause des effets de réseau,
00:36:25 de la toute petite minorité qui risque d'aller trop loin.
00:36:27 La petite minorité qui risque d'aller trop loin,
00:36:29 c'est les masculinistes,
00:36:30 elle a déjà commis des meurtres et des meurtres de masse.
00:36:33 Tu cites l'exemple d'Alec Minassian.
00:36:36 Il y a donc un attentat à Toronto en 2018, voiture-bélier.
00:36:42 Il faisait partie de la communauté des incels.
00:36:44 C'est ça ? Moi, je ne connaissais pas du tout.
00:36:46 C'est les célibataires involontaires autopromus, bien sûr.
00:36:48 Parce qu'on n'est pas célibataire involontaire.
00:36:50 Ça n'existe pas, ce concept, dans la vie.
00:36:53 Mais donc, c'est une sous-communauté masculiniste
00:36:56 qui considère que des relations hétérosexuelles leur sont dues
00:37:02 et que s'ils n'ont pas de meuf, de femme, de fille, de copine,
00:37:07 c'est qu'il y a quelque chose qui ne va pas
00:37:10 et que c'est probablement la faute des femmes et en particulier des féministes.
00:37:12 D'accord.
00:37:13 Et en fait, oui, il y a plusieurs personnes
00:37:17 qui se sont radicalisées au point d'aller commettre des actes meurtriers.
00:37:21 Et une autre spécificité aussi,
00:37:23 c'est que le sexisme, dans un sens, c'est l'hameçon.
00:37:27 C'est assez facile parce que socialement,
00:37:29 c'est encore relativement accepté de faire des vannes sexistes.
00:37:33 Souvent, on est là genre "Ah, ça va, ce n'est pas grave,
00:37:35 ne viens pas nous emmerder avec ton féminisme et tout."
00:37:37 Mais assez facilement, quand on vous a embarqué là-dedans avec des blagues,
00:37:41 on peut ensuite vous tirer vers d'autres idées racistes, antisémites, homophobes, etc.
00:37:46 qui sont peut-être un petit peu moins, légèrement moins acceptées socialement.
00:37:50 Et il y a des chercheuses féministes qui constatent l'existence de ce qu'elles appellent
00:37:53 l'intersectionnalité des haines.
00:37:55 À la fin, on déteste tout le monde et on est très, très, très à droite de l'extrême droite.
00:37:59 Et encore une fois, là, je décris à très grands mots et à très grand trait
00:38:02 des phénomènes de radicalité intense, mais tout au bout,
00:38:04 potentiellement, on est suffisamment énervés pour aller attaquer
00:38:09 soit son prochain dans la rue, soit parfois des symboles démocratiques.
00:38:14 Je veux rajouter un petit truc par rapport à ce que tu dis.
00:38:18 C'est hyper intéressant. Il y a une enquête qui a été menée.
00:38:21 Je n'ai plus le nom, c'est honteux, mais c'est facilement retrouvable.
00:38:24 Et en fait, qui montre que quand...
00:38:27 En fait, c'est des chercheurs qui ont créé un compte sur TikTok.
00:38:30 Donc, vie d'algorithme, vierge d'algorithme, tout neuf.
00:38:34 - Propre. - Voilà, tout propre, tout clean.
00:38:36 Et en fait, ils ont commencé un peu à... je ne sais pas, à swiper.
00:38:40 Et en fait, petit à petit, ils se sont rendus compte qu'en interagissant
00:38:43 avec les contenus sexistes et transphobes, qu'en fait, petit à petit,
00:38:46 en fait, ils étaient menés vers des contenus qui faisaient l'apologie
00:38:49 de l'extrême droite, de l'esclavagisme, et en fait, l'apologie de l'esclavagisme,
00:38:54 etc., et en plus de ça, qui faisaient l'apologie de Donald Trump,
00:38:57 et en fait, de mecs hyper dangereux.
00:38:59 Et c'est hyper intéressant de voir comment, sans même t'en rendre compte,
00:39:02 parfois tu peux être radicalisé, et parfois ça part de discours
00:39:05 hyper banalisés et des discours banalisés sexistes, finalement.
00:39:09 - Oui. Et en France, il y a des groupes masculinistes
00:39:14 qui font des raids comme ça ? - Oui.
00:39:17 - Ouais. - Il y en a.
00:39:20 - Porosité avec l'extrême droite, toi tu expliques.
00:39:23 - Exactement, c'est ce que j'allais dire. Ils sont souvent...
00:39:25 ils ont des discours très... il y en a qui sortent de l'extrême droite,
00:39:28 en fait, qui sont des anciens cadres du Front National à l'époque et tout.
00:39:33 Et ils ont tous... enfin, et ils participent aux raids.
00:39:38 Alors, les gros influenceurs, ils ont bien compris comment fonctionnent
00:39:43 Internet et les réseaux sociaux. Et parfois, ils ont aussi l'intelligence
00:39:48 de pas dire ouvertement "allez harceler machine",
00:39:52 mais de le faire en message un peu... - Ouais, caché, impulsif.
00:39:57 - Un peu caché, ou juste pas ouvertement "allez attaquer",
00:40:00 mais en fait, on comprend bien derrière si on fait partie de la communauté,
00:40:02 si on fait partie des blagues et tout, ce qui est dit.
00:40:05 Et du coup, derrière, c'est la foule numérique qui va se déverser sur la personne,
00:40:08 et ensuite, eux, on peut pas les attaquer directement.
00:40:11 - Mais oui, il y a le même type de profil.
00:40:16 - Moi, j'ai déjà subi un raid numérique, en fait.
00:40:20 Vous allez voir, flou, mais la communauté, c'était 233 000 membres
00:40:24 sur un compte Telegram, donc c'était un compte fichage sur Telegram,
00:40:28 un groupe, 233 000 membres. Et en fait, vu que j'étais, pendant le confinement,
00:40:32 en train de dénoncer les comptes avec l'équipe, en train de dire "ouais, il faut les faire fermer",
00:40:35 enfin, vraiment, c'était... en fait, on était désespérés, c'est-à-dire qu'on lançait des appels
00:40:39 sur Twitter, on était solos. Et en fait, eux, ils m'avaient répérée,
00:40:43 et à partir de là, t'as le chef du groupe qui a dit "ouais, vous voyez,
00:40:48 cette meuf, là, sur Insta, il avait envoyé mon compte Instagram dans le groupe,
00:40:52 il a dit "ouais, c'est une grosse pute, allez la harceler", donc là, à partir de maintenant,
00:40:56 allez lui envoyer le même message, et en fait, c'était un message qui disait "tic-tac, tic-tac",
00:41:00 en mode "ton heure arrive", et en fait, j'ai reçu ça, j'ai reçu en 20 minutes,
00:41:04 j'ai vu mon téléphone en train de péter un plomb, je me suis dit "mais qu'est-ce qui se passe ?",
00:41:07 je regarde, je vois sur Insta plein de commentaires, plein de messages,
00:41:10 j'ai dû fermer mon compte, et je me suis dit "ouais, mais c'est chaud, quand même,
00:41:14 233 000 personnes, quoi, c'est un truc de fou".
00:41:17 - Et les personnes qui font ça, elles sont jugées ? Il se passe quoi derrière ?
00:41:23 - Alors, il y a quand même... En soi, il y a des réactions qui sont prises, simplement,
00:41:27 peut-être qu'elles sont prises un peu tard, mais bon, ça, on ne pourra pas revenir en arrière.
00:41:30 Et aussi, ce qui est quand même difficile, et c'est...
00:41:33 Ceux qui participent au harcèlement le savent bien, c'est quand même difficile d'aller mettre les 233 000 personnes devant le tribunal.
00:41:39 Mais typiquement, dans les dernières grandes affaires, le harcèlement contre Nadia Adam, celui contre Mila,
00:41:46 j'en avais un autre en tête, mais il en est échappé, il y a des personnes qui ont été traduites en justice,
00:41:50 il y a des personnes qui ont été condamnées.
00:41:53 Aussi, après, on parle beaucoup des masculinistes, mais en fait, c'est des logiques assez similaires aussi
00:41:57 à toutes les logiques complotistes, fake news, qui se sont développées pendant le confinement,
00:42:01 et qui, pareil, étaient capables de tomber avec une virulence énorme sur un médecin qui disait "vaccinez-vous", par exemple.
00:42:06 Là aussi, il y a des gens qui ont été traduits en justice, mais le problème, c'est qu'à chaque fois,
00:42:10 c'est peut-être 7 personnes sur les 100 000 qui ont participé.
00:42:14 C'est pour ça qu'à la fois, il faudrait quand même, je pense, plus de moyens pour la police et la justice pour lutter contre ce phénomène,
00:42:23 mais il y a aussi toute une logique de faire comprendre, parce qu'il y a certainement des gens là-dedans
00:42:27 qui ne réalisent pas l'ampleur de ce que ça fait pour la victime.
00:42:31 C'est évident, d'ailleurs, si on ne traîne pas sur les réseaux sociaux et si on a un compte...
00:42:37 On se rend pas compte de l'ampleur, donc en parler, tu dis...
00:42:42 En parler, vulgariser, expliquer mieux les effets du numérique, comment...
00:42:47 Quand une personne se retrouve face à plein de messages, c'est vraiment pas du tout...
00:42:50 C'est pas anodin, en fait. Ça pourrait, pour certaines personnes, peut-être participer à créer un sentiment de responsabilité
00:42:59 qui ferait que les gens participeraient un petit peu moins à ce genre de mouvement.
00:43:03 Et après, il y a tous les réseaux d'activistes et compagnies qui participent aussi et qui travaillent notamment avec les plateformes
00:43:08 "Message à Nélodia", mieux que moi, et les aident un petit peu.
00:43:12 Les plateformes, on ne sait jamais dans quelle mesure elles travaillent.
00:43:15 Il y en a certaines qui ne font rien, du genre Telegram,
00:43:18 mais il y en a d'autres qui font des choses quand même.
00:43:21 Donc c'est pour ça que c'est un travail collectif, je pense, pour...
00:43:25 Alors, en ligne, il y a quand même plein de progrès qui ont été faits sur la protection des données personnelles,
00:43:34 la lutte contre la désinformation. On a l'impression que tout ce qui concerne les violences et le cybersexisme...
00:43:41 Il y a quand même des progrès.
00:43:44 Ça prend plus de temps, en tout cas.
00:43:47 Ou alors c'est juste que c'était d'une ampleur tellement plus grande que c'est effectivement remonté à la pente.
00:43:54 Moi, un des trucs qui m'épatent quand je raconte l'histoire très récente du numérique,
00:43:59 c'est que depuis le début des réseaux sociaux actuels, Facebook, Twitter et compagnie,
00:44:04 très très tôt, il y a eu des alertes sur "Attention, votre réseau peut être utilisé au dépens de l'utilisateur,
00:44:09 il peut être utilisé pour lui faire du mal, pour le harceler".
00:44:13 Twitter a dû arriver en 2007 en France, Facebook aussi.
00:44:17 Il y avait déjà cette année-là et l'année suivante des alertes parce que dans une école turque,
00:44:22 il y avait des cas de cyberharcèlement, parce que des féministes avaient vécu du cyberharcèlement.
00:44:25 Twitter, ils ont mis leur premier outil de modération sept ans après leur création.
00:44:29 C'est aussi que les plateformes, pendant très longtemps, elles sont fichues.
00:44:34 Aujourd'hui, elles ont compris que c'était un problème de société, mais est-ce qu'elles s'activent assez ?
00:44:38 C'est aussi un débat.
00:44:40 Il y a quelque chose comme ça de considérer la gravité du problème,
00:44:45 qui peut-être, pour l'instant, n'est pas considéré suffisamment sérieusement.
00:44:49 - Et Shanley, une question pour toi dans le chat de Cette Médusa.
00:44:53 Est-ce que Shanley et/ou d'autres membres de son collectif ont envisagé de rester anonymes en ligne
00:44:58 pour se protéger personnellement de certains types de harcèlement ?
00:45:02 - En fait, il y en a certaines.
00:45:05 Nous, l'anonymat, ce n'est pas quelque chose dans lequel on croit,
00:45:08 parce qu'on n'est jamais anonyme sur Internet.
00:45:10 - De moins en moins, en tout cas.
00:45:11 - Non, mais il n'y a que les hackers, les mecs un peu chauds, qui peuvent être vraiment anonymes.
00:45:15 Mais sinon, on peut toujours retrouver une personne.
00:45:18 On préfère dire pseudonymat, du coup.
00:45:21 Mais il y en a qui ne montrent pas leur visage dans la presse,
00:45:24 qui ne montrent jamais leur visage, qui vont être dans l'assaut, qui vont être hyper activés.
00:45:28 Mais qui ont fait le choix de ne pas divulguer leur identité.
00:45:32 Moi, j'ai ce choix-là parce que je suis activiste depuis mes 17 ans.
00:45:36 J'ai été médiatisée dès mes 17 ans.
00:45:38 Et donc, du coup, c'est un peu trop tard pour moi.
00:45:40 Mais d'un autre côté, je dirais que c'est important aussi de montrer son visage,
00:45:45 de montrer sa voix, de la faire entendre pour montrer qu'on n'a pas peur.
00:45:48 - Il ne faut pas disparaître, tu dis, du web.
00:45:51 - Oui, c'est ça. Parce que justement, les victimes de cyber-violence,
00:45:55 vu qu'elles sont intimidées, oppressées,
00:45:58 elles vont se dire "Ok, je supprime mes réseaux".
00:46:00 Ce que je comprends totalement.
00:46:02 - Donc, auto-censure.
00:46:03 - En fait, c'est ce qu'on a remarqué.
00:46:05 Souvent, les femmes sur Internet, les minorités de genre aussi,
00:46:07 ont tendance à s'auto-censurer pour éviter d'être la cible de cyber-violence.
00:46:12 Parce que du coup, les femmes sont plus susceptibles d'être victimes de cyber-violence que les hommes.
00:46:18 Et donc, il y a vraiment cette logique d'auto-censure,
00:46:20 de mettre un pseudonyme, "Est-ce que je mets mes photos ou pas ?
00:46:24 Est-ce que je floute mon visage ou pas ?"
00:46:26 On se pose trop de questions, en fait, pour se protéger.
00:46:29 - Et juste un barbu qui dit dans le chat
00:46:32 "Twitch a récemment mis en place un système de bouclier pour bloquer les raids haineux".
00:46:37 Voilà, c'était juste pour relever.
00:46:39 - Juste sur ce point-là, c'est pour ça qu'il y a un gros débat de société à avoir,
00:46:44 à mon sens, sur quelle liberté d'expression on veut en ligne.
00:46:46 Parce que, typiquement, Elon Musk, qui reprend Twitter il y a quelques mois,
00:46:51 en disant "Je vais rendre la liberté d'expression au Twitto à qui on l'a supprimée", etc.
00:46:56 et en fait se faisant remettre énormément de comptes extrémistes,
00:46:59 dont celui du fameux Android 8, en ligne.
00:47:02 En fait, ce qu'il ne veut pas voir, c'est que ce que ces comptes extrémistes,
00:47:06 en poussant la violence, le cyber-hasselement, etc., font,
00:47:10 c'est qu'ils privent de liberté d'expression toute une autre partie de la population.
00:47:15 Et bizarrement, c'est toujours la même, c'est celle qui est le plus souvent privée de liberté d'expression
00:47:19 dans la société inégalitaire dans laquelle nous vivons, malheureusement.
00:47:22 Et donc, assez vite, c'est les femmes, les minorités, qui se retrouvent contraintes pour se protéger.
00:47:28 Mais elles ont raison de se protéger, si elles s'estiment que c'est ce qu'il faut faire.
00:47:32 Elles se retrouvent contraintes de disparaître des espaces numériques,
00:47:36 mais du coup, on ne les entend plus, elles ne parlent plus, leur liberté d'expression est bafouée.
00:47:41 La liberté d'expression, pour qui ?
00:47:44 Est-ce qu'on peut, tout à l'heure, en parler des liens entre sexisme,
00:47:49 sphère masculiniste et désinformation ?
00:47:52 Est-ce que vous pouvez peut-être nous parler du cas "Amber Heard"
00:47:56 qui a subi toute une campagne de cyberharcèlement et de désinformation masculiniste
00:48:03 qui a totalement discrédité son témoignage et par là même la libération de la parole des femmes derrière ?
00:48:14 C'est le fameux "la fabrique du mensonge" de France 5 qu'on vous envoie dans le chat.
00:48:19 Oui, qui faut vraiment regarder.
00:48:21 Fondamentalement, si je peux résumer le truc comme ça, les masculinistes, c'est de toute façon des désinformateurs
00:48:25 parce que la base de leur argumentaire, c'est de dire que les femmes ont gagné le pouvoir,
00:48:31 et les féministes aussi.
00:48:32 Or, si vous regardez qui sont les dirigeants des plus grandes instances politiques et économiques, c'est faux.
00:48:37 Et si vous regardez l'État, des inégalités diverses et variées, c'est faux aussi.
00:48:40 Si on regarde les patrons des GAFAM aussi ?
00:48:42 Oui, totalement.
00:48:44 Même Tinder, j'ai regardé, c'est un homme.
00:48:47 D'ailleurs, pour la petite story, Tinder, à la base, c'était créé par trois personnes, deux hommes et une femme.
00:48:53 L'homme et la femme étaient dans une relation, c'était un mec violent.
00:48:57 Un jour, elle a tellement subi, elle s'est barrée et elle a fait "tant pis, je vous laisse Tinder, moi je crée Bumble".
00:49:05 Elle a créé Bumble.
00:49:06 Ok, c'est ça l'histoire.
00:49:07 Très intéressant.
00:49:08 Je connaissais pas.
00:49:09 Elle a pris sa revanche.
00:49:10 On va se quitter, on va se quitter avant qu'on se quitte et qu'on accueille Emma Gauthier.
00:49:14 Déjà, est-ce que tu souhaites ajouter quelque chose ?
00:49:17 Et si jamais tu souhaites ne rien ajouter, est-ce que tu peux nous expliquer pourquoi tu t'es cofondée avec plein d'autres gens ?
00:49:24 Stop Ficha, pourquoi tu en as fait ton "combat" ?
00:49:29 Tout d'abord, un dernier message, je dirais, c'est aux victimes de cyberviolence en général, mais aussi de cyberviolence sexiste et sexuelle.
00:49:36 On vous croit, vous n'êtes pas seules.
00:49:38 On est archi-joignable, donc n'hésitez pas à nous envoyer un message sur les réseaux.
00:49:43 Même si vous avez des questions, n'hésitez pas.
00:49:45 On veut vraiment démocratiser le sujet et le rendre accessible et comprendre à tous que c'est un combat qu'il faut vraiment saisir et dont il faut parler autour de soi.
00:49:54 Et ensuite, un deuxième message, pourquoi je me suis engagée dans Stop Ficha.
00:49:59 Tout simplement parce qu'en fait, quand on voit une injustice devant soi, pour moi, je peux pas rester les bras croisés à rien faire.
00:50:04 C'est-à-dire que pour moi, il faut devenir acteur.
00:50:07 Et justement, c'est en devenant acteur, notamment quand tu es témoin, que tu viens briser un petit peu la chaîne.
00:50:12 Donc du coup, c'est hyper important qu'en fait, chacun d'entre nous, on se mobilise.
00:50:17 Donc ça ne veut pas dire qu'on devienne tous activistes ou quoi, mais qu'on intervienne, qu'on fasse venir entrer sa voix dans une situation d'inégalité.
00:50:26 C'est très important.
00:50:28 Hugues Zimond, qui dit bravo pour votre engagement.
00:50:31 Merci beaucoup, Channeley Clément-McLaren, étudiante et cofondatrice de l'association Stop Ficha.
00:50:38 Peut-être que Stop Ficha peut, va se lancer sur Twitch. Pourquoi pas ?
00:50:42 En vrai, pourquoi pas ? Ce serait cool.
00:50:44 Moi, je fais la propagande de Twitch.
00:50:47 Merci à toi en tout cas. Et on va accueillir Emma Gauthier tout de suite.
00:50:52 Merci à toi.
00:50:53 Et tu peux rester en régie pendant la deuxième partie de l'émission, si tu veux.
00:50:57 Emma Gauthier, doctorante en sociologie numérique.
00:51:00 Bonjour.
00:51:01 Bonjour. Spécialisée dans les discriminations algorithmiques.
00:51:04 C'est bien ça. Est-ce que j'ai oublié quelque chose dans la présentation ?
00:51:08 Tu es surtout spécialisée sur le genre.
00:51:10 Et voilà.
00:51:11 On peut peut-être du coup parler de la question de la représentation des femmes sur Internet.
00:51:17 Est-ce que ça contribue à aggraver les inégalités ? Comment elles sont représentées les femmes sur YouTube typiquement ?
00:51:24 Sur YouTube typiquement ? Déjà, ce qu'il faut savoir, c'est qu'en France, il y a la parité sur les usages.
00:51:30 Les internautes, il y a autant de femmes que d'hommes à peu près.
00:51:33 Donc, c'est un point qui est important à souligner.
00:51:36 En revanche, quand on regarde sur des plateformes, ce n'est pas du tout réparti de manière équitable.
00:51:40 Et sur YouTube, il y a différentes manières de comptabiliser les femmes.
00:51:45 Ce qu'il faut garder en tête, c'est que c'est compliqué d'avoir accès aux données sur ces plateformes-là,
00:51:50 qui sont souvent très fermées et de plus en plus fermées.
00:51:52 On l'a vu avec Twitter récemment, qui a fermé son API.
00:51:55 Donc, il faut trouver des manières de comptabiliser.
00:51:58 Une première manière, par exemple, ça pourrait être de compter le nombre de femmes qu'il y a dans les tops des vidéastes qui ont le plus d'abonnés.
00:52:06 Les vidéos les plus vues.
00:52:07 Exactement, en fonction de certaines métriques.
00:52:09 Mais en gros, si on regarde le nombre d'abonnés, il y a à peu près 10% de femmes dans le top 100 français.
00:52:15 Et ça fait depuis 2016 que le classement est fait et ça n'évolue pas ou peu.
00:52:21 Donc, c'est une situation qui est assez inquiétante en termes de réutilité des femmes sur Internet.
00:52:28 Et sur YouTube, les contenus qui présentent une image dégradante des femmes sont en hausse, 34,7% en 2020,
00:52:40 alors qu'on était à 15% en 2018, selon une étude qu'on vous envoie dans le chat du CSA.
00:52:46 Ça, c'est une étude qui a été faite par le CSA et qui comptabilise.
00:52:49 Moi, je le fais de manière quantitative, mon analyse.
00:52:53 Mais cette étude est qualitative.
00:52:54 Elle a regardé les 100 vidéos qui étaient les plus regardées en France sur l'année 2017 ou 2008, je crois.
00:52:59 Et qui a essayé de catégoriser et d'identifier quelles étaient les représentations de la femme et des femmes qui sont faites dans ces vidéos.
00:53:05 Et en fait, il ne faut pas oublier un truc, c'est que sur YouTube, la majorité des choses qui sont consommées, c'est des clips et c'est de la musique.
00:53:12 Et donc, la majorité de ces vidéos-là sont des clips.
00:53:14 Donc, ça ne veut pas dire qu'il n'y a pas de contenu dégradant en mise en scène des femmes sur YouTube en dehors de la musique.
00:53:20 Mais il faut garder en tête que ça concerne la musique.
00:53:22 Mathilde, est-ce que tu t'es penchée sur YouTube, toi ?
00:53:26 Sur YouTube spécifiquement, non. Mais je cite, quand j'essaye d'expliquer certains effets pervers des algorithmes,
00:53:35 je cite les études de Guillaume Chalot sur les effets pervers de l'algorithme de YouTube spécifiquement.
00:53:44 Et ce qu'il montre, c'est ce qu'on a dit au début, c'est à quel point YouTube profite de la désinformation et de la haine.
00:53:51 Et il explique ce phénomène aussi qui est d'enfermement, qu'on observe particulièrement bien sur la communauté des platistes,
00:54:01 de ceux qui pensent que la terre est plate, mais qui en fait, permet de comprendre des phénomènes plus larges sur d'autres types d'idées.
00:54:08 Et qui est qu'en gros, les personnes qui pensent que la terre est plate font très peu confiance aux médias traditionnels.
00:54:14 Donc, elles sont très consommatrices de contenu proposé sur YouTube.
00:54:18 Les créateurs le voient, donc ils se mettent à créer des contenus qui correspondent à ce public.
00:54:23 Et résultat des courses, aujourd'hui, il y a dix fois plus de contenu sur YouTube qui affirme que la terre est plate
00:54:28 que de contenu qui affirme que la terre est ronde, qui est la vérité scientifique.
00:54:31 Et tout ça, c'est parce que ça sert à la fois aux créateurs, mais aussi parce que ça sert à YouTube,
00:54:37 puisque plus longtemps vous restez sur la plateforme, encore une fois, plus souvent, ils peuvent vous mettre de publicité sous le nez.
00:54:43 Et donc, plus d'argent ils en rangent.
00:54:45 Et donc, il y a toute cette logique de business qui en fait profite de certaines choses qui en fait participent à faire exploser le vivre ensemble,
00:54:54 qui sont la désinformation, la haine, parce que ça marche pareil sur les logiques masculinistes notamment.
00:54:59 Ça marche très bien, donc on en crée de plus en plus.
00:55:02 Ça profite à YouTube et aux créateurs, mais du coup, on continue de pousser des idées néfastes.
00:55:11 Je veux rajouter un truc sur cet aspect-là, c'est tout à fait intéressant.
00:55:16 Et en fait, la limite de ce schéma, c'est pas de se dire que les propriétaires de ces plateformes se disent
00:55:21 "Ouh là là, on est en train de diffuser une image qui est quand même très biaisée du monde".
00:55:24 C'est qu'en fait, les annonceurs, ils partent.
00:55:26 Et ça s'est passé au moment de 2016 ou 2017, ça s'appelait l'épisode de l'adpocalypse, donc ad comme publicité.
00:55:32 C'était un moment, je ne sais pas si vous vous souvenez, où il y avait beaucoup de vidéos de radicalisation notamment,
00:55:36 qui faisaient de la propagande pour l'Etat islamique.
00:55:40 Et beaucoup d'annonceurs se retrouvaient en publicité de ces vidéos-là.
00:55:43 Et ils se sont plaints en disant, notamment Disney, ce genre de public qui n'est pas du tout destiné à ce genre de propos.
00:55:51 Et donc les annonceurs ont tapé du poing sur la table en disant "On part de YouTube, on ne veut pas être associé à ce genre de contenu".
00:55:56 Et c'est là que YouTube a fait un changement dans son algorithme,
00:55:59 en essayant de valoriser certaines métriques plutôt que d'autres,
00:56:02 pour éviter cet effet de sensationnalisme qui amène et qui fait rester les gens sur des vidéos,
00:56:06 pour un peu rééquilibrer la balance.
00:56:08 Et est-ce que les vidéos produites par des femmes sur YouTube sont davantage démonétisées que les vidéos produites par des hommes ?
00:56:17 Alors, ça, il n'y a pas d'études de grande ampleur qui sont faites sur le sujet.
00:56:20 Ce qu'on peut remarquer...
00:56:22 Des témoignages, en tout cas.
00:56:23 Moi, j'ai déjà vu des témoignages de vidéastes femmes qui, je ne sais pas, avaient publié une vidéo dans laquelle elles parlaient de leur grossesse et qui avait été démonétisée.
00:56:34 Donc, elles ne touchent plus d'argent sur cette vidéo.
00:56:37 Oui, tout à fait. Et en fait, ce n'est même pas forcément que les femmes.
00:56:39 En gros, il y a eu une accumulation de témoignages d'hommes et de femmes qui témoignaient du fait que,
00:56:46 dès qu'elles publiaient des vidéos qui ont un trait à des thématiques qui sont considérées comme sensibles par YouTube,
00:56:50 donc ça peut être de parler du corps des femmes, de parler des règles, de parler de féminisme aussi,
00:56:55 YouTube considère que c'est un sujet polémique, à risque.
00:56:58 Et donc, du coup, suite au départ des annonceurs en 2016, veut se prémunir de toute controverse et démonétise.
00:57:05 Alors, YouTube a toujours annoncé que la démonétisation d'une vidéo, c'est-à-dire le fait de pouvoir générer de l'argent quand la vidéo est vue
00:57:13 et le fait que la vidéo soit recommandée sont deux affaires complètement décorrélées.
00:57:17 Les vidéastes n'ont pas forcément cet avis-là. Donc, ça, c'est aussi une controverse qui existe dans ce milieu-là.
00:57:23 Sur les algorithmes, Mathilde, qui les fabrique, ces algorithmes ?
00:57:28 Ouh là là, on part sur une très grande question.
00:57:31 Les algorithmes, pour faire très grossir, c'est des informaticiens qui les construisent, qui sont très forts en data science.
00:57:42 Mais du coup, j'imagine que la question derrière, c'est pourquoi ? C'est quoi leur problème ?
00:57:45 Exactement. Pourquoi ils creusent les inégalités ?
00:57:49 Ce qu'on constate, c'est qu'ils ont tendance à renforcer des biais sexistes, racistes et de toutes les inégalités qui existent dans le monde.
00:57:55 Aussi, d'ailleurs, important à souligner, aussi des discriminations d'âge ou de validistes.
00:58:02 Mais pas volontairement ?
00:58:05 Pas forcément volontairement, mais à mon sens, ça fait partie des arguments que j'ai envie de pousser pour embarquer des hommes dans les réflexions.
00:58:12 Ça peut vous toucher aussi, parce que quand vous serez vieux, potentiellement, vous serez...
00:58:16 Enfin, j'abuse un peu, mais tout le monde peut être touché par ces discriminations ancrées dans la machine.
00:58:22 Donc, il faut qu'on s'en préoccupe tous, qu'on s'en inquiète tous, qu'on se renseigne et pourquoi pas qu'on participe à faire tourner la balance.
00:58:31 Et donc, comment expliquer qu'il y ait des biais dans ces machines ?
00:58:35 Pour résumer assez grossièrement, on va dire qu'il y a trois entrées possibles.
00:58:39 La première, c'est dans les données qui servent à entraîner ces modèles.
00:58:42 Ces données, elles ressemblent à la société. La société elle-même est inégalitaire.
00:58:46 Donc, ce n'est pas complètement étonnant qu'il y ait des biais dedans.
00:58:50 Mais typiquement, on pourrait choisir, quand on rentre des données dans une machine, de les neutraliser,
00:58:55 de faire en sorte qu'il y ait une égale représentation de tout le monde, pour que la machine ne renforce pas les différentes discriminations.
00:59:02 Ce n'est pas forcément ce qu'on fait en général.
00:59:05 La deuxième entrée de biais, elle est dans la tête des constructeurs.
00:59:08 Ce sont des êtres humains. Ils ont des visions spécifiques du monde.
00:59:11 Et il se trouve aussi, on l'a dit très rapidement au début, que c'est une industrie très masculine, et très peu diverse.
00:59:18 C'est principalement des gens du monde occidental.
00:59:21 C'est principalement des hommes blancs.
00:59:24 Et c'est principalement des gens qui viennent de grandes écoles,
00:59:26 qui ont fait de très grandes et de très bonnes études en informatique et en ingénierie.
00:59:30 Mais du coup, c'est un petit microcosme social qui, comme il n'est pas plus divers, a plein d'ongles morts,
00:59:36 que potentiellement, il passe dans ses machines, parce qu'il n'a pas pensé que ça pouvait mal réagir sur une personne qui lui était différente.
00:59:43 Et le troisième accès, on en a plus parlé déjà avec YouTube, c'est le contexte, la raison pour laquelle un algorithme est construit.
00:59:51 Et donc, si on prend l'exemple d'un algorithme qui servirait à pousser de l'information,
00:59:56 si celui-ci était construit par des chercheurs ou des journalistes qui, a priori, n'auraient que pour but de donner la meilleure information possible au public,
01:00:05 alors l'algorithme ne pousserait que la meilleure information possible pour la personne qui est en face.
01:00:10 Mais si, en fait, le but derrière, c'est plutôt de vous garder connecté, parce que c'est ce qui permet de faire de l'argent,
01:00:15 ce qui est le cas de la plupart des réseaux sociaux, et bien on va plutôt vous pousser le type de médias qui vous fait rester.
01:00:21 Et donc là, on revient à ce que j'expliquais tout à l'heure sur le fait que, si c'est la violence ou les fausses informations qui vous font rester,
01:00:27 on va vous pousser ça encore et encore et encore, de l'espoir d'engranger plus de profits.
01:00:31 Et donc, à chaque étape, on peut trouver, après, réfléchir à des solutions pour...
01:00:36 C'est ça le problème, Emma, c'est que les algorithmes, en fait, ils favorisent les contenus qui suscitent le plus de réactions, de commentaires,
01:00:45 donc les contenus sensationnalistes/complotistes, sexistes, etc., violents, quoi.
01:00:51 Ça dépend des plateformes. Donc, YouTube, comme je le disais, ça a pas mal réduit cet aspect-là, avec d'autres travers.
01:00:58 Donc, longtemps, l'algorithme de YouTube, il se basait sur le watch time, donc c'est la quantité de la vidéo qui a été regardée.
01:01:04 Donc, YouTube considérait, à l'époque, que le fait qu'on ait regardé la vidéo en entier voulait dire qu'on l'avait appréciée.
01:01:10 Ce qui n'est pas complètement idiot, en fait, dans l'absolu, parce que comment mesurer le fait qu'une personne, sur un site,
01:01:15 passe un temps qui lui convient et que c'est positif ?
01:01:20 En fait, ils se sont rendu compte que ça favorisait les contenus sensationnalistes, et que, effectivement, les complotistes,
01:01:24 comme on était en mode "bon alors, d'où vient cette ovnie et qu'on regardait 49 minutes d'une vidéo ?",
01:01:28 bon, du coup, on restait longtemps sur la plateforme.
01:01:31 Donc, oui, et en fait, on peut aussi se rendre compte que, sur certaines plateformes, comme par exemple Twitter,
01:01:37 l'engagement se crée autour de la polémique, en fait, et du fait qu'il y ait des militants qui arrivent, qui discutent,
01:01:46 et en fait, les gens vont finir par passer du temps. On peut en parler aussi sur d'autres réseaux, sur d'autres médias.
01:01:51 C'est déjà arrivé que des polémiques qui arrivent sur Twitter soient diffusées sur d'autres médias.
01:01:55 Donc, il y a un enjeu, effectivement, d'engagement, qui est quand même la base, aujourd'hui, des plateformes,
01:02:02 et qui peut entraîner ce type de contenu.
01:02:05 Donc, voilà le chat. Engagez-vous, likez, commentez des contenus qui ne sont pas polémiques.
01:02:13 Et Mathilde, et Emma aussi, ces biais algorithmiques, ils peuvent aussi avoir des effets hors ligne, dans la vraie vie, entre guillemets.
01:02:24 Est-ce que vous avez des exemples ? Je sais que sur la reconnaissance faciale, il y a eu quand même de trois histoires.
01:02:32 En 2018, il y a deux chercheuses, une en particulier, Joy Bualamwini, qui est une chercheuse américaine,
01:02:38 qui sort une étude avec sa collègue Timnit Gebrou, qui est une pointure du domaine, une étude qui s'appelle "Gender Shades".
01:02:44 Et cette étude, elle montrait que dans les trois algorithmes de reconnaissance faciale les plus utilisés à l'époque sur le marché,
01:02:51 les machines reconnaissaient mieux les hommes que les femmes, mieux les blancs que toutes les autres teintes de peau,
01:02:57 mais donc vraiment beaucoup mieux que les personnes noires.
01:03:00 Et si vous croisez les deux, ça fait que ça reconnaissait 12 000 fois mieux les hommes blancs que les femmes noires,
01:03:08 pour lesquelles une fois sur deux, en gros, comme si on jetait une pièce de monnaie, la machine se plantait.
01:03:13 Ces algorithmes, après, ils servent à plein d'applications différentes.
01:03:17 Par exemple, ils peuvent servir à mettre de la reconnaissance faciale pour déverrouiller votre téléphone.
01:03:22 Dans ce cas-là, est-ce que c'est juste si vous payez le même prix faramineux que votre collègue masculin, si vous êtes une femme ?
01:03:29 Est-ce que c'est juste que votre technologie de déverrouillage ne fonctionne pas une fois sur deux, alors que pour lui, elle fonctionne quasiment chaque fois ?
01:03:36 Je vous pose la question.
01:03:37 Problème plus directement et socialement grave, ces algorithmes, ils servent aussi, quand ils sont appliqués sur les images récupérées par les caméras de vidéosurveillance utilisées par la police.
01:03:49 Aux États-Unis, c'est déjà en place. Ça allait aussi au Royaume-Uni, par exemple.
01:03:53 Parce que dans ces cas-là, si par exemple, la caméra prend une image de quelqu'un qui a volé quelque chose, et qu'ensuite, les policiers disent "compare cette image à notre fichier de délinquant et trouve qui l'a fait",
01:04:06 déjà, ça veut dire qu'ils considèrent que le délinquant est déjà dans leur fichier à débattre.
01:04:10 Et ensuite, la machine, elle ne sait pas dire "je ne sais pas".
01:04:13 Elle va chercher jusqu'à trouver, en fait.
01:04:16 Et comme, en plus, on vient de dire qu'elle reconnaissait moins bien les personnes noires que les personnes blanches, elle est vraiment capable de se tromper assez facilement.
01:04:23 Et il se trouve, alors après, il y a toute une autre chaîne de décision à interroger.
01:04:28 Est-ce que les policiers ont vraiment raison de prendre pour argent comptant les résultats d'un logiciel, etc. ?
01:04:33 Il y a tout ça à interroger.
01:04:35 Mais il se trouve qu'en se basant sur des résultats de logiciel, il y a déjà plusieurs hommes noirs qui se sont retrouvés en prison alors qu'ils n'avaient rien fait.
01:04:41 En garde à vue de quelques heures à quelques jours quand même, à cause de ce type d'erreur.
01:04:48 Robert Williams, entre autres, qui a passé 30 heures en garde à vue alors que ce n'était pas la bonne personne, la personne recherchée.
01:04:57 Emma, cette situation inégalitaire, si on revient vraiment à YouTube, est-ce qu'elle a des conséquences sur l'activité de vidéaste des femmes ?
01:05:07 Oui, tout à fait. Il y a des études qui ont été faites.
01:05:10 C'est assez compliqué d'analyser l'effet exact des algorithmes, surtout dans des plateformes où le contenu est surpersonnalisé.
01:05:17 Et donc, c'est très compliqué de savoir exactement ce qui est proposé à chaque individu et d'en faire la somme pour comprendre ce que fait l'algorithme.
01:05:23 Est-ce que tout le monde a sa propre bulle ?
01:05:25 Il y a une chercheuse qui a fait un peu ce travail sur les vloggeurs, les personnes qui filment leur vie de tous les jours, souvent des gens qui voyagent pas mal.
01:05:33 Et notamment sur les femmes. Et elle s'est rendue compte que les femmes qui avaient le plus de visibilité via l'algorithme, c'était des femmes qui produisaient un contenu qui était très aligné sur les normes de genre.
01:05:43 Et qui mettait en avant des produits, qui avait une visée capitalistique.
01:05:48 Donc, beauté, mode, etc.
01:05:51 Et ce qui n'est pas non plus complètement surprenant, puisqu'on peut imaginer que l'algorithme et les annonceurs ont tout à fait envie que les gens qui regardent des contenus aient envie de s'identifier à ces personnes-là.
01:06:01 Soit dans une idée de performance de leur féminité, et d'acheter des produits de ces annonceurs qui ont mis leur publicité en amont de ces vidéos.
01:06:09 Donc oui, ça change complètement le contenu. Et puis on peut se dire, si je parle des inégalités de genre depuis le Moyen-Âge et que ma vidéo est démonétisée, je ne vais pas parler de ça.
01:06:17 Donc il peut aussi y avoir la tentation pour réussir sur Youtube.
01:06:21 Et d'ailleurs c'est le cas dans le top 100 des vidéastes ayant le plus d'abonnés sur Youtube.
01:06:27 La plupart sont des femmes qui font de la beauté.
01:06:29 C'est une question fondamentale. Dans quelle mesure la plateforme, la technique sur cette plateforme-là, influence mon contenu ?
01:06:37 Et va me pousser à faire des contenus qui sont au final pas ce que j'ai envie de faire ?
01:06:40 Et il y a même des femmes vidéastes qui ont un peu tourné ce principe-là à la dérision.
01:06:46 Je pense à, comment elle s'appelle ? Mardi Noir, qui est donc une chaîne, je ne sais même pas si ça existe encore.
01:06:52 Mais en gros, elle se maquillait en mode tuto maquillage et pendant ce temps elle parlait de psychanalyse, etc.
01:06:59 Mathilde, si on arrive, il nous reste 5 minutes, si on parle un petit peu des solutions.
01:07:07 Toi tu dis, tout ça finalement ça ne veut pas dire qu'il faut supprimer les plateformes sociales.
01:07:12 - Pardon, c'est trop bien internet ? - Voilà.
01:07:14 Hier, ensuite de notre rencontre, on me disait que ma solution c'est de revenir à l'utopie d'internet.
01:07:21 - Même si tu dis que ça te fatigue les problèmes d'internet, les défauts d'internet.
01:07:24 - C'est hyper fatigant, les fights pour rien. Il faut vraiment qu'on se calme tous.
01:07:27 Et donc du coup, déjà, pour cette blague de "il faut qu'on se calme tous", je pense vraiment que les questions d'éducation,
01:07:34 aider à mieux comprendre comment ça marche et donc potentiellement éveiller aussi des sens de responsabilité
01:07:39 qu'on a dans l'information qui vient jusqu'à nous, les choses qu'on va pousser vers notre communauté,
01:07:45 en particulier si on a beaucoup de followers, etc. Tout ça, ça peut participer à faire évoluer l'état de la discussion.
01:07:51 Donc à la fois éducation et auto-formation, si jamais vous avez envie de passer aux prochaines heures de sérendipité
01:07:59 à comprendre un peu mieux comment fonctionne tel algorithme, pourquoi pas.
01:08:03 Je crois aussi qu'il faut qu'on revalorise beaucoup toutes les questions de lien et de soins de l'autre,
01:08:11 parce que là, on revient sur ces idées de "on a tous une responsabilité dans l'état du dialogue qui se déroule en ligne".
01:08:17 Donc si on porte un peu plus d'attention à notre prochain et qu'on considère un peu plus que si les victimes de cyber-hasselements,
01:08:22 enfin, ce qui se prend dans la figure, ça va avoir un effet très réel sur sa vie.
01:08:26 On sait que les victimes de cyber-hasselements, elles développent du trouble anxieux aux symptômes dépressifs
01:08:32 jusqu'à, dans les cas les plus graves, il y a des actes de suicide qui sont commis.
01:08:36 Si on garde plus l'humain en tête, peut-être qu'on arrivera un petit peu à calmer les choses aussi.
01:08:43 Et puis toujours dans cette logique de réseau finalement très propre à l'Internet,
01:08:47 je crois beaucoup dans le modèle de StopFichat, où elles sont partout en France,
01:08:51 et il y a plein de profils différents qui participent.
01:08:53 Je crois vraiment qu'il faut qu'on ouvre la discussion sur tous les sujets,
01:08:58 et je crois qu'il faut qu'on ouvre beaucoup plus, que ce ne soit pas que des informaticiens qui construisent dans leurs coins et que des hommes,
01:09:04 mais qu'on mette toute la diversité sociale, mais aussi toute la diversité des expertises,
01:09:08 et donc qu'on fasse discuter les experts en sciences dures avec ceux en sciences humaines,
01:09:14 mais aussi avec les utilisateurs finaux qui auront peut-être des bonnes idées sur le coup,
01:09:18 parce que sur le terrain, ils auront vu ci ou ça, qu'on ouvre la discussion avec les groupes d'activistes
01:09:23 qui ont aussi développé leur propre forme d'expertise.
01:09:26 Donc développer une forme de discours plus ouvert et de logique plus open source,
01:09:32 c'est vrai que c'est très esprit d'Internet.
01:09:35 Nous, on a une communauté très cool dans le talk sur Twitch, très bienveillance.
01:09:44 Encourager aussi les filles, les femmes à coder, à devenir informaticiennes, scientifiques.
01:09:52 Oui, tout à fait, il faut aussi que les personnes dans ces espaces-là soient plus accueillantes et moins violentes.
01:09:58 On sait qu'il y a des effets, tu en parles dans ton livre, de boys club,
01:10:03 de places qui ne sont pas faites pour les femmes et qui, du coup,
01:10:06 l'as de se battre face à quelque chose qui est plus grand qu'elles,
01:10:10 finissent par partir et aller dans des communautés finalement qui peuvent apparaître plus safe,
01:10:14 mais qui sont moins visibles.
01:10:15 Alors il y a aussi ça comme option, il y a aussi de dire "j'en ai marre de me battre et de me prendre du cyber harcèlement",
01:10:20 et une solution ça peut être de rentrer dans des communautés plus fermées.
01:10:23 Après, ça peut être aussi, notamment sur YouTube, un enjeu,
01:10:27 et sur n'importe quelle plateforme en fait,
01:10:30 toutes ces personnes-là qui produisent du contenu sont des personnes indépendantes.
01:10:33 Et en fait, c'est le risque, il faut plutôt, je pense, valoriser le fait d'être ensemble,
01:10:38 partager des bonnes pratiques, s'informer des personnes qui sont dangereuses ou pas, etc.
01:10:42 Et d'avoir une dimension de sororité, même qui parfois n'est pas du tout mise en place dans ces communautés-là,
01:10:48 où la compétition fait rage.
01:10:50 Et les GAFAM typiquement ont conscience de tout ça ?
01:10:55 Les choses avancent quand même, j'imagine qu'ils ne veulent pas que leurs outils engendrent de la violence ?
01:11:03 Oui ou non, peut-être que si.
01:11:06 Ça fait dix ans que ça existe et qu'il n'y a pas tant d'évolution que ça.
01:11:10 Je dirais qu'il y a des pratiques qui sont faites, il y a des coups de com qui sont faits.
01:11:16 Par exemple, YouTube, le 8 mars, tous les ans, on a un petit post en disant "Bravo les vidéastes femmes, on vous soutient, on a lancé un programme, elles font YouTube".
01:11:23 Et puis le reste de l'année, on ne sait pas ce que ça devient ce programme.
01:11:25 On en a très peu parlé.
01:11:27 Il y a des chartes qui sont signées, il y a des engagements qui sont faits.
01:11:31 Et en fait, il y a très peu de choses concrètes qui sont faites, alors que tout le monde connaît la violence qui existe sur ces plateformes.
01:11:39 Donc oui, on peut se poser la question des efforts qu'ils mettent en place sur ces plateformes.
01:11:46 Merci beaucoup.
01:11:48 Merci Mathilde Saliou, journaliste spécialisée dans le numérique, autrice du livre "Technoféminisme, comment le numérique aggrave les inégalités aux éditions grassées".
01:11:59 Merci Emma Gauthier, doctorante en sociologie numérique spécialisée dans les discriminations algorithmiques.
01:12:04 Tu fais une thèse sur YouTube, c'est toujours en cours.
01:12:08 Et merci aussi à Shanley Clément-McLaren, qui était là dans la première partie de l'émission, étudiante et cofondatrice de l'association Stop Ficha.
01:12:19 Est-ce que ça vous a plu ?
01:12:20 C'était super.
01:12:21 Merci beaucoup le chat.
01:12:23 En fait, merci tout simplement d'être venue sur ce stream pour écouter ce que nos invités avaient à nous raconter.
01:12:30 Déjà, cette curiosité qui vous a amené jusqu'à nous, c'est chouette.
01:12:33 Donc merci beaucoup.
01:12:34 J'en profite pour vous rappeler de Furax.
01:12:38 J'ai découvert ça tout à l'heure.
01:12:40 C'est un week-end de stream sur Twitch le 25 et le 26 février, pour venir en aide aux victimes de violences sexistes et sexuelles et de harcèlement en ligne.
01:12:50 25-26 février, on vous envoie le lien.
01:12:54 Ça s'appelle "On est" en minuscules, "Furax" en majuscules.
01:12:57 Je crois que c'est le titre de la chaîne.
01:12:59 J'ai vu ça tout à l'heure, Jean Massier, il a fait un petit tweet à ce sujet.
01:13:04 Voilà, donc je relaie.
01:13:06 Merci le chat d'avoir suivi cette émission.
01:13:08 Merci aux invités.
01:13:09 Merci beaucoup.
01:13:10 Merci aux personnes aussi qui nous écoutent en podcast.
01:13:13 Et puis aujourd'hui, on avait des stagiaires de 3e, qui sont là en régie et qui ont écouté attentivement l'émission.
01:13:19 Merci à l'équipe du Tolk.
01:13:21 On se retrouve demain pour parler des addictions à la drogue, notamment.
01:13:26 Voilà, affaires, entre guillemets, palmades, etc.
01:13:30 Merci beaucoup et à demain.
01:13:32 Rendez-vous 18h.
01:13:33 Bonne soirée.
01:13:34 Salut !
01:13:36 [Musique]
01:13:39 [Musique]
01:14:06 [Sous-titres réalisés para la communauté d'Amara.org]

Recommandations