Comment contrôler les images du conflit qui se propagent sur les réseaux ? Par Manon Mariani

  • l’année dernière
Depuis une semaine, des vidéos de l'horreur de la guerre se sont multipliées sur les plateformes. Des vidéos qui peuvent être traumatisantes pour les plus jeunes.

Retrouvez la chronique "Veille Sanitaire" de Manon Mariani sur https://www.radiofrance.fr/franceinter/podcasts/veille-sanitaire

Category

😹
Fun
Transcript
00:00 Dans quelques instants, le président d'Arte va rencontrer Benjamin Trahnier, un moment
00:07 à ne pas rater, aussi rare que la rencontre d'un tire-bouchon et d'une cuillère à caviar.
00:11 Mais d'abord, alors qu'on vient de passer trois quarts d'heure à expliquer que la
00:14 lumière bleue de nos écrans nous rend zinzins, que les réseaux sociaux c'est chronophage,
00:17 de quoi a décidé de nous parler Manon Mariani ? Des réseaux sociaux bien sûr, mais pour
00:21 lancer une alerte.
00:22 Alerte sur la dangerosité des images qui circulent sur les réseaux en ce moment.
00:25 Des corps morts, des enfants en pleurs, des femmes capturées, des festivaliers qui se font tuer.
00:30 Ce sont les vidéos que l'on voit passer sur nos écrans depuis une semaine après
00:33 l'attaque du Hamas contre Israël le 7 octobre dernier.
00:36 Des images choquantes qui défilent sous les yeux de millions de personnes dans le monde
00:40 sans qu'il y ait forcément des avertissements avant de les regarder.
00:43 L'horreur de la guerre qui envahit les plateformes.
00:46 Mais alors, comment réagir quand on se retrouve face à une telle violence, surtout quand
00:49 on est jeune, et même essayer d'éviter d'y être confronté ?
00:52 Et justement, vous avez quelques recommandations Manon ?
00:55 Oui, déjà il faut savoir que sur toutes les plateformes, on peut désactiver la lecture
00:58 automatique des vidéos.
01:00 Que ce soit sur iX, TikTok ou Facebook, ça permet de laisser le choix à l'utilisateur
01:05 de cliquer ou non sur le contenu.
01:07 Alors qu'en temps normal, la vidéo commence directement lorsqu'elle apparaît sur notre
01:11 écran, une image qui nous est imposée.
01:13 C'est aussi pour cette raison que TikTok a mis en place une alerte qui prévient que
01:17 la vidéo qui va être lue peut être choquante et qui demande l'autorisation de l'utilisateur
01:22 avant de la jouer.
01:23 Et puis, vous pouvez aussi bloquer des mots.
01:25 Dans ce cas-là, Hamas, Israël, guerre, attentat, etc.
01:28 Tous les contenus qui porteront ces hashtags ou ces mots dans leur description ne seront
01:33 plus dans votre fil d'actualité.
01:35 Et surtout, il faut rester très vigilant sur les réseaux moins populaires, moins grand
01:39 public comme la messagerie Telegram.
01:41 Car c'est là que se trouve le plus de contenu choquant, notamment parce que l'application
01:46 est devenue un repère pour le Hamas.
01:48 Ils ont été bannis de toutes les autres plateformes, leur soutien aussi.
01:51 Mais pas de Telegram.
01:53 Et selon le Washington Post, leur canal officiel compte plus de 170 000 personnes et diffuse
01:59 en masse des vidéos violentes de leurs attaques.
02:01 Il faut donc penser à informer les plus jeunes, très actifs sur ce réseau, que non seulement
02:06 c'est une source de propagande et que les images qui s'y diffusent peuvent être traumatisantes.
02:10 Mais pardon, il n'y a pas de modération sur les plateformes ?
02:12 Alors sur Telegram, il y en a très très peu.
02:14 C'est d'ailleurs pour ça que c'est un réseau très apprécié des organisations
02:17 terroristes et des extrémistes en tout genre.
02:20 Pour les autres, c'est autre chose.
02:21 Depuis une semaine, Meta, TikTok et Youtube ont renforcé leurs équipes de modérateurs
02:26 pour contrôler les contenus qui se propagent.
02:28 Ils travaillent aussi avec des organisations de fact-checking pour lutter contre la désinformation.
02:33 Et puis avec son algorithme, TikTok met en avant des contenus de comptes vérifiés et
02:37 journalistiques comme Loopsider, CNN, Brut.
02:40 Ce sont ce genre de comptes d'ailleurs qu'il faut privilégier quand on veut se renseigner
02:44 sur le conflit.
02:45 Le vrai problème vient de X, l'ancien Twitter.
02:47 On le sait, Elon Musk a viré quasiment tous les modérateurs de la plateforme et c'est
02:51 donc pour ça que la majorité des vidéos choquantes est diffusée là-bas aux yeux
02:55 de tous sans contrôle.
02:56 Selon le Washington Post toujours, la plupart des vidéos diffusées par le Hamas dans leur
03:01 canal Telegram seraient aujourd'hui sur X.
03:04 Et pour se justifier, la plateforme a publié un communiqué.
03:07 "Nous savons qu'il est parfois difficile de voir certains contenus, surtout dans des
03:10 moments comme celui-ci.
03:11 Dans ces situations, X croit que, même si c'est difficile, qu'il est dans l'intérêt
03:15 du public de comprendre ce qui se passe en temps réel".
03:17 Une justification qui ne passe pas auprès de Thierry Breton, le commissaire au numérique,
03:22 qui a menacé Musk de prendre des sanctions s'il ne modérait pas les contenus violents
03:26 et la désinformation de son réseau.
03:28 Je précise qu'il a aussi écrit à TikTok, à Youtube et à Meta et que ces réseaux ont
03:32 cours des amendes qui peuvent aller jusqu'à 6% de leur chiffre d'affaires, donc des millions
03:37 voire des milliards de dollars.
03:38 Ils font donc redoubler de vigilance face aux contenus qui se propagent sur les plateformes.
03:42 En Israël, des parents ont carrément décidé de supprimer les réseaux de leurs enfants
03:46 pour ne pas qu'ils soient confrontés à l'horreur qu'est malheureusement la réalité d'aujourd'hui.
03:50 Merci Manon.
03:51 Bruno Patineau, d'un mot très court, Thierry Breton a raison, il faut légiférer, il faut
03:55 obliger les propriétaires de X de vraiment…
03:59 La législation elle est là, c'est ce qu'on appelle le DSA au niveau européen.
04:03 Mais malgré tout, si vous voulez, c'est humainement impossible de modérer tous ces
04:10 propos technologiquement très difficiles et qu'en plus idéologiquement comme Elon
04:14 Musk vous ne voulez pas le faire.
04:15 Il y a beaucoup de…
04:16 Les indicateurs sont aux rouges.

Recommandée