https://www.arcom.fr/actualites/troisieme-journee-detudes-de-larcom-presentation-des-travaux-des-chercheurs-sur-les-medias-audiovisuels-et-numeriques
Category
🗞
NewsTranscription
00:00On voit que le choix des mots clés est important et d'ailleurs c'est un thème qui va intéresser
00:10l'exposé suivant et qu'on peut considérer comme étant un peu en miroir de ce qu'on
00:15vient d'entendre et à savoir qu'il y a certains mécanismes algorithmiques qui excluent
00:20certains groupes et donc c'est l'objet de l'étude qui a été menée par Virginie
00:25Julliard, Thibaut Grison et leurs collaborateurs et qui se sont focalisés notamment sur le
00:30cas des travailleurs et travailleuses du sexe et les contenus LGBT.
00:35Merci beaucoup, donc effectivement nous avons travaillé avec une équipe composée également
00:41de Félix Allié qui est dans la salle et de V.
00:45Écrement qui a participé également à ce travail.
00:49En entendant nos collègues de la précédente présentation on se disait avec Thibaut qu'on
00:53aurait presque souhaité recadrer la présentation que l'on vous propose aujourd'hui tant il
00:59y a de points de dialogue possibles avec ce qui a été présenté par nos collègues.
01:05Alors on va quand même essayer de parfois faire un geste vers cette présentation justement
01:11puisqu'il y a des éléments tout à fait congruents.
01:13Alors on avait envie avec Thibaut de revenir peut-être sur le contexte de la recherche
01:20ou comment une recherche sur la modération voit le jour.
01:24En 2018 je termine une recherche sur la façon dont des collectifs se mobilisent en ligne
01:32pour disqualifier des actions mises en place par le gouvernement en faveur de l'égalité
01:37des sexes ou de la lutte contre l'homophobie.
01:40Ce que les personnes que l'on a désignées ensuite comme étant composant le mouvement
01:44anti-genre ont appelé l'idéologie du gender.
01:48Et donc dans le cadre de ce travail qui ne portait pas d'abord sur la modération
01:53j'avais commencé à collecter des tweets via l'API stream donc en direct en live
02:00et puis étant stémiologue je m'intéressais aussi aux images donc je retournais régulièrement
02:04sur la plateforme je collectais aussi les images j'essayais de voir comment le discours
02:09se tenait en ligne et je m'apercevais au fur et à mesure que ce que je collectais
02:14en temps réel disparaissait pouvait parfois disparaître avec le temps quand je
02:19retournais sur le réseau social.
02:21D'où une question qui a commencé à émerger quand on travaille sur des discours
02:25très polémiques de haine et que l'on souhaite travailler sur un phénomène social
02:30de violence verbale et de violence iconographique est-ce qu'on travaille sur ce
02:34qui s'échange réellement ou ce qui reste en ligne et ce qui s'inscrit dans le temps.
02:39Ce n'est pas tout à fait pareil on ne répond pas exactement aux mêmes questions.
02:43Je termine cette recherche en 2018 en percevant l'intérêt et la nécessité de
02:47travailler sur la modération mais ce n'est pas moi qui vais mener cette recherche
02:52c'est Thibault Grison qui a réalisé une thèse sur ce sujet.
02:56Également cette occasion de travailler sur la modération a pu être portée par
03:02une initiative de Sorbonne Université le Sorbonne Centre for Artificial Intelligence
03:07qui a offert de nombreux contrats doctoraux à des personnes désireuses
03:11d'explorer l'intelligence artificielle et nous ce qui nous intéressait c'était
03:16possiblement les biais algorithmiques ou la façon dont les algorithmes de
03:20modération pouvaient reconduire un certain nombre de problèmes dans les
03:24environnements numériques où on pouvait observer des polémiques et des débats sociaux.
03:28Tout à fait donc ça c'est pour le contexte de recherche universitaire au
03:39moment où moi du coup je commence ma thèse sur l'enjeu que Virginie vient de
03:43présenter sur la modération des réseaux sociaux en fait en France donc là on
03:48est en 2019-2020 déjà il y a très peu d'études qui sont menées sur les
03:53contenus qui sont supprimés en ligne et en particulier on est dans un contexte
03:59politique où là est débattue la proposition de loi Avia qui vise à
04:04renforcer les obligations pour les plateformes pour modérer les contenus
04:09en ligne en particulier pour modérer les contenus dits et nœuds.
04:12Dans ce contexte là on pourrait se dire que cette proposition de loi est bien
04:16accueillie en fait pas vraiment dans certains milieux militants en
04:19particulier on craint un recours plus accru aux algorithmes qui modèrent
04:25selon un état de l'art anglo-saxon et des cas médiatisés aux États-Unis
04:30qui modèrent assez mal en fait les contenus en particulier dans ce contexte
04:34les contenus LGBT sont beaucoup assimilés à tort à des contenus
04:38pornographiques ou à des contenus dits toxiques en soi en particulier du fait
04:44ça c'est l'hypothèse que font des militants et certains chercheurs aux
04:47États-Unis en particulier du fait des mots clés qui seraient utilisés des
04:51mots clés comme lesbienne ou gay qui sont référencés beaucoup en ligne par
04:54l'industrie pornographique comme du coup des contenus sexuels c'est un peu
04:59dans ce contexte là qu'on démarre cette recherche en 2020 du coup dans le
05:04cadre de ma thèse et avec Virginie Julliard et nos co-auteurs dans la
05:08salle en partant aussi dans ce contexte donc toujours de cette proposition
05:14de loi Avia d'un délai de modération où en fait la proposition de loi Avia
05:20initiale et c'était quelque chose aussi qui était débattu initialement dans
05:23le DSA d'ailleurs de est-ce qu'on impose aux plateformes de modérer des
05:27contenus dans un temps réduit et pour les contenus haineux il était question
05:31du délai de 24 heures et les contenus faisant l'apologie du terrorisme était
05:36un délai d'une heure ces deux dispositions dans la proposition de loi
05:39Avia sont invalidées par le conseil constitutionnel et ne sont pas retenues
05:43dans le DSA mais c'est ce qui nous sert de base en fait pour notre enquête ici
05:49qu'on vous présente sur Twitter en parallèle d'ailleurs peut-être qu'on
05:54aura l'occasion d'en parler dans les échanges mais c'est une recherche que
05:57moi j'ai menée aussi sur TikTok au delà Twitter vous voyez que toutes les
06:00présentations qui sont ici présentées aujourd'hui sont sur Twitter du fait
06:04d'un accès aussi facilité pour les chercheurs à cette plateforme à ce
06:08moment-là la méthodologie qu'on a menée je vous l'ai dit enfin qu'on a
06:14mise en place je vous le dis rapidement tout l'enjeu était donc de
06:18collecter comme l'a dit Virginie des contenus supprimés alors même que dès
06:22lors qu'ils sont supprimés ils disparaissent de la plateforme ils
06:24disparaissent donc du scope des chercheurs alors même qu'ils font partie
06:28du scope de la recherche à ce moment-là l'ouverture de l'API Twitter X ne
06:33permettait pas même quand elle était ouverte aux chercheurs de collecter ces
06:36contenus supprimés là c'est le cas d'ailleurs aussi pour TikTok ces
06:40contenus ne sont pas collectables en soi ils disparaissent aussi de la collecte
06:45par API donc nous ce qu'on a mis en place à partir d'une collecte par mot
06:49clé qui renvoie à des identités sexuelles et de genres différentes une
06:53vingtaine de mots clés environ c'est une collecte en deux temps une collecte en
06:58temps réel des contenus qui sont postés et une collecte qui revient après un
07:04certain délai donc toutes les heures en l'occurrence qui revient vérifier si le
07:08contenu apparaît toujours en ligne ou pas une fois que le contenu n'apparaît
07:12plus en ligne on l'isole dans une base de données qui fait notre base de
07:16données de contenus supprimés avec tous les biais et les limites que ça
07:20comporte parce que est-ce que ces suppressions sont dues à la plateforme
07:23ou est-ce qu'elles sont dues à des suppressions individuelles etc on y
07:26reviendra à la fin nous avons réalisé cette enquête en particulier en 2022 ça
07:33nous a permis de travailler sur plusieurs dizaines de milliers de tweets
07:36un dernier élément qui est important à signaler ici c'est peut-être deux
07:40choses la première chose c'est que ces études sur les contenus elles sont très
07:45peu menées sur des contextes francophones et ça c'est très important
07:51parce que selon la langue on en a parlé à plusieurs reprises tout à l'heure
07:54il y a un enjeu culturel aussi dans le référencement de certains mots clés
07:57certains usages des plateformes et donc une nécessité en tout cas je pense
08:01à créer des corpus de données en langue francophone et sur des communautés
08:07aussi francophones un deuxième élément que je voulais mentionner c'est
08:11qu'évidemment là on a une entrée par mots clés pour travailler sur cet enjeu
08:16là ça ne veut pas dire qu'on n'a pas regardé les images en particulier
08:20donc du fait de l'approche de Virginie qui est très aussi qui porte une grande
08:25attention sur les images on a été dans un second temps émettre aussi des
08:29hypothèses sur la modération par image est-ce que c'est une modération
08:34par mots clés ou par images ça c'est pour la méthode les principaux
08:41résultats de notre recherche alors c'est d'une part sur cet enjeu de la modération
08:47algorithmique pour rappel je vous disais on est parti de cette hypothèse
08:51selon laquelle un recours de plus en plus accru à des algorithmes pouvait
08:57causer une censure potentiellement abusive en l'occurrence pour des
09:01communautés LGBT en ligne donc pour ça on a été regarder les temporalités
09:05on a essayé de regarder si les contenus qu'on étudiait et qu'on avait
09:09collectés étaient modérés dans des temporalités très réduites à partir
09:12de là on a essayé de faire des hypothèses sur ce recours aux algorithmes
09:17ce qu'on a pu vérifier avant même que les fameux rapports de transparence
09:21et que la transparency database dont on a parlé ce matin
09:25soit rendu public c'est qu'effectivement il y a un très moindre recours
09:30aux algorithmes sur Twitter X en fait on n'a pas été en mesure de voir
09:35un recours accru aux algorithmes ça c'est le premier résultat je dirais
09:39le deuxième résultat c'est sur le caractère franchement très aléatoire
09:43de la modération de Twitter ça c'est assez intéressant aussi souvent
09:46quand on est chercheur et qu'on arrive sur un corpus comme ça avec des méthodes
09:49numériques on cherche à identifier des règles de modération et des règles
09:52de fonctionnement en l'occurrence qu'on observe sur Twitter c'est pardonnez
09:57moi l'expression mais c'est complètement le bazar c'est que c'est très compliqué
10:01d'établir des règles et des constances en particulier parce que ça fait
10:04partie des résultats c'est-à-dire qu'en fait les contenus sont modérés
10:09de façon relativement aléatoire et complètement arbitraire pour autant
10:13ce qu'on a pu voir dans nos corpus c'est qu'effectivement il y avait
10:16une suppression très forte des contenus postés par les communautés LGBT
10:20sans même que ça rentre dans le scope des règles de modération de la plateforme
10:25et donc du coup effectivement une suppression de ces contenus à tort
10:31que nous avons estimés à tort alors même que ces dispositifs de modération
10:35sont censés protéger ces communautés-là c'est indiqué dans les règles
10:40de la plateforme.
10:41Et enfin un résultat que je trouve intéressant aussi parmi d'autres
10:46c'est l'usage détourné de ces fonctionnalités de modération qui
10:49renvoie d'ailleurs à la présentation précédente.
10:55Ce qu'on a pu observer en fait on a pu on a regardé dans le détail
10:58de ces contenus on a aussi été voir qu'est-ce qui avait été posté avant
11:03en quoi c'était une réponse à un autre tweet etc.
11:06On a pu observer la façon dont les contenus qui étaient supprimés
11:11étaient potentiellement supprimés en raison de signalements abusifs
11:15de pratiques notamment de doxing mais aussi de raid en fait de signalement
11:23d'internautes où en fait on cible des comptes militants LGBT ou des
11:27travailleurs du sexe et ce signalement massif pourrait provoquer une censure
11:33de ces comptes-là donc là on observe un détournement de la fonctionnalité
11:38de signalement pour censurer certaines communautés donc en fait comment
11:41la modération de contenu est utilisée comme une arme politique de
11:45silenciation massive.
11:54Ça pour découler sur ces principaux résultats de recherche quelque chose
12:00qui n'est pas dans la slide et à laquelle je pense là et qui fait écho
12:03à d'autres présentations avant donc je me permets de le rajouter c'est
12:07aussi l'enjeu de l'auto-modération.
12:09Je vous expliquais tout à l'heure que quand on collecte cette base de données
12:14supprimées l'enjeu est de savoir si est-ce que c'est la plateforme qui
12:16les supprime ou est-ce que c'est comme dans la présentation sur les
12:19community notes un enjeu de suppression individuelle.
12:22Nous ce qu'on a observé c'est que justement du fait du signalement
12:26abusif il y a un certain nombre effectivement de communautés LGBT
12:30en ligne qui s'auto-censurent pour ne pas être victime de vagues de haine
12:35supplémentaires et du fait de l'inefficacité de la modération
12:39de contenu en ligne en fait ils préfèrent gérer la modération aussi
12:43par eux-mêmes et du coup s'auto-silencier soit de façon plus
12:46ponctuelle en mettant son compte en privé ou en ajustant la visibilité
12:50de son compte soit en supprimant directement le contenu pour éviter
12:55des vagues de haine.
12:57Sur les perspectives de recherche je disais là on en a plusieurs.
13:01Je vais aller très vite pour laisser la parole à Virginie.
13:04La première que je trouve importante de vous dire aujourd'hui c'est
13:07que là on a travaillé sur une invisibilisation de contenu sur
13:10la suppression de contenu stricto sensu c'est à dire que les contenus
13:14qui disparaissent de la plateforme il me semble qu'il serait intéressant
13:18d'étudier aussi les contenus qui sont déréférencés puisqu'en fait
13:21on observe notamment en analysant la Transparency Database dont nos
13:25collègues nous ont parlé ce matin qu'en fait un certain nombre
13:28de contenus ne sont pas forcément supprimés mais qu'ils sont soit
13:30démonétisés soit ils disparaissent des files de recommandations et
13:33donc du coup il y a une forme de censure qui s'opère aussi par
13:36la recommandation de contenu et là cette recherche présente tout
13:40un ensemble de nouveaux verrous méthodologiques.
13:43Une autre perspective qui me semble intéressante aussi c'est que
13:46cette recherche elle a pu être menée en prêtant une attention à ce
13:50que les communautés minorisées expérimentent en ligne à savoir
13:55l'enjeu de certains mots clés l'enjeu d'une hypothèse d'une modération
14:01algorithmique d'une hypothèse par certaines images par une assimilation
14:05à des contenus pornographiques etc.
14:06Toutes ces hypothèses on les tire en fait des savoirs d'expérience
14:09des militants qui sont concernés par le phénomène de modération
14:13et qui sont concernés aussi parce qu'elles le vivent au quotidien
14:19bien sûr mais parce que comme je vous le disais elles font aussi leur
14:22propre modération.
14:23Donc du coup il y a une attention aussi à aller voir ce qui se passe
14:25dans ces micro communautés là et ce qui se passe dans ce qu'elles
14:28expérimentent comme forme de censure en ligne.
14:30Pour les deux points.
14:35Alors également peut-être une perspective de recherche concerne
14:38le travail avec les images.
14:40Dans le cadre de la thèse de Thibault sur le terrain X les images
14:45n'ont pas été considérées.
14:47En revanche elles ont pu l'être dans d'autres contextes et sur
14:50d'autres terrains.
14:51En particulier quand on a travaillé sur le débat relatif à la
14:56soi-disant diffusion de l'idéologie du genre dans les écoles ou quand
15:00on a travaillé aussi sur le grand remplacement avec Edouard Boutet.
15:04Ce qu'on peut observer c'est que la temporalité de la collecte est
15:09importante à expliciter pour des enjeux méthodologiques.
15:13Alors je prends dix secondes c'est un tout petit peu technique mais
15:16quand on collecte via l'API quand on collectait en stream via l'API
15:21stream de X en fait on récupère les métadonnées et le texte et une
15:26information qui nous indique qu'il y a image ou non.
15:29Il est très coûteux en termes de bande passante de collecter des
15:32images directement.
15:33Il faut séquencer séquentialiser distancier les requêtes ultérieures
15:37pour récolter des images de sorte que parfois quand on demande l'image
15:41elle a été modérée entre temps.
15:42Donc on a une information qui nous dit une image était associée mais
15:45elle a été supprimée ou bien on peut récupérer l'image et elle est
15:48supprimée un petit peu plus tard.
15:50Donc il y a aussi un enjeu de quand est-ce qu'on collecte quoi et
15:54quelle est la temporalité.
15:55Ce qu'on a pu observer aussi c'est que les images et le texte alors ça
15:58paraît aller de soi ne sont pas modérés de la même façon et ce qui
16:02donne parfois des éléments un petit peu étranges.
16:05Par exemple des images à caractère pornographique pour disqualifier
16:08Najat Vallaud-Belkacem dans un registre très racialisant aussi au
16:13moment des abaissés de l'égalité et bien en fait toutes les images
16:18sexuelles vont être modérées.
16:19Mais par contre les appels au meurtre ratio ne le sont pas.
16:23Donc on a des textes qui sont modérés mais pas des images.
16:26Il y a des images qui flottent comme ça sans le contexte textuel
16:29mais on voit bien qu'il y a là une évocation d'un meurtre d'un appel
16:33au meurtre de la ministre.
16:34Ça donne aussi parfois des éléments un petit peu étranges où des
16:38choses sont modérées et des choses ne le sont pas ce qui dans un sens
16:41va corroborer ce qu'a pu observer Thibault sur le caractère aléatoire
16:46de la modération et encore plus aléatoire dès lors qu'on considère
16:49différents registres sémiotiques.
16:51Peut-être tu veux dire deux mots sur le shadow ban.
16:56D'accord il y a plein de choses à dire sur TikTok et le shadow ban
16:59mais ce sera pour une autre fois.
17:08Merci pour ces exposés qui ont révélé toute la complexité du sujet
17:13de la modération.
17:15Moi ça me fait beaucoup penser au terme qui a été utilisé ce matin
17:18de Moving Target par Mariana et je pense qu'on est vraiment dans
17:24exactement dans ce concept-là.
17:26On va donner maintenant la place aux questions.
17:28Est-ce que déjà il y a quelques questions dans la salle ?
17:31Oui.
17:34Merci beaucoup.
17:36Bonjour à toutes et à tous.
17:37Moi je suis Céline Calais, je suis députée des Hauts-de-Seine
17:39et je suis membre de la commission des affaires culturelles de
17:41l'Assemblée où nous avons pu avoir et étudier d'ailleurs plusieurs
17:45textes.
17:46J'avais une première question pour Marion Seigneurin.
17:49Dans votre corpus de 72 textes, vous parlez des textes de régulation
17:53européenne mais je ne sais pas si vous avez pu regarder ce qu'il en
17:56était dans les textes au niveau national du Parlement.
17:59Ça m'intéresserait de savoir si on utilise plus le mot
18:01désinformation ou mésinformation ou d'autres choses.
18:04Ça c'est le premier point.
18:05Et puis on a parlé beaucoup dans l'ensemble de la suppression
18:09de contenu, de l'ajout de notes pour pouvoir aider à modérer.
18:13Moi je voulais avoir votre avis aussi sur, devant le flot
18:17d'informations, on peut supprimer et on doit supprimer des contenus
18:20qui sont illégaux, offensants.
18:22Mais comment vous réfléchissez vos recherches avec le paradigme
18:26plutôt de mettre en avant ce qui serait plus souhaitable d'être
18:30vu ?
18:31C'est-à-dire qu'on peut avoir vraiment l'intention de faire un
18:35peu le ménage et de supprimer mais devant le lot et le flot
18:39d'informations, tout en considérant quand même qu'il y a eu
18:42beaucoup d'améliorations ces derniers temps.
18:45Comment vous intégrer dans vos recherches ce paradigme de se dire
18:51finalement on pourrait aussi aider à davantage mettre en avant des
18:55contenus plus souhaitables ?
19:02Merci beaucoup pour votre question.
19:04Concernant les textes, pour le côté régulation, on s'est concentré
19:08sur les textes européens parce qu'on avait ce cadre
19:11du DSA qui est le cadre de ma thèse et qu'on n'a pas regardé aussi
19:17pour des questions de langue chaque pays individuellement.
19:21Mais ça serait effectivement hyper intéressant de le faire pour voir
19:24aussi au niveau national comment est-ce que ces choses-là sont
19:26implémentées.
19:27Et en plus ça soulève des enjeux de traduction parce que là j'ai
19:30donné les mots en français mais beaucoup de papiers de recherche
19:32sont en anglais.
19:33Et donc quand on traduit pareil on a encore une perte de sens,
19:36en tout cas des différences.
19:38Et pour amener des éléments de réponse à votre deuxième question
19:42c'est vrai que par exemple ma thèse vient étudier l'efficacité
19:46des contre-mesures et on a vraiment cette question de quel est
19:49l'objectif ?
19:50Qu'est-ce qu'on cherche ?
19:51C'est quoi une contre-mesure qui réussit et un citoyen bien
19:54informé ?
19:55Est-ce que c'est quelqu'un qui connaît par exemple tous les
19:58programmes politiques ou est-ce que ça va être un citoyen qui peut
20:01discuter en ligne ?
20:02Il me semble que c'était abordé dans une des présentations ce matin
20:06justement de dire on a différents usages.
20:09Il y a un premier usage qui va être le fait d'avoir accès à une
20:12information et un second usage qui va être le fait de pouvoir échanger
20:15en ligne et se former une opinion.
20:17Donc je dirais que c'est des éléments de réponse qui sont déjà assez
20:19intéressants justement mais je ne sais plus quelle présentation
20:21apporter ces éléments-là.
20:26Si je peux juste ajouter un mot, c'est vrai que pour Community Notes
20:30par exemple, l'équipe Community Notes est vraiment axée sur comment
20:34est-ce qu'on rend nos notes plus rapides ?
20:36Donc là ils ont sorti un Lightning Notes récemment, des choses comme
20:39ça.
20:40En fait l'autre stratégie ce serait juste de rendre l'algorithme plus
20:43lent et ça marcherait beaucoup mieux.
20:45Sauf qu'en fait on est ici, dans mon étude, à algorithme constant
20:49mais c'est vrai que le pouvoir il est beaucoup du côté algorithmique.
20:53On pourrait changer des choses assez rapidement et vraiment la vitesse
20:57de diffusion.
20:58Nous quand on voit qu'il y a 50% des retweets qui sont en six heures,
21:00oui on pourra combattre un petit peu mais on jouera toujours sur cette
21:04queue de distribution.
21:04Et même si c'était parfait et plus rapide, il y aurait toujours entre
21:0725-30-40% de la fausse information qui sera passée.
21:12Donc la vitesse de diffusion de l'information qui est un choix
21:15algorithmique est vraiment hyper importante mais difficile de convaincre
21:18les plateformes qu'il faut changer leur algorithme parce que s'ils l'ont
21:21mis comme ça c'est pour des bonnes raisons, des bonnes raisons
21:23financières pour eux.
21:28J'ai un micro.
21:30Ça marche ?
21:31Ça fonctionne ?
21:35Oui plutôt sur la deuxième question peut-être pour ma part vous me donnez
21:39l'occasion finalement de parler du Shadowban dont on n'a pas pu parler
21:42avant.
21:43Il y a pour moi deux réponses qu'on pourrait faire à votre question sur
21:46la suppression.
21:47Déjà d'une part c'est vrai qu'en fait il y a un biais je pense assez fort
21:51dans la façon dont les recherches sur la modération de contenu sont
21:56menées.
21:56C'est qu'effectivement ils portent une grande attention aux contenus
21:59qui sont supprimés stricto sensu et pas les autres contenus qui sont
22:02invisibilisés.
22:03Et donc par exemple certains internautes parlent de Shadowban de
22:06forme de déréférencement c'est-à-dire qu'il y a des contenus qui disparaissent
22:10des files de recommandations mais qui ne disparaissent pas du profil
22:14des internautes c'est-à-dire que les internautes ne savent même pas
22:16en fait que leur contenu est invisibilisé.
22:18Et du coup pour revenir à votre question il y a d'autres contenus qui
22:22sont plus recommandés et qui sont favorisés par ces algorithmes de
22:26recommandations.
22:27Du coup ça pose pour moi un deuxième enjeu c'est comment on travaille
22:30sur la recommandation de contenu en dehors de la simple recommandation
22:35personnalisée.
22:36Et là il y a plein de questions enfin plein de verrous méthodologiques
22:41je n'aurai pas le temps de tous vous les donner mais en fait je trouve
22:45que votre question est très intéressante parce que ça pose aussi
22:48la question de à quel point on laisse ces plateformes-là avoir leur
22:52propre ligne éditoriale aussi sur ce qu'elles choisissent de mettre
22:56en avant alors même qu'on ne les considère pas vraiment comme des
22:58médias d'information en soi.
23:00Et du coup ça pose un enjeu là et si on voulait réguler aussi sur quels
23:04contenus on met en avant ça suppose encore une fois une forme de délégation
23:07aussi de ce pouvoir d'information selon moi.
23:10C'est une forme de réponse parmi d'autres pour y en avoir plein mais
23:14effectivement en tout cas moi mon envie c'est pour l'avenir de moins
23:18travailler sur la suppression stricto sensu que sur la recommandation
23:22comme une forme de modération en soi et du coup comme une visibilisation
23:25de certains contenus et comme du coup une invisibilisation d'autres.
23:29Et en l'occurrence c'est assez intéressant sur les contenus LGBT qui
23:33circulent en ligne il y a sur TikTok en fait on constate que c'est d'abord
23:38des contenus haineux contre les personnes LGBT qui sont parfois plus
23:42visibles que des contenus d'information par des communautés LGBT et qui
23:46parlent de communautés LGBT.
23:47Donc la recommandation fait partie de cette invisibilisation.
23:53Je crois qu'on a le temps pour une ou deux questions sûrement pas plus.
23:57Vous étiez la première.
24:00Merci.
24:01Bonjour je m'appelle Isabelle Chepanski je suis journaliste pour un média
24:05qui s'appelle Électrons libres et je suis beaucoup les thématiques de
24:08plateformes.
24:09J'avais une question pour vous madame ou mademoiselle le seigneur Rien.
24:14A votre avis c'est une question que j'ai déjà posée à la Commission
24:17européenne.
24:19Quand la Commission européenne a adopté le DSA une de ses priorités
24:23c'était de lutter contre les contenus illégaux mais assez vite elle a parlé
24:26de désinformation.
24:28Pourquoi n'y a-t-il pas.
24:29Dans le texte du DSA une définition de la désinformation.
24:34La désinformation n'est même pas mentionnée dans le texte lui-même.
24:37Elle est mentionnée dans les considérants du texte.
24:40Merci.
24:43Oui effectivement c'est le premier constat c'est que le DSA ne mentionne
24:46pas la désinformation.
24:48En tout cas il me semble qu'il ne la définit pas mais il la mentionne
24:51il dit juste souhaiter lutter contre la désinformation.
24:55Et je crois qu'il y a une note qui dit qu'il reprenne la définition du
24:58code de pratique.
24:59Je suis plus sûre de ça et la définition du code de pratique c'est
25:02donc que désinformation avec un D majuscule vient regrouper la
25:07désinformation avec un D minuscule qui est donc la diffusion volontaire
25:11mais aussi la mésinformation la propagande etc.
25:14A peu près tous ces contenus là sauf la publicité mensongère il me
25:18semble.
25:19Et alors du coup cette question de pourquoi ne pas le définir c'est
25:21une vraie question parce que quand on voit tous les risques et les
25:23impacts négatifs que ça peut avoir ça semble être vraiment un besoin.
25:27Peut-être une absence de consensus de la part des acteurs qui ont pris
25:30part.
25:31C'est possible parce qu'il y a quand même pas mal d'enjeux politiques
25:34et que c'est des termes qui vont être souvent repris.
25:37On voit par exemple que les accusations en désinformation ou en
25:39censure sont souvent mobilisées notamment par l'extrême droite pour
25:43attaquer d'autres contenus ou alors carrément des chercheurs qui
25:45travaillent sur ces sujets.
25:46Ce n'est pas encore trop le cas en Europe mais on sait que nos
25:49collègues outre-Atlantique sont vraiment menacés par les
25:52Républiques par exemple.
25:56Merci.
25:57Alors vous me connaissez du coup.
26:05J'ai une question pour Thomas Renaud mais qui est en lien avec ma
26:08deuxième casquette puisque tout à l'heure a été évoqué le fait que
26:11je suis rédactrice en chef d'une plateforme qui s'appelle
26:13factoscope.fr qui regroupe les contenus de fact-checking de 25 médias
26:17francophones essentiellement des médias africains.
26:19Et du coup ma question c'est est-ce que ces community notes elles
26:23marchent aussi bien dans tous les contextes parce que par exemple
26:28en tout cas ce que je vois des confrères de nos pays partenaires
26:32c'est qu'il y a énormément de choses qui sont parfois complètement
26:35on se dit ça ne sert à rien en fait de les fact-checker on se doute
26:38bien que ce n'est pas vrai mais en fait le truc a tellement d'impact
26:41et en fait les gens y croient.
26:42Et moi j'ai même eu des confrères qui sont venus en vérifiant un
26:46papier en me disant mais c'est vrai oui l'urine de chameau est
26:48identique en séries gènes et les confrères avaient conclu oui.
26:52Donc voilà enfin bref je voulais savoir si ces community notes
26:56marchaient partout pareil avec la même efficacité.
27:00Alors dans l'étude là on s'est focalisé sur les tweets en anglais
27:06principalement parce que dans la détection des topiques de manière
27:10supervisée ou non supervisée ça nous permettait d'éviter des
27:14problèmes liés à l'approche multilingue et en plus comme community
27:17notes ça a été lancé à des moments différents avec des communautés
27:21de tailles différentes.
27:24Donc nous dans l'étude on n'a que ça.
27:27On peut le faire relativement facilement sur d'autres langues.
27:30Pour l'instant je n'ai pas de résultats donc je ne peux pas vous
27:34vous répondre là dessus et ce qu'on voit en tout cas sur les différents
27:39sujets c'est qu'il n'y a pas tant d'hétérogénéité que ça dans les
27:45sujets.
27:46Il y a des tweets qui viennent de politiciens vérifiés il y a des
27:49tweets qui vont être une pub avec un contexte et globalement la réduction
27:53est assez globale.
27:54Forcément les utilisateurs répondent aux tweets en tant que tels mais
27:59en fait il y a sûrement un effet.
28:00Je ne veux pas dans tous les cas retweeter un tweet avec une community
28:05note parce que moi je veille à la crédibilité des informations.
28:08Il y a sûrement un effet visibilité qui fait que presque je ne dis pas
28:12peu importe la note parce qu'il y a forcément de l'hétérogénéité
28:14qu'on ne connaît pas très bien mais ça semble assez bien réparti que
28:18ce soit sur les types de sujets.
28:19Alors bien sûr on voit par exemple sur les comptes vérifiés ça va
28:23réduire de 45 sur les comptes non vérifiés de 55.
28:26Donc oui mais globalement ça marche relativement bien sur beaucoup
28:30de types de contenus et beaucoup de types de personnes.
28:32Sur les contextes culturels ça vaut le coup de faire une étude.
28:37On a demandé des données dans le cadre du DSA pour l'Europe.
28:40On attend depuis longtemps.
28:41J'ai eu des discussions c'est commun mais a priori on est à la deuxième
28:44étape donc peut être qu'un jour on aura on évitera de payer 10000 euros
28:47à chaque fois qu'on veut étendre sur un nouveau pays.
28:50Je suis désolé il faut qu'on arrête.
28:52J'ai des consignes donc nous allons remercier tous les intervenants
28:57et puis évidemment le public pour les questions.