• avant-hier
https://www.arcom.fr/actualites/troisieme-journee-detudes-de-larcom-presentation-des-travaux-des-chercheurs-sur-les-medias-audiovisuels-et-numeriques

Category

🗞
News
Transcription
00:00Bien donc bonjour, je me réjouis d'animer le prochain panel qui va être consacré à la
00:08question de la modération des contenus en ligne en abordant des questionnements autour de la
00:13responsabilité des plateformes mais aussi du rôle que peuvent jouer les participants dans
00:18les mécanismes de modération. Donc je suis Nicolas Vaillatis, professeur à l'école normale supérieure
00:26Paris-Saclay au département de mathématiques et j'ai cofondé, je dirige un centre de recherche qui
00:31s'appelle le centre Borelli et qui est un centre interdisciplinaire dans lequel on trouve des
00:37mathématiciens, des informaticiens, des neuroscientistes, des psychologues et puis
00:41d'autres experts en sciences sociales. Donc nous avons le plaisir d'avoir avec nous
00:51des chercheurs qui représentent plusieurs sensibilités de recherche et plusieurs
00:56champs disciplinaires également, puisqu'on trouve à la fois des sciences de la gestion, des sciences
01:02juridiques, les sciences du langage et la sociologie et également les sciences de l'information et de
01:08la communication. Donc nous aurons un tour d'horizon, je sais pas s'il est à 360 degrés
01:12mais en tout cas il couvre une partie des angles qu'on peut avoir sur la question et donc nous
01:20allons sans plus attendre commencer déjà en nous posant la question, si on veut faire de la
01:26modération, qu'est-ce qu'on doit modérer ? Quel est l'objet finalement des algorithmes de
01:32modération ? Et donc nous allons avoir un éclairage par Marion Seigneurin qui est donc doctorante à
01:41l'Institut MinTelecom Business School sous la direction de Christine Balaguet qui est professeur
01:46dans cette école et qui va nous présenter l'effort conceptuel pour éclaircir les définitions de la
01:56désinformation et de la mésinformation. Donc Marion, à vous. Merci beaucoup pour cette introduction et
02:09puis merci à l'ARCOM du coup de nous donner l'opportunité de présenter ses travaux. Alors
02:14c'est bien ça là, on peut cliquer sur n'importe quel bouton. C'est un travail effectivement qui a
02:22été réalisé avec Christine Balaguet donc qui est présente aujourd'hui. Donc on s'est intéressé aux
02:27enjeux de définition de la mésinformation et de la désinformation et surtout aux risques et aux limites
02:32que ça vient poser dans la lutte contre ces phénomènes. Alors donc déjà pourquoi ce sujet ?
02:38Donc c'est parce que c'est un enjeu démocratique, on s'en est rendu compte particulièrement dans les
02:42dernières semaines. Donc la démocratie, il y a ce principe que ça repose sur des citoyens informés
02:47donc pour ça on a besoin d'une information qui soit fiable et de qualité. Aujourd'hui on observe
02:52une transformation des modalités d'information donc on va passer des médias mainstream qui
02:56étaient la source principale d'information aux réseaux sociaux donc qui aujourd'hui sont vraiment
03:00centraux dans l'information des citoyens et ce glissement il va favoriser les désordres de
03:04l'information donc avec des impacts délétères sur les processus électoraux. On l'a vu avec
03:08l'élection, la nouvelle élection donc de Donald Trump et donc le rôle de l'IA cette fois-ci dans
03:13les contenus qu'on a pu trouver donc qui étaient soit des faux contenus ou en tout cas des contenus
03:17problématiques. Sur la paix internationale également donc avec une guerre de l'information, on va la
03:22qualifier comme ça donc que ça soit sur le conflit entre l'Ukraine et la Russie ou entre Israël et
03:27le Hamas. Également sur la santé publique avec beaucoup d'études autour du Covid-19 notamment
03:32et des secteurs en fait où il y a eu particulièrement beaucoup d'enjeux de désinformation et donc des
03:36taux de vaccination qui ont été moindres et également donc dans la lutte contre le changement
03:41climatique pour citer seulement certains effets avec notamment des contenus climato-sceptiques
03:46qui sont de plus en plus présents sur certaines plateformes comme X notamment. Et donc ce glissement
03:52il donne lieu à une multiplication des initiatives autour des désordres de l'information donc on
03:57reste vraiment pas sans réponse. On a une montée assez phénoménale des publications depuis
04:022016 donc la première élection de Donald Trump avec tout ce qui était Cambridge Analytica,
04:06également le Brexit qui ont donné lieu donc à plusieurs publications et par la suite ça a fait
04:10augmenter. On a aussi des initiatives de régulation avec le DSA donc au niveau européen qui rentrerait
04:15en vigueur fin 2023. Mais malgré tout on n'a aucun consensus aujourd'hui sur la manière de nommer ce
04:21phénomène. On va utiliser parfois le terme mésinformation, parfois ce sera plutôt désinformation.
04:25On parle aussi de fake news bien que ce soit un terme plutôt galvaudé depuis justement que
04:30Donald Trump s'en est ressaisi. On peut aussi parler de rumeurs, de propagande, enfin en tout cas
04:35beaucoup de termes différents et des définitions d'ailleurs ces termes qui varient également. Donc on
04:40s'est demandé en quoi cette absence de consensus finalement impacte l'efficacité des stratégies de
04:45lutte contre les troubles de l'information. Donc pour ça on a adopté une approche par acteurs de
04:51l'écosystème de la lutte contre la mésinformation et la désinformation donc avec une sélection de
04:5572 textes donc dans quatre groupes d'acteurs dans lesquels on est allé regarder justement
05:01comment sont définies la mésinformation et la désinformation. D'abord le régulateur européen
05:06donc on a regardé le DSA, le code de bonne pratique sur la désinformation et également un rapport de
05:11l'ERGA vraiment dédié à ces questions de définition. Pour les plateformes de réseaux sociaux donc on
05:16s'est concentré sur Facebook, Instagram, YouTube, TikTok et X et on a regardé pareil leur rapport
05:21de transparence lorsqu'ils étaient disponibles pour le code de bonne pratique notamment et
05:26leurs règles internes souvent citées par ces mêmes rapports. On a également inclus les fact-checker
05:32donc dans notre veille avec les codes de standard des principaux réseaux professionnels donc le
05:37FCSN au niveau européen et l'IFCN au niveau mondial et pour la recherche académique donc on a
05:43sélectionné environ 60 textes donc soit des publications soit des rapports de recherche
05:47qui vont aborder ces définitions. Donc qu'est-ce qu'on a observé ? Déjà une grande variabilité
05:54des définitions de la mésinformation et de la désinformation. Cette variabilité on l'explique
05:59par l'hétérogénéité des critères de définition et les modalités d'évaluation justement de ces
06:04critères. Donc sur la base de ces premiers constats et de la littérature on a proposé un panorama des
06:09risques et des limites qui sont particulièrement liés aux critères qu'on a identifié donc j'y
06:13reviendrai et sur cette base donc on vous propose quelques recommandations. Alors d'abord concernant
06:19la variabilité des définitions donc on a établi 20 définitions au total de la
06:23mésinformation et de la désinformation donc 10 pour chacun des termes qui sont synthétisés dans
06:28deux tableaux. Donc ce qu'on a fait c'est qu'on a regroupé en fait dans chacun des textes par
06:33thématique les définitions qui apparaissaient. Donc pour distinguer ces définitions on s'est basé
06:38sur les critères qui sont présentés ici en troisième colonne donc c'est vraiment la variabilité en
06:43fait de ces critères qui expliquent qu'on se retrouve avec autant de définitions différentes,
06:46ils ne sont pas du tout mobilisés de la même façon. Donc ces critères, lesquels sont-ils, donc déjà
06:52ils sont basés, on a 28 éléments différents de définition dans les différents textes qu'on a pu
06:57balayer qui viennent définir la mésinformation et la désinformation. Alors on a une plus grande
07:01variété d'éléments pour la mésinformation parce que c'est un terme qui va être plus utilisé de
07:06façon générale pour définir les désordres de l'information donc on a plus d'éléments différents.
07:11Donc on les a typologisés en quatre catégories. La qualité du contenu, donc ça va être le fait que
07:16ça soit vrai, que ce soit faux, que ça a été vérifié. L'intention, donc ici c'est est-ce qu'on
07:21est sur quelque chose de volontaire, d'involontaire, est-ce qu'il y a une motivation sous-jacente. Le
07:26risque sous-jacent, donc là cette fois-ci c'est vraiment quel est le risque posé, est-ce que par
07:31exemple c'est relatif à des enjeux électoraux ou des enjeux de santé. Et des créations et techniques
07:39de diffusion, là on est plutôt sur par exemple une altération digitale des contenus. Et on s'est
07:47également intéressé sur la mobilisation en fait de ces différents critères en fonction des acteurs.
07:52Donc là en fait on retrouve les tableaux que je vous ai présentés précédemment avec
07:57les vingt définitions, donc chaque cercle c'est une définition. Et l'hépastie vient de montrer la
08:02mobilisation des différents critères. Donc ça nous permet de dégager vraiment des tendances. Donc la
08:07première tendance c'est que la qualité du contenu elle est vraiment omniprésente. On n'a aucune
08:11définition qui ne mobilise pas du tout la qualité du contenu. Vraiment tous les acteurs s'appuient
08:15dessus, avec bien sûr à chaque fois des éléments de définition de cette qualité qui varie beaucoup.
08:20Mais ça on y reviendra. Le risque sous-jacent est également pris en compte par tous les acteurs.
08:25Alors pas dans toutes les définitions, mais malgré tout ça en fait quand même un critère phare de la
08:29mésinformation et de la désinformation. Par contre pour ce qui est de l'intention et des techniques
08:33de création et de diffusion, c'est plutôt des critères qui sont mobilisés pour la désinformation,
08:38puisqu'on va être souvent sur une définition en tout cas de diffusion volontaire. Donc comme c'est
08:44volontaire déjà l'intention forcément est mobilisée pour définir. Et puis on peut avoir en plus la
08:48mobilisation de certaines stratégies de diffusion ou de création de contenu. Et par contre on a
08:52certains acteurs, là typiquement les fact-checkers, qui peut-être pour des raisons plutôt légales,
08:57donc pour éviter d'être attaqués en justice, ne vont pas du tout s'appuyer sur ces questions
09:01d'intention. Donc le panorama des risques et des limites qu'on a pu établir, qui regroupe 17
09:08risques, qu'on a typologisé en cinq thématiques. La liberté d'expression, la recherche, la
09:13conception de contre-mesures, l'efficacité de ces contre-mesures et puis l'évaluation de leur
09:17impact. C'est des risques qui sont liés soit à un ou plusieurs critères, soit au fait qu'il y ait
09:24vraiment une diversité de définitions. Donc à chaque fois on a rappelé les critères dans la
09:29colonne de gauche qui étaient en cause dans ce risque-là. Donc par exemple pour la liberté
09:34d'expression, finalement si on a une définition qui est trop vague de la mésinformation et de la
09:38désinformation, donc si on définit ça comme des contenus faux et pouvant porter atteinte à la
09:43stabilité politique, mais qu'on est dans un cadre totalitaire, on va avoir une interprétation,
09:48évolutionnellement, des formes de censure, si on est sur une définition justement sans cadre vraiment
09:54très spécifique, sans manière d'évaluer ces deux éléments-là. Pareil pour la recherche, si on
10:00se base uniquement sur l'intention et qu'on a des difficultés justement à définir cette intention,
10:04donc aujourd'hui les recherches sur vraiment le fait de prouver une intention sont assez limitées
10:11ou en tout cas demandent beaucoup de ressources journalistiques, d'enquêtes. Donc on va avoir
10:18des chercheurs ou des journalistes qui vont être attaqués en diffamation, en justice, par des
10:21acteurs justement qui diffusent ces troubles de l'information. Donc on a vraiment un besoin
10:25en fait d'une définition qui soit plus précise à ce niveau-là. Pareil pour le développement de
10:31contre-mesures, là c'est plutôt sur la conception, on est sur des enjeux qui sont transfrontaliers,
10:36qui sont transdisciplinaires et on va avoir une difficulté finalement à communiquer entre états,
10:40entre disciplines, parce qu'on n'a pas les mêmes termes pour désigner les mêmes enjeux. Et en
10:46fonction de comment est-ce qu'on vient qualifier ce phénomène, ça appelle des stratégies de lutte
10:50qui sont très différentes. Typiquement, si je vous dis qu'il s'agit de manipulation de
10:53l'information, on va vouloir développer peut-être des stratégies plutôt techniques de détection de
10:58ces manipulations, alors que si on parle de diffusion involontaire de contenus inexactes,
11:03là on va être plutôt sur des stratégies d'éducation aux médias et à l'information,
11:06de nudge orienté utilisateur, donc ce genre de choses. Donc pour développer une stratégie
11:10cohérente, il faut s'entendre sur les termes et aujourd'hui c'est pas du tout le cas. Après,
11:15la plupart des risques qu'on a identifiés sont plutôt sur l'efficacité de ces contre-mesures,
11:20un exemple flagrant de cette efficacité, c'est ce qu'on appelle le « backfire effect », ça peut
11:25être traduit par l'effet boomerang. Typiquement, c'est quand on applique un label à des contenus,
11:30donc si on met le label « fausse information », on va rendre plus crédibles les contenus qui n'ont
11:35pas de label. Donc si on a une définition de la mésinformation ou de la désinformation qui est
11:39très étroite, on va avoir peu de contenus labellisés, beaucoup de contenus qui ne le sont
11:43pas et qui sont donc perçus comme plus crédibles. Et donc on va avoir des désordres de l'information
11:47qui vont être perçus comme plus crédibles et du coup une contre-mesure qui finalement va avoir
11:51l'effet inverse de ce qu'on souhaitait. Donc là, on sent cette tension dans l'équilibre de la
11:57définition parce qu'à contrario, si on a une définition trop large, on l'a vu, on a des risques
12:01de censure et des risques pour la recherche. Donc on a vraiment ce besoin de cadre aujourd'hui. Et
12:06enfin, on a des problématiques plutôt de mesure d'impact parce qu'en effet, comme on n'a pas la
12:10même définition du concept, on ne va pas pouvoir savoir quel est le problème de départ finalement.
12:17On ne sait pas quelle est la quantité de désinformation ou de mésinformation présente, on ne peut pas
12:21délimiter justement ce contenu et donc on peut difficilement mesurer l'impact du DSA ou des
12:27politiques spécifiques des plateformes en termes d'efficacité, ce qui va rendre plus compliqué
12:32finalement l'orientation des politiques de lutte. Dans ce cadre-là, concernant la qualité du
12:39contenu qui est du coup vraiment incontournable pour définir ces deux termes, on recommande
12:43vraiment la création d'une grille d'évaluation standardisée qui soit reconnue par la régulation
12:47européenne pour permettre d'évaluer ces contenus en ligne. Aujourd'hui, on a des acteurs qui se
12:51positionnent sur ces thématiques-là, notamment les fact-checkers, pour éviter justement d'être
12:55attaqués en justice ou en tout cas d'avoir affaire à des accusations comme quoi ils ne seraient pas
12:59neutres ou que les contenus seraient vraiment très orientés. Donc on peut s'inspirer de ces
13:03travaux-là pour avoir quelque chose qui soit plus reconnu au niveau européen vraiment et pas par
13:08organisation. Au niveau de l'intention, c'est pareil. Donc on a vraiment des recherches aujourd'hui
13:14qui sortent là très récemment pour montrer qu'en fait non, on peut montrer qu'un acteur est en
13:17train de mentir, que le mensonge est délibéré, mais par contre ça s'appuie sur une large enquête
13:22journalistique ou sur l'utilisation de modèles LLM. Donc il y a un enjeu de développement d'outils
13:27pour rendre ça plus accessible aux journalistes ou aux chercheurs et leur permettre justement
13:32d'argumenter en ce sens. Alors pareil sur l'intention, ça catalyse une certaine
13:37problématique. Finalement, on manque d'une expression pour désigner à la fois la mésinformation et la
13:42désinformation. Donc entendu comme diffusion volontaire, en tout cas involontaire pour le
13:46premier et volontaire pour le second, quand on ne veut pas prendre en compte l'intention, aujourd'hui
13:50on n'a pas vraiment d'expression. On a Claire Wardle et au sein des Reactions qui proposaient à la
13:54Commission européenne d'utiliser l'expression « désordre de l'information », mais c'était déjà en
13:582017 et ça n'a pas été retenu de manière vraiment très générique. Donc aujourd'hui, certains acteurs
14:03pour désigner l'ensemble de ces désordres vont utiliser « désinformation » et d'autres « mésinformation ».
14:08Donc on se retrouve finalement avec la diffusion volontaire qui est un sous-groupe de la diffusion
14:12involontaire et vice-versa. Donc ça pose vraiment des problèmes de contradictions. Concernant le
14:18risque sous-jacent, ici ça fait vraiment écho aux premières interventions qu'on a pu avoir sur
14:22l'évaluation des risques dans le DSA. C'est quelque chose qui manque pour la désinformation et la
14:28mésinformation également. Il faut une définition qui soit plus granulaire de ces risques, de ce que
14:32ça représente. Typiquement aujourd'hui, les contenus qui sont liés à la désinformation vis-à-vis de la
14:37lutte contre le changement climatique ne sont pas du tout mentionnés dans le DSA, alors qu'on a
14:40beaucoup d'organisations qui luttent contre ça dans l'écosystème de la désinformation. Et également,
14:46on manque d'un cadre finalement qui établit un lien entre désordre de l'information, niveau de
14:50risque et contre-mesures associées. Ce qui nous permettrait d'établir cet équilibre entre la
14:55préservation de la liberté d'expression d'une part et puis une certaine sécurité en ligne d'autre
14:59part. Et enfin, concernant les techniques de création et de diffusion, elles peuvent être
15:03prises en compte, mais il ne faut surtout pas se limiter à ces techniques-là pour définir la
15:07mésinformation ou la désinformation, au risque de laisser en ligne, et c'est déjà arrivé sur
15:12des plateformes comme Facebook, des contenus qui finalement sont de fausses informations, mais qui
15:17n'ont pas été manipulés de façon digitale. Et donc bien sûr, pour les futures recherches, beaucoup
15:23de pistes. Déjà, le fait de proposer des définitions plus arrêtées de la mésinformation et de la
15:27désinformation, sur la base justement de ces critères, voire d'autres critères, ça pourrait
15:32être enrichi. Une typologie de ces désordres de l'information pour permettre d'avoir ce lien
15:37justement entre le niveau de risque et puis les contre-mesures qu'on pourrait y associer. Et d'un
15:41point de vue plus pratique, il serait intéressant de se concentrer sur les critères qui sont utilisés
15:46aujourd'hui par les algorithmes de fact-checking pour reconnaître ces désordres de l'information,
15:51et de mettre ça en parallèle justement avec la définition établie. Et dans ce cadre-là,
15:55de pouvoir avoir des algorithmes de fact-checking ou de détection qui se baisent sur une définition
16:00très critériée, dans laquelle on peut avoir confiance, et donc d'instaurer finalement cette
16:04transparence en amont de ces outils-là, pour pouvoir après la poursuivre dans les actions de
16:09lutte. Voilà, je vous remercie beaucoup.

Recommandations