• l’année dernière
https://www.arcom.fr/actualites/troisieme-journee-detudes-de-larcom-presentation-des-travaux-des-chercheurs-sur-les-medias-audiovisuels-et-numeriques

Catégorie

🗞
News
Transcription
00:00Nous allons maintenant nous concentrer sur l'autre partie de la chaîne, les utilisateurs.
00:05Je vais maintenant passer à Wanagoga.
00:07Wanagoga, vous êtes directeur de recherche à INRIA.
00:10Vous êtes membre de l'ECOL Polytechnique.
00:15Votre recherche investigue à fond comment la technologie affecte l'advertissement,
00:23les nouvelles fausses, la formation d'opinions.
00:27Il y a beaucoup de sujets qu'on a déjà discuté aujourd'hui.
00:30Vous avez reçu quelques prix.
00:33Je voudrais emphasiser la bronze CNRS Médaille.
00:36C'est peut-être parce que je suis un chercheur CNRS que je voudrais l'emphasiser.
00:40Mais aussi l'Award Loving Bybass qui a été reçu par l'Académie des Sciences et l'Associété Informatique de France,
00:47qui est une société d'apprentissage de sciences computer françaises.
00:50Vous êtes vraiment un expert sur ces sujets.
00:53Ça nous aidera à comprendre les différentes sources d'exposition de la nouvelle au contenu.
00:58Merci d'être là.
01:00Merci Fabien pour cette très jolie introduction.
01:04J'espère que je ne vais pas me décevoir.
01:08Je pense que je vais passer à l'allemand car il y a plus de Français ici.
01:17Alors dans cette étude, on a voulu comprendre deux questions qui sont basiques
01:24et qui sont importantes sur comment les gens s'informent dans les réseaux sociaux
01:30et que depuis des années et des années, on n'a pas eu les données pour pouvoir avoir une réponse
01:36qui est la façon comment les gens y reçoivent l'information,
01:41à quel point ils sont exposés à des fake news ou des news factuelles
01:47et comment les gens interagissent avec ces contenus.
01:52Et bien entendu, les deux risques majeurs qu'on a en vue,
01:58c'est le risque de la dissémination des désinformations dans les réseaux sociaux.
02:03Oui, on a longtemps parlé que ça amplifie la désinformation.
02:09Et le deuxième risque, c'est la formation des bulles de filtre.
02:13Alors on a voulu voir d'un point de vue utilisateur à quel point on est exposé à ce risque.
02:19On veut quantifier ce risque du point de vue utilisateur.
02:24Maintenant, cette question, ce n'est pas seulement importante pour nous pour la curiosité
02:31qui est ce que ça détermine les chercheurs à travailler,
02:36mais c'est aussi important mesurer la santé de l'écosystème des news
02:43et pouvoir aussi, si on regarde dans les temps, pouvoir évoiler comment les politiques publiques, ça peut impacter.
02:50Est-ce qu'on voit vers le mieux avec cette politique publique qu'on a mis en place, par exemple,
02:55maintenant on parle beaucoup des media literacy, d'apprendre aux enfants et aux lycéens
03:02comment distinguer les opinions de news factuelles.
03:06Mais on a besoin de mesurer après leur impact.
03:10Donc c'est important de pouvoir mesurer ça dans les temps.
03:14Nous, on a fait juste une seule snapshot, mais on planifie mesurer dans longtemps.
03:21Et bien sûr, c'est très difficile de mesurer la prévalence de la désinformation
03:29parce qu'on n'a pas accès à des données.
03:31Tous les recherches que les gens ont fait jusqu'à maintenant,
03:34ils se sont concentrés en point de vue des sources, des créateurs de contenu.
03:38On peut aller sur Twitter ou d'autres plateformes et on peut regarder,
03:42il y a ces créateurs de contenu qui parlent de la désinformation.
03:46Mais de point de vue utilisateur, 10 personnes dans cette salle,
03:50on ne sait pas à quel point la personne random sur la rue est exposée à des désinformations.
03:57Cette part de vue, on n'a pas pu avoir des informations
04:00et les API ne montrent pas des informations sur ça, au moins jusqu'à maintenant.
04:05Alors, bien sûr, il y a eu pas mal de recherches dans ces domaines
04:10et les gens ont essayé d'avoir des proxys pour mesurer l'exposition aux fake news
04:17ou juste ce que les gens lisent de façon générale.
04:20Et la façon la plus classique, c'est les surveilles, c'est les enquêtes.
04:25Mais bien sûr, ça introduit des biais, ce n'est pas général, les gens oublient,
04:31ça ne donne pas vraiment une image complète.
04:35Après, il y a eu des façons computationnelles qui sont plutôt amenées par les informaticiens
04:43et la première, c'était, on peut inférer l'exposition si on regarde ce que les gens partagent.
04:50Parce que pour partager, on a eu besoin avant d'être exposé à ce genre de contenu.
04:55Bon, ça c'est bien, mais ça montre juste une petite partie du contenu où les gens sont exposés.
05:02Et après, il y a une deuxième méthode computationnelle,
05:06c'est qu'on a essayé d'avoir les traces de navigation des gens.
05:11Il y a des plugins et des outils qui peuvent mesurer tous les sites web sur lesquels quelqu'un a accès
05:18et à partir de ça, on peut voir quels sont les news qu'ils ont regardés.
05:23Mais encore une fois, ça ne donne pas des informations sur les informations à laquelle ils sont exposés
05:33et qui ne sont pas cliquées.
05:35Donc, la grosse question, c'est comment on peut avoir une chose qui mesure précisément
05:41à quoi les gens sont intéressés.
05:44Et du coup, pour cela, on a proposé un outil qu'on a commencé à développer en 2015.
05:51On s'intéressait à ce moment-là à de la publicité et de la publicité politique, mais on l'a évolué.
05:58Alors l'idée, c'est basé sur des dons des données.
06:03On y va à des utilisateurs et on leur demande le consentement de collecter des données personnelles
06:10sur ce qu'ils voient sur les réseaux sociaux.
06:13Et pour ça, on a créé un outil qui peut faire ça de façon automatique.
06:18Les gens, ils l'installent et ils peuvent collecter tous les posts publics ou pas sur Facebook
06:25et aussi ça peut être sur d'autres réseaux de ceux qu'ils voient.
06:30Du coup, ça peut nous donner finalement une vision de c'est ça que les gens voient quand ils vont sur leur compte Facebook.
06:39En plus de ça, on a aussi pu collecter des informations sur comment les gens se comportent
06:46quand ils voient une certaine information.
06:49On peut mesurer le temps qu'ils regardent un poste, est-ce qu'ils ont vraiment cliqué,
06:53combien de temps ils ont passé sur les vrais articles.
06:56On peut mesurer les interactions des gens avec ce poste.
06:59Et pour faire même plus beau, on peut les envoyer des questionnaires.
07:03Donc on les envoie des questionnaires pour comprendre les traces immédiates et d'autres questionnaires.
07:09Comme ça, on peut mettre tête à tête des traces, ce qu'ils disent et ce qu'on voit dans ces traces.
07:18Et on a fait, on a récolté un panel aux Etats-Unis et ces résultats, c'est à base de ce panel
07:25qu'on a récolté aux Etats-Unis avant les anciennes élections présidentielles en 2020.
07:32Alors, la première question qu'on voulait avoir en information, c'est comment les gens s'informent
07:39et à quel point ils sont exposés à des fake news.
07:42Alors, ce qu'on a vu, c'est que si on regarde tous les contenus reliés à des news médias
07:52qu'ils reçoivent sur leur fil, en moyenne, 63% des contenus,
07:58ça vient des sources qui sont connues pour être factuelles.
08:02C'est une évaluation au niveau des sources. On ne peut pas faire des évaluations au niveau d'articles.
08:07C'est très compliqué, mais il y a des agences journalistiques, comme vous l'avez dit tout à l'heure,
08:14qui dit, comme NewsGuard, qui dit, cette source, elle est connue de façon répétée.
08:19Elle envoie des articles factuels ou cette autre source, de façon répétée, elle a envoyé des fake news.
08:27Donc, cette caractérisation, c'est au niveau des sources.
08:30Donc, 63% des articles des gens aux États-Unis qui étaient dans les panels, ça venait sur Facebook, ça venait de sources factuelles
08:39et on a vu que 5% ça venait des sources qui sont connues d'avoir, de façon répétée, envoyé de fake news.
08:47Ça ne veut pas dire que 5% sont des fake news, peut-être.
08:50Ils n'envoient pas que des fake news sur leur site, mais c'est un upper bound.
08:57Très bien, très bien.
08:59Donc, la question d'après, c'est surtout la question que les informaticiens, ils se posent,
09:06à quel point les algorithmes encouragent ça.
09:09C'est ça qu'on veut comprendre.
09:12Et ici, ce qu'on a réalisé, c'est que la communauté, plutôt dans les sciences sociales,
09:20a considéré que tous les posts que les gens voient sur Facebook ou sur les réseaux sociaux sont incidentals.
09:29Ça vient incidental news exposure.
09:32Mais en fait, il y a des différents mécanismes à l'intérieur de Facebook
09:37qui déterminent pourquoi vous voyez un certain post relié à la news.
09:42La première, c'est ce qu'on appelle selective news exposure.
09:46En fait, les personnes, elles voient et regardent le monde, elles suivent les comptes du monde.
09:51Alors, parce qu'elles suivent, elles voient les posts du monde.
09:56Donc, on ne peut pas dire que c'est incidental, que ça arrive chez eux,
09:59parce que c'est eux qui ont dit, moi, je veux recevoir le contenu de cette news organization.
10:07Après, il y a, par les réseaux, bien sûr, c'est les amis qui postent quelque chose.
10:13Donc, ici, l'influence de l'algorithme est la plus limitée,
10:15parce que c'est plutôt les utilisateurs qui choisissent avec qui ils sont amis.
10:20Et en fonction de ça, ils reçoivent des articles.
10:24Après, on a les algorithmes.
10:27Ça, des fois, sur Facebook, on a des suggested posts qui ne sont justement que déterminés par les algorithmes de Facebook.
10:35Ils ont décidé, c'est parce que vous avez aimé cette chose qu'on pense que vous allez aimer cet article de presse.
10:43Et finalement, aussi, une chose qui n'a pas été très percutée, c'est qu'on a de la publicité.
10:50La publicité, elle a été inventée pour envoyer des produits personnalisés aux gens,
10:55mais elle est de plus en plus utilisée pour envoyer des informations.
11:00Et on sait, dans le cadre de publicité politique.
11:03Maintenant, en plus de publicité politique, on a aussi les publicités à caractère news,
11:10où on a des pages qui juste envoient des articles de presse.
11:15Comme publicité, comme ça, il peut chercher une certaine population.
11:21Donc, on a voulu voir, si on regarde tous ces types d'exposures, quelle est la quantité de fake news dedans.
11:31Et ce qu'on a vu ici, c'est que les sélectives, c'était plus grand que les autres.
11:37Donc, il y a plus de chances que les gens, ils voient des fake news parce qu'eux-mêmes veulent suivre cette source,
11:45qu'elle vient des réseaux ou des algorithmes.
11:50Bon, elle vient de partout, mais plus principalement, c'est les gens qui choisissent eux-mêmes.
11:58Et du coup, ça, pourquoi c'est important de comprendre la différence ?
12:02Parce qu'on peut agir de façon différente en fonction de quel est le mécanisme qui a contribué,
12:08que l'information arrive à l'utilisateur.
12:11Si c'est sur le network, on ne peut rien faire.
12:14Si c'est sélectif, on peut faire du media literacy.
12:17Et si c'est algorithme, on peut, par les régulations, faire quelque chose que les algorithmes diminuent les fake news.
12:25Très bien, très bien.
12:29Après, la deuxième question très basique qu'on avait, est-ce que les bulles de filtres, ça existe ?
12:35Et ici, on a regardé deux mesures.
12:38La première, c'était, on a appelé la diversité.
12:42Est-ce qu'un utilisateur de droite a reçu au moins un poste de gauche et vice-versa ?
12:49Et la balance, qui veut dire qu'un utilisateur de droite a reçu 30% de ce poste, ça vient de la gauche, et vice-versa.
12:59C'est juste quantité différente.
13:02Alors, on a regardé, si on regarde tous les postes de news que les gens y reçoivent,
13:09on voit que 83% des utilisateurs, ils ont une news exposure qui est diverse, qui reçoit des deux côtés.
13:18Et 35%, ils ont même une exposure qui est balance.
13:23Au moins 30% des postes qu'ils voient, ça vient de l'autre parti politique.
13:29Après, si on regarde que les selective news, qui est les news que les gens, ils sélectionnent eux-mêmes,
13:36on voit de façon très claire que c'est moins diversifié.
13:42Donc, juste encore pour faire la différence entre les différents mécanismes.
13:48Après qu'on a compris l'exposition à des nouvelles, on a voulu voir les comportements des gens.
13:54La première question principale qu'on voulait, à quel point les gens, ils lisent les articles qu'ils partagent ?
14:03Oui, avant de partager, est-ce qu'ils lisent vraiment les articles qu'ils partagent ?
14:07Et on a vu qu'il n'y a que sur 14% des articles partagés, les gens, ils avaient auparavant regardé les vrais articles.
14:15Donc, la plupart des partages se font juste à partir de tout petit texte qui est sur un post en Facebook,
14:22sans aller au vrai article de presse.
14:26Après, on a voulu aussi comprendre comment les gens interagissent avec des contenus qui viennent de l'autre camp politique.
14:36Si on était aux États-Unis, comment les républicains, ils réagissent aux contenus qui viennent des news qui sont connues d'être des partis démocrates et vice-versa.
14:46Et on a regardé deux formes d'interaction.
14:50La première interaction, c'est les partages ou les likes.
14:54C'est des actions visibles au réseau de quelqu'un.
14:57Et on a vu, comme d'autres chercheurs avant, que les gens, ils partagent plus les posts qui sont de même camp politique.
15:06Mais ce qu'on a vu d'être très intéressant, c'est que si on regarde à des interactions cachées,
15:12qui veut dire juste aller et cliquer sur les posts et lire les vrais articles,
15:18l'histoire, elle est différente parce que les gens, ils regardent plus, ils lisent plus les contenus de l'autre camp politique,
15:27mais ils ne les partagent pas sur les réseaux sociaux.
15:30Donc c'est là, ça montre qu'il y a une certaine volonté d'aller et au moins regarder de l'autre camp, mais sans que ça se sache.
15:43Très bien. Alors pour en finir, pour pouvoir mesurer la santé de cet écosystème, on a besoin des données.
15:53Ça, c'est la matière la plus principale.
15:56Et notre méthodologie qu'on a proposée, qui est par des dons des données, c'est très intéressant,
16:04mais elle est limitée au nombre d'utilisateurs qui sont d'accord à nos données, des données qui sont finalement assez sensibles,
16:11même si on protège leur anonymité et tout ça, c'est quand même des données assez sensibles et c'est aussi biaisé.
16:19Même si on a essayé d'avoir un stratified sampling, ce n'est pas un random sampling.
16:25Donc mon espoir, c'est qu'avec le Delegated Act, le Digital Services Act, on pourra faire le même genre d'études,
16:34de façon représentative, plusieurs fois dans les années, pour comprendre l'évolution et surtout dans des pays différents,
16:42parce que ça, c'est ce qu'on a aux États-Unis, mais on ne sait pas ailleurs comment c'est.
16:47La deuxième chose que je veux que vous retenez, c'est qu'on a pris cette perspective mechanistique perspective,
16:56qui veut dire de quelle façon les news arrivent aux gens, pour comprendre les sélectives, algorithmiques, network,
17:04et ça, ça nous permet de pouvoir savoir où il faut actionner après, pour pouvoir améliorer les états.
17:11Et finalement, on a vu qu'il y a 10% des news exposure des gens, ça vient de publicité.
17:20Et actuellement, on n'a pas trop regardé ça, comment les publicitaires, comment on peut utiliser la publicité,
17:30avec des news, pas forcément politiques, mais avec des news, pour peut-être influencer des gens.
17:36Merci beaucoup.
17:37Merci, merci Oana.

Recommandations