• l’année dernière
https://www.arcom.fr/actualites/troisieme-journee-detudes-de-larcom-presentation-des-travaux-des-chercheurs-sur-les-medias-audiovisuels-et-numeriques

Catégorie

🗞
News
Transcription
00:00Bonjour à toutes et à tous, moi je m'appelle Laure Falloux, je suis
00:06chargée de mission à la Direction des études de l'économie et de la
00:11prospective de l'ARCOM et je suis ravie d'être ici pour animer ce panel
00:15que nous avons intitulé Comment protéger les publics, enjeux de
00:19l'information et de l'éducation des individus.
00:22Donc vous le savez, la protection des publics, c'est un enjeu qui est
00:26au cœur des missions de l'ARCOM et qui recouvre beaucoup de sujets,
00:28par exemple la protection contre l'exposition aux contenus inappropriés,
00:33la lutte contre la propagation des fausses informations ou l'éducation
00:36aux médias.
00:37Évidemment, on n'est pas tout seul à faire ça, mais à travers ces
00:40exemples, vous voyez que c'est finalement un sujet qui nous concerne
00:43toutes et tous au quotidien et qui est aussi lié à beaucoup de sujets
00:47de recherche qui vous seront présentés aujourd'hui.
00:50Par exemple, quand on a parlé du panel sur le DSA, il y avait pas
00:54mal de sujets qui étaient liés à la protection des publics aussi
00:57et ce sera également le cas pour le panel 2 et pour le panel 3 et 4
01:01cet après-midi, par exemple sur la modération des contenus.
01:05Donc aujourd'hui, avec les quatre interventions, on va finalement faire
01:10un cheminement autour de comment on fait pour protéger les publics et
01:14quelles sont les étapes clés, donc de l'étude des risques et de la
01:19perception des risques jusqu'à comment on fait pour bien informer et
01:23pour éduquer les publics.
01:26Donc nos quatre intervenants illustrent bien aussi l'intérêt d'avoir
01:30une approche interdisciplinaire puisqu'on va avoir des présentations
01:34en psychologie sociale, en droit, en science des données et en science
01:38de l'information et de la communication.
01:40Et c'est aussi ça qui fait l'intérêt de cette journée, il me semble.
01:43Sans plus tarder, je vous présente nos quatre intervenants.
01:47Tout d'abord, Alexandra Machantuno, vous êtes chercheuse post-doctorante
01:51au studio Europa Maastricht et vous travaillez plus précisément sur
01:56l'usage des réseaux sociaux et les impacts sur la santé mentale.
02:00Et donc, vous nous présentez aujourd'hui vos travaux sur la réceptivité
02:03perçue des algorithmes de TikTok et d'Instagram et leur association
02:07avec la santé mentale.
02:08Donc ce sera vraiment une présentation qui nous permettra de comprendre
02:12l'intérêt de vraiment étudier les risques, mais aussi et peut-être
02:16surtout la perception de ces risques.
02:18Avec nous également, Laurence Calendry.
02:20Donc Laurence, vous êtes enseignante chercheuse en droit public à la
02:23faculté de droit de l'Université Toulouse-Capitole, dont vous êtes
02:26d'ailleurs première vice-présidente.
02:29Et vous nous présentez les travaux que vous menez avec Sophie Géel qui
02:32nous suit à distance, il me semble, et qu'on salue évidemment, sur une
02:36thématique bien connue de l'ARCOM, qui est celle de la signalétique
02:39jeunesse et plus précisément, des enjeux qui sont liés au fait
02:42qu'il existe en réalité plusieurs signalétiques qui sont parfois
02:45concurrentes.
02:47Pour la troisième présentation, on restera sur cette question de la
02:50signalétique, mais une autre signalétique, celle du Nutri-Score,
02:54cette fois avec la présentation de Christophe Bénavant.
02:57Christophe, vous êtes professeur à l'Université Boffin PSL et vous
03:00faites aussi partie de l'ASS Institute, qui est un institut qui
03:06articule l'expertise de recherche en sciences sociales d'une part et
03:10de sciences des données d'autre part.
03:12Et donc, vous nous parlerez de l'impact de l'introduction de ce
03:15fameux Nutri-Score sur le discours publicitaire télé en France,
03:19ce qui sera l'occasion pour nous de rappeler que quand on met en place
03:22des outils d'information au public, ça a en fait des impacts sur toute
03:28une chaîne d'acteurs économiques, donc ici, les acteurs publicitaires.
03:31Et donc, c'est des effets qu'il faut prendre en compte quand on lance
03:34des outils d'information au public.
03:37Et enfin, on terminera notre cheminement au sujet de la protection
03:41des publics par l'intervention de Marianne Agrépiné, qui reviendra
03:45sur les pratiques récentes de ce que vous appelez, Marianna,
03:49le marché de l'éducation aux médias et de l'information.
03:55Et ce sont en fait des résultats issus de votre thèse que vous menez
03:58au Carisme et au Centre de recherche de l'Institut français de la presse,
04:02donc de l'Université Paris Panthéon-Assas.
04:05Et d'ailleurs, les médias, c'est un sujet que vous connaissez bien
04:08puisque vous êtes par ailleurs grand reporter, que vous avez travaillé
04:10pendant 19 ans pour Paris Match et que vous êtes toujours rédactrice
04:14en chef du site factoscope.fr.
04:16Donc, j'imagine que les pannels de l'après-midi vous intéresseront
04:19également.
04:21Voilà, donc en conclusion de cette petite introduction, comprendre
04:24les risques associés aux usages audiovisuels et numériques,
04:27informer, par exemple, à travers les outils de signalétique et éduquer.
04:31Ce sont là les ingrédients nécessaires, si je puis dire, à la protection
04:36des publics.
04:37Et c'est aussi le programme de ce panel.
04:40Donc, juste avant de passer la parole à Alexandra, je vous rappelle
04:44que vous pouvez poser vos questions à la fin des quatre interventions
04:47et que si vous nous suivez en ligne, vous pouvez aussi le faire via
04:51le chat.
04:51Donc, n'hésitez pas.
04:52Et comme vous le savez, à l'ARCOM, nous sommes des experts du contrôle
04:57du temps de parole.
04:57Donc, je vous remercierai de bien vouloir respecter les 15 minutes
05:01qui vous sont allouées pour qu'on puisse avoir du temps pour les
05:05échanges ensuite.
05:06Voilà, Alexandra, c'est à vous.
05:10Bonjour à tous et à toutes.
05:11Donc, allons-y.
05:12Je vous remercie pour l'invitation et aujourd'hui, je vais vous présenter
05:21effectivement une recherche que j'ai menée avec ma collègue à l'Université
05:24de Maastricht, Nino Goubouchvili.
05:26Nous sommes toutes les deux psychologues sociaux et donc, par rapport
05:29aux présentations que vous avez vues ce matin, ici, je vais vraiment
05:31vous proposer de s'intéresser à la perception des utilisateurs et à
05:35la perception qu'ils ont des réseaux sociaux et notamment de TikTok
05:38et d'Instagram.
05:40Alors, l'idée, en fait, c'est qu'on se rend compte qu'il y a de plus
05:43en plus de personnes qui utilisent les réseaux sociaux avec un temps
05:47d'écran qui est de plus en plus important et ça, ça a questionné
05:51notamment l'effet que ça pourrait avoir sur ce qu'on appelle la
05:54santé mentale et la santé mentale, si on la définit selon l'OMS,
05:58c'est vraiment un bien-être qu'on dit global et ce n'est pas
06:01simplement être heureux ou malheureux, ça va plus loin.
06:05C'est s'insérer dans la société, pouvoir faire face aux difficultés
06:08auxquelles on est confrontés et quand on regarde les recherches
06:12qui ont été faites dans la communauté scientifique sur ces
06:14questions, c'est-à-dire sur le temps d'utilisation de ces plateformes,
06:16le temps de visionnage et sur l'association avec la santé mentale
06:20qui est le plus souvent mesurée en s'intéressant à la solitude,
06:23à la dépression ou à des facteurs similaires comme, par exemple,
06:26les émotions positives et négatives, on voit qu'on a quand même
06:29une association qu'on dit négative mais qui est assez faible en termes
06:33de taille d'effet, ce qui signifie qu'on voit que plus les gens utilisent
06:35les réseaux sociaux, moins leur santé mentale est positive
06:39mais en même temps, c'est une taille d'effet très faible qui est,
06:42par exemple, moins importante que prendre un petit déjeuner le matin.
06:47Donc, dans les recherches en psychologie, on s'est intéressé
06:51à quels sont les facteurs qui pourraient expliquer qu'est-ce qui
06:52se passe quand quelqu'un utilise les réseaux sociaux et qu'est-ce
06:55qui pourrait expliquer cette faible association ?
06:57Est-ce qu'on voit qu'il y a plusieurs phénomènes qui peuvent être
07:00intéressants ?
07:01On a par exemple le soutien social qu'on peut avoir quand on utilise
07:03ces plateformes mais on peut aussi avoir ce qu'on appelle une surcharge
07:06cognitive quand on voit beaucoup d'informations liées, par exemple,
07:10aux nouvelles, aux élections, des phénomènes de compensation.
07:13Et pour cette présentation, je vais m'intéresser plus particulièrement
07:16à ce qu'on appelle la comparaison sociale.
07:17C'est un phénomène qui est normal, naturel.
07:20En tant qu'être humain, on se compare aux autres,
07:22on le fait constamment.
07:23Mais sur les réseaux sociaux, on est plongé dans ce contenu.
07:27Quand on est des adolescents, on a du contenu de nos pères,
07:30donc des gens qui sont très similaires à nous.
07:32Et bien souvent, on dit que sur les réseaux sociaux,
07:34on a ce qu'on appelle un biais de positivité, ce qui fait que par exemple,
07:37on voit des contenus de personnes qui ont l'air de présenter très,
07:39très bien, d'être très heureux, d'avoir une vie parfaite.
07:42Et ça nous amène à ce qu'on appelle une comparaison ascendante,
07:45c'est-à-dire qu'on se compare à des gens qui réussissent mieux que nous
07:47dans la vie et ça nous fait nous sentir assez mal.
07:50Le problème, c'est que même quand on s'intéresse à ces facteurs-là,
07:52on voit qu'il nous manque encore quelque chose.
07:54C'est des relations très complexes d'un point de vue humain.
07:57Et donc souvent, on dit qu'il faut prendre en compte des facteurs
07:59individuels, c'est-à-dire qui utilise ces plateformes,
08:01quel âge ont les utilisateurs, quelle est leur personnalité,
08:05par exemple, mais aussi des facteurs liés aux plateformes.
08:08Et c'est ça que je vais vous présenter aujourd'hui,
08:10c'est-à-dire que dans mes travaux de recherche,
08:11j'essaie de comprendre comment les plateformes diffèrent
08:13les unes des autres.
08:15Aujourd'hui, je vais vous proposer de se centrer sur un de ces facteurs
08:18qui est les algorithmes.
08:20Quand on essaie de comprendre l'interaction entre les êtres humains
08:23et les algorithmes, plusieurs recherches sont possibles.
08:25On a la manière dont les algorithmes fonctionnent.
08:29Comment ils sont perçus par les utilisateurs et aussi comment
08:32les algorithmes vont affecter les utilisateurs.
08:35Le problème, c'est que d'une part, on n'a pas accès à ces algorithmes.
08:38Peut-être quelque chose qui va changer, mais que même si on avait
08:41parfaitement accès à ces algorithmes, en fait, c'est très difficile
08:43de savoir l'impact de ces algorithmes sur les utilisateurs parce que
08:47ça va dépendre d'une part de leur comportement qu'ils ont eu avant
08:51dans le passé et aussi, ça dérive des comportements similaires
08:54sur la plateforme.
08:55Donc même si on avait exactement le script de l'algorithme,
08:57on ne peut pas parfaitement savoir qu'est-ce qui impacte l'utilisateur.
09:01Ce qu'on propose dans cette recherche, c'est une recherche qui est
09:04vraiment préliminaire.
09:05On est au tout début de ces travaux de recherche.
09:07C'est de voir comment la perception de ces algorithmes peut affecter
09:10les utilisateurs.
09:11Et ça, c'est intéressant au niveau de l'éducation aux médias.
09:14C'est pour ça que ça rentre dans ce panel parce que si on arrive
09:16à comprendre comment la perception des algorithmes peut affecter
09:19les utilisateurs, on peut après éduquer les utilisateurs sur ces
09:23algorithmes et voir si on peut réussir à mitiger certains de ces effets.
09:28Comme je vous ai dit, c'est une recherche qui est préliminaire.
09:30Aujourd'hui, je vais vous présenter les premiers travaux qu'on a eus
09:32et les recherches qu'on veut mener par la suite.
09:34On est ouverte aux collaborations, donc n'hésitez pas à venir me parler
09:38à la fin.
09:39Et on a reçu cette semaine la bonne nouvelle qu'on a eu le financement
09:41qu'on voulait.
09:42Donc on sait qu'on va pouvoir continuer.
09:44Alors, l'idée, c'est qu'en fait, on a pendant des années travaillé
09:48sur ce qu'on appelle l'algorithm awareness, qui est simplement le fait
09:53que les utilisateurs ont conscience qu'il y a des algorithmes sur
09:55les réseaux sociaux.
09:56Pendant longtemps, ce n'était pas le cas, en fait.
09:58La plupart des utilisateurs ne savaient pas trop comment ça fonctionnait,
10:00le contenu qu'ils visionnaient.
10:02Mais depuis certaines années, les utilisateurs ont tout à fait
10:04conscience qu'il y a des algorithmes et c'est pour ça que c'est un nouveau
10:06concept que nous, on travaille en ce moment.
10:08C'est la réceptivité perçue de ces algorithmes qui est l'idée,
10:11en fait, que ces algorithmes peuvent vraiment...
10:14Est-ce qu'ils répondent aux besoins des utilisateurs ?
10:16Et en fait, pourquoi ce concept, il est très important ?
10:19Parce qu'avec l'arrivée de TikTok, on a eu le newsfeed for you où
10:23les utilisateurs ont l'impression qu'il est beaucoup plus personnalisé
10:27que les autres newsfeeds qu'ils avaient sur les autres plateformes,
10:30par exemple Instagram.
10:31Et ce qui fait que les utilisateurs ont l'impression d'être vraiment
10:33confrontés à des personnes tout à fait similaires à eux et qui répondent
10:36parfaitement à leurs besoins.
10:37On a quelques recherches qui ont été menées, mais on a peu encore
10:41de recherches dessus, qui montrent que, par exemple,
10:42plus cette réceptivité perçue des algorithmes est importante,
10:48plus les utilisateurs prennent du plaisir en utilisant le réseau social.
10:52Et on voit que, par exemple, les utilisateurs passent de plus en plus
10:54de temps sur TikTok par rapport à Instagram.
10:56On a aussi quelques recherches sur la solitude, mais c'est encore
10:59des balbutiements et on n'a pas des résultats assez fiables.
11:02Mais ce qu'on voit aussi, c'est que ça dépend vraiment des plateformes
11:04et que, par exemple, Instagram est perçu comme moins réceptif que TikTok
11:09en termes d'algorithmes.
11:11Donc, ce qu'on a voulu faire, c'est en fait comprendre dans quelle
11:14manière l'usage des réseaux sociaux, la relation entre la santé mentale
11:18et l'usage des réseaux sociaux peut dépendre de ce que je disais,
11:20la comparaison sociale.
11:21Mais en fait, ce qui nous intéresse, nous, c'est en quoi la réceptivité
11:24perçue des algorithmes peut impacter la comparaison sociale.
11:27Pourquoi ?
11:28Parce que quand on se compare aux autres, on va se comparer au contenu
11:30qu'on voit, aux personnes qu'on voit.
11:32Et plus les personnes qu'on voit sont similaires à nous, finalement,
11:35moins on va avoir tendance à se comparer à des gens qu'on a l'impression
11:37qui sont mieux que nous, parce que ce sont des gens qui sont
11:39tout à fait similaires.
11:40Donc, c'est l'idée de cette étude.
11:42C'était vraiment exploratoire, c'était voir ce que ça donnait
11:45sur ces phénomènes-là.
11:46Du coup, pour ça, on a monté une recherche par questionnaire,
11:49donc auprès de 500 utilisateurs d'Instagram et de TikTok.
11:52On leur a posé plusieurs questions sur comment ils percevaient
11:56les algorithmes de ces deux plateformes, les émotions positives
11:59qu'ils ressentaient, la manière dont ils se comparaient,
12:01est-ce qu'ils ressentaient de l'envie et de la jalousie
12:03quand ils utilisaient ces plateformes.
12:04Et pour vous donner une ordre d'idées, on leur a aussi demandé le temps
12:08qu'ils passaient sur ces plateformes de manière objective,
12:10en regardant, par exemple, sur leur smartphone.
12:12Et on voit qu'en moyenne, les utilisateurs passaient
12:14quand même encore plus de temps sur Instagram que sur TikTok,
12:17ce qui dépend aussi de l'âge de notre panel, qui est à peu près
12:20de 35 ans en moyenne.
12:22Et on voit que si on était sur des utilisateurs plus jeunes,
12:24on aurait peut-être eu un temps un peu plus important pour TikTok.
12:27Donc, les résultats, déjà simplement descriptifs,
12:29c'est qu'en fait, on voit effectivement que...
12:33je ne peux pas montrer, c'est vrai...
12:34que l'envie est un peu plus grande sur Instagram que sur TikTok.
12:38Ça veut dire que les utilisateurs, quand ils naviguent sur ces plateformes,
12:41ils ressentent plus de sentiments de jalousie et d'envie sur Instagram
12:44qu'ils n'en ressentent sur TikTok.
12:45Et on voit aussi, donc j'ai mis comparaison sociale ascendante,
12:49descendante et pas ascendante, ce qui signifie que c'est vraiment
12:52dans quelle manière ils se comparent à des gens qui sont similaires
12:54ou qui considèrent qu'ils réussissent moins bien qu'eux dans la vie.
12:57Et on voit qu'effectivement, sur TikTok, les gens ont tendance
13:00à se comparer à des gens plus similaires qu'eux,
13:02alors que sur Instagram, il y a des gens qui ont l'impression
13:04qu'ils réussissent mieux qu'eux dans la vie ou qui ont une vie
13:06un peu plus positive.
13:08Quand on s'intéresse, du coup, de nouveau à la réceptivité
13:10des algorithmes, on voit, comme on s'y attendait,
13:12que TikTok est beaucoup plus réceptif selon les utilisateurs,
13:15beaucoup plus personnalisé selon eux et avec des personnes
13:18beaucoup plus similaires à leurs attentes par rapport à Instagram.
13:22Et on a aussi mesuré la similarité, effectivement, des gens qui voyaient.
13:25Effectivement, on voit que ça va dans le même sens.
13:28Du coup, on a réalisé des petites analyses, toujours,
13:31c'est très exploratoire, des passes analyses,
13:34donc des analyses de chemin, en fait.
13:37Et ce qu'on voit quand on s'intéresse à TikTok,
13:39c'est que plus les algorithmes sont perçus comme réceptifs,
13:42effectivement, plus les gens vont se comparer à des gens
13:44qu'ils considèrent comme similaires à eux ou, en tout cas,
13:46qu'ils réussissent pas mieux qu'eux dans la vie.
13:48Et ça, ça va avoir un effet plutôt positif sur la manière
13:51dont ils se sentent quand ils utilisent ces plateformes.
13:53Et on voit exactement la même chose sur Instagram
13:56avec des associations un peu plus faibles.
13:57On a exactement le même pattern de résultats,
14:00ce qui veut dire que c'est pas propre à TikTok,
14:02mais peut-être que c'est plus présent sur TikTok.
14:04Donc ça, en fait, qu'est-ce que ça nous apprend ?
14:06D'une part, ça nous apprend que s'intéresser à l'expérience
14:08des utilisateurs quand ils utilisent ces médias,
14:10ça peut être intéressant,
14:11parce que ça peut nous donner des pistes de réponse,
14:14notamment pour l'éducation aux médias,
14:16et que ça peut, parfois, la réceptivité des algorithmes
14:19pourrait mitiger certaines des comparations sociales négatives
14:22qu'on pourrait faire sur ces plateformes.
14:24Le problème de cette étude, d'une part,
14:25c'est qu'en fait, ça manque de validité écologique,
14:27c'est-à-dire qu'on a demandé aux personnes de répondre à des questions,
14:29mais ils étaient pas en train d'utiliser les plateformes,
14:31ce qui peut être un premier biais.
14:33Le deuxième, c'est qu'on n'a pas vraiment d'apport sur la causalité.
14:37Ça veut dire qu'on sait pas si c'est vraiment les plateformes
14:39qui ont amené à ces comparaisons,
14:40ou si les gens se comparent et qu'après, sur les plateformes,
14:43on ne peut pas le savoir avec ce genre de design.
14:46Et le second problème, c'est qu'on s'est intéressé à un facteur
14:48qui est la comparaison sociale,
14:50mais peut-être que la réceptivité de ces algorithmes
14:52peut amener aussi à des phénomènes de polarisation,
14:54parce qu'on va voir des gens très similaires,
14:56donc on va être dans des chambres d'écho.
14:58Donc, ça peut être un effet négatif
14:59de cette réceptivité des algorithmes.
15:01Ça peut aussi amener un usage excessif de ces plateformes,
15:04parce qu'on l'a vu tout à l'heure,
15:05en fait, ça amène à plus de plaisir
15:07quand on utilise ces plateformes.
15:08Donc, peut-être, ça pourrait amener les utilisateurs,
15:09tout simplement, à utiliser plus longtemps ces plateformes.
15:12Et ça, c'est des facteurs que nous, on n'avait pas
15:14dans cette première étude.
15:15Donc, ce qu'on va mener pour la suite,
15:17et on est ouvert, effectivement,
15:18si vous voulez venir discuter avec moi par la suite,
15:21c'est qu'on va, cette fois-ci, faire une intervention.
15:23Donc, sur TikTok, il y a la possibilité, en fait,
15:27de remettre à zéro son algorithme,
15:30ce qui veut dire qu'on peut demander aux utilisateurs...
15:33Simplement, on remet à zéro toutes les données
15:35qui ont été prises depuis le départ.
15:36Il y a la possibilité, aussi, de supprimer la personnalisation.
15:40Donc, l'idée, ça va être trois groupes de participants,
15:43et on va mesurer, en fait, leur comportement
15:47de manière objective et subjective,
15:49c'est-à-dire auto-rapporté ou de manière objective
15:51avec leur téléphone,
15:52avant notre intervention, une semaine après et trois semaines après.
15:55Et on va demander à certains d'entre eux
15:57de ne faire aucun changement sur leur utilisation de TikTok.
16:00À d'autres, on va leur demander de remettre à zéro
16:02leur algorithme, et à d'autres, en fait, de remettre à zéro
16:04et de supprimer la personnalisation.
16:06Et ça, ça va nous permettre de voir si ce changement
16:09au niveau de l'algorithme va affecter la perception
16:11des algorithmes par les utilisateurs,
16:13mais aussi, tout simplement, comment ils se sentent.
16:15Est-ce qu'ils ont l'impression qu'ils ont des visions
16:18plus polarisées, notamment au niveau politique ?
16:21Et est-ce que, par exemple, ils ont un usage ?
16:23Est-ce que leur temps d'usage va changer ?
16:24Est-ce qu'ils vont passer plus de temps ou moins de temps
16:26sur la plateforme par rapport à la suppression
16:28de la personnalisation ?
16:31Donc, voilà. Et donc, n'hésitez pas à nous contacter
16:33si vous avez des questions. Merci.

Recommandations