Il s’agit d’une première en Europe. Sept familles assignent devant la justice française le réseau social TikTok afin de faire reconnaître sa responsabilité dans la dégradation de la santé mentale de leurs enfants. Vidéos promouvant l’automutilation, les troubles alimentaires, la prise de médicaments… jusqu’à des contenus mettant en avant le suicide. Aujourd’hui ces familles réclament des comptes à TikTok. Fort de ses 21 millions d’utilisateurs en France - 1,2 milliard dans le monde. TikTok propose, selon ces familles, un algorithme qui accentue le mal-être de leurs enfants. A savoir sept adolescentes. Deux d’entre elles ont mis fin à leur jour. Les réseaux sociaux sont-ils un danger pour les plus jeunes? TikTok favorise-t-il le mal-être de jeunes déjà fragiles? Comment protéger ces derniers des contenus les plus violents ou les plus sensibles? Je suis Ronald Guintrange et vous écoutez un nouvel épisode d’Affaire suivante, le podcast inédit. Justine Chevalier et Ronald Guintrange reçoivent Maitre Laure Boutron-Marmion, fondatrice du collectif Algos Victima, pour venir en aide aux victimes des réseaux sociaux.
Category
🗞
NewsTranscription
00:00Il s'agit d'une première en Europe, 7 familles assignent devant la justice française le réseau social TikTok
00:06afin de faire reconnaître sa responsabilité dans la dégradation de la santé mentale de leurs enfants.
00:12Vidéos promouvant l'automutilation, les troubles alimentaires, la prise de médicaments, jusqu'à des contenus mettant en avant le suicide.
00:19Aujourd'hui, ces familles réclament des comptes à TikTok. Fort de ses 21 millions d'utilisateurs en France, 1,2 milliard dans le monde,
00:27TikTok propose, selon ses familles, un algorithme qui accentue le mal-être de leurs enfants, à savoir 7 adolescentes,
00:33deux d'entre elles ont mis fin à leur jour.
00:36Les réseaux sociaux sont-ils un danger pour les plus jeunes ?
00:39TikTok favorise-t-il le mal-être de jeunes déjà fragiles ? Comment protéger ces derniers des contenus les plus violents ou les plus sensibles ?
00:46Je suis Ronald Guintrange et vous écoutez un nouvel épisode d'Affaires Suivantes, le podcast inédit.
00:56Bonjour Justine Chevalier. Vous êtes journaliste police-justice à BFMTV.com. Avec vous, nous allons revenir sur le parcours de ces adolescentes qui ont été
01:04exposées à ces contenus parfois
01:05mortifères.
01:07Bonjour Maître Laure Boutron-Marmion.
01:09Vous avez fondé le collectif Algos Victima pour venir en aide aux victimes de ces réseaux sociaux.
01:14Avec vous, nous allons revenir sur cette assignation que vous portez pour ces sept familles pour en comprendre les objectifs mais aussi les enjeux.
01:22Mais d'abord Justine, sur le parcours de ces sept adolescentes dont les familles tentent aujourd'hui de faire reconnaître la responsabilité de TikTok dans
01:30l'accentuation de leur mal-être, causant des troubles alimentaires, des tentatives de suicide jusqu'au geste fatal, je le disais, pour deux d'entre elles.
01:38Oui, elles s'appelaient Charlize et Marie. Elles avaient toutes les deux 15 ans et ces jeunes filles au profil
01:44fragile ont mis fin à leur jour. Stéphanie et Delphine, les mamans des deux adolescentes, ont raconté d'ailleurs à BFMTV
01:51comment leurs filles, toutes deux victimes de harcèlement à l'école, se sont, dit-elle,
01:56retrouvées enfermées dans un mal-être à cause de TikTok. Elles ont d'abord regardé une première vidéo en lien avec
02:03le harcèlement qu'elles vivaient, puis elles vont être exposées à des dizaines, des dizaines de contenus particulièrement explicites.
02:10Certains d'entre eux font clairement la promotion du suicide en cause,
02:14l'algorithme de TikTok, qui est d'ailleurs décrit par les spécialistes comme celui qui est le plus à même pour enfermer les
02:21utilisateurs dans un flot de contenus homogènes, un flot de contenus sur le même sujet. Et pour ces jeunes filles,
02:28confrontées quotidiennement à ces contenus mortifères, l'effet a été
02:32dévastateur. Elles sont passées à l'acte, elles se sont
02:35données la mort. Depuis, leurs parents se battent pour alerter la société, les pouvoirs publics et tentent de faire reconnaître la
02:42responsabilité de TikTok dans l'aggravation de la santé mentale de leurs filles.
02:46Alors Justine, ces deux familles ne sont pas les seules. Avec le collectif Algos Victima, cinq autres parents se sont associés à leur combat
02:52et elles portent donc ce recours devant la justice française. C'est le cas de Morgane,
02:56c'est la maman de Maëlle que vous avez contactée. Cette jeune fille, fragile psychologiquement, a fait plusieurs tentatives de suicide,
03:03plusieurs passages en hôpital psychiatrique.
03:05Aujourd'hui, mère et fille dénoncent l'addiction provoquée par l'algorithme de TikTok.
03:10Oui, j'ai longuement échangé au téléphone avec
03:13Morgane. Si elle accepte de témoigner, c'est avant tout pour alerter les autres familles, pour, dit-elle, que sa douleur puisse
03:20servir à d'autres, pour qu'on puisse parler de ce sujet, pour que les parents, les soignants, les enseignants, la société soient alertés,
03:28sensibilisés. Morgane, elle est très claire, elle ne dit pas que TikTok a fait que sa fille va mal
03:34psychologiquement, mais que le réseau l'a fait s'enfoncer dans ce mal-être.
03:38Car Maëlle, la fille de Morgane, aujourd'hui âgée de 17 ans, est tombée, dit-elle, dans la spirale infernale
03:43après avoir été victime de harcèlement, c'était à son collège. Tout a commencé, effectivement, en classe de quatrième.
03:49La jeune fille va se renfermer, sa maman dit
03:53ressentir un problème, un mal-être chez sa fille. Elle l'a fait voir par un psychologue. À cette époque, Maëlle, elle va
04:00évoquer les méchants, entre guillemets, du collège. Mais à cette époque, toujours, on ne parle pas de harcèlement.
04:07Et pourtant, aujourd'hui, on sait que c'est cet harcèlement qui a causé tout le mal-être de Maëlle.
04:13Maëlle, à cette époque, elle a un téléphone portable, elle est en classe de quatrième. Elle n'a pourtant pas le droit de l'utiliser
04:19dans sa chambre. Elle ne peut pas se connecter le soir, mais elle va quand même consulter, comme tous ses camarades,
04:26TikTok. À l'époque, déjà, elle se scarifie. Elle va liker, en fait, des vidéos
04:33évoquant des chansons, des chansons tristes. Et l'engrenage se met en place sur son fil Pour toi, sur l'application TikTok.
04:40C'est ce fameux fil de
04:43recommandations. On va lui proposer des vidéos faisant la promotion de l'auto-mutilation.
04:47On va lui donner les astuces, entre guillemets, pour se scarifier, pour se procurer des lames, pour se procurer des médicaments.
04:56Maëlle, elle trouve une communauté
04:58autour d'elle. Et Morgane, sa mère, dénonce, elle, une véritable boîte à outils pour se complaire, en fait, dans ce mal-être.
05:06Le problème, c'est que ni les parents ni les médecins de Maëlle ne font le lien. Non, la maman de Maëlle,
05:12à cette époque, évidemment, elle se bat pour que sa fille soit prise en charge, pour qu'elle puisse suivre une thérapie.
05:18On lui renvoie, d'ailleurs, souvent l'argument que sa fille est une adolescente, que ça va passer. Et d'ailleurs, cet argument
05:25de l'adolescence, ça va accentuer le mal-être
05:28de Maëlle. La jeune fille, elle, elle vit avec un sentiment permanent de vide.
05:33L'impression de ne pas avoir sa place dans la société. Elle va enchaîner les rechutes, les tentatives de suicide.
05:38Elle va dire à sa mère que la vie n'a pas de sens, qu'elle n'a pas sa place dans ce monde. On imagine
05:43le courage d'une maman pour supporter ce type de propos. À l'époque, cette maman, elle me dit qu'elle est comme un zombie,
05:51en fait. Elle tente de maintenir sa fille en vie. Elle ne lâche rien. Elle n'a pas le courage,
05:56enfin, la force de chercher les causes du mal-être de son enfant. Et il y a quelques mois, Morgane, elle entend un reportage
06:04à la radio sur TikTok, sur les contenus proposés par la plateforme.
06:09Elle me dit qu'elle, à l'époque, pour elle, TikTok, c'est des vidéos de chatons sans
06:15conséquences. Elle va parler avec Maëlle de TikTok et la jeune fille avoue que oui, elle a été confrontée à des vidéos
06:21d'automutilation sur les troubles alimentaires, sur le suicide.
06:25Des vidéos dans lesquelles il est expliqué qu'une scarification sans sang, eh ben ça ne compte pas.
06:31Une tentative de suicide sans hospitalisation, ça ne compte pas non plus. Et donc, qui encourage à aller encore et encore plus loin.
06:39En bref, des contenus qui
06:41banalisent la mort.
06:44On va élargir un petit peu, Justine, parce que ce n'est pas la première fois que TikTok et donc ses algorithmes sont pointés du doigt.
06:50C'était il y a un an, c'est l'ONG Amnesty International qui publie une étude sur, justement, ce fil de recommandations pour toi.
06:57Fil qui, selon l'association, encourage l'automutilation
07:01et les idées suicidaires, alors que le temps moyen passé par les jeunes français sur TikTok est quand même de deux heures par jour.
07:10Aujourd'hui, la mère de Maëlle a installé un contrôle parental sur le téléphone de sa fille. Maëlle, elle peut utiliser son téléphone
07:1730 minutes par jour. Evidemment, l'application TikTok a été
07:21désinstallée, mais cette maman, elle vit aujourd'hui toujours avec la crainte permanente que sa fille passe à l'acte.
07:27Pour être tout à fait complège, j'ai contacté, évidemment, TikTok,
07:30qui m'assure que l'entreprise n'a reçu à ce jour aucune notification relative à la procédure judiciaire donc lancée par
07:39le collectif Algos Victima.
07:41L'entreprise, elle, elle tient à rappeler que, je cite,
07:44protéger notre communauté, et tout particulièrement les plus jeunes, est une responsabilité prie avec le plus grand sérieux,
07:50que tout contenu relatif au suicide, au passage à l'acte, à la tentative de suicide
07:56ou aux idées suicidaires, mais aussi les contenus relatifs à l'automutilation, sont supprimés.
08:02Et concernant les algorithmes, les fameux algorithmes
08:05mis en cause, TikTok assure que c'est l'un de ses défis inhérents à son système de recommandations.
08:11La plateforme dit qu'elle s'assure que les contenus recommandés ne soient pas trop
08:17restrictifs, notamment quand ces vidéos sont en lien avec le sport à l'extrême, avec les régimes ou avec la tristesse.
08:25Maître Bourbion-Marmion, merci d'être dans Affaires Suivantes, le podcast inédit. Vous avez fondé, je le rappelle, le collectif Algos Victima.
08:33C'est une cellule d'accompagnement juridique pour les victimes des réseaux sociaux.
08:36Vous portez cette assignation aux civils contre la plateforme TikTok pour cette famille. C'est une première.
08:42Quel est le but de cette procédure et qu'est-ce que ces familles dénoncent précisément ?
08:49Tout a commencé, je dirais, il y a une année,
08:52lorsque nous avons déposé plainte contre TikTok pour provocation au suicide dans le dossier de Marie,
08:59Stéphanie et Charles, avec qui je travaille à la reconnaissance du harcèlement scolaire qu'a vécu Marie
09:07depuis maintenant trois ans. Nous avions fait le constat absolument
09:13incroyable, lorsqu'on a commencé à travailler le dossier, que
09:18aussi Marie, dans les derniers mois de sa vie, était complètement accro à TikTok, qu'elle avait publié des vidéos
09:24extrêmement problématiques qui n'avaient pas été censurées par la plateforme et qu'elle avait été
09:28inondée de contenus de même type. Donc ça commence par là, si vous voulez. C'est que, en fait, Stéphanie commence à avoir des prises de parole
09:35publiques sur ce sujet-là, je commence à en avoir moi aussi à mon tour, et j'ai régulièrement des familles qui
09:42m'écrivent ou qui m'appellent au cabinet en m'expliquant qu'ils vivent la même chose, qu'ils font des recoupements, etc, etc. Donc ça vient de là.
09:51Le côté plus
09:53globalisant de la démarche
09:55vient de cette histoire avec Marie. Je crée donc le collectif Algos Victima en mars dernier,
10:02sentant qu'il y avait un réel besoin d'une cellule pour accompagner les familles sur ces sujets-là, précisément.
10:08Et à la suite de ça, avec plusieurs familles, nous avons commencé à travailler à cette idée du recours,
10:15avec, si vous voulez, les sept familles qui étaient le plus
10:19douloureusement atteintes et qui n'avaient pas d'autre choix que de toquer à la porte du tribunal.
10:25Et concrètement, une assignation civile, qu'est-ce que ça veut dire ?
10:30Alors ça veut dire que là, très concrètement, TikTok est attrait de façon directe devant un
10:36tribunal judiciaire français.
10:39La procédure est la suivante, c'est que nous, familles,
10:44nous portons le recours donc devant les greffiers de ce tribunal-là, qui
10:50ensuite me donne une date d'audience et qui me permet ensuite de notifier
10:55mon acte de procédure à TikTok. Raison pour laquelle, aujourd'hui,
10:58ça leur permet, si vous voulez, très aisément de gagner du temps en disant qu'ils n'ont pas encore en main, ce qui est vrai,
11:05mon acte au complet.
11:08Donc,
11:09pourquoi cette action au civil ? Ce qui est vraiment très très important de noter et d'avoir à l'esprit, c'est que va s'engager un débat
11:17contradictoire. TikTok va devoir décider de se constituer en défense ou pas,
11:22donc d'avoir un avocat, qui va devoir donc bâtir des arguments adverses pour
11:27dire si ce que l'on raconte est fondé ou n'est pas fondé. Mais ce sera déjà une première victoire pour ces familles,
11:34puisque s'il y a bien une chose qu'on peut noter, c'est que
11:38TikTok brille par son absence de prise de parole sur ces sujets-là depuis
11:42deux voire trois ans, et que donc les familles sont également en attente d'un retour de ce côté-là. Et puis ensuite, évidemment,
11:50très concrètement, pourquoi aller au civil ? C'est parce qu'il ne faut pas oublier que cette société-là développe un produit commercial
11:57qu'elle met sur le marché. Elle le propose à des utilisateurs
12:00en majorité, quand même en quasi majorité mineure, ce qui est aussi la spécificité de TikTok, qui est quand même très très très très utilisé par
12:07les jeunes. Et elle propose un produit qui,
12:10de façon incontestable et défaillante, puisque aujourd'hui il atteint directement la santé des jeunes. Donc,
12:15évidemment que le civil
12:17apparaissait également le tribunal naturel, si vous voulez, pour discuter de ces questions-là.
12:22Si on se met d'un point de vue extérieur,
12:24on peut quand même dire que ce sont les utilisateurs de TikTok ou les utilisateurs des réseaux sociaux qui regardent volontairement
12:31ces contenus. Ce que vous dites, ce que vous dénoncez, c'est
12:35cet algorithme puissant qui va les cibler, les plus fragiles, avec des vidéos, en l'occurrence, qui prouvent
12:40l'automutilation, les troubles alimentaires ou le suicide.
12:43C'est-à-dire qu'effectivement, il y a une sacro-sainte
12:47distinction que, du coup, ces entreprises-là sont très heureuses de faire depuis X années, qui est de dire nous, nous sommes hébergeurs de contenus.
12:54Ce n'est pas notre contenu, ce n'est pas notre affaire. Sauf que là où le bas blesse, c'est qu'il crée un outil digital
13:01grâce à ce contenu-là. Il le crée par un algorithme qui va donc le rythmer, le designer,
13:07il va décider d'une charte graphique et notamment, par exemple, pour TikTok, il décide de se filer pour toi
13:13qui impose le contenu à l'utilisateur, plutôt que l'utilisateur va aller le chercher. Et donc là, à partir de là,
13:20le discours ne peut plus être le même, si vous voulez. Ils ne peuvent plus se ranger en disant
13:23ah oui, mais ce n'est pas mon contenu, donc ce n'est pas notre affaire.
13:26Si c'est leur affaire, et c'est ce que j'évoque effectivement dans mon recours, c'est qu'ils développent un outil qui est par essence
13:33addictif. Et si, dans le même temps, ce contenu-là n'est pas
13:37régulé, si vous voulez, et bien évidemment que les effets sont dévastateurs pour tout utilisateur
13:42et qui de plus est un utilisateur mineur qui est d'une vulnérabilité spécifique.
13:47C'est ça. Donc évidemment qu'eux vont avoir un discours qui consistera à dire que ce n'est pas leur contenu, mais
13:55ce n'est plus possible de raisonner ainsi aujourd'hui, à l'heure de TikTok et des autres
14:00entreprises de réseaux sociaux, vu la viralité et la puissance de l'algorithme qu'ils ont mis en place.
14:07On l'a vu, les parents, les jeunes filles qui ont utilisé TikTok,
14:13qui utilisent TikTok, elles sont exposées à des contenus mortifères, à des vidéos qui font la promotion de l'automutilation,
14:20qui font la promotion du suicide. Est-ce que ces contenus-là, eux,
14:27peuvent tomber sous le coup de la loi ? Est-ce que c'est uniquement les contenus ou c'est plus largement
14:32l'hébergeur qui tombe sous le coup de la loi ?
14:35Alors, de toute façon, il faut savoir que paradoxalement, pour pouvoir attirer leurs utilisateurs
14:40dans leur charte d'utilisation, ils disent bien, n'ayez crainte, venez à nous, ces contenus-là n'ont pas
14:48lieu d'être chez nous, ils sont interdits et nous les supprimons. Donc c'est ça qui est en plus
14:54assez drôle de se faire entendre dire aujourd'hui qu'ils font leur maximum pour réguler ces contenus et qui n'existent pas, puisque
15:02ils existent, puisque évidemment mes adolescents y ont été confrontés, et ça tombe sous le coup de la loi,
15:09j'ai envie de dire doublement, puisque eux-mêmes les identifient comme étant manifestement dangereux et illicites,
15:15et ils s'engagent eux-mêmes à vouloir les réguler. Aujourd'hui, il faut juste avoir
15:20pour idée qu'en termes de législation, nous avons le Digital Service Act qui est
15:26une réglementation européenne assez récente, mais très claire sur ces sujets-là, effectivement, et qui
15:31met une pression beaucoup plus accrue sur les entreprises de réseaux sociaux pour que ces contenus soient
15:38censurés systématiquement.
15:41Simplement, aujourd'hui, ce que l'on sent, c'est qu'il n'y a pas encore une véritable
15:45envie commerciale de la part de ces entreprises à véritablement
15:50balayer le sujet.
15:51On comprend les motivations de votre recours, mais il y a une question qui reste en suspens, est-ce que la justice française peut sanctionner
15:57ce réseau social TikTok et chinois ou d'autres
16:00plateformes internationales ?
16:01Alors, elle le peut tout à fait, parce que dans le cadre de son office, ce qu'il lui faut simplement, c'est considérer
16:07si c'est une personne morale ou pas,
16:10juridiquement renseignée comme telle, c'est le cas de TikTok. TikTok a une ramification européenne tout à fait
16:17existante, et cette entreprise, par son action commerciale,
16:23se développe sur notre territoire français, et cause des dommages à des justiciables français.
16:30Donc, par ce principe-là, oui, il est dans l'office du juge français de faire quelque chose.
16:35La question est, en revanche, évidemment, beaucoup plus globale, puisque, comme vous l'avez dit tout à l'heure, on a une action aux Etats-Unis
16:42de la part de plusieurs Etats américains, qui ont d'ailleurs
16:46fait fuiter des documents
16:48internes de TikTok, qui montrent bien que la plateforme elle-même est tout à fait consciente de la
16:53tout à fait conscience de la dangerosité de son produit.
16:56Mais donc, oui, il est vrai que, de toute façon, des recours commencent à avoir le jour à l'international,
17:01et que le sujet n'est pas que français, mais la réponse est oui, évidemment, le juge français est compétent.
17:08Vous en parlez aux Etats-Unis, donc il y a
17:12des recours qui ont été engagés par 14 Etats différents. La commission européenne, en début d'année,
17:18a lancé une enquête pour essayer de comprendre les dangers
17:22auxquels TikTok pouvait exposer ses utilisateurs. J'imagine que toute
17:27cette association de recours, ça vous conforte dans l'idée qu'il faut une meilleure régulation de ces réseaux sociaux pour les plus jeunes ?
17:36Je dirais pas que c'est le contexte géopolitique qui me conforte dans l'idée de faire quelque chose. Je crois que c'est
17:42tous les jours, les mails que je reçois, avec les nouveaux témoignages que je peux avoir, qui me confortent dans l'idée qu'on
17:48touche, dans le juste, effectivement, à cet impératif de régulation. Parce que quand on voit qu'on a des jeunes
17:56qui sont capables, effectivement, de se pendre dans leur chambre
18:00de façon très concrète, parce qu'ils ont appris comment faire un nœud de corde, après avoir visionné une vidéo sur la plateforme,
18:08c'est pas acceptable.
18:11Parmi les solutions, l'exemple de l'Australie, qui vient de fixer l'âge pour accéder aux réseaux sociaux à 16 ans.
18:17Est-ce que c'est une mesure suffisante et est-ce qu'il faut décliner cette mesure, ici, pour protéger les adolescents ?
18:24Alors, il me semble que c'est une bonne mesure, simplement par le seul fait que, physiologiquement, évidemment, plus l'adolescent sera
18:32à un âge avancé, plus il sera capable de prendre du recul sur l'image qu'il reçoit. Parce qu'aujourd'hui, c'est aussi ça la principale
18:39problématique, c'est que, d'un point de vue tout à fait scientifique,
18:42l'enfant et le mineur ne va pas
18:45recevoir l'image et le pouvoir de l'image de la même manière qu'un adulte. Il ne va pas avoir les capacités, de toute façon,
18:51psychique et physiologique, de prendre du recul sur cette image-là. Et il faut toujours bien rappeler,
18:58et c'est ce que mon métier me montre tous les jours avec les mineurs, la réalité virtuelle
19:02et la réalité pour un jeune. Ce n'est pas une réalité virtuelle, vous voyez ? Donc,
19:07évidemment que c'est une mesure qui va dans le bon sens. À mon sens, il ne faut pas s'en contenter,
19:12puisqu'il faut, évidemment, aller vers une régulation absolument
19:17beaucoup plus stricte des plateformes. Je pense qu'un argument qui consisterait à dire que cette régulation n'est pas possible
19:26ne vaut pas, et ne vaut plus, quand on voit que la version, mettons, chinoise de la plateforme TikTok est tout à fait édulcorée et
19:34encadrée. Donc, ces plateformes sont tout à fait en capacité de le faire.
19:38Merci beaucoup. J'ai une dernière question, Maître. Vous accompagnez ces familles, vous en connaissez beaucoup, des familles meurtries
19:45qui voient leurs enfants sombrer.
19:48Est-ce que vous auriez un conseil pour les parents qui nous écoutent, pour justement faire face
19:56au harcèlement que leur enfant peut rencontrer, à cette exposition, à des contenus violents,
20:03mortifères ? Est-ce que vous avez un conseil à leur apporter ?
20:07À mon sens, la spirale est telle que c'est en amont qu'il faut travailler le sujet.
20:13Je pense que donner un portable à un enfant, c'est une vraie éducation au portable.
20:17Il faut vraiment, nous, parents, dans la mesure où nous sommes des générations qui n'avons pas vécu dans ce bain digital
20:24absolument ahurissant, nous nous mettions toujours dans la tête de notre enfant en nous disant qu'ils
20:31ne vont pas recevoir les choses de la même manière. Donc, il y a une vraie éducation au portable. Donc, il y a évidemment un âge
20:37auquel on peut donner un portable et un autre âge où c'est plus dangereux d'en donner un.
20:42Et puis, pareil pour les réseaux sociaux. À mon sens, c'est en amont qu'il faut travailler les choses. Et puis ensuite,
20:47malheureusement, quand la spirale est là,
20:51il n'y a que le dialogue qui pourra éventuellement
20:55aider. Et puis, bien sûr,
20:58maintenant, il faut voir aussi qu'on a plein de
21:00chouettes associations qui proposent des formations aux parents. Donc, voilà, plein de choses se font sur le terrain. Il faut simplement que les parents
21:07soient à l'écoute et qu'ils soient conscients de la dangerosité du sujet.
21:10Merci beaucoup, maître Boutron-Marmon. Merci. Merci beaucoup, Justine Charest. C'était Affaire suivante, le podcast Inédit.