Les députés examinent une proposition de résolution visant à créer une commission d'enquête sur "les effets psychologiques de TikTok sur les mineurs". Ce texte, porté par la députée Laure Miller (EPR), doit acter la création d'une commission d'enquête qui sera ensuite chargée de faire le point sur les risques liés à l'exposition des jeunes aux contenus dangereux diffusés sur la plateforme et à l'addiction numérique qu'elle engendre, afin de proposer des mesures pour améliorer leur protection.
Catégorie
🗞
NewsTranscription
00:00:00Bonjour à tous, ravie de vous retrouver au cœur de l'Assemblée nationale.
00:00:11A l'ordre du jour, un sujet grave, sensible, les effets psychologiques de TikTok sur les
00:00:16mineurs.
00:00:17Les députés se prononcent sur la création d'une commission d'enquête, ils veulent
00:00:20comprendre mieux appréhender les risques de certains contenus diffusés sur la plateforme
00:00:26et les jeunes, parfois très jeunes, sont exposés aux contenus dangereux qui engendrent
00:00:31souvent une addiction numérique, voire un abrutissement.
00:00:35Alors la représentation nationale veut améliorer la protection des jeunes, ce sera l'une des
00:00:40missions de cette commission d'enquête et l'un des combats de la députée Laure Mineur.
00:00:44Direction l'hémicycle, la séance est ouverte.
00:00:46J'ai empêché mes enfants d'aller trop sur les réseaux sociaux avant qu'ils n'aient
00:00:4914 ans ou 15 ans et j'ai essayé de suivre ce qu'ils faisaient et je pense qu'il faut
00:00:53en faire plus dans ce domaine, on a été un peu naïfs sur l'impact de ces outils.
00:00:58Cette phrase, c'est Bill Gates qui l'a prononcée lors d'une interview sur France Inter le
00:01:023 février dernier.
00:01:03Il n'est pas le seul acteur majeur du numérique à développer des outils qui captent perpétuellement
00:01:08notre attention d'une part et à en préserver ses propres enfants de l'autre, pour cause.
00:01:14Ils savent ce qui est mis aujourd'hui entre les mains de nos jeunes, de nos enfants et
00:01:18ils en connaissent les conséquences psychologiques.
00:01:20Chers collègues, l'enjeu de l'impact des écrans, de l'accès aux réseaux sociaux
00:01:23pour nos jeunes est devant nous, car cette emprise des écrans, des réseaux sociaux
00:01:27ne fait que grandir et avec elle, les effets néfastes s'amplifient.
00:01:31Plus d'un jeune de 7 à 12 ans sur 3 dispose aujourd'hui d'un smartphone.
00:01:35Le temps d'écran moyen est en constante augmentation.
00:01:3986% des 8-18 ans sont inscrits sur les réseaux sociaux, 82% des 10-14 ans consultent internet
00:01:47sans leurs parents.
00:01:48Un jeune sur deux de 11-12 ans est aujourd'hui inscrit sur l'application TikTok.
00:01:52Voilà pour les chiffres.
00:01:54Pour quel impact ? Dépendance, cyberharcèlement, mauvaise rencontre, baisse de l'estime
00:01:59de soi, sédentarité, isolement.
00:02:01Ainsi, nous sommes à ce paradoxe qui est que les voix sont de plus en plus nombreuses
00:02:06pour dire que les réseaux sociaux ont une influence délétère sur le bien-être psychique
00:02:10des jeunes gens, mais que malgré tout, nos jeunes sont de plus en plus exposés aux dits
00:02:14réseaux sociaux.
00:02:15Parallèlement, la santé mentale des jeunes s'impose aujourd'hui comme un enjeu de santé
00:02:18publique majeur et incontestable.
00:02:21La mission d'information sur la prise en charge des urgences psychiatriques rapportée
00:02:25par nos collègues Nicole Dubréchira et Sandrine Rousseau l'a récemment démontré.
00:02:28Dans ce contexte, le réseau social TikTok incarne un paradoxe particulièrement morbide
00:02:34puisqu'il confronte le public le plus vulnérable au biais de fonctionnements les plus délétères.
00:02:39En effet, pourquoi me direz-vous concentrer les travaux d'une commission d'enquête
00:02:42sur TikTok ? Pour plusieurs raisons.
00:02:44TikTok est certes le dernier-né des réseaux sociaux, mais il a pris une importance fulgurante.
00:02:49TikTok, aujourd'hui, c'est plus de 15 millions d'utilisateurs mensuels en France.
00:02:53Cette importance est exacerbée chez les plus jeunes.
00:02:56Je le disais à l'instant, 63% des enfants de 12 ans possèdent un compte, alors même
00:03:00que le réseau social est normalement interdit aux moins de 13 ans.
00:03:03Contrairement à Facebook et Twitter, où la viralité repose principalement sur le partage
00:03:08manuel et les interactions des utilisateurs, TikTok promeut immédiatement les contenus
00:03:12à un large public sans nécessité d'intervention active.
00:03:15TikTok impose une logique de rapidité avec des vidéos généralement comprises entre
00:03:2015 et 60 secondes et conduit à une addictivité extrêmement singulière.
00:03:24TikTok diffuse massivement des défis viraux, récemment le Paracetamol Challenge, mettant
00:03:29directement en danger la vie de jeunes utilisateurs.
00:03:31TikTok, c'est le réseau social à la politique de modération la plus opaque et probablement
00:03:37la plus inefficace, alors même qu'il se distingue par une amplification de l'exposition
00:03:41aux contenus violents à caractère sexuel et relatif à la souffrance psychique.
00:03:44Chers collègues, l'objectif de cette séance, c'est de vous convaincre d'une part de
00:03:49la recevabilité de cette création d'une commission d'enquête sur les effets psychologiques
00:03:52de TikTok sur les mineurs et d'autre part de son opportunité.
00:03:55Je vous rappelle rapidement quelles sont les conditions de recevabilité des propositions
00:03:59de résolution tendant à la création d'une commission d'enquête.
00:04:02Elles sont énoncées à l'article 6 de l'ordonnance de 58 et aux articles 137 à
00:04:06139 du règlement de l'Assemblée nationale.
00:04:09Elles sont d'ailleurs détaillées dans mon rapport que vous avez sans doute tous reçues.
00:04:13Premièrement, la commission d'enquête doit porter sur des faits précis ou sur la gestion
00:04:17d'un service public.
00:04:18On peut difficilement prétendre que ce n'est pas le cas ici puisqu'il s'agit de se focaliser
00:04:22sur les liens existants entre le parapétrage et les usages d'un réseau social et les
00:04:27répercussions psychiques associées chez une catégorie spécifique d'utilisateurs.
00:04:31L'objet de la commission d'enquête est donc à la fois précis et circonscrit.
00:04:34Deuxièmement, la commission d'enquête ne doit pas porter sur des faits pour lesquels
00:04:37une procédure judiciaire est en cours.
00:04:39Ce point appelle une précision.
00:04:41Comme le rappelle l'exposé des motifs, la société TikTok fait l'objet de poursuites
00:04:44judiciaires mettant en cause la responsabilité du réseau social dans la dégradation de la
00:04:48santé mentale de plusieurs adolescentes et le suicide de deux d'entre elles.
00:04:52Une action en responsabilité encore pendante devant le tribunal judiciaire de Créteil
00:04:55met en cause la société TikTok.
00:04:57Néanmoins, le garde des Sceaux interrogé sur ce point par la présidente de l'Assemblée
00:05:01nationale a précisé par un courrier du 12 février 2025 qu'il n'avait pas connaissance
00:05:06de procédures en cours susceptibles de recouvrir le périmètre de la commission d'enquête
00:05:10parlementaire envisagée.
00:05:11La commission devra toutefois évidemment veiller tout au long de ses travaux à ne
00:05:15pas porter ses investigations sur des faits qui relèvent de la compétence exclusive
00:05:19de l'autorité judiciaire.
00:05:21Troisièmement, la commission d'enquête ne doit pas porter sur un objet pour lequel
00:05:24les pouvoirs d'enquête reconnus aux parlementaires ont été mobilisés au cours des 12
00:05:28derniers mois.
00:05:29Depuis le début de cette nouvelle législature, aucune commission d'enquête n'a porté
00:05:33sur les effets psychologiques des réseaux sociaux ni sur la santé mentale des mineurs.
00:05:36On a eu deux commissions d'enquête qui finalement de manière très indirecte ont pu aborder
00:05:41la santé mentale des mineurs.
00:05:42C'est la commission d'enquête sur les violences commises dans les secteurs du cinéma,
00:05:45de l'audiovisuel et du spectacle vivant et puis une autre que je connais bien pour avoir
00:05:49eu l'honneur de la présider, dont la rapporteure est madame Santiago, et qui porte sur les
00:05:54manquements des politiques publiques de protection de l'enfance.
00:05:56Elles présentent toutes deux un lien vraiment indirect avec l'objet de la présente
00:05:59proposition de résolution.
00:06:01Ensuite, quid désormais de l'opportunité d'une commission d'enquête sur les effets
00:06:05psychologiques de TikTok sur les mineurs, au-delà même des arguments que j'ai d'ailleurs
00:06:08pu développer en préambule.
00:06:10Le Sénat a enquêté sur TikTok avec un travail d'une très grande qualité qu'il faut
00:06:14d'ailleurs remarquer, mais particulièrement sous l'angle des ingérences.
00:06:17Mais cet angle des répercussions psychologiques sur les mineurs n'a pas aidé à aborder
00:06:21de façon très ciblée.
00:06:23Il me semble donc que la commission d'enquête devra s'employer à confirmer ou infirmer
00:06:27les hypothèses formulées par plusieurs études qui constitueront autant d'axes de
00:06:31travail. Parmi les hypothèses de travail, il s'agira notamment de déterminer si
00:06:35l'application propose davantage ou non des contenus dangereux aux individus
00:06:40vulnérables, comme l'affirme une étude récente de décembre 2022.
00:06:44Ainsi, comparativement à des profils standards, les utilisateurs manifestant un
00:06:48intérêt pour les questions de santé mentale seraient douze fois plus exposés à des
00:06:51vidéos traitant du suicide.
00:06:53Si l'application encourage ou non le passage à l'acte suicidaire et
00:06:56l'automutilation, comme le dénonce un rapport récent d'Amnesty International.
00:07:01Si l'application amplifie ou non la mise à disposition des contenus hyper
00:07:04sexualisés qui déstabiliseraient les utilisateurs les plus jeunes et favoriseraient
00:07:08le développement de troubles de dysmophophobie, c'est-à-dire le trouble
00:07:12mental qui affecte la perception de son propre corps et notamment des défauts
00:07:16corporels ou encore les désordres alimentaires, comme l'indique là encore le
00:07:20rapport de la commission d'enquête sénatoriale de juillet 2023.
00:07:23Le dispositif de la présente proposition de résolution souligne qu'il s'agit en
00:07:26contre de proposer des dispositifs concrets et de grande envergure pour
00:07:31protéger nos jeunes.
00:07:32La commission d'enquête aura en particulier vocation à étudier les
00:07:35dispositifs de captation de l'attention utilisée par TikTok ainsi que leurs
00:07:39effets psychologiques en particulier sur les mineurs, d'examiner les risques à
00:07:43l'exposition des jeunes utilisateurs aux contenus dangereux et à l'addiction
00:07:46numérique sur la plateforme et de proposer des mesures concrètes visant à
00:07:49protéger les mineurs, notamment en matière de régulation des contenus, de
00:07:52sécurité numérique et de modération des pratiques de la plateforme.
00:07:56Au terme de cet exposé, je pense que nous pouvons considérer que ni
00:07:59recevabilité ni l'opportunité de la proposition de résolution que je vous
00:08:02présente aujourd'hui ne font débat, ce dont atteste le nombre d'ailleurs
00:08:06important d'amendements que vous avez déposés.
00:08:07Mes chers collègues, notre vote intervient alors qu'en
00:08:10Albanie, les fournisseurs d'accès à Internet ont l'obligation ce jour de
00:08:14bloquer l'accès à TikTok sur tout le territoire.
00:08:16Cette décision très forte prise en décembre après une large consultation
00:08:19de plusieurs dizaines de milliers de parents et d'enseignants fait suite à
00:08:23la mort d'un élève de 14 ans après un conflit sur, précisément, ce réseau
00:08:26social. Si cette décision intervient en Albanie précisément aujourd'hui,
00:08:30vous le savez et vous le voyez, la question est posée dans un nombre
00:08:33croissant de pays dans le monde.
00:08:34Je remercie les députés qui sont ici présents et qui sont impliqués sur ce
00:08:39sujet et je pense que nous avons tous la même conviction.
00:08:41Notre Assemblée doit mener ses travaux pour porter politiquement ce
00:08:44message fort de l'impact direct de TikTok sur la santé mentale de nos
00:08:48jeunes, d'une part, et d'autre part sur la nécessité de trouver des
00:08:51solutions concrètes pour protéger nos enfants.
00:08:54Je vous appelle donc, chers collègues, à voter cette
00:08:56proposition de résolution modifiée par trois amendements qui ont d'ailleurs
00:08:59été adoptés la semaine dernière en commission et à participer
00:09:02activement à ces travaux pour aborder lors des auditions l'ensemble
00:09:05des points qui vous intéressent.
00:09:07Je vous remercie.
00:09:09Je vous remercie, Madame la rapporteure.
00:09:10Nous entrons dans la discussion générale et la parole est à Madame
00:09:13Marie Lebec pour le groupe Ensemble pour la République.
00:09:16Madame la Présidente, Madame la rapporteure,
00:09:20chers collègues, je souhaite remercier notre collègue
00:09:22Lord Miller pour amener au cœur de notre hémicycle un sujet essentiel
00:09:25pour la protection des jeunes qui sont quotidiennement confrontés à la
00:09:29violence que peuvent être les réseaux sociaux.
00:09:31La santé mentale est la grande cause nationale 2025.
00:09:34L'une des priorités de cette année est notamment le développement de
00:09:37la prévention et du repérage précoce.
00:09:39Cette proposition de résolution s'inscrit pleinement dans ses
00:09:41objectifs.
00:09:42En effet, dans cette perspective de prévention,
00:09:44nous devons être particulièrement attentifs aux jeunes populations.
00:09:47Selon Santé publique France, la santé mentale des 11-17 ans s'est
00:09:50plus particulièrement dégradée entre 2018 et 2022.
00:09:52Ce sont aussi environ 15% des collégiens et des lycéens qui
00:09:56présentent un risque important de dépression.
00:09:58Par ailleurs, 90% des 12-17 ans déclarent posséder un téléphone
00:10:02mobile selon l'ARCEP et le temps moyen hebdomadaire passé sur
00:10:05Internet pour les 13-19 ans est de plus de 15 heures.
00:10:08C'est ce qu'il faut faire pour protéger les jeunes et les
00:10:10adultes.
00:10:11C'est un chiffre qui doit nous alerter et nous inciter à réfléchir
00:10:15sur la manière de prévenir les troubles psychologiques que peuvent
00:10:17créer les écrans chez nos enfants et nos jeunes.
00:10:20TikTok est une application mobile qui compte près de 22 millions
00:10:22d'utilisateurs actifs par mois en moyenne.
00:10:24Elle fait également l'objet de critiques régulières quant au
00:10:27manque d'encadrement dont elle fait l'objet et au mésusage des
00:10:29données des utilisateurs et à la désinformation massive qui peut y
00:10:33circuler.
00:10:34Les jeunes utilisateurs qui y passent en moyenne 1h47 par jour
00:10:37ne sont pas toujours armés face à cette réalité.
00:10:39Nous pouvons donc légitimement interroger les conséquences de
00:10:42cet usage sur leur santé mentale.
00:10:44Dans ce contexte, proposer la création d'une commission
00:10:46d'enquête sur les effets psychologiques de TikTok sur les
00:10:49mineurs apparaîtrait tout à fait utile.
00:10:51En effet, cela permettra d'évaluer précisément l'impact négatif du
00:10:54réseau social sur le développement de la santé mentale des plus
00:10:57jeunes.
00:10:58Les modifications apportées en commission viennent préciser le
00:11:00champ de la commission d'enquête sans dénaturer son objectif.
00:11:03Cette future commission sera un véritable outil afin d'identifier
00:11:06des risques liés à son utilisation et d'envisager des mesures
00:11:09permettant de protéger les jeunes de ces risques.
00:11:11Dans ce contexte, le groupe Ensemble pour la République
00:11:13soutiendra cette proposition de résolution.
00:11:15Je vous remercie.
00:11:16Je vous remercie Madame la députée.
00:11:18La parole est à Monsieur Arnaud Saint-Martin pour le groupe
00:11:20La France insoumise, Nouveau Front populaire.
00:11:23Madame la Présidente, Madame la rapporteure, collègues,
00:11:26TikTok, le phénomène est massif, le scroll est infini.
00:11:30Initier une commission d'enquête sur ses effets psychologiques sur
00:11:33les mineurs est donc une bonne chose,
00:11:34car le problème mérite examen, mais nous ne validerons pas cette
00:11:38initiative sans signaler différentes marges de progression
00:11:41et des biais de cadrage qui me paraissent préjudiciables.
00:11:43Premièrement, quand bien même il reste des zones d'ombre,
00:11:47les effets toxiques liés à l'usage de l'application sont dorénavant
00:11:49connus.
00:11:50Le dispositif algorithmique rend viraux des contenus brefs et
00:11:54vérolés, désinformation, manipulation sémantique, trucage
00:11:57visuel et sonore.
00:11:58TikTok est, comme bien d'autres réseaux sociaux numériques,
00:12:01un cloaque informationnel.
00:12:03Défilement infini, dark patterns, enfermement dans des bulles de
00:12:06filtres, là aussi, les sphères de l'influence sont sans limite.
00:12:10Elles encouragent aussi les suggestions marchandes des
00:12:11publicitaires.
00:12:13Elles façonnent des perceptions et des désirs,
00:12:16quelles que soient les générations.
00:12:17On pourrait multiplier les exemples d'usages problématiques
00:12:20de contenus destructeurs.
00:12:22TikTok a ainsi été poursuivi en justice aux États-Unis en 2022,
00:12:25à la suite de la mort de deux jeunes filles de 8 et 9 ans,
00:12:28embrigadées dans le Blackout Challenge, où défi de
00:12:30l'étouffement jusqu'à l'évanouissement est l'as mortel
00:12:32dans ces deux cas.
00:12:34De tels drames et d'autres, dont deux suicides d'adolescentes
00:12:37en France, ont suscité des vagues d'émotions et des
00:12:40assignations en justice.
00:12:42On sait également combien le cyber harcèlement prolifère et
00:12:44atteint à l'intégrité d'utilisateurs jetés à la vindicte
00:12:47des trolls.
00:12:48On en conviendra pourtant, tout n'est pas à jeter.
00:12:50On pourrait aussi mentionner les usages qui rivalisent souvent
00:12:53d'audaces dans la construction de formats qui alternent entre
00:12:56le divertissement, l'information au grand public, la vulgarisation
00:12:58de sujets complexes, les créations artistiques,
00:13:01la mise en scène décalée ou l'ostentation de soi ludique.
00:13:05Mais en l'état, cela ne doit pas détourner,
00:13:07évidemment, de l'exigence critique et de la nécessité de réguler.
00:13:11Deuxièmement, une limite que nous avons largement signalée
00:13:15en commission, que je signalerai encore,
00:13:17pourquoi n'envisager que les seuls effets de TikTok ?
00:13:20Les GAFAM X, Etats-Unis, sont tout aussi experts en
00:13:23matière de développement et de renforcement de pratiques
00:13:26dangereuses et addictives.
00:13:28Si l'enjeu est d'évaluer les formes et facteurs
00:13:30d'addiction numérique, y compris vers les jeunes,
00:13:33alors on ne voit pas pourquoi il faudrait isoler TikTok
00:13:34du reste des plateformes.
00:13:36Ce sont les mêmes mécanismes de consommation compulsive
00:13:38qui sont à l'œuvre, les mêmes stratégies de propagande,
00:13:41voire parfois en pire.
00:13:42Parce que l'on peut toujours pointer du doigt les autorités
00:13:45chinoises, sublimées dans l'algorithme captivant,
00:13:48mais c'est tout aussi problématique pour notre souveraineté
00:13:50de laisser les enfants céder aux sirènes de X,
00:13:53dont le PDG sévit au sein de l'administration Trump.
00:13:56Les contenus engrammés par l'algorithme musquisé de X
00:14:00sont tout aussi dévastateurs de l'attention,
00:14:02voire pire puisqu'ils propagent l'idéologie nauséabonde
00:14:04de leurs détenteurs.
00:14:06Mais c'est finalement le but politique de cette proposition
00:14:08de résolution qui interroge au premier chef.
00:14:12On le voit bien, c'est un des sujets clivants du moment
00:14:15pour bien des familles.
00:14:16Moralement paniquées, les parents, tout aussi connectés,
00:14:19se trouvent souvent bien démunis pour faire face au souhait
00:14:22de leur enfant de disposer d'un smartphone,
00:14:25lequel peut, lorsqu'il est surutilisé,
00:14:28faire écran à d'autres activités sociales.
00:14:31Hasard, coïncidence, TikTok vient tout juste d'annoncer
00:14:35qu'il promet de responsabiliser davantage les familles
00:14:38dans l'utilisation de la plateforme par les enfants
00:14:40et de les discipliner par des limites internes à l'application.
00:14:45Une réponse nettement insuffisante et je dirais même hypocrite.
00:14:50Enfin, troisièmement, j'en viens au titre de la proposition.
00:14:53Plutôt que de signaler des effets psychologiques de l'utilisation
00:14:55des réseaux sociaux, je proposerai d'utiliser la notion
00:14:58plus extensive de risques psychosociaux.
00:15:00L'objectif de cette suggestion sera de souligner le caractère
00:15:03intrinsèquement social de ces usages.
00:15:05Les écrans sont des vecteurs techniques de sociabilité,
00:15:07de socialisation et c'est leur potentiel de transformation
00:15:10ou d'altération des interactions sociales qui nous intéressent
00:15:13au premier chef.
00:15:15Seul ensemble, pour reprendre la formule de la psychologue
00:15:18et anthropologue Sherry Turkle, les utilisateurs entrent
00:15:21dans des relations en ligne et ce sont précisément
00:15:24ces réseaux de sociabilité que les mastodontes du capitalisme
00:15:27numérique et de surveillance espèrent capter et exploiter.
00:15:31Finalement, il sera indispensable de surmonter le stade
00:15:34du diagnostic, d'aller plus loin que les travaux parlementaires
00:15:37qui ont ouvert la voie ces dernières années,
00:15:39on ne parle pas de rien.
00:15:40Il faudra aller au-delà de l'incantation et le risque est grand
00:15:45que l'on n'apprenne finalement que très peu de choses
00:15:46que l'on ne savait pas déjà et qu'entre temps,
00:15:50la situation est empirée.
00:15:52C'est pourquoi il faudra bien évaluer,
00:15:54y compris les conséquences des mesures qui s'imposent.
00:15:58Imaginons par exemple que l'application soit prohibée
00:16:00pour X raisons.
00:16:02Au vu de l'encastrement social profond des technologies
00:16:05numériques, il y a fort à parier qu'une autre application
00:16:08remplirait le vide.
00:16:10Autrement dit, c'est un besoin socialement,
00:16:12culturellement, économiquement et le cas échéant
00:16:14politiquement construit sur lequel il faut agir à la racine.
00:16:17En résumé, je finis là-dessus.
00:16:19Il faut vraiment se donner les moyens de concevoir
00:16:20des alternatives des marchandises à l'hypersollicitation
00:16:24des plateformes GAFA-MIX et de TikTok.
00:16:27Faute de quoi, on n'aura pas fini d'initier
00:16:28des commissions en quête de leur objet.
00:16:31Merci.
00:16:32Je vous remercie, Monsieur le député.
00:16:33La parole est à Monsieur Arthur Delaporte,
00:16:35collègue socialiste et apparenté.
00:16:42Madame la Présidente, Madame la rapporteure,
00:16:44chers collègues,
00:16:46TikTok est une machine à sous de dopamine.
00:16:49Vous savez, la dopamine, c'est ce neurotransmetteur du plaisir.
00:16:54L'application balance des shots de plusieurs ingrédients
00:16:58qui permettent de libérer la dopamine.
00:17:00Vidéo hypnotisante, musique addictive,
00:17:03danse, contenu personnalisé.
00:17:07Le problème, la dopamine est libérée à l'activation
00:17:10du circuit de la récompense qui n'est initialement
00:17:12pas destinée au visionnage et au défilement des vidéos
00:17:16sans but précis.
00:17:17A l'instar de l'alcool, des drogues ou des jeux d'argent,
00:17:19la libération de la dopamine sur TikTok altère en parallèle
00:17:23d'autres systèmes cérébraux, notamment dans la régulation
00:17:26des émotions et du bien-être.
00:17:28La pratique addictive sur l'application n'est alors plus
00:17:31réalisée par plaisir, mais pour sortir d'un état
00:17:35émotionnel négatif.
00:17:37Je propose, chers collègues, une expérience.
00:17:40Ouvrez TikTok sur vos téléphones.
00:17:42Tapez les mots clés TikTok et dopamine dans la barre
00:17:46de recherche de l'application et vous tomberez sur cette vidéo
00:17:49d'une influenceuse likée 110 000 fois qui explique
00:17:52son besoin irrépressible de dopamine qui affecte
00:17:56son comportement.
00:17:57Les vidéos, nous dit-elle, je n'arrive pas à les écouter
00:18:00en vitesse normale. Je ne peux plus regarder de films ou séries.
00:18:02Je préfère passer quatre heures sur TikTok.
00:18:06Les 2000 commentaires que vous verrez sous la vidéo sont
00:18:08tout aussi affolants.
00:18:10Certains ayant regardé cette vidéo en accéléré, d'autres exprimant
00:18:14leur impossibilité de couper cette application ou encore
00:18:17ne pouvaient même plus écouter les gens parler.
00:18:21On le sait, les travaux de recherche sont nombreux.
00:18:24Ils analysent cette addiction à l'application et d'ailleurs,
00:18:28l'application elle-même le sait puisque des documents ont été
00:18:31révélés aux Etats-Unis.
00:18:32Leur teneur est édifiante.
00:18:33Elle nous dit que l'utilisation compulsive de TikTok,
00:18:37c'est TikTok qui le dit, est liée à une série d'effets
00:18:39négatifs sur la santé mentale, comme une perte de capacité
00:18:42d'analyse. Elle pénalise la formation à la mémoire,
00:18:44l'aptitude à la contextualisation, à la conversation, à l'empathie.
00:18:49Question santé, évidemment, les effets sont aussi gratinés.
00:18:54Que dire de cette vidéo likée 135 000 fois qui vante l'utilisation
00:18:58d'une poudre coupe-fin ?
00:19:00De cette vidéo qui traite d'un remède, faux remède, dont votre
00:19:03médecin ne vous parlera jamais, tout simplement parce qu'il est
00:19:05néfaste pour la santé ?
00:19:07De ces vidéos qui apprennent à se scarifier ou à se mutiler sans
00:19:12éveiller de soupçons.
00:19:13C'est d'ailleurs cela qui a notamment conduit à ce que des
00:19:16jeunes se suicident réellement.
00:19:18Et c'est d'ailleurs l'objet d'une plainte qui a été introduite en
00:19:21justice par le collectif Algos Victima qui se mobilise sur les
00:19:25dangers de cette application.
00:19:28Ces vitaleos sont alors au début d'une spirale que l'on connaît,
00:19:31la fonction algorithmique.
00:19:33Il suffit d'aimer une vidéo triste pour que son fil se transforme
00:19:36en champ de vidéo encourageant la tristesse ou l'état dépressif.
00:19:40Bien sûr, TikTok n'a pas pour seule vocation à proposer ce genre
00:19:43de contenu, mais à maintenir l'utilisateur sur sa plateforme.
00:19:47Le système économique, le modèle économique de TikTok repose
00:19:51sur la manipulation et sur l'addiction et les effets sur les
00:19:54jeunes sont délétères.
00:19:56Il suffit de tenter une autre expérience, chers collègues,
00:19:59de se rendre dans une classe de primaire en CM1, CM2, par exemple.
00:20:03Vous demanderez aux enfants combien ont un compte TikTok.
00:20:07Et vous demanderez à ceux-là combien ont déjà vu des contenus
00:20:10choquants sur TikTok.
00:20:11Et vous verrez qu'il y en a au moins 4 ou 5 sur une vingtaine d'enfants.
00:20:18TikTok n'est autorisé qu'à partir de 13 ans.
00:20:21C'est le cas pour l'ensemble des réseaux sociaux.
00:20:24Je voudrais également évoquer d'autres effets que l'on peut observer
00:20:27sur TikTok, ce qu'on pourrait qualifier de mendicants techniques
00:20:30à l'oeuvre sur cette plateforme, à travers notamment les lives
00:20:32et les matchs.
00:20:33Depuis plusieurs mois, j'alerte sur ce phénomène très
00:20:36inquiétant où des utilisateurs et parfois des enfants versent
00:20:39jusqu'à plusieurs centaines d'euros à des influenceurs qui s'affrontent
00:20:42en direct pour récolter un maximum de cadeaux à coup de cri,
00:20:46en citant les pseudos des donateurs afin de générer des effets
00:20:49d'appartenance à une communauté.
00:20:52L'influenceur empoche la moitié du cadeau, TikTok l'autre moitié.
00:20:57TikTok est donc devenu une sorte de casino qui ne cite pas son nom,
00:21:01excepté la possibilité d'un gain financier.
00:21:03La seule récompense, c'est la reconnaissance.
00:21:06En commission, la semaine dernière, j'évoquais avec vous le cas
00:21:09de Julien Tanti qui récolte régulièrement des dons de sa
00:21:12communauté et qui, fruit du hasard et de la loi influenceur,
00:21:15a été sanctionné la semaine dernière par la DGCCRF pour des publications
00:21:19sur Instagram qui vantaient le copy trading que des mineurs ont vu
00:21:23et qui promettent l'illusion d'une richesse accessible à moindre frais.
00:21:27Sur la question de la fiscalité aussi, des zones d'ombre persistent
00:21:32face à ce géant du numérique.
00:21:34D'autres zones d'ombre, c'est la question de l'algorithme
00:21:37en matière électorale.
00:21:38Le cas de la Roumanie nous l'enseigne.
00:21:41Vous l'aurez compris, chers collègues, le groupe socialiste
00:21:43soutiendra avec la plus grande vigueur cette création d'une
00:21:45commission d'enquête pour un environnement numérique plus sain.
00:21:50Je vous remercie, monsieur le député.
00:21:51La parole est à monsieur Jean-Claude Raud pour le groupe écologiste et social.
00:21:56Madame la Présidente, Madame la rapporteure, chers collègues,
00:22:00le groupe écologiste et social tient tout d'abord à saluer le
00:22:03travail de madame la rapporteure, Laure Miller, sur la mise en place
00:22:06d'une commission d'enquête sur les impacts psychologiques de TikTok
00:22:09sur les mineurs.
00:22:11Le rapport sur les urgences psychiatriques de nos collègues
00:22:13Sandrine Rousseau et Nicole Dubré-Chiral le démontre.
00:22:17Les chiffres de la souffrance psychique des jeunes explosent.
00:22:22Les tentatives de suicide chez les adolescentes ont augmenté de
00:22:25133% depuis 2020 et la consommation de psychotropes chez les
00:22:30jeunes grimpe en flèche.
00:22:33Et partout, la question des réseaux sociaux et de leur influence sur
00:22:37la vie des jeunes inquiète les familles et les professionnels
00:22:41de santé.
00:22:42TikTok est un cas emblématique et particulier.
00:22:46Il n'est pas un réseau social comme les autres.
00:22:49Son algorithme capte les jeunes comme aucun autre.
00:22:531h47 par jour en moyenne pour les 4-18 ans, j'ai bien dit 4-18 ans.
00:22:59Des vidéos taillées sur mesure pour attirer l'attention,
00:23:03pour capturer même l'attention en alternant dopamine et frustration
00:23:06avec pour conséquence une concentration en miettes,
00:23:10une mémoire éclatée, un sommeil en sursis.
00:23:14Mais surtout, TikTok glorifie l'apparence et la performance.
00:23:19Il impose des standards inatteignables.
00:23:22Il intensifie la comparaison sociale.
00:23:25Il déforme la perception du corps et entretient une pression permanente.
00:23:31Résultat, une montée en flèche de l'anxiété, une explosion des cas
00:23:35de dysmorphophobie et de troubles alimentaires, en particulier
00:23:40chez les jeunes filles. Et ce n'est pas tout.
00:23:44À travers son effet de bulle, TikTok accentue la vulnérabilité
00:23:47de certains jeunes.
00:23:48Des études révèlent que celles et ceux déjà en détresse reçoivent
00:23:53jusqu'à 12 fois plus de contenus liés au suicide et à l'automutilation
00:23:58que les autres. Alors que la plateforme se vante de rapprocher
00:24:03la jeunesse, en réalité, elle rapproche trop souvent de nombreux
00:24:08jeunes de l'autodestruction.
00:24:11Et finalement, que dire de la haine en ligne ?
00:24:14Elle est omniprésente.
00:24:15Elle détruit l'estime de soi.
00:24:18Elle enferme dans la peur et l'isolement.
00:24:20Elle ne concerne pas que les jeunes, mais pour elles, pour eux,
00:24:23elle arrive au pire moment, celui où on construit son identité.
00:24:29Même si cela est hors du champ de la présente proposition de
00:24:33résolution, comment parler de TikTok sans évoquer les risques
00:24:36d'ingérence étrangère ?
00:24:39Sans régulation, sans modération, les réseaux sociaux peuvent,
00:24:42nous l'avons évoqué, constituer un danger pour la santé
00:24:45psychologique, mais aussi nuire gravement à notre santé
00:24:49démocratique.
00:24:51À l'heure où la scène internationale connaît des
00:24:53bouleversements d'alliances, nous devons aussi protéger
00:24:56notre société des volontés néfastes de déstabilisation et
00:25:01garantir l'intégrité de l'information.
00:25:05Pour autant, ne tombons pas dans une caricature conservatrice
00:25:09des réseaux sociaux.
00:25:10Ils peuvent aussi, nous le savons, être des espaces
00:25:13d'émancipation, d'information et de création.
00:25:17Je pense bien sûr aux témoignages massifs du mouvement
00:25:20MeToo, MeToo Gay, MeToo Incest ou encore Black Lives Matter,
00:25:24qui ont rendu concrète et visible par toutes et tous l'ampleur
00:25:29des violences sexistes et sexuelles ou du racisme systémique
00:25:34dans notre société.
00:25:36Je pense bien sûr aux médias en ligne qui traitent de thèmes
00:25:39jusque-là invisibilisés par des personnes parfois exclues du
00:25:44champ du pouvoir médiatique.
00:25:46Elles participent ainsi au nécessaire pluralisme
00:25:50de l'information.
00:25:52Je pense enfin à toute la création artistique rendue
00:25:55accessible et moins élitiste, à toute cette jeunesse créatrice
00:25:59qui trouve le moyen de s'extraire des codes et de sortir
00:26:04des sentiers battus.
00:26:06Si nous voulons que les réseaux sociaux puissent être
00:26:08vertueux pour les individus et pour la société,
00:26:11nous avons besoin de preuves et d'éléments concrets pour
00:26:16armer notre action et encadrer les algorithmes,
00:26:19limiter l'exposition au contenu toxique et exiger une véritable
00:26:24responsabilité des plateformes pour qu'enfin la représentation
00:26:28nationale passe à l'action.
00:26:31Avec mon groupe écologiste et social,
00:26:33nous soutenons donc pleinement la création de cette commission
00:26:37d'enquête et attendons avec exigence ses conclusions.
00:26:41Allez-y, Monsieur Moulia.
00:26:46Merci Madame la Présidente, Madame la rapporteure,
00:26:50chers collègues.
00:26:52Le phénomène TikTok nous rappelle à quel point les réseaux sociaux
00:26:55modernes peuvent exercer une influence profonde sur la
00:26:58psychologie des jeunes.
00:27:00Nous constatons que les effets observés,
00:27:03qu'il s'agisse d'addiction, de troubles de l'attention,
00:27:06de dégradation de l'estime de soi, de risques pour la santé mentale
00:27:11ou de perturbations des interactions sociales,
00:27:14sont en partie le reflet de problématiques communes à l'ensemble
00:27:18des réseaux sociaux, mais que TikTok tend à les
00:27:22exacerber par la nature de son format et de son algorithme.
00:27:26Ces constats sont d'autant plus alarmants que des études
00:27:30scientifiques récentes montrent que la consommation excessive de
00:27:33contenus courts, régulièrement renouvelés et adaptés aux
00:27:37préférences des utilisateurs, impactent la capacité de
00:27:40concentration des jeunes esprits.
00:27:43D'autres plateformes telles qu'Instagram, YouTube et Snapchat
00:27:48fonctionnent également avec des algorithmes de recommandation
00:27:51conçus pour maximiser le temps passé sur leurs interfaces.
00:27:56Cependant, ce qui différencie TikTok, c'est la puissance de son
00:28:00système de personnalisation qui analyse en quelques secondes
00:28:05les intérêts des utilisateurs et les plonge dans un cycle
00:28:08de consommation continue.
00:28:10L'utilisation quotidienne de TikTok chez les adolescents est en
00:28:14moyenne supérieure de 40% à celle des autres réseaux sociaux,
00:28:18accentuant les risques évoqués.
00:28:21L'un des objectifs majeurs de cette commission sera d'analyser
00:28:25la responsabilité des plateformes en matière de protection
00:28:27des mineurs.
00:28:29Plusieurs pays ont déjà amorcé des régulations dans ce domaine.
00:28:34La Chine, pays d'origine de TikTok, impose par exemple une
00:28:38limite de 40 minutes par jour aux utilisateurs de moins de 14 ans
00:28:42via son application locale Douyin.
00:28:45A l'inverse, l'Europe reste encore en retard dans l'encadrement
00:28:49des usages, malgré l'adoption du règlement sur les services
00:28:52numériques qui vise à renforcer la transparence des algorithmes
00:28:55et des contenus promus.
00:28:57Le défi est de taille, mais les bénéfices en valent la peine.
00:29:00Il en va du bien-être d'une génération qui grandit avec un flux
00:29:04vidéo infini dans la poche.
00:29:07Transformer ce flux en un allié, plutôt qu'en un piège,
00:29:10est un impératif sociétal.
00:29:13Les premiers pas ont été faits, y compris par la plateforme elle-même.
00:29:17Mais un cadre renforcé reste nécessaire pour adapter nos outils
00:29:22numériques à l'humain, et non l'inverse.
00:29:25Ce texte va dans le sens de l'engagement du groupe Horizon
00:29:28et indépendants pour une reprise en main de la régulation des
00:29:32services numériques chez les enfants.
00:29:34Déjà proposé avec la loi du 7 juillet 2023,
00:29:37visant à instaurer une majorité numérique à 15 ans et dont nous
00:29:41attendons toujours la publication des décrets d'application.
00:29:45Pour toutes ces raisons, le groupe Horizon et indépendants
00:29:48partage l'opportunité de création de cette commission d'enquête.
00:29:51Nous avons la responsabilité d'agir aujourd'hui pour offrir
00:29:54aux générations futures un espace digital plus sûr,
00:29:58plus éthique et adapté à leur développement.
00:30:01Je vous remercie.
00:30:02Je vous remercie Monsieur le député.
00:30:04La parole est à Monsieur Frédéric Petit pour le groupe Les Démocrates.
00:30:10Madame la Présidente, Madame la Ministre,
00:30:12Madame la rapporteure, chers collègues,
00:30:14Jean-Noël Barraud, alors ministre délégué chargé du numérique,
00:30:18avait déclaré à propos du réseau social TikTok
00:30:22« La promesse initiale d'un algorithme permettant la
00:30:24découverte du monde et des contenus culturels n'est pas tenue.
00:30:29Au contraire, nous sommes face à un algorithme d'enfermement.
00:30:35Nous examinons aujourd'hui une proposition de résolution tendante
00:30:38à la création d'une commission d'enquête sur les effets
00:30:40psychologiques de TikTok sur les mineurs.
00:30:44Cela me mène en tant que démocrate à une réflexion plus globale,
00:30:48posée et exprimée de la manière suivante.
00:30:51TikTok forme-t-il des jeunes citoyens éclairés ?
00:30:55Participe-t-il à la construction de nos jeunes ou bien renforce-t-il
00:31:00des troubles mentaux déjà nombreux après la pandémie du Covid ?
00:31:06Je vous rappelle mes chers collègues que ceux qui votent,
00:31:09les premiers votants d'aujourd'hui sont ceux qui étaient en
00:31:12quatrième, troisième seconde au moment du Covid.
00:31:15Je pense que nous avons, sur le plan psychologique,
00:31:17raté aussi une observation de voir comment on sort de cette
00:31:21extraordinaire, extraordinaire, dans le sens que ça n'est jamais
00:31:23produit dans l'histoire, qu'on est une génération d'adolescents
00:31:26enfermés pendant plusieurs mois.
00:31:30Déjà en 2023, le Sénat s'interrogeait sur l'utilisation
00:31:34du réseau TikTok, son exploitation et ses données et sa
00:31:37stratégie d'influence à travers une commission d'enquête.
00:31:40Parmi ses recommandations finales figurait la mise en place d'un
00:31:43véritable système de vérification de l'âge et l'instauration
00:31:46d'un blocage de temps pour les mineurs.
00:31:49Les jeunes sont de plus en plus jeunes à utiliser ce réseau.
00:31:53Les enfants de 4, je dis bien de 4 à 18 ans,
00:31:57y passent en moyenne 1h47 par jour.
00:32:00Et ce, alors que l'application est interdite aux moins de 13
00:32:02ans en France.
00:32:05Aujourd'hui, 70% des utilisateurs de TikTok en France sont moins
00:32:09de 24 ans et 40% des jeunes entre 16 et 25 ans utilisent
00:32:13TikTok quotidiennement.
00:32:16TikTok est un algorithme très addictif avec du contenu
00:32:20personnalisé dans une catégorie nommée Pour toi.
00:32:23Issu d'un algorithme puissant, il a pour conséquence d'enfermer
00:32:27les gens dans des bulles de filtres.
00:32:30Comme c'est le cas sur X, depuis que la plateforme a été
00:32:33reprise par Elon Musk.
00:32:35Cet algorithme permet à TikTok de déduire des caractéristiques
00:32:39et des centres d'intérêt sur ses utilisateurs.
00:32:42Le réseau social chinois catégorise ainsi ses utilisateurs
00:32:45dans un profil psychologique, comme le relevaient nos
00:32:49collègues précédemment.
00:32:53Catégoriser ainsi de jeunes mineurs en pleine construction,
00:32:57c'est les enfermer dans un monde clos.
00:33:01La réalité, c'est quand je me cogne, disait Lacan et nous
00:33:05protégeons, nous enfermons dans un endroit confortable,
00:33:09mais dans un endroit qui n'est pas la réalité, à un moment
00:33:12de leur existence où nos jeunes doivent découvrir la réalité.
00:33:17Donc à la question, est ce que TikTok participe à former
00:33:20des jeunes citoyens éclairés?
00:33:23Nous devons aussi garder à l'esprit qu'il s'agit
00:33:25d'un réseau chinois.
00:33:26Nous en avons parlé et qu'il y a des luttes d'influence.
00:33:31Au-delà des nombreux cas de désinformation dont les jeunes
00:33:34peuvent être les premières victimes, TikTok a également
00:33:37pour caractéristique de les enfermer.
00:33:39Son algorithme a une tendance à réduire la visibilité des
00:33:42contenus qui pourraient effectivement les faire sortir,
00:33:46même si c'est moins confortable, ce qu'on appelle du show
00:33:49banning, ou au contraire en pousser d'autres.
00:33:53C'est participer au renfermement, au manque d'ouverture,
00:33:57à des cultures et à des confrontations avec des pensées
00:34:00nouvelles et évidemment à des difficultés dans ces relations
00:34:03sociales, si on peut encore appeler ça des relations sociales.
00:34:07En 2023, l'OMS a déclaré que la solitude, la solitude était
00:34:12une menace urgente pour la santé mondiale, avec des effets
00:34:15aussi néfastes que de fumer 15 cigarettes par jour.
00:34:19Dans des périodes clés de leur développement,
00:34:22les mineurs, que ce soit dans leur jeune enfance ou à
00:34:24l'adolescence, il est fondamental qu'ils soient poussés vers
00:34:27l'extérieur, poussés vers le réel pour faire leurs propres
00:34:30expériences de vie, à la découverte réelle du monde qui
00:34:34les entoure, vers le développement de relations sociales
00:34:37nouvelles, façonner sa propre ouverture plutôt que de subir
00:34:40une fermeture au sein de sa propre bulle numérique préconçue
00:34:44par un algorithme.
00:34:47En conclusion, le groupe démocrate souhaite que cette
00:34:49commission nous permette d'éclaircir si ce réseau social
00:34:52contribue à nourrir cette souffrance psychologique
00:34:56chez nos jeunes.
00:34:57Nous voterons donc en faveur de cette PPR.
00:34:59Je vous remercie.
00:35:01Je vous remercie, Monsieur le député.
00:35:03La parole est à Madame Constance de Pellissier pour le groupe
00:35:05Liberté indépendant Outre-mer et Territoire.
00:35:11Merci, Madame la Présidente, Madame la rapporteure,
00:35:14chers collègues.
00:35:16Si nous sommes les dernières générations pré-Internet,
00:35:19nos enfants, eux, sont nés avec Internet et avec
00:35:23les réseaux sociaux.
00:35:25Contrairement à nous, ils n'ont pas connu l'époque où nos
00:35:28téléphones portables ne servaient qu'à appeler ou à envoyer
00:35:31des messages.
00:35:33Sitôt qu'ils obtiennent leur premier téléphone,
00:35:35généralement au collège, quand ce n'est pas plus tôt,
00:35:39ils ont accès à un nombre incalculable d'applications et de
00:35:42plateformes en ligne où les contenus sont peu,
00:35:44voire pas modérés et rarement adaptés à leur âge.
00:35:48Bien sûr, nous avons déjà légiféré pour prévenir les dérives
00:35:51associées à l'usage des réseaux sociaux par les plus jeunes,
00:35:53que ce soit au travers du contrôle parental ou plus
00:35:56drastiquement en interdisant l'accès aux moins de 13 ans.
00:35:59Mais nous le savons, ces protections ne suffisent pas et
00:36:02sont aisément contournées dans la pratique.
00:36:05Parmi les nombreuses plateformes existantes sur le marché,
00:36:09il en est une qui se démarque, car omniprésente chez les jeunes.
00:36:12Il s'agit bien de TikTok.
00:36:14Celle-ci cumule les records en matière d'exposition peu modérée
00:36:18à des contenus violents, à caractère sexuel ou mettant en scène
00:36:22la souffrance psychique.
00:36:25Or, ces contenus, nos enfants y accèdent seuls, sans aucun recul.
00:36:30À un âge où ils se construisent émotionnellement, où ils
00:36:33développent leur rapport à leur corps, à la sexualité, à l'autre,
00:36:37ils se retrouvent confrontés de manière brutale et violente à
00:36:40des images et des contenus parfois choquants.
00:36:43En parallèle, qu'observe-t-on ?
00:36:46Une dégradation continue et impressionnante de la santé
00:36:49mentale des jeunes, des jeunes femmes tout particulièrement.
00:36:53Les hospitalisations liées aux tentatives de suicide ont
00:36:56tout simplement explosé.
00:36:59À tel point que le constat d'une corrélation entre l'exposition
00:37:02à des contenus violents ou dangereux et la détresse
00:37:04psychologique des plus jeunes est aujourd'hui étudié.
00:37:08TikTok est particulièrement pointé du doigt en la matière.
00:37:12L'application fait l'objet de poursuites judiciaires mettant
00:37:15en cause la responsabilité du réseau social dans la dégradation
00:37:19de la santé mentale de plusieurs adolescentes et le suicide
00:37:23de deux d'entre elles.
00:37:25La commission d'enquête qui nous est proposée aujourd'hui
00:37:27permettrait de vérifier ce que plusieurs études avancent,
00:37:31à savoir que l'application propose davantage de contenus
00:37:34dangereux aux individus vulnérables, mais aussi que son
00:37:37algorithme hyperpuissant cible des profils fragiles,
00:37:41les enferme dans des bulles d'anxiété et de mal-être.
00:37:45Vidéos sur le suicide faisant la publicité de moyens
00:37:48de se donner la mort, promouvant des produits pour perdre
00:37:52du poids, contenus hyper sexualisés et altérant irrémédiablement
00:37:57l'image de soi et la confiance, désinformation sans compter
00:38:01la haine en ligne.
00:38:02Telles sont les spirales de contenus auxquelles sont exposées
00:38:05les jeunes.
00:38:07Michel Barnier avait vu juste en faisant de la santé mentale
00:38:10la grande cause nationale de 2025.
00:38:13C'est une bombe à retardement silencieuse aux causes multiples,
00:38:17certes, mais parmi lesquelles l'addiction numérique est
00:38:20un facteur non négligeable.
00:38:23La question du périmètre de la commission d'enquête
00:38:26s'est légitimement posée.
00:38:28Doit-on la circonscrire à TikTok ou l'élargir à toutes
00:38:31les applications ?
00:38:33L'algorithme hyperpuissant de TikTok et sa capacité à capter
00:38:36l'attention des plus jeunes plaident pour restreindre
00:38:39le périmètre à cette application seule.
00:38:42Mais il ne fait nul doute que les enseignements que nous tirerons
00:38:46et les préconisations qui en ressortiront devront s'appliquer
00:38:49à tous les réseaux sociaux dans l'objectif de garantir
00:38:52un environnement numérique plus sain.
00:38:54Je suis convaincue qu'en menant ces travaux, nous avons aussi
00:38:58le devoir d'expliquer et d'alerter sur les dangers et les effets
00:39:02psychologiques délétères bien réels de ces applications.
00:39:06Notre groupe soutiendra évidemment la création
00:39:09de cette commission d'enquête sur les effets psychologiques
00:39:12de TikTok chez les mineurs.
00:39:14Je vous remercie.
00:39:15Merci Madame la députée.
00:39:17La parole est à Monsieur Frédéric Maillot pour le groupe
00:39:19gauche démocrate et républicaine.
00:39:23Madame la Présidente, Madame la rapporteure et mes
00:39:26chers collègues, il y a quelques semaines de cela,
00:39:29je traînais sur les réseaux, c'est comme ça qu'on dit,
00:39:34et je suis tombé sur une vidéo d'une spécialiste des comportements
00:39:38des enfants et elle disait ceci et ça m'avait profondément interpellé.
00:39:43Elle disait que personne n'a préparé nos enfants à avoir un
00:39:47doudou greffé à leur main en longueur de journée.
00:39:51En parlant du téléphone, elle dit ensuite ce doudou qu'ils
00:39:55caressent avant de s'endormir et qu'ils caressent au réveil.
00:40:00Ces quelques mots nous disent à quel point cet objet,
00:40:03le téléphone, a pris une place importante dans nos vies et
00:40:06celle de nos enfants.
00:40:08Et le téléphone emmène avec lui les applications et parmi eux,
00:40:13TikTok et plusieurs autres applications et ils sont dans nos
00:40:17foyers et captent la pleine intention de nos enfants.
00:40:21En l'espace de quelques années seulement,
00:40:24il est devenu le plus grand réseau social du monde avec 1,6
00:40:30milliard d'utilisateurs.
00:40:32Son public est principalement des enfants,
00:40:34ça a été dit avant moi, et bien que théoriquement,
00:40:36et je dis bien théoriquement, interdit aux moins de 13 ans,
00:40:40l'application est utilisée par 63% des jeunes français de moins de 12 ans.
00:40:47Dans de nombreuses études, on d'ores et déjà documenté les
00:40:50dérives liées à cette application et parmi eux, ces dérives.
00:40:55Amnesty International a réalisé deux enquêtes,
00:40:57dont la première, la dernière date de 2023,
00:41:01et met en exergue la spirale dévastatrice dans lesquelles sont
00:41:04piégés les plus jeunes utilisateurs de cette plateforme par
00:41:08toutes les formes de dérive qui a été citée bien avant moi.
00:41:10Et en mars 2003, le président du groupe Les
00:41:13Indépendants, République et Territoire au Sénat,
00:41:16lançait une commission d'enquête sur l'utilisation du réseau social
00:41:20TikTok, son exploitation des données, sa stratégie d'influence.
00:41:23Son choix était motivé à l'époque par l'accumulation de doutes sur
00:41:28l'utilisation des données par le réseau social chinois et son
00:41:32impact sur les mineurs.
00:41:33En février 2024, la Commission européenne décidait,
00:41:36quant à elle, d'ouvrir une procédure formelle afin de
00:41:40déterminer si TikTok avait enfreint le règlement sur les services
00:41:44numériques, les inquiétudes portées particulièrement sur et déjà
00:41:49la protection des mineurs, la transparence de la publicité,
00:41:52ainsi que les risques liés à la conception addictive de la
00:41:56plateforme et aux contenus préjudiciables.
00:41:59Tout récemment, l'équivalent britannique de la CNIL a décidé
00:42:05d'ouvrir une enquête sur TikTok, mais également sur deux autres
00:42:07réseaux sociaux pour défendre et comprendre comment ces plateformes
00:42:12utilisent des données générées par les activités des mineurs
00:42:15en ligne et dans lesquelles mesures algorithmes de TikTok
00:42:20montrent des contenus dangereux et inappropriés par des jeunes.
00:42:23La désinformation est également un autre fléau propre à cette
00:42:27application. Dans le débat à venir, nous porterons des amendements
00:42:30afin que ces dérives soient clairement normées et examinées
00:42:35dans le cadre d'une commission d'enquête.
00:42:37Une étude menée en janvier et en mars 2020 a ainsi relevé que
00:42:4220 à 32% de ces vidéos sur le Covid-19 diffusées sur la plateforme
00:42:46contenaient des informations fausses ou trompeuses.
00:42:49En 2022, une analyse menée par NewsGuard avait confirmé les
00:42:54éléments, révélant que 20% des vidéos d'actualité sur TikTok
00:42:58contenaient des informations trompeuses.
00:43:02Une étude de l'IFOP a quant à elle rélevé que 69% des 18-24 ans
00:43:06adhèrent au moins à une contre-vérité scientifique qui utilise
00:43:10l'ampleur du défi en matière d'éducation à l'information.
00:43:13Et oui, il suffit d'avoir le Wi-Fi et TikTok pour devenir, en espace
00:43:17de deux minutes, expert sur des sujets scientifiques.
00:43:21La présence et la proposition de la résolution s'inscrit donc dans
00:43:25une actualité incontestable, une urgence à agir face à TikTok,
00:43:29mais sans doute plus largement à toutes formes de plateformes
00:43:32qui recourent à des algorithmes invasifs et addictifs,
00:43:36qui influencent et deviennent néfastes à la démocratie.
00:43:38Ça a été dit aussi avant moi, imaginez juste la dernière
00:43:41élection présidentielle américaine sans le réseau social X.
00:43:45Dans ce contexte, les députés communistes et les députés des
00:43:48pays dits d'outre-mer du groupe GDR approuvent la démarche qui
00:43:52leur est soumise aujourd'hui de disposer d'éléments précis sur
00:43:55une seule enquête et de dispositifs de captation à l'attention
00:44:00déployée par TikTok.
00:44:01Le danger est devant nous, nous devons le regarder en face.
00:44:04Il est dans les mains de nos enfants.
00:44:05Il appartient aussi à éduquer les parents face à ces dérives,
00:44:09face à tout ça, et à dire aux jeunes que TikTok n'est pas la vie réelle.
00:44:15Quand on est face à ça, il faut informer le plus possible et
00:44:20donner de vraies informations pour combattre pleinement,
00:44:23donc qu'on y est favorable au groupe GDR.
00:44:26Je vous remercie, Monsieur le député.
00:44:27La parole est à Monsieur Éric Michaud pour le groupe UDR.
00:44:38Madame la Présidente, Madame le rapporteur,
00:44:40mes chers collègues,
00:44:42l'application TikTok est de plus en plus souvent accusée de mise en
00:44:46danger de la vie d'autrui et de nos enfants en particulier.
00:44:50Les troubles de l'alimentation jusqu'au suicide,
00:44:54en passant par l'automutilation et parfois aussi l'anorexie.
00:44:59La plateforme est aussi régulièrement épinglée pour la
00:45:02maltraitance numérique.
00:45:04En ce moment, ce n'est pas moins de onze familles
00:45:07françaises qui ont porté plainte contre TikTok.
00:45:11Les parents reprochent à l'application le manque de
00:45:14modération de l'algorithme, mais également son caractère addictif.
00:45:19En tant que parlementaires, nous ne pouvons plus ignorer les
00:45:22alertes répétées des parents, ignorer les alertes répétées des
00:45:27associations, ignorer les alertes répétées des
00:45:30professionnels de l'enfance.
00:45:33Ils sont unanimes sur ce sujet.
00:45:34La plateforme est néfaste pour la santé des enfants et leur
00:45:38développement psychologique.
00:45:41Elle les expose à des contenus potentiellement haineux,
00:45:44dangereux, illicites, et contribue à une réelle
00:45:48dépendance aux écrans.
00:45:50On estime que les moins de 18 ans y passent en moyenne
00:45:54deux heures par jour.
00:45:56TikTok est normalement réservé aux moins de 13 ans.
00:46:00Pourtant, 63 % des jeunes de 12 ans y sont déjà inscrits.
00:46:07C'est notre jeunesse et donc notre avenir que nous sommes en
00:46:10train de détruire en les exposant à cette drogue numérique.
00:46:16En tant que parents, le constat est effrayant.
00:46:21Ce n'est pas parce que nos enfants sont chez nous,
00:46:25dans leur chambre, qu'ils sont en sécurité.
00:46:28Sous couvert de divertissement, cette application expose un
00:46:31danger qui peut nuire gravement à leur santé mentale.
00:46:35Dans sa version sociale, on va dire comme ça,
00:46:38TikTok rémunère les utilisateurs en fonction de leur temps de
00:46:44présence sur l'application.
00:46:47On gagne sa vie à perdre son temps.
00:46:50Pire, la plateforme héberge des prédateurs sexuels aux abois et
00:46:57favorise la haine en ligne.
00:47:01Elle est également régulièrement accusée de faire la promotion des
00:47:04produits interdits aux mineurs, tels que les sachets de nicotine,
00:47:09des snuts ou encore des drogues.
00:47:12Ces substances peuvent être achetées en direct via TikTok.
00:47:18Plus largement, le débat que nous avons aujourd'hui nous met aussi
00:47:22devant un échec des gouvernements successifs en matière de
00:47:26prévention et dépendance, d'une manière générale, des réseaux sociaux.
00:47:30Ils misent gravement à l'ouverture de nos enfants sur le monde,
00:47:34à leur créativité, à leur curiosité, à leur capacité de concentration.
00:47:40Pour preuve, écoutez bien, de ce danger,
00:47:43les dirigeants des GAFA inscrivent leurs enfants dans des écoles où
00:47:48tous les écrans sont interdits.
00:47:50Au cœur de cette problématique, il y a un sujet,
00:47:53c'est la gestion des données des utilisateurs, notamment les datas.
00:47:59Les datas seront les prochains carburants de notre économie numérique,
00:48:02rappelant que les énergies fossiles étaient le carburant de notre économie
00:48:06industrielle.
00:48:08Nous avons détruit notre industrie automobile au profit de l'industrie
00:48:11automobile chinoise.
00:48:13Voitures électriques chinoises, batteries chinoises, panneaux
00:48:16photovoltaïques chinois, électronique chinoise.
00:48:19Et maintenant, nous donnons nos datas aux Chinois.
00:48:24Même l'IA la plus utilisée en France, DeepChic, est chinoise.
00:48:30Espérons que cette nouvelle commission d'enquête prendra
00:48:34également en compte les dimensions de souveraineté industrielle et
00:48:38numérique à travers cette gestion des datas.
00:48:41Très important.
00:48:42Le groupe, vous l'avez compris, Madame le rapporteur,
00:48:45votera pour la création de cette commission.
00:48:47Je vous remercie.
00:48:50Je vous remercie, Monsieur le député.
00:48:52La parole est à Madame Caroline Parmentier pour le groupe
00:48:54Rassemblement national.
00:48:59Madame la présidente, Madame la rapporteur, chers collègues,
00:49:02vous l'avez tous dit, TikTok est un réseau social à part à cause
00:49:06des ravages qu'il occasionne chez les jeunes et même chez les très
00:49:09jeunes qu'il prend pour cible.
00:49:1145% des 11-12 ans utilisent TikTok alors que son accès est interdit
00:49:17aux moins de 13 ans.
00:49:19Des enfants âgés de 4 à 18 ans passent en moyenne deux heures
00:49:24sur TikTok par jour.
00:49:25Les effets psychologiques de cette plateforme sur les jeunes
00:49:28constituent une menace de santé publique.
00:49:31Avec un algorithme de recommandations extrêmement
00:49:34performants qui identifie le sujet et ses contenus d'intérêt,
00:49:38TikTok parvient à maintenir des heures durant ses utilisateurs
00:49:41devant leur écran en les alimentant de façon
00:49:45systématique et ciblée, comme s'ils semblaient lire dans
00:49:48leurs pensées, y compris en les envoyant dans un terrier de
00:49:51contenus nuisibles et dangereux.
00:49:54Un enfant ou un jeune adolescent n'a pas les capacités cognitives
00:49:57pour faire le tri dans le flot d'informations qu'il reçoit
00:50:00ainsi et qui peut gravement l'affecter.
00:50:03Cette captation de l'attention qui tourne à l'addiction s'accompagne
00:50:07d'une mise en avant et d'un enfermement des utilisateurs
00:50:10dans des contenus dangereux ou hyper sexualisés.
00:50:14Les enfants et les adolescents sont plus vulnérables à
00:50:16l'intimidation et à la détention de ce genre d'informations.
00:50:20Plus vulnérables à l'intimidation, à la pression de leurs
00:50:23semblables ou aux contenus négatifs.
00:50:25Des contenus consultés des milliards de fois démontrant que
00:50:30la réglementation ou l'auto-réglementation a échoué.
00:50:34En novembre 2024, sept familles du collectif Algos Victima ont
00:50:39déposé plainte contre TikTok devant la justice française pour
00:50:43provocation au suicide et propagande ou publicité des
00:50:47moyens de se donner la mort.
00:50:49Une première en France sur les sept adolescentes victimes.
00:50:53Deux ont mis fin à leur jour.
00:50:55Charlize et Marie étaient alors âgées de 15 ans.
00:50:59Dans son documentaire sur l'emprise numérique, la réalisatrice
00:51:02Elisa Jadot, qui s'était inscrite avec un profil fictif, celui de
00:51:07Lily, 13 ans, dénonce les tutos vidéo qui lui indiquaient comment
00:51:12se pendre dans sa chambre.
00:51:14En quatre minutes et 43 secondes, elle a été confrontée aux
00:51:18premières vidéos lui donnant des techniques de scarification avec
00:51:22la lame de son taille crayon et faisant l'apologie du suicide.
00:51:27Dans les cas qui nous intéressent, la bulle de filtre alimente le
00:51:30culte de l'image, les dictats de beauté, le harcèlement,
00:51:34la dépression, les troubles de l'alimentation,
00:51:36l'auto-mutilation, les pensées suicidaires.
00:51:39Comparativement à des profils standards, les utilisateurs
00:51:42manifestent un intérêt pour les questions de santé mentale et
00:51:46se voient du coup proposer dans leur fil douze fois plus de vidéos
00:51:51traitant du suicide et toutes les cinq ou six minutes des vidéos
00:51:55d'amaigrissement, d'auto-mutilation et de suicide.
00:51:59Nous avons déposé plusieurs amendements qui proposent d'orienter
00:52:02les travaux de cette commission, outre les incitations au suicide
00:52:05vers des vidéos qui promeuvent l'auto-mutilation et les troubles
00:52:08du comportement alimentaire auprès des adolescents vulnérables.
00:52:13Je rappelle que notre commission d'enquête sur les ingérences
00:52:16étrangères, menée par notre collègue Jean-Philippe Tanguy,
00:52:19avait déjà identifié et dénoncé le danger TikTok.
00:52:24Le Rassemblement national soutient cette proposition de résolution
00:52:28et la création de cette commission d'enquête nécessaire afin
00:52:32de se concentrer sur les effets de TikTok sur la santé de nos
00:52:36enfants et de nos adolescents.
00:52:38TikTok ne fait pas seulement le bruit d'une bombe à retardement.
00:52:42Il en est une. Je vous remercie.
00:52:46Je vous remercie, Madame la députée.
00:52:47La discussion générale est close.
00:52:48Nous allons aborder la discussion des amendements et pour cette
00:52:52discussion, il était possible d'être très concis.
00:52:55Nous pourrions ainsi nous épargner la séance du soir.
00:52:57Ce n'est pas juste pour moi, mais je pense que c'est pour tout le monde.
00:53:00Alors, on aborde l'amendement sur l'article unique.
00:53:03Nous avons l'amendement numéro 10 de Monsieur Saint-Martin.
00:53:07Merci, Madame la Présidente.
00:53:08Cet amendement vise à préciser ce dont il est question.
00:53:11Il propose que la commission d'enquête parle de risques
00:53:13psychosociaux plutôt que d'effets psychologiques.
00:53:15Cette précision me paraît essentielle parce qu'il s'agit
00:53:17de redéfinir le périmètre de l'ensemble de la commission
00:53:20et donc des préconisations qui seront faites.
00:53:23Aujourd'hui, et c'est ce que j'ai dit tout à l'heure,
00:53:26telle que la commission est présentée,
00:53:28elle ne prend en compte que les effets psychologiques,
00:53:30alors que les risques sont en réalité éminemment sociaux,
00:53:32définissent en réalité des manières d'agir,
00:53:34d'interagir de toute une génération.
00:53:36Les réseaux sociaux, et pas simplement TikTok,
00:53:38j'y reviendrai, s'imbriquent dans un modèle de
00:53:39fonctionnement de la société, d'un développement de l'attention,
00:53:42qui est objet aussi d'une économie,
00:53:44de structuration des interactions sociales,
00:53:46de rapports sociaux et de manières de se présenter au monde.
00:53:48Là, je vise simplement à préciser le titre,
00:53:51de telle sorte qu'on puisse cibler de façon plus efficace
00:53:54l'objet de cette enquête.
00:53:56Je remercie M. le député.
00:53:57Justement, votre avis, Mme la rapporteure ?
00:54:01Oui, merci, Mme la Présidente.
00:54:02Chers collègues, en effet, vous avez raison.
00:54:04C'est bien un axe de travail de cette commission d'enquête.
00:54:08C'est d'ailleurs le sens de l'amendement qu'on a adopté
00:54:10en commission, qui étant le périmètre de l'étude,
00:54:12aux répercussions sur les relations familiales et extra-familiales,
00:54:16vous vous souvenez la semaine dernière.
00:54:18J'ai déjà eu l'occasion de le dire en commission des affaires sociales.
00:54:22Je suis défavorable au fait que nous procédions à une liste qui
00:54:25serait faussement exhaustive des axes de travail.
00:54:27Je vous garantis, en effet, que ça fait partie de nos axes de travail.
00:54:30Et puis, par ailleurs, ce que je comprends dans la rédaction
00:54:32de votre amendement, c'est que vous supprimez le terme psychologique.
00:54:36Et donc, en effet, ça m'embête un peu de retirer les termes psychologiques.
00:54:40En effet, ça est temps, mais moi, je préfère avoir le terme
00:54:42des effets psychologiques dans la commission d'enquête.
00:54:45Je vous remercie, madame la rapporteuse.
00:54:47Défavorable.
00:54:48Oui, monsieur Delaporte.
00:54:52Merci, madame la présidente. J'étais favorable à l'amendement du collègue.
00:54:54Puis, en fait, déjà, on avait adopté un amendement dont j'étais
00:54:57l'auteur la semaine dernière sur la question des relations de l'individu.
00:55:01Donc, ça intègre les répercussions psychosociales,
00:55:02mais surtout, si on supprime psychologique,
00:55:05la phrase ne veut plus rien dire.
00:55:09Je vous remercie, monsieur le député.
00:55:10Est-ce que vous maintenez votre amendement, monsieur Saint-Martin ?
00:55:13Vous le maintenez, donc je vais mettre en voie l'amendement
00:55:15avec un avis défavorable de la rapporteur.
00:55:19Qui est pour ?
00:55:22Qui est contre ?
00:55:24Il n'est pas adopté. Je vous informe que sur l'amendement
00:55:2518 et sur l'amendement 15, je suis saisie par le Groupe
00:55:28Assemblement national d'une demande de scrutin public,
00:55:30j'annonce dans l'instinct de l'Assemblée.
00:55:32L'amendement numéro 18, madame Parmentier.
00:55:35Merci, madame la présidente.
00:55:36Cet amendement propose d'étudier et de quantifier les dispositifs
00:55:39de captation de l'attention utilisés par TikTok et leurs
00:55:42effets psychologiques, notamment en termes de pensée
00:55:45et de comportement liés à l'automutilation.
00:55:49L'algorithme de TikTok, conçu pour maximiser le temps passé
00:55:53sur la plateforme, expose particulièrement certains
00:55:56jeunes à des contenus nuisibles qui génèrent une spirale
00:55:59émotionnelle négative qui peut aggraver leur vulnérabilité
00:56:03psychologique, alors que 70% des utilisateurs de TikTok en France
00:56:08ont moins de 24 ans et qu'une majorité concerne
00:56:11les jeunes adolescents.
00:56:12Je pense qu'il est essentiel d'analyser ces mécanismes
00:56:15et leurs impacts afin de mieux protéger les mineurs de ces
00:56:18contenus menant à l'automutilation et de formuler des recommandations
00:56:22adaptées pour contrer ces risques spécifiques.
00:56:26Merci, madame la députée.
00:56:29Merci, madame la présidente.
00:56:30Cher collègue, en effet, je partage tout à fait ce que vous précisez
00:56:33dans votre amendement.
00:56:35Je ne peux que aller dans votre sens là-dessus.
00:56:36Voilà, évidemment, on va le traiter dans le cadre de la commission
00:56:39d'enquête, j'en ai d'ailleurs parlé dans mon propos,
00:56:42mais un peu de la même façon, je vais avoir un petit peu,
00:56:44je suis désolée, toujours le même argument,
00:56:46qui est de dire qu'en fait, si on développe une liste
00:56:50exhaustive, elle sera finalement faussement exhaustive
00:56:52parce qu'on n'arrivera évidemment pas à inclure tous les sujets
00:56:55qu'on peut avoir en tête lorsqu'il s'agit des contenus de TikTok.
00:56:58Et donc le risque, c'est finalement de laisser de côté
00:57:00peut-être des sujets qu'on n'aurait plus la capacité
00:57:02à examiner parce que ça ne serait pas inclus dans le périmètre
00:57:06de cet article unique, raison pour laquelle je vous garantis
00:57:08évidemment qu'on traitera de toute façon de ce sujet
00:57:11et puis qu'on essaiera d'en tirer évidemment les conséquences.
00:57:13Mais je préfère vous rendre un avis défavorable.
00:57:17Je vous remercie, madame la rapporteure.
00:57:18L'amendement est maintenu, je le mets aux voix.
00:57:21Donc c'est un scrutin public, l'amendement numéro 18,
00:57:24avec un avis défavorable de la rapporteure.
00:57:29Le scrutin est ouvert.
00:57:34Le scrutin est clos.
00:57:35Votant 17 exprimer 16, majorité 9 pour 7 contre 9.
00:57:43Il n'est pas adopté.
00:57:45L'amendement numéro 15.
00:57:47Toujours, madame Parmentier.
00:57:50Merci, madame la présidente.
00:57:52Cet amendement vise à orienter spécifiquement les travaux
00:57:55de la commission d'enquête sur TikTok vers l'étude des mécanismes
00:57:58de recommandation de contenus susceptibles d'exacerber
00:58:01les troubles alimentaires chez les jeunes utilisateurs.
00:58:04Ce réseau, fort de plus de 15 millions d'utilisateurs actifs
00:58:08en France, a un impact significatif sur la santé mentale
00:58:11dans ces domaines, particulièrement concernant
00:58:14les habitudes alimentaires et les troubles du comportement alimentaire.
00:58:18Une exposition de moins de 10 minutes à des contenus
00:58:20pro-anorexiques sur TikTok suffit à provoquer une insatisfaction
00:58:25corporelle chez les jeunes femmes.
00:58:27On sait qu'il y a des groupes sur la plateforme qualifiée
00:58:29de communautés pro-ana, pro-anorexie,
00:58:33partageant des conseils dangereux, parfois mortels,
00:58:37et encouragent des habitudes alimentaires dangereuses.
00:58:40À un âge où les enfants et les adolescents se construisent,
00:58:42se comparent, ce type de contenu peut être particulièrement
00:58:46pernicieux et destructeur.
00:58:48Il me paraissait important que la commission d'enquête
00:58:50examine en profondeur les mécanismes par lesquels TikTok
00:58:53recommande et diffuse ces contenus afin de proposer des mesures
00:58:56concrètes pour protéger la santé mentale de ces jeunes utilisateurs.
00:59:01Je remercie Mme la députée. Votre avis, Mme la rapporteure ?
00:59:04Avec les mêmes arguments que développés précédemment,
00:59:07avis défavorable en garantissant qu'on étudiera évidemment ce sujet.
00:59:11Avis défavorable, je mets en voie l'amendement.
00:59:13C'est un scrutin public. Je vous demande de bien vouloir
00:59:15regagner vos places.
00:59:16Le scrutin est ouvert.
00:59:21Le scrutin est clos.
00:59:22Votant 18, exprimé 16, majorité 9 pour 7 contre 9.
00:59:33Il n'est pas adopté l'amendement numéro 1.
00:59:35Monsieur Saint-Martin ?
00:59:38Cet amendement que nous avions déjà proposé en commission vise à
00:59:42étendre le périmètre de la commission d'enquête en interrogeant
00:59:46plus largement le modèle de capture de l'attention développé
00:59:48par l'ensemble des réseaux sociaux.
00:59:51Systématiquement, ça a été dit d'ailleurs,
00:59:52l'ensemble des réseaux sociaux.
00:59:54Donc c'est bien qu'il y a quelque chose à regarder.
00:59:56De nombreux chercheurs ont travaillé sur ce sujet pour en déterminer
00:59:58les effets sur la santé mentale des mineurs.
00:59:59Je pense qu'il serait une bonne chose de les interroger globalement.
01:00:03C'est l'ensemble de ce système économique qui capte les réseaux
01:00:07sociaux, qui se fonde sur ce modèle de captation de l'attention.
01:00:11Les plateformes enferment les utilisateurs dans une sorte de
01:00:13prison dorée de laquelle ils auront du mal à se défaire,
01:00:16perfectionnent régulièrement les algorithmes pour renforcer
01:00:19toujours plus leur pertinence dans la recommandation.
01:00:22Et donc, ils usent de dark patterns, j'y reviendrai,
01:00:23des interfaces truquées qui manipulent l'utilisateur.
01:00:27Là, je pourrais donner des exemples, mais je vais aller vite.
01:00:29Donc, si on souhaite s'attaquer à la toxicité des plateformes
01:00:31numériques comme TikTok, des mesures plus ambitieuses de lutte
01:00:34contre l'usage des dark patterns qui sont au cœur de ce modèle,
01:00:38il faut élargir davantage et intégrer évidemment tous les
01:00:43acteurs qui, de près ou de loin, font profit de capter le temps
01:00:49de cerveau disponible de la jeunesse.
01:00:52Je remercie M. le député.
01:00:53Madame la porteur, votre avis ?
01:00:54Merci, Madame la Présidente.
01:00:55Alors, si on parle bien de l'amendement 1,
01:00:58votre amendement, il parlait de l'usage d'interfaces truquées.
01:01:04Oui, c'est ça ?
01:01:05D'accord, très bien.
01:01:06Alors, même réflexion que ce que j'ai pu avoir lors de la
01:01:11commission des affaires sociales la semaine dernière.
01:01:12Je pense qu'évidemment, je partage votre opinion et je
01:01:15pense qu'il faut qu'on examine ce qu'on appelle les dark
01:01:19patterns, mais je pense qu'il ne faut pas forcément céder à la
01:01:21tentation d'énumérer l'ensemble des usages qui connaissent à ce
01:01:25jour un essor sur les réseaux sociaux,
01:01:26parce que le risque, c'est qu'on soit dépassés au
01:01:28moment où peut-être on sera dans nos travaux.
01:01:30Et donc, je pense qu'évidemment, on va examiner ça,
01:01:32mais je préfère ne pas l'inclure dans l'intitulé.
01:01:35Avis défavorable ?
01:01:36Avis défavorable, Madame la rapporteure.
01:01:38Je me le vois à l'amendement numéro 1.
01:01:39Qui est pour ?
01:01:41Qui est contre ?
01:01:43Il n'est pas adopté.
01:01:44L'amendement numéro 2, M. Saint-Martin également.
01:01:48Oui, c'était dark patterns et évidemment,
01:01:51élargissement du champ de l'enquête.
01:01:53Donc là, je le maintiens.
01:01:54Je pense que c'est vraiment important à des fins de
01:01:56comparaison, c'est le même type d'activité dont il est question,
01:02:00des systèmes de marchandisation de l'attention cognitive des jeunes.
01:02:05Donc là, je pense qu'il faut vraiment élargir le périmètre
01:02:07de l'enquête, non seulement parce qu'il y a déjà eu des travaux
01:02:10qui ont travaillé là-dessus.
01:02:11Donc, je pense qu'on a de la matière pour pouvoir monter en
01:02:13puissance et généraliser par recoupement et parce que ça
01:02:16précisera à la fin la qualité des mesures qu'on pourra
01:02:19éventuellement dessiner en fin d'enquête.
01:02:22Donc là, c'est encore une fois une tentative d'élargir le
01:02:26spectre de l'enquête.
01:02:27J'entends bien que ce n'est pas du tout ce que vous voulez faire,
01:02:29mais je tiens encore une fois à dire que ça serait une bonne
01:02:33stratégie que de le faire dans ce sens-là.
01:02:37Merci, M. le député.
01:02:38Madame la rapporteure.
01:02:39Merci, Madame la Présidente.
01:02:40Oui, en effet, on a déjà eu ce débat.
01:02:42Alors, ne pensez pas que je suis par essence fermée d'esprit.
01:02:45Je ne le suis pas et je pense qu'en effet, j'entends parfaitement
01:02:48votre stratégie.
01:02:48Moi, j'ai en tête une stratégie inverse qui est de me dire qu'on
01:02:52a quand même, je n'ai pas beaucoup d'expérience, mais l'expérience
01:02:55de commission d'enquête avec des objets très larges et à la fin,
01:02:58une espèce de liste de course infinie de préconisations.
01:03:01Et puis, j'ai le sentiment qu'il n'en ressort pas forcément
01:03:03grand-chose.
01:03:04Et moi, mon idée, c'est de me dire que si on se concentre sur un
01:03:06sujet extrêmement circoncis comme ça et qu'on puisse avoir vraiment
01:03:10le temps d'aller en profondeur sur le sujet, rien ne nous empêchera
01:03:13si on arrive à trouver des solutions très opérationnelles sur le
01:03:16sujet TikTok et la protection de nos enfants, on pourra tout à fait
01:03:20les transposer à d'autres réseaux sociaux, puisqu'on voit bien que
01:03:22les solutions seraient potentiellement transposables.
01:03:25Mais donc, l'idée vraiment, c'est ça.
01:03:26C'est de me dire qu'on a un objet vraiment très limité qui va nous
01:03:29permettre d'aller en profondeur dans le sujet et à la fin,
01:03:31de pouvoir potentiellement transposer.
01:03:33Donc, avis défavorable, je m'en excuse.
01:03:36Je remercie.
01:03:36Je me revois l'amendement numéro 2 avec un avis défavorable de
01:03:38la rapporteure qui est pour, qui est contre.
01:03:42Il n'est pas adopté.
01:03:43Chers collègues, est-ce que vous m'autorisez à prolonger
01:03:45la séance pour terminer le texte ?
01:03:48Très bien.
01:03:49L'amendement numéro 3, Monsieur Saint-Martin.
01:03:52Du coup, je vais durer un peu plus.
01:03:55C'est un amendement qui permet de souligner le rôle de l'éducation
01:03:57dans la lutte contre l'utilisation prolongée des réseaux sociaux.
01:04:00En effet, c'est bien l'école qui doit prendre la responsabilité
01:04:02d'informer et de faire comprendre aux enfants et aux adolescents
01:04:04les risques liés à l'utilisation de telles plateformes et pas
01:04:06simplement les parents, comme ça a été fait par TikTok récemment.
01:04:10Là, en l'occurrence, je fais référence à la mise en
01:04:12responsabilité des familles dans l'utilisation de l'application
01:04:16qui individualise le traitement de l'usage, alors que là,
01:04:21il faudrait le prendre à la racine et de promouvoir une éducation numérique.
01:04:25Seule l'école peut le faire de façon compétente en la matière.
01:04:29Et donc, là, c'est juste un amendement pour le souligner,
01:04:33pour faire en sorte que ça fasse partie non seulement du spectre
01:04:35de l'enquête, pour voir comment les acteurs éducatifs
01:04:37saisissent de la question, mais en plus que, potentiellement,
01:04:40ça fasse partie aussi du spectre des recommandations in fine
01:04:44de la commission d'enquête, sans présager des résultats,
01:04:46évidemment, de ce qui sera dit.
01:04:47Je remercie monsieur le député. Madame la rapporteur, votre avis ?
01:04:50Merci, Madame la Présidente.
01:04:52En effet, cet amendement qui vise à rappeler ce dont nous sommes
01:04:54tous ici convaincus, c'est le caractère essentiel
01:04:57de la prévention et de l'éducation dans l'apprentissage
01:04:58et les usages numériques.
01:05:00Malheureusement, à mon avis, il est en effet défavorable.
01:05:03Votre amendement, je pense qu'il peut préjuger
01:05:05des conclusions de notre commission,
01:05:06même si, évidemment, il va de soi que c'est un sujet
01:05:09qu'on partage tous, cet objectif de prévention
01:05:12et d'éducation à cet apprentissage.
01:05:14Donc, l'avis est défavorable, même si, évidemment,
01:05:16ça fera partie, sans aucun doute, de nos sujets.
01:05:19Je vous remercie. Madame la rapporteure,
01:05:21l'amendement numéro 3, avec un avis défavorable,
01:05:22je le mets aux voix. Qui est pour ?
01:05:25Qui est contre ?
01:05:27Il n'est pas adopté des amendements en discussion commune,
01:05:30désormais. Alors, non, du coup, pas commune.
01:05:33Le numéro 9 n'est pas défendu.
01:05:35L'amendement numéro 6, Frédéric Maillot,
01:05:39est-ce que vous le défendez ?
01:05:40Il est défendu.
01:05:42L'amendement numéro 6, l'amendement numéro 9 a sauté.
01:05:45Donc, l'amendement numéro 6, votre avis,
01:05:48Madame la rapporteure ?
01:05:50Défavorable. Je le mets aux voix, l'amendement numéro 6.
01:05:51Qui est pour ?
01:05:54Qui est contre ?
01:05:56Il n'est pas adopté. L'amendement numéro 4,
01:05:58Monsieur Saint-Martin.
01:06:02Merci, Madame la Présidente.
01:06:04Harcèlement, sexisme, racisme, fausses informations,
01:06:06influences étrangères, influence sur les élections,
01:06:08les réseaux sociaux, et j'insiste encore une fois,
01:06:10l'ensemble des réseaux sociaux sont le terrain fertile du
01:06:13développement de pratiques illégales encouragées par leurs
01:06:15propriétaires.
01:06:16Cet amendement vise à dénoncer cet état de fait et donc à
01:06:19permettre à la commission d'enquête d'enquêter sur ces pratiques,
01:06:24mais surtout, à un moment donné, de cibler aussi les grands
01:06:26dirigeants de ces plateformes qui sont responsables de ces contenus.
01:06:29Parce que ce sont eux les responsables,
01:06:31ceux qui ne régulent pas, ceux qui mettent le réseau social
01:06:34au service de leurs idées parfois nauséabondes,
01:06:36ceux qui permettent au harcèlement de proliférer,
01:06:38ignorant, laissant faire ou pire, mettant en avant des communautés
01:06:41de harcèleurs par la grâce de cet algorithme très percutant.
01:06:45Ceux qui ne prennent pas de mesures pour faire supprimer
01:06:47instantanément les contenus illégaux, racistes, sexistes,
01:06:49homophobes ou pédopornographiques doivent évidemment en répondre.
01:06:54J'aurai plein d'exemples, mais je pense que là,
01:06:55on est tous d'accord pour voir qu'il y a vraiment un défaut
01:06:59de responsabilité dans l'autorégulation par les
01:07:02producteurs de ces réseaux.
01:07:05Je pense que là, c'est juste un amendant pour le souligner.
01:07:07Ça doit vraiment faire partie du spectre de l'enquête parce que
01:07:09l'heure est grave et on n'a jamais vu autant de contenus circuler
01:07:13de façon endémique et produire autant d'effets de désinformation
01:07:16et de production de l'ignorance et parfois de racisme qui
01:07:21alternent puissamment les interactions sociales.
01:07:24Je vous remercie, Monsieur le député.
01:07:25Madame la rapporteure, votre avis ?
01:07:26Merci. Merci, Madame la présidente.
01:07:28Chers collègues, en effet, je pense qu'on partage
01:07:30tous cet objectif de souligner la responsabilité importante
01:07:35des dirigeants de ces plateformes.
01:07:36Simplement, d'une part, on peut se dire qu'il n'y a pas que
01:07:39les dirigeants des plateformes qui ont une responsabilité
01:07:40dans les contenus.
01:07:42Les hommes, les femmes politiques, les influenceurs,
01:07:44tous peuvent aussi faire circuler des fausses informations ou des
01:07:47éléments racistes, homophobes et tout cela.
01:07:51Donc, finalement, pourquoi s'arrêter aux seuls dirigeants de plateformes ?
01:07:53Par ailleurs, on ne sera pas un tribunal,
01:07:58la commission d'enquête, et donc je trouve que finalement,
01:08:00l'inscrire dans cet article unique, ça inscrit une espèce d'ambiguïté
01:08:03sur le fait qu'on va juger ou qu'on va déterminer la responsabilité
01:08:06des dirigeants de plateformes.
01:08:08Je trouve que ça peut conduire à affaiblir un peu notre article unique.
01:08:13Donc, évidemment, c'est un sujet qu'on abordera dans le cadre
01:08:15de nos auditions et de nos échanges,
01:08:17mais je préfère ne pas l'inscrire et donc avis défavorable.
01:08:21Je vous remercie. Madame la rapporteure,
01:08:22je me revois l'amendement numéro 4 avec un avis défavorable.
01:08:25Qui est pour ?
01:08:27Qui est contre ?
01:08:28Il n'est pas adopté. Sur les amendements 16 et 17,
01:08:32sur l'article unique puis sur la proposition de résolution,
01:08:35je suis saisie par le groupe Rassemblement national d'une demande
01:08:38de scrutin public... Ah non, sur la proposition de résolution,
01:08:41c'est par le groupe EPR.
01:08:42Une demande de scrutin public, il est annoncé dans l'ensemble
01:08:44de l'Assemblée.
01:08:46L'amendement numéro 5, Monsieur Delaporte.
01:08:48Oui, merci, Madame la présidente.
01:08:51Cet amendement vise à évoquer un sujet qui n'a pas encore été,
01:08:55à mon sens, assez traité dans les discussions qu'on a pu avoir,
01:08:57c'est la question de la sensibilisation et de l'éducation
01:09:00à l'esprit critique et de l'impact de ces réseaux sociaux sur le sujet.
01:09:06Merci, Monsieur le député. Madame la rapporteure.
01:09:10Merci, Madame la présidente.
01:09:11En effet, c'est un sujet de préoccupation important,
01:09:14donc il n'y a aucun doute qu'on étudiera ce sujet dans le cadre
01:09:17de la commission d'enquête.
01:09:18Simplement, avec les mêmes arguments que précédemment développés,
01:09:20je préfère qu'on ne l'inscrive pas pour éviter d'avoir une grande
01:09:23liste et qu'on s'en tienne à un sujet, à un objet un peu plus général.
01:09:26Mais évidemment, on abordera ce sujet dans le cadre des...
01:09:29Merci, Monsieur le député.
01:09:31Nous passons donc à l'amendement numéro 16, Madame Parmentier.
01:09:36Merci, Madame la présidente.
01:09:37L'utilisation croissante de TikTok par des mineurs,
01:09:40là, vous serez d'accord, Madame la rapporteure,
01:09:41avec cet amendement, soulève des inquiétudes quant à
01:09:44leur exposition à des contenus inappropriés et à des
01:09:46interactions potentiellement dangereuses.
01:09:49Bien que TikTok ait mis en place des outils de contrôle parental,
01:09:52notamment le mode connexion famille,
01:09:54leur efficacité est fréquemment mise en cause et même mise en échec
01:09:59fréquemment.
01:10:00La possibilité de contournement par les adolescents ou l'inefficacité
01:10:04partielle des filtres de contenu ne sont plus à démontrer.
01:10:08Cette commission d'enquête devrait évaluer rigoureusement ces outils,
01:10:12ces défaillances et explorer des pistes d'amélioration.
01:10:15Je vous remercie.
01:10:17Merci, Madame la députée.
01:10:18Madame la rapporteure, votre avis ?
01:10:19Merci, Madame la présidente.
01:10:20Alors, en effet, je suis d'accord avec le fond de cet amendement.
01:10:23Je comprends parfaitement l'objectif et je le partage.
01:10:25Et évidemment, je pense qu'on va devoir finalement passer par cette
01:10:30évaluation, c'est une évidence.
01:10:31Mais voilà, deux limites.
01:10:32La première, c'est que je préfère ne pas trop toucher au cadre.
01:10:36Donc, ça va de soi que ma demande, c'est une demande de retrait ou défavorable.
01:10:40Et puis, le deuxième élément, c'est que finalement,
01:10:42la linéa 4 prévoit déjà finalement qu'en proposant des mesures
01:10:46concrètes, ça implique qu'on va évaluer,
01:10:49en effet, les dispositifs.
01:10:50Donc, soit vous le retirez, soit plutôt avis défavorable,
01:10:53même si, en effet, je suis d'accord sur le fond.
01:10:58Je vous remercie, Madame la députée.
01:11:00Nous passons à l'amendement numéro 7.
01:11:02Monsieur Monnet, Monsieur Maillot, il est défendu ?
01:11:05Ah, ben oui.
01:11:06Le numéro 7, défendu.
01:11:09Madame la rapporteure, votre avis ?
01:11:10Défavorable, je mets aux voix qui est pour,
01:11:12qui est contre, n'est pas adopté.
01:11:17L'amendement numéro 8 n'est pas défendu.
01:11:21L'amendement numéro 17, Madame Parmentier.
01:11:27Merci, Madame la Présidente.
01:11:29Cet amendement propose de compléter, de compléter.
01:11:38Ça tombe bien, de compléter.
01:11:40Cette proposition de résolution d'un nouvel alinéa
01:11:44prévoyant une analyse comparative des algorithmes
01:11:47et des dispositifs de protection des mineurs
01:11:48déployés par TikTok et sa version chinoise Douyin.
01:11:52Les différences notables entre ces deux plateformes,
01:11:54pourtant issues d'une même entreprise,
01:11:56soulèvent des interrogations sur les choix technologiques
01:11:59et éthiques opérés en fonction des contextes géographiques.
01:12:02En Chine, Douyin applique des mesures strictes pour les mineurs
01:12:06et une priorisation des contenus éducatifs et culturels.
01:12:10A l'inverse, TikTok, dans sa version occidentale,
01:12:13n'adopte pas les mêmes mesures, exposant ainsi les jeunes
01:12:16utilisateurs à des contenus potentiellement nuisibles et
01:12:18favorisant une utilisation prolongée.
01:12:21Aussi, il convient, selon nous, d'étudier attentivement
01:12:24ces différences entre TikTok et Douyin.
01:12:27Ce sera tout à fait bénéfique pour les Occidentaux et les Français.
01:12:34Je remercie Madame la députée, Madame la rapporteuse.
01:12:36Merci, Madame la Présidente.
01:12:37Chers collègues, vous avez parfaitement raison sur le fond.
01:12:39En effet, ça fera partie, de fait, du périmètre d'intervention
01:12:42de la commission d'enquête, simplement pour les mêmes raisons
01:12:45que précédemment évoquées.
01:12:46Avis défavorable ou demande de retrait, si vous le voulez bien.
01:12:50Il est maintenu, donc nous allons mettre au voie,
01:12:53avec un avis défavorable et important.
01:12:54C'est un scrutin public.
01:12:56Le scrutin est ouvert.
01:13:00Le scrutin est clos.
01:13:01Votant 16, exprimé 15, majorité 8 pour 8 contre 7, il est adopté.
01:13:13Nous mettons au voie, désormais, l'article unique.
01:13:17C'est également un scrutin public.
01:13:19Le scrutin est ouvert.
01:13:24Le scrutin est clos.
01:13:25Votant 17, exprimé 17, majorité 9 pour 17 contre 0,
01:13:34l'article unique est adopté.
01:13:36Nous passons maintenant à des amendements de titre.
01:13:39L'amendement numéro 12, M. Saint-Martin.
01:13:43J'insiste.
01:13:45Par cet amendement, il vise à remplacer le terme
01:13:48psychologique par psychosocial et donc d'enquêter également sur les
01:13:52conséquences sociales créées par l'utilisation prolongée ou la
01:13:54dépendance aux réseaux sociaux chez les publics les plus jeunes.
01:13:57Deuxièmement, la raison pour laquelle je le propose,
01:13:59c'est qu'il s'agit encore une fois, comme je l'ai déjà fait,
01:14:03de cette demande d'enquêter pas uniquement sur TikTok,
01:14:07mais d'enquêter sur l'ensemble des réseaux sociaux,
01:14:09parce qu'encore une fois, on a affaire aux mêmes mécanismes,
01:14:12aux mêmes algorithmes, plus ou moins exacerbés,
01:14:14plus ou moins renforcés, mais ça reste à peu près le même principe.
01:14:17Donc, ça me semble de bonne méthode que d'élargir.
01:14:19Et alors, du coup, est-ce que vous pourriez présenter l'autre très rapidement ?
01:14:25C'est à peu près la même idée.
01:14:26Très bien.
01:14:27Donc, défavorable sur les deux amendements.
01:14:31Je vais mettre au voie l'amendement numéro 12 avec un avis défavorable.
01:14:34Qui est pour ?
01:14:36Qui est contre ?
01:14:37Il n'est pas adopté.
01:14:38L'amendement numéro 11, défavorable également comme avis rapporteur.
01:14:42Qui est pour ?
01:14:44Qui est contre ?
01:14:45Il n'est pas adopté.
01:14:47Donc, nous allons mettre au voile la proposition de résolution.
01:14:52Dans son ensemble, c'est un scrutin public.
01:14:55Le scrutin est ouvert.
01:15:01Le scrutin est clos.
01:15:06Votants 23 exprimés 23, majorité 12 pour 23 contre 0.
01:15:10La proposition de résolution est adoptée.
01:15:13Voilà, les députés ont donc donné leur feu vert à la création d'une
01:15:16commission d'enquête pour mieux appréhender les effets psychologiques
01:15:20délétères de TikTok sur les mineurs.
01:15:22Les députés vont donc pouvoir commencer à travailler sur ce sujet sensible.
01:15:27LCP vous donnera naturellement à voir l'essentiel de ces auditions.
01:15:31Ce sera dans nos prochains épisodes.
01:15:33A bientôt. Ciao, ciao.