Catégorie
🗞
NewsTranscription
00:00 On passe directement à Marguerite Borrelli, doctorante à l'université Paris Panthéon-Sorbonne.
00:12 - Assas. - Assas, pardon. Toutes les universités s'appellent Sorbonne, sauf Assas.
00:19 - Qui garde son indépendance. - Voilà. Merci. Et vous allez présenter donc un papier META, Google et Twitter
00:25 dans la stratégie française de lutte contre le terrorisme. Merci.
00:29 Oui, alors je vais parler en anglais et mes slides sont en français, donc j'espère que ça facilitera un peu la compréhension.
00:37 Donc, un grand merci d'abord aux organisateurs de cette conférence. Je suis vraiment contente d'être ici aujourd'hui
00:43 pour vous raconter ce chapitre que j'ai écrit pour un livre appelé Les Gaffes et le Monde,
00:48 la grande technologie et le monde, écrit par Julien Nocetti et qui sera probablement bientôt publié en français.
00:56 Donc, ce chapitre que je présente aujourd'hui s'introduit dans les relations entre les autorités françaises
01:02 et trois grandes entreprises de plateforme de médias sociaux sur l'issue du terrorisme de 2015 à 2021.
01:11 Et les trois entreprises que j'étudie sont Google, qui est YouTube, META, qui est Instagram et Facebook,
01:17 et Twitter, qui est maintenant X.
01:20 Je sais que le titre de la conférence est "Nouveaux défis de modération et de réglementation", mais je veux rappeler à tous
01:28 que l'issue de la gestion des contenus des terroristes, de la propagande des terroristes, n'est rien que un nouveau défi.
01:35 C'est quelque chose qui a été un souci pour les régulateurs de médias et pour les journalistes pendant des années et partout dans le monde.
01:42 Et historiquement, ce que vous voyez avec le dessin sur la table, c'est que les terroristes ont été dépendants des médias traditionnels
01:50 pour atteindre leurs objectifs de communication.
01:53 Donc, l'idée est que, à travers des actes abjects de violence, ils souhaitent hijacker le cycle de la nouvelle,
01:59 générer peur dans l'audience de leur objectif, obtenir le soutien de leurs grévances et, finalement,
02:06 forcer une réponse des autorités de leur objectif.
02:10 Mais ce triangle de la relation entre les médias, les terroristes et leur public a été interrompu par l'émergence de la média sociale, bien sûr,
02:20 car la média sociale permet aux terroristes d'atteindre leur public sans intermédiaire.
02:26 Cela signifie qu'ils peuvent rester en complète contrôle de leur histoire en circulant les pouvoirs de la porte et de l'image des médias.
02:35 Dans beaucoup des recherches sur le terrorisme, ceci a été interprété comme le fin du garde-à-la-porte,
02:42 avec les terroristes avant d'obtenir un accès direct au public.
02:45 Mais en fait, ce que nous avons vu en récentes années, c'est plutôt que le garde-à-la-porte n'a pas disparu,
02:51 il a simplement été déplacé et déménagé de la média traditionnelle pour être plus à la main des nouvelles entreprises de médias,
03:00 donc des plateformes sociales.
03:02 Qu'en fait-il des intermédiaires, des plateformes sociales pour l'utilisation des services contre les terroristes ?
03:12 Ils ont six leviers pour agir sur cette menace, qui ont été implémentés à de nombreux niveaux.
03:18 D'abord, ils ont établi des règles pour prohibir l'exploitation des services des terroristes.
03:23 Ils ont développé des outils techniques pour les aider à exercer ces règles.
03:27 Ils ont employé des experts sur le terrorisme, ils ont employé des légions de modérateurs de contenu pour aider à trainer les outils techniques et aussi à assister aux pièces de contenu.
03:37 À un certain niveau, ils essaient aussi de promouvoir des contre-narratives de la société civile à des voix extrémistes sur leurs services.
03:45 Ils coopèrent aussi entre eux, ce qui est principalement fait par le Forum de la Confrontation contre le Terrorisme, GIVCT.
03:53 Et enfin, ils partagent aussi de l'information avec les forces de l'ordre.
04:00 C'est donc le stade actuel des affaires, mais il n'est pas terminé par le bleu.
04:06 C'est le résultat de plusieurs années de pressions, de luttes et de débats avec les autorités publiques,
04:12 et aussi avec leurs utilisateurs et, le plus important, peut-être, leurs advertisseurs.
04:17 Si nous pensons à la défaillance du climat mondial sur les entreprises technologiques et, en particulier, les entreprises sociaux,
04:28 l'un des scandales qui a constitué la défaillance de la technologie était l'apparition de l'ISIS, le state islamique, ou Daesh, sur les médias sociaux.
04:41 A partir de 2014, beaucoup de gens ont commencé à rencontrer des propagandas de terroristes particulièrement dérapants sur leurs médias sociaux,
04:51 comme, bien sûr, les vidéos de décapitation.
04:54 C'était à ce moment-là quelque chose que le ministre français de l'Intérieur a appelé "terrorisme d'accès ouvert",
05:00 ce qui me rend intéressant.
05:04 Mais le point est que, déjà en 2015, il y avait une reconnaissance à large échelle que ce ne sont pas seulement les réseaux sociaux,
05:11 pas seulement les intermédiaires neutres dont ils ont l'intention, mais aussi que ces plateformes tendaient à activement promouvoir des contenus dérapants.
05:18 Et, à ce moment-là, puisque le paysage des médias sociaux est vraiment assez centralisé, peut-être même plus que le sujet d'aujourd'hui,
05:25 avec seulement quelques grandes plateformes qui rassemblent les plus de nombreux utilisateurs,
05:29 le gouvernement a rapidement identifié ces plateformes,
05:33 tant comme problème principal, mais aussi comme partenaires principaux pour essayer de mitiger la menace.
05:39 Les entreprises que j'étudie, Google, Meta et Twitter, ont été vraiment impliquées depuis le début dans les efforts à contre-terrorisme en ligne.
05:48 Et pour la France, la histoire commence vraiment après les attaques de Charlie Hebdo et Hyper Cacher en janvier 2015,
05:55 quand l'unité d'appel internet française, qui est en charge d'enlever des contenus illégaux de l'Internet,
06:03 qui s'appelle Farouz, a vu, en leur aftermath des attaques, que les médias sociaux étaient utilisés par des supporters des terroristes, par les terroristes eux-mêmes.
06:12 Ils ont vu que le public français les reportait, donc il y a eu une réelle augmentation de l'appel après les attaques.
06:22 Mais les entreprises de Silicon Valley, auxquelles les contenus étaient notifiés, n'étaient pas vraiment responsables de leurs demandes de détention.
06:30 C'est alors que l'issue est vraiment identifiée comme un problème.
06:35 Un mois après les attaques, Bernard Cazeneuve, le président de l'Intérieur, décide qu'il doit aller à la Silicon Valley pour s'assurer de l'accès aux entreprises au plus haut niveau.
06:47 De cette voyage, une nouvelle structure a émergé en France, appelée le groupe de contact permanent,
06:54 qui a pour la première fois lancé un dialogue recul entre les autorités françaises et les plus grandes plateformes américaines.
07:02 Au début, ce dialogue s'intéressait principalement à des questions concrètes et opérationnelles,
07:08 comme quel format devraient être les demandes de détention pour que les plateformes puissent détendre les contenus.
07:16 Ce sont donc des questions opérationnelles.
07:19 Mais, en parallèle, les autorités françaises ont aussi réalisé que pour gérer une menace transnationale,
07:27 pour parler à ces acteurs, qui sont vraiment des entreprises mondiales,
07:31 ils ont besoin de gérer le problème à un niveau différent.
07:35 C'est pourquoi ils ont vraiment changé leur approche vers l'UE.
07:40 En 2015, au cours de Charlie Hebdo et des attaques de novembre 2015,
07:47 deux nouveaux instruments ont été créés au niveau de l'UE.
07:51 D'abord, un unité de référence internet, qui est située à l'intérieur de l'Europe.
07:57 Et puis, en fin de 2015, le Forum Internet de l'UE,
08:01 qui a été lancé pour instaurer un autre dialogue public-privé avec les entreprises,
08:06 mais cette fois pour des négociations de haut niveau.
08:09 Et ce Forum Internet de l'UE, des interviews que j'ai reçues,
08:14 et qui ont été conduites par des partenaires,
08:16 c'est vraiment un domaine clé, car c'est là que se sont construits
08:21 les relations informales et opératives entre les autorités européennes
08:25 et les plateformes sur le thème du terrorisme.
08:28 C'est notamment grâce à ce Forum que les négociations ont eu lieu,
08:32 ce qui a permis d'établir, d'abord,
08:35 une database de contenu terroriste de hachage de l'industrie,
08:39 et puis, plus tard, l'établissement du Forum Internet mondial
08:43 pour le contenu terroriste en 2017.
08:47 Grâce à cet effort, et aussi à la mise en place
08:52 d'une modération automatisée sur les plateformes sociaux,
08:56 en 2018, les autorités étaient satisfaites
09:00 du progrès que les plus grandes plateformes avaient fait sur le contenu terroriste.
09:04 Mais le problème a évolué, car,
09:07 en tant que les grandes plateformes ont mieux gardé les terroristes,
09:11 elles ont migré à des services plus petits,
09:15 qui n'avaient peut-être pas les moyens de modérer le contenu,
09:18 ou qui étaient peut-être malentendus à le faire.
09:21 C'est pourquoi la France a commencé à pousser pour une régulation
09:25 au niveau de l'UE, avec le soutien de l'UK,
09:28 qui était toujours un membre de l'UE à l'époque, et de l'Allemagne.
09:31 Les deux États, qui, ensemble avec la France,
09:34 forment les trois plus grands marchés sociaux européens,
09:38 qui ont aussi vécu des attaques d'ISIS,
09:41 et qui étaient tous actifs au niveau national sur la régulation des médias sociaux.
09:45 Cette régulation s'appelle la Régulation des Contenus Terroristes en ligne,
09:50 TCO, ou TerraReg pour court, parfois aussi.
09:53 Elle a été présentée par la Commission en 2018,
09:57 et elle a eu lieu l'année dernière, en 2022.
10:01 La principale provision de la TCO est qu'elle establit des pénalités financières
10:06 pour les failles de détection des contenus terroristes
10:09 à l'heure de la notification de l'autorité nationale.
10:13 Mais ce qui m'intéresse dans la TCO,
10:17 c'est qu'elle formalise et codifie la coopération
10:22 qui a été créée informellement en réaction aux attaques d'ISIS en Europe.
10:27 L'idée était de regarder les meilleures pratiques
10:30 qui ont émergé des plus grandes plateformes,
10:33 et de les diffuser à l'industrie.
10:37 C'est pour la TCO.
10:39 La dernière chose que je veux vous parler, c'est la crise de Christchurch.
10:43 L'attaque de Christchurch en mars 2019
10:47 était une attaque de droite à l'étranger,
10:49 qui a été livrée sur Facebook,
10:51 et qui est devenue virale sur toutes les autres grandes plateformes.
10:55 Avec Christchurch, les autorités de l'étranger ont vécu
10:59 une situation très similaire à celle que France a vécue en 2015,
11:04 où il était difficile de trouver des représentants de plateforme
11:09 et de les faire répondre.
11:11 C'est pourquoi le Premier ministre du Royaume-Uni,
11:14 à l'époque Jacinda Ardern,
11:16 et le président français Emmanuel Macron,
11:20 ont initié la TCO en 2019,
11:23 qui actue aujourd'hui comme un autre forum ou convenant
11:27 pour la création d'une coopération publique-privée
11:30 sur le terrorisme contre l'intérieur en ligne.
11:33 La TCO est aussi intéressante,
11:35 car c'est une proposition publique-privée
11:37 avec une structure d'entraînement ouvert,
11:40 ce qui signifie que, grâce à cette TCO,
11:43 le cadre de la TCO en ligne devient global,
11:46 ou a le potentiel de devenir global.
11:49 À ce moment-là, il y a 58 pays qui sont membres,
11:53 et certains d'entre eux ne sont pas déjà actifs sur le sujet,
11:59 et sont des endroits clés pour le terrorisme
12:03 et pour le contre-terrorisme aujourd'hui,
12:06 comme les Etats-Unis et l'Inde.
12:09 Pour commencer, je veux préciser deux points.
12:16 Premièrement, la France a été à l'avant-garde
12:20 de ces efforts pour établir un cadre de TCO en ligne,
12:24 à la fois au niveau de l'UE,
12:26 mais aussi à un niveau global avec la Churche de Christ.
12:29 Deuxièmement, elle a fait cela en intégrant Google,
12:32 Meta et Twitter en tant que partenaires
12:35 dans un mélange de coopération et de coercion,
12:38 donc un acte de balance.
12:40 C'est pourquoi, à mon avis, il est vraiment
12:42 aussi important de regarder les endroits
12:44 où se trouvent ces entreprises en TCO,
12:47 et de étudier la rôle de la France
12:50 dans la façon dont ces entreprises ont arrêté
12:52 le sujet du contre-terrorisme
12:54 et investi dans ce domaine de politique.
12:57 Aujourd'hui, nous voyons que le progrès
12:59 qui a été fait sur le contenu terroriste,
13:02 spécifiquement, est vu par les autorités publiques
13:04 comme un modèle pour comment régler
13:07 et coopérer autour d'autres formes
13:09 d'intérêts désirables,
13:11 ce qui fait que c'est vraiment tout le plus important
13:14 de souligner les failles du régime
13:16 qui a émergé autour du contenu terroriste.
13:19 Il y a deux dimensions qui posent
13:22 des questions inévitables, à mon avis.
13:25 La première est celle de la souveraineté.
13:27 Avec les unités de référence internet
13:30 et les réglementations comme la TCO,
13:33 les autorités en Europe ont donné
13:35 au pouvoir de l'ordre des détruits.
13:38 Mais aujourd'hui, en pratique,
13:40 comme l'a mentionné Mr. Lucan dans son keynote,
13:43 la grande majorité du contenu
13:46 qui est pris en charge pour le terrorisme
13:48 est en fait découvert par des outils techniques propriétaires
13:52 et pris en charge par des moderateurs
13:54 qui sont employés par les plateformes.
13:56 La plupart de ce qui se passe
14:00 se trouve complètement à l'extrême de la juridiction
14:02 des autorités.
14:03 Pour vous donner une idée de la balance de la taille
14:05 que nous parlons,
14:07 en 2021, l'EIU, l'IRU, l'Europe,
14:10 ont refusé 20 000 pièces de contenu
14:13 aux services en ligne.
14:15 Par contre, MEDA, en 2021,
14:19 a enlevé 9 millions de pièces de contenu
14:21 pour le terrorisme,
14:22 juste pour la première quarantaine.
14:24 Donc, juste une entreprise et seulement 3 mois.
14:28 Ce qui signifie que, aujourd'hui,
14:30 le terrorisme en ligne,
14:32 qui est une partie de la sécurité nationale française,
14:34 de la sécurité nationale européenne,
14:36 relève très fortement des activités
14:39 de ces entreprises privées étrangères
14:41 et de leur coopération volontaire.
14:44 Mais alors, qu'est-ce qui se passe
14:46 quand les acteurs ne coopèrent pas
14:48 ou quand les acteurs coopératifs
14:50 ont cessé de coopérer,
14:52 ce qui se passe maintenant avec l'Aix ?
14:55 C'est donc une question très pressante
14:57 qui n'est toujours pas claire.
14:59 Une deuxième dimension que je veux souligner,
15:01 bien sûr,
15:02 est l'issue du contrôle démocratique
15:04 et de l'accompagnement.
15:06 Les entreprises de plateforme, en général,
15:08 sont des acteurs opaques
15:10 en termes de leur opération.
15:12 On a déjà mentionné les secrets de l'exchange.
15:15 Et les bureaucraties de contre-terrorisme
15:17 sont aussi des acteurs secrétaires,
15:19 si pas plus que les entreprises, en fait.
15:22 Ce qui signifie, en pratique,
15:24 que c'est vraiment difficile
15:26 d'obtenir de l'information concrète
15:28 sur ce qui se passe derrière les portes fermées
15:30 en termes de cette coopération
15:32 sur le contrôle de l'exercice de la guerre.
15:34 C'est un problème,
15:35 car sur le côté privé,
15:37 on a un risque considérable
15:39 de censure de la parole politique légale.
15:42 Et sur le côté public,
15:44 les États, et même les États démocratiques,
15:46 font souvent des erreurs
15:48 en ce qui concerne le contrôle de la guerre.
15:50 Donc, je pense que ce n'est pas encore clair
15:54 si les mécanismes en place sont suffisants
15:56 pour mitiger les risques
15:58 aux libertés fondamentales
16:00 que ce cadre implique.
16:03 Enfin, pour finir,
16:08 je veux souligner que ce cas de terrorisme
16:11 illustre aussi un trend plus élevé,
16:13 selon lequel les plateformes sociaux d'aujourd'hui
16:16 ne sont pas seulement des théâtres de conflits,
16:18 ni seulement des objets de conflits,
16:20 mais aussi des acteurs de conflits
16:22 dans leur propre droit.
16:24 Donc, il faut les étudier,
16:26 les scrutiniser,
16:28 et les faire connaître.
16:30 Je vous invite à participer à cette conférence.
16:32 Nous allons la présenter à l'AGM
16:34 le mois prochain.
16:36 Je vous souhaite de vous revoir là-bas.
16:38 Merci, merci beaucoup.