• l’année dernière
Mardi 13 juin 2023, SMART TECH reçoit Winston Maxwell (directeur d’études en droit et numérique à l’école d’ingénieurs, Télécom Paris) et Julien Pillot (économiste, enseignant-chercheur en économie, Inseec)

Category

🗞
News
Transcription
00:00 Lutte contre la désinformation, les risques d'ingérence, TikTok, Twitter pourraient-ils
00:08 être bannis en Europe ? On en parle avec Julien Pillot, docteur en économie, enseignant-chercheur
00:14 à l'INSEC Grande École. Vous êtes professeur associé à l'Université Paris-Saclay, chercheur
00:18 associé au CNRS. Bienvenue à nouveau sur le plateau de Smartech. Avec vous sur ce débat,
00:24 Winston Maxwell. Bonjour Winston, vous êtes à distance, vous êtes le directeur d'études
00:28 droit et numérique à Télécom Paris, grande école d'ingénieurs de l'institut MinTélécom,
00:34 spécialiste de la régulation des données et de l'IA, précédemment avocat au barreau
00:38 de New York et de Paris. Et restez avec nous en plateau Sébastien Soriano, directeur général
00:43 de l'Institut National de l'Information Géographique et Forestière, autrement dit l'IGN. Alors,
00:49 je pose la question, l'UE pourrait-elle bannir TikTok ? On n'en est pas à Facebook. Quand
00:57 je dis pouvoir, il y a à la fois la notion de capacité mais aussi de probabilité. Peut-être
01:02 qu'on va commencer sur l'éventualité. Est-ce que Julien, ça vous semble une éventualité
01:08 probable, sérieuse ? Est-ce qu'on pourrait en arriver là ? On peut dire qu'on a tout
01:15 intérêt, vu le moment que l'on est en train de vivre, de laisser placer une menace qui
01:20 soit perçue comme crédible. Donc effectivement, si vous me posez la question en termes de
01:25 probabilité, on est sur un jeu très géostratégique avec nos partenaires, mais néanmoins parfois
01:38 concurrents aussi, transatlantiques mais également asiatiques. Et aujourd'hui, effectivement,
01:45 on a peut-être besoin de montrer que la norme qui est en train d'être écrite en Union
01:50 européenne a vocation à s'exporter de façon à ce qu'on puisse tout simplement travailler
01:54 sur un level playing field, sur un pied d'égalité, en respectant certaines règles, notamment
02:01 en matière d'information ou de lutte contre la désinformation. Twitter aujourd'hui, effectivement,
02:07 est dans l'œil du cyclone, dans la mesure où depuis son changement de gouvernance et
02:12 le rachat de Twitter par Elon Musk, très peu est fait en matière de lutte contre certains
02:19 contenus qui sont à très fort teneur de désinformation. Et la récente politique
02:24 qui a été mise en place autour de Twitter, qui est une politique à vocation économique,
02:28 qui vise finalement à rendre les certifications payantes à qui pourrait éventuellement se
02:33 les acheter, ne plaide pas en faveur finalement de Twitter dans la mesure où aujourd'hui
02:37 n'importe quel organe de désinformation, et croyez-moi, dans les organes de désinformation,
02:41 il y a des moyens techniques et financiers, n'importe quel organe de désinformation
02:45 qui voudrait s'acheter des armées de robots pour pouvoir pousser du contenu qui a vocation
02:50 à servir certains intérêts diplomatiques ou certains intérêts économiques, peut
02:55 s'offrir ces bâcles. En s'affichant derrière un compte validé, certifié. Absolument.
03:00 Et l'ironie de l'histoire, c'est que certains véritables médias, qui eux sont dans l'information,
03:08 refusent ces nouvelles politiques générales qui sont imposées par la gouvernance de Twitter,
03:15 alors que de faux comptes qui usurpent l'identité de ces médias, eux s'engouffrent dans la
03:20 brèche pour pouvoir finalement en bénéficier. Aujourd'hui, New York Times, par exemple,
03:25 ne veut pas afficher le badge de certification, ne veut pas avoir à payer pour pouvoir avoir
03:30 ce badge-là. On a eu tout un tas de faux comptes qui tournent autour du New York Times,
03:34 qui se sont fait passer pour le New York Times et qui sont des organes un petit peu de propagande.
03:38 Donc, ce n'était pas une garantie avant, mais c'était un repère qui nous permettait
03:42 quand même de faire le tri entre les institutions officielles et puis les comptes plus anecdotiques.
03:49 Absolument. C'est une question finalement de confiance qui est en train de se poser.
03:53 Et de manière plus problématique, c'est quand même la sortie de Twitter du code
03:57 de bonne conduite contre la désinformation. Un code de bonne conduite pour lequel Twitter
04:02 avait été partie prenante. On se souvient en fait de la genèse de ce code de bonne
04:08 conduite. Ça remonte à 2018. On est un petit peu traumatisés par certains scandales
04:13 qui ont commencé à éclater, notamment Cambridge Analytica qui a permis finalement à des organes
04:17 d'influence de pouvoir quelque part influer sur le vote de la présidentielle américaine
04:24 et participer finalement à l'élection de Donald Trump.
04:27 Via la plateforme Facebook ?
04:29 Via Facebook, toujours via Facebook. On a vu que d'autres organes ont pu utiliser
04:34 les algorithmes de Facebook pour pouvoir faire campagne en faveur du Brexit par exemple.
04:38 Et puis pendant la crise pandémique, on a vu aussi beaucoup de désinformation et aussi
04:44 de propos complotistes qui ont été poussés sur ces plateformes. Donc le code de bonne
04:49 conduite voulait que les grands acteurs du numérique s'engagent à faire la lutte contre
04:54 finalement les contenus à fort teneur de désinformation. Twitter était partie prenante, mais ça c'était
05:00 le Twitter d'avant Elon Musk.
05:02 Donc Winston Maxwell, cette sortie de Twitter du code de bonne conduite de l'Union européenne,
05:07 c'est ça qui a déclenché cette fameuse petite musique d'un possible bannissement.
05:11 Quel crédit accordez-vous à cette option ?
05:15 Le compte s'est doté d'un outil maintenant qui le permet en théorie, c'est le Digital
05:22 Services Act, le DSA. Donc comme le RGPD, le DSA va imposer aux grands acteurs des obligations
05:31 de faire le ménage chez eux, notamment en matière de désinformation. Et théoriquement,
05:39 au bout d'un certain temps, la Commission européenne, qui elle est compétente pour
05:43 superviser les grands acteurs comme Twitter, pourrait imposer des sanctions qui iraient
05:49 jusqu'à le bannissement. Donc c'est tout à fait possible maintenant, même s'il serait
05:57 sans doute long à mettre en œuvre, parce qu'il faut une procédure de sanction, il
06:02 faut des preuves. Et ce que je pense surtout, c'est que les Twitters, malgré les grandes
06:08 déclarations qui sont peut-être une forme de communication pour eux, pour attirer l'attention,
06:15 il me semble qu'un grand acteur comme Twitter va essayer de faire semblant de se conformer
06:21 et donc jouer la montre un peu. C'est une stratégie classique. Donc le bannissement,
06:27 c'est possible, c'est une arme crédible maintenant grâce à ce nouveau règlement,
06:30 mais sa mise en œuvre prendra pas mal de temps.
06:34 Parce que de nouvelles règles vont s'imposer aux plateformes, il y a des premiers audits
06:39 en blanc, on me dit, qui vont avoir lieu très rapidement. Qu'est-ce qui va se passer si
06:45 les plateformes ne respectent pas cette nouvelle réglementation européenne ? La première
06:49 punition, ça va être laquelle ? Un avertissement ? Comme à l'école ? Donc ça peut prendre
06:54 énormément de temps avant que tout le monde se mette en ordre de marche ?
06:57 Ça peut prendre un peu de temps, mais pas forcément énormément de temps. Mais effectivement,
07:01 Winston en parlait, le principe, c'est un principe de réponse graduée. C'est-à-dire
07:07 que vous demandez d'abord à vos acteurs de se mettre en conformité, il y a généralement
07:11 un petit temps de latence qui le permet, et puis ensuite les premières sanctions tombent.
07:15 Les sanctions les plus communes, on va dire, ce sont des sanctions pécuniaires qui peuvent
07:20 se monter dans le cadre d'infractions Digital Services Act jusqu'à 6% du chiffre d'affaires
07:24 mondial, donc ce ne sont pas des petites sommes dont on est en train de parler, parce qu'on
07:27 est face à des acteurs qui font potentiellement plusieurs milliards, parfois plusieurs centaines
07:30 de milliards de chiffres d'affaires dans l'année. Et puis ensuite, il y a des sanctions
07:34 comportementales. On va leur demander de se mettre en conformité sur certains points
07:38 qui posent problème, en matière de transfert de données, en matière de lutte contre la
07:41 désinformation, ce genre de choses, avec des astreintes, toujours financières. Et
07:45 puis in fine, en cas de sanctions graves et répétées, l'arme nucléaire est tout à
07:50 fait permise, Winston vient d'en parler, c'est de dire, écoutez, dans ce cas-là,
07:53 le marché européen, tant que vous n'êtes pas en conformité, vous est interdit, il
07:57 vous est fermé. Et pourquoi est-ce que Twitter est peut-être...
07:59 Mais est-ce que ça ne reste pas de la théorie tout ça ? Alors je vais quand même interroger
08:02 d'abord Winston sur justement ces règles d'autorégulation qui vont s'imposer. Est-ce
08:07 que vous pouvez nous les préciser davantage ? La manière dont on va devoir, quand on
08:12 est une grande plateforme numérique, surveiller les contenus qui passent sur nos réseaux ?
08:17 La grande innovation, c'est pour les grandes plateformes, ils doivent faire eux-mêmes
08:24 une analyse de risque sur des sujets, des risques systémiques, notamment la désinformation,
08:30 le risque pour les enfants, le risque d'addiction, etc. Ils doivent ensuite mettre en place des
08:38 mesures, notamment algorithmiques de modération de contenus pour gérer ces risques. Et cette
08:46 analyse de risque et ces mesures doivent être ensuite soumises à une audit indépendant
08:54 revue par la Commission. Donc, effectivement, c'est une forme de co-régulation où on confie
09:00 à l'acteur puissant le soin de faire son propre diagnostic. Donc, ça comporte des
09:05 risques parce qu'on est à la fois juge et parti quand on fait sa propre diagnostic.
09:11 Mais tout ça est fait sous l'œil vigilant de la Commission qui ensuite dira si c'est
09:18 suffisant ou pas. Sébastien Soriano, une réaction là-dessus,
09:22 ce serait une option intéressante ou pas d'ailleurs le bannissement ? Est-ce que c'est
09:26 véritablement applicable même ? De mon expérience de régulateur, je l'ai
09:31 détecté dans le passé, c'est que c'est important d'avoir la bombe atomique, comme
09:35 vous dites, c'est-à-dire d'avoir un élément de dissuasion. Et effectivement, quand le
09:38 ministre Jean-Noël Barrault montre les ogives, c'est une manière de rappeler qu'on est
09:43 sérieux. Après, effectivement, dans la vie de tous les jours, des réponses graduées,
09:48 comme vous vous indiquez, seront certainement la meilleure option. Parce que derrière,
09:51 il y a quand même en arrière-plan une dimension géopolitique. C'est-à-dire qu'Emmanuel
09:55 Macron avait dit clairement à l'Internet Governance Forum en 2018 que sa volonté,
09:59 c'est de créer une troisième voie entre un Internet américain, de laisser faire
10:04 aux mains du marché, et un Internet chinois, c'est-à-dire contrôlé par les États.
10:11 Et donc, je pense que la volonté de construire une voie du milieu, qui soit la régulation
10:16 pour faire simple, elle suppose de faire attention de ne pas trop tomber d'un côté ou de l'autre.
10:23 Et si l'Europe devait effectivement bannir Twitter, il ne faut pas être naïf sur le
10:28 fait que ça donnera des bons motifs à la Chine, à la Russie ou à d'autres pays pour
10:33 contrôler ces acteurs. Et ce n'est pas forcément ce que nous souhaitons à l'échelle mondiale.
10:36 Donc, il y a un contexte global à prendre en compte, me semble-t-il.
10:40 Et oui, c'est ça, c'est la question des conséquences derrière du bannissement, Julien.
10:44 Absolument, les conséquences peuvent être multiples. Et on aurait tort de les regarder,
10:49 et c'est un économiste qui parle, uniquement sous l'angle économique. Parce qu'effectivement,
10:53 Twitter fait partie sur les acteurs qui pourraient faire l'objet de ce type d'interdiction,
10:57 comme finalement celui pour lequel la menace est la plus crédible. D'une part, du fait
11:02 de son comportement et de sa gouvernance affichée aujourd'hui, mais aussi d'autre part parce
11:06 que finalement, si vous bannissez Twitter, c'est celui sur lequel les répercussions
11:09 économiques sont les moindres. Dans la mesure où c'est un réseau social qui est utilisé
11:13 par 250 millions d'utilisateurs, contre parfois plusieurs milliards pour les autres réseaux
11:17 sociaux. Parce que finalement, en matière de chiffre d'affaires, c'est celui qui pèse
11:21 le moins lourd. Parce que la partie de son chiffre d'affaires réalisée en Europe n'est
11:25 pas forcément la plus importante. Parce que les annonceurs peuvent plus facilement se
11:28 passer de Twitter que d'autres types de plateformes. Et aussi parce que finalement, on a des alternatives
11:37 crédibles pour Twitter. Et, dernier étage de la fusée, le risque en matière de destruction
11:43 d'emplois directs et indirects est moindre que sur d'autres types de plateformes. Donc
11:46 finalement, si on devait utiliser la bombe atomique pour pouvoir distribuer le monde,
11:49 ce serait Twitter.
11:50 - Et puis il y a quand même l'acceptation sociale aussi.
11:51 - Absolument.
11:52 - C'est le vrai sujet.
11:53 - Mais effectivement.
11:54 - Et donc comment les Européens réagiraient si on leur disait "c'est terminé, Twitter
11:58 pour vous".
11:59 - Eh bien, il y a des pays dans lesquels des réseaux sociaux ont été interdits. Et dans
12:04 ces pays-là, je pense notamment à TikTok en Inde, on a vu que la nature ayant horreur
12:10 du vide, on a eu tout un tas d'innovateurs qui se sont engouffrés dans la brèche pour
12:14 créer un espèce de TikTok à l'indienne. Et ça a très fortement fonctionné. Alors
12:20 effectivement, le marché indien est un marché qui est énorme sur le potentiel, avec aussi
12:26 des savoir-faire technologiques qui sont très forts, qui leur permet d'être très agiles
12:29 pour pouvoir justement combler ce vide. Mais je crois qu'en Europe aussi, on a un marché
12:34 qui est très fort avec tout un tas de savoir-faire et de compétences en matière de technologie
12:39 et de développement d'applications. Et il n'est pas interdit de penser qu'on pourrait
12:42 aussi favoriser l'émergence de nouvelles applications par l'interdiction de celui-là.
12:47 On l'a déjà essayé, Julien. Alors Winston, est-ce qu'on a les arguments juridiques pour
12:53 aller jusqu'au bout de cette arme fatale, de cette menace qui serait le bannissement ?
12:59 Oui, je disais au début, on a théoriquement les armes juridiques avec le DSA, le Digital
13:07 Services Act.
13:08 Parce que j'imagine que si cela arrivait, il y aurait des recours, peut-être des actions
13:16 collectives même, qui ne viendraient pas uniquement des plateformes. C'est un espace
13:21 de liberté d'expression aussi le réseau social aujourd'hui.
13:24 Il y aurait des recours et justement, vous avez mis le doigt sur la difficulté en matière
13:32 de désinformation, c'est que la désinformation, souvent, n'est pas interdite en soi. C'est-à-dire
13:38 que j'ai le droit, moi, en tant que citoyen, de raconter des bobards ou des thèses contre
13:46 l'autiste et ce n'est pas interdit. Il y a une liberté d'expression. Ça devient interdit
13:53 lorsque ça a un effet systémique, c'est repris de manière organisée pour déstabiliser,
13:58 pour manipuler l'opinion, etc.
14:01 Donc, l'équilibre entre la liberté d'expression et la désinformation est très difficile et
14:07 donc il y aura sans doute des recours et à la fin, c'est le court de justice européen
14:14 qui va trancher. En premier instant, ce sera les tribunaux nationaux mais à la fin, ça
14:21 monte toujours à la cour de justice européenne.
14:24 Sur cette question de l'applicabilité finalement d'un bannissement, on se pose beaucoup de
14:32 questions autour de Twitter là-dessus. C'est peut-être plus simple avec TikTok, non ?
14:36 Non, ce n'est pas forcément plus simple.
14:38 Aux Etats-Unis, ils ont commencé à montrer la voie. Il y a des recours aussi.
14:41 Effectivement, il y a des recours et dans un cas comme dans l'autre, la difficulté,
14:45 c'est finalement apporter la preuve. Apporter la preuve parce que la preuve est difficile
14:49 à trouver et puis derrière, c'est sujet éventuellement à interprétation. Mais effectivement,
14:55 dans un cas comme dans l'autre, la difficulté, ça va être de pouvoir dire que les plateformes
15:01 en question dont on est en train de parler n'ont rien fait pour pouvoir finalement freiner
15:06 une certaine forme de propagande, de désinformation, voire même de propagation de contenus qui
15:10 sont clairement illicites. Je parle des contenus haineux, de harcèlement et ce type de choses.
15:15 Il y aura une procédure, une procédure qui sera longue, qui sera controversée et quel
15:21 que soit l'issue de la procédure, il y aura des appels, il y aura des recours qui font
15:25 que tout ça va nous amener sur de longs temps.
15:28 Mais ce qui se passe aux Etats-Unis avec TikTok, est-ce que ce n'est pas aussi une menace
15:33 pour Twitter finalement ?
15:34 Oui, bien sûr, parce que ce qui est intéressant dans le cas de TikTok, c'est, pour moi, parmi
15:41 tous les griefs aujourd'hui qu'on prête à TikTok, celui qui est peut-être le plus
15:44 intéressant, c'est celui qui consiste à dire que TikTok n'a pas calibré son algorithme
15:50 de la même manière en Chine et en Occident. L'idée, c'est de dire qu'en Chine, TikTok
15:55 a un algorithme qui fonctionne d'une certaine façon, de façon à pouvoir limiter la propagation
16:00 de certains types de contenus, notamment à forte teneur abrutissante auprès de la jeunesse,
16:04 mais que ces garde-fous n'existent pas en Occident.
16:07 Ce qui laisse à penser que derrière, cette stratégie est complètement consciente, qu'elle
16:11 repose sur des ressorts économiques évidemment, pour pouvoir créer des addictions qui permettent
16:15 derrière de faire des messages publicitaires qui sont mieux imprimés.
16:18 Mais aussi, si on se dit que TikTok travaille de façon directe avec le gouvernement, qu'il
16:24 est de dire qu'on est en train de préparer le terrain de la victoire d'une bataille
16:27 des cerveaux qui va se jouer dans le XXIe siècle, en disant que les cerveaux des petits
16:32 Chinois auront été peut-être moins abrutis que les cerveaux des petits Occidentaux.
16:36 Mais apporter la preuve, c'est très compliqué, parce qu'il faut déjà avoir des éléments
16:43 techniques sur la façon dont l'algorithme de TikTok fonctionne, et puis derrière, il
16:47 faut pouvoir démontrer cette asymétrie de fonctionnement.
16:50 C'est extrêmement compliqué, et pour l'instant, comme on est au début de cette histoire,
16:56 on n'a pas de précédent pour dire si c'est réellement possible sur le plan technique.
16:59 Alors justement, on va faire réagir Winston là-dessus, sur la régulation algorithmique,
17:04 parce qu'on a des prétentions en Europe sur ce sujet.
17:06 Oui, la régulation algorithmique, là encore, l'Europe va être le leader avec son futur
17:14 AI Act, qui est en train de finalisation à Bruxelles.
17:19 Et ce que j'ai trouvé intéressant, puisqu'on parlait de la Chine, c'est que sur les IA
17:26 génératives, chat, GPT, etc., la Chine propose un règlement au mois d'avril qui ressemble
17:34 beaucoup à ce que fait l'Europe.
17:35 Bon, sauf qu'en Chine, en plus, il y a un aspect contrôle social, les IA ne peuvent
17:42 pas produire des contenus qui sont contraires aux valeurs socialistes.
17:46 Donc, il y a un aspect politique, bien sûr, en Chine en plus, mais si on regarde le règlement,
17:53 il y a tout un tas d'obligations qui ne ressemblent pas de manière assez proche de ce qui est
18:02 en train d'être élaboré en Europe.
18:05 Sébastien, un mot pour conclure, on est en plein dans des questions de régulation, on
18:10 apprend en marchant encore.
18:12 Oui, c'est ça, il y a un aspect R&D, tout à fait.
18:15 Et moi, ce qui me frappe, c'est que je trouve qu'on est peut-être un petit peu timide
18:19 à inventer des nouveaux modes de régulation.
18:20 On avait testé des choses à l'ARCEP qui s'appellent réguler avec les données.
18:24 C'est-à-dire, parfois, c'est difficile de prescrire ou de contrôler précisément
18:29 le comportement des entreprises.
18:30 Et parfois, accéder à des jeux de données, faire des analyses data, je vais retomber
18:35 sur la Data Alliance, c'est quelque chose qui peut permettre de faire des preuves de
18:40 manière un petit peu différente, justement, en traitant des masses de données.
18:42 Il y a un service au ministère de l'Economie qui fait ça, qui s'appelle le PEREN.
18:46 Et je pense que ce serait intéressant de développer ce type de pratiques, de manière
18:50 à faire des régulateurs innovants, finalement, qui s'alignent et qui eux-mêmes réinventent
18:55 leur mode de contrôle et d'incitation par rapport à une matière qui est devenue extrêmement
18:59 complexe.
19:00 En suivant cette matière, pratiquement en temps réel.
19:01 Voilà, qui est une boîte noire et qui est très difficile à contrôler.
19:04 Merci beaucoup.
19:05 Merci Winston Maxwell qui était avec nous à distance, directeur d'études en droit
19:09 et numérique à l'école d'ingénieurs Télécom Paris.
19:11 Merci beaucoup.
19:12 Merci Sébastien Soriano, directeur général de l'IGN et Julien Pillot, économiste, pour
19:17 vos éclairages.
19:18 On marque une petite pause et ensuite on va se retrouver pour parler de protection des
19:22 mineurs ou comment les nouveaux outils d'intelligence artificielle peuvent nous aider dans ce domaine.