Lundi 20 mai 2024, SMART TECH reçoit Alain Staron (président cofondateur, Artifeel) , Julien Pillot (Consultant, Enseignant-chercheur en économie, Inseec - Groupe Omnes Education) et Adrien Basdevant (avocat spécialisé en droit des nouvelles technologies, Entropy)
Category
🗞
NewsTranscription
00:00 [Musique]
00:08 Bonjour à tous, le grand débrief de l'ActuTech aujourd'hui, c'est avec mes trois commentateurs.
00:13 On a l'économiste Julien Pillault, l'avocat Adrien Badevent et l'entrepreneur Alain Staron.
00:19 Bonjour à tous les trois.
00:21 On va être occupés par des discussions autour des IA génératives.
00:24 Pour changer j'ai envie de dire, mais il y a quand même des progrès dans ce domaine qui méritent d'être commentés
00:28 avec une guerre entre OpenAI et Google en particulier.
00:32 On va aussi s'intéresser aux milliards investis pour des data centers sur notre sol en France
00:37 et puis à la lutte contre les ingérences étrangères.
00:40 Ce sera quelques-uns de nos sujets aujourd'hui. C'est parti pour le débrief.
00:44 [Musique]
00:48 Les commentateurs du débrief, aujourd'hui je vous les présente tout de suite.
00:51 Julien Pillault, bonjour Julien.
00:52 Bonjour.
00:53 Consultant, enseignant-chercheur en économie à l'INSEC.
00:56 À côté de vous, Maître Adrien Badevent, avocat spécialiste en droit des nouvelles technologies au sein du cabinet Entropie.
01:02 Bonjour.
01:03 Bonjour et bienvenue également Adrien.
01:04 Et puis Alain Staron, notre disrupteur préféré.
01:07 Bonjour Alain.
01:08 Bonjour Nathalie.
01:09 Président de la startup de sécurité connectée Artifile.
01:11 Alors on va commencer avec ces annonces dans les IA génératives.
01:15 Ça s'est bousculé, c'est le moins qu'on puisse dire.
01:17 On sent qu'il y a vraiment une grosse compétition en ce moment qui se joue entre OpenAI et Google.
01:22 Le même jour, OpenAI vole la vedette finalement à la grande conférence annuelle tenue par Google le soir même
01:30 en annonçant une nouvelle version de son assistant intelligent qui devient évidemment de plus en plus intelligent.
01:36 À ce point qu'il est capable de devenir cet assistant merveilleux qui va nous aider à accoucher de nouvelles idées,
01:42 qui va nous aider à résoudre des problèmes, des problèmes mathématiques.
01:45 Est-ce que vous y croyez ça au miracle de l'assistant IA générative ?
01:51 Ce n'est pas un miracle, c'est une évolution normale du progrès.
01:55 Après, il ne faut pas non plus se tromper, j'ai encore demandé tout à l'heure juste avant de venir,
01:59 en quelle année Albert Camus avait-il refusé le prix Nobel ?
02:02 De juste précision.
02:04 Ça ne marche pas.
02:05 Avec quelle version Alain ?
02:07 Celle que j'ai sur Complexity, qui est une des dernières.
02:10 Non mais c'est le même problème qu'avant.
02:11 On me dit 1957, après je dis en quelle année il l'a eu, on me dit il ne l'a jamais eu.
02:15 Et en fait il l'a eu en 1957, il ne l'a jamais refusé.
02:18 Donc on voit bien, et ça c'est sur Wikipédia, je ne sais pas où va chercher, c'est Wikipédia de 2010.
02:24 Je ne sais pas où va chercher ces données de GPT, mais il est encore assez loin d'une vraie précision.
02:31 Donc ça c'est sur le côté, je m'en sers comme outil de référence.
02:34 Ce n'est pas un moteur de recherche.
02:36 Bah oui mais c'est...
02:38 Pardon, il remplace Bing, c'est le moteur de recherche de Microsoft.
02:42 Il est dans Bing.
02:43 Il est dans Bing, oui.
02:44 Bon, donc là on a un sujet, on reviendra dessus sur les ingérences, on a un sujet de fond.
02:51 Après sur la forme, ajouter la voix et l'image c'est juste un nombradé, c'est standard, c'était évident que ça allait arriver et c'est très bien.
02:58 Et effectivement ça rend tout confus.
03:01 Parce que j'ai en face de moi une machine qui parle et qui écoute.
03:05 Et je pense qu'on franchit une barrière, alors que c'est extrêmement simple, c'est du texte to speech, du speech to texte, c'est extrêmement simple.
03:10 Mais psychologiquement, on a franchi une étape.
03:14 C'est "her".
03:16 Voilà, qui parle, qui nous écoute et puis qui peut même lire nos émotions, nous dit-on chez OpenAI.
03:22 Non, non, pas que chez OpenAI.
03:24 Alors lire des émotions c'est très facile, ça se fait beaucoup.
03:27 Et puis après sur le dialogue, il faut aussi se méfier.
03:29 Depuis les années 50 et l'école de Palo Alto, on sait que...
03:33 On sait simuler des répliques des réparties humaines avec un pauvre ordinateur.
03:38 On sait faire partir une discussion en vrille ou l'apaiser.
03:42 Donc ça ne vous inquiète pas, ce trouble qui peut...
03:44 Non, ce qui m'inquiète, c'est ce que je viens de dire, c'est que son plus image, qui ne sont pas des révolutions techniques du tout,
03:50 rendent floue totalement la distance qu'on devrait avoir avec ces outils.
03:54 Et qui sont toujours, comme je le disais en prembule, largement pas fiables.
03:58 Alors justement, en matière de distance, justement, OpenAI nous dit "mais là, moi je suis en train d'inventer les nouvelles interactions homme-machine".
04:05 Oui, justement, et on en revient au propos d'Alain, avec lequel je suis complètement en phase.
04:10 C'est que l'interface homme-machine ne fonctionne qu'à partir du moment, en tout cas de façon symbiotique,
04:16 à partir du moment où vous mettez justement cette barrière protectrice entre vous et la machine,
04:22 en reconnaissant le fait qu'en face de vous, vous avez quelque chose qui a juste été automatisé, pensé par des intelligences bien humaines.
04:28 Le flou artistique dans lequel on est en train de se plonger, en fait, laisse augurer des transformations anthropiques qui sont assez fortes à mon sens,
04:37 suffisamment pour être questionnées en amont de phase en fait.
04:41 De se dire "attendez, là il y a peut-être des dangers potentiels qui méritent qu'on s'y intéresse,
04:46 parce qu'on ne sait pas trop vers quoi est-ce que l'on est en train de plonger, on est dans une espèce d'inconnu".
04:53 Et puis sur la partie économique, il y a quand même quelque chose d'assez important à souligner.
04:58 Alain a dit à juste titre qu'aujourd'hui ces intelligences artificielles, elles se trompent encore régulièrement,
05:03 elles ont tendance à halluciner, pour employer le terme technique,
05:07 et si elles deviennent des outils de référence, et en fait, en gros, ce n'est pas les concepteurs qui vont décider qu'elles vont devenir un outil de référence,
05:13 c'est les usages qui vont peut-être en faire des outils de référence, les ériger en tant que tels,
05:18 et en fait, transformer des médias sourcés avec des sources journalistiques, universitaires,
05:27 et évidemment frapper du saut de la vérification historique par des choses qui ont été générées de façon extrêmement massive,
05:36 de façon tellement puissante par des intelligences artificielles, sans ce souci de vérification et de vérité,
05:43 si ça devenait des outils de référence, ça pourrait nous plonger dans une ère de la post-vérité, et là, pour le coup, malheur à nous.
05:51 Et typiquement, la forme entraîne le fond, parce que c'est la voix et l'image qui vont nous entraîner là-dedans,
05:57 alors tu as tout à fait raison, ce n'est pas encore fiable.
06:02 Adrien ?
06:03 Je pense que ça fait un an et demi qu'on s'est beaucoup concentré sur les modèles,
06:06 et on va encore avoir pendant les 18 prochains mois, à chaque fois, des annonces.
06:09 Les annonces sont toujours spectaculaires, certains modèles sont plus rapides ou consomment moins de ressources.
06:14 Oui, d'ailleurs, chez Google, c'est ça qui a été présenté, on a trois versions, avec une version nano pour les smartphones,
06:20 une version flash très rapide et beaucoup plus légère, et puis une version pro.
06:24 Donc là, on est encore au niveau des modèles, mais on comprend au fur et à mesure qu'on passe des concepteurs aux utilisateurs,
06:30 qu'on va parler de plus en plus des systèmes. La différence entre un modèle et un système est quand même importante à voir.
06:35 Certains acteurs, comme OpenAI ou Google, peuvent verticaliser toute la chaîne de valeur,
06:39 mais il y a quand même des acteurs qui sont différents sur cette chaîne de valeur.
06:41 Il y a des personnes qui développent des modèles, puis il y a des personnes qui, sur ces modèles,
06:44 développent des interfaces d'utilisation pour en faire des systèmes.
06:47 Ces systèmes, ils sont mis à disposition de nous tous, utilisateurs professionnels ou dans notre vie à titre personnel.
06:53 Et donc, c'est aussi tout un autre marché qui n'est pas le même marché, qui est un marché applicatif,
06:58 pas seulement celui de faire tourner des modèles.
07:00 Donc sur le modèle, le marché, il est très concentré, il va très certainement devenir oligopolistique.
07:05 Et après, comment on va faire justement pour mettre au passage du modèle au système,
07:10 toutes ces safeguards, ces "guards rails", comme on dit en anglais,
07:13 pour protéger justement l'interface dans l'interaction qu'on aura nous en tant qu'humains.
07:17 On a peut-être quand même déjà une différence justement de modèle entre OpenAI et Google sur ce sujet,
07:22 puisque OpenAI semble vraiment déterminée à rester sur un modèle
07:26 où tout de suite les innovations sont disponibles librement, gratuitement,
07:30 alors pas totalement, il y a quand même un moment où il faut passer à la caisse.
07:33 Mais en tout cas, c'est l'idée de "j'ai un progrès tout de suite, je le partage avec un maximum de personnes",
07:39 là où Google préfère spécifier justement ces modèles pour des usages particuliers,
07:44 lance même une application un peu pour montrer la voie sur comment on peut s'en servir.
07:48 La grande différence, c'est qu'on a un acteur dans votre comparaison comme Google
07:52 qui a déjà plein de verticales intégrées.
07:54 C'est vrai.
07:55 OpenAI peut faire une verticalisation entre modèle jusqu'à système,
07:58 mais ne bénéficie pas déjà de Google Meet, de Gmail,
08:02 donc ne peut pas intégrer à une gamme de produits préexistants.
08:05 Et en fait, aujourd'hui, on est tous en train de chercher quelle est la meilleure efficacité du modèle,
08:09 mais dans 4 ans, 5 ans, 6 ans, ça sera intégré, on ne le verra plus,
08:13 ça sera dans les outils du quotidien.
08:14 C'est déjà ce que fait Microsoft.
08:15 C'est déjà ce que fait Microsoft dans sa suite bureautique.
08:18 On retrouve de l'IA dans ShakeSale, dans Word, et là, ça prend tout son sens.
08:24 Est-ce que cette guerre que se mènent les géants, les grandes plateformes du numérique,
08:30 ça ne risque pas de créer un emballement dans cette course et qu'on aille un peu trop vite ?
08:35 Justement qu'on crée des usages qu'on n'arrive pas forcément aujourd'hui à prévoir
08:39 et dont on ne connaît pas les conséquences ?
08:41 Business as usual.
08:42 Course ou pas.
08:43 C'est ce qui se passe sur les marchés d'innovation depuis toujours.
08:46 Les innovations précèdent les usages.
08:49 Parfois, les usages qui émergent sont très éloignés de ce à quoi les concepteurs pensaient
08:55 lorsqu'ils ont conçu leurs innovations.
08:57 Et puis, certains usages posent des problématiques,
09:00 des problématiques économiques ou des problématiques sociétales,
09:03 parfois environnementales,
09:04 et il s'agit derrière de réguler de façon efficiente et on espère la plus intelligente possible.
09:09 Pour rentrer dans cette course, ça devient de plus en plus compliqué
09:13 parce que ça demande des moyens faramineux.
09:16 Finalement, on s'aperçoit que pour rentrer dans la course, on est obligé aussi de travailler.
09:20 Ça dépend où on rentre dans la course.
09:22 C'est pour ça que c'est intéressant de décortiquer la chaîne de valeur.
09:24 Si vous voulez rentrer au niveau du modèle qui est tout en amont,
09:27 là c'est très difficile parce que le sous-jacent c'est le GPU,
09:30 c'est la puissance de calcul.
09:33 Donc celle-là, elle est rare, elle est chère.
09:35 Si vous arrivez plus en aval, c'est-à-dire que vous utilisez des briques propriétaires au libre
09:39 et que vous réintégrez dans des interfaces que vous développez
09:41 pour sur-spécialiser ces assistants personnalisés dans certains secteurs ou pour certaines tâches,
09:45 là peut-être qu'il y a un plus grand marché en fonction des différentes verticalités.
09:49 Donc là, quand vous voyez ces annonces, vous ne vous dites pas
09:51 "Bon ben là, ça va être très compliqué pour l'Europe de rattraper le train."
09:55 Oui et non.
09:57 Il vient d'être lancé le train, mais on sent qu'il est déjà à grande vitesse.
10:00 Bonne nouvelle, nous avons le DMA.
10:02 Autrement dit, on peut avoir peu de modèles et beaucoup d'applications
10:04 en coupant entre les deux pour préserver la concurrence.
10:07 Je parle sous le contrôle de l'avocat, mais normalement, c'est censé être fait pour ça.
10:11 Bon, ça c'est plutôt le manuel.
10:13 Après, sur les modèles fondamentaux, il n'y a pas forcément besoin de beaucoup de manpower,
10:19 mais simplement, il faut l'avoir depuis un certain temps.
10:22 Et tout va toujours plus vite.
10:24 Et quand on change de génération, on ne peut pas rentrer à la génération 5.
10:27 Le marge est trop haut.
10:29 On a perdu des cristaux liquides comme ça.
10:31 Alors, est-ce que notre réglementation nous protège ?
10:34 Ça, c'est un éternel débat aussi.
10:36 Non, pas l'avocat !
10:38 Non, mais c'est-à-dire qu'il faut voir comment elle sera appliquée.
10:42 Elle a le mérite d'exister.
10:44 Alors, on commence à mettre la pression sur Microsoft avec Teams.
10:47 L'Europe, en tout cas, pas que l'Europe, même les États-Unis aujourd'hui.
10:52 Également sur les plateformes avec le Digital Service Act.
10:56 Oui, on a des textes aujourd'hui au niveau européen,
10:59 que ce soit le DSA, le DMA ou l'AI Act en devenir,
11:03 qui ont vocation, en tout cas, à promouvoir une innovation responsable.
11:08 Mais l'AI Act, si vous le regardez aujourd'hui,
11:10 il manque encore beaucoup de lignes directrices.
11:12 Donc, c'est très difficile d'évaluer comment il sera mis en œuvre
11:17 et ce qu'il permettra aussi à l'innovation européenne de se diffuser.
11:21 Et c'est encore un peu trop tôt, à mon sens, pour pouvoir en juger.
11:25 Oui, Julien ?
11:26 Non, je suis complètement d'accord avec ce qui vient d'être dit.
11:29 Je le répète très souvent, mais l'efficacité d'une règle
11:32 se juge à notre capacité à pouvoir la faire appliquer.
11:34 Donc, toujours a posteriori et avec un retour d'expérience,
11:37 qui nous permet de savoir si on a été capable de détecter
11:40 des comportements de marché qui auraient pu être problématiques,
11:44 voire même parfois complètement frauduleux,
11:46 et notre capacité à avoir des mécanismes correctifs,
11:49 à travers des sanctions financières, mais également des remèdes comportementaux,
11:52 pour pouvoir dire, non seulement vous ne le ferez plus,
11:55 mais la sanction est tellement dissuasive que plus personne ne le fera.
11:58 Et on arrivera à vivre un peu mieux.
12:00 On se donne rendez-vous dans 5-6 ans.
12:02 Ok, ça marche.
12:03 Alors, en attendant, on va parler des milliards d'euros
12:06 qui sont investis dans des data centers en France
12:09 par des entreprises américaines, bien sûr.
12:12 On a 4 milliards annoncés par Microsoft pour des data centers,
12:17 pour renforcer la présence des data centers sur le sol français,
12:20 avec la création de nouveaux centres.
12:21 Du côté d'Amazon, c'est 1,3 milliard d'euros.
12:24 1 milliard du côté de Téléhaus, l'acteur japonais.
12:26 Accenture, IBM.
12:27 Il y a eu beaucoup d'annonces à l'occasion de l'événement Choose France.
12:31 Est-ce qu'on se dit, c'est génial, la France profite de la manne des GAFAM,
12:37 ou est-ce que ça nous pose un petit problème ?
12:40 C'est dit en même temps.
12:41 Ben voilà.
12:42 C'est dit en même temps.
12:43 Non, mais il faut se réjouir de l'attractivité de l'hexagone
12:46 et de l'Europe de manière plus large pour les investissements étrangers,
12:50 surtout lorsqu'il s'agit d'investissements qui peuvent porter
12:53 de nombreux spill-overs, donc de nombreuses externalités positives,
12:57 parce qu'on est sur des marchés innovants et on est sur de l'infrastructure en plus.
13:01 Ça crée de l'emploi, ça crée de l'activité pour l'entreprise en question,
13:04 mais également pour toutes celles qui vont bénéficier de l'infrastructure
13:06 pour développer leurs propres applications derrière.
13:08 Donc ça, il faut s'en réjouir, mais en même temps,
13:12 on reste néanmoins sur la délégation à des très grosses entreprises étrangères
13:19 de, finalement, la capacité de pouvoir opérer des infrastructures
13:22 qui, pour moi, sont essentielles, sont vitales, d'intérêt stratégique pour la nation,
13:26 sur le territoire français.
13:28 Et là, ça pose des questions, ça pose des questions en matière de transparence,
13:32 de la qualité des données qui sont récupérées,
13:36 la finalité de ces données et puis la transférabilité de ces données,
13:40 déjà en dehors du territoire français, donc on va parler du territoire européen,
13:44 mais aussi en dehors du territoire européen,
13:47 ce qui pose des problématiques de souveraineté, tout simplement.
13:50 - On se réjouit pour la France, mais il faut quand même dire que
13:52 ces investissements importants valent aussi un peu partout en Europe.
13:57 - Oui, mais il n'y a pas à se réjouir.
14:00 L'Europe reste un grand marché, ils viennent chercher le marché.
14:03 Ils viennent faire du business chez nous, il n'y a pas à se réjouir.
14:05 Après, deuxième chose, les 4 milliards.
14:07 - Non, mais ça fait des... Il y a des retombées économiques quand même directes pour le pays.
14:10 - Non, attends, 4 milliards.
14:12 Combien pour les puces Nvidia sur les 4 milliards ?
14:15 Combien pour les mètres carrés en Alsace, pour les murs ?
14:18 Après, c'est 200 personnes. Donc 4 milliards d'investissement pour 200 emplois.
14:21 Moi, je sais faire mieux.
14:23 - Tu me donnes 4 milliards, je vais...
14:25 - Donc non, non, non, non.
14:27 - On va réfléchir.
14:28 - Non, attends, c'est beaucoup d'argent qu'ils vont payer Nvidia,
14:32 entreprise américaine, pour aller s'aller plein de trucs.
14:34 Après, il y aura 200 pauvres employés qui ne seront pas payés très cher,
14:38 qui sont là pour faire marcher les machines,
14:40 et tout ça pour héberger des données sur le sondage national.
14:43 Certes, on a toujours notre acte américain qui fait que ça peut partir quand on veut.
14:47 Donc, là, je n'arrive pas à me réjouir.
14:49 - C'est ce que j'allais dire.
14:50 Est-ce que, finalement, aussi, cet investissement très matériel sur notre sol,
14:54 ce n'est pas la conséquence de cette doctrine française,
14:58 et puis de plus en plus européenne,
15:00 autour de la souveraineté, le peur de confiance ?
15:02 - Non, non, non, c'est la résilience réseau.
15:04 Non, non, c'est beaucoup plus basique que ça.
15:06 - Ce qui me semble manquer aujourd'hui, c'est un écosystème de Vici européen fort.
15:11 La possibilité, en fait, on a des magnifiques fondateurs en France et en Europe.
15:15 On en a plein dans le domaine de l'IA.
15:18 On en a plusieurs dans le domaine de l'IA,
15:20 plusieurs dans le domaine particulier de l'IA génératif.
15:22 On a vraiment des pépites.
15:24 Et quand vous voyez la structure de financement,
15:27 elles sont toutes à la recherche de financement de Vici européen.
15:31 Mais on n'a pas encore cette structure, cet écosystème.
15:33 On doit forcément aussi aller chercher les financements à l'extérieur.
15:36 C'est très bien de pouvoir en bénéficier.
15:38 Mais ce qui serait davantage constructif,
15:41 plutôt que ces annonces, encore une fois, avec un effet assez « waouh »,
15:44 mais qui, dans la construction d'un écosystème qui porte vraiment l'innovation,
15:49 il faudrait que les investisseurs institutionnels,
15:52 il faudrait que les banques, les assurances, etc.,
15:54 soient peut-être moins frileuses et réinvestissent plus dans nos « scale-up »,
15:59 dans notre bassin d'innovation.
16:02 Encore une fois, on est ravi que les entrepreneurs français
16:05 puissent bénéficier d'investissements venant, par exemple, des États-Unis
16:10 ou d'autres régions du monde.
16:11 Mais il faudrait surtout avoir cet écosystème VC européen fort.
16:15 Je pense que c'est ce qui manque aujourd'hui pour structurer...
16:18 Je confirme, des 4 nains !
16:20 On est d'accord là-dessus, mais ça permet de faire un lien avec le sujet précédent,
16:24 finalement, lorsqu'on a parlé de la régulation.
16:26 La régulation ne permet pas de faire émerger les champions européens.
16:29 Parce que pour faire émerger les champions européens,
16:32 il faut des fondamentaux qui soient forts.
16:34 Les fondamentaux sur les marchés qui nous intéressent aujourd'hui
16:37 se situent sur les infrastructures, le cloud,
16:40 la capacité de faire de l'hyperscale,
16:43 et puis sur les capacités de calcul.
16:46 Aujourd'hui, que ce soit au niveau des microprocesseurs ou des GPU,
16:49 des cartes graphiques, on est à la ramasse.
16:51 En Europe, il faut bien être clair.
16:53 On a des supercalculateurs quand même, Julien.
16:55 On a des supercalculateurs, mais en quantité insuffisante
16:57 par rapport à ce qui peut se pratiquer en Asie ou aux États-Unis,
17:00 déjà pour commencer.
17:01 Et puis surtout, encore une fois, on est basé sur des intrants
17:03 qui sont majoritairement étrangers,
17:05 qu'ils soient américains ou qu'ils soient asiatiques,
17:08 pour ce qui concerne beaucoup de microprocesseurs
17:10 ou les métaux qui sont nécessaires à la fabrication de ces infrastructures.
17:13 Donc attention effectivement de ne pas se cantonner
17:16 uniquement sur la dernière partie de cette fameuse chaîne de valeur
17:19 dont Adrien parlait,
17:21 parce qu'une grosse partie de la valeur, finalement,
17:24 est en amont de cette chaîne de valeur.
17:26 Et là, aujourd'hui, on est un peu absent des débats.
17:28 C'est ça qui est très embêtant.
17:29 C'est-à-dire qu'on pense que tout cet investissement
17:32 va nous bénéficier, mais non.
17:34 Cet investissement est fait pour que les clients européens
17:37 continuent à dépenser vers des boîtes américaines.
17:40 Donc c'est juste un courant d'accélération,
17:42 de transfert de valeur de l'Europe,
17:44 qui n'est qu'un marché de clients,
17:46 vers d'autres continents où on tolère des géants.
17:48 Parce que l'Europe, on refuse les géants.
17:50 Donc pas de quoi se méjouir, mais même plutôt de quoi s'inquiéter, finalement,
17:52 si je devais résumer votre pensée.
17:54 On n'a pas le choix.
17:56 Je proteste juste contre l'effet d'annonce 4 milliards en France.
18:00 Bravo.
18:01 Il faut arrêter ce poké du monde.
18:03 Allez, on enchaîne avec notre autre sujet.
18:05 On va parler de la lutte contre les ingérences étrangères,
18:08 avec un dispositif qui a été annoncé par Jean-Noël Barraud,
18:12 désormais ministre délégué en charge de l'Europe.
18:15 Alors il appelle les plateformes à montrer comment elles s'organisent,
18:19 comment elles se préparent pour mieux modérer
18:22 les contenus qui passent sur leurs plateformes.
18:25 Et le ministre nous dit qu'on va maintenir
18:28 la pression maximale jusqu'au scrutin.
18:31 Je ne souris pas. C'est bien.
18:33 Oui.
18:34 C'est très bien qu'un ministre qui était au numérique
18:37 et qui va aux affaires étrangères en Europe
18:40 se saisisse de ce sujet.
18:42 Pour lequel, il faut rappeler qu'en France,
18:44 on avait créé Viginum,
18:46 qui est une entité qui vise justement
18:48 à suivre la vigilance sur les ingérences numériques étrangères,
18:51 qui a un bilan de deux années maintenant,
18:54 avec une augmentation aussi des cas constatés.
18:57 Vous parliez d'infrastructures essentielles.
18:59 C'est justement sur ces attaques-là,
19:01 sur les infrastructures essentielles
19:03 que se sont mis en place certains services de la nation.
19:05 Et ça me paraît très important dans une année d'élection mondiale,
19:08 mais en particulier européenne en 2024,
19:10 que ce sujet soit mis en avant.
19:12 C'est le minimum d'en parler.
19:14 On est en plein justement dans une campagne aux européennes.
19:18 On sait que ces ingérences numériques existent,
19:21 mais pas d'aujourd'hui ou d'hier.
19:23 Ça fait des années.
19:25 Vous avez cité Viginum. Très bien.
19:27 Qu'est-ce que ça veut dire, mettre la pression maximale
19:29 sur les plateformes ?
19:30 Ça peut être provocateur.
19:32 Exceptionnellement.
19:34 On devrait interdire toutes les plateformes
19:36 la semaine qui précède les élections,
19:37 de même qu'on n'a plus le droit de parler à la télévision.
19:39 Parce que c'est impossible de faire autrement.
19:41 C'est impossible.
19:42 C'est annoncé que ça allait être ça.
19:43 C'est vrai que c'est un représentant de la TNU.
19:45 Non mais c'est extrêmement compliqué.
19:47 C'est un danger fondamental.
19:49 C'est un danger fondamental pour les démocraties.
19:52 Il ne faut pas se tromper.
19:53 Il y a tous les gens qui nous attaquent qui disent
19:55 que la démocratie est une anomalie de l'histoire.
19:56 Ils ne peuvent pas supporter la démocratie
19:58 parce que ça les met en danger eux, personnellement.
20:00 Donc là on voit bien qu'on est plus dans le même monde.
20:02 Vous savez de qui je parle.
20:03 Ils ne sont pas très nombreux.
20:04 Ils sont 5, 6 maximum.
20:05 Ils n'ont qu'un besoin.
20:07 C'est pour survivre, tuer les démocraties.
20:09 Donc c'est grave.
20:10 C'est très grave.
20:11 Julien, vous surveillez les réseaux sociaux.
20:13 Vous connaissez bien comment fonctionnent ces plateformes.
20:15 Est-ce que vous avez le sentiment, là,
20:17 qu'il se passe déjà des choses
20:20 sur ces réseaux sociaux
20:22 qui devraient être davantage modérés ?
20:24 Bien évidemment.
20:25 Moi ce qui me choque depuis 5, 6 ans
20:28 c'est le niveau de professionnalisation
20:30 qu'il y a derrière les campagnes de désinformation
20:32 et de déstabilisation.
20:33 En fait, il y a un modus operandi
20:35 qui est assez simple
20:36 qui consiste à attaquer
20:38 soit à dominem
20:40 les personnalités politiques,
20:41 les décrédibiliser,
20:42 éventuellement alimenter
20:45 avec des histoires un peu sulfureuses,
20:48 limite complotistes,
20:50 autour des personnes.
20:51 Quand les personnes, ça ne suffit pas,
20:53 on attaque les médias
20:54 qui sont forcément à la seule des puissants et des pouvoirs.
20:57 Et puis derrière,
20:58 on va aussi attaquer le modèle,
21:00 la démocratie,
21:01 la démocratie qui est la source de tous les maux
21:03 et toutes les inefficiencies
21:04 que tout un chacun peut connaître
21:07 dans sa vie de tous les jours.
21:08 Et puis derrière, évidemment,
21:09 on va prendre des sujets les plus clivants possibles,
21:11 des sujets autour de l'immigration,
21:12 autour de la sécurité,
21:13 autour des faits de société,
21:15 la gestion pour autrui,
21:16 ce genre de choses,
21:17 de façon à les monter en épingle,
21:18 parce qu'on sait que ce sont des sujets
21:20 qui vont avoir un taux d'engagement
21:22 qui sera maximal.
21:23 Quand vous mixez un petit peu tout ça,
21:24 vous avez un outil d'une puissance phénoménale
21:28 pour pousser les indécis
21:31 vers le côté, on va dire,
21:32 le plus réactif de la force.
21:33 Et c'est vrai que,
21:34 là, ces dernières années,
21:35 je trouve qu'il y a une accélération
21:37 sur les réseaux sociaux.
21:38 C'est évidemment impossible à maîtriser,
21:40 donc c'est plus de l'ordre du ressenti,
21:42 mais j'ai vraiment l'impression
21:43 qu'effectivement, sur X,
21:45 mais encore plus sur TikTok,
21:47 ça accélère fortement.
21:49 - Vous avez le sentiment, Adrien,
21:50 vous avez travaillé,
21:51 vous avez aussi travaillé sur un rapport
21:53 pour les métaverses,
21:54 vous avez fréquenté ces politiques
21:56 et leur façon de penser le numérique.
21:58 Vous avez le sentiment
21:59 qu'on a fait preuve de naïveté en France ?
22:01 C'est ce qui ressort de certains rapports
22:02 sur les ingérences d'étrangères.
22:04 - Ce qui est frappant
22:05 quand on va aux États-Unis,
22:06 c'est qu'on se rend compte
22:07 que la régulation aux États-Unis,
22:08 contrairement à celle qui peut exister
22:09 en France ou en Europe,
22:10 elle est beaucoup plus concentrée,
22:12 justement, contre ces ingérences.
22:14 Leur objectif premier,
22:15 c'est la protection des citoyens.
22:16 Là où, en Europe,
22:17 on a tout un marché,
22:18 le marché unique qu'on essaie de promouvoir,
22:20 et donc c'est aussi
22:21 la protection du consommateur.
22:22 Donc quand, là récemment,
22:24 pour avoir parlé avec différentes personnes
22:25 qui étaient au département
22:26 de Justice of State aux États-Unis,
22:28 dès qu'ils vous parlent en Réunion,
22:29 ils vous parlent des quatre puissances étrangères
22:31 qui sont des puissances d'intérêt pour eux
22:33 par rapport aux attaques
22:34 qu'ils peuvent faire sur leur territoire,
22:35 que ce soit sur les réseaux,
22:36 que ce soit sur les contenus,
22:37 sur la strotterfing,
22:38 le fait de gonfler de manière inauthentique
22:40 certaines campagnes.
22:41 Et donc, aux États-Unis,
22:42 c'est une priorité nationale numéro un.
22:44 C'est surtout ça, en fait.
22:46 Je ne dirais pas que c'est une approche différente,
22:48 mais je dirais que c'est une forme
22:50 de priorisation différente.
22:52 Et là où, en Europe,
22:54 on a une envie de s'attaquer à beaucoup de sujets
22:56 et de manière très légitime,
22:58 enfin, je veux dire, il y a beaucoup de choses.
23:00 On parlait de droit de la concurrence,
23:01 on parlait de la modération des contenus,
23:02 on parlait de l'intelligence artificielle.
23:04 Aux États-Unis,
23:05 si vous regardez bien les textes qui sont votés,
23:08 les textes dans toutes ces matières-là,
23:10 c'est uniquement s'il y a une puissance étrangère
23:12 qui va prendre possession d'une entreprise
23:14 qui pourrait avoir un impact sur le territoire américain.
23:17 Donc il y avait rétablement, je dirais,
23:19 une divergence ou quasi une dichotomie d'approche
23:23 entre les deux continents,
23:25 et ça, c'est assez intéressant.
23:26 Alors, je voulais aussi vous entendre
23:28 sur cette décision prise par le gouvernement français
23:31 de bloquer TikTok en Nouvelle-Calédonie
23:33 dans un contexte d'émeute.
23:35 On avait déjà entendu ça en France,
23:38 en métropole, au moment des émeutes l'été dernier.
23:43 Cette menace de couper l'accès aux réseaux sociaux.
23:46 Quel est votre regard sur cette décision, Alain ?
23:48 C'est très ambivalent.
23:50 C'est très ambivalent.
23:52 Pour arrêter le printemps arabe, il fallait tout couper.
23:54 Mais ce n'était pas la gloire des gens
23:56 qui voulaient arrêter le printemps arabe.
23:58 Et en même temps, TikTok, c'est exactement ce que disait Julien,
24:01 c'est juste dévastateur.
24:02 Donc on ne peut pas laisser TikTok.
24:04 Si ce n'est pas sur TikTok, ce sera sur X ?
24:06 Oui, X, tout à fait.
24:09 Mais il y a TikTok d'abord, il y a X après.
24:11 Il y a encore un saut avant le suivant,
24:13 mais évidemment, ils vont finir par dire
24:15 "Non, on a un vrai sujet".
24:16 Snapchat et Telegram aussi beaucoup.
24:18 On a un vrai sujet de maintien d'une démocratie harmonieuse
24:22 dans un monde où on a des outils pour tout le monde
24:24 parce qu'on a l'air communiqué,
24:25 qui sont gérés par des gens de plus en plus clivants.
24:28 Adrien ?
24:29 Ça m'évoque beaucoup de choses.
24:30 Je pense qu'il faudrait une émission juste sur ce sujet.
24:32 Il y a quand même aussi une question de séparation des pouvoirs,
24:35 je pense qui est importante,
24:36 entre le judiciaire, l'exécutif et autres.
24:38 De manière générale, depuis une dizaine d'années,
24:40 dans la régulation du numérique,
24:41 il y a un glissement sur le fait que
24:43 certaines décisions peuvent être prises
24:44 par des autorités administratives.
24:46 Là, vous parlez, par exemple, récent de TikTok,
24:50 mais il y a d'autres décisions qui pourraient être prises
24:52 sans passer devant une juridiction.
24:54 Oui, par exemple, dans le cas de la protection des mineurs
24:57 contre les contenus pornographiques,
25:00 on pourrait se passer, a priori, d'une décision judiciaire.
25:04 Allez vite !
25:05 C'est là où il faut faire preuve de cas par cas et un peu de nuance.
25:09 Je pense que pour certaines décisions systémiques
25:11 très importantes pouvant avoir un impact,
25:13 il faut aussi voir quand est-ce qu'il y a du judiciaire
25:16 et c'est pour ça qu'il y a une séparation, des fois,
25:19 entre le législatif, l'exécutif et le judiciaire.
25:21 Rapidement, Julien, sur TikTok en Nouvelle-Calédonie.
25:24 Rapidement, ce serait compliqué !
25:26 Désolé, mais j'aurais bien aimé qu'on parle de...
25:28 Verre alerte !
25:29 D'un mot, moi, je trouve que l'interdiction
25:32 est toujours la plus mauvaise des réponses possibles,
25:35 surtout qu'on sait que les réseaux sociaux,
25:37 dans certains cas très précis,
25:38 sont capables d'être extrêmement réactifs.
25:40 On l'a vu, par exemple, vis-à-vis de la pandémie
25:43 où lorsqu'il y a une catastrophe naturelle,
25:45 pour pouvoir dire à ses proches
25:46 que l'on est dans une "safe place", par exemple.
25:48 Donc, ils savent être très réactifs.
25:50 Moi, je leur demanderais juste d'être responsables,
25:52 tout en étant aussi réactifs
25:54 lorsqu'il y a des problématiques de ce type-là.
25:57 Mais ça veut dire qu'on peut porter la responsabilité aux plateformes ?
26:00 Mais ils ne peuvent pas !
26:01 Leur code, c'est le business.
26:02 C'est à eux de décider ce qu'ils laissent passer ou pas ?
26:04 Surtout s'ils sont instrumentalisés.
26:07 Mais oui, mais si c'est pour faire plus d'audience,
26:10 ils s'en tapent, ils s'en moquent.
26:11 Mais faire de la modération a priori au niveau des plateformes ?
26:15 Bon, allez, effectivement,
26:18 on ne fera qu'ennerner une émission entière sur le sujet.
26:20 Alors, je propose qu'on termine avec cette alerte stridente
26:23 qui est arrivée sur nos smartphones.
26:25 FR Alert pour nous dire qu'il y avait une plateforme
26:28 qui nous permettait d'obtenir un QR code
26:30 pour circuler pendant la période des Jeux Olympiques 2024.
26:33 Très bien.
26:34 C'est arrivé un soir vers 20h.
26:37 Moi, j'ai constaté déjà que tout le monde ne l'avait pas reçu
26:40 en étant dans des périmètres proches.
26:43 Qu'est-ce que vous avez pensé de l'utilisation déjà de cette alerte
26:47 pour le signalement de l'arrivée de cette plateforme ?
26:50 J'étais sur mon vélo, j'ai failli me casser la figure.
26:52 Je vois "alerte extrêmement grave".
26:54 Je dis ça, il y a mon chopin en train de brûler un feu rouge.
26:56 Qu'est-ce que ça veut dire ?
26:57 On est en Chine.
26:58 On est en Chine.
27:00 Et je m'arrête et je dis "merci de télécharger un pass".
27:03 Un QR code.
27:04 On se trompe.
27:05 Mais totalement.
27:06 En termes de communication, je vais le laisser par les experts,
27:08 mais on se trompe.
27:09 C'était un test pour voir si ça fonctionne bien.
27:11 Moi, personnellement, je ne l'ai pas reçu.
27:13 Donc ça montre que ça ne fonctionne pas bien.
27:15 C'est peut-être parce qu'en étant avant-garde de la technologie,
27:18 je suis peut-être parano et je ne suis pas dans les fichiers.
27:20 Quel opérateur ?
27:21 C'est une donnée personnelle.
27:22 Non, quel opérateur ?
27:23 Un des trois.
27:24 Un des quatre.
27:25 Un des quatre.
27:26 Très avancé.
27:27 Non, mais sans faire de blague.
27:29 Je suis en train de faire des stats.
27:31 En l'occurrence, j'ai deux opérateurs et deux téléphones
27:34 et je les ai reçus sur l'un des deux.
27:36 Le fil conducteur de l'émission, après tout, c'est peut-être l'ingérence,
27:39 sans dire qu'elle soit nationale ou étrangère.
27:41 Très bien.
27:42 Julien ?
27:43 Je suis complètement d'accord.
27:44 Et puis je ne l'ai pas reçu non plus.
27:45 J'étais en programme.
27:46 Non.
27:47 Ah ben oui.
27:48 Or, en têne, vous me direz les noms des opérateurs.
27:50 Ok.
27:51 Vous le n'ont ?
27:52 Non.
27:53 Merci, Julien Pillot.
27:54 Merci Adèle Fille.
27:55 De l'INSEC, maître bas de vent, d'entropie et à l'instaron d'Artifil.
27:59 D'Artifil était avec moi pour ce grand débrief de la tech.
28:02 A très vite.
28:03 [Musique]