• il y a 10 mois
Fin du suspens à Bercy ! Après de longues semaines d’attente, la liste du gouvernement complet de Gabriel Attal a enfin été dévoilée. Et ce n’est pas forcément une bonne nouvelle pour la French Tech. Si Jean-Noël Barrot devient ministre délégué à l’Europe, sa successeure Marina Ferrari ne récupère qu’un titre amoindri de secrétaire d'État. A l’heure où le secteur fait face à de nombreux enjeux, entre montée de l’IA et régulation, faut-il s’inquiéter de ce remaniement ?

Category

🗞
News
Transcription
00:00 *Générique*
00:04 Dans le débrief aujourd'hui, les débatteurs s'appellent Fabienne Bia. Bonjour Fabienne.
00:08 Bonjour Nelchine.
00:09 Très heureuse de vous recevoir en plateau parce qu'à chaque fois on est plutôt à distance tous les deux.
00:13 Donc Fabienne Bia, conseillère en communication et stratégie numérique,
00:17 Henri Dagrin, délégué général du CIGREF et Eric Lequelenec, avocat associé spécialiste du droit du numérique chez Simons & Simons.
00:25 Bonjour.
00:26 A tous les deux et je suis très heureuse aussi de vous recevoir bien entendu. On va démarrer avec la nomination
00:32 puisque ça y est on a enfin un remaniement finalisé, la nomination de la nouvelle secrétaire d'état au numérique.
00:38 On peut peut-être déjà commencer non pas par la personne mais ne serait-ce que par l'intitulé du poste
00:44 puisqu'on est passé d'un ministre délégué en charge du numérique à une secrétaire d'état au numérique.
00:51 Ce n'est pas tout à fait la même chose, elle ne va pas participer à l'ensemble des conseils des ministres.
00:56 Est-ce que selon vous ça va vraiment même être pénalisant cette dégradation du titre sur la responsabilité,
01:05 sur ces sujets du numérique au niveau gouvernemental où finalement ce n'est pas un sujet d'inquiétude ?
01:10 Henri.
01:11 Moi je pense que c'est... J'ai tendance à penser que ce n'est pas tellement un sujet d'inquiétude.
01:17 Ce qui est important c'est de voir comment ces sujets vont être pris en charge.
01:21 Et je rappelle quand même que dans l'intitulé de la fonction de Bruno Le Maire il y a également...
01:26 La souveraineté.
01:27 La souveraineté numérique, industrielle et numérique. Numérique donc est bien porté.
01:32 Est-ce que c'est grave ? Je n'en sais trop rien.
01:35 Ce qui va compter c'est surtout la façon dont Marina Ferrari va prendre en charge ces dossiers.
01:42 Et figurez-vous, je l'ai rencontré avec mon président, avec le président du CYF Jean-Claude Laroche.
01:48 Nous l'avons rencontré avant-hier.
01:50 Pour la première fois donc.
01:51 Pour la première fois.
01:52 Pour la première fois.
01:53 Je sais que ça a surpris pas mal l'écosystème tech.
01:56 Ma nomination c'est vrai qu'a priori pas grand monde ne la connaît.
02:00 Elle dit pourtant "moi ça fait quand même 10 ans que je suis dans la tech".
02:03 Côté RH.
02:04 Il y a beaucoup de monde dans la tech.
02:05 Voilà.
02:06 Et ben oui.
02:07 Non très concrètement on peut se résoudre effectivement qu'enfin il y a une personne de qualité à ce poste.
02:13 Comment ça enfin une personne de qualité ?
02:15 Alors là attendez il me manque une...
02:17 On l'a attendue quand même.
02:19 On avait Jean-Noël Barraud.
02:21 Bien sûr mais qui est également de très grande qualité.
02:23 Dans l'entre-deux.
02:24 Dans l'entre-deux au regard effectivement de la manière dont ce remèdement a été mené.
02:29 Et en tous les cas je crois qu'on a vraiment besoin de quelqu'un qui soit très proche des institutions européennes.
02:35 On a vu là sur ces derniers mois quelques frictions sur des sujets liés justement à la régulation du numérique.
02:42 Et donc avoir quelqu'un effectivement qui est proche naturellement des enjeux européens est plutôt une très bonne nouvelle.
02:48 Alors moi je m'intéresse sur ce point là en particulier puisque Jean-Noël Barraud est parti justement aux affaires européennes.
02:54 Avec a priori il va avoir pris sous le bras quelques dossiers du numérique qui se décident à Bruxelles.
03:01 Et c'est ce que je trouve dans ce duo qui va se mettre en place notamment vis-à-vis de Bruxelles.
03:08 C'est qu'on aura donc aux affaires européennes, au quai d'Orsay, Jean-Noël Barraud qui connaît très bien ces sujets là.
03:15 Et qui lui-même, j'en suis sûr et j'en avais parlé avec lui lors de sa passation de suite,
03:21 a comme ambition effectivement de continuer à porter ces sujets là pour l'exécutif français.
03:27 Donc l'un dans l'autre je pense que c'est quand même un beau tandem et je suis assez certain que les choses vont plutôt bien se passer.
03:35 Alors moi aussi je me suis laissé dire qu'effectivement il allait continuer à suivre ces sujets du numérique au niveau européen.
03:41 C'est en plus l'échelle à laquelle aujourd'hui on doit traiter en vrai ces sujets mais pas seulement.
03:46 En revanche on ne nous a pas présenté quand même l'histoire comme ça, comme un binôme.
03:50 Fabienne sur cette nomination, ce secrétariat d'état au numérique, votre réaction ?
03:55 J'ai envie de dire oui, effectivement on va voir ce qui va se réaliser.
03:59 Mais j'aime bien ce duo néanmoins qu'on peut mettre en avant parce que finalement ce qui manque au numérique en France,
04:06 c'est quand même un écosystème de connaissances numériques par les politiques.
04:11 Et plus ils seront nombreux, où qu'ils soient, et mieux ce sera en plus cette personne vient du territoire de Savoie je crois.
04:18 Donc moi même étant lyonnais je trouve que c'est intéressant d'avoir la connaissance sur les territoires
04:24 parce qu'il y a quand même une vraie disparité de connaissances numériques et d'appréhension du numérique entre les territoires et la capitale.
04:33 C'est vrai, ça c'est un point effectivement, on sort un peu de Paris.
04:39 Si je puis permettre, le troisième homme quand même c'est notre président de la République.
04:43 On voit quand même que sur le numérique il a pratiquement créé une sorte de domaine réservé,
04:48 du moins on l'a vu sur les dernières annonces les plus marquantes.
04:52 Et là aussi on estime que c'est vraiment dans la plus proche collaboration avec lui qu'on peut vraiment sans doute faire bouger les choses.
04:59 Alors Emmanuel Macron il est parti avec sa French Tech au départ et puis aujourd'hui il s'empare davantage de sujets de société.
05:05 On l'a entendu dans sa conf de presse adresser la question par exemple de l'exposition, de la surexposition des enfants aux écrans.
05:13 Mais enfin il ne va pas pouvoir s'occuper de tous ces dossiers tout seul. Henri.
05:16 Et je rajoute quand même qu'il y aura une grande continuité je pense dans l'action de Bercy sur les sujets numériques.
05:24 Parce que le directeur de cabinet de Jean-Noël Barreau, Renaud Vedel, reste en poste auprès de Marina Ferrahi.
05:32 Et ça c'est une excellente nouvelle. Renaud Vedel est quelqu'un qui connaît très bien ces sujets là,
05:37 qui les avait travaillés avant à la direction générale des entreprises, en tant que coordinateur national des stratégies d'accélération pour l'intelligence artificielle.
05:48 Il connaît très bien ces sujets là. Il y a une grande continuité. Je pense que c'est un...
05:53 Grande continuité ? Je pense que c'est bien possible.
05:55 Ah mais oui. Parce que je le ressens comme ça. C'est l'importance d'un cabinet.
06:01 Vous vous êtes entretenu, vous nous avez dit, avec notre nouvel secrétaire d'Etat. Qu'est-ce que vous vous êtes dit ?
06:07 Ah nous on a présenté d'abord le CIGREF qu'elle ne connaissait pas. On lui a présenté...
06:11 Le CIGREF qui représente quand même...
06:13 Les grandes entreprises françaises et les grandes administrations publiques françaises.
06:17 Qui ont des stratégies numériques aujourd'hui clés.
06:20 Absolument.
06:21 Qui sont les plus gros acheteurs de solutions numériques.
06:23 Ah bah oui. Oui. C'est... Le budget cumulé, disons le cash-out annuel des adhérents du CIGREF, c'est un peu plus de 60 milliards d'euros par an.
06:36 Oui. Donc c'est quand même bien qu'elle vous connaisse maintenant.
06:37 Oui.
06:38 Voilà. Et on lui a exposé les différents sujets de préoccupation de nos adhérents.
06:43 Juste sur cette question des dossiers européens. Là on est en train de dire bon alors est-ce qu'on a vraiment un profil suffisamment numérique, suffisamment tech,
06:53 qui connaît pas aujourd'hui très bien tout cet écosystème a priori.
06:56 Mais est-ce qu'il faut avoir un profil peut-être plus juridique finalement pour adresser ces sujets du numérique ?
07:01 Parce que ça joue beaucoup sur le réglementaire.
07:04 Évidemment. Et puis on voit l'inflation réglementaire précisément d'origine européenne, mais aussi à l'initiative non seulement du gouvernement, mais de certains parlementaires.
07:13 C'est vrai.
07:14 Il s'agit en effet d'articuler toutes ces initiatives. On voit précisément, c'est les quoi que j'évoquais à l'instant, que sur notamment le bannissement des réseaux sociaux,
07:22 sur d'autres mesures justement de contrôle de l'âge, on va y revenir, des mineurs sur certaines plateformes.
07:28 Voilà, il y a eu effectivement beaucoup d'idées, mais pas forcément très bien coordonnées.
07:32 Et je pense qu'en réalité, là, la vraie qualité dont on a besoin en évo de ce secrétariat numérique, c'est finalement de la maîtrise d'œuvre et de l'organisationnel,
07:40 peut-être plus encore que la technicité juridique sur laquelle évidemment chacun de nos ministres ont de toute façon d'excellents secrétaires de cabinet qui sont là pour y pourvoir.
07:50 C'est vrai. Donc on jugera sur les actes.
07:53 Et grâce à notre autre sujet, on va parler de la protection des mineurs en ligne avec cette possible déchéance de parentalité qui en fait veut mettre face à la responsabilité des parents
08:04 qui parfois exposent, surexposent même leurs enfants sur les réseaux sociaux à travers des photos, des vidéos, qui peuvent être du matériau utilisé par des cybercriminels,
08:16 par des réseaux de pédopornographie. Et donc il s'agit de ressensibiliser à nouveau les citoyens sur l'importance de maîtriser finalement nos données personnelles et puis de protéger les mineurs en ligne.
08:29 Ce texte, il vous semble aller dans le bon sens parce que c'est de la sensibilisation ou vous vous dites là quand même, allez jusqu'à imaginer déchéance de parentalité pour ce sujet. C'est un peu fort Fabienne.
08:39 Il me semblait que le texte était assez pédagogique tout de même et puis il renforce en plus une loi d'octobre 2020, 2019 pardon. Et c'est de la culturation finalement, c'est de la littératie numérique qui est manquante aujourd'hui.
08:51 Je crois qu'on va parler également de TikTok et de Douyin peut-être ensuite. Les Chinois font énormément de réglementations par rapport à ça.
08:58 Aujourd'hui, les enfants entre 14 et 18 ans regardent TikTok à peu près deux heures par jour au niveau mondial. Et les enfants avant 13 ans ont environ une moyenne 1300 photos d'eux-mêmes qui sont exposées sur les réseaux sociaux.
09:11 Bien évidemment, ce sont les parents qui ont posté ces photos. Et 50% de ces photos se retrouvent sur les forums pédo-criminels.
09:19 Donc je pense que l'enjeu est tellement vaste et tellement important, tellement crucial qu'on parle de déchéance de parentalité.
09:29 C'est peut-être un petit peu effectivement excessif, mais en tout cas de la connaissance et de la culturation avec des garde-fous qui soient de plus en plus restrictifs et coercitifs. Pourquoi pas ?
09:38 Est-ce qu'on aurait pu imaginer une campagne de sensibilisation ? Là, on repasse encore par un texte de loi.
09:43 Alors, je suis vraiment d'avis qu'il vaut mieux prévenir que guérir et même punir. Là, en l'occurrence, déchéance de parentalité.
09:51 Je crois qu'il n'y a pas de pire sanction pour un parent, quel qu'il soit père ou mère, et qu'à tout point de vue, évidemment, moi-même, j'ai pu participer à des sessions de sensibilisation,
10:02 souvent auprès de jeunes élèves. Mais pourquoi pas faire la même chose auprès des parents ? Sauf erreur, ça n'existe pas beaucoup.
10:08 Donc prévoir en effet des sortes de stages, des messages aussi disponibles. Pourquoi pas, au-delà d'un certain nombre de minutes passées sur les réseaux sociaux,
10:19 qu'on soit adulte ou enfant, des messages qui s'affichent très automatiquement pour rappeler certaines évidences. Après, moi, d'un simple point de vue...
10:25 Par exemple, qu'on peut passer son profil Facebook en privé pour partager les photos des enfants uniquement en famille, par exemple.
10:33 Très juste. Et à partir de là, le régime juridique, je pense, doit être le plus simple. On a un article 9 du Code civil qui est formidable pour encadrer
10:42 et protéger la vie privée. Je suis toujours assez réservé quand on veut avoir des lois qui courent après la technique ou des phénomènes, effectivement, qui peuvent être
10:50 même structurants, voilà, essayant de garder un cadre suffisamment large pour tout englober.
10:56 C'est une question, vous allez me dire peut-être, Henri, je ne sais pas, c'est une question de cybersécurité. Au contraire, c'est bien de mettre les poids sur les i ?
11:01 Non, ce n'est pas une question de cybersécurité. C'est une question... D'abord, il y a plusieurs observations qu'on peut faire.
11:05 C'est de la cybercriminalité dont on parle, hein ? Oui. Mais c'est assez différent. C'est de la criminalité dans l'espace numérique.
11:14 Absolument. Pour le dire plutôt comme ça. Vous avez raison. C'est de la criminalité qui se déploie dans l'espace numérique.
11:18 Moi, j'observe quand même plusieurs choses. D'abord, si on parle de TikTok, le TikTok en Chine n'est pas du tout le même que le TikTok pour les Occidentaux.
11:28 Et ça, c'est peut-être le sujet principal à regarder. Vous voudriez avoir le TikTok chinois ? Non. Mais bien observer que le TikTok pour les Occidentaux...
11:39 D'abord, qu'est-ce qui est fait des données ? Et notamment aux États-Unis. Je ne sais pas si vous vous souvenez, il y a un an et demi, il y avait eu toute une polémique autour du fait que
11:49 les serveurs qui utilisaient TikTok pour les jeunes Américains devaient être situés aux États-Unis et opérés par une entreprise américaine
11:58 pour que les données ne repartent pas en Chine. Or, on s'est aperçu à cette époque-là que les données repartaient bien en Chine, parce qu'elles sont utilisées à dessein.
12:08 Et la deuxième chose, comment est-ce que TikTok peut être utilisé par la Chine pour manipuler la multitude occidentale, pour manipuler les opinions occidentales ?
12:21 Ça, c'est un autre sujet. Et je pense que focaliser sur la responsabilité parentale quand on parle de ces outils, notamment de TikTok, c'est peut-être cacher l'arbre qui cache la forêt.
12:34 Il y a quand même deux sujets, c'est parce que j'ai mis un peu deux sujets en un sur la protection des mineurs. Il y a cette loi qui touche à la parentalité, et puis il y a cette enquête au niveau européen
12:41 pour l'application du Digital Services, juste pour préciser, qui s'intéresse à un problème de transparence de TikTok vis-à-vis de ses pratiques.
12:49 Mais avant ça, on est confronté à une addiction qui est croissante, et c'est peut-être également un problème de santé mentale publique, qui doit relever de politiques publiques liées à la santé mentale,
13:04 notamment auprès des enfants, auprès des adolescents. Donc là aussi, ce sujet-là, il ne faudrait pas que la responsabilité parentale ou la mise en œuvre du DSA, on se dise « on a traité le problème ».
13:16 On n'a pas traité le problème. On a un vrai sujet. On a un vrai problème de l'addiction à ces interfaces. Absolument. Et ça, c'est un vrai sujet d'inquiétude, qui est peut-être aussi le plus important aujourd'hui.
13:27 Donc celui de la manipulation avec TikTok, notamment, et de l'utilisation des données, et celui de la santé mentale. Fabienne ?
13:34 Il y a effectivement plusieurs choses. Nous, on peut jouer avec la responsabilité des parents, me semble-t-il, avec des moyens qui sont assez soft, par exemple, de paramétrer une heure.
13:43 Alors par exemple, Douyin, en Chine, est paramétré pour que les enfants de moins de 8 ans aient un accès à 40 minutes. Et c'est Douyin qui a mis 40 minutes, enfin non, une heure,
13:53 alors que le gouvernement chinois a mis 40 minutes. Donc déjà, un restreint énormément. Nous, en France, encore une fois, dans le monde, c'est deux heures de visibilité.
14:02 Alors on a le contrôle parental, désormais, qui est réinstallé par défaut sur tous les nouveaux appareils mis sur le marché.
14:07 Alors est-ce que c'est, par exemple, de paramétrer en disant on peut regarder, on a accès au réseau social pendant une heure, et ensuite, il faut à nouveau un mot de passe.
14:14 Donc c'est les parents qui ont un mot de passe pour pouvoir réenclencher la visibilité du réseau social. Par exemple, c'est assez soft. Ça me semble assez pertinent.
14:21 Mais pour reprendre sur Douyin, et par rapport au TikTok, qui est français et qui est européen, c'est une étude d'Ifop qui avait discerné qu'il y avait 20% de fake news sur les contenus
14:34 qui étaient promulgués par TikTok. Et Douyin n'a rien à voir au TikTok français, européen, même mondial. C'est-à-dire que sur Douyin, il y a des contenus scientifiques,
14:44 de la vulgarisation scientifique. Il y a plein de vidéos comme ça sur les musées, des visites de musées. Enfin, des choses qui sont très intéressantes et très pertinentes
14:52 et qui, finalement, participent à la culturation des enfants. Ce qui n'est pas le cas en Europe.
14:57 Oui, c'est pour ça que moi, je m'avais un peu contrarié cette incantation à limiter les écrans. Le problème, ce n'est pas les écrans, c'est ce qu'il y a derrière l'écran.
15:03 Bien sûr, c'est les contenus.
15:05 Et je suis d'accord avec Henri. C'est qu'aujourd'hui, on parle de responsabilité parentale, on parle du DSA, du DMA, des règlements européens sur les grandes plateformes.
15:15 Mais on ne parle toujours pas du problème de leurs interfaces qui nous rendent totalement accro.
15:19 Et c'est d'autant plus vrai qu'en plus, lié à la manière dont ces interfaces sont contenues, il y a des enjeux publicitaires qui sont loin d'être neutres,
15:27 qui génèrent évidemment des millions, si ce n'est des milliards de revenus sur ces plateformes et sur lesquels, en effet, il s'agit de travailler à déverrouiller ces conceptions addictives.
15:39 On peut aussi en anglais « rabbit hole », j'aime bien le terme.
15:41 Et en tous les cas, justement, on a déjà des outils. C'est tout particulièrement sur la transparence algorithmique de ces plateformes.
15:50 DSA, DMA, on a maintenant les outils juridiques pour contraindre les plateformes à plus de transparence.
15:56 Et il s'agit justement aussi qu'il y ait peut-être des organisations familiales, parentales, au-delà des gouvernements, qui soient aussi parties prenantes de ces textes.
16:04 Certes, ils sont un peu complexes, mais je veux dire, il s'agit évidemment de les mettre en…
16:09 Là, en l'occurrence, on voit TikTok, justement, qui est soupçonné de ne pas être suffisamment transparent, de ne pas donner les outils pour auditer ces algorithmes.
16:17 Mais il y a aussi, vous parliez des modèles économiques, ce n'est pas juste les algorithmes, c'est comment ils gagnent de l'argent, en fait.
16:25 Donc c'est tout ce process là qu'il faudrait démêler.
16:28 C'est toutes les plateformes. Donc comment on peut les faire revenir à une genèse qui nous conviendrait ?
16:32 Ça me paraît un petit peu difficile et utopiste.
16:35 Oui, mais ce n'est pas vraiment le sujet. La transparence algorithmique, ce n'est pas le sujet de la santé mentale des adolescents confrontés à cette addiction.
16:44 Ce n'est pas comme ça qu'on va le traiter. Ce n'est pas par la transparence algorithmique.
16:49 Donc on n'a pas abordé le sujet, je pense.
16:52 Non, parce que Henri, vous parliez de l'influence, de l'ingérence même étrangère.
16:56 La transparence algorithmique permet justement d'aller voir s'il n'y a pas des algorithmes qui travaillent.
17:02 On est censé, quand même, au niveau européen, s'organiser pour auditer ces algorithmes des grandes plateformes.
17:07 Et il y a des régulateurs qui sont aussi censés prendre le sujet.
17:11 Comme on le fait sur les marchés financiers.
17:14 Si on touche aux porte-monnaies, on peut faire bouger certains comportements.
17:17 On a vu quand même que certaines plateformes avaient revu, y compris leurs plans d'affaires, suite à l'introduction du RGPD, tout particulièrement.
17:24 Ce sont des algorithmes extrêmement complexes qui évoluent en permanence.
17:27 Oui, on a l'exemple d'Apple qui bouge beaucoup son modèle en ce moment, pour se mettre en conformité avec le digital market.
17:31 Mais on voit aussi comme ce n'est pas si simple finalement d'arriver à l'objectif recherché au niveau européen.
17:36 Ça prendra du temps, nécessairement.
17:38 Alors, on passe à notre autre sujet. On va parler des clés de chiffrement.
17:42 On a la Cour européenne des droits de l'homme qui s'est opposée à l'obligation de fournir des clés de chiffrement.
17:47 En fait, elle a donné raison à un des utilisateurs de Telegram, dont le FSB, le service de sécurité russe, voulait récupérer les messages.
17:56 Pourtant, on était quand même dans un contexte d'attentat.
17:59 Donc, on aurait pu imaginer que ça justifierait cette demande.
18:03 Mais on voit là comme finalement en Europe, on est quand même attaché à cette question de protection du chiffrement.
18:10 A plus.
18:12 Ah ben moi, je pense que là, on est l'homme de l'art.
18:17 Oui, mais on est au cœur, effectivement, de ce qu'on appelle une dialectique entre sécurité et liberté.
18:23 Je crois qu'à un moment donné, il faut choisir son camp.
18:26 On est vraiment avec une juridiction qui a une, on va dire, profonde vision libérale au sens juridique du terme.
18:35 Respectant les libertés fondamentales le plus strictement possible.
18:40 D'ailleurs, c'est pour ça aussi que les Anglais voudraient quitter la CEDH.
18:43 La Russie l'a fait, d'ailleurs, au demeurant depuis.
18:45 Et on le voit bien.
18:47 À un moment donné, ils ont choisi leur camp.
18:49 C'est vraiment cette vision, effectivement, libérale sur laquelle il y a une liberté de communiquer qui est finalement intangible.
18:56 Et à laquelle il peut y avoir finalement de limitations extrêmement limitatives.
19:01 De la même manière, par exemple, que des écoutes téléphoniques en France, c'est 2 à 4 mois selon la gravité de la fraction.
19:06 Mais on voit que c'est extrêmement encadré.
19:08 Là, il s'agissait d'avoir finalement une clé de déchiffrement qui soit, on regarde cette loi russe, finalement permanente.
19:15 Et on est venu, et les juges pour ça ont mis très clairement des gardes fous, vous dire que non, ça n'est pas possible.
19:23 Dès lors qu'il y a un risque qu'il y ait évidemment des écoutes, voilà, ou du moins déchiffrement.
19:29 À écouter plus largement.
19:30 Exactement, au-delà des simples personnes incriminées dans le champ, finalement, des investigations ou des enquêtes de nature pénale.
19:37 Donc je vois qu'à tout point de vue, là, on voit bien qu'on est à la croisée des chemins.
19:41 Mais à un moment donné, il s'agit aussi de préserver la sécurité des personnes.
19:44 Et je ne suis pas sûr que si on prend cet arrêt au pied de la lettre, on arrive à trouver le bon équilibre.
19:49 Alors c'est une question, je peux l'employer le terme de cybersécurité aussi, parce que la question du chiffrement...
19:54 Absolument, ça dépend comment on traite ce sujet-là.
19:59 Il y a plusieurs moyens pour permettre à des services étatiques d'accéder à des contenus.
20:07 C'est d'affaiblir et de contraindre la taille des clés de chiffrement, des dispositifs de chiffrement.
20:15 Ce qui permet par ailleurs de les déchiffrer.
20:17 Il suffit d'avoir la puissance de calcul et les bons outils.
20:21 Tout le monde peut le faire.
20:22 Peut-être pas la bonne solution.
20:23 Il y a également, rendre obligatoire, l'intégration dans le code des dispositifs de chiffrement qu'on appelle les bacs d'or.
20:32 Ce que demandent les services de renseignement américains depuis 2 ans.
20:37 Dont l'entrée est connue uniquement par des services.
20:40 Une porte c'est une porte.
20:42 Absolument.
20:44 Mais c'est une porte ouverte qu'on ne connaît pas, parce qu'elle est vraiment derrière.
20:48 Et d'autres peuvent la trouver et l'utiliser.
20:51 Ça revient à peu près à ce qu'est une faille 0D, une vulnérabilité 0D qui est utilisée,
20:59 quelqu'un la trouve, bam, l'utilise et ça peut avoir des effets extrêmement pervers.
21:04 Donc là aussi, je pense que ce n'est pas une bonne méthode.
21:06 Puis il y a une troisième méthode, c'est d'avoir des tiers de confiance strictes qui disposent de cette capacité.
21:14 Mais il faut que ça se fasse dans un cadre démocratique, sous le contrôle de la justice et pas dans un cadre exclusivement administratif.
21:24 Comment ces tiers auraient accès au chiffrement ?
21:27 Ça veut dire que vous vous déposez auprès d'un tiers de confiance, vous donnez à un tiers de confiance les moyens, les clés qui permettent de...
21:39 Vous remettez à un tiers de confiance des clés comme vous les remettez par exemple à votre gardienne quand vous partez en vacances.
21:44 Aujourd'hui ce n'est pas le choix qu'on fait.
21:46 Non pas du tout.
21:47 On est d'accord ?
21:48 Non, sachant qu'effectivement, on ne parle pas d'hypothèses totalement infaisables, puisque c'est comme ça que fonctionne tout simplement la signature électronique.
21:55 Il n'y a pas nécessairement des tiers de confiance entre une clé publique et une clé privée, au cas par cas, qu'on peut actionner pour savoir qui réellement a signé un document de manière infaillible et intangible.
22:06 Donc je pense qu'à tout point de vue, on peut être créatif.
22:08 Je pense que ce n'est peut-être pas non plus le métier du juge que d'aller sur ce terrain-là.
22:12 Et on souhaite en tous les cas qu'il y ait une vraie réflexion au niveau justement des différents législateurs européens et nationaux pour avancer sur ce sujet.
22:21 En effet, d'accès encadré, ça a été dit, judiciairement ou peut-être sous le contrôle d'un régulateur.
22:27 Vous me dites qu'il faut qu'on ait accès.
22:28 Ce n'est pas si simple.
22:29 C'est ça que j'entends.
22:30 Mais effectivement, avec des outils...
22:31 Je ne sais pas, mais en tous les cas, la lutte contre la pédocriminalité, contre le terrorisme, contre tous les crimes organisés qui se déploient...
22:37 On fera un débat, évidemment, sur le sujet.
22:39 On ne peut pas dire...
22:40 On n'a pas le temps.
22:41 C'est pas un sujet.
22:42 Ce n'est pas vrai.
22:43 C'est un sujet.
22:44 Ah, ça c'est un sujet, c'est sûr.
22:45 Mais tout le monde n'est pas d'accord.
22:46 Fabienne, je vais vous faire réagir au prochain sujet parce que sinon on n'avance pas.
22:49 Oui, le prochain sujet, très bien.
22:51 Le prochain sujet, c'est sur l'IA générative qui n'en finit pas de nous surprendre avec, là, des nouvelles prouesses en matière de génération de vidéos.
23:02 Alors, ça se passe encore une fois du côté d'OpenAI qui communique très bien, en l'occurrence.
23:07 OpenAI qui nous dit pour l'instant, attention, mon produit, donc Sora, mon nouveau modèle, texte tout vidéo, n'est mis entre les mains que d'une red team qui est en charge de vérifier que tout ça ne comporte aucun risque et que ça fonctionne bien.
23:23 Est-ce que vous vous dites, Fabienne Bia, là, on va vraiment trop vite sur l'IA en matière d'IA générative ou au contraire c'est fabuleux, c'est extraordinaire ?
23:31 Mais ni l'un ni l'autre.
23:32 C'est-à-dire que ça avance en technologie.
23:34 On peut difficilement réfréner des technologies parce que de toute façon, il y aura toujours un Elon Musk ou quelqu'un d'autre qui voudra s'en emparer.
23:42 Donc, pourquoi pas ?
23:43 En revanche, ce que je trouve intéressant, c'est qu'il est pris un petit peu conscience des fakes, etc., ce qui avait été généré avec la génération de textes.
23:52 En revanche, on l'a bien vu avec les contenus, etc. Donc là, il fait un petit peu un temps de pause, on peut dire, avec cette team d'experts qui est en charge d'un décèlement, je veux dire, de faux contenus, de fake news, etc.
24:08 Donc ça, c'est déjà pas mal. C'est un temps de retrait.
24:10 Mais bon, de toute façon, il faudra encore de l'apprentissage.
24:12 Ils sont obligés presque à... Non, c'est pas de blanc. Je fais une petite référence en même temps aux images que nous regardons.
24:16 Ça a été donc généré par une intelligence artificielle.
24:20 On voit aussi qu'il y a des progrès encore à faire techniquement.
24:23 En ce moment, ce sont des séquences de vidéos qui sont très courtes.
24:26 On voit quand même des défauts. Bon, tout le monde les a remarqués.
24:29 Il y a aussi autre chose intéressante, au-delà de la Red Team chez OpenAI, c'est cette volonté de travailler autour du watermarking, de dire on va poser finalement un filigrane sur tout ce qu'on est en train de produire avec des IA génératives
24:44 pour pouvoir les repérer et savoir quand ce sont des fausses images ou des vraies images.
24:48 Et donc, nous arrivons au règlement sur l'encouragement de l'intelligence artificielle qui prévoit précisément ce watermarking.
24:57 Et donc, on voit bien qu'en termes d'informations dues au public, il y a aussi le DSA qui prévoit dans une moindre mesure cette information.
25:04 Mais vraiment, le règlement sur l'IA va aller beaucoup plus loin dans une logique finalement de transparence.
25:09 Et ça tombe d'autant mieux que ce soit finalement OpenAI qui soit le premier à proposer ce service SORA,
25:16 qu'a priori, par rapport au seuil de soumission au règlement IA, c'est le seul acteur au jour où on se parle qui sera réellement concerné par l'encadrement des IA génératives selon ce nouveau texte.
25:29 Donc, à tout point de vue, on voit que l'IA progresse.
25:32 Son encadrement juridique, certes, ne s'appliquera pas à tout le monde, mais en tous les cas, le site premier acteur va le faire.
25:38 D'ici 2026, je demande à voir.
25:41 Sur les IA génératives, il y aura déjà des dispositions qui rentrera en vigueur l'an prochain.
25:46 C'est un phasage progressif de rentrée en vigueur.
25:49 En tous les cas, on voit qu'on ne peut rien faire.
25:51 Je suis entièrement d'accord avec la progression des IA à tout point de vue.
25:56 Je voulais juste citer Hans Moravec, qui est un chercheur dans le domaine des IA, qui représente notre monde comme étant une planète avec des terres émergées.
26:05 La cinématographie était très loin, très en hauteur.
26:08 Et la mer IA monte.
26:10 Et ça y est, elle s'attaque déjà, finalement, à la montagne du cinéma.
26:15 Donc, je pense qu'on verra encore beaucoup de choses dans les prochains mois, si ce n'est année.
26:19 Allez, ça ne nous laisse plus qu'une minute, Henri, pour parler de votre actualité, parce que vous avez repéré un sujet autour de VMware.
26:26 Ah, oui, oui.
26:28 Parce que là, ça y est, on n'a déjà plus le temps de parler du reste.
26:31 Je regrette parce que j'aurais voulu parler de Sora, mais...
26:33 Mais moi aussi !
26:35 Mais alors, VMware, très bien.
26:37 VMware a été racheté par Broadcom.
26:40 Broadcom, qui n'est pas à son premier essai, qui avait fait la même chose avec Computer Associate et avec SciMantech.
26:49 Et à chaque fois, ça a été un cauchemar pour les clients de ces éditeurs.
26:55 Aujourd'hui, donc, Broadcom a racheté VMware.
26:59 Maintenant, VMware by Broadcom est un produit qui est mis sous tension par Broadcom,
27:06 qui a déjà viré, je crois, quasiment la moitié des effectifs de VMware.
27:10 Quelles conséquences ça peut avoir ?
27:12 Et quelles conséquences ?
27:13 Des hausses de prix très conséquentes, notamment passage de licence perpétuelle à un mode par souscription annuelle,
27:20 des augmentations des tarifs de la maintenance qui augmentent de 15 à 20 % tous les ans,
27:26 des hausses de tarifs. Bref, ça va avoir un effet assez désastreux sur le marché du cloud
27:32 et notamment pour les opérateurs de cloud alternatifs.
27:35 Merci Henri Dagrin, merci Fabien Nbia, merci Eric Lequelennec.
27:38 C'était Smartex, c'était notre grand débrief et à très vite sur Bsmart.
27:42 Merci.
27:43 [Musique entraînante diminuant jusqu'au silence]

Recommandations