• il y a 2 semaines
Avec Philippe Latombe, membre du groupe MoDem, Secrétaire de la commission des Lois & Gerald Pandelon, avocat en droit des affaires & en droit pénal

———————————————————————

▶️ Suivez le direct : https://www.dailymotion.com/video/x8jqxru

Retrouvez Le Numérique pour tous avec Vanessa Pérez tous les dimanches à 14h30 sur #SudRadio.
---
Abonnez-vous pour plus de contenus : http://
ow.ly/7FZy50G1rry


———————————————————————

▶️ Suivez le direct : https://www.dailymotion.com/video/x8jqxru

Retrouvez nos podcasts et articles :
https://www.sudradio.fr/

———————————————————————

Nous suivre sur les réseaux sociaux

▪️ Facebook : https://www.facebook.com/SudRadioOfficiel

▪️ Instagram : https://www.instagram.com/sudradioofficiel/

▪️ Twitter : https://twitter.com/SudRadio

▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr

———————————————————————

☀️ Et pour plus de vidéos du Numérique pour tous :
https://www.youtube.com/playlist?list=PLaXVMKmPLMDR4AnvSdAZjJkIhzXsyJ9fd


##LE_NUMERIQUE_POUR_TOUS-2024-11-10##

Category

🗞
News
Transcription
00:00Sud Radio, le numérique pour tous, Vanessa Perez.
00:04Bonjour et bienvenue dans le numérique pour tous, l'émission dédiée au digital, à
00:08l'innovation et à la tech responsable.
00:10Alors vous le savez, dès que nous levons la tête, il est impossible de passer à côté
00:14d'une caméra de vidéosurveillance pour garantir notre sécurité.
00:17D'ailleurs, on estime leur nombre environ à 1,5 million sur notre territoire et ça
00:21n'est qu'un début.
00:22Mais avec l'avènement de l'intelligence artificielle, leur utilisation soulève des
00:25questions sur la vie privée et nos libertés individuelles.
00:29Dès lors que nos gestes sont désormais anticipés, alors jusqu'où chaque geste
00:33de notre quotidien peut-il désormais être analysé ? Avec la présence de la data dans
00:38tous les objets connectés, peut-on être puni dès lors que l'on ne respecte pas le
00:41mode d'emploi ? Et surtout, quelles sont les conséquences sur nos libertés individuelles
00:45? C'est ce que nous tenterons de comprendre avec nos invités.
00:48Le numérique pour tous, spéciale surveillance algorithmique, c'est parti et c'est sur
00:52Sud Radio.
00:53Sud Radio, le numérique pour tous, Vanessa Perez.
00:56Et pour commencer cette émission, nous avons le plaisir de recevoir Philippe Latombe.
00:59Bonjour Philippe.
01:00Bonjour.
01:01Donc vous êtes membre du groupe Modem et secrétaire de la commission des lois.
01:05Et pour commencer, parce qu'on aime bien commencer par une définition dans le numérique
01:09pour tous, qu'est-ce qu'on appelle la surveillance algorithmique dans notre quotidien ?
01:12C'est un terme qui est juridiquement impropre, vidéo surveillance algorithmique, c'est
01:17de la vidéoprotection avec une surcouche algorithmique.
01:20La vidéoprotection, c'est tout ce qui est caméras, ce sont les caméras qui sont sur
01:24la voie publique.
01:25Quand on parle de vidéosurveillance, c'est dans les domiciles, dans les lieux privés
01:29pour faire de la protection périmétrique ou pour éviter les intrusions.
01:32Donc là, on parle essentiellement de vidéoprotection avec une surcouche algorithmique, c'est-à-dire
01:36que ce ne sont pas les caméras qui ont dans la caméra elle-même un algorithme d'intelligence
01:42artificielle.
01:43Le flux vidéo va sur un serveur et c'est le serveur qui a un filtre algorithmique qui
01:49permet de repérer des comportements ou des situations anormales.
01:53Alors très concrètement, si on lève la tête, on va aller voir au niveau des feux
01:56urbains ou même peut-être dans des supermarchés, lesquels sont équipés ou lesquels seraient
02:02équipés ? Dans les villes, toutes ces petites boules que l'on voit sur nos feux de signalisation,
02:06ce sont des caméras qui sont équipées d'une couche algorithmique ?
02:09Non, ce sont des caméras qui renvoient un flux vidéo dans une salle particulière avec
02:13un serveur qui lui a la capacité de faire de l'algorithmie.
02:16On n'est pas encore en capacité d'avoir des caméras avec de l'algorithmie directement
02:21embarquée dans la caméra, ça nécessite des réseaux de neurones très compressés.
02:27C'est une technologie qui émerge mais qui est très chère, qui est essentiellement
02:31portée par nos camarades chinois parce qu'eux l'utilisent à fond sur l'espace public
02:37en Chine.
02:38Quand on se balade, soit dans l'espace public, soit dans un supermarché ou ailleurs, quels
02:42sont les objets qui peuvent nous trahir ou qui peuvent observer nos comportements et
02:45y mettre cette intelligence ?
02:46Le premier instrument, c'est celui que tout le monde a dans sa poche, ça s'appelle
02:50le smartphone.
02:51C'est le principal outil aujourd'hui de localisation, de récupération de données,
02:56de traçabilité de comportements anormaux.
02:58C'est aussi la première chose que les forces de l'ordre essaient de récupérer lors
03:02d'un crime ou d'un délit grave parce qu'il y a des traces numériques.
03:06Si vous en voulez une autre qui est celle de tout le monde tous les jours, c'est la
03:11voiture.
03:12Dans la voiture, le GPS, tout le système embarqué de la voiture laisse des traces
03:17partout et à tout moment.
03:19On fait une fixation sur la vidéo surveillance algorithmique, qui n'est pas le bon terme
03:23encore une fois, mais il y a des choses qui sont déjà dans notre quotidien qui nous
03:27fliquent beaucoup plus que la vidéo surveillance algorithmique.
03:31Donc le téléphone par définition et la voiture, nos deux objets.
03:34Vous imaginez le GPS, il vous dit exactement par où vous êtes passé à n'importe quel
03:36moment et c'est une traçabilité qui est...
03:38Je ne parle même pas des systèmes qui ensuite envoient vers les constructeurs des informations
03:42pour savoir comment va la voiture et comment elle a roulé.
03:44Alors justement, on va rebondir sur le GPS et la voiture à un moment où les notions
03:47de radar sont en train d'être débattues et peut-être même implémentées.
03:50À partir du moment où on voit que votre voiture va accélérer et qu'elle dépasse
03:55peut-être un cinquantaine d'heures sur le périphérique, la connaissance de la data
04:00dans la voiture fait que vous allez pouvoir être vidéo verbalisé une fois de plus.
04:03Alors pour ça, c'est là où le corpus juridique est très important.
04:07Il n'est pas possible de pouvoir sanctionner un comportement d'un automobiliste pour un
04:12comportement qu'il a eu, qui n'a pas été vérifié par une métronomie, une métrologie
04:17particulière.
04:18C'est le radar en l'occurrence qui doit faire l'objet de vérifications préalables,
04:23de mesures préalables et qui est installé avec des conditions très particulières.
04:28On doit avertir plusieurs centaines de mètres avant qu'on rentre dans une zone de radar,
04:32sauf cas particulier de radar mobile dans des cas précis.
04:37Il faut que l'emplacement du radar soit signifié sur la cartographie, c'est pour ça que vous
04:41avez des alertes de radar sur des applications ou sur les smartphones.
04:45Donc il y a des règles très particulières, on ne peut pas aujourd'hui aller verbaliser
04:49quelqu'un en allant se brancher sur la voiture pour savoir si il y a trois jours vous avez
04:54dépassé le cinquantaine d'heures à tel endroit, ce n'est pas possible.
04:56Alors là on parle de la mobilité, mais on a vu récemment aussi des applications dans
05:00les supermarchés qui modélisent le geste du voleur, après avoir analysé des milliers
05:05de gestes, qui les donnent à une intelligence artificielle et qui sont capables de détecter
05:09justement le potentiel geste de vol de quelqu'un, un petit larsen qui serait dans un hypermarché.
05:14Là on est hors la loi ou alors c'est quelque chose qui va généraliser ?
05:17Alors on est aujourd'hui hors la loi, ça pourrait éventuellement généraliser si
05:22il y avait une décision juridique légale avec une mise en place d'une loi qui devrait passer
05:28la censure du conseil constitutionnel, ça serait quand même très compliqué dans le cas qui nous
05:32occupe. L'IA Act va aussi bloquer, donc on aura un problème de conventionnalité,
05:36donc de conformité au règlement et au corpus juridique européen. Et en plus technologiquement
05:42ça ne marche pas très très bien, les essais qui ont été faits par quelques enseignes de
05:46supermarchés pour essayer d'ouvrir des supermarchés sans personne, 24 heures sur 24, 7 jours sur 7,
05:51ne marchent pas très bien parce qu'on se rend compte qu'il y a beaucoup de faux positifs,
05:54des gens qui prennent un objet, qui le mettent dans le panier mais qui le reposent dans un autre
05:59rayon et en fait il faut avoir la totalité de la traçabilité de l'action, je prends l'objet,
06:04j'identifie l'objet, je vois où est-ce qu'il est mis, s'il est ressorti, il faut que je le retrace,
06:08donc c'est un peu compliqué. La meilleure des solutions et la moins chère pour les
06:13supermarchés à l'heure actuelle, c'est de mettre des petites puces RFID sur les produits pour
06:18éviter que quand on sort et qu'on a volé, ça sonne. Exactement, alors on le sait pendant les
06:24JO, on a équipé effectivement les principaux sites de nombreux dispositifs, est-ce que c'était
06:31juste pour assurer une sécurité pendant cette actualité ou alors en fait il y avait une
06:35anticipation d'une généralisation d'un système de surveillance beaucoup plus critique par l'État ?
06:39On m'a beaucoup reproché ce texte parce que j'ai beaucoup travaillé sur le texte des JO,
06:45on avait beaucoup travaillé avec le conseil constitutionnel, avec le conseil d'État sur
06:50les ensembles des mesures de protection qu'il devait avoir. D'abord c'est un texte expérimental,
06:56c'est-à-dire que c'est une expérimentation qui se termine en mars 2025 avec un bilan obligatoire
07:00avant le 31 décembre et il y a d'abord une mission parlementaire qui a été lancée, c'est Éric
07:06Martineau pour le groupe Modem qui va la conduire avec un membre du groupe GDR, donc des communistes,
07:10il y a le rapport du comité d'éthique de Paris qui va lui aussi donner un avis et il y a
07:20aura évidemment l'ACNIL qui va aussi donner un avis et à partir de là on pourra avoir une phase
07:25de réflexion pour voir si c'est efficace ou pas efficace et si c'est efficace est-ce qu'il faut
07:30le généraliser ou pas généraliser et dans quel cas de figure on le généralise. Ça, ça passera
07:34forcément par la loi, on en a rediscuté avec le conseil constitutionnel, qui avait validé une
07:38expérimentation mais si on doit le généraliser ce sera encore plus strict sur les règles
07:42d'encadrement. Les règles d'encadrement sont assez simples, il n'y a pas de biométrie,
07:45contrairement à ce que tout le monde pense, il n'y a aucune empreinte de biométrie qui est prise,
07:50qui sont prises par les caméras. Elles ont beaucoup servi pendant l'égio sur des comportements
07:56anormaux de type mouvement de foule, parce que ça, ça marche très bien. Comptabilisation de la
08:01densité d'une foule parce qu'on sait qu'à partir d'un certain nombre de personnes au mètre carré,
08:04s'il se passe n'importe quel petit événement, ça peut provoquer des catastrophes et ça,
08:08ça a été très bien documenté et ça marche bien. Ça marche pour voir s'il y a des gens qui courent
08:14après d'autres personnes et donc là, on est plutôt dans la personne qui fuit un danger et dans
08:19ces cas-là, on peut l'identifier et y intervenir mais là encore sans biométrie. Ça ne marche pas
08:24très très bien pour tous les gestes qu'on pensait être les gestes dangereux de terroristes,
08:28c'est-à-dire passer la main sous une veste pour sortir une arme, ça ne marche pas, il y a trop
08:32de faux positifs parce que les gens mettent la main sous une veste pour chercher un téléphone
08:35portable, pour aller chercher n'importe quoi et ça donne des faux positifs donc c'est pas utile. Et
08:40sur les colis abandonnés, les bagages abandonnés, on arrive à identifier qu'il y a un colis
08:46abandonné, on a du mal à tracer le lien avec une personne qui l'aurait oublié. Donc il y a encore
08:50un peu de travail. Voilà, il y a encore du boulot. Philippe, il y a une célèbre universitaire
08:56américaine qui est un peu la prophète du numérique qui s'appelle Sochana Zuboff qui nous décrit en
09:02fait un futur où on va être espionné quel que soit l'endroit. Est-ce qu'il y a encore des zones
09:07où on peut être complètement anonyme dans cette société où là pour l'instant ce n'est pas
09:12possible ? Et peut-être qu'un jour on va y réfléchir, on fera machine arrière. Là encore,
09:16je pense que la principale source de non-anonymat, c'est le smartphone. C'est cet outil que vous
09:21avez dans la poche, que tout le monde a apprivoisé, dont personne ne pourrait se passer au
09:26quasiment maintenant. C'est celui-là qui est aujourd'hui la source d'absence d'anonymat
09:31principal. Pour le reste, la vidéoprotection sur la voie publique qui est une surcouche
09:35algorithmique ou qui n'en est pas, les forces de l'ordre, sauf à ce que vous soyez hyper connus,
09:38vous êtes une star, les forces de l'ordre qui regardent les écrans ne savent pas qui vous êtes
09:42quand vous passez dans la rue. Mais ils pourraient le faire avec la reconnaissance biométrique
09:46maintenant. On a quand même votre visage et si on bascule dans un état totalitaire comme en Chine,
09:51on peut faire une reconnaissance de l'individu et de son identité. Technologiquement, c'est
09:54parfaitement faisable et les Chinois le font très bien. Nous avons quand même des protections très
09:58fortes en France et en Europe. En France, c'est la Constitution et les décisions du Conseil
10:03constitutionnel sont claires sur le sujet. Ça n'est pas possible. Et la protection de l'IACTE
10:09qui expressément interdit la surveillance généralisée d'une population à l'aide de ces
10:14outils. Et puis, il y aura très certainement dans les semaines, mois qui viennent, à l'occasion des
10:18différents sommets sur l'IA, des sortes de pactes multilatéraux d'utilisation éthique de l'IA
10:28et notamment pour les pays démocratiques, le refus d'utilisation pour la surveillance généralisée
10:33de la population. C'est d'ailleurs un marqueur assez fort, je pense, que nous aurons quand nous
10:37accueillerons le sommet sur l'IA en France en début d'année 2025. Si on fait un peu de science-fiction,
10:41Philippe, on sait qu'aujourd'hui l'IA peut détecter vos émotions et anticiper peut-être une réponse
10:48qui est adaptée à votre colère ou à votre bienveillance. On peut monétiser vos données de
10:53sommeil. Donc, on peut tout savoir sur vous. Le jour où on agrège tout ça, une fois de plus,
10:58la liberté va rentrer. Néanmoins, tout part du téléphone portable, comme vous le dites.
11:03On est parfaitement d'accord. C'est pour ça que l'ensemble de ces données doivent être considérées
11:06comme des données sensibles. Elles doivent faire l'objet de protection particulière. C'est le cas
11:10des données sensibles par le RGPD. Il va falloir qu'on renforce le RGPD. Il va falloir surtout qu'on
11:15fasse converger le RGPD et l'IA Act. Aujourd'hui, RGPD et l'IA Act ne se fondent pas l'un dans l'autre.
11:21Il y a des zones de frottement qu'il va falloir pouvoir régler. Donc, je pense qu'on va aller
11:27vers un RGPD 2.0, qui sera un RGPD compatible avec l'IA Act. De toute façon, nous allons en
11:33avoir besoin parce qu'effectivement, les algorithmes d'IA ont besoin de beaucoup de
11:37données, de données très précises et très bien calibrées pour pouvoir fonctionner correctement.
11:40Et on en a besoin. Aujourd'hui, on a besoin d'IA avec des données de santé pour faire du
11:45dépistage, pour permettre d'accélérer un certain nombre de processus médicaux. Et si on n'a pas
11:51ces données et si on ne nourrit pas les algorithmes, on ne les aura pas. On en a besoin. Mais il ne
11:55faut pas non plus que ces données partent n'importe où. D'où l'obligation, la nécessité de
11:59sécuriser les clouds, d'avoir une réglementation sur les clouds très protectrice, notamment pour
12:04les données de santé. Si on n'a pas toutes ces réglementations, on peut facilement basculer dans
12:08un état avec un score social comme on a en Chine. C'est-à-dire, si vous ne vous êtes pas bien
12:12comporté, vous avez brûlé trois feux rouges et vous n'avez pas honoré vos dettes, vous êtes
12:16mal noté ? Oui, c'est technologiquement possible. C'est là tout l'intérêt de l'insulateur,
12:21d'un certain nombre d'associations et de professionnels du droit pour être sûr que
12:25l'ensemble des garde-fous sont bien présents et bien respectés. On peut toujours faire la politique
12:29du pire. Il faut aussi voir que l'IA est une révolution industrielle qui va pouvoir nous
12:33aider sur beaucoup de sujets. Je reviens sur la santé. Sans l'IA, vu la démographie médicale
12:39que nous avons, nous allons avoir des problèmes de santé publique. Il va absolument nous falloir
12:43de l'IA pour faire de la prévention, pour faire du dépistage, pour faire un certain nombre de
12:49prédictions de risques de maladie, ce qui fait qu'on va pouvoir spécifier des tests du dépistage
12:55sur un certain nombre de maladies parce qu'on sait qu'elles sont dans la famille depuis relativement
13:00longtemps et qu'on a documenté que ça pourrait arriver, un cas sur cinq, etc. On en aura besoin
13:04parce qu'on n'aura pas suffisamment de médecins et de professionnels de santé pour suivre la
13:06population générale. Merci Philippe Latombe. Je rappelle que vous êtes membre du groupe Modem
13:10et membre du collège de Lac-Nil. Restez avec nous, on marque une courte pause avant de comprendre
13:14comment le droit nous protège ou pas du tout des dérives de l'intelligence artificielle.
13:19Le numérique pour tous spéciale surveillance algorithmique, ça continue dans quelques instants et c'est sur Sud Radio.
13:24Sud Radio, le numérique pour tous, Vanessa Perez. Et pour continuer cette émission spéciale
13:30surveillance algorithmique, j'ai le plaisir de recevoir Maître Gérald Pendelon, avocat spécialisé
13:35en droit pénal des affaires au barreau de Paris et à la Cour pénale internationale de l'AE.
13:40Gérald, bonjour. Quand on écoute Philippe Latombe, on se dit qu'on va bientôt punir l'intention
13:48de nos actes et non plus l'acte lui-même, c'est-à-dire si on pense faire un crime,
13:52en fait on va être puni alors qu'on n'allait pas le commettre du tout. C'est ça qu'il faut comprendre ?
13:55Pour l'instant, ce n'est pas possible. Sur un plan juridique, notamment en matière pénale,
14:02il faut toujours un élément intentionnel, matériel et formel. On ne peut pas punir l'intention.
14:09En revanche, même si la matérialité de l'infraction est réunie, si fait défaut l'élément moral,
14:16l'élément intentionnel, ce n'est pas poursuivable.
14:20J'ai envie de vous demander, les algorithmes qui sont mis,
14:23justement cette couche d'intelligence qu'on met sur les caméras,
14:25est-ce qu'ils sont une forme de surveillance illégale aujourd'hui ou alors ils sont conformes au droit ?
14:30Ils sont considérés aussi bien par la jurisprudence française qu'européenne
14:37comme légales lorsqu'ils ne sont pas disproportionnés,
14:41lorsqu'il n'y a pas une disproportion entre le mécanisme mis en oeuvre des caméras intelligentes, etc.
14:47et les conséquences attendues.
14:52Donc là, ce n'est pas considéré comme attentatoire aux libertés.
14:57En revanche, et c'est ce que dit la Cour européenne des droits de l'homme,
15:00notamment dans un arrêt de 2020, lorsque c'est disproportionné,
15:05alors c'est considéré comme une surveillance généralisée des masses, etc.
15:11et donc c'est contraire à notre édifice normatif.
15:14On le sait, quand on est sur internet, pour avoir accès à certains services,
15:18on est obligé de donner son consentement et on ne va pas lire les centaines de pages juridiques qui sont derrière.
15:24Est-ce que pour vous, ça masque des choses qu'on ne devrait pas accepter,
15:30et qui sont non conformes à nos droits de l'homme ?
15:33Oui, parce que ça nous permet bien souvent de consentir à des éléments, à des choses qu'on n'a pas comprises.
15:40Pourquoi ? Parce qu'il y a une forme d'asymétrie de l'information,
15:43puisque les entreprises ont un niveau de connaissance que les utilisateurs potentiels n'ont pas,
15:52et par conséquent, ça pose effectivement un problème de consentement.
15:57Mais on est, je dirais, surveillés même par des mécanismes qui nous paraissent anodins.
16:04Par exemple ?
16:05Spotify, Netflix, que sais-je, YouTube, ou ce qu'on appelle aujourd'hui le design persuasif,
16:13les cookies, que sais-je encore, il y aura encore pas mal d'exemples,
16:18où tout est mémorisé, tout est enregistré, et par conséquent, regardez,
16:22à chaque fois que vous discutez avec une amie sur un sujet, si vous avez un smartphone qui est éclairé,
16:27tout de suite vous recevez des notifications sur le même sujet.
16:30C'est incroyable quand même.
16:32C'est la preuve quand même que notre liberté est relativement encadrée,
16:37sans que ça conduise systématiquement à des poursuites pénales.
16:40Alors justement, il n'y a pas de poursuites pénales,
16:41mais est-ce que ça veut dire que la loi européenne sur la protection des données est correctement appliquée,
16:45ou alors justement les entreprises préfèrent payer des sanctions,
16:50et plutôt récupérer la data des gens qui se servent de leur service ?
16:53À ma connaissance, il n'y a eu qu'une seule décision, mais je pourrais vérifier,
16:57qui a été prise par la Cour européenne,
17:00où 20 millions d'euros ont été infligés à une entreprise qui ne respectait pas,
17:07en toute transparence, ces éléments-là.
17:10Mais bien souvent, je pense que les entreprises ont le réflexe de payer d'abord
17:16pour ne pas être sanctionnées de son plan judiciaire.
17:18Et quelles seraient les sanctions ? Elles sont violentes, si on ne respecte pas ce texte ?
17:21Oui, l'article 225.1 du Code pénal prévoit des sanctions assez lourdes,
17:28dans l'hypothèse où, bien sûr, et l'élément intentionnel et matériel
17:33auraient été réunis dans le cadre de cette infraction,
17:37mais vous avez également des sanctions fiscales.
17:39Pas que des sanctions pénales, vous avez des sanctions fiscales.
17:43Dans le Code du travail, il est prévu qu'une forme de surveillance
17:48peut conduire aux sanctions.
17:50Par exemple, devant votre ordinateur, on voit que vous n'êtes pas assez productif
17:52ou alors que vous n'avez pas respecté les horaires.
17:53Là, vous êtes surveillé et on peut avoir accès à ces données.
17:55Absolument.
17:56Ça, aujourd'hui, c'est observé ou alors, pour l'instant,
18:00on fait fi de prendre cet embryonnaire ?
18:03Qu'en pense Philippe Latombe ?
18:04Effectivement, on peut observer des collaborateurs qui ne seraient pas assez productifs
18:07ou qui ne délivrent pas dans les temps impartis.
18:10Il y a eu quelques tentatives de certaines entreprises
18:13de pouvoir faire des licenciements sur ce motif-là.
18:16La jurisprudence n'est pas encore suffisamment établie
18:18pour qu'on puisse déterminer si c'est légal ou pas.
18:21Il y a eu quelques cas où c'était flagrant
18:23et donc, en fait, il y avait d'autres éléments matériels
18:25qui permettaient de justifier le licenciement.
18:26Donc, ça avait été accepté.
18:28Et d'autres qui étaient uniquement basés sur de l'espionnage du salarié
18:32qui n'était pas prévu dans le règlement intérieur,
18:33qui n'était pas prévu dans la convention collective
18:35ou dans l'ensemble du contrat de travail.
18:38Donc, ça avait été rejeté.
18:39On est, pour l'instant, sur des décisions de première instance,
18:42c'est-à-dire de prud'homme.
18:44On a eu une ou deux affaires qui sont passées en appel.
18:47Pour l'instant, on n'a pas de cour de cassation suffisamment établie.
18:50Mais aujourd'hui, clairement,
18:52le droit du travail est très protecteur du salarié sur le sujet.
18:54Philippe, Gérald vient de l'évoquer.
18:56Les entreprises préfèrent parfois payer des amendes qui sont monstrueuses
18:59plutôt que de respecter la loi sur la protection des données.
19:02De votre point de vue,
19:04effectivement, c'est cet équilibre qui est en train de se dessiner ?
19:07Non, il est en train de changer.
19:08La Cour de justice de l'Union a eu une décision très récente,
19:11très intelligente qui va rebattre les cartes
19:14puisqu'elle a infligé à une entreprise
19:18la possibilité qu'un de ses concurrents
19:20puisse l'attaquer en concurrence déloyale
19:23parce qu'elle ne respectait pas le RGPD.
19:25Aujourd'hui, ça va faire glisser la possibilité
19:29de pouvoir attaquer une entreprise qui ne respecte pas le RGPD
19:32du domaine uniquement de la protection des données, donc de la CNIL,
19:35et donc avec une sanction administrative,
19:37vers une procédure pour concurrence déloyale.
19:39Et ça se jugera devant des tribunaux totalement différents.
19:41Des tribunaux qui vont être des tribunaux de commerce,
19:43qui vont être des tribunaux aux civils.
19:45Et donc ça va être intéressant de voir comment ça va se passer.
19:47Mais l'arrêt de la Cour de justice, là-dessus,
19:50va donner un nouveau coup de projecteur sur la protection des données.
19:54Vous êtes tous les deux dans le domaine du droit,
19:56donc il y a beaucoup de bouleversements et une accélération de l'innovation.
19:58On sait que la régulation ne va pas forcément
20:00à la même vitesse que celle de l'innovation.
20:02Sur quoi êtes-vous en train de travailler pour vous dire
20:04voilà, on va prendre un coup d'avance et on sera capable d'encadrer
20:07et de protéger les citoyens ?
20:09Qui veut prendre la parole ?
20:11Pour rebondir ce que dit M. le député,
20:13je crois qu'on n'est pas totalement non plus démunis en termes de texte.
20:17Il y a effectivement le RGPD.
20:20L'article 22 dit qu'on ne peut pas faire l'objet quand même
20:22d'une décision automatisée.
20:24Vous avez la loi Informatique et Libertés
20:26qui a été réécrite en partie en 2018.
20:30Vous avez quand même la loi sur la République numérique de 2016.
20:34On n'est pas totalement démunis.
20:37Mais en fait, au-delà du débat juridique, me semble-t-il,
20:41ce qui est à mon avis important de soulever,
20:44c'est ce que j'appelle l'arbitrage entre la sécurité et la liberté.
20:48C'est vrai qu'on pourrait considérer que
20:53le fait d'être trop surveillé, etc.,
20:57peut enfreindre nos libertés.
21:01D'autant plus qu'il n'y a pas de liberté en retour
21:04qui nous soit donnée.
21:06On pourrait considérer également que la République, la res publica,
21:09c'est la chose visible et que l'art, manifestement,
21:12c'est le secret et l'invisibilisation du pouvoir qui l'emportent.
21:16Mais compte tenu des effets de terrorisme,
21:20on ne va pas rentrer dans les détails,
21:22qui ont frappé la France depuis maintenant une quinzaine d'années,
21:26si l'intelligence artificielle permettait que la sécurité accrue
21:33permette ce qui est davantage de liberté et de protection des citoyens,
21:37on peut légitimement se poser la question
21:40de savoir si ce ne serait pas plutôt un bienfait.
21:43Pour conclure, Philippe Latombe, votre position,
21:46sur quoi travaillez-vous concrètement pour avoir un coup d'avance par rapport à l'innovation ?
21:49Il va falloir qu'on travaille sur la transposition de la directive NIS 2
21:52sur la cybersécurité, qui va du coup toucher beaucoup les fuites de données personnelles.
21:56On a des exemples très récents, on va citer un grand opérateur de téléphonie.
22:01C'est l'adéquation entre NIS 2, la protection des données personnelles et le RGPD.
22:05Gérald Pendelon, Philippe Latombe, merci beaucoup pour vos éclairages.
22:08Le numérique pour tous, c'est fini pour aujourd'hui.
22:10Pour prolonger la discussion, on se retrouve sur vos réseaux sociaux préférés.
22:13Je vous souhaite une excellente fin de week-end et je vous dis à la semaine prochaine.

Recommandations