• avant-hier
Afin de détecter des mouvements de foules ou d’individus suspects, le gouvernement a autorisé pour les JO de Paris 2024, l’usage d’algorithmes d’intelligence artificielle en temps réel sur le réseau de caméras de vidéosurveillance. Pour décider ou non de prolonger cette expérimentation, le gouvernement a missionné un comité d’évaluation… Et les retours sont pour le moins mitigés.

Catégorie

🗞
News
Transcription
00:00On termine avec des sujets de sécurité avec Hervé Lejouan, Adviser, qui est en plateau aujourd'hui.
00:11Bonjour Hervé. En matière de privacy, on commence à avoir des premiers retours sur l'utilisation de la vidéosurveillance
00:19pendant les Jeux 2024 qui se sont passés à Paris. Retour mitigé, mais on peut peut-être d'abord commencer par redonner le contexte.
00:27Pour sécuriser ces Jeux Olympiques à Paris, il y avait un gros enjeu de sécurité.
00:34Le gouvernement a autorisé l'usage et l'ajout d'algorithmes d'intelligence artificielle sur le réseau de caméras de vidéosurveillance de Paris.
00:44Tout en mentionnant par ailleurs que ce n'était pas de la reconnaissance faciale, qu'il n'y avait pas de reconnaissance faciale dedans.
00:50Mais néanmoins, ça avait suscité déjà à l'époque un certain nombre de remarques en disant qu'il pouvait y avoir des atteintes à la vie privée.
01:00Mais néanmoins, ça s'est fait. Ils avaient dit initialement que ce serait provisoire, temporaire.
01:07Jusqu'au moment où le gouvernement en septembre a dit qu'il allait prolonger l'expérience jusqu'en mars 2025.
01:14Et puis voir la généraliser en attendant les résultats d'un certain comité d'évaluation de cette expérience.
01:23C'était d'ailleurs les inquiétudes, c'est que finalement on fait une expérimentation mais que ça se prolonge.
01:27Quelles sont les conclusions ?
01:30Il y a un rapport qui a été fait par un comité d'évaluation d'experts, on imagine, qui a été remis le 14 janvier au ministère de l'intérieur.
01:38Et puis qui a pu être consulté à la fois par Le Monde, l'agence de Radio France et France Info.
01:44Je vais citer ce qu'ils ont dit dans ce rapport qui fait une centaine de pages à peu près.
01:53Que le recours au traitement algorithmique mis en place dans le cadre de l'expérimentation s'est traduit par des performances techniques inégales,
02:01très variables en fonction des opérateurs, des cas d'usage, des contextes d'utilisation.
02:07Ainsi que des caractéristiques techniques et du positionnement des caméras.
02:11Alors effectivement, ça veut dire que ça ne s'est pas très bien passé.
02:15Quand on regarde les contextes d'utilisation, on se rend compte que par exemple, dès qu'il faisait un peu sombre, ça marchait beaucoup moins bien.
02:23C'était effectivement plus efficace dans des endroits bien cantonnés comme les métros ou des gares.
02:30Mais dès qu'on était en extérieur, c'était moins bon.
02:33Par exemple, concernant la reconnaissance des mouvements de foules, selon que la caméra était trop haute ou trop basse,
02:42ça n'allait pas bien reconnaître ce qui se passait.
02:46Idem pour les mouvements de foules, quand il y avait des croisements de mouvements de foules, ça allait détecter des choses qui n'étaient pas du tout suspectes.
02:54Des faux positifs.
02:56Exactement, énormément de faux positifs.
02:58Quant aux objets, c'est là où ça a été un peu plus loin.
03:02Ils ont assimilé des objets suspects avec des poubelles dans la rue, des abribus, des bancs.
03:10Et le pire, avec même des personnes, c'est-à-dire que des SDF qui étaient par terre pouvaient être assimilés à des objets suspects.
03:17Donc on a bien vu ici que cette expérience au niveau fiabilité n'a pas été très bonne.
03:26Que dit le rapport pour la suite ?
03:28Le rapport pour la suite commence par dire qu'il ne saurait être un rapport pour décider de la continuation, de l'abandon ou de la généralisation du traitement.
03:43Mais néanmoins, c'est un peu comme la CNIL, ils disent qu'il faut faire très attention au respect de la vie privée, au respect des principes d'accès à l'information pour les individus.
03:56Vous imaginez les caméras, je ne sais pas où ils vont mettre des panneaux dans les rues pour dire voilà ce qui se passe.
04:03Donc en gros, bien sûr, ils remettent sur papier ce que la législation demande, mais au final en disant que la décision reviendra aux politiques.
04:13Et d'ailleurs, malgré le relatif échec de cette expérience, le préfet de Paris ainsi que le ministère de l'Intérieur ont dit qu'ils souhaitaient généraliser, prolonger et généraliser cette expérience.
04:27Donc ça pose beaucoup de questions, il y a déjà des associations de droit à la liberté qui ont dit non on n'est pas d'accord.
04:35Donc c'est vrai qu'on peut se poser des questions, pourquoi, dans quel contexte ils veulent le faire, sachant qu'encore une fois la technologie n'a pas l'air de bien fonctionner et on est dans un moment un peu complexe.
04:45Oui, sujet toujours aussi sensible.
04:47Merci beaucoup Hervé Lejouan de l'avoir abordé avec nous dans Smartech.
04:51Merci à vous de nous suivre.
04:52C'était votre émission sur la tech, une émission où on discute beaucoup de l'impact du numérique dans la société.
04:58Vous nous suivez sur la chaîne Bsmart4Change.
05:00A très bientôt.

Recommandations