• il y a 9 mois
Technologie biométrique qui permet d’authentifier facilement une personne, la reconnaissance faciale a connu un essor important au cours de la dernière décennie. Si elle offre de véritables opportunités pour la sécurité, elle soulève également de réelles préoccupations concernant nos libertés individuelles. Le Comité national pilote d’éthique et du numérique a récemment publié son avis sur ces enjeux d’éthique des technologies de reconnaissance faciale, posturale et comportementale. Son directeur, Claude Kirchner, nous dévoile les grandes lignes de ces recommandations.

Category

🗞
News
Transcription
00:00 (Générique)
00:04 -Quels sont les enjeux éthiques des technologies
00:06 de reconnaissance faciale, posturale, comportementale ?
00:09 Un avis a été rendu par le Comité national pilote d'éthique du numérique.
00:14 Je suis en compagnie de Claude Kirchner,
00:16 le directeur de recherche et mérites d'INRIA
00:18 et directeur du CNPEN.
00:20 Bonjour, merci beaucoup d'être avec nous.
00:23 Cet avis que vous avez rendu, on va en parler, bien évidemment,
00:27 mais je voulais déjà qu'on parle du Comité national pilote d'éthique
00:31 du numérique, qui a été créé en décembre 2019
00:34 à l'initiative du Premier ministre, à l'époque, c'était Edouard...
00:37 -Philippe. -Philippe.
00:39 Et il est placé sous l'égide du Comité consultatif national d'éthique.
00:43 Première question que je me suis posée,
00:46 c'est est-ce que le numérique méritait absolument
00:48 d'être traité comme un sujet à part entière avec son comité ad hoc ?
00:53 Vous n'allez pas me dire le contraire, mais pourquoi ?
00:55 D'abord, parce que le numérique, aujourd'hui,
00:58 et vous êtes bien placé à Bismarck pour le savoir,
01:02 le numérique, il y en a absolument partout,
01:05 que ce soit dans nos vies personnelles,
01:06 dans nos vies professionnelles,
01:07 que ce soit dans la gestion de la société,
01:10 que ce soit dans la gestion de l'environnement aujourd'hui.
01:12 Le numérique, il est partout, dans nos relations,
01:14 il est omniprésent.
01:17 Et en fait, on a jusqu'à maintenant peu réfléchi
01:22 aux conséquences sur tout ce qui concerne l'humain,
01:28 notre façon de nous comporter par rapport au numérique, par exemple,
01:32 qui a appris à se servir de son smartphone en tant que tel, d'accord ?
01:36 Si ce n'est le prendre dans la main et l'essayer sur la table.
01:40 -Et consommer, finalement, les services.
01:42 -Et être sujet à ne pas prendre suffisamment de recul,
01:46 de réflexion pour arriver sur ces conduites humaines
01:52 qui sont en train d'émerger
01:53 et qui sont conséquences de cette émergence du numérique,
01:56 de cette conversion qui nous convertit profondément
02:00 dans nos relations, dans notre façon de penser,
02:03 dans notre façon d'imaginer, de prévoir.
02:07 Eh bien, dans ce contexte-là,
02:09 il est important de pouvoir, justement,
02:11 réfléchir aux conduites humaines et aux valeurs qui les fondent,
02:14 c'est-à-dire, en fait, à l'éthique du numérique.
02:17 -Alors, mon autre question,
02:18 donc portée sur le sujet sur lequel vous avez rendu un avis,
02:22 c'est la reconnaissance faciale.
02:23 C'est un sujet qui fait peur, qui fait peur aux citoyens,
02:27 mais qui fait peur aussi aux politiques,
02:29 qui trouvent que c'est un sujet un peu trop brûlant
02:32 pour l'adresser directement.
02:34 Quelles sont vos recommandations ?
02:36 Est-ce qu'il faut regarder le sujet en face,
02:38 si je puis me permettre ?
02:40 -Alors, oui, c'est l'une de nos recommandations,
02:43 c'est justement de se donner la capacité
02:45 à regarder les choses en face.
02:46 Et ça veut dire quoi ?
02:47 Typiquement, ça veut dire déjà avoir le bon vocabulaire
02:51 pour pouvoir nommer les choses de façon appropriée.
02:54 Je vais prendre un mauvais exemple,
02:56 une caméra intelligente.
02:58 Qu'est-ce que ça peut bien vouloir dire ?
03:01 Justement, l'idée, c'est d'avoir du vocabulaire
03:04 qui nous permette de comprendre qu'on va avoir des capteurs,
03:07 qu'on va avoir du numérique
03:09 pour traiter le signal qui sort de ces capteurs,
03:12 et qu'on va avoir des humains
03:14 qui vont être, d'une part, devant les caméras,
03:18 mais aussi derrière les écrans
03:20 pour pouvoir prendre des décisions.
03:22 Et comment l'ensemble de ce système-là va s'organiser ?
03:25 Quelles sont les valeurs qu'il faut arriver à défendre,
03:29 comme par exemple la sécurité ou la liberté,
03:32 ou les libertés ?
03:33 La transparence, typiquement.
03:36 Est-ce qu'on est observé ou pas ?
03:38 Et dans ce contexte-là,
03:40 comment fait-on pour s'organiser, réfléchir ?
03:42 Et donc, notre avis fournit un certain nombre de...
03:46 Justement, d'abord, de contextes,
03:49 d'illustrations de différentes situations,
03:51 de vocabulaire,
03:53 et puis de recommandations qui permettent ensuite
03:55 à tout un chacun, à un individu,
03:58 à une entreprise,
04:00 à la société, typiquement les politiques,
04:03 à pouvoir se positionner.
04:04 On a vu un certain nombre d'utilisations
04:07 qui étaient... qui sont positives.
04:09 Un certain nombre d'utilisations qui questionnent.
04:12 -Donc ne pas fuir le sujet, pas dire...
04:14 "Non, vous inquiétez pas, de toute façon, on fera pas,
04:17 on n'ira pas."
04:18 Il faut regarder vraiment ce sujet très sérieusement,
04:21 parce que demain, ces applications vont arriver.
04:24 -Elles sont déjà là. -Il y en a déjà.
04:26 -Elles sont déjà là.
04:27 Je vais prendre un 1er exemple.
04:30 Typiquement, vous pouvez vous identifier
04:32 sur votre smartphone,
04:34 à partir de la reconnaissance visuelle de votre visage.
04:37 Vous pouvez passer les frontières avec le système Paraf,
04:40 qui peut permettre d'aller plus vite quand il fonctionne.
04:43 C'est pas toujours complètement le cas.
04:45 Mais donc, il y a des situations très positives aussi,
04:48 relativement à la médecine,
04:50 où on est capable de reconnaître des émotions comme la douleur
04:55 et d'arriver à catégoriser la profondeur de la douleur
05:00 et comment, en fait, permettre de mieux gérer,
05:04 par des médicaments, par le dialogue, etc.,
05:07 ce type de situation.
05:09 Mais il y a aussi un certain nombre de situations
05:13 dans lesquelles il y a des problèmes.
05:15 Typiquement, parce qu'on va rentrer davantage
05:19 dans l'intimité des gens.
05:20 Ce qui est une caractéristique de la reconnaissance faciale,
05:25 posturale ou comportementale, en fait,
05:27 c'est que les caméras, on les voit pas.
05:30 Et elles rentrent très facilement dans notre intimité.
05:34 L'une des premières qu'on a, par exemple,
05:36 ce sont nos smartphones.
05:38 Mais il y en a bien d'autres, à la fois dans un ascenseur,
05:42 dans un centre commercial ou ailleurs.
05:45 Et donc, comprendre comment on va permettre
05:48 l'utilisation, éventuellement,
05:50 de la reconnaissance faciale automatisée
05:53 et comment ça va être utilisé par les humains derrière,
05:56 c'est vraiment l'ensemble du sujet qu'il faut analyser.
05:59 -Est-ce que, juste très rapidement,
06:01 comment on fait pour savoir qu'est-ce qui est éthique,
06:04 qu'est-ce qui n'est pas éthique ?
06:06 Est-ce que vous avez décrété,
06:07 voilà, cette utilisation n'est pas éthique ?
06:10 -Alors, encore une fois, l'éthique,
06:13 c'est bien cette réflexion, d'accord ?
06:15 Et donc, l'idée, c'est qu'on réfléchit.
06:18 On va pas statuer, on va pas prescrire.
06:20 Mais on va réfléchir sur les conduites humaines
06:23 et puis les valeurs qui les font.
06:25 Donc, quelles sont les valeurs qui vont être sous-jacentes ?
06:27 Typiquement, on s'identifie sur notre smartphone
06:31 pour avoir accès à son compte bancaire.
06:34 Eh bien, ça veut dire que votre photo,
06:35 il faut qu'elle soit reconnue par le système derrière le téléphone.
06:41 Et donc, il faut avoir accepté de donner son visage, d'accord ?
06:45 Est-ce qu'on est d'accord ou pas d'accord ?
06:47 Donc, c'est une certaine sécurité,
06:49 mais peut-être aussi une liberté qu'on va laisser partir,
06:53 parce qu'effectivement, le jour où on a du bouson,
06:57 on risque de ne plus être reconnu, d'une part.
07:00 Et puis, de l'autre part, on a donné,
07:03 on a fourni ces informations sur son visage
07:08 à une entité qu'on ne maîtrise pas nécessairement complètement.
07:12 Donc, cette dualité entre liberté et sécurité.
07:18 -Bon, c'est un travail de réflexion.
07:20 -Et c'est un travail de réflexion. -Que vous menez.
07:21 -Absolument. -Merci beaucoup pour ça.
07:23 Merci, Claude Kirchner, directeur du comité national
07:26 pilote d'éthique du numérique.
07:27 Vous reviendrez, parce que ces sujets,
07:28 on les traite régulièrement. -Avec plaisir.
07:29 -Dans Smartech.
07:31 Allez, c'est le moment de recevoir notre grande invitée aujourd'hui.
07:33 Elle s'appelle Stéphanie Scher.
07:34 Elle va nous parler de la direction interministérielle du numérique.

Recommandations