Catégorie
🗞
NewsTranscription
00:00Le Carrefour de l'info, sur Arabelle.
00:06Un gros plan ce midi sur la reconnaissance faciale qui suscite de plus en plus de débats chez nous, notamment en ce qui concerne son usage par les autorités.
00:14Et pour nous en parler, nous avons le plaisir de recevoir Emmanuelle de Buisseret, conseillère juridique, et Rémi Farge, formateur de la Ligue des droits de l'homme. Bonjour.
00:21Bonjour.
00:22Merci d'être avec nous sur Arabelle. On va attaquer directement le sujet.
00:26D'abord, quelles sont, de manière générale, les principales préoccupations que vous avez relevées concernant, justement, cette technologie un peu avancée de surveillance ?
00:34Je commence avec vous, Emmanuelle de Buisseret.
00:36En fait, on est à ce moment précis dans… c'est un momentum politique, c'est-à-dire qu'en ce mois de février, une partie de l'EIACT entre en application.
00:47Et c'est la partie qui concerne, justement, les possibilités d'usage de technologies de reconnaissance biométriques.
00:54Qu'est-ce que dit cet EIACT en son article 5 ? Il dit qu'en fait, ce sont des technologies qui sont suffisamment dangereuses et attentatoires à la sécurité des personnes pour devoir être interdites.
01:05Mais étant donné que ce texte européen a eu pour objectif aussi de concilier les velléités d'évolution de la technologie, ils ont essayé de trouver un équilibre dans tout ça.
01:19Et ils disent que les États peuvent les utiliser dans certaines exceptions, mais que les États doivent encore légiférer pour encadrer strictement ces exceptions.
01:28Et donc, on a également pour le moment un nouveau gouvernement dont l'accord vient de sortir ce week-end et qui est très, très clair à cet égard-là.
01:35Ça fait longtemps qu'on voyait les sorties politiques aller dans ce sens-là, mais qui affirme vouloir utiliser, donc déployer la reconnaissance faciale.
01:42Rémi Farge, un complément ?
01:44Oui, c'est ça. La technologie, le texte européen la considère comme tellement dangereuse qu'elle va être considérée comme interdite.
01:51Mais les négociations avec les États membres permettent quand même des utilisations qui sont en fait très larges dans la réalité.
01:58Il faut distinguer aussi deux choses dans le texte européen qui vont être importantes en Belgique.
02:03C'est l'utilisation de cette reconnaissance faciale en temps réel par les autorités répressives, les autorités de police, et la reconnaissance faciale a posteriori dans le cadre d'enquêtes.
02:13Pour l'instant, c'est seulement les pratiques interdites et donc la reconnaissance faciale en temps réel qui va être en application.
02:21Mais en fait, on constate qu'il y a beaucoup d'exceptions qui sont offertes par le législateur européen aux États membres.
02:30Et on craint, et on voit que ça va arriver, que la Belgique va s'enfoncer dans ces failles législatives pour pouvoir utiliser.
02:38Et ça ne sera pas que pour quelques personnes. En fait, ce qu'on observe, c'est que ça va permettre des usages importants, généralisés.
02:45Et ces usages seront permis également, et on y reviendra sans doute, par un fichage biométrique qui va augmenter également.
02:52Alors, il y a ce qu'on appelle le concept de criminalité environnementale dans le contexte de l'utilisation de la reconnaissance faciale.
02:59Est-ce qu'on pourrait avoir un éclairage sur ce concept ?
03:03En réalité, nous, c'est justement ce qu'on dénonce. C'est l'absence de définition claire de ces infractions par les actes.
03:12Mais surtout, la marge de manœuvre qui est laissée aux États pour les définir.
03:16En fait, chaque pays peut mettre ce qu'il veut dans la définition des infractions.
03:22Et à citer la criminalité environnementale, ça dépendra des politiques en vigueur.
03:28On a vu Conor Rousseau de Vohreuth, assez récemment, affirmer que la reconnaissance faciale serait déployée pour la répression des dépôts clandestins d'immondices.
03:39Donc, finalement, jusqu'où est-ce qu'on ira pour pouvoir utiliser une technologie qui est hautement attentatoire ?
03:47On parle aussi d'une course en avant technologique. Qu'est-ce qu'on entend par là ?
03:51Pourquoi une interdiction totale de cette technologie est-elle, selon vous, la meilleure option ?
03:55Et de manière plus générale, pourquoi c'est un problème pour notre démocratie ?
03:59On voit souvent, et on l'a constaté dans certaines interventions ou discussions politiques, que l'idée d'une interdiction stricte serait trop radicale et manquerait de nuances.
04:09Alors nous, on considère que c'est le contraire.
04:11Qu'avoir une position contre la reconnaissance faciale permet justement des réflexions qui permettent par la suite de la nuance.
04:18Je m'explique. L'idée de course en avant technologique, c'est justement cet élan.
04:22Cet élan qui est permis par des lobbies, des industries technologiques très puissantes et d'un accord parfois très actif du politique également.
04:35Et en fait, cette idée de course technologique signifie un élan qui paraît immuable alors qu'il ne l'est pas.
04:41Ça signifie aussi qu'il y a justement cette course concurrentielle.
04:46On l'a beaucoup vu pendant les négociations du texte européen, l'AI-AG, donc la réglementation sur l'intelligence artificielle.
04:53Les pays disaient non, il faut peu de contraintes, il faut peu de régulations parce que sinon on n'arriverait pas à être en concurrence avec des États comme les États-Unis et la Chine.
05:03Mais nous, ce qu'on répond, c'est qu'on ne veut pas jouer la course avec la Chine et avec les États-Unis en matière de technologie
05:10parce que ça serait jouer la course en matière de non-respect des droits humains également.
05:14Et on connaît les pratiques de ces pays et on ne veut pas souscrire à ça.
05:18On veut pouvoir effectivement penser la question de la régulation du marché,
05:22mais avec comme axe central la question des droits fondamentaux, le respect de la démocratie et des personnes,
05:27et les personnes les plus marginalisées aussi qui en feront les frais.
05:30Alors on va coller un petit peu à l'actualité immédiate.
05:33Il y a eu trois fusillades en trois jours.
05:36Beaucoup pensent que l'argument de la reconnaissance faciale pourrait, par exemple, aider à retrouver justement ces criminels.
05:42Recherchez rapidement votre sentiment.
05:45Oui, alors c'est ce qu'on entend souvent.
05:48Nous, on estime que c'est une mauvaise balance qui est faite entre agir sur les causes et en régler les conséquences.
05:58Ça pose également la question de l'usage des bases de données et la définition de ces contours.
06:04En fait, il faut bien se dire qu'est-ce que c'est que la reconnaissance faciale ?
06:07C'est la confrontation d'images prises dans la rue avec des images qui sont déjà dans des bases de données déjà constituées.
06:12Donc de toute façon, ça ne permettra que de comparer des images existantes avec celles des personnes potentiellement recherchées
06:20et de faire en fait une statistique de concordance.
06:23Donc est-ce que ça aidera vraiment à retrouver des gens ?
06:26En fait, rien ne le dit.
06:28Et puis de toute façon, ça mettra surtout en lumière des personnes déjà fichées
06:33où ça permettra une prolifération, une expansion démesurée de ces bases de données
06:38avec tous les biais que l'on connaît déjà pour leur constitution
06:41et la collecte de ces images qui ciblent aussi certaines personnes criminalisées pour des raisons politiques
06:49et très souvent non valides en tout cas à nos yeux.
06:52Alors j'insiste encore. Beaucoup avancent des arguments.
06:55La reconnaissance faciale pourrait améliorer, disons d'une manière plus générale, la sécurité publique chez nous.
06:59Oui, mais ça c'est tout à fait intéressant de à la fois penser des questions d'actualité à forte charge émotionnelle
07:06mises en lien avec des notions comme celles de sécurité publique.
07:10Parce qu'il y a une exigence quand on pense ces questions, c'est de définir la sécurité publique.
07:16De quoi on parle quand on parle de sécurité publique ?
07:18Dans une des dernières versions de l'accord de gouvernement qui est sorti ce week-end,
07:22on voit que les autorités parlent du droit à la sécurité comme droit fondamental.
07:27Or, il y a un droit à la sûreté qui est le droit justement de ne pas être arrêté arbitrairement.
07:33Et précisément, on voit à l'étranger que souvent la reconnaissance faciale produit des arrestations arbitraires
07:38qui ont des conséquences dramatiques pour les personnes qui les subissent.
07:41Deuxièmement, notre droit à la sécurité, c'est surtout le droit à la sécurité sociale.
07:45En ce moment, on va amener la question de la reconnaissance faciale comme étant la solution à tous les problèmes.
07:51En même temps, on détricote complètement les droits sociaux, les acquis sociaux, etc.
07:55Ce que je veux dire par là, c'est que penser la sécurité publique,
07:58et notamment sur des questions de fusillades, des questions de violences,
08:01des questions de menaces à la vie de certaines personnes, etc.,
08:04sans penser la question des inégalités sociales, sans penser la question de réponses structurelles,
08:08c'est justement souscrire à l'idée de ce qu'on appelle le technosolutionnisme,
08:12à savoir les technologies répondront, seront la solution à tous les problèmes sociaux,
08:17alors que les problèmes sociaux, on le sait, ont des racines et ont des sources qui sont multiples et qui sont complexes.
08:24Et du coup, l'idée de définir des politiques criminelles,
08:28de définir quelles sont les technologies qu'on met entre les mains des services répressifs,
08:32à partir de faits d'actualité, c'est une très mauvaise idée,
08:36et ce n'est pas du tout comme ça qu'on devrait penser les politiques publiques en général.
08:38Dans un autre versant, beaucoup se posent la question,
08:41comment cette reconnaissance faciale peut affecter notre liberté de mouvement,
08:45peut-être un numéro dans la sphère publique, peut-être un peu plus concret.
08:48Il y a beaucoup d'études qui montrent simplement que lorsque l'on se sait observer,
08:52on opère à une forme de contrôle et donc de limitation de notre comportement dans l'espace public.
08:59À partir du moment où, déjà, on le voit à l'étranger, il y a des dissidents politiques qui sont ciblés,
09:05en fait, il n'y a qu'un pas à faire pour qu'on s'empêche d'exprimer notre opposition,
09:11par exemple, à un État qui devient de moins en moins protecteur de tous et toutes.
09:17Et puis, à partir du moment où on peut se faire identifier,
09:20c'est encore un pas supplémentaire par rapport à notre criminalisation potentielle.
09:25Je pense sur la question de liberté de mouvement.
09:29Il est donné en début de l'année 2024 avec une réforme européenne du fichier Eurodac.
09:34Le fichier Eurodac, c'est un fichier qui va collecter des données
09:38sur toutes les personnes qui demandent l'asile en Europe
09:42ou qui sont identifiées comme étant en séjour irrégulier, etc.
09:46Ces personnes-là, jusqu'à présent, ont collecté des données à caractère personnel
09:50et des données biométriques, à savoir les empreintes digitales.
09:53Depuis cette réforme qui date de début 2024,
09:56des données d'empreintes digitales seront complétées par des images faciales,
10:02et non seulement pour des adultes, mais pour des enfants également.
10:06Ce que ça montre, c'est que concrètement, on observe que les politiques aux frontières de l'Europe
10:12sont des politiques violentes, qui tracent toute personne migrante
10:17qui tenterait de venir sur le sol européen,
10:20et les conséquences sont la mort d'énormément de personnes.
10:23Ces politiques de violence seront augmentées par les technologies de reconnaissance faciale,
10:27permises par l'augmentation d'un fichier, d'une base de données biométriques,
10:32à savoir le fichier Eurodac.
10:34On comprend que c'est tout à fait concret.
10:36Les questions ne sont pas d'ordre uniquement de principe,
10:39mais vont affecter la vie d'énormément de personnes sur le sol européen.
10:43On parle des personnes migrantes, et on pourra également parler de toute personne,
10:46comme le disait Emmanuel, qui à l'avenir voudront contester des décisions politiques
10:50dans la rue, dans le cadre de manifestations ou autres,
10:53et qui prendront le risque d'être non seulement fichées,
10:57mais également identifiées, arrêtées, voire poursuivies pour leurs activités,
11:00qui sont pourtant légitimes.
11:02Une autre question, est-ce que vous pensez que nos concitoyennes et concitoyens
11:06ne sont pas assez vigilants justement face à cette généralisation de la reconnaissance faciale,
11:10et quels conseils donner peut-être ?
11:14Je ne sais pas si c'est une question de vigilance ou de perte de prise sur les choses.
11:20Effectivement, on a des caméras de vidéosurveillance maintenant qui sont largement déployées,
11:24et je pense surtout qu'il y a un manque de conscience de notre possibilité d'agir encore
11:30sur la politique locale à cet égard-là, et même la politique au niveau national.
11:35Avec la Ligue des droits humains, ça fait plus de trois ans que l'on mène une large campagne
11:40qui vise à rappeler aux autorités locales, donc communes et zones de police,
11:44qu'elles ont des obligations de demander des autorisations,
11:47d'effectuer des analyses d'impact pour la protection des droits, des données et des systèmes.
11:55Donc on mène ce travail qui est un travail de contrôle démocratique,
11:58mais en fait tout un chacun, toute citoyenne, tout citoyen peut le faire,
12:03et je pense que c'est ça qui est surtout important de se rappeler,
12:05c'est qu'en fait on n'est pas obligé d'accepter ce contrôle grandissant,
12:10et on peut toujours reprendre le pouvoir sur les moyens démocratiques d'action.
12:15Votre avis ?
12:16Oui, alors on n'est pas là pour donner des conseils aux citoyens,
12:19mais plutôt pour interpeller le politique, justement,
12:21et rappeler l'État à ses obligations en matière de droit.
12:24Et il y a une idée tout de même derrière, quand je parlais tout à l'heure de nuances,
12:29qu'avoir une position claire sur la dangerosité de ces technologies
12:35qui amènent à en souhaiter son interdiction, c'est justement permettre un débat public
12:40dans lequel les personnes expertes puissent être interrogées,
12:45les communautés affectées par ces technologies de contrôle soient également entendues par les autorités,
12:50puissent être respectées dans leurs expériences propres,
12:54mais ça permet également de répondre à une question qui est fondamentale quand on parle de ça.
12:59C'est pas pour des questions de sécurité publique générale,
13:02mais pour chacune des problématiques spécifiques que l'on veut traiter.
13:06Certaines doivent très clairement ne pas être considérées comme des problématiques à traiter,
13:11je pense à la pénalisation du séjour, pour parler de ça, de certaines personnes,
13:15je pense à des activités politiques qui sont de plus en plus criminalisées
13:18et à bien d'autres sujets similaires, mais par contre il y a des problèmes qu'il faut traiter,
13:22les problèmes de violence que vous mentionnez au début,
13:24certains problèmes d'insécurité sociale ou politique ou d'insécurité physique,
13:30il faut pouvoir les traiter, et pour ça le débat public en matière de solutions,
13:35d'outils qu'on doit amener, doit répondre à cette question,
13:39c'est quelles sont les manières les plus efficaces,
13:41mais surtout les moins attentatoires aux droits que l'on doit pouvoir proposer,
13:45et ça, les réponses structurelles à amener sont à chaque fois adaptées et individualisées
13:50aux questions traitées, et ne peuvent pas être de manière générale
13:55abordées sous le prisme de la technologie, de la réponse technologique,
13:58ça serait non seulement inefficace, et en plus dangereux pour la démocratie, comme on le disait.
14:02Vous avez traité le problème sous ce prisme, vous l'avez dit,
14:04comment faire justement pour ouvrir ce débat avec cette Belgique qui est encore à droite,
14:09et encore plus à droite, et avec les orientations clairement affichées par le nouveau gouvernement ?
14:13Moi je crois en la puissance, disons, de la société civile dans toute sa multiplicité,
14:20des collectifs les plus précarisés par le pouvoir que les grosses organisations de la société civile,
14:28et on voit là qu'il y a un mouvement qui tente de se structurer,
14:32et le rapport de force que ce mouvement là va tenter de mettre en place,
14:37et bien il faut pouvoir le légitimer, il faut pouvoir le regarder de près et le soutenir.
14:41Alors on va se projeter vers l'avenir, justement à l'avenir de la surveillance dans nos sociétés,
14:45à plus de technologie et en même temps plus de protection des droits fondamentaux.
14:49Emmanuel Dubois serait ?
14:53Nous ce qu'on souhaite c'est surtout une grande protection des droits fondamentaux,
14:56et pas spécialement plus de technologie, ou en tout cas pas plus de technologie,
15:00au service de la répression, ou dans les mains d'un Etat qui l'utiliserait, enfin voilà.
15:09De manière intentionnelle et précise.
15:12Il y a des exemples, on n'est pas contre toute forme de technologie, notamment par les pouvoirs publics,
15:17on sait qu'en Belgique aujourd'hui il y a un énorme problème social, c'est le non recours aux droits, aux droits sociaux.
15:22Pourtant on sait que parfois il y a des expérimentations justement pour automatiser ces droits là,
15:28grâce à des formes d'algorithmes ou de nouvelles technologies,
15:32or on voit que ça ce n'est clairement pas la priorité du gouvernement,
15:36alors que justement si on veut avoir un recours à la technologie qui soit respectueuse des droits,
15:40la technologie et les droits peuvent parfois faire bon ménage, ne sont pas nécessairement opposés.
15:45Alors en matière de reconnaissance faciale à des fins répressives, nous on considère que c'est le cas.
15:49Aussi pour les journalistes, je le rappelle souvent, pour la liberté de la presse,
15:53on voit que dans beaucoup de pays, les journalistes qui tentent de mener des enquêtes contre le pouvoir,
15:57contre des entreprises, font l'objet, et notamment à cause de la technologie, d'identification, etc.,
16:03de répression, voire d'assassinat.
16:05Donc il y a aussi cette dimension de liberté de la presse qui est pour nous extrêmement importante.
16:08Mais pour revenir à la question des droits sociaux, la technologie pourrait être mobilisée
16:12pour permettre une automatisation des droits sociaux et d'accès aux droits renforcés,
16:16ce qui n'est pas le cas malheureusement.
16:17Alors on a une petite dernière question avant de nous quitter,
16:19si vous avez un message à faire passer pour sensibiliser encore plus à cette problématique.
16:28Pas de message spécifique ?
16:29Non, mais il y a quelque chose qui me venait par rapport à votre question précédente.
16:33La reconnaissance faciale est vraiment mise en avant pour lutter contre le crime finalement.
16:39En réalité, si on prend un petit peu de distance simplement par cette idée de l'insécurité
16:44et de l'augmentation du crime, on se rend compte que même cette idée-là est complètement fausse.
16:49C'est un prétexte finalement.
16:51On n'a jamais été autant en sécurité en réalité que dans ce monde-ci.
16:55Alors évidemment, l'actualité peut être sensationnaliste,
16:58mais en réalité, la reconnaissance faciale, c'est quelque chose d'autrement attentatoire
17:03pour lutter contre quelque chose qui n'a eu que tendance à se réduire au fil des ans.
17:08Donc voilà, le prétexte est mauvais en fait, si on l'interroge en tant que tel.
17:14Un dernier mot, mot de la fin ?
17:16Non, je pense qu'il y a un enjeu d'information, de s'informer,
17:20parce que ce qu'on constate avec ce sujet, c'est qu'il est technique.
17:24On peut vous inviter peut-être à inviter les auditeurs à aller voir le site Protect My Face,
17:29qui est une campagne qu'on a lancée avec d'autres organisations antiracistes
17:33pour le droit des personnes LGBT, des défenseurs, défenseuses de la vie privée.
17:37Il y a beaucoup plus d'informations, parce qu'effectivement,
17:39cette technologie charrie à la fois beaucoup de paranoïas,
17:43et on veut quitter l'idée des idées de paranoïas qui en fait démobilisent très fort,
17:48et ça mobilise aussi beaucoup de fantasmes policiers et autres.
17:52Sinon, la reconnaissance sociale ne permettra pas de résoudre la question du crime,
17:56en Belgique ni à l'étranger.
17:58Il ne faut pas donner la pleine valeur aux résultats.
18:02Il faut bien se rappeler que ce sont des technologies qui font des comparaisons d'images,
18:05de pixels, de couleurs, etc.
18:08Le résultat d'une machine, il n'en ressort que ce que l'on a injecté dedans,
18:13et il ne faut pas oublier non plus qu'on fait partie d'un système
18:17dans lequel il y a une présomption d'innocence,
18:20et on ne peut pas mener les enquêtes avec suffisamment de sécurité.
18:23Il y a beaucoup de choses qui doivent participer,
18:25et la reconnaissance faciale ne participera pas dans le bon sens,
18:29ni dans la protection des droits fondamentaux, si un jour elle est utilisée.
18:33Voilà, la reconnaissance faciale qui suscite de plus en plus de débats chez nous.
18:37Merci Rémi Farr, je rappelle que vous êtes formateur de la Ligue des Droits de l'Homme.
18:41Emmanuelle Debusserey, conseillère juridique,
18:43merci d'avoir été avec nous pour partager vos analyses.
18:46Merci à vous.
18:47Je vous laisse pour la suite de votre CAFO de l'Info.