• avant-hier
Début février, l'AI Act, un nouveau règlement européen encadrant l’intelligence artificielle est partiellement entré en application. Par principe, il interdit différents usages qui mettraient en danger les droits fondamentaux, comme par exemple la reconnaissance faciale. Mais sur ce sujet, les tentatives de contournement de ce règlement se font déjà sentir, notamment en Belgique via le nouveau gouvernement Arizona.
On en discute avec Philippe Laloux, journaliste spécialiste des nouvelles technologies et Arthur Sente, spécialiste des questions de police-justice.

Catégorie

🗞
News
Transcription
00:00Début février, un nouveau règlement européen encadrant l'intelligence artificielle est partiellement entré en application.
00:06Il interdit par principe différents usages qui mettraient en danger les droits fondamentaux des citoyens,
00:11comme par exemple la reconnaissance artificielle.
00:14Mais sur ce sujet, les tentatives de contournement de ce règlement se font déjà sentir.
00:23Et pour en discuter, on accueille sur ce plateau notre expert en nouvelles technologies.
00:27Bonjour Philippe Lallaud.
00:29Bonjour Sarah.
00:30Et c'est une première, je crois, pour vous.
00:32Arthur Sontes, vous êtes journaliste au pôle enquête et spécialiste des questions de police-justice.
00:37Bonjour Arthur.
00:38Bonjour Sarah.
00:39Alors, pour commencer et pour comprendre de quoi on parle ici,
00:42Philippe, c'est quoi ce nouveau règlement européen sur l'intelligence artificielle ?
00:46Alors figurez-vous que c'est le premier règlement mondial qui tente d'encadrer l'intelligence artificielle.
00:52Donc l'Europe a été la première grande puissance économique à dégainer cette réglementation.
00:57Il faut savoir que c'est plus un règlement qui régule le marché de l'intelligence artificielle.
01:02Donc on s'attache plus aux entreprises, aux produits, plus qu'à l'éthique en fait.
01:06Donc il faut bien comprendre que c'est une puissance économique qui produit un règlement pour encadrer le marché.
01:11Et donc il a été voté l'an dernier, grosso modo l'été dernier, en vigueur depuis le 1er août.
01:19Et l'approche est intéressante parce qu'elle évoque une approche par risque.
01:24Et donc ils ont établi quatre niveaux de risque par rapport aux produits, aux outils d'intelligence artificielle.
01:30Et pour chaque catégorie, il y a un cadre légal particulier qui s'applique.
01:35Alors le plus bas, c'est risque minimal.
01:37Donc voilà, pas de soucis, on ne s'en occupe pas.
01:40C'est typiquement par exemple une montre connectée, on n'a pas trop de soucis par rapport à ça.
01:45Et puis il y a une gradation et on arrive au risque inacceptable.
01:49Et entre les deux, il y a encore deux niveaux de risque.
01:51Il y a le haut risque.
01:52Alors typiquement, ça c'est les voitures autonomes.
01:54Donc ils peuvent représenter un danger pour la sécurité ou pour les droits fondamentaux.
01:59Il y a aussi des risques en matière de transparence.
02:03Et là, c'est typiquement Tchad GPT.
02:05Pourquoi ? Parce qu'il y a des risques de manipulation de l'opinion au Paris.
02:08Et pourquoi est-ce qu'on en parle maintenant, Sarah ?
02:11Parce que depuis ce dimanche le 2 février, il y a le premier volet de ces dispositions
02:18qui est réellement en application partout en Europe.
02:21Et le volet qui concerne justement les risques inacceptables.
02:25De quoi parle-t-on quand on évoque des risques inacceptables ?
02:29Typiquement, je ne sais pas si vous avez entendu parler de ça en Chine,
02:32c'est le fameux score social.
02:34Donc c'est la possibilité de traquer vos comportements, de recueillir des données
02:39et en fonction de ces données, de vous octroyer ou pas des aides, des allocations
02:43ou de vous permettre d'accéder à vos droits.
02:45Par exemple, la détection des émotions sur le lieu de travail ou à l'école
02:51totalement interdit.
02:54Et parmi ces interdictions aussi, les caméras de surveillance,
02:59c'est-à-dire des dispositifs qui permettent de recueillir des images
03:04en temps réel sur l'espace public.
03:06Et donc depuis lundi, théoriquement, tous ces appareils
03:10devraient être débranchés partout en Europe.
03:12Effectivement, théoriquement, en principe, avec ce règlement,
03:15on ne peut pas, par exemple, utiliser les données biométriques d'un individu.
03:19Mais il y a des tentatives de contournement de ce règlement.
03:23Vous parliez justement de reconnaissance faciale.
03:26Alors, il y a des tentatives d'utiliser les failles de l'EIAct,
03:30parce qu'on n'a pas donné le nom de ce règlement.
03:32Je vous ai laissé le dire, parce que c'est un peu compliqué à prononcer.
03:35C'est le fameux règlement sur l'intelligence artificielle,
03:38plus communément appelé EIAct.
03:42Le législateur européen a imaginé, même dans des annexes,
03:48un certain nombre d'exceptions à cette règle tacite
03:52qui interdit la reconnaissance faciale en temps réel sur l'espace public.
03:57Mais il y a malgré tout trois types de dérogations.
04:00On ne va pas rentrer dans les détails,
04:02mais si vous recherchez une personne bien ciblée,
04:07quand il y a une menace réelle d'attentat ou de terrorisme,
04:11avec la question de qui décide qu'il y a une menace réelle d'attentat,
04:16qui prend cette décision pour activer ce dispositif ?
04:20Bref, en fait, c'est à chaque État qu'il appartient maintenant d'activer,
04:24ou non, ces fameuses exceptions autorisées dans l'EIAct.
04:28Et on en parle aujourd'hui parce que la société civile
04:32et plusieurs organisations comme la Ligue des droits humains
04:36ou la Liga for Men's Rights en Flandre
04:40activent le signal d'alarme en disant
04:43« Attention, en Belgique, au mois de décembre,
04:45le ministre de la Justice a déposé un projet de loi
04:48qui envisage d'activer ces exceptions pour ces cas-là
04:54et pour ces organisations, ce précédent est dangereux
05:00parce qu'il ouvre la porte à une reconnaissance généralisée,
05:03une reconnaissance massive, partout, tout le temps.
05:07Et justement, Arthur, qu'en est-il de la reconnaissance faciale en Belgique ?
05:11A-t-elle déjà été expérimentée par le passé, par les forces de l'ordre ?
05:15Alors, comme Philippe l'a dit, en théorie,
05:17la reconnaissance faciale, aujourd'hui, elle est interdite.
05:20Il y avait cette proposition de loi de l'ex-ministre de la Justice,
05:23Paul von Pigel, qui n'a pas abouti.
05:26Mais on a vu ici tout récemment que dans le projet gouvernemental de l'Arizona,
05:32il y a des points qui concernent la reconnaissance faciale.
05:34On y reviendra sans doute plus tard.
05:36Maintenant, pour revenir à l'historique,
05:39il y a deux choses que je voudrais souligner.
05:42C'est d'abord qu'en Belgique, il n'y a certes pas de reconnaissance faciale,
05:46donc des individus, à partir de la vidéosurveillance,
05:50sur base des traits faciaux.
05:53Par contre, il y a déjà une utilisation qui est assez généralisée
05:57de la vidéosurveillance algorithmique,
06:01qui repose sur des facteurs visuels.
06:04Un exemple qui est pratiquement tout le temps cité,
06:08c'est, je recherche aujourd'hui un individu qui se promenait sur cette place
06:13avec une veste orange, je le repère,
06:16et des applications informatiques vont me permettre
06:20de, sur base de cet élément visuel,
06:24de suivre sur base de différentes images qui ont été produites par différentes caméras,
06:28et donc de suivre, par exemple, son parcours dans la ville.
06:32Une des applications les plus communément utilisées en Belgique
06:36pour faire ça s'appelle BriefCam.
06:39C'est une application qui a été développée par une société israélienne
06:43et qui, en fait, dans la pratique,
06:46en tout cas dans cette technologie,
06:49en tout cas aujourd'hui, de faire de la reconnaissance faciale.
06:53Il y a un média d'investigation français qui s'appelle Disclose
06:57qui a beaucoup travaillé sur cette application côté français,
07:00et qui, à partir d'un manuel d'utilisation,
07:03s'est rendu compte qu'il suffisait de cocher ou de décocher
07:07une case dans ce programme pour activer cette reconnaissance faciale.
07:13Dans les faits, il y a des bonnes raisons de croire qu'aujourd'hui,
07:17en Belgique, ce n'est a priori pas utilisé.
07:20BriefCam explique qu'il est tout à fait possible
07:23de rendre inaccessible cette option,
07:26notamment lorsqu'un cadre légal ne le permet pas.
07:30Mais tout ça pour dire qu'aujourd'hui,
07:33on va dire que les outils pour pratiquer la reconnaissance faciale en Belgique
07:37semblent être relativement à disposition des forces de police.
07:42Il y a quand même pas mal de zones de police en Belgique qui utilisent BriefCam.
07:46Je ne pourrais pas vous citer un chiffre précis,
07:49je ne pense pas qu'il est connu,
07:51mais la plupart des grandes zones du pays,
07:53et notamment Bruxelles-Capital-XL,
07:55l'utilisent sur une base tout à fait régulière,
07:58et n'en font d'ailleurs aucun secret.
08:00Maintenant, pour revenir sur la reconnaissance faciale en tant que telle,
08:04il y a eu un précédent qui a fait beaucoup parler en Belgique,
08:08qui est l'utilisation du logiciel états-unien ClearView.
08:14Pour vous expliquer brièvement,
08:16ClearView, c'est une application qui est réservée aux forces de police,
08:22qui est visiblement devenue assez populaire aux États-Unis notamment,
08:26et qui permet, sur base d'une photo,
08:29de faire une recherche croisée à partir des traits de la personne
08:34qui est sur cette photo,
08:36dans une banque de données gigantesque,
08:39parce qu'en fait, la force de ClearView,
08:43c'est d'avoir réussi à scraper des tonnes et des tonnes de données,
08:48notamment sur les réseaux sociaux,
08:50de tas d'individus,
08:52ce qui d'ailleurs pose des tas de questions
08:54au sujet de la légalité de cette application.
08:57Et donc, j'ai la photo d'un individu, je voudrais trouver son identité,
09:01c'est clairement facilité par ce type de programme,
09:04et il s'avère qu'en 2019,
09:07des policiers belges,
09:09dans le cadre d'une journée de formation internationale,
09:12ont eu l'occasion de tester cette application,
09:15en dehors de tout cadre légal,
09:17est-il apparu par la suite,
09:19mais donc en faisant une série de recherches
09:21sur des personnes dans le cadre de,
09:24si je me souviens bien,
09:26la lutte contre le trafic d'images pédopornographiques,
09:29ou en tout cas le trafic d'êtres humains.
09:32Cette affaire est ressortie dans la presse par la suite,
09:35le COC, qui est l'organe de contrôle de l'information policière en Belgique,
09:39qui est une institution qui relève de l'autorité du Parlement,
09:43a rendu un rapport assez circonstancié sur le sujet,
09:46en déclarant unilatéralement
09:49que c'était tout à fait illégal à ce stade,
09:52et donc, a priori, cet usage est complètement proscrit aujourd'hui en Belgique.
09:56A priori, mais avec le gouvernement,
09:58le nouveau gouvernement arizonais,
10:00est-ce que les choses vont bouger justement
10:02par rapport à ce sujet de la reconnaissance faciale en Belgique ?
10:05Alors, il y a des bonnes raisons de le croire.
10:08Déjà, on l'a expliqué, parce que le AI Act est entré en vigueur.
10:12Il y avait ce projet, c'était une proposition de loi à l'époque,
10:16parce qu'elle a été rendue en affaire courante,
10:19mais qui décidait clairement de creuser l'aspect de ces exceptions,
10:23et on voit que dans la déclaration de politique gouvernementale,
10:28il y a des points assez précis relatifs à cette question qui s'y retrouvent.
10:34En l'occurrence, je vais citer,
10:37en collaboration avec les services de renseignement et de sûreté,
10:40nous facilitons les champs d'expérimentation
10:42pour les nouvelles applications opérationnelles et les nouvelles technologies.
10:45En l'occurrence, il peut s'agir, par exemple,
10:47du déploiement de la technologie de reconnaissance facile
10:50pour la détection des condamnés et des suspects.
10:53Ça, c'est un point.
10:54Il y a un autre point dans cette déclaration politique générale
10:58qui concerne le recours à des banques de données biométriques
11:02pour faire des contrôles à l'entrée des stades,
11:04notamment pour repérer les interdits de stade.
11:07Il n'y a pas beaucoup de détails sur l'opérationnalisation de ce projet,
11:10mais on imagine que ça pourrait reposer sur une forme de reconnaissance facile,
11:15même si ce n'est pas dit textuellement dans ce paragraphe.
11:19C'est encore un petit peu flou,
11:21mais tout ça pose tout de même quelques questions éthiques.
11:25Oui, tout à fait.
11:26D'ailleurs, dans la déclaration, ce qui est comique,
11:29ce qu'on lit, c'est que le législateur du nouveau gouvernement dit
11:33qu'il va falloir toujours trouver l'équilibre,
11:35mettre le curseur entre le droit à la sécurité,
11:40en temps de parenthèse, et je le cite,
11:42qui est un droit fondamental,
11:44et le droit à la vie privée.
11:46Et là, il n'y a pas de parenthèse.
11:48Or, pourtant, évidemment que le droit à la vie privée est un droit fondamental.
11:52Et donc, on sent bien qu'on va toujours surfer entre les deux.
11:55Et ce que dit la Ligue des droits humains,
11:57c'est qu'ils plaident vraiment pour ne pas actionner
12:01ces fameuses exceptions prévues dans l'AI Act.
12:04Pourquoi ?
12:05Parce que, ici, typiquement, pour pouvoir l'actionner,
12:09le gouvernement agite un peu l'épouvantail de menaces,
12:14terrorisme, circulation de matériel pédopornographique, etc.
12:18Et utiliser cet épouvantail, selon eux,
12:22c'est contre-productif et fallacieux.
12:24Alors, très rapidement, contre-productif,
12:26parce que plus on a de données,
12:30moins la recherche ciblée est efficace.
12:32Or, le fait d'ouvrir des exceptions va provoquer un appel d'air.
12:36Inévitablement, on va recueillir massivement des données
12:39pour constituer des bases de données massives,
12:42ce qui correspond à une sorte de fichage indiscriminé, en fait,
12:46mais qui rend la recherche ciblée plus compliquée.
12:49C'est fallacieux aussi parce qu'on ouvre la porte, justement,
12:51à cette surveillance généralisée.
12:54Il y a un vrai danger aussi de cibler des populations en particulier.
13:00Pourquoi ?
13:01Parce que, comme le rappelait Arthur,
13:03derrière ces caméras, il y a un logiciel.
13:05Et derrière les logiciels, il y a des algorithmes.
13:07Et derrière les algorithmes, il y a des gens qui les codent.
13:09Et pour les coder, essentiellement, des hommes blancs
13:12avec tout leur prisme culturel,
13:15et qui a pour effet que, fatalement,
13:20quand on pointe des caméras sur une foule,
13:22quand on pointe un logiciel pour faire de la détection de fraude sociale,
13:28le risque que l'on stigmatise des populations en particulier,
13:32sans-abri, demandeurs d'asile,
13:36des communautés musulmanes, etc.,
13:38dans certains quartiers, est loin d'être négligeable.
13:42Les études le montrent.
13:44Et il y a en plus un biais de confirmation.
13:46C'est-à-dire qu'il y a des études qui montrent que
13:48les forces de police ont tendance,
13:51quand on s'appuie sur ce type de technologie,
13:54à oublier les techniques d'enquête traditionnelles
14:00et donc de valider la culpabilité d'une personne
14:04uniquement sur base d'une décision algorithmique,
14:06alors qu'une technique d'enquête aurait permis l'innocenté.
14:10Donc il y a aussi un danger de l'étendre à...
14:14Par exemple, Conor Rousseau, le président de Vreuth,
14:17avait évoqué cette idée,
14:18tiens, on va utiliser la reconnaissance faciale
14:20pour lutter contre les dépôts clandestins.
14:22Alors, le but est légitime et noble,
14:26sauf qu'on utilise ici un fait divers
14:31pour justifier une technologie qui est dangereuse en fait
14:34et qui est attentatoire à plusieurs droits.
14:37Contrairement à ce que dit la déclaration gouvernementale,
14:40le droit à la vie privée, c'est un peu le droit suprême
14:42qui permet le droit à la liberté d'expression,
14:44à la non-discrimination,
14:46et à la liberté de se rassembler, de manifester, etc.
14:51Donc éthiquement, ça pose un certain nombre de questions
14:54et donc il faut...
14:55C'est toujours la difficulté de voir des objectifs légitimes
14:59et les atteintes aux droits fondamentaux.
15:04Comment on met le curseur ?
15:05La fin ne justifie pas toujours les moyens.
15:07C'est la question en tout cas.
15:09Et au niveau européen justement,
15:10parce que là on parlait beaucoup de la Belgique,
15:11mais comment ça se passe dans les autres pays ?
15:13Est-ce qu'il y a aussi d'autres tentatives de contournement de ce règlement ?
15:17Alors, à ce stade, je ne peux pas vous dire
15:20si d'autres pays souhaitent activer ou pas ces fameuses exceptions.
15:24La Belgique, en tout cas, il y a une volonté.
15:27On sait qu'en Grande-Bretagne, c'est déjà le cas,
15:29mais on est hors Union européenne.
15:31Et la France est plutôt leader en la matière
15:36et a montré sa volonté d'utiliser ces technologies.
15:38Alors, on n'est pas dans la reconnaissance faciale,
15:40mais on sait que pendant les Jeux olympiques,
15:41il y a eu des expériences, on va dire,
15:44de détection de comportements, en fait,
15:47déviants, grâce à des caméras et des logiciels.
15:52Ce qui est certain, en tout cas,
15:54c'est que la volonté de recueillir massivement des données,
15:57de les croiser, de les traiter à des fins sécuritaires
16:01ou de lutte contre l'insécurité,
16:03elle est clairement marquée en Europe, clairement.
16:06Donc ça, c'est une tendance générale.
16:08Et malgré les réglementations, les régulations,
16:10le RGPD qui protège la vie privée, etc.,
16:14il y a déjà sur la table un vieux projet de directive
16:19qui circule depuis des mois et des mois, voire des années.
16:22La Belgique a essayé de faire passer, d'ailleurs,
16:25quand elle avait la présidence du Conseil,
16:28c'est ce fameux « chat control », comme on l'a appelé.
16:32L'idée, c'est quoi ?
16:33L'idée, c'est tout simplement de briser, de supprimer,
16:38de mettre fin aux messageries privées
16:41et au caractère privé des messageries
16:43comme WhatsApp, Signal, Messenger, etc.
16:46et de scanner vos messages pour voir si, par hasard,
16:50vous n'envoyez pas une photo à caractère pédopornographique.
16:53Fatalement, ce que la technologie peut,
16:55parfois le politique le veut,
16:57et l'idée d'élargir ça à d'autres champs
17:01que uniquement la détection de matériel
17:02à caractère pédopornographique,
17:04elle est tentante.
17:05On sait aussi qu'Europol, par exemple,
17:07a obtenu une dérogation, en fait,
17:09dans ses nouveaux statuts, pour servir,
17:11pardonnez-moi l'expression, de poubelle,
17:13pour héberger, stocker et donc traiter,
17:17croiser, toutes les données recueillies
17:20par des États illégalement, ou en tout cas,
17:22que ces États ne peuvent plus conserver
17:24en vertu du RGPD.
17:25Par exemple, les données biométriques
17:29recueillies aux frontières pour les demandeurs d'asile
17:32ou toute une série d'autres données.
17:34Comme ça, le RGPD interdit de les conserver
17:36plus de X mois.
17:38On peut les mettre chez Europol et les conserver.
17:40Ça devient une espèce de gigantesque frigo,
17:43comme ça, à donner.
17:44La tentation de les croiser, elle est énorme.
17:46Donc, oui, il y a une tendance aujourd'hui,
17:48en Europe et en Belgique, pour traiter davantage,
17:52recueillir massivement des données
17:54à des fins sécuritaires et autres.
17:56Affaire à suivre, donc.
17:58Merci à tous les deux pour ces éclairages
18:00et pour votre expertise.
18:01On renvoie évidemment nos lecteurs
18:03à vos articles sur le sujet.
18:05Merci, Sarah.
18:06Merci, Sarah.
18:07Merci aussi à notre réalisateur, Luca Alou.
18:09On vous donne, comme d'habitude,
18:11rendez-vous sur le site du Soir
18:13et sur notre application.

Recommandations