Category
📚
ÉducationTranscription
00:003. Dévissez les boulons de la roue. Servez-vous d'une douille à choc pour roue N°17.
00:10Utilisez une clé à cliquet.
00:134. Dévissez les boulons de la roue. Servez-vous d'une douille à choc pour roue N°17.
00:205. Dévissez les boulons de la roue. Servez-vous d'une douille à choc pour roue N°17.
00:306. Dévissez les boulons de la roue. Servez-vous d'une douille à choc pour roue N°17.
00:407. Dévissez les boulons de la roue. Servez-vous d'une douille à choc pour roue N°17.
00:508. Dévissez les boulons de la roue. Servez-vous d'une douille à choc pour roue N°17.
01:009. Dévissez les boulons de la roue. Servez-vous d'une douille à choc pour roue N°17.
01:10Vous avez envie de vivre dans un monde où vous êtes filmé, scanné dans la rue, le commerce et le métro.
01:16Vous devez montrer un code QR pour entrer dans la ville ou scanner votre visage pour entrer au boulot.
01:21Quand vous levez de votre chaise, une caméra va tracer le nombre de minutes où vous êtes parti ou compter le nombre de cafés que vous avez servi.
01:29Et puis le soir, vous rentrez chez vous et vous scannez votre visage pour ouvrir la porte.
01:34Ajoutez un bonus si vous postez un peu trop sur Twitter ou si vous traînez de près de manif.
01:38Quand vous allez dans un centre commercial ou un aéroport, que la police vous arrête pour vous poser quelques questions ?
01:45Moi non, je n'ai pas envie de vivre là-dedans mais tout ça, ça arrivera avec la reconnaissance faciale.
01:51Quand Klaus Schwab parlait de transparence totale, vous n'aurez plus de vie privée, ce n'était pas des blagues ?
01:57On doit accepter une transparence et je dirais même une transparence totale.
02:04Après la fin du Covid, on a l'impression qu'on est tranquille mais la guerre pour la vie privée est en cours actuellement et ça se fera avec votre visage.
02:13Mais si on n'a rien à cacher, il ne faut pas avoir peur.
02:17Oui, il ne faut pas avoir peur. Justement, si ça ne vous fait pas peur, c'est peut-être que le plan est bien parti.
02:22Parce que votre visage nous appartient, c'est le titre d'un livre de Kashmir Hill et on va voir ça aujourd'hui.
02:28Je ne vous ai pas montré le dernier deepfake par exemple ?
02:31Ah non, il a coûté 25 millions de dollars, regardez ça.
02:35C'est un employé qui a participé à un appel vidéo sur Zoom au travail et tous ses collègues étaient des deepfakes.
02:43Ça veut dire qu'il croyait parler à ses collègues et ils étaient tous faux.
02:48Si vous voulez les détails, les arnaqueurs ont récupéré le visage de chaque participant.
02:55Ils ont généré un deepfake pour chacun avec une fausse voix aussi.
02:58Ils sont basés sur des vidéos qui étaient disponibles publiquement.
03:02Et puis ils ont généré une mosaïque et la personne pensait être dans une vraie réunion normale.
03:07Donc s'ils ont pu faire ça, c'est qu'on peut faire ça avec n'importe qui.
03:11On est arrivé à un point où la technologie nous imite tellement bien qu'on ne fait plus la différence entre un vrai humain et un programme qui vous imite.
03:19Les deepfakes ne sont pas sortis de n'importe où parce qu'ils sont basés sur la reconnaissance faciale aussi.
03:24Comment ça marche la reconnaissance faciale ?
03:27C'est un outil biométrique, un peu comme quand on lit les empreintes de votre doigt, le scan de votre iris.
03:32Le principe c'est qu'on capture une photo de votre visage, on mesure certains points, on appelle ça les points nodaux,
03:39et puis on va mesurer la distance entre ces points, la distance entre vos yeux, la largeur du nez, la largeur du visage, taille du front, etc.
03:47Et chaque programme peut utiliser plus de 80 points nodaux différents.
03:52Et on les collecte, on les met dans une formule mathématique, et on convertit ça en une signature unique qui correspond à votre visage.
03:59On dit qu'on a extrait votre signature biométrique.
04:02Et alors on va comparer cette signature à une base de données.
04:05Soit on va par exemple vérifier que c'est vous en comparant votre visage avec une photo de vous,
04:10soit on va la comparer à plein de visages différents pour voir si vous correspondez à un criminel ou quelque chose d'autre.
04:17Et chaque algorithme a sa version personnelle, donc il y a plein de programmes qui existent qui font ça.
04:22Et certains sont entraînés à reconnaître les visages de face, de côté.
04:26Tout ça est une question de précision, et vous pouvez faire des recherches plus précises,
04:31ou classer des gens dans une foule par couleur de cheveux, par genre, et même par race, on verra ça par la suite.
04:39C'est assez flippant, donc l'idée c'est que le visage va servir à être un identifiant unique.
04:58Il n'y a rien que les ordinateurs et les programmeurs aiment plus que les identifiants uniques, comme dit Edward Snowden dans cet extrait.
05:05On peut vous identifier avec ça de manière unique, tout comme votre téléphone, votre e-mail ou un QR code.
05:11C'est peut-être un peu de notre faute quand même, parce qu'on ne s'est pas méfiés.
05:15En reconnaissance faciale, au début, les chercheurs utilisaient des bases de données qui étaient disponibles officiellement,
05:23ou récoltées par exemple dans les universités, des choses comme ça.
05:27Mais il y a beaucoup de bases de données qui sont constituées de manière un petit peu illégale, on va dire.
05:33Et c'est là où on était un petit peu en faute, on ne s'est pas méfiés.
05:38Parce que quand vous regardez la progression d'Internet et de la culture, sur Internet à ses débuts, fin 90, on était plutôt anonyme, vous voyez, sur les forums et les tchats.
05:48Et vers début 2000, on a eu le début des appareils photo numériques qui sont arrivés en commerce de masse.
05:56Vous aviez aussi les caméras sur les téléphones portables.
06:00Et on commençait à voir sur Internet apparaître des sites de stockage de photos numériques, parce que ça prend de la place, comme Flickr ou Picasa.
06:09On vous a encouragé à stocker votre photo en ligne.
06:12Et les réseaux sociaux sont arrivés dans le début 2000.
06:17Et Facebook et Google ont réussi à convaincre à peu près tout le monde de mettre sa photo, son nom, son prénom en ligne.
06:26Officiellement, on croyait que Big Tech allait connecter le monde entier, nous aider à retrouver nos amis et qu'on allait vivre dans un monde meilleur, vous voyez.
06:34Et quand Facebook a introduit cet outil de tagging, vous voyez, des dictages de vos amis, on ne s'est pas méfiés.
06:41On a commencé à tagger toute notre famille et nos amis.
06:44Et avec ça, on a constitué une énorme base de données de gens avec leur visage.
06:50Pareil sur Instagram, pareil sur tous les autres réseaux sociaux.
06:54Le souci, c'est que des gens un peu scrupulés ont créé des systèmes assez flippants.
06:59Vous connaissez Google Image Search.
07:01C'est un site où vous postez une photo et ils vous montrent des photos similaires.
07:05Vous avez aussi un autre type de reconnaissance d'images.
07:08Vous avez des sites comme Yandex.
07:10Ça ne cherche pas des images similaires en termes de couleur ou de format.
07:13Ça cherche des visages qui ressemblent à votre photo.
07:16Vous avez aussi le site fineclone.ru.
07:19Par exemple, sur VK, il y a des gens qui ont capturé le visage d'un homme
07:22pendant une vidéo avec des fans de football et des hooligans.
07:25Et puis, on retrouve la photo sur VK.
07:27On voit le même type là avec le même t-shirt ou bien avec un ami.
07:31Ça vous fait des belles perspectives, n'est-ce pas, de harcèlement ?
07:34Notez que c'est assez surprenant.
07:36Avec ces outils-là, Google et Facebook ont développé des outils de reconnaissance faciale.
07:42Mais ils ont renoncé à les utiliser.
07:45Google, le même Google qui lit vos messages privés sur Gmail
07:49ou qui scanne toutes vos maisons et vos réseaux Wi-Fi aussi,
07:54en passant avec Google Streetcar,
07:56ils n'ont pas osé faire de site de reconnaissance faciale.
08:00Mais le souci, c'est qu'il y a d'autres entreprises qui n'ont pas eu autant de scrupules.
08:04Vous avez Clearview et Face++ qui sont des logiciels de reconnaissance faciale.
08:09Clearview a récupéré des millions et des millions de photos de gens sur Facebook
08:13avec leur nom et a conçu son propre algorithme de reconnaissance faciale.
08:17Maintenant, leur programme est reconnu comme un des meilleurs.
08:19Clearview a été retiré de l'Apple Store.
08:21Facebook et Instagram et tous les autres ont écrit pour qu'ils arrêtent de récupérer leurs données.
08:26Mais ils ne sont pas franchement allés plus loin.
08:28LinkedIn avait déjà perdu un procès contre un data scraper.
08:31Clearview a fait scandale quand le New York Times a sorti un article qu'il a exposé en 2020.
08:37Il y a eu plein de réactions et plein de procès.
08:40Mais bizarrement, toutes les discussions sont arrêtées parce que, devinez quoi, il y a eu le Covid.
08:45Si vous pensez ne pas être dedans parce que vous n'êtes plus sur Facebook depuis quelques années,
08:49j'ai une mauvaise nouvelle pour vous.
08:51On retrouve des photos vieilles de 10 ans et plus,
08:54même des anciens criminels qui ont été retrouvés.
08:56On a reconnu leurs têtes décennies plus tard.
08:59D'ailleurs, BFM vient de sortir un reportage sur la reconnaissance faciale.
09:04C'est assez fort parce qu'ils font semblant de critiquer pour pouvoir mieux placer les avantages.
09:08BFM TV vous dit que Clearview est interdit en Europe.
09:11Sauf qu'ils oublient bien de vous dire que même s'il y a des condamnations dans plusieurs pays,
09:15l'Italie, la France, la Grèce, c'est sur le papier.
09:18On ne sait pas s'ils ont vraiment payé ou s'ils ont fait des appels pour faire traîner les procès en longueur.
09:23Là, par exemple, en Angleterre, ils ont fait appel et l'amende a été annulée
09:27parce que Clearview a dit ne pas avoir de clients en Europe ni en Angleterre.
09:31En France, on a eu une condamnation de la CNIL de 20 millions.
09:34Mais la question, c'est comment est-ce qu'on va forcer une loi européenne contre une société aux US ?
09:38Est-ce qu'ils vont vraiment payer ? On ne sait pas.
09:40Parce que si vous regardez cet article-là, ça date que de 2021.
09:44La reconnaissance faciale est déjà utilisée dans 11 pays et plein d'autres étaient en cours.
09:49Le souci, c'est que techniquement, beaucoup de villes ont utilisé la reconnaissance faciale illégalement.
09:55Par exemple, ici en Suède, qui a été épinglée, qui a dû payer une amende.
09:59Et maintenant que le gouvernement est en train de dire qu'ils veulent reprendre de la reconnaissance faciale,
10:03on peut avoir des doutes.
10:04Je pose la question, peut-être que Clearview est encore utilisée en Europe ?
10:08Parce que Clearview et Face++ sont utilisés par les forces de police aux USA.
10:13Un exemple, la police à New Orleans qui fait de la reconnaissance faciale.
10:17NYPD l'a utilisé.
10:19Vous avez la ville de Valenciennes ici qui fait de la surveillance automatisée.
10:23À Valenciennes, ça fait maintenant 3 ans que la ville est équipée grâce au chinois Huawei.
10:27Oui, grâce, car c'est un cadeau à 2 millions d'euros des caméras offertes à la ville.
10:32Depuis 2018, figurez-vous que Huawei a enfilé gentiment 361 caméras et des logiciels de reconnaissance faciale et de voitures.
10:44Du coup, ils se sont mis à filmer les voitures, les plaques d'immatriculation sans autorisation.
10:49La CNIL a jugé que c'était illégal.
10:51Ils ont aussi à côté utilisé les caméras de la CNCF et les transports locaux pour faire de la reconnaissance de comportement.
10:58Tout ça, c'était en 2018.
11:00Donc, je vous laisse imaginer combien de villes en France font sûrement pareil aujourd'hui.
11:05Là, très bientôt en France, pendant les Jeux Olympiques, on a un sketch assez intéressant.
11:09Vous êtes au courant qu'ils vont mettre des codes QR pour avoir le droit de circuler dans la ville pendant plusieurs mois.
11:15Le retour du code QR du Covid, oui, c'est ça.
11:19Mais on va aussi avoir des caméras de surveillance.
11:22Je vous explique parce que c'est un beau sketch de comment on nous a habitués.
11:26Au début, on nous disait « Oh, mais la loi GIO va être très claire.
11:30Elle permet juste la vidéosurveillance automatisée, mais seulement pour compter les gens, envoyer des alertes de sécurité ou des objets.
11:39Pas de reconnaissance faciale. Non, la loi est très claire. »
11:42La vidéosurveillance algorithmique s'est autorisée en France depuis quelques mois.
11:47Qu'est-ce que ça change exactement ?
11:49« Notre société, Wintix, elle fait de l'analyse vidéo, compter les vélos sur les pisciclables, mesurer l'affluence sur des quais de métro. »
11:56« Vous ne surveillez pas ? »
11:57« Non, on ne surveille pas. On produit des statistiques sur la disponibilité de places de stationnement. »
12:01Notez donc le mot « on ne fait pas de surveillance ».
12:04Oui, mais si, justement, vous faites de la surveillance.
12:07Ah, la novlangue de PFM, c'est insupportable.
12:09« On va donner des exemples. Par exemple, vous pourrez alerter s'il y a trop de passagers sur un quai de métro.
12:14Vous pourrez identifier la présence d'armes à feu sur une vidéo ou des objets abandonnés qui traînent, par exemple, sur une bois.
12:23En revanche, vous ne pourrez pas, ce que vous sauriez faire, à mon avis, techniquement, identifier les gens avec leur visage. »
12:29« On ne fait pas reconnaissance faciale. On n'en fera pas. »
12:32« Vous ne faites même pas de recherche dessus ? »
12:33« Non. »
12:34« OK. Et ça, c'est très clair. D'ailleurs, la loi GIO interdit formellement l'usage de la reconnaissance faciale. »
12:40« Et puis, surprise, en juin 2023, le Sénat a voté une nouvelle loi pour l'expérimentation de reconnaissance faciale. »
12:49« Ouais, ouais, mais bon, comme ces lois séparaient la loi GIO, donc les médias peuvent jouer sur la confusion. C'est plutôt bien joué, ouais. »
12:57« Ne me faites pas rire non plus avec l'Europe. Ouais, l'Europe qui avait fait une réglementation de l'IA et qui disait qu'ils allaient interdire la reconnaissance faciale.
13:07Oui, parce que quand vous entendez ça, vous dites « Ah, super, ils ont fait quelque chose. »
13:10Sauf que quand vous regardez, en fait, ils autorisent la reconnaissance faciale par les forces de l'ordre, ce qui était le problème initial en plus.
13:18Donc, merci, ça sert à rien. Et vous savez quoi ? En fait, il y a eu la même histoire pendant les Jeux Olympiques de Londres.
13:27Ouais, ils ont fait passer une loi qui s'appelle la London Olympic Games Act.
13:31Donc, ils ont aussi mis des caméras de surveillance qui lisaient les plaques de voitures.
13:36Ouais, et en Grèce, en 2004, en fait, pareil, vous avez eu la même histoire de caméras de surveillance et d'un super système de sécurité qui, au grand hasard, sont restées en utilisation après les Jeux.
13:47Ouais, parce que, je rappelle, les Jeux, ça dure 17 jours quand même.
13:51Oui, on fait les Paralympiques aussi, donc ça fait quoi, 12 jours ?
13:55Donc, il n'y a aucune justification de bloquer Paris pendant aussi longtemps, ça va s'étaler sur des mois, et d'imposer des codes QR pour circuler.
14:03Ouais, notez qu'ils voulaient aussi bloquer la circulation des piétons à l'époque. Ils voulaient aussi mettre un code QR sur les piétons.
14:09Puis, finalement, non. Puis, finalement, c'est bizarre, parce que je lisais cet article-là, fin avril 2024, qui parle quand même de certains périmètres où les piétons devraient montrer une autorisation.
14:20Donc, ouais. Donc, ma question, c'est, est-ce que les Jeux Olympiques ne sont pas juste l'excuse pour installer la reconnaissance faciale généralisée ?
14:29Et puis, c'est juste le moyen de transformer les villes en prison sécuritaire, vous me direz.
14:34Ouais, bon, bien sûr, personne ne veut d'attaque terroriste, moi non plus, même si on dirait que le comité olympique fait vraiment beaucoup d'efforts pour perdre ou se faire voler leur ordinateur portable.
14:45Ouais, ils sont très forts pour ça, mais est-ce que quelqu'un a posé la question initiale de, est-ce que la reconnaissance faciale empêche les attentats terroristes ?
14:54Parce que j'ai pas l'impression, en fait. Tout ça va dans le sens de la surveillance et du contrôle de la population.
15:00C'est un rêve pour des pays autoritaires avec des dictateurs, mais on dirait que c'est un rêve pour des pays supposément démocratiques aussi.
15:08Ouais, parce qu'il y a des pays qui se privent pas. Alors, regardez la Chine, par exemple. Eux, ils sont passés à la vitesse supérieure.
15:15Vous saviez sûrement qu'ils utilisent la reconnaissance faciale, le crédit social, tout ça, vous connaissez.
15:20Mais aussi pour traquer des manifestants. Vous avez cet article ici du New York Times en 2022 qui explique que la Chine utilise la reconnaissance faciale
15:29et le positionnement de votre téléphone, oui, pour pouvoir vérifier s'il y a une manif. Ouais, c'est ça.
15:35Vous avez plusieurs témoignages de gens en Chine qui disent que la police utilise les téléphones et les visages pour pouvoir viser les groupes de droit civil, les intimider, les arrêter.
15:47Tous ces outils de surveillance soi-disant contre les méchants terroristes sont utilisés contre des simples gens qui utilisent leur droit le plus strict de manifester.
15:56Donc, leurs caméras utilisent Face++, un logiciel chinois qui peut identifier les gens, mais qui peut aussi les classer par leur sexe, leurs couleurs de cheveux, leurs vêtements, pleins d'autres détails comme ça.
16:07Un truc intéressant, c'est sur la région de Xinjiang, une région où il y a beaucoup de Ouïghours qui habitent, ouais.
16:14Ils ont de la reconnaissance faciale dans les cinémas, les restaurants, les centres commerciaux, et ils font aussi de la reconnaissance de race.
16:21Ou du moins, ils disent avoir des logiciels qui peuvent reconnaître les peuples Ouïghours, ouais.
16:25Ouais, exactement, parce que comme il y a eu des attentats faits par des séparatistes Ouïghours, du coup, tous les membres de ce peuple sont automatiquement considérés comme des suspects, vous voyez.
16:35Ouais, c'est un document révélé par le Washington Post, là, qui parle d'un projet signé par Huawei et le logiciel Face++ en 2018 pour reconnaître des Ouïghours par reconnaissance faciale et envoyer une alerte Ouïghours à la police.
16:50Donc, quand vous dites que la technologie, c'est le progrès, ben là, c'est bon, vous avez un exemple parfait que certains outils n'ont aucune application positive, n'ont que des applications négatives.
17:01Parce que, bon, la classification ethnique, on est d'accord que c'est une mauvaise idée.
17:05Ils ont clairement associé race et le fait d'être un suspect, et c'est pas la première fois qu'on associe la tête de quelqu'un au fait d'être un criminel.
17:12Vous avez la phrénologie, vous savez, c'était cette pseudo-science basée sur l'idée que le caractère d'une personne et les capacités mentales étaient lues sur la forme de son crâne, ouais.
17:23Et il y avait aussi la physiognomie, qui veut dire la mesure d'un visage, qui disait pouvoir détecter le caractère de quelqu'un sur base des traits de son visage.
17:32Ouais, ça remonte assez loin, oui, mais là, on va s'intéresser à la période victorienne.
17:37Il y avait Francis Galton, c'était un statisticien et cousin de Charles Darwin, ouais, vous savez, celui qui était célèbre pour sa théorie de l'évolution.
17:46Il voulait appliquer l'idée d'évolution de Darwin, mais sur les humains.
17:49Et il cherchait alors des preuves que les caractéristiques mentales ou spirituelles des humains étaient héritées comme les traits physiques.
17:56Il est allé voir les peuples étrangers, il en a fait un bouquin tout petit peu raciste et réducteur.
18:01Il avait aussi fait une échelle d'intelligence par race, vous voyez, l'époque victorienne, tout ça.
18:06Et il a posé la théorie que si vous étiez un criminel ou un intellectuel, vous étiez nés comme ça.
18:12Si les enfants héritaient du physique de leurs parents, alors l'intelligence ou la criminalité passait aussi par les générations.
18:19Ouais, je sais, c'est une théorie carrément arbitraire. Il ne s'est pas demandé si le caractère de quelqu'un viendrait pas de son environnement ou de son statut social.
18:27Et il avait eu l'idée de superposer les photos de criminels pour essayer de trouver des points communs.
18:32Je ne sais pas si vous aviez un nez crochu ou les sourcils brousseilleux, par exemple.
18:35L'idée aussi qu'il avait, c'était que la société devait perpétuer les meilleurs traits.
18:41Donc que les meilleurs hommes devaient se mettre avec les meilleures femmes.
18:45Et aussi que les criminels devaient être isolés, qu'ils ne devaient pas avoir le droit de pouvoir se reproduire.
18:50Ouais, il a écrit ce bouquin, Génie héréditaire, et il a inventé le terme de génisme, justement.
18:56Et ses idées ont été reprises par la suite par des gens pas très recommandables comme les nazis.
19:00Ça y est, on a atteint le point Godwin de cette émission.
19:03Galton n'était pas le seul, à l'époque victorienne, qui voulait apporter la science pour étudier le corps humain.
19:08Il y avait aussi ce Français, Alphonse Bertillon, vers 1880, qui essayait d'identifier les criminels.
19:14Et lui faisait ça pour organiser des listes de la police.
19:17Parce qu'à l'époque, elles étaient basées juste sur le nom.
19:20Et c'était facile à l'époque pour les criminels de donner un faux nom.
19:23Donc Bertillon mesurait les prisonniers, la taille, les mains, la tête, la distance entre les yeux, etc.
19:29Et il avait vu que les mesures étaient fiables.
19:31Si vous preniez environ 11 mesures, on arrivait à prouver que chaque personne était unique.
19:37Et donc il a proposé au chef de la police d'utiliser ces mesures-là pour faire une liste des criminels de la société.
19:44Ils pensaient qu'il était fou, mais finalement ça a été testé et ça a été accepté.
19:48Ils ont pu reconnaître des récidivistes comme ça.
19:51Depuis, le système a été institué.
19:53Maintenant, on a même les photos de mugshots.
19:55Vous voyez que vous connaissez.
19:57Francis Galton est venu voir son labo et il a eu l'idée d'améliorer cette technique en utilisant les empreintes digitales.
20:04Vous voyez où je vais aller.
20:06Vous allez me dire « Momochi, pourquoi est-ce que tu nous racontes des vieilles histoires de l'époque victorienne ? »
20:11Parce que ça montre l'obsession de l'époque.
20:14L'époque victorienne découvrait alors la statistique, les sciences des données.
20:18Et c'était un signe qu'on pensait qu'on pouvait tout mesurer, même la criminalité grâce à la science.
20:24Vous voyez ? C'est complètement parallèle.
20:27Aujourd'hui, avec la reconnaissance faciale, on est carrément en train d'utiliser les outils de traçage de criminels.
20:33Mais pas sur des suspects pendant une enquête.
20:36On est en train de l'utiliser sur toute la population à priori innocente.
20:40Vous voyez le changement ?
20:42Avant, quand vous faisiez l'objet d'une enquête, vous acceptez que la police fasse une intransige dans votre vie privée
20:48parce que c'est relativement rare et c'est temporaire.
20:51Ici, avec la reconnaissance faciale partout dans la rue, vous êtes constamment sous enquête.
21:04Notre identité doit être biométriquement vérifiée pour s'assurer que nous ne sommes pas des criminels.
21:08C'est une complète inversion de la traditionnelle présomption d'innocence qui est au cœur des libertés civiles britanniques.
21:16Vous voyez la petite nuance ?
21:18Le changement, c'est qu'on est en train de nous considérer collectivement tous comme des suspects.
21:23Il y a toujours cette idée de vouloir prédire qui est un criminel.
21:26Nous sommes constamment sous enquête avec ce genre de système.
21:29On ne sait pas quand est-ce qu'on est filmé, combien de fois, pourquoi, si c'est pour une raison particulière ou non.
21:36On n'a pas de recours contre ça.
21:38La question, c'est quelle est la limite ?
21:40Prenez New York, par exemple.
21:42Amnesty International a fait une initiative avec 7000 volontaires.
21:46Ils sont allés vérifier combien il y avait de caméras à chaque croisement de rue.
21:50Ils en ont trouvé 25 000.
21:54Ils en ont fait une carte.
21:56Ils en ont 25 000. Vous pouvez taper une adresse et voir sur la carte les caméras qui sont dans le quartier.
22:02Ils dénoncent le fait que la police fait un usage disproportionné de la reconnaissance faciale.
22:07Amnesty dénonce le fait que c'est une violation des droits humains, qu'on ne sait pas où, ni comment, ni pourquoi on est scanné.
22:14Mais aussi que ça vise de manière disproportionnée les gens black ou à peau brune,
22:19parce qu'ils sont plus à risque d'une erreur de reconnaissance faciale.
22:22J'aurai quelques exemples à vous montrer après.
22:24Donc vous voulez arriver à combien exactement de caméras de reconnaissance faciale dans une ville ?
22:30C'est plus un risque, c'est pas on pourrait arriver à.
22:33Avouons officiellement, voilà, nous sommes dans une société de surveillance de masse,
22:37et c'est incompatible avec un droit à la vie privée, à l'idée de liberté de circuler.
22:42Vous savez ce que c'est qu'une prison panoptique ou le panopticon ?
22:47C'est une idée de Jeremy Bentham, qui a emprunté l'idée à son frère Samuel.
22:54Mais l'idée c'est que c'est une prison mais où la surveillance est inversée.
22:58Donc au lieu de mettre une prison avec des prisonniers entourés de gardes,
23:02vous inversez le concept, vous mettez les gardes au milieu et au centre de tous les prisonniers
23:07pour pouvoir les observer à 360 degrés.
23:10Et j'arrive pas à me sortir de la tête que si on installe partout autour de nous
23:14ces caméras de surveillance qui sont en train de recouvrir des centaines de mètres qui se croisent,
23:19on est en train de fabriquer un panopticon version 2.0,
23:22donc par définition qu'on nous traite comme des criminels en puissance.
23:26Donc vous m'expliquerez en quoi c'est un progrès exactement.
23:29Et ne me dites pas que c'est juste contre le terrorisme,
23:32parce que quand vous regardez les publicités de vendeurs de systèmes de surveillance algorithmique
23:37ou de reconnaissance faciale, ils se cachent pas pour dire que c'est clairement pour identifier
23:43soit des voitures mal garées, des incivilités ou des suspects.
23:48Donc c'est en train de devenir un système de contrôle de la petite population pour des amendes minimes.
23:54Concrètement, ça envoie aussi le message que toute la population mérite de ne plus avoir de vie privée
24:01et qu'elle doit pouvoir être surveillée partout.
24:03Donc on nous impose de facto cette transparence que personne n'a demandé, que personne n'a réclamée.
24:10Donc dans quel endroit exactement est-ce qu'on utilise la reconnaissance faciale ?
24:13On va faire un petit tour d'horizon.
24:15On commencera toujours par l'excuse de la sécurité ou du terrorisme,
24:18donc le lieu classique c'est les aéroports dans pas mal de villes.
24:21Vous avez notamment le scan de reconnaissance faciale pour détecter les criminels,
24:25mais on essaie aussi de vous faire accepter la reconnaissance faciale à la place de votre billet.
24:29Ouais, vous avez vu ça ?
24:31Comme ça vous pouvez passer les portiques sans devoir sortir le billet de votre poche, c'est quand même pratique.
24:36C'est complètement de l'habituation de la population.
24:39Là en Angleterre, on a vu qu'ils ont secrètement utilisé les passeports pour faire de la reconnaissance faciale,
24:44mais qui va se plaindre de toute façon ?
24:46Apparemment c'est illégal, mais ils le font quand même.
24:48Donc comme dans les aéroports ça passe crème,
24:50alors pourquoi pas commencer à faire des scans de votre tête dans d'autres endroits ?
24:54Oui, pourquoi pas scanner tout le monde à un concert par exemple.
24:57Ouais, c'est pratique, il y a plein de gens rassemblés en un endroit.
25:00L'exemple ici, Beyoncé au Royaume-Uni.
25:03Ouais, mais ça concerne plein d'autres artistes aussi.
25:06Et les policiers disent que c'est en train de devenir normal.
25:09Depuis 2-3 ans maintenant, vous voyez.
25:11Et en France aussi, on a la même chose pendant ce concert-là.
25:15Ils ont testé des caméras, concentrées sur reconnaître les comportements suspects.
25:19Ouais, vous avez la même chose dans les stades.
25:22Les stades, par exemple, qui font de la reconnaissance faciale en Australie.
25:26Et là on a un autre exemple, en Russie, le métro de Moscou.
25:30Vous pouvez acheter votre ticket avec votre visage.
25:32Ouais, ça s'appelle face pay.
25:35Les autorités disent que ça va réduire les files.
25:38Ouais, et votre visage est lié à un compte bancaire.
25:42J'ai fait pas mal de posts sur ça, que Mastercard et les cartes de crédit
25:46ont beaucoup investigué sur les solutions de paiement bancaire avec votre visage.
25:51C'est complètement idiot parce que c'est absolument pas sécurisé.
25:54Il y a plein de gens qui sont amusés à hacker ce genre de système-là.
25:58Donc au mieux, le visage de quelqu'un, ça pourrait être un login,
26:02mais ça peut certainement pas être un mot de passe parce que c'est pas secret.
26:05Par définition, vous trouvez la photo de n'importe qui sur son Facebook.
26:08Bref, on est en train de vous vendre ça comme un truc sympa.
26:11Vous montrez votre tête et vous faites votre virement.
26:13Ma question, c'est si vous n'en voulez pas,
26:15combien de temps est-ce que vous pourrez utiliser une banque ?
26:18En France, vous savez qu'il y a un nouveau projet de loi qui va être bientôt voté
26:21sur l'installation de reconnaissance faciale dans les transports en commun ?
26:26Ouais, exactement.
26:27Vous avez déjà la SNCF qui est en train de faire des tests actuellement.
26:31C'est la quadrature du net qui a porté plainte contre la SNCF,
26:34qui a lancé une campagne d'information sur la reconnaissance faciale.
26:37Et on les remercie.
26:38Et je me demande jusqu'où est-ce qu'on va aller ?
26:40Est-ce qu'on va mettre une caméra de reconnaissance faciale dans chaque rue,
26:43dans toutes les villes ?
26:45C'est comme les objets connectés.
26:46J'en avais parlé dans l'émission de Internet of Things.
26:49C'est la même progression.
26:51On envahit l'espace public et puis on envahit les commerces, le travail.
26:55Et puis on va se rapprocher de plus en plus de l'intimité des personnes.
26:59Là, l'excuse, ce sera encore une fois pour votre sécurité,
27:01mais on commence à avoir des caméras de reconnaissance faciale dans les magasins.
27:04Par exemple, vous avez le grand magasin Macy's aux Etats-Unis,
27:08qui annonce faire de la reconnaissance faciale,
27:10non seulement contre les voleurs, mais, et il s'en cache pas,
27:13aussi pour observer les habitudes des clients.
27:15Donc a priori, vous me direz, ouais, ça dérange pas,
27:18sauf qu'il y a eu un monsieur qui a été mis en prison
27:21pour un cambriolage par erreur,
27:23justement parce que le magasin Macy's avait scanné son visage
27:26et que son visage est sorti lors d'un chèque de la police,
27:29d'une enquête sur un cambriolage.
27:31Vous savez sûrement que, voilà, les algorithmes de reconnaissance faciale
27:34sont plutôt entraînés sur des visages blancs
27:36et ils sont assez mauvais pour connaître des visages à peau plus sombre.
27:39En utilisant la technologie faciale de reconnaissance faciale,
27:43la police a rapidement arrêté Niger Parks,
27:46un résident de Patterson âgé de 31 ans.
27:49Le seul problème, c'est que Niger Parks était innocent.
27:53On a eu plusieurs cas d'arrestations erronées
27:56parce qu'à chaque fois, on a mal identifié un visage.
27:59Si les policiers laissent l'IA faire la décision pour eux,
28:02s'ils abandonnent la recherche d'autres preuves,
28:05le fait de croiser d'autres éléments,
28:07ils risquent de mettre leur esprit critique de côté,
28:10de devenir paresseux.
28:12Le souci, c'est que les outils de reconnaissance faciales
28:15ne sont pas des outils de reconnaissance faciale,
28:18mais des outils de reconnaissance faciale.
28:21Le souci, c'est que les outils de reconnaissance faciale
28:24sont des outils probabilistes.
28:26Vous avez 80-90% de chances que la photo corresponde.
28:30À partir du moment où les ordinateurs utilisent des outils de probabilité,
28:34ils peuvent se tromper aussi.
28:36En 2017, un activiste s'intéressait à la reconnaissance faciale.
28:39Il a fait un test très drôle.
28:41Il a pris Amazon Recognition,
28:43un algorithme de reconnaissance faciale
28:45à qui vous devez fournir les bases de données de photos.
28:48Il lui a donné 25 000 photos de criminels.
28:50Après, 535 membres du Congrès
28:52lui ont demandé d'essayer de trouver des correspondances.
28:55Et quand on réglait le programme à 80% de précision,
28:58vous savez combien ils ont trouvé ?
29:00Ils ont trouvé 28 membres du Congrès
29:02qui correspondaient à la reconnaissance faciale
29:05à la liste des délinquants ou des criminels.
29:08La précision de ces outils est clairement discutable.
29:11Et même si cette technologie était parfaite,
29:14est-ce qu'on devrait l'utiliser éthiquement ?
29:17Et jusqu'où ?
29:19L'autre aspect de reconnaissance faciale, c'est aussi au travail.
29:22Vous avez ici une entreprise qui explique
29:24comment implémenter une pointeuse à base de reconnaissance faciale.
29:27Ben oui, au lieu de donner un badge à vos employés,
29:29traitez-les comme des délinquants.
29:31Vous avez aussi le système chez Uber.
29:33Là, ils le vendent plus comme une sécurité
29:36pour pouvoir se connecter comme chauffeur.
29:38Une caméra détecte si c'est bien vous.
29:40D'ailleurs, il y a quelqu'un ici qui a fait un procès contre Uber
29:43parce qu'il était constamment non reconnu
29:46par le système de reconnaissance faciale.
29:48Encore une fois, c'était un visage black.
29:50Les systèmes ne fonctionnent pas bien.
29:52Ma question, c'est pourquoi vous n'utilisez pas un mot de passe, Uber ?
29:55Ça marche très bien aussi.
29:57Vous avez même des interviews d'embauche.
29:59Vous avez une intelligence artificielle
30:01qui vous interroge,
30:03qui juge même vos émotions et vos expressions
30:06pour pouvoir évaluer votre score d'employabilité.
30:09Encore une fois, c'est une obsession
30:11que la science peut tout mesurer.
30:14Dans toutes ces applications, il y a cette idée
30:16qu'il ne faut pas faire confiance à vos employés,
30:18qu'il ne faut pas faire confiance aux utilisateurs.
30:20Il faut créer une société de méfiance
30:22pour pouvoir faire accepter
30:24les outils technologiques de surveillance.
30:27Pour ça, vous devez casser les bases de la société
30:30parce que la société était basée sur un minimum de confiance
30:33et remplacer cette confiance par une vérification algorithmique.
30:36C'est exactement ce qu'on a vu aussi pendant le Covid.
30:39On nous a tous poussés à travailler à distance,
30:41à utiliser des caméras.
30:43C'est une sorte de stratégie du choc de Naomi Klein.
30:46Si vous ne connaissez pas, je vous conseille d'aller lire son livre.
30:49Vous vous rappeliez, à l'école,
30:51quand vous aviez un test ou un examen
30:53et quand le prof marchait dans la classe
30:56et venait regarder pour voir ce que vous écriviez ?
30:59Pour certains élèves, c'est tout le temps maintenant.
31:02Maintenant, il y a des écoles
31:05qui organisent des tests pendant l'examen.
31:07Ils sont filmés constamment
31:09et on détecte s'il y a un comportement qui est suspect
31:12pour deviner s'il triche ou non.
31:14Il y a aussi la reconnaissance d'émotions,
31:17c'est-à-dire des outils qui observent
31:19si un écolier est attentif ou non pendant la leçon.
31:23Pour moi, ça rejoint cette pseudoscience
31:26de la physiognomie, vous voyez,
31:28de lire le visage, essayer de détecter le caractère.
31:31On est juste le niveau d'après.
31:33On pense qu'on peut détecter les émotions de quelqu'un.
31:35Il y a cet article-là
31:37qui disait que l'IA peut lire les émotions,
31:39mais est-ce qu'elle devrait ?
31:41Pour une fois, c'est une question éthique.
31:43Est-ce que quelqu'un va nous inventer la section du pre-crime,
31:46vous voyez, dans Minority Report ?
31:48La prédiction de vos émotions,
31:50prédire que vous allez commettre un crime
31:52et vous arrêter préventivement.
31:54Écoutez, ce n'est pas si délirant que ça.
31:56Il y a déjà des systèmes
31:58qui essaient d'identifier des gens potentiellement perturbateurs
32:01qui ne réagissent pas comme ils le devraient.
32:03Mais ce n'est pas fini.
32:04Il y a encore plein d'autres perspectives sympas
32:06de reconnaissance faciale.
32:07Vous avez le système Face++ là
32:09pour pouvoir ouvrir la porte de chez vous
32:11avec votre tête.
32:12C'est pratique, comme ça vous n'avez pas besoin de clé.
32:14Ouais, super, non ?
32:16Ma question c'est,
32:18bien sûr vous, vous n'en voulez pas,
32:19moi j'en veux pas,
32:20mais que se passera-t-il le jour où votre propriétaire
32:22ou votre syndic
32:24décide d'installer des systèmes comme ça ?
32:26Est-ce que vous aurez un mot à dire encore ?
32:28C'est ça.
32:29Quand vous faites vos courses dans les magasins,
32:31on voit souvent des systèmes de caisses automatisées
32:34et parfois sur les tablettes,
32:35on vous propose des systèmes de paiement par visage.
32:38C'est quelque chose qui est en train d'arriver aussi.
32:40Il y avait un truc qui était amusant,
32:41ça m'avait fait beaucoup rire,
32:42c'est que Amazon avait fait des boutiques
32:44qui s'appelaient Just Walk Out.
32:46Quand vous entriez,
32:47vous avez des caméras de reconnaissance faciale partout
32:50qui mesuraient ce que vous preniez comme objet.
32:53Si vous preniez, je sais pas, un yaourt
32:55que vous mettiez dans votre panier
32:57ou que vous le reposiez.
32:58Ouais, et ça disait que vous pouviez juste
33:00prendre ce que vous voulez
33:01et sortir et vous aviez une facture après.
33:03Ouais, ce qui est très amusant,
33:05c'est qu'en fait on s'est rendu compte
33:07qu'Amazon a arrêté ces magasins-là
33:10parce que leur système marchait pas encore super bien
33:13et ils utilisaient une équipe de mille Indiens
33:15qui regardaient les vidéos
33:17pour pouvoir vérifier que la liste de courses
33:20avait été calculée correctement.
33:22On appelle ça du AI-washing.
33:24Ça veut dire qu'on dit que notre truc fonctionne à l'IA
33:27parce que l'IA c'est cool et on veut être tendance
33:30mais finalement on utilise des bons vieux systèmes
33:32avec des humains derrière pour faire marcher le truc.
33:35Maintenant ça va être plus sympa,
33:36on va voir comment on vous fait de la reconnaissance faciale
33:38sans vous le dire.
33:39Là par exemple, vous avez cette machine de vente de snacks
33:42qui révèle en fait un logiciel de reconnaissance faciale.
33:45Ouais, c'est assez marrant comme histoire.
33:47C'est un distributeur de bonbons
33:49qui avait l'air tout à fait normal, des M&M's,
33:51quelqu'un voulait en acheter
33:52et la machine a buggé et il y a eu un message d'erreur.
33:54Regardez bien.
33:56Ouais, si vous zoomez ça dit
33:58« Erreur dans facial recognition »
34:00quelque chose.
34:01Ouais, vous lisez bien.
34:02Ça veut dire que le distributeur de bonbons
34:05faisait de la reconnaissance faciale cachée
34:07sur tous les étudiants de l'école.
34:09Et bon, il a posté la photo sur Reddit
34:12et l'école a retiré 29 machines de vente.
34:14Le distributeur s'est vaguement défendu
34:17en disant que non, stockez pas les images.
34:19Mais si eux font ça, dites-moi,
34:21combien d'autres équipements font de la reconnaissance faciale ?
34:24Est-ce qu'il n'y a que moi
34:26qui trouve qu'on nous emmène vers une dystopie ?
34:28Une société de surveillance
34:30où on est peut-être déjà dedans finalement.
34:32On parle beaucoup de 1984
34:34mais j'ai plutôt l'impression
34:36qu'on est dans « Le meilleur des mondes »
34:38de Aldous Huxley.
34:39Parce que tous les articles de presse
34:41vous disent que la reconnaissance faciale
34:43c'est super.
34:44Tous les médias nous font nous influencer.
34:46Vous avez la même chose dans la pop culture aussi.
34:48Dans les films, vous avez
34:50quantité d'extraits de films
34:52où on arrive à retrouver quelqu'un disparu
34:54en utilisant les sites de reconnaissance faciale.
34:57Donc où on vend ça ?
34:58Comme le dernier gadget cool.
35:00Tout ça c'est simplement de l'influence
35:02pour que nous acceptions ces technologies.
35:04Mike Pence expliquait qu'à l'origine
35:06Internet était un outil,
35:08une arme qui allait servir
35:10à renverser les gouvernements.
35:12Internet était un très bon moyen
35:14pour se regrouper et contester ensemble.
35:16D'ailleurs, on a vu un bon exemple
35:18avec le printemps arabe.
35:19Nous, pendant ce temps, on était innocents.
35:21On pensait qu'Internet allait tous nous connecter,
35:23nous libérer, faire tomber les frontières.
35:25Mais il ne faut pas ignorer le fait
35:27qu'Internet était un développement initialement militaire.
35:29Mais depuis
35:31les mouvements de contestation
35:33du style Occupy Wall Street,
35:35il fallait contenir cette contestation.
35:37Donc non seulement vous avez déjà des lois
35:39qui permettent d'espionner les communications en ligne,
35:41etc.
35:43Je pense qu'on arrivera à l'identité numérique
35:45qui à terme sera liée à votre signature biométrique
35:47et vous aurez le système parfait
35:49pour sanctionner, intimider n'importe qui.
35:51Donc le risque avec la reconnaissance faciale,
35:53c'est qu'on perd notre capacité de se déplacer en public
35:55tout en restant anonyme.
35:57Est-ce que c'est vraiment un monde
35:59où vous avez envie de vivre ?
36:01Il pourrait y avoir des magasins qui pourraient vous refuser l'entrée de leur boutique.
36:03Oui, ne riez pas,
36:05mais c'est déjà le cas avec les casinos.
36:07Certains ont une liste de milliers de personnes
36:09qui sont interdites d'entrer.
36:11Je vous avais posté l'histoire d'une femme
36:13qui allait faire ses courses dans un magasin.
36:15La reconnaissance faciale l'a reconnue par erreur
36:17et un employé qui est venu la voir lui a dit
36:19qu'elle était interdite d'entrer dans ce magasin
36:21à vie.
36:23Vous avez un autre exemple ici,
36:25une salle de concert à Madison Square Garden
36:27qui a décidé d'interdire l'entrée de ces concerts
36:29à des milliers de gens.
36:31Des avocats, parce que
36:33l'entreprise où ils travaillaient avait des procès
36:35en cours contre eux. Ils ont été reconnus
36:37par la reconnaissance faciale
36:39et en arrivant pour un concert, la sécurité les a pris,
36:41les a mis de côté et leur a expliqué
36:43qu'ils n'étaient pas les bienvenus dans la salle.
36:45Voilà, je vous mets un petit extrait
36:47si vous pensez que la reconnaissance faciale c'est juste
36:49pour les terroristes.
36:51Le monsieur s'est caché le visage en passant devant la caméra
36:53de reconnaissance faciale.
36:55C'est seulement 200 pounds pour un trouble
36:57à l'ordre public.
36:59Est-ce que vous pensez vraiment que ça n'a pas arrivé chez nous ?
37:01Comment on voit la suite ?
37:03Clearview travaille avec des lunettes connectées
37:05donc les gens pourraient vous prendre
37:07en photo ou voir en temps réel
37:09votre nom quand ils vous croisent dans la rue.
37:11Ça va être sympa le futur !
37:13Il y a des trucs fun aussi avec la reconnaissance
37:15faciale utilisée par les militaires.
37:17Un projet de reconnaissance par drone
37:19de visage de combattant ennemi.
37:21J'ai vu passer des projets
37:23de reconnaissance faciale aussi
37:25de nuit en infrarouge.
37:27On veut que ça fonctionne entre
37:2910 et 500 mètres et il faut que ce soit
37:31portable par un individu.
37:33Le plus grand problème c'est que les gens supposent
37:35que la reconnaissance faciale c'est nécessaire
37:37et c'est inévitable. C'est une sorte
37:39d'impuissance à prise. La bonne nouvelle c'est qu'il y a d'autres
37:41gens comme moi qui n'aiment pas.
37:43Non plus c'est une société de surveillance panoptique
37:45il y a des moyens de résister.
37:47Vous avez ces pulls qui déforment
37:49les mesures des caméras de surveillance.
37:51Par exemple là, ça vous fait reconnaître comme une girafe.
37:53Ouais, c'est plutôt pas mal.
37:55Ou il y a des gens qui ont développé des lunettes
37:57spéciales qui faussent la reconnaissance
37:59du visage en cachant vos yeux
38:01ou qui mettent de la lumière. Par exemple
38:03l'orientation des vers
38:05qui est penchée vers le haut, ce qui cause un problème
38:07dans les algorithmes de reconnaissance.
38:09Et il y a une autre technique aussi qui est assez
38:11sympa, il y a des gens qui ont trouvé des maquillages
38:13sur votre visage pour pouvoir faire
38:15échouer la reconnaissance faciale.
38:17Ou bien simplement le bon vieux masque
38:19imprimé en 3D, pourquoi pas ?
38:21Est-ce qu'on va tous se promener avec des masques
38:23à la fin ? Ben, je sais pas
38:25ça va faire un peu Mission Impossible.
38:27Mais bon, why not ?
38:29Est-ce qu'il faut interdire la reconnaissance faciale ?
38:31Plusieurs villes l'ont fait, vous avez
38:33San Francisco qui avait banni en 2019
38:35l'Illinois qui l'a fait aussi.
38:37Donc c'est une vraie question
38:39mais j'entends pas grand monde sur le sujet.
38:41Le droit à la vie privée est jamais vraiment
38:43défendu ces dernières années.
38:45Les membres du Parlement britannique ne sont même pas
38:47au courant de la technologie de la reconnaissance
38:49faciale. En France c'est pire,
38:51j'ai l'impression qu'ils sont super enthousiastes
38:53pour nous mettre plein de projets de reconnaissance
38:55faciale. La phrase qu'on entend toujours sur les
38:57outils de surveillance c'est
38:59ça ne pose pas problème si vous n'avez rien à cacher.
39:01Ouais, la meilleure réponse à ça
39:03je pense que c'est Snowden, ça ne pose pas problème
39:05si vous n'avez rien à dire justement.
39:07Pour moi la meilleure stratégie c'est d'informer
39:09les gens autour de nous. La prison de
39:11surveillance panoptique
39:13est en construction. Donc est-ce qu'on va
39:15laisser la terminer ?
39:17C'est ma question pour vous.
39:24D'ailleurs si vous voulez rire,
39:26la photo de cette émission c'était
39:28une photo de profil que j'avais mise sur Twitter
39:30pour tester la reconnaissance faciale.
39:32Mon compte se faisait bannir tous les 15 jours.
39:34Mon dernier j'avais
39:36une photo de chat et à un moment j'ai mis
39:38une photo avec ma tête et le compte
39:40a été suspendu le jour même.
39:42Je me suis dit tiens peut-être qu'il y a de la reconnaissance faciale.
39:44Du coup j'ai fait une photo où
39:46je cachais un peu mon visage
39:48comme ça et
39:50du coup il y a la team complotiste
39:52ultra symboliste
39:54nous n'avons pas de sens de l'humour
39:56et nous prenons tout très au sérieux qui m'est tombée dessus
39:58en disant ah tu es
40:00une opposition contrôlée parce
40:02que tu as cette photo où tu
40:04caches ton oeil donc tu es une illuminati
40:06bien sûr. Ouais ça
40:08m'a fait beaucoup rire.
40:14Sous-titres réalisés para la communauté d'Amara.org