• l’année dernière
Avec l’avènement et la montée en puissance du numérique et d’internet, la guerre contre le terrorisme mondial a muté. Les groupes extrémistes ont compris le potentiel du cyberespace et ont démultiplié leur capacité de nuisance en s’adaptant. Aujourd’hui, ils utilisent internet à des fins de propagande, de recrutement en ligne, de communication. Demain, ils seront peut-être capables de perpétrer une attaque informatique de grande ampleur. Un 11 septembre numérique… Mais l’ère du digital et de l’intelligence artificielle nourrit aussi l’espoir des États engagés dans la lutte contre le terrorisme. Ingénieurs en informatique, industriels dans la sécurité et scientifiques ont établi une coopération étroite avec les services de police et de renseignement. Ils les ont dotés de nouvelles armes, de nouveaux moyens d’investigation et de surveillance. Que ce soit dans le monde réel ou dans le monde sans frontière du cyberespace, une guerre invisible se joue entre les services de sécurité et les groupes terroristes.

Category

🗞
News
Transcription
00:00On va par exemple prendre tout un tas de visages qui vont faire des expressions comme ça, comme ça, etc.
00:06et qui ont été labellisés, c'est-à-dire qu'un être humain au préalable a dit
00:10« Eh bien quand quelqu'un fait comme ça, ça peut être un signe de tristesse par exemple. »
00:14Et donc on entraîne la machine finalement à reconnaître ce qu'un expert humain analyse.
00:18Et on le nourrit comme ça de tout un tas d'exemples.
00:20Et plus on a d'exemples, plus il devient précis.
00:30Avec l'avènement et la montée en puissance du numérique et d'Internet,
00:42la guerre contre le terrorisme mondial a muté.
00:46Opportunistes, pronts à s'adapter,
00:48les groupes extrémistes ont vite compris le potentiel du cyberspace
00:52et les outils numériques ont démultiplié leur capacité de nuisance.
00:58Aujourd'hui, ils utilisent Internet à des fins de propagande,
01:01de recrutement en ligne, de communication.
01:04Demain, ils seront peut-être capables de perpétrer une attaque informatique de grande ampleur.
01:09Un 11 septembre numérique.
01:13Mais l'ère du digital et de l'intelligence artificielle
01:17nourrit aussi l'espoir des États engagés dans la lutte contre le terrorisme.
01:22Ingénieurs en informatique, industriels dans la sécurité et scientifiques
01:27ont établi une coopération étroite avec les services de police et de renseignement.
01:31Ils les ont dotés de nouvelles armes, de nouveaux moyens d'investigation et de surveillance.
01:36Que ce soit dans le monde réel ou dans le monde sans frontières du cyberspace,
01:41une guerre invisible se joue entre les services de sécurité et les groupes terroristes.
01:58Après chaque attentat, alors que des populations se recueillent,
02:02la machine policière se met en action.
02:09Analyse des scènes de crimes, des caméras de surveillance,
02:13recueil de témoignages, interpellation de suspects.
02:20Dans l'urgence de la situation, juger de la culpabilité ou de l'innocence de qui que ce soit
02:26est un travail délicat.
02:42Camille Schroer est ingénieur et expert en sciences comportementales.
02:46Il a créé un logiciel qui pourrait révolutionner le travail des enquêteurs
02:51et des services de renseignement dans la traque des terroristes.
02:56Les sciences comportementales
03:00Les sciences comportementales, c'est l'analyse scientifique par des études du comportement humain.
03:06L'idée, c'est de sortir un peu de l'intuition et de dire que ce n'est pas parce qu'on est dans du relationnel
03:11qu'on ne peut pas avoir une approche systématique rigoureuse avec des études de ces interactions entre les humains.
03:16Après, on peut imaginer des interventions à l'étranger.
03:19Vous êtes un membre des forces spéciales.
03:24Vous avez une petite équipe et on vous dit qu'il faut intervenir dans tel village.
03:29Il y a les talibans qui retiennent ma famille en otage.
03:33On vous supplie d'intervenir.
03:35Alors là, vous faites quoi ?
03:37Vous y allez ?
03:39Vous n'y allez pas ?
03:40Est-ce que c'est un piège ? Est-ce que ce n'en est pas ?
03:42Vous avez que la parole de la personne pour vous faire une opinion et il faut se décider assez rapidement.
03:46Si on peut avoir une opinion qui est un tout petit peu plus éclairée dans ce genre de cas que la simple intuition,
03:52ça peut changer complètement la donne entre intervenir sur une vraie information fiable et puis rentrer dans un guet-apens.
03:59Camille Sroure a développé un détecteur de mensonges doté d'une intelligence artificielle appelée Hexagone.
04:06Il s'est tout d'abord inspiré des méthodes classiques comme l'analyse des mots ou les stratégies d'entretien et d'interrogatoire.
04:12L'exemple qu'on donne souvent, c'est de dire si on demande à quelqu'un de raconter ses activités,
04:16s'il a préparé en quelque sorte son alibi, il va dérouler et on ne va avoir aucun signe différent par rapport à une personne sincère.
04:24Si on essaie de lui poser des questions plus difficiles, par exemple, racontez-moi la scène mais du point de vue d'un autre observateur
04:32ou alors dessinez-moi carrément la séquence d'événements.
04:36Là, tout d'un coup, il n'a pas préparé des questions comme ça et il va se retrouver un peu à sec.
04:40Si les mots peuvent aiguiller les enquêteurs, d'autres signes, beaucoup plus subtils, peuvent venir renforcer leur jugement.
04:49Il n'y a pas un signe équivalent au nez de Pinocchio qui grandit à chaque fois qu'il prononce un mensonge.
04:53C'est bien plus complexe et l'accumulation de petits signaux ça et là qui, ensemble, combinés, font une sorte de faisceau d'indices convergents.
05:01La contraction des muscles du visage, le volume de la voix, la durée des silences, les hésitations ou encore les clignements des yeux,
05:09tous peuvent révéler l'état émotionnel ou encore les intentions qui se dissimulent derrière le masque du visage.
05:15Mais ils sont très difficiles à détecter et à quantifier.
05:19Camille Srour a donc fait en sorte que son logiciel puisse les reconnaître en s'appuyant sur des méthodes dites de deep learning.
05:26Le deep learning, ça marche très très bien sur des choses qui relèvent du domaine du perceptif.
05:34C'est tous ces attributs qu'on n'est pas capable d'exprimer.
05:38Et que la machine, elle, parce qu'elle est capable de prendre en compte des milliers d'attributs, de patterns récurrents,
05:47elle va apprendre à partir de là et là elle est très bonne. Elle est meilleure que nous, souvent.
05:53Pour construire un logiciel comme ça, il faut évidemment le nourrir d'une base d'entraînement absolument importante et d'une grande quantité de données.
06:02On va par exemple prendre tout un tas de visages qui vont faire des expressions comme ça, comme ça, etc.
06:08Et qui ont été labellisés, c'est-à-dire qu'un être humain au préalable a dit, quand quelqu'un fait comme ça, ça peut être un signe de tristesse par exemple.
06:16Et donc on entraîne la machine finalement à reconnaître ce qu'un expert humain analyse.
06:20Et on le nourrit comme ça de tout un tas d'exemples. Et plus on a d'exemples, plus il devient précis.
06:25Mais le logiciel ne se contente pas d'analyser l'expression du visage.
06:29Il compile aussi des centaines de variables, comme la modulation de la voix ou la dilatation des pupilles.
06:35Le logiciel, pour avoir cet entraînement et ses règles de décision, est entraîné avec de l'intelligence artificielle, des techniques de machine learning assez poussées,
06:44qui consistent finalement à établir des liens très complexes entre des situations différentes.
06:50Pour dire, lorsque j'ai la variable 1 sur 300 qui est dans cet état-là, la variable 2 sur 300 qui est dans cet état-là, etc.,
06:59quand j'ai une combinaison très complexe de tout ça, je dis, ça, probablement, un expert humain aurait dit que c'est un signe de tristesse, par exemple sur son visage.
07:06La compilation de l'ensemble des données indique aux enquêteurs la probabilité que le suspect mente ou dise la vérité.
07:14Hexagone est le parfait exemple de la complémentarité entre l'homme et la machine.
07:19Autrement dit, l'humain va se concentrer sur ce qu'il sait faire, poser les questions, analyser les mots,
07:23et le logiciel de son côté va pouvoir analyser tout un tas de comportements à la fois que l'homme ne sait pas bien détecter.
07:30L'être humain reste au cœur de l'analyse. L'être humain reste central, l'être humain doit rester actif et l'être humain doit rester attentif.
07:40La relation qu'entretient l'homme et la machine, elle est quasiment fusionnelle,
07:44dans le sens où, aujourd'hui, on a besoin de traiter de grandes quantités de données pour être capable de travailler efficacement,
07:52donc l'humain a besoin de l'outil.
07:55Si l'intelligence artificielle s'avère un outil de plus en plus plébiscité par les enquêteurs sur les terrains d'opération,
08:01elle est aussi en passe de s'inviter au cœur de notre quotidien pour sécuriser les plus grandes métropoles.
08:10Voir sans être vu, surveiller un individu dans ses déplacements, enquêter, identifier un suspect.
08:18Aujourd'hui, plus de 400 millions de caméras dans le monde scrutent nos faits et gestes et sécurisent les espaces publics, une pour 18 habitants.
08:30Revers de la médaille, les services de police sont submergés par la quantité d'images,
08:35trouver la bonne information revient à chercher une aiguille dans une meule de foin.
08:40L'humain est capable de reconnaître plus de 5000 faces.
08:43Les ordinateurs, jusqu'à il y a 45 ans de ça, avaient des difficultés à reproduire cette capacité de la reconnaissance humaine.
08:52Aujourd'hui, on a des ordinateurs qui sont capables de reconnaître en quelques minutes 20 000 faces dans une foule qui se balade à Pékin.
09:03Pour ce faire, on utilise non seulement de l'intelligence artificielle sous forme logicielle, mais aussi des processeurs spécialisés.
09:08Je pense par exemple à ce qu'on appelle des réseaux de neurones à spikes, c'est-à-dire des processeurs qui miment la structure du cortex visuel.
09:16Ils sont très efficaces pour reconnaître des plaques d'immunétarculation, des voitures, des individus.
09:34À San Francisco, Bob Bichler est à la tête de la société Brainship.
09:41Spécialiste de la reconnaissance faciale à partir d'images de vidéosurveillance,
09:45il a mis au point un système d'analyse vidéo directement inspiré du cerveau humain.
09:52Pour reconnaître un visage, la plupart des logiciels s'appuyaient jusqu'à présent sur la biométrie.
09:58La biométrie est une technique de reconnaissance.
10:04L'idée, c'est d'effectuer un certain nombre de mesures biologiques,
10:09comme la distance entre les iris, entre l'œil et le nez, ou du nez à la bouche, et tout ce genre de paramètres.
10:17Ces mesures sont utilisées pour déterminer l'état de l'œil,
10:21la distance entre l'œil et le nez, ou du nez à la bouche, et tout ce genre de paramètres.
10:26Ces mesures sont ensuite compilées et envoyées dans une base de données.
10:31Et comme chaque visage est unique, la reconnaissance biométrique permet de repérer d'éventuelles similitudes avec un suspect.
10:40Mais pour que ça fonctionne, il faut une bonne qualité d'image, avec beaucoup de pixels.
10:45Il faut une caméra HD et que la personne soit bien en face.
10:49Pour être exploitable, les images doivent afficher une bonne résolution, soit un nombre de pixels important.
10:56Si la résolution est trop faible, cette technologie devient rapidement limitée et les services de police perdent un outil précieux.
11:03C'est en s'inspirant du fonctionnement du cerveau que Bob Bichler et son équipe ont trouvé une parade.
11:09Si on copie le cerveau humain, c'est parce qu'il a une formidable capacité d'apprentissage.
11:15Nos systèmes informatiques sont capables de reconnaître instantanément des objets ou des visages, comme le fait le cerveau.
11:25On analyse l'aspect général du visage.
11:29Quand je regarde quelqu'un, je ne calcule pas la distance entre son œil et son nez.
11:34J'ai une image globale de son apparence, que je compare avec d'autres choses.
11:39Dès lors, l'exploitation de n'importe quelle caméra, quelle que soit la définition ou les conditions de lumière, devient possible.
11:48Nous n'avons besoin que de 30 pixels sur 30, soit une toute petite partie d'une image HD.
11:54Et on peut entraîner l'ordinateur à reconnaître cet élément.
11:59Et ça fonctionne avec l'équipement existant.
12:03Mais la reconnaissance faciale, quelles que soient les techniques qu'elle implique, se heurte vite à la capacité d'adaptation des criminels.
12:10Une capuche, une casquette, un parapluie, et le système se retrouve alors incapable d'opérer correctement.
12:16Bob Bichler est donc allé encore plus loin.
12:22Imaginons maintenant qu'on ait un visage peu visible.
12:27Dans ce type de situation, je peux créer un modèle informatique qui est basé sur le petit logo de la casquette noire,
12:36et qui est impossible à distinguer à l'œil nu.
12:42Il me suffit de charger mes vidéos pour voir apparaître le logo.
12:50Il y a quelques faux positifs.
12:53Car le logo en question ressemble à une roue de voiture.
13:01Si je choisis une casquette, admettons celle-ci,
13:07et que je clique sur informations, voilà la personne.
13:14C'est nous qui validons, qui disons, ça correspond, maintenant je sais où est allé cet homme.
13:20Il apparaît sur cette caméra à ce moment précis.
13:25On peut alors le pister et voir que, tiens, il a parlé à cette personne.
13:29De cette façon, on peut rassembler un faisceau de preuves.
13:33Mais les caméras de surveillance ne sont qu'un simple maillon
13:37qui peut s'intégrer dans un écosystème beaucoup, beaucoup plus vaste,
13:40où les équipements communiquent entre eux et forment un puissant outil de sécurisation des villes.
13:50New York, Paris, Bagdad, Nairobi, Kaboul.
13:55Depuis le 11 septembre, les attaques terroristes ont fait plus de 188 000 victimes de par le monde.
14:02Les attentats les plus meurtriers se sont déroulés dans des grandes métropoles.
14:06En frappant ces cibles, les terroristes sont assurés de faire un maximum de victimes
14:11et de médiatiser leurs actions.
14:14Aujourd'hui, sur l'infrastructure des villes anciennes, se développent de nouveaux centres urbains.
14:20Les Smart Cities.
14:30La Smart City, c'est cette cité smart, c'est-à-dire intelligente,
14:35qui peut répondre à l'ensemble de nos besoins.
14:38C'est présenté par les puristes et par les citoyens,
14:40comme la cité un petit peu idéale, dans laquelle on aurait le plus grand plaisir à travailler,
14:44puisque tout sera interconnecté.
14:46Tout est interconnecté, tout communique avec tout.
14:53Bourrée de capteurs, la Smart City régule les feux de circulation aux heures de pointe,
14:58optimise le ramassage d'ordures, contrôle l'éclairage public.
15:02Ces villes améliorent la gestion du quotidien,
15:05réduisent les coûts d'entretien des municipalités,
15:07la pollution facilite la communication.
15:10Mais dans un contexte de menaces terroristes,
15:13ces villes intelligentes deviennent aussi des villes plus sûres, plus surveillées,
15:17où les données peuvent devenir un véritable rempart contre les attaques.
15:21La Smart City devient alors Safe City.
15:25On peut contrôler, sur l'ensemble de la cité,
15:29les forces de police et les forces de secours,
15:32à mettre en place avec une gestion unique,
15:34ce qui permet d'éviter d'envoyer sur les lieux
15:38police et pompiers alors que les pompiers suffisent
15:40et que dans un autre coin, seule la police sera utile, etc.
15:43C'est ça une Safe City.
15:59Israël, un pays où les risques d'attentats sont quasi permanents,
16:02où tout converge vers la sécurisation des centres urbains.
16:06Présence de militaires dans les rues, civils armés,
16:09simulations d'attaques, systèmes de surveillance.
16:19Les ingénieurs et les scientifiques de la société MerGroup
16:22ont développé une plateforme qui met en réseau tous les capteurs que compte la ville.
16:26Cette plateforme permet de centraliser l'information
16:29auprès d'un opérateur dans un centre de contrôle.
16:32La colonne vertébrale de la Safe City.
16:39Prenons le cas par exemple d'une attaque terroriste.
16:48On a un camion rempli de gaz toxique
16:52et le gaz se répand dans la ville.
16:54On doit alors savoir ce qu'on va faire des victimes sur place.
16:59Dans un tel cas de figure, les données recueillies par les capteurs
17:02comme la vitesse et la direction du vent
17:05vont permettre aux forces de sécurité d'évaluer en temps réel
17:08la propagation du gaz toxique et de prendre les bonnes décisions.
17:12Ou concentrer les premiers secours, ou évacuer les victimes.
17:18Si on a une vingtaine de blessés,
17:21dans quel hôpital peut-on les transférer ?
17:24Que se passe-t-il si je les envoie dans un hôpital déjà bondé ?
17:27Sans médecin, ni lit disponible.
17:29Si ces informations sont accessibles en amont,
17:30on peut prendre la bonne décision en fonction de l'événement.
17:35Postés dans un centre de contrôle,
17:37ces opérateurs voient en temps réel
17:39l'hôpital le plus proche de la crise,
17:41le nombre de lits disponibles
17:43et si une équipe médicale est déjà sur place.
17:45Ils pourront ensuite prendre le contrôle des feux de circulation
17:49pour dégager la route au secours.
17:53Détournés de leur fonction initiale,
17:55les capteurs d'une ville en situation de crise
17:57pour sauver des vies humaines,
17:58voilà ce que cette plateforme permet.
18:03Mais c'est aussi un outil de prévention
18:05qui est capable de détecter une situation anormale
18:07avant qu'elle ne dégénère.
18:10Par exemple,
18:13dans mon quartier,
18:15il y a un stade de foot.
18:19Un lundi sur deux,
18:21il y a un match qui se joue à 21h.
18:25Ce qui veut dire qu'autour de 19h,
18:26beaucoup de personnes prennent la direction du stade
18:29à pied, en voiture ou en train.
18:32Ça fait beaucoup de monde.
18:35N'importe quel autre jour de la semaine,
18:39ce serait anormal.
18:42Je peux intégrer le calendrier des matchs dans mon système.
18:46Il se dira alors,
18:48si ça se produit le lundi,
18:50c'est bon, pas besoin de déclencher une alerte,
18:52je sais qu'il y a un match.
18:53Mais si ça se passe à 3h du matin,
18:55à côté du stade,
18:57ça n'est pas normal.
18:59Je n'en vois pas tout de suite les forces de l'ordre.
19:02Mais je dis à mon opérateur,
19:04vérifie les images.
19:11Dans ces villes,
19:13chaque objet connecté devient ainsi
19:15le maillon d'une chaîne
19:17qui vient s'intégrer au cyberspace.
19:20Les safe cities améliorent la sécurité.
19:22Mais elles nous rendent aussi plus vulnérables.
19:28Beaucoup de choses se connectent aujourd'hui à Internet.
19:31C'est l'Internet des objets.
19:33On connecte nos chaussures, nos tables, nos portes,
19:36nos montres, nos téléviseurs,
19:38tout devient intelligent et connecté.
19:41Et plus il y a d'objets connectés,
19:43plus le risque d'attaque augmente.
19:47La multiplication des objets que nous connectons
19:49à l'Internet laisse de plus en plus apparaître ses failles.
19:54Notre réseau serait-il un colosse au pied d'argile ?
20:00À la base, Internet,
20:02et donc son précurseur,
20:04ARPANET, développé dans les années 60 et 70
20:08dans les universités américaines,
20:10n'a pas été conçu de façon sécurisée.
20:13Et ce n'était pas le but premier d'ailleurs.
20:15Quand ARPANET a été créé,
20:16la sécurité n'était pas un enjeu.
20:18Dans ce petit réseau,
20:20les gens se faisaient confiance,
20:22car tous les utilisateurs se connaissaient dans la vie réelle.
20:26Ils se faisaient confiance.
20:28En très peu de temps,
20:30ARPANET est devenu l'Internet tel que nous le connaissons aujourd'hui,
20:33c'est-à-dire des milliards d'utilisateurs
20:36qui ne se connaissent pas et ne se font pas confiance.
20:39On ne sait pas vraiment ce qui est relié à Internet.
20:42Il y a des millions d'utilisateurs
20:43et on ne sait pas vraiment ce qui est relié à Internet.
20:46Il y a des choses parfois vraiment étranges.
20:49Certaines applications sont même créées dans un but mal intentionné.
20:52La confiance est donc devenue un enjeu.
20:56Cette fragilité de l'Internet
20:58est exploitée depuis sa création par les hackers,
21:01les pirates informatiques.
21:05Les attaques informatiques font intervenir
21:08systématiquement à la fois des moyens humains
21:11et des outils techniques.
21:13Et donc, il y a une extrême variété d'attaques possibles
21:16si on considère les outils qui sont mis en œuvre.
21:19Je pense qu'un des moyens de classer
21:22les attaques informatiques, c'est de raisonner en fonction de leurs objectifs.
21:25Et en gros, on peut distinguer les trois objectifs
21:28qui sont l'espionnage, le sabotage et la déstabilisation
21:32en termes d'attaques numériques proprement dites.
21:34De plus en plus, ces attaques lancées dans un monde virtuel
21:37se répercutent dans le monde réel.
21:39La grande différence qu'on a aujourd'hui
21:40avec le monde cybernétique,
21:42c'est une intrication complète avec le monde physique.
21:45On appelle ça les systèmes cyberphysiques.
21:47Autrement dit, un virus informatique
21:49ou une intrusion dans un réseau
21:51qui est dans un monde virtuel
21:53peut avoir des conséquences très réelles
21:55dans le monde physique.
21:57Plus l'humanité devient dépendante de la technologie,
22:00plus une cyberattaque risque de causer de gros dégâts.
22:03Ça peut provoquer un crash aérien,
22:05faire exploser une usine,
22:07envoyer une voiture dans le décor,
22:08pirater le pacemaker de quelqu'un
22:10ou encore sa pompe à insuline.
22:17Si ces scénarios relèvent encore de la fiction,
22:20on assiste cependant à la montée en puissance
22:23des cyberattaques dans le monde.
22:25Aujourd'hui, on en compte une nouvelle
22:27toutes les 39 secondes.
22:29Beaucoup d'entre elles passent inaperçues,
22:31d'autres se retrouvent sous le feu des projecteurs.
22:38En 2010, Stuxnet,
22:40un virus développé par deux nations,
22:42les États-Unis et Israël,
22:44marque un coup d'arrêt au programme nucléaire iranien.
22:47Pour la première fois dans l'histoire du cyberspace,
22:50un virus est catégorisé comme une arme.
22:53En 2017, WannaCry,
22:55un virus rançonnant ses victimes,
22:58crypte les données de plus de 300 000 ordinateurs
23:01dans 150 pays
23:03et bloque les systèmes informatiques d'hôpitaux anglais,
23:05semant le chaos et mettant en danger la vie des patients.
23:08Pour le moment,
23:10ces attaques restent le fait d'États ou de groupes mafieux,
23:12mais l'appropriation par un groupe terroriste de ces armes
23:15est redoutée de tous les services.
23:18Le terme cyberterrorisme va rassembler
23:21quelque part les deux plus grandes peurs de l'humanité.
23:23Vous allez avoir le terrorisme en soi,
23:26qui avec toute sa symbolique,
23:28et la technologie.
23:30Et donc, quelque part, vous avez la jonction
23:32des deux plus grandes peurs de l'humanité.
23:34Sécuriser le monde réel,
23:36le protéger des attaques du monde virtuel,
23:39améliorer l'efficacité et adapter les antivirus
23:42est devenu un enjeu crucial
23:44pour les spécialistes de la sécurité des réseaux.
23:47La sécurité informatique,
23:49c'est un travail de paranoïaque.
23:53Maintenant, on peut me poser la question,
23:55est-ce que cette paranoïa est justifiée ?
23:57Oui, elle est justifiée.
23:59C'est plus facile d'être paranoïaque
24:00que d'être la personne chargée
24:02de sécuriser un réseau.
24:04Un hacker n'a besoin de réussir qu'une fois.
24:06Le responsable de la sécurité, lui,
24:08n'a pas le droit à l'erreur.
24:10Un hacker doit juste trouver une faille.
24:12Le responsable doit tout protéger.
24:14Les hackers n'ont pas de règles,
24:16ils font ce qu'ils veulent.
24:24Dans l'est de la France, au Lorient,
24:26le laboratoire lorrain de recherche en informatique
24:28est sédimenté.
24:30Parmi ses applications,
24:32des chercheurs donnent naissance
24:34à de nouvelles générations d'antivirus.
24:36En surface, étudiants et chercheurs
24:38se spécialisent dans la robotique,
24:40l'intelligence artificielle
24:42et les algorithmes.
24:44Au sous-sol,
24:46le laboratoire de haute sécurité.
24:48Ici, on collectionne les virus informatiques
24:50parmi les plus dangereux du cyberespace
24:52pour les étudier
24:54et tenter d'en trouver les antidotes.
25:00Je vais vous dire une petite anecdote
25:02pour comprendre le problème.
25:04Quand j'ai commencé à m'intéresser
25:06aux virus et aux codes malveillants,
25:08je faisais ça dans mon bureau.
25:10À ce jour-là, la directrice
25:12a débarqué dans mon bureau
25:14et a dit, qu'est-ce que tu fais ?
25:16Qu'est-ce qui se passe s'il s'échappe sur le réseau ?
25:18Rapidement, on a compris
25:20que ce type d'études,
25:22de travaux scientifiques,
25:24il fallait les faire dans un lieu
25:26relativement sécurisé.
25:31La raison, c'est parce qu'on stocke
25:33des codes malveillants.
25:35On en stocke à peu près, je crois,
25:37aujourd'hui, 10 millions.
25:42Dans ces locaux,
25:44des ordinateurs connectés
25:4624 heures sur 24
25:48sont de véritables pots de miel.
25:50Sans aucune protection,
25:52ils jouent le rôle d'appât
25:54pour attirer les virus
25:56qui scannent l'Internet
25:58à la recherche d'informations
26:00de proie.
26:02Ça marche un petit peu
26:04comme une fausse défense,
26:06c'est-à-dire qu'on va montrer
26:08un ordinateur qui, lui,
26:10est vulnérable,
26:12le code malveillant va scanner
26:14cet ordinateur, va se rendre compte
26:16qu'il est vulnérable,
26:18il va vouloir l'attaquer.
26:20Donc, il va rentrer dedans
26:22et à ce moment-là,
26:24nous, on va fermer la porte
26:26et on va récupérer ce code malveillant
26:28pour des analyses par la suite.
26:30C'est l'idée de laquelle
26:32le lauréat est engagé.
26:34Vous avez les antivirus
26:36par signature
26:38qui sont basés
26:40sur un ensemble de signatures.
26:42Ce serait un petit peu
26:44comme si vous aviez,
26:46dans votre comportement dans la rue,
26:48un policier à chaque instant du temps
26:50qui regardait tout ce que vous faisiez
26:52et qui vérifiait
26:54est-ce que tout ce que vous faites
26:56est compatible avec la loi
26:58telle qu'elle est définie.
27:00C'est ce qui est vulnérable
27:02que le lauréat s'applique à renforcer.
27:04Aujourd'hui,
27:06il y a un premier constat,
27:08c'est que les antivirus
27:10ont beaucoup de mal
27:12à garantir nos défenses.
27:14Il suffit de modifier un virus
27:16et en général,
27:18l'antivirus n'arrive pas à le détecter.
27:20Je vais faire une métaphore,
27:22c'est plus facile que l'expliquer.
27:24Imaginez une recette de cuisine,
27:26vous êtes le cuisinier,
27:28vous l'interprétez,
27:30la méthode actuelle,
27:32la méthode qu'on utilise tous,
27:34c'est simplement de dire
27:36si je vois un certain nombre de mots
27:38ou d'actions dans ma recette,
27:40je vais dire que c'est malveillant
27:42et je vais l'arrêter.
27:44C'est un défaut important,
27:46si vous modifiez légèrement la recette
27:48ou vous mettez de l'huile d'olive,
27:50c'est à peu près la même chose.
27:52L'antivirus, pour lui,
27:54c'est deux virus différents,
27:56celui au beurre, celui à l'huile d'olive.
27:58Pour détecter le comportement malveillant
28:00de l'antivirus,
28:02malgré ses innombrables variantes
28:04et le neutraliser,
28:06les chercheurs du Loria ont développé une méthode,
28:08l'analyse morphologique.
28:10Une fois le virus isolé
28:12grâce au pot de miel,
28:14les chercheurs identifient son objectif,
28:16par exemple, rançonner les utilisateurs.
28:18Puis, ils détaillent son mode opératoire,
28:20comment va-t-il parvenir à ses fins
28:22et par quels moyens.
28:24Qu'est-ce qu'il va faire, votre programme ?
28:26Vous pensez d'aller charger un jeu, très bien.
28:28Donc le jeu, il y a un petit oiseau qui vole,
28:30il va regarder dans votre carnet d'adresses,
28:32puis il va regarder du côté de votre passe,
28:34puis il va ouvrir une connexion Internet.
28:36Donc nous, notre objectif,
28:38c'est de voir, OK,
28:40vous téléchargez un jeu,
28:42mais vous voyez, il est en train de regarder vos mails,
28:44il est en train de regarder vos mots de passe,
28:46il est en train de faire une connexion Internet.
28:48De toutes ces fonctionnalités,
28:50les ingénieurs du Loria extraitent alors
28:52une signature propre à chaque virus,
28:54une véritable empreinte digitale
28:56reconnaissable quelles que soient
28:58les modifications apportées.
29:00Le programme va faire ça et ça,
29:02ou potentiellement il peut faire ça et ça,
29:04et donc on interdit ce comportement
29:06parce qu'on le considère comme malveillant.
29:08Par exemple,
29:10si on reprend un exemple très simple du rançon logiciel
29:12dont on a parlé au WannaCry,
29:14il chiffre les informations,
29:16il demande une rançon.
29:18Si les deux fonctions sont chiffrées
29:20et demandent une rançon,
29:22et qu'il y a un lien entre les deux,
29:24on interdit ce genre de fonctionnement,
29:26ce qui paraît normal.
29:28Les avantages aujourd'hui par rapport au système classique,
29:30c'est qu'on sait détecter des variantes,
29:33comme on l'a déjà dit,
29:35d'un même virus qui aurait muté.
29:37Potentiellement, on sait détecter des attaques
29:39qui sont inconnues,
29:41puisque simplement on va voir que c'est malveillant.
29:43Grâce aux avancées des chercheurs
29:45et à la complexité des attaques informatiques,
29:47un scénario type 11 septembre numérique
29:49reste encore peu probable.
29:51Le cyberterrorisme,
29:53c'est un terrorisme en fait très, très sophistiqué.
29:55Pour monter une opération cyberterroriste
29:57qui aurait des effets réels
29:58sur le monde physique,
30:00il faudrait des mois, voire des années.
30:02Vous avez une action beaucoup plus rapide
30:04en prenant un camion
30:06et en écrasant des gens lors du 14 juillet
30:08qu'en essayant de monter une opération cyberterroriste.
30:10Donc je pense que
30:12si on considère les organisations terroristes
30:14comme des organisations rationnelles
30:16qui visent un objectif
30:18et qui cherchent à voir par quels moyens
30:20elles peuvent y arriver,
30:22très clairement, le terrorisme classique
30:24est malheureusement beaucoup plus efficace
30:26que le cyberterrorisme.
30:28Chacun de nos clics,
30:30chaque nouvel objet que nous connectons,
30:32chacun de nos mails échangés
30:34est une pierre de plus
30:36ajoutée à l'édifice
30:38de cet univers numérique.
30:40On produit de plus en plus de données
30:42parce qu'on est de plus en plus connectés.
30:44Et ces données-là,
30:46si on essayait de poser un chiffre,
30:48on s'en rend compte
30:50qu'il y a plus de données
30:52et qu'il y a plus de données
30:54et qu'il y a plus de données
30:56et qu'il y a plus de données
30:58sur des milliards de milliards
31:00de milliards d'informations.
31:02À un niveau où juste poser un chiffre
31:04n'a pas de sens.
31:06Dans la lutte contre le terrorisme,
31:08cette croissance exponentielle de données
31:10est une arme à double tranchant.
31:12Elle offre une quantité gigantesque
31:14de matière au service chargé
31:16de la lutte contre le terrorisme
31:18pour ouvrir et faire progresser des enquêtes.
31:20Mais en parallèle,
31:22elle submerge les capacités humaines
31:24en noyant dans la masse
31:26la bonne information,
31:28pour débusquer un groupe
31:30ou empêcher un attentat.
31:32L'intelligence artificielle
31:34est devenue indispensable
31:36au service de renseignement
31:38pour trier et identifier.
31:40Si on devait aujourd'hui traiter
31:42toutes les images disponibles
31:44pour le renseignement militaire,
31:46il faudrait que la direction
31:48du renseignement militaire française
31:50embauche plus de 10 000 analystes.
31:56Surveillance numérique,
31:58en collaboration en simultané,
32:00la société Bertin
32:02développe toute une gamme de logiciels
32:04à l'intention des acteurs
32:06de la lutte anti-terroriste.
32:08Parmi elles,
32:10une plateforme d'analyse,
32:12de classification et de surveillance
32:14du cyberespace médiacentrique.
32:16Utilisée dans le respect
32:18d'un cadre légal strict,
32:20le logiciel permet de mettre en lumière
32:22dans le monde virtuel
32:24les liens qui unissent
32:26les groupes terroristes
32:28et les militaires.
32:30Médiacentrique est une plateforme
32:32d'investigation numérique
32:34qui va plus avoir pour vocation
32:36à travailler sur des cibles précises
32:39et de faire de l'investigation
32:41sur ces cibles pour comprendre
32:43les relations qu'elles entretiennent
32:45entre elles et quelles sont
32:47les relations qu'elles entretiennent
32:49avec des thématiques.
32:51On va être plus dans un mode
32:53d'investigation avec un analyse
32:55qui va travailler avec notre système.
32:56Le premier nombre du renseignement,
32:58les analystes.
33:00Leur rôle,
33:02trouver le bon renseignement,
33:04celui qui permettra
33:06l'identification d'un nouveau groupe
33:08ou élargira le champ
33:10d'une investigation déjà en cours.
33:12Dans cette simulation,
33:14un analyste dont l'anonymat
33:16doit être préservé pour raisons
33:18de sécurité enquête sur un groupe
33:20suspecté de blanchir de l'argent.
33:22L'analyste a remarqué
33:24une nouvelle vidéo postée
33:26par le journal de la France.
33:32A l'aide de médias centriques,
33:34l'analyste va ensuite étudier
33:36les informations cachées
33:38contenues dans la vidéo,
33:40les métadonnées.
33:42Une métadonnée, par exemple,
33:44ça peut être tout bête,
33:46ça peut être la langue.
33:48Parce que le contenu est en français,
33:50en anglais, en chinois,
33:52en arabe, en russe.
33:54On a d'autres métadonnées
33:56que l'on peut trouver
33:58sur Twitter.
34:00Les métadonnées ont permis
34:02de remonter jusqu'à la personne
34:04responsable de la mise en ligne
34:06de cette vidéo.
34:08Elle devient alors
34:10une personne d'intérêt.
34:12Placée sous surveillance,
34:14chacune de ces actions
34:16sera désormais signalée
34:18et suivie par médias centriques.
34:20En lutte anti-terrorisme,
34:22ce qui est important,
34:24c'est de comprendre
34:26comment se rendent les individus
34:28les uns avec les autres.
34:30Est-ce qu'on va fournir de l'argent ?
34:32Est-ce qu'on va fournir
34:34un support moral,
34:36un support logistique,
34:38un passeport ?
34:40Pour être capable de comprendre cela,
34:42il faut traiter à la fois
34:44des télécommunications de type voix,
34:46des communications écrites.
34:48Pendant longtemps,
34:50on a travaillé avec papier-crayon
34:52et un petit peu comme dans les films
34:54où on se retrouve avec un gros tableau
34:56où les informations passent
34:58nécessairement par l'informatique
35:00à cause des volumes de données.
35:02Pour donner sens aux informations recueillies
35:04et comprendre comment ces groupes
35:06sont organisés,
35:08les analystes s'appuient
35:10sur la cartographie des données.
35:12La cartographie d'informations
35:14va nous apporter une dimension
35:16qui est essentielle,
35:18c'est quasiment visuellement
35:20d'avoir une mise en lumière de liens.
35:22On sait en gros qui parle avec qui
35:24et c'est automatique.
35:26On voit des liens apparaître
35:28de plus en plus forts,
35:30alors que ce n'était pas visible au début
35:32entre cette communauté
35:34qui fait des malversations
35:36autour du blanchiment d'argent
35:38et par ailleurs la communauté
35:40liée à la mouvance terroriste.
35:42On arrive à mettre en lumière
35:44un lien fort
35:46entre deux communautés
35:48qui a priori
35:50un lien fort
35:52entre deux communautés
35:54qui a priori
35:56au début de l'investigation
35:58n'avaient pas l'air si directés
36:00voire pas liés.
36:02Grâce à ces techniques
36:04d'investigation,
36:06au travail de ces analystes,
36:08des groupes sont démantelés
36:10et des attentats évités.
36:12Finalement,
36:14ce que Daech a montré,
36:16c'est que ce n'est pas forcément
36:18sur les compétences les plus techniques
36:20qu'ils ont réussi à faire jouer la peur,
36:22puisqu'en fait,
36:24ils ont fait jouer la peur
36:26et ça ne demande pas
36:28de dimension technique
36:30très importante
36:32par rapport à ce que pourrait
36:34relever une attaque informatique.
36:39Depuis sa création,
36:41Internet est un espace d'échange
36:43et de discussion
36:45où chacun peut s'informer,
36:47débattre et confronter ses idées.
36:49Mais depuis la montée en puissance
36:51des grands réseaux sociaux
36:53et le manque de modération
36:54l'Internet passe et est devenu
36:56la caisse de résonance
36:58des groupes extrémistes
37:00de tous bords.
37:01...
37:22Hanif Farid est professeur d'informatique
37:25à la prestigieuse Université de Berkeley.
37:28Il collabore avec des services
37:29de sécurité et des ONG.
37:31C'est un spécialiste mondial
37:33de l'analyse d'images.
37:35Il développe des outils
37:37pour éliminer de la toile
37:39la propagande terroriste.
37:45Il y a 20 ans,
37:47un recruteur de Daesh
37:49aurait dû faire du porte-à-porte,
37:51rencontrer des gens
37:53ou peut-être même envoyer des lettres.
37:55Maintenant, vous avez une chaîne YouTube,
37:57un compte Twitter
37:59ou une page Facebook
38:01et en une seconde,
38:03vous pouvez toucher des millions de personnes.
38:05Tout un chacun peut désormais
38:07trouver à profusion sur la toile
38:09des vidéos de propagande
38:11et s'exposer à un processus de radicalisation.
38:13Processus qui pourra mener
38:15certains au passage à l'acte.
38:19Au cours des 6 ou 7 dernières années,
38:21presque toutes les attaques
38:23qui ont eu lieu dans le monde
38:25sont la conséquence
38:27de la radicalisation en ligne.
38:30Il ne fait aucun doute
38:32qu'une telle radicalisation
38:34entraîne souvent un passage à l'acte.
38:37Dès lors,
38:39organiser la riposte,
38:41reconquérir la toile
38:43est devenu un enjeu vital
38:45dans la lutte contre le terrorisme.
38:47Mais comment modérer un espace
38:49où rien que sur YouTube,
38:51environ 400 heures de vidéos
38:53sont téléchargées chaque minute ?
38:55Comment trouver, trier,
38:57éliminer les contenus dangereux
38:59qui ne sont pas ?
39:01On a d'abord utilisé des modérateurs humains
39:03qui n'avaient que 2 secondes
39:05pour dire si la vidéo était illégale
39:07et la supprimer le cas échéant.
39:11Eh bien, devinez ce qui se passait.
39:13Elle réapparaissait la minute suivante.
39:15C'est un peu comme le jeu de la taupe.
39:17Vous tapez ici
39:19et elle réapparaît là.
39:21Et si vous tapez là,
39:23elle réapparaît ici.
39:25Ce n'est pas un système efficace.
39:27Pour arriver à une identification définitive
39:29et repérer et éliminer de la toile
39:31d'y refaire surface,
39:33Hany Farid a conçu et développé
39:35un logiciel appelé EGLIF.
39:39Le principe est le suivant.
39:41Quand une personne a identifié
39:43un contenu illicite ou non autorisé
39:45sur une plateforme,
39:47on analyse en détail la photo,
39:49la vidéo ou l'enregistrement audio
39:51pour en extraire une signature numérique.
39:55Cette signature a deux propriétés.
39:57D'abord, elle est unique.
39:59Si vous avez deux images différentes,
40:01chacune aura sa signature.
40:03Ensuite, elle reste valable
40:05sur toute la durée de vie du contenu.
40:07Même si ce contenu est modifié
40:09et remis sur la toile,
40:11sa signature restera la même.
40:13C'est comme l'ADN humain.
40:15Il est propre à chaque personne
40:17et ne changera pas en fonction
40:19de l'âge ou des vêtements.
40:21L'un des avantages du système EGLIF,
40:23c'est que quand la vidéo est identifiée,
40:25elle est supprimée pour toujours.
40:26Ce serait un peu trop technique
40:28d'expliquer le fonctionnement
40:30de cette signature.
40:32Et c'est un sujet qu'on évite
40:34le plus possible.
40:36Bien sûr, ces détails sont connus
40:38des personnes qui utilisent
40:40ce logiciel.
40:42Mais si l'adversaire découvre
40:44comment ça marche,
40:46il s'adaptera.
40:48C'est comme les filtres
40:50pour les spams ou les antivirus.
40:52C'est bien de savoir comment
40:54ça fonctionne globalement,
40:56et croyez-moi,
40:58il s'agit bien d'un adversaire.
41:00Grâce à ce système,
41:02une gigantesque base de données
41:04est créée, alimentée
41:06et mise à jour par des modérateurs humains.
41:10Il y a deux façons
41:12d'utiliser cette technologie.
41:14On peut filtrer tout ce qui arrive
41:16sur Facebook,
41:18scanner et comparer
41:20les milliards de vidéos chargées
41:22chaque jour avec la base de données
41:24de contenus illicites
41:26du contenu mis en ligne,
41:28sur Facebook, YouTube, Twitter
41:30ou Microsoft.
41:32Mais le logiciel peut également
41:34se comporter de manière
41:36beaucoup plus offensive
41:38et aller traquer et signaler
41:40aux forces de l'ordre
41:42les contenus qui violent
41:44le cadre de la loi.
41:46On peut scruter Internet
41:48et le Dark Web,
41:50car on sait que si on bloque
41:52nos ennemis sur Facebook,
41:54ils ne vont pas s'arrêter là.
41:56C'est pourquoi on doit
41:58trouver ces plateformes
42:00et les fermer.
42:02E-Glyph est aujourd'hui
42:04utilisé massivement
42:06par les associations chargées
42:08de lutter contre la propagande en ligne.
42:10Son efficacité a fait ses preuves
42:12auprès des services de police.
42:14Pourtant, les plus grandes
42:16plateformes ne l'utilisent pas.
42:18Les principaux responsables
42:20de la profusion de contenus
42:22extrémistes sur la toile
42:23ont une responsabilité particulière
42:25dans ce domaine.
42:27Elles ont conçu les algorithmes
42:29et l'ont conçu dans une optique
42:31essentiellement de ciblage fin.
42:33Le business model
42:35de ces grandes plateformes
42:37est à peu près toujours le même,
42:39c'est-à-dire de faire en sorte
42:41de pouvoir définir des profils
42:43de plus en plus fins
42:45d'utilisateurs pour pouvoir
42:47les vendre
42:49à des annonceurs potentiels.
42:51Cela amène les utilisateurs
42:53à des comportements
42:55de plus en plus enfermés
42:57sur eux-mêmes.
42:59Les géants d'Internet
43:01ne sont pas la source
43:03de l'extrémisme,
43:05mais ils l'ont amplifié.
43:07Par exemple,
43:09si vous regardez
43:11une simple vidéo sur l'islam
43:13et que la vidéo suivante
43:15parle aussi d'islam,
43:17au bout de 5 recommandations,
43:19vous regarderez une vidéo
43:21sur l'islam radical.
43:23Ce n'est pas fait
43:25pour vous informer
43:27ou bien vous donner
43:29un point de vue opposé,
43:31c'est fait pour vous donner
43:33un contenu qui, selon eux,
43:35va vous faire rester.
43:37Google, Facebook, YouTube,
43:39leur place dans l'échiquier mondial
43:41est devenue prépondérante
43:43ces dernières années.
43:45Pourtant, pendant longtemps,
43:47ces plateformes ont préféré
43:49détourner le regard
43:51plutôt que de saisir
43:53le statut de ces opérateurs.
43:55Est-ce qu'ils sont simplement
43:57des diffuseurs ou ont-ils
43:59une responsabilité
44:01par rapport au contenu ?
44:03Compte tenu de la nature
44:05des messages diffusés
44:07et du fait que les opérateurs
44:09n'ont certainement pas intérêt
44:11à apparaître comme les complices
44:13ou les facilitateurs
44:15d'opérations terroristes,
44:17on peut penser que
44:19le renforcement du contrôle
44:21va se faire.
44:23La question de la sécurité
44:25et de la vie privée
44:27est un débat complexe.
44:29On a l'habitude d'opposer les deux,
44:31comme s'il fallait forcément
44:33renoncer à l'un
44:35pour avoir l'autre.
44:37En soi, c'est peut-être pas
44:39comme ça qu'il faut poser
44:41les questions de sécurité
44:43et de la vie privée.
44:45On a l'habitude
44:47d'opposer les deux,
44:49comme s'il fallait forcément
44:51renoncer à l'un
44:53pour avoir l'autre.
44:55Dans les termes du débat,
44:57on peut aussi garantir
44:59une vie privée
45:01en assurant un minimum
45:03de sécurité.
45:05Mais peut-être qu'il y a
45:07des moments où il faut
45:09arbitrer de savoir
45:11ce qu'on est prêt
45:13à laisser passer
45:15ou pas laisser passer.
45:17Pour ça, il faut un vrai débat,
45:19il faut des vraies questions,
45:21il faut un débat à froid.
45:23La France et l'ensemble
45:25des pays concernés
45:27tremblent et, à juste titre,
45:29sont obligés de prendre des moyens
45:31et, à juste titre,
45:33pouvoir combattre les terroristes.
45:35Est-ce que, pour autant,
45:37il faut limiter nos droits ?
45:39Certainement oui,
45:41un temps donné.
45:43Est-ce qu'il faut reconquérir
45:45nos droits ?
45:47Oui, ce temps passé.
45:49Mais comment se situe la limite ?
45:51Le courage,
45:53c'est pourquoi il a été inventé.
45:55Un espace d'échange
45:57où nous pouvons naviguer
45:59en toute sécurité
46:01sans être confrontés
46:03à des images choquantes
46:05ou au risque d'être piratés.
46:07Mais leurs efforts seuls
46:09ne sauraient suffire.
46:11La sécurité du monde numérique
46:13est l'affaire des États,
46:15des entreprises,
46:17mais aussi des utilisateurs.
46:19Ensemble,
46:21ils forment une chaîne,
46:23ils mettent la part principale
46:25de la responsabilité
46:27sur l'attaquant.
46:30Mais,
46:32de plus en plus,
46:34on commence à avoir une vision
46:36dans la communauté informatique,
46:38mais plus loin,
46:40qu'il y a aussi une part de responsabilité
46:42dans la défense,
46:44dans la personne qui a fourni
46:46un service qui n'est pas sécurisé.
46:48Mon message est le suivant.
46:50Posez-vous des questions,
46:51car la sécurité informatique
46:53est l'affaire de tous.
46:56Quand vous voulez conduire une voiture,
46:58le gouvernement vous dit que c'est dangereux.
47:00Si vous voulez conduire une voiture,
47:02vous devez apprendre à conduire,
47:04passer votre permis.
47:06Mais quand on vous donne un ordinateur,
47:08et je vous rappelle que des gens meurent
47:10à cause des cyberattaques,
47:12on ne vous donne aucune instruction.
47:15On devrait tous se sentir concernés
47:17par la cybersécurité.
47:21Sous-titrage Société Radio-Canada
47:51© Sous-titrage Société Radio-Canada

Recommandations