Visitez notre site :
http://www.france24.com
Rejoignez nous sur Facebook
https://www.facebook.com/FRANCE24
Suivez nous sur Twitter
https://twitter.com/France24_fr#
Category
🗞
NewsTranscription
00:00 Vous venez d'entendre d'Antonio Guterres sur ces risques supposés.
00:04 Vous allez nous donner votre avis de spécialiste.
00:06 Laurence de Villers, vous êtes professeure d'intelligence artificielle
00:10 à la Sorbonne, chercheuse au CNRS et auteur de l'essai
00:13 "Les robots émotionnels" aux éditions de l'Observatoire.
00:17 Ce qu'on entend de la peur de Guterres, c'est avant tout une peur sur l'information,
00:23 sur la désinformation qui pourrait nuire à la paix mondiale.
00:26 C'est d'abord ça le risque ?
00:28 Oui, alors ce n'est pas une peur que j'entends, c'est une raison.
00:33 On a raison de se méfier de ce qui pourrait se passer avec l'intelligence artificielle
00:37 qui amplifie en fait les informations fausses.
00:41 Tchad GPT génère des propos qui sont approximatifs.
00:46 Et il va générer des propos comme ça sur la toile,
00:48 qui pourraient être utilisés sur Internet,
00:50 qui pourraient être utilisés par d'autres machines
00:52 pour apprendre à partir de données qui ne sont pas des connaissances,
00:55 qui ne sont pas des faits, qui sont juste des inventions de machines.
00:58 Tout ça même sans intervention extérieure de quelqu'un qui chercherait à nuire,
01:03 sans intervention humaine ?
01:06 C'est là où vous avez vraiment raison.
01:08 Il ne faut pas avoir peur de l'intelligence artificielle qui n'existe pas.
01:12 Il faut avoir peur des humains qui pourraient utiliser le pouvoir de ces machines pour nuire,
01:18 pour avoir plus de pouvoir économique,
01:19 pour avoir plus de pouvoir de manipulation en politique.
01:23 On l'a déjà vu lors des précédentes élections,
01:26 des problèmes avec Trump, des problèmes avec d'autres,
01:29 de manipulation lors des élections.
01:31 Le Brexit avec Cambridge Analytica.
01:33 Et donc ça va continuer à être amplifié.
01:35 Donc il est urgent et je suis ravie,
01:37 et j'en appelle à tout le monde de comprendre que le message,
01:40 ce n'est pas d'avoir peur, parce qu'il ne faut pas avoir peur pour avoir des actions en cours,
01:44 mais il est tout à fait raisonnable, urgent,
01:48 et j'en appelle à tout le monde pour comprendre le vrai sujet qui est,
01:51 évitons d'être manipulés par une poignée de gens,
01:54 qu'ils soient totalitaristes quelque part en politique,
01:57 ou qu'ils soient des géants du numérique,
01:59 qui décident à notre place de nombreuses choses,
02:01 et qu'on soit tous en dépendance.
02:03 - Parlons des usages dangereux de l'intelligence artificielle justement.
02:08 Alors on a parlé de désinformation,
02:10 mais de quoi est-ce qu'il faut se méfier ?
02:12 De donner un peu trop aussi à une technologie,
02:16 qui est finalement une technologie et qui n'est pas infaillible,
02:18 de lui donner accès à la gestion de domaines trop sensibles,
02:22 nucléaires, notre énergie ?
02:25 - Tout à fait, il ne faut pas donner à ces machines
02:27 des droits de décision sur des sujets critiques pour nous.
02:30 On doit rester en responsabilité.
02:33 La machine n'est pas responsable, ne le sera jamais.
02:36 Il n'y a aucune intention à l'intérieur, aucune émotion, aucune conscience,
02:39 et aucune intelligence artificielle générale
02:42 qu'on essaie de nous envoyer via des propos de Google ou d'autres,
02:46 Elon Musk, etc.
02:48 Donc je pense qu'il faut faire très attention en ce moment.
02:50 Certains experts tentent de nous envoyer vers ces extrêmes
02:53 où la machine serait intelligente et pourrait décider à notre place,
02:58 mieux que nous.
02:59 C'est tout à fait trompeur, c'est une arnaque générale.
03:03 Ces machines, que je connais bien, sur lesquelles de nombreux scientifiques travaillent,
03:06 ne sont pas comme cela.
03:08 Elles ont un pouvoir de générer, par exemple, la parole,
03:10 comme on l'a vu avec ChalGPT,
03:11 ou de faire des images qu'on a incroyables avec Dali,
03:14 ou de faire des robots tueurs,
03:16 ou de faire des robots qui pourront aller tuer à la place de quelqu'un.
03:19 Ça, c'est dangereux.
03:20 Mais de la même façon, c'est dangereux aussi
03:22 de propager des mauvaises informations sur Internet,
03:25 de croire cela, de ne plus avoir cet espace de compréhension
03:28 de ce qui est vrai ou de ce qui n'est pas vrai,
03:30 de ne pas croire à la connaissance,
03:31 de laisser juste une interprétation des faits.
03:33 Et le mensonge est partout.
03:35 On l'entend avec Trump, on va l'entendre sur la toile un peu partout.
03:38 Donc il est urgent, avant ces prochaines élections,
03:41 par exemple en politique,
03:42 que l'on comprenne bien qu'il ne faut pas livrer ces objets
03:46 à des mains qui seraient extrêmes.
03:48 Quand on entend António Guterres se mettre en garde,
03:51 ce qu'il réclame, lui, c'est une intervention
03:53 pour un cadre légal mondial pour encadrer cette technologie.
03:57 On est là sur quelque chose qui est un enjeu financier aussi.
04:01 Est-ce qu'on peut avoir confiance
04:03 dans le fait que tous les pays se mettent d'accord
04:05 pour encadrer l'utilisation de cette technologie ?
04:07 C'est souhaitable.
04:10 C'est vraiment souhaitable pour l'économie également.
04:12 Donc je pense qu'il va y avoir raison,
04:15 on entend parler que les normes font un frein à l'économie.
04:18 Ce n'est pas un frein à l'économie.
04:20 C'est une façon de raisonner clairement
04:22 sur les conséquences néfastes pour les citoyens,
04:25 les conséquences néfastes pour la société,
04:27 pour l'écologie.
04:28 On ne va pas non plus mettre de l'IA partout.
04:30 Donc il est important d'avoir des règles mondiales sur ces sujets.
04:34 L'Europe essaie de faire monter ces sujets,
04:36 de réfléchir à cela, c'est très bien.
04:38 Les États-Unis de leur côté aussi,
04:40 les Japonais, partout j'entends la même chose.
04:42 Il est raisonnable de penser qu'on est arrivé à une certaine maturité
04:45 où on pourra trouver au niveau mondial
04:48 des grandes règles à porter tous ensemble.
04:51 Quels sont les risques pour les applications militaires
04:56 de l'IA ?
04:58 Vous nous parliez de drones.
05:00 On sait que les drones ont été détournés
05:03 et qu'il y a un risque aussi terroriste maintenant avec les drones.
05:06 Pour l'IA, c'est pareil ?
05:08 Ça peut avoir des utilisations militaires ?
05:10 L'IA, c'est des programmes.
05:13 C'est la même chose que je fais voler le drone,
05:15 sauf que je lui donne la capacité de percevoir des objets,
05:18 de peut-être dénommer, là j'ai un tel individu
05:20 parce que je l'ai identifié avec de la reconnaissance faciale.
05:23 Donc vous voyez, ce sont des objets numériques,
05:27 des algorithmes qui ont appris à partir de données,
05:29 qui ont certains biais et qui vont décider de certaines choses.
05:32 Il ne faut pas leur donner trop de décisions.
05:34 De la même façon qu'en médecine, il faut garder le contrôle.
05:37 Ces machines d'IA ne sont pas intelligentes,
05:40 c'est du calcul.
05:41 C'est du calcul très grand,
05:44 ce que nous ne sommes pas capables de faire avec notre cerveau.
05:46 Il faut l'utiliser pour plein de tâches,
05:49 mais pas laisser des machines autonomes comme des robots tueurs,
05:52 avec la capacité de décider que ceci est quelqu'un de dangereux en face ou pas.
05:57 On ne sait pas.
05:57 Il va le décider à partir de quoi ?
05:59 De son costume, avec sûrement énormément d'erreurs.
06:03 Il n'y a pas de fiabilité dans tout cela.
06:05 Donc l'armée se méfie beaucoup de cela,
06:07 mais ce n'est pas le cas dans tout le monde.
06:10 Donc il est normal d'avoir cette réflexion à haut niveau
06:13 pour pousser le monde entier à réfléchir à ces limites,
06:16 ces lignes rouges qui ne font pas des pistes dépassées
06:19 et avoir des règles en commun.
06:21 C'est à mon avis la seule façon de nous sauver de la manipulation de certains.
06:25 Je n'ai pas dit de l'IA.
06:27 L'IA, c'est des objets,
06:28 c'est des objets sociotechniques qui ont une puissance,
06:32 mais qui n'ont pas d'intention de nuire.
06:35 Merci beaucoup, Laurence de Villers, d'avoir été avec nous sur ce sujet.