Une virée dans le monde de l'IA - Veille sanitaire par Manon Mariani

  • l’année dernière
L'IA est en train de devenir un vrai danger pour les mineurs.
Retrouvez la chronique "Veille Sanitaire" de Manon Mariani sur https://www.radiofrance.fr/franceinter/podcasts/veille-sanitaire

Category

😹
Amusant
Transcription
00:00 Dans quelques instants, c'est Tania Dutelle qui nous rejoindra, mais d'abord je me tourne
00:02 vers celle qui dans cette équipe est en première ligne face aux avancées de l'IA puisqu'elle
00:06 est notre experte réseau sociaux.
00:07 Manon, aujourd'hui, une chronique 100% fun, 100% feel good ou pas ?
00:10 Comme vous dites, aujourd'hui je vous propose une virée dans le monde de l'intelligence
00:14 artificielle comme cette émission.
00:15 Un monde dont on ne maîtrise pas encore les codes et qui est pourtant en train d'émerger
00:18 devant nos yeux ébahis et effrayés.
00:20 Car au-delà de TchadJPT qui peut écrire un texte sur demande ou de MytheJournée qui
00:24 génère de fausses images du pape, l'intelligence artificielle est en train de devenir un vrai
00:28 danger pour les mineurs et en particulier les jeunes femmes.
00:31 Je m'explique.
00:32 Je vous ai déjà parlé des deepfakes à plusieurs reprises, cette technologie qui
00:35 permet de générer des fausses images en remplaçant le visage de quelqu'un sur un
00:38 corps qui n'est pas le sien.
00:39 On les appelle aussi les hyper-trucages.
00:41 Et bien l'une des choses pour laquelle on les utilise le plus, c'est pour créer
00:45 des deepnudes, autrement dit des images pornographiques générées avec le visage d'une personne
00:49 existante mais sur un corps qui ne lui appartient pas.
00:52 Plusieurs stars en ont été victimes, Jennifer Lawrence, Taylor Swift ou encore Emma Watson,
00:56 mais aussi des influenceuses comme Lena Situation ou Juju Fitcats.
01:00 C'est un phénomène très malsain qui, malheureusement, continue à faire son bonhomme de chemin
01:05 sur les réseaux puisqu'aujourd'hui, des milliers de mineurs sont devenus la cible
01:08 de ces deepnudes.
01:09 Mais qu'est-ce qui s'est passé ? Plusieurs histoires.
01:11 En septembre, par exemple, 20 adolescentes espagnoles ont reçu des deepnudes d'elles,
01:15 partagées aussi dans des groupes WhatsApp.
01:17 Ceux qui en sont à l'origine ont repris des photos d'elles qui étaient initialement
01:20 sur leur compte Instagram.
01:21 Des photos d'elles habillées, mais grâce à la magie du numérique, leurs habits ont
01:25 disparu et leurs corps se sont retrouvés sur ceux d'actrices porno.
01:29 Même chose dans un collège de Dallas.
01:30 Des jeunes filles ont aussi été victimes de deepfakes à caractère sexuel qui ont
01:34 été partagées sur Snapchat à des centaines d'autres élèves.
01:37 Pareil dans un lycée du New Jersey, il y a un mois.
01:40 Vous l'avez compris, il y a donc de plus en plus de mineurs victimes de ce phénomène
01:43 très très glauque.
01:44 Imaginez que vous ayez 14 ans, que vous voyez passer une photo de vous truquer, totalement
01:48 nue et hyper sexualisée.
01:50 Une photo partagée à tout votre entourage par la suite.
01:53 Le traumatisme que ça représente.
01:55 Le vrai problème est que créer un deepfake aujourd'hui, on l'a dit, est à la portée
01:59 de n'importe qui.
02:00 Sur Internet, il y a des sites où l'on peut en faire gratuitement.
02:02 Sur son smartphone, il y a des applications qui nous permettent d'en générer.
02:05 Il n'y a pas besoin d'être un petit génie de l'informatique.
02:08 Même un gamin peut le faire.
02:09 D'autant plus que, comme je vous le disais, les photos utilisées sans consentement et
02:13 à l'origine de ces deepfakes sont souvent des photos que les jeunes filles postent elles-mêmes
02:18 sur leurs réseaux sociaux.
02:19 C'est donc très facile d'accès.
02:21 Et puis, il suffit d'une seule photo.
02:23 Pas besoin d'avoir forcément accès à tout le compte Instagram de quelqu'un.
02:26 Même un simple portrait posté sur LinkedIn peut être suffisant.
02:29 Oui, c'est ce que montre aussi un rapport de l'Internet Watch Foundation, publié en
02:35 octobre.
02:36 Il dit qu'effectivement, l'intelligence artificielle est de plus en plus utilisée
02:39 pour créer des deepfakes à caractère pédopornographique.
02:42 Et qu'ils font fureur sur le dark web.
02:44 Des gens s'en échangent par milliers.
02:46 Certains en font même un business et les font payer.
02:49 Je rappelle qu'en France, la loi punie de 5 ans d'emprisonnement et de 75 000 euros
02:52 d'amende la consultation d'images pédopornographiques.
02:55 Mais cette prolifération de deepnews de mineurs montre aussi qu'il faut s'attaquer à la
02:59 source et donc aux logiciels d'intelligence artificielle qui ne sont pas encore encadrés
03:03 par des lois très claires.
03:04 Selon un article de BFM sur le sujet, ces plateformes sont tout de même déjà soumises
03:08 à la loi pour la confiance dans l'économie numérique.
03:10 Elles doivent donc, je cite, « mettre en place un système de signalement de ces contenus
03:14 par les utilisateurs, informer les autorités de ces signalements, rendre public les moyens
03:19 qu'elles consacrent à la lutte contre ces activités illicites et conserver les données
03:23 permettant d'identifier les responsables ». Sauf que la plupart de ces logiciels d'IA
03:28 ne sont pas français, donc pas soumis aux mêmes réglementations.
03:31 Et puis quand il y en a un qui disparaît, un autre apparaît.
03:34 C'est un cercle sans fin.
03:35 Pour beaucoup de spécialistes, il faudrait carrément qu'il y ait des accords internationaux
03:39 qui soient votés car sinon on ne va pas s'en sortir et on ne peut qu'être d'accord avec eux.
03:44 Merci beaucoup Manon, une veille sanitaire.

Recommandations