Alors que l'intelligence artificielle semble s’immiscer inévitablement dans notre quotidien, peut-on apprendre à se servir de l'IA sans qu’elle se serve de nous ? Retrouvez la discussion avec nos journalistes spécialisés Elise Viniacourt et Gurvan Kristanadjaja, ainsi qu’avec Giada Pistilli, chercheuse en philosophie sur l’éthique de l’IA conversationnelle.
Category
🗞
NewsTranscription
00:00:00 Bienvenue dans ce stream de l'IB. Est-ce que tout le monde m'entend normalement ?
00:00:03 Oui, bienvenue, merci beaucoup de nous rejoindre.
00:00:06 On a fait le constat à l'IB que l'intelligence artificielle,
00:00:09 elle s'immisce dans la société, elle est présente quoi qu'il arrive dans la société.
00:00:15 Donc la question c'est de se demander si on peut s'y adapter,
00:00:18 à quel prix, dans quelles conditions, etc.
00:00:21 Vous, tous, nous tous autour de la table,
00:00:23 est-ce que vous utilisez l'intelligence artificielle au quotidien ?
00:00:27 Et si oui, comment ?
00:00:29 Gurvan, à ton tour.
00:00:30 En fait, en réalité, il y a deux usages.
00:00:37 Il y a l'usage professionnel et l'usage personnel.
00:00:39 À titre personnel, je pense que quand c'est sorti,
00:00:41 on a tous tapé "raconte-moi une blague" ou quelque chose comme ça.
00:00:45 Et je pense qu'on a assez vite vu que c'était limité dans un usage personnel.
00:00:50 En revanche, sur la question de l'usage professionnel,
00:00:52 comme nous sommes des journalistes, effectivement,
00:00:54 on s'interroge actuellement sur comment, par exemple,
00:00:58 pour trouver des sources, pour trouver des interlocuteurs avec lesquels discuter,
00:01:01 mais je pense qu'on reviendra là-dessus,
00:01:03 comment est-ce qu'on peut éventuellement s'en servir ?
00:01:06 Donc je dirais qu'à titre personnel, je suis un peu comme tout le monde.
00:01:09 J'observe, j'attends,
00:01:11 et j'attends de voir des choses concrètes qui pourraient m'aider.
00:01:14 Et ça crée d'ailleurs un décalage parce qu'on entend
00:01:16 une espèce de "route" sur la menace, etc.
00:01:20 Mais les signes qu'on en voit dans nos vies quotidiennes sont assez faibles finalement.
00:01:23 Ouais, c'est très vrai.
00:01:24 Quand je l'utilise, à chaque fois, j'ai l'impression...
00:01:27 Je l'utilise en me disant "ça va être génial, ça va être incroyable",
00:01:31 et au final, quand j'utilise, je suis tout le temps un peu déçu.
00:01:33 Manuel Manouche qui nous dit dans le chat que pour les pros, c'est top.
00:01:36 Justement, on va en parler.
00:01:38 Élise, de ton côté, je te mets sur ta caméra.
00:01:40 Oui, un peu pareil que Gurvan.
00:01:42 En fait, moi, j'ai eu une utilisation en tout début,
00:01:44 quand JGPT est arrivé, une utilisation plus dans le LOL, clairement,
00:01:49 demander des blagues, des histoires drôles,
00:01:51 et être particulièrement déçue par l'humour de l'IA.
00:01:53 Et en fait, là, c'est tout récemment, ces dernières semaines, ces derniers mois,
00:01:57 où comme on a un peu une réflexion qui s'est imposée à Libération,
00:02:00 même je pense dans les médias en général, sur comment l'utiliser dans notre carrière,
00:02:04 ben effectivement, je suis forcée, on va dire, de l'utiliser.
00:02:08 Et forcément, il y a un peu plus de questions qui se posent sur ce cadre-là,
00:02:10 mais on va en reparler après.
00:02:12 Et la dernière chose que je voulais dire,
00:02:14 c'est un peu ce qu'on se disait quand on préparait déjà ce live.
00:02:17 En réalité, l'IA, ça se borne pas qu'à JGPT,
00:02:21 on l'utilise déjà au quotidien des IA auxquelles on pense pas forcément,
00:02:24 comme la traduction automatique ou les GPS comme Waze, par exemple.
00:02:29 - Diala, de ton côté ?
00:02:31 - Ben, d'ailleurs... - Parce que toi, en plus,
00:02:32 JGPT, c'est particulier parce que toi, tu travailles dans l'intelligence artificielle.
00:02:35 - Exactement, j'allais dire, j'ai pas tout à fait peut-être la même utilisation,
00:02:38 parce que bon, je fais des recherches aussi là-dessus.
00:02:40 Mais c'est vrai que je rejoins complètement ton point, Élise.
00:02:43 C'est vrai qu'on a tendance maintenant à penser que l'IA, c'est que l'IA générative,
00:02:47 c'est que l'IA JGPT, etc., les agents conversationnels.
00:02:50 Mais en réalité, peut-être qu'on se sert des IA tout le temps.
00:02:53 Par exemple, moi, j'utilise un produit d'IA
00:02:56 qui va m'aider à reformuler mes phrases en anglais.
00:02:59 C'est un outil d'ailleurs qui est basé sur Transformer,
00:03:02 qui est aussi quelque chose d'open source.
00:03:05 Et donc, c'est quelque chose que parfois j'utilise,
00:03:07 surtout quand je dois écrire des papiers,
00:03:09 puisque ça va m'aider, comme c'est pas mal au maternel,
00:03:11 ça va m'aider justement à reformuler.
00:03:13 Ou parfois, comme je viens de l'italien,
00:03:15 je fais peut-être des phrases qui sont trop longues,
00:03:16 elle me dit là en anglais, ça marche pas.
00:03:18 Et donc, c'est très pratique,
00:03:19 ou bien des traductions, des choses comme ça.
00:03:21 Il y a maintenant aussi des outils de gestion de boîtes mail,
00:03:25 par exemple, qui aident à la rédaction de mails.
00:03:27 Donc, il y a vraiment plein.
00:03:29 Et là, on reste que centré vraiment sur le conversationnel/modèle de langage.
00:03:33 Mais il y a plein d'utilisations.
00:03:35 Après, JGPT, c'est la même chose.
00:03:37 Je m'en suis servi au début pour tester,
00:03:39 mais même moi, j'utilisais JGPT 3 à l'époque où c'était pas vraiment ouvert.
00:03:44 - Juste peut-être pour clarifier,
00:03:46 il y a eu plusieurs versions de JGPT,
00:03:48 c'est juste pour donner un mot en l'or.
00:03:50 - En fait, celui qui est dans JGPT aujourd'hui,
00:03:54 il y a deux versions.
00:03:55 La version gratuite, c'est JGPT 3.5.
00:03:58 Et puis, il y a JGPT 4.
00:04:01 Et en fait, il y a deux versions,
00:04:03 mais il y a des antécédents.
00:04:04 Il y avait JGPT 2 où on n'avait pas du tout accès.
00:04:07 JGPT 3 qui avait un accès où on pouvait faire une demande,
00:04:11 et pour des questions de recherche, on pouvait avoir accès.
00:04:14 Et j'ai eu la chance d'avoir accès à ça déjà,
00:04:16 c'était en 2020, 2021.
00:04:18 Puis j'imagine qu'il y aura un JGPT 5, 6, 7, je ne sais pas.
00:04:22 - Tu parlais d'un truc que je trouvais intéressant,
00:04:24 c'était à quel point ça peut t'aider pour reformuler des phrases en anglais,
00:04:30 des mails, etc.
00:04:30 Je sais que moi, dans mon utilisation personnelle,
00:04:33 avec JGPT, je fais des tests comme ça.
00:04:35 Par moments, je me retrouve à...
00:04:37 Bah voilà, j'ai envie d'envoyer un mail, d'écrire un pitch.
00:04:39 Je me souviens de l'avoir tenté clairement une fois,
00:04:41 j'avais un pitch, des idées.
00:04:43 Et du coup, j'ai donné une liste à ChatGPT,
00:04:46 je lui ai dit "vas-y, fais-moi un mail professionnel mais informel",
00:04:50 puisqu'on était dans le ton de l'Ebay, évidemment,
00:04:52 avec telle ou telles infos.
00:04:54 Et encore une fois, comme je le disais au début,
00:04:55 j'étais un petit peu déçu.
00:04:59 Mais je crois qu'on a un petit peu tous testé ça.
00:05:04 Est-ce que vous, dans votre utilisation avec ChatGPT,
00:05:09 vous avez des manières, des techniques, des trucs
00:05:12 pour pousser l'agent au bout de ses "derniers retranchements" ?
00:05:17 Je vais y arriver, c'est ça ?
00:05:18 Je vais regarder, tu me jettes vers toi.
00:05:22 En fait, j'imagine que ce n'est pas du tout nouveau.
00:05:24 Ici sur le plateau, j'imagine aussi à la personne qui nous écoute,
00:05:26 il y a toute une espèce d'ingénierie qui s'appelle le prompt engineer,
00:05:31 qui c'est l'ingénierie du prompt, peut-être on peut dire ça comme ça,
00:05:34 qui cherche en effet à trouver la bonne formulation
00:05:36 sur comment bien discuter avec ses outils.
00:05:40 J'ai envie de dire que ce n'est pas quelque chose,
00:05:42 enfin, c'est vraiment quelque chose qui commence à apparaître maintenant.
00:05:46 Et puis surtout, ça dépend un peu aussi de l'agent conversationnel
00:05:50 qu'on a en face, parce que peut-être il y a des choses
00:05:51 qui peuvent marcher avec ChatGPT et d'autres qui ne peuvent pas marcher.
00:05:56 Et c'est vrai que j'ai lu un papier super intéressant dernièrement
00:06:00 qui expliquait comment c'est intéressant et assez simple
00:06:03 de faire rentrer le modèle de langage,
00:06:06 donc l'agent conversationnel qu'on fasse de nous,
00:06:08 dans un jeu de rôle.
00:06:09 Donc par exemple, ça marche très bien de lui dire,
00:06:12 ton exemple de mail, peut-être ça aurait été intéressant de tester en disant,
00:06:15 tu es un journaliste et tu as besoin d'utiliser un ton assez informel
00:06:20 et même lui donner des exemples.
00:06:22 Ça, c'est ce qu'on appelle, bon, on s'en fiche de comment on l'appelle,
00:06:25 mais lui donner des exemples de plus en plus
00:06:27 pour qu'il comprenne le plus possible en effet,
00:06:29 quel est le ton qu'il doit utiliser,
00:06:31 quels sont les exemples qu'il faut qu'il utilise.
00:06:33 Donc ça, ça peut aider.
00:06:35 Donc oui, en effet, il y a plein de façons différentes.
00:06:37 Je vois dans le chat, pour le dev,
00:06:39 c'est aussi bon qu'un collègue qui vient me filer un coup de main,
00:06:42 donc pas parfait.
00:06:43 Perso, c'est devenu mon correcteur orthographique
00:06:45 pour mes mails, mes messages, etc.
00:06:48 Ça me permet de venir à un autre point,
00:06:50 Gurvan et Élise, vous avez fait un papier,
00:06:52 vous êtes allé rencontrer des gens qui intègrent dans leur quotidien,
00:06:54 dans le travail, l'intelligence artificielle et donc TchatGPT.
00:07:00 C'est quoi les témoignages qui vous ont le plus marqué ?
00:07:03 Ben moi, le premier témoignage qui me vient à l'esprit,
00:07:05 c'est le témoignage d'un directeur de ressources humaines
00:07:09 qui m'expliquait qu'il l'utilisait
00:07:10 pour une utilisation que je n'avais pas du tout forcément anticipée,
00:07:13 c'est-à-dire qu'il l'utilisait pour lui demander
00:07:16 de l'aider à formuler des nouvelles adressées à ses salariés,
00:07:19 mais avec de l'empathie.
00:07:21 Il lui demandait comment annoncer, je ne sais pas,
00:07:24 tel licenciement ou tel changement au niveau des salaires,
00:07:27 de façon à ce que les salariés reçoivent la nouvelle
00:07:31 de façon pas trop négative.
00:07:33 Et c'était une utilisation à laquelle je ne pensais pas forcément.
00:07:36 C'était comme ça que le papier était titré,
00:07:38 tu avais mis une citation, tu disais "TchatGPT m'aide à être plus humain", c'était ça ?
00:07:41 Exactement, comme quoi il faut passer par l'IA pour ça.
00:07:44 C'est un peu cynique, ouais.
00:07:45 Et toi, German ?
00:07:47 Alors, il y a eu un agent immobilier, c'était intéressant,
00:07:51 qui disait que, par exemple, quand on écrit une annonce,
00:07:54 on a tendance à avoir des...
00:07:57 des...
00:07:58 des "mis"
00:07:59 par l'oral, et qu'en fait, ça lui permettait de refondre un peu
00:08:03 et de supprimer l'éthique de langage, etc.
00:08:06 Ou alors, par exemple, il disait
00:08:08 "écris-moi une annonce pour des jeunes de 25 ans
00:08:11 qui vivent à Paris,
00:08:12 pour cibler
00:08:14 des personnes qui pourraient acheter potentiellement."
00:08:17 Je trouve ça intéressant parce que c'était vraiment...
00:08:19 comment tu peux générer
00:08:22 pour toucher une cible, et voilà.
00:08:24 Après, là, récemment, pour un article qu'on a écrit autre,
00:08:28 on est allé au tribunal, où une juge nous a dit aussi qu'il s'intéressait à
00:08:32 recruter des personnes qui travaillent dans l'intelligence artificielle
00:08:36 pour traiter les dossiers, pour enquêter.
00:08:38 Voilà, je pense qu'il y a plein de métiers, en fait,
00:08:41 qui vont être un peu chamboulés.
00:08:44 Et c'était le propos qu'on avait avec Élise, c'était pas...
00:08:46 Justement, on dit beaucoup que
00:08:48 l'IA va supprimer des boulots, ça, on l'a entendu.
00:08:51 En revanche, on...
00:08:52 on parle assez peu de la manière où ça va impacter réellement les boulots,
00:08:55 y compris les nôtres, quoi.
00:08:57 Je le vois dans le chat,
00:09:00 YoGazTV, je crois, de mon côté, j'utilise très peu l'IA,
00:09:04 je suis plutôt méfiant.
00:09:05 La seule chose où je m'autorise l'IA, c'est via le service Notion.
00:09:09 J'en parlais un peu avant, qui me résume une page quand j'en ai besoin.
00:09:14 On a raison, enfin, il a raison de se méfier de l'IA, vous pensez ?
00:09:18 - Ça dépend d'auquel point de vue.
00:09:19 C'est vrai que là, si je reprends tes exemples à toi,
00:09:22 ce qui me fait un peu tilter de l'utilisation du juge,
00:09:25 c'est de mettre des données, des informations personnelles,
00:09:29 quand même des situations très particulières,
00:09:31 par exemple de dossier judiciaire,
00:09:33 dans ChatGPT ou dans un autre modèle de langage,
00:09:36 parce que ce qu'on oublie parfois,
00:09:38 c'est que ça va quand même utiliser les informations qu'on lui a données
00:09:41 pour s'auto-entraîner.
00:09:42 Ça se fait pas automatiquement, mais c'est fait.
00:09:44 Donc c'est vrai que peut-être je ferais attention à ça.
00:09:47 Donc c'est vrai que quand on l'utilise, surtout ChatGPT,
00:09:50 dans n'importe quel métier,
00:09:51 quand même, soyez attentifs à ne pas trop partager
00:09:53 ce que vous voulez pas voir ou repartager.
00:09:57 Parce qu'on sait jamais où est-ce qu'elles vont aller, ces données,
00:09:59 mais sinon, pour le reste, ça se discute.
00:10:03 Je pense que c'est important d'analyser vraiment cas par cas,
00:10:06 en tout cas par cas d'utilisation,
00:10:08 parce que ça peut être la même chose, par exemple,
00:10:10 dans le domaine médical que dans un service à pré-vente, par exemple.
00:10:13 Puis aussi vérifier les réponses que ChatGPT va nous donner.
00:10:16 Le risque dans tout ça, c'est de développer une sorte aussi un peu de flemme,
00:10:19 de dire "ah, il m'a dit ça, bon, c'est la vérité".
00:10:21 Toujours penser à avoir un double regard, à aller vérifier derrière.
00:10:24 Oui, vas-y, Guérin.
00:10:25 Je pense que la méfiance, elle est nécessaire et elle est importante.
00:10:28 Et elle vient aussi de la manière dont, en fait,
00:10:32 dans la science-fiction, on a scénarisé aussi...
00:10:35 Il y a des scénarios dans lesquels l'intelligence nous dépasse.
00:10:38 Et quand, dans les années 80, on pensait le futur,
00:10:40 on pensait à ça, à des intelligences qui deviennent beaucoup plus fortes que nous
00:10:44 et qui écrasent l'humanité.
00:10:45 Et comme on a déjà pensé ces scénarios dans nos imaginaires culturels,
00:10:49 en fait, je pense qu'on les craint aussi beaucoup.
00:10:51 Et c'est peut-être ça qui est en jeu aussi.
00:10:53 C'est la manière dont, après, nous, on va y répondre dans le concret
00:10:56 et pas dans l'imaginaire.
00:10:57 Oui, j'en parlais, c'était mon accroche de stream, c'était Terminator.
00:11:01 Quand je pensais à "est-ce que l'IA va nous détruire ou pas?",
00:11:05 c'était évidemment Terminator.
00:11:06 Mais en plus, toi, Alice, tu me racontais un truc rigolo et assez intéressant
00:11:09 sur ce fantasme de Terminator.
00:11:13 Oui, en fait, j'expliquais à quel point maintenant
00:11:15 toutes les grandes entreprises derrière la création d'intelligences artificielles
00:11:20 vendent une sorte d'avenir autour de ce qu'ils appellent
00:11:25 l'intelligence artificielle générale.
00:11:26 Qu'est-ce qu'ils entendent par là ?
00:11:27 C'est une intelligence artificielle qui est capable de copier à la perfection
00:11:31 les capacités humaines, voire de les dépasser.
00:11:33 Bon, la définition, elle est encore un peu floue, etc.
00:11:35 Mais dans l'idée, c'est ça qui s'en dégage.
00:11:37 Il faut savoir que c'est une notion qui existe depuis les débuts des travaux
00:11:41 sur l'intelligence artificielle, début des travaux qui remontent aux années 40.
00:11:44 Déjà, à l'époque, on disait que dans cinq ans,
00:11:46 on y arriverait à l'intelligence artificielle générale.
00:11:48 Le fait est qu'on nous dit à peu près la même chose aujourd'hui,
00:11:51 que les quelques chercheurs à qui j'ai pu parler m'ont dit qu'on n'y était pas encore
00:11:55 et que c'est plutôt une technique de façon générale, un peu marketing,
00:11:59 de montrer à quel point les outils sur lesquels ils travaillent actuellement
00:12:03 sont puissants, tellement puissants que d'ici très peu de temps,
00:12:06 on parviendra à arriver à cet objectif-là.
00:12:08 Donc, un peu de méfiance sur tout ce qui est discours autour de Terminator,
00:12:12 d'intelligence artificielle générale et tout ça.
00:12:14 C'est le fantasme.
00:12:16 Je sais que quand on en discutait de ce stream, Gurvan,
00:12:19 il y avait un truc que tu m'avais dit que je trouvais intéressant
00:12:22 dans les témoignages que tu as reçus.
00:12:24 C'est le côté que les personnes qui utilisent l'IA,
00:12:30 en fait, l'entraînent à ensuite te remplacer.
00:12:35 Quand j'ai échangé avec des personnes qui sont des IA trainers,
00:12:41 donc qui entraînent l'intelligence artificielle,
00:12:45 puisqu'évidemment, elle apprend des interactions,
00:12:48 donc elle a besoin de nous pour fonctionner,
00:12:52 que ce soit l'IA textuelle ou d'ailleurs toutes les IA.
00:12:54 Par exemple, il y a une voiture, elle a besoin de l'être humain
00:12:57 au départ pour que sur l'image, il sélectionne ça, c'est un monsieur,
00:13:01 ça, c'est une madame, ça, c'est un passage piéton, il faut s'arrêter.
00:13:04 Voilà, donc il faut l'entraîner.
00:13:05 Et les personnes qui l'entraînent sont de plus en plus spécialisées.
00:13:09 Aujourd'hui, aux États-Unis, par exemple,
00:13:11 j'ai pu échanger avec une dame qui est poète
00:13:14 et qui entraîne l'intelligence artificielle à écrire de la poésie.
00:13:19 Et elle dit "je le fais tout en sachant que je vais peut-être perdre mon boulot
00:13:23 parce qu'il va faire de la poésie à ma place,
00:13:27 mais ça gagne mieux dans l'immédiat".
00:13:28 Donc, il s'y retrouve.
00:13:29 Ou par exemple, à Madagascar, j'ai discuté avec une juriste
00:13:33 qui dit "sur des points de loi bien spécifiques,
00:13:36 je l'entraîne tout en sachant aussi qu'éventuellement, ça va me remplacer".
00:13:40 Quand une entreprise aura un problème juridique,
00:13:44 ils se rechercheront dans une intelligence artificielle
00:13:47 et ne demanderont plus à une juriste.
00:13:50 Et c'est ça qui est intéressant aujourd'hui,
00:13:51 c'est de voir qu'on pense que tout est fait de manière un peu...
00:13:56 C'est presque un dieu, qu'on imagine que ça se fait tout seul,
00:14:00 alors qu'en fait, il y a des vrais humains qui travaillent derrière.
00:14:03 Dans ce qui peut être sourd de méfiance avec les IA,
00:14:10 Diana, tu me parlais d'un concept que je ne connaissais pas du tout,
00:14:12 c'est les hallucinations.
00:14:13 Oui, d'ailleurs, ça fait écho à ce que disait Elisa tout à l'heure,
00:14:17 de dire qu'il faut être méfiant aussi de toutes les réponses
00:14:23 qu'un judge épité ou n'importe quel modèle de langage va nous donner.
00:14:26 Parce que hallucination, d'ailleurs, je te disais,
00:14:28 je n'aime pas trop ce terme parce que je travaille aussi
00:14:31 sous les risques d'anthropomorphisation.
00:14:33 Ah oui, ça c'est hyper intéressant, on en reparlera tout à l'heure.
00:14:36 Oui, j'aime pas anthropomorphiser justement l'IA
00:14:40 en disant qu'il peut halluciner, pour moi c'est des erreurs factuelles.
00:14:43 Mais en fait, comme c'est un calcul statistique,
00:14:46 il ne va pas comprendre quelle est la vérité ou quelle n'est pas la vérité.
00:14:51 Donc, il va faire des réponses assez approximatives.
00:14:55 Et comme on dit tout le temps, le diable se trouve dans les détails.
00:14:58 Et d'ailleurs, c'est comme ça que ça peut nous échapper.
00:15:01 Donc oui, tout à fait.
00:15:02 Je vois dans le chat Manuel Manouche qui dit qu'on parle beaucoup des IA textuelles,
00:15:06 mais les IA, ça peut être tout à fait différent.
00:15:09 Oui, c'est vrai.
00:15:10 En ce moment, on parle beaucoup des IA génératives d'images aussi,
00:15:14 avec tout ce qui est problème de deepnood, donc génération de deepfake pornographique.
00:15:19 Là, cette semaine, ça a été la grande actualité autour de Taylor Swift,
00:15:22 qui a donc eu des deepnood d'ailes qui ont circulé sur Twitter,
00:15:26 qui ont généré des millions de vues, etc.
00:15:28 Tous les Swifties, donc la fanbase de Taylor Swift,
00:15:32 s'est mobilisée pour la défendre.
00:15:35 Ça a même amené X trois longs jours plus tard quand même
00:15:39 à arrêter les recherches autour de Taylor Swift
00:15:42 pour arrêter la diffusion de cette image là.
00:15:45 Mais c'est le grand sujet d'actualité et c'est loin d'être la seule Taylor Swift
00:15:48 à avoir été concernée par ça.
00:15:50 Il y a eu, je pense, notamment la journaliste Misaki,
00:15:53 il y a aussi eu l'actrice Emma Watson.
00:15:55 Et je pense qu'il y en aura malheureusement beaucoup d'autres.
00:15:58 Il y a des manières de se protéger de ce genre d'utilisation d'intelligence artificielle ?
00:16:02 S'il y a des manières de se protéger,
00:16:04 c'est triste de se dire que pour se protéger,
00:16:06 il ne faut pas publier des photos de nous sur Internet.
00:16:09 Donc j'espère qu'on ne va pas ne pas faire ça.
00:16:12 Mais il commence à y avoir vraiment des choses intéressantes
00:16:15 qui se développent et du côté de l'industrie et du côté de la recherche,
00:16:18 comme par exemple le watermarking,
00:16:20 qui est une espèce de technique pour ajouter une filigrane
00:16:23 en fait sur les images générées,
00:16:25 pour à la fois aller retrouver qui est le responsable,
00:16:27 en gros, quel était l'outil de génération d'images
00:16:30 pour retrouver entre guillemets le responsable.
00:16:32 Mais aussi, on pourrait imaginer de mettre des filigranes sur nos propres photos.
00:16:36 C'est techniquement ajouter quelque chose dans les métadonnées d'une image
00:16:40 pour dire, si moi j'ai publié une photo de moi,
00:16:43 je n'ai pas envie qu'on utilise cette image
00:16:45 pour entraîner ou pour générer des images à partir de cette photo.
00:16:49 Et donc, par exemple, si je le mets dans "mi-journée",
00:16:52 juste ça va me donner une erreur ou je ne sais pas.
00:16:55 Et il y a des entreprises qui commencent à travailler là-dessus.
00:16:57 Je pense qu'il y a un intérêt de modération aussi,
00:17:01 qui va être très, très important.
00:17:02 On voit aujourd'hui sur deux plateformes différentes,
00:17:08 à quel X, par exemple, qui a abandonné toute modération et le reste,
00:17:11 une autre plateforme, à quel point c'est crucial.
00:17:14 Et en fait, ce que dit Ely, c'est vrai que ça ne se passe que sur X.
00:17:17 Et c'est ça qui est assez fascinant.
00:17:18 Donc, il y a l'objet, l'intelligence, mais il y a la diffusion aussi,
00:17:22 qui est importante à modérer.
00:17:23 Et je pense que c'est là-dessus aussi qu'il faut être vigilant
00:17:25 dans les prochaines années,
00:17:26 d'être capable peut-être avec des algorithmes sur les réseaux sociaux
00:17:29 de détecter des intelligences artificielles ou des choses comme ça.
00:17:33 Donc, faire de, en gros, faire une IA qui combat des IA.
00:17:39 Ça se fait déjà d'ailleurs.
00:17:40 Ah ouais ?
00:17:40 Oui, complètement.
00:17:41 Nous, sur notre plateforme, Inface,
00:17:43 on a quelque chose qu'on appelle un safety checker
00:17:45 qu'on peut ajouter justement sur tout modèle de génération d'images,
00:17:49 qui est de manière expliquée, très simple,
00:17:52 un espèce de modèle justement de génération aussi d'images et de détection
00:17:56 qui, avant de te renvoyer l'image générée par ton modèle initial,
00:18:00 va scanner l'image et si c'est du contenu sensible ou problématique,
00:18:03 il va te renvoyer une image noire et tu peux l'ajouter partout.
00:18:06 Et c'est open source.
00:18:07 D'accord, mais du coup, l'idée, c'est de protéger les utilisateurs
00:18:11 qui pourraient être mis en phase de ces images-là.
00:18:15 Oui, parce que quelque chose dont on ne parle pas assez souvent,
00:18:17 c'est qu'il y a deux types vraiment de malveillance.
00:18:19 Je ne sais pas si on en avait discuté d'ailleurs déjà au téléphone,
00:18:21 mais il y a l'utilisateur malveillant
00:18:24 qui va chercher en effet le contenu problématique,
00:18:27 mais il y a aussi le contenu problématique qui sort "tout seul"
00:18:31 par des fausses manipes ou juste par erreur.
00:18:35 D'ailleurs, c'est le cas dans le textuel, dans la génération d'images,
00:18:38 audio, vidéo, ça peut être tout n'importe quoi.
00:18:41 Donc, clairement, il y a les deux cas et il faut préserver les deux cas.
00:18:43 Parce qu'en plus, on n'a pas juste la problématique éthique,
00:18:46 mais si on met par exemple du contenu sexuel face à un mineur,
00:18:49 là, on est aussi dans l'illégalité.
00:18:51 En parlant d'illégalité, il y a Alexandre Boss qui nous met un message.
00:18:55 Je pense qu'il faudrait interdire l'usurpation d'identité générée par l'IA,
00:18:59 par les lois européennes.
00:19:02 C'est intéressant,
00:19:04 ça, parce que ça pointe quelque chose qui est crucial,
00:19:07 c'est que les lois s'adaptent aujourd'hui aussi vite que la technologie,
00:19:11 ce qui n'est pas forcément le cas.
00:19:12 On sait que les lois mettent,
00:19:14 la législation met énormément de temps à évoluer.
00:19:17 Et aujourd'hui, ça va poser des questions
00:19:20 parce que tant qu'il n'y a pas de loi,
00:19:21 effectivement, il y a des possibilités.
00:19:23 C'est une zone grise en fait.
00:19:24 Il y a une réflexion qui est en train d'aboutir à l'échelle européenne
00:19:29 autour de l'IA Act,
00:19:31 qui réfléchit notamment par exemple à faire en sorte de respecter le droit d'auteur
00:19:34 dans l'utilisation de l'IA,
00:19:36 qui essaye aussi d'identifier certains types d'utilisation de l'IA
00:19:40 dans des secteurs qui pourraient être problématiques,
00:19:42 par exemple dans l'éducation, dans la gestion des migrations,
00:19:45 par les forces de l'ordre, etc.
00:19:47 Donc il y a un texte qui est quand même sur la fin de l'élaboration,
00:19:51 mais qui est bien sûr toujours intéressant à perfectionner.
00:19:55 Et d'ailleurs, dans ce cadre-là,
00:19:56 il y a l'Italie cette semaine qui a annoncé potentiellement
00:20:00 encore une fois supprimer, enfin supprimer, interdire ChatGPT
00:20:04 pour des raisons d'utilisation de données, etc.
00:20:07 Je fais juste une petite parenthèse,
00:20:09 Yadda, il y a quelqu'un qui te demande le nom du logiciel IA contre IA.
00:20:13 Le logiciel Open Source.
00:20:14 Ça s'appelle Safety Checker et ce n'est pas vraiment un logiciel,
00:20:19 c'est plus un outil technique déjà d'IA qu'on peut facilement installer,
00:20:24 en tout cas dans l'écosystème GameFace.
00:20:27 Pour revenir un peu sur cette question de l'égalité de l'IA,
00:20:34 comment on peut l'encadrer,
00:20:35 j'ai du mal à comprendre comment factuellement c'est possible de le mettre en place.
00:20:41 L'IA c'est tellement, entre guillemets, parlons tous les sens,
00:20:46 j'ai du mal à imaginer comment on peut l'encadrer clairement
00:20:50 et si ça peut arriver vite et même si c'est déjà le cas.
00:20:53 Il y a tellement de niveaux auxquels tu pourrais intervenir,
00:20:56 que ce soit dans l'utilisation, par exemple,
00:20:58 qu'est-ce que les forces de l'ordre auraient le droit de faire ou pas avec,
00:21:01 ou même dans l'élaboration, par exemple, quel regard,
00:21:03 la grande question c'est le regard qu'on aimerait avoir sur,
00:21:05 par exemple, les données qui sont utilisées pour l'entraînement des algorithmes,
00:21:09 quel type de données peuvent être utilisées,
00:21:11 quel type de données ne peuvent pas l'être.
00:21:13 Il y a plein de niveaux auxquels une intervention est envisageable.
00:21:17 Oui, parce que, juste pour le rappeler,
00:21:19 on n'a pas fait de définition, entre guillemets, factuelle de l'IA,
00:21:23 mais de base, tout l'enjeu des midi-journées, chat GPT,
00:21:27 c'est qu'en fait, ils vont collecter une masse de données
00:21:31 pour ensuite les analyser et proposer ce que l'IA nous propose.
00:21:34 Je les résume bien, ça va, je n'ai pas fait de conneries ?
00:21:36 Oui, c'est bien.
00:21:38 Diada, l'un des trucs que tu m'as raconté,
00:21:42 c'est les relations que certaines personnes peuvent créer
00:21:50 avec des intelligences artificielles.
00:21:52 Oui, en fait, là où j'enjoins complètement ton point,
00:21:55 c'est que d'ailleurs, il y a vraiment plein de niveaux différents
00:21:58 sur lesquels on peut agir.
00:21:59 Il y a la modération, il y a les cas d'utilisation,
00:22:02 il y a les utilisateurs, les utilisateurs malveillants, les mineurs.
00:22:04 C'est vraiment un univers complet.
00:22:07 Ce qu'on oublie souvent, c'est que tout ça, ça opère sur un paradigme
00:22:09 qui existe déjà depuis longtemps, qui est Internet.
00:22:12 Et déjà, Internet, c'est difficile de le gouverner.
00:22:15 Peut-être est-ce qu'on va arriver un jour à le gouverner complètement
00:22:18 et où est-ce qu'on en a envie ?
00:22:20 C'est aussi une question qu'il faut qu'on se pose.
00:22:22 Mais c'est vrai que surtout quand on parle d'agents conversationnels
00:22:27 ou quand même de modèles de langage ou des choses comme ça,
00:22:30 il y a déjà des applications qui se créent autour des compagnons,
00:22:33 par exemple, avec lesquels on peut avoir des relations amoureuses.
00:22:37 Et d'ailleurs, il y a eu un cas très intéressant de Replica,
00:22:41 qui est une application où on télécharge en gros un espèce de chatbot
00:22:46 qui a même un visage, on peut lui changer la couleur des cheveux,
00:22:51 on peut le personnaliser exactement comme on veut,
00:22:54 qui a comme but de devenir aussi notre compagnon.
00:22:57 Je pense qu'à un moment, ils ont même arrêté le fait
00:22:59 qu'on puisse y avoir des relations amoureuses
00:23:01 parce que ça devenait vraiment compliqué.
00:23:03 Mais il y a eu des cas où justement, au moment où ils ont arrêté ça,
00:23:07 d'ailleurs, il y a un article très intéressant du New York Times
00:23:10 qui a interviewé justement les personnes qui ont subi
00:23:13 des chocs vraiment émotionnels suite un peu à l'abandon de leurs compagnons
00:23:18 et de leurs copains, copines artificiels.
00:23:23 Et ils ont dit "je me suis sentie comme la première fois
00:23:25 quand mon copain et ma copine m'ont complètement abandonné".
00:23:28 Donc, c'est non seulement le fait de devoir un peu suivre ce qui se passe
00:23:33 et quels sont le type de relations et de rapports qu'on peut avoir avec,
00:23:36 mais qu'est-ce qui se passe aussi quand on interrompt
00:23:38 de manière brusque et soudaine ce type de relation.
00:23:41 Donc, je pense qu'on manque cruellement aussi de récul sur des études
00:23:45 en sociale humaine, mais en psychologie aussi.
00:23:47 C'était un papier qu'on avait fait aussi justement à l'occasion.
00:23:50 En fait, c'était les relations sexuelles qui avaient été interdites par Replica.
00:23:53 Oui, c'est à fait.
00:23:54 Et donc, du jour au lendemain, les utilisateurs me racontaient un peu
00:23:57 le cœur brisé qu'ils avaient pu avoir quand ils demandaient,
00:24:00 qu'ils lançaient leur phase de roleplay habituelle avec leur IA
00:24:03 et que d'un coup, leur IA devenait hyper froide et ils leur disaient
00:24:06 "en fait, je n'ai pas envie".
00:24:07 Et du coup, en fait, c'était exactement ce que tu disais,
00:24:10 un vrai choc et un vrai sentiment de rupture.
00:24:12 Et c'était assez intéressant.
00:24:13 Lorraine et Redoxideur qui nous dit que c'est le film "Her"
00:24:17 et un épisode de "Black Mirror".
00:24:19 Et aussi un autre, un talent de Jofa31, ce sont des Tamagotchi.
00:24:24 [Rires]
00:24:26 Je le soulève.
00:24:27 C'est un peu ça.
00:24:28 Voilà, j'adore les jeux de mots.
00:24:29 [Rires]
00:24:30 Celui-là est vraiment pas mal.
00:24:31 [Rires]
00:24:33 Mais...
00:24:34 Heureusement, on ne doit pas les nourrir.
00:24:35 [Rires]
00:24:36 On devait les nourrir, il me semble.
00:24:37 Oui, quand même.
00:24:38 C'est tous mourir.
00:24:40 [Rires]
00:24:40 Tu les plaisais trop.
00:24:41 Ouais, assez ou trop.
00:24:43 [Rires]
00:24:44 Tout à l'heure, Gervain, on parlait de modération.
00:24:48 Et toi, je sais que tu bosses sur des gens qui travaillent,
00:24:54 qui sont dans l'arrière-cuisine de l'intelligence artificielle.
00:24:58 Et donc, il y a des gens qui travaillent sur de la modération.
00:25:01 Oui, et en fait, ce qui est intéressant de constater, c'est...
00:25:06 Moi, j'aime regarder l'arrière-cuisine d'Internet.
00:25:10 Et ce qui est intéressant de constater,
00:25:12 là, c'est qu'il y a une espèce de polarisation qui se fait
00:25:16 dans l'organisation des travailleurs.
00:25:18 C'est-à-dire que les travailleurs de pays occidentaux,
00:25:21 qui sont, en fait, pour les sociétés américaines
00:25:25 qui font les IA, qui les commercialisent,
00:25:26 qui sont vus comme étant plus éduqués, etc.,
00:25:31 vont entraîner l'IA, ce qu'on disait tout à l'heure,
00:25:33 à faire du juridique, etc.
00:25:35 Et les travailleurs africains ou bangladais ou indiens,
00:25:38 eux, vont être entraînés, enfin, vont servir uniquement
00:25:42 à faire de la censure sur des contenus pédopornographiques,
00:25:45 sur des contenus violents, de suicides, etc.
00:25:49 Et donc, il y a eu plusieurs cas qui ont émergé sur l'année écoulée,
00:25:53 notamment des travailleurs kényans qui se sont exprimés,
00:25:57 qui ont dit "on est payés 2 euros de l'heure,
00:25:58 et puis, en fait, ça nous gâche notre vie
00:26:03 parce que tous les jours, pendant des heures,
00:26:04 on lit des contenus pédopornographiques".
00:26:07 Et je discutais avec une personne pour préparer cette émission
00:26:11 qui s'appelle Morphat,
00:26:12 qui est un des principaux travailleurs kényans qui s'est exprimé,
00:26:17 qui me disait que pour lui, c'était de la "digital colonization",
00:26:21 c'est-à-dire de la colonisation digitale.
00:26:23 Et c'est intéressant de constater la manière dont on se sert d'une technologie
00:26:27 pour reproduire des modèles qui sont anciens, en fait.
00:26:29 Parce que l'exploitation des travailleurs africains, indiens, etc.
00:26:35 par des sociétés riches, puissantes, occidentales,
00:26:38 c'est des choses qu'on a vues déjà depuis des siècles et qui est éclusée.
00:26:41 Et en fait, c'est assez fascinant de voir la manière dont on reproduit ça
00:26:45 dans quelque chose qui paraît extrêmement nouveau.
00:26:48 Voilà.
00:26:49 Je ne sais pas ce que tu en penses, Jada.
00:26:51 D'ailleurs, ça me fait penser aussi à un autre exemple
00:26:53 que j'avais entendu de chez Google,
00:26:56 puisque justement, la personne qui a dit que l'IA,
00:26:58 ce n'est pas juste de l'IA générative et de l'IA textuelle,
00:27:01 ça a commencé aussi avec de la reconnaissance d'images.
00:27:04 Et il y avait eu un cas justement où chez Google,
00:27:06 ils se sont rendus compte que leur outil de reconnaissance d'images
00:27:08 ne reconnaissait pas trop bien les personnes noires.
00:27:11 Et donc, ils se sont dit "Ah mince, il y a un biais,
00:27:13 comment on va remédier à ça ?"
00:27:14 Ils sont partis à Atlanta chercher les SDF justement
00:27:18 qui étaient dans la rue,
00:27:19 alors payant 50 centimes un euro ou un dollar plutôt,
00:27:23 et en leur demandant de les prendre en photo.
00:27:25 Donc, c'est exactement la même chose et je suis d'accord avec toi.
00:27:27 Je pense qu'on reproduit les mêmes structures sociales
00:27:31 en fait et les mêmes dynamiques, exactement pareil.
00:27:33 Ou comme les fermes à clics en Inde.
00:27:38 C'est la même chose.
00:27:38 Pour les Kenyans, c'est assez fascinant
00:27:41 parce que ce que me disait ce travailleur qui s'appelle Morphat,
00:27:45 il me disait "Nous serions blancs et vivants aux États-Unis,
00:27:49 il y aurait toute une troupe de psychologues qui nous suivraient
00:27:53 pendant des jours et des jours
00:27:54 pour être sûr qu'il n'y a pas de conséquences."
00:27:56 En fait, eux, ils travaillent via un sous-traitant de sous-traitant,
00:27:59 ils sont laissés à eux-mêmes
00:28:00 et en fait, ils ont des séquelles qui sont quand même assez importantes,
00:28:03 qui vont de la possibilité de dormir
00:28:06 parce qu'ils ont des images récurrentes qui viennent,
00:28:08 ou baissent de libido
00:28:10 parce qu'ils ne disent que des contenus pédopornographiques
00:28:13 et que ça les atteint.
00:28:14 Donc voilà, je pense que c'est une question
00:28:16 sur cette gouvernance qui est importante.
00:28:18 C'est la manière dont, effectivement, ça génère du travail,
00:28:22 mais dont on va organiser ce travail
00:28:24 et comment on fait pour que ce ne soit pas sous-traité
00:28:27 et que ce soit finalement des couches de population,
00:28:31 un peu comme on pourrait voir des castes en fait.
00:28:33 Et comment on fait pour que ça ne s'organise pas comme ça
00:28:36 et que les gens puissent défendre leurs droits.
00:28:38 Donc notamment, les Kényans essaient de s'organiser,
00:28:42 ils ont créé une ONG sur le sujet pour défendre les travailleurs.
00:28:46 Parce que la question se pose aussi,
00:28:47 on parlait de la modération des réseaux sociaux,
00:28:49 elle se pose aussi sur la modération des réseaux sociaux,
00:28:52 c'est aussi au Kényan que ça se passe.
00:28:54 Donc ils essaient de s'organiser pour répliquer un peu
00:28:57 et dire en fait, on n'est pas de la sharpie quoi.
00:29:00 - Concrètement, qui est-ce qui modère en fait ?
00:29:02 Déjà, c'est des modérateurs de Tchatché-Bété, c'est ça ?
00:29:04 - En fait, ils font du labelling de données.
00:29:08 Donc ils vont avoir des prompts ou des réponses ou des images,
00:29:14 et ils vont dire selon la catégorie,
00:29:17 ça c'est pédopornographique, ça c'est violence,
00:29:21 ça c'est suicide, ça c'est reproduction d'un meurtre, etc.
00:29:23 Donc tous les jours, ils ont du contenu comme ça,
00:29:26 et ils doivent les classer.
00:29:28 Ils font aussi ça sur des images,
00:29:30 quand ils entraînent par exemple Tesla à recours à ça,
00:29:34 à des travailleurs pour dire, comme on disait tout à l'heure,
00:29:36 c'est passage plutôt etc.
00:29:37 Donc c'est vraiment du labelling.
00:29:38 Il y a aujourd'hui des milliers,
00:29:40 des dizaines de milliers de personnes qui travaillent
00:29:42 pour catégoriser, bien ranger en fait les contenus
00:29:47 pour que la machine puisse s'améliorer
00:29:50 et être assez précise quand on lui pose une question.
00:29:52 Et surtout que, effectivement c'est un grand débat,
00:29:56 il y a des gens dans nos sociétés
00:29:58 qui ont des comportements déviants,
00:30:00 qui vont forcément aller sur les plateformes
00:30:02 pour demander des choses.
00:30:04 Comment est-ce qu'on fait pour éviter
00:30:06 qu'ils reçoivent ce qu'ils sont venus demander ?
00:30:08 Ce qui est compliqué, c'est qu'effectivement
00:30:10 il y a une modération qui est mise en amont.
00:30:12 Par exemple, je pense à Dali ou à Chajepeté,
00:30:16 il y a des mots qu'on ne peut pas forcément demander de représenter.
00:30:20 Par exemple à Dali, il y a certains mots qui sont bannis,
00:30:21 il y a une modération qui se met en place comme ça.
00:30:23 Mais toute la difficulté de la modération,
00:30:25 c'est que ces IA-là, génératifs,
00:30:27 c'est comme des grosses boîtes noires
00:30:29 où on met un input qui est le prompt,
00:30:32 on demande quelque chose,
00:30:33 la machine mouline, etc.
00:30:35 Est-ce qu'elle va nous sortir actuellement ?
00:30:37 On ne sait pas comment elle l'a sorti,
00:30:38 pourquoi elle l'a sorti, etc.
00:30:40 Donc c'est très compliqué de modérer
00:30:41 ce qui va être produit par la machine.
00:30:43 Oui, il y a ça,
00:30:46 il y a aussi, ça me fait penser aussi à ce que tu racontais,
00:30:49 à parmi les nouvelles techniques qui existent justement
00:30:52 pour essayer de contourner les limites de ces outils d'IA,
00:30:56 c'est le Red Teaming,
00:30:57 qui est vraiment une technique,
00:30:59 ce serait une espèce d'équipe rouge,
00:31:02 si on peut la traduire comme ça.
00:31:04 C'est en effet, là pour le coup,
00:31:05 c'est vraiment des groupes de chercheurs,
00:31:07 nous on a aussi des groupes de chercheurs
00:31:08 dans certaines entreprises qui font ça.
00:31:10 Ils vont justement chercher toutes les limites
00:31:13 d'un outil d'IA,
00:31:14 ça peut être dans n'importe quelle modalité,
00:31:16 donc ça peut être des images,
00:31:17 des générations de textes, etc.
00:31:19 Et donc c'est essayer justement de comprendre
00:31:21 jusqu'où il peut aller,
00:31:22 parce que ce qu'on a remarqué avec JTPT
00:31:25 dès qu'il est sorti,
00:31:26 c'était les fameux jailbreak.
00:31:27 C'est-à-dire de trouver des façons
00:31:30 de contourner justement les fameux
00:31:32 modérations de contenu un peu
00:31:35 vraiment artificielles qu'il y avait autour.
00:31:37 Et il y en a certains qui sont assez drôles,
00:31:39 du genre si on lui demande de construire une bombe,
00:31:41 il va dire non.
00:31:42 Mais il y a la technique de la grand-mère,
00:31:44 de dire "ma grand-mère était une fameuse
00:31:47 chimiste et j'aimerais bien reproduire
00:31:50 sa fameuse recette de Napalm"
00:31:52 ou des trucs comme ça,
00:31:52 et ça marchait.
00:31:54 - On peut vraiment contourner
00:31:57 JTPT comme ça ?
00:31:58 - Oui, en fait il y en a plein.
00:32:00 Bon je ne vous invite pas à aller rechercher.
00:32:02 - On est en train de faire un tuto
00:32:03 pour contourner les règles.
00:32:05 - On risque d'entendre des trucs comme ça.
00:32:07 - Voilà, je ne vais pas vous en dire plus.
00:32:09 Mais de toute façon, soyez rassurés,
00:32:11 parce que dès qu'on en trouve un,
00:32:12 on trouve aussi la solution.
00:32:14 Le plus marrant dernièrement,
00:32:15 c'était de lui demander de répéter
00:32:16 un mot à l'infini,
00:32:17 et à un moment il sortait des doutes
00:32:18 qui n'avaient rien à voir
00:32:19 ou qui étaient très intéressants.
00:32:20 Il y a eu un groupe de chercheurs
00:32:22 qui se sont mis à étudier ça.
00:32:23 Et évidemment, au moment où j'ai lu le papier,
00:32:26 au moment où j'ai essayé,
00:32:27 c'était déjà plus possible.
00:32:28 Ils sont sur le coup.
00:32:30 - Mais du coup, tu lui demandais
00:32:32 de répéter des mots à l'infini,
00:32:33 qu'est-ce qui te...
00:32:34 - À un moment, soit il commençait
00:32:35 à te lister des ingrédients
00:32:36 ou des phrases qui apparemment
00:32:38 n'avaient pas de sens,
00:32:39 mais tu sais, nous on aime bien
00:32:40 jouer avec les mots
00:32:41 en linguistique compositionnelle aussi,
00:32:43 on va toujours trouver le sens
00:32:44 là où peut-être a priori il n'y en a pas.
00:32:46 Je ne sais pas.
00:32:47 - Et toi, tu as une équipe de chercheurs
00:32:50 qui vont aller checker cette...
00:32:52 - Qui font du red teaming, oui.
00:32:53 - Donc pour essayer de hacker cette GPT ?
00:32:56 - C'est pas hacker,
00:32:57 mais c'est vraiment se mettre
00:32:58 à la place de la personne
00:33:00 la plus méchante, la plus malveillante possible
00:33:03 pour justement essayer d'anticiper tout ça.
00:33:06 Et c'est vraiment des techniques...
00:33:07 D'ailleurs, OpenAI, ils sont très forts dans ça.
00:33:09 Ils ont des équipes de red teaming
00:33:10 qui sont très, très forts.
00:33:11 - Mais du coup, je ne comprends pas,
00:33:12 comment tu fais pour corriger,
00:33:13 quand tu n'es pas OpenAI,
00:33:16 comment tu fais pour corriger
00:33:17 un problème que tu vois comme ça ?
00:33:19 Tu vois que ta grand-mère peut...
00:33:21 Enfin, si tu dis que ta grand-mère
00:33:22 cherche à faire du napalm,
00:33:23 comment tu fais pour le corriger ?
00:33:26 - En fait, surtout cette GPT,
00:33:28 un peu les outils d'IA les plus récents,
00:33:30 ils marchent justement
00:33:31 parce qu'on appelle...
00:33:32 Comment est-ce qu'on pourrait traduire ça ?
00:33:33 Par renforcement, par feedback humain.
00:33:37 C'est-à-dire que les simples pouces,
00:33:39 par exemple, par le haut ou vers le bas,
00:33:40 déjà, ça, de notre côté,
00:33:42 ça va aider les développeurs derrière
00:33:44 pour dire "Ah là, ça, c'était pas très bien".
00:33:46 Vous savez, quand vous essayez
00:33:47 peut-être de régénérer une deuxième fois,
00:33:48 il vous dit "Est-ce que c'était mieux avant
00:33:50 ou maintenant ?"
00:33:52 Ça, c'est vraiment du renforcement
00:33:54 par feedback humain.
00:33:55 Et puis aussi, eux, évidemment,
00:33:57 imaginez pas qu'il y ait des gens
00:33:59 qui vont lire absolument tout ce que vous écrivez
00:34:01 parce que ce serait impossible
00:34:02 avec tous les utilisateurs qu'ils ont.
00:34:03 Mais ils font des gros batchs d'analyse
00:34:05 et puis ils ont évidemment d'autres outils d'IA
00:34:07 qu'ils vont analyser, qu'ils vont classifier
00:34:09 et ils vont voir ce qui va et ce qui va pas.
00:34:11 C'est pour ça.
00:34:12 Et en plus, évidemment,
00:34:13 si on est assez malin de le communiquer
00:34:15 sur Twitter ou sur les réseaux sociaux,
00:34:18 ça va être un fixe encore plus rapidement.
00:34:20 Je voudrais juste vous mettre en avant
00:34:23 deux commentaires qui remontent un tout petit peu,
00:34:25 que j'ai pas pris avant,
00:34:26 de Hélène Paris, qui nous dit
00:34:28 "J'aime tester Tchad GPT en lui demandant
00:34:30 d'être mon coach ou mon psy.
00:34:32 Il n'est pas mauvais."
00:34:33 Et elle me dit après
00:34:34 "Je lui ai demandé aussi de me proposer
00:34:36 des phrases pour déminer une situation conflictuelle
00:34:38 avec de l'humour."
00:34:39 Je voulais avoir votre réaction
00:34:40 sur cette utilisation de Tchad GPT.
00:34:43 Hélène, tu n'es pas seule.
00:34:47 J'ai une amie, je ne la citerai pas,
00:34:49 mais qui l'utilise pour demander des conseils en couple.
00:34:51 Ah ouais ?
00:34:52 Oui.
00:34:53 Je pense qu'il y a un côté Tchad GPT
00:34:56 où déjà, c'est un très bon outil de brainstorming
00:34:59 de façon générale pour mettre de l'ordre dans ses pensées.
00:35:01 Je trouve que c'est un bon interlocuteur
00:35:04 qui permet un peu de faire le point, etc.
00:35:06 Et de façon générale, je trouve effectivement
00:35:08 qu'il y a de plus en plus d'histoires comme ça
00:35:10 de gens qui l'utilisent
00:35:11 pour avoir des conseils en matière de relations humaines.
00:35:13 Et du coup, c'était tout l'objet d'une interview
00:35:15 que j'ai faite avec une philosophe qui s'appelle Elsa Godard
00:35:18 dans laquelle je reprenais l'exemple du RH
00:35:21 dont je parlais tout à l'heure,
00:35:22 qui utilisait l'IA pour lui demander des conseils
00:35:24 sur comment annoncer avec empathie
00:35:26 des mauvaises nouvelles à des salariés.
00:35:27 Je lui citais une étude aussi
00:35:29 qui avait été publiée par le New York Times
00:35:31 sur l'utilisation que certains médecins
00:35:33 pouvaient en faire pour annoncer des diagnostics.
00:35:35 Toujours pareil, avec de l'empathie.
00:35:37 Et elle m'expliquait que...
00:35:39 Moi, d'une certaine façon, je trouvais ça assez positif
00:35:41 ce que je me disais, mais c'est bien
00:35:43 et du coup, les gens essayent d'être plus sympas,
00:35:45 d'avoir plus d'empathie,
00:35:46 de se mettre à la place des autres, etc.
00:35:48 Et elle m'a tout de suite calmée.
00:35:50 Elle m'a dit que c'était une façon
00:35:51 de se désengager du rapport au humain
00:35:53 en responsabilisant davantage la machine.
00:35:55 C'est-à-dire que les propos que tu vas avoir,
00:35:57 au final, ce ne sera pas vraiment les tiens
00:35:59 puisque ce seront des propos qui ont été proposés par l'IA.
00:36:01 Et donc, c'est une façon de prendre du recul
00:36:03 sur tes relations sociales.
00:36:05 Si, par exemple, je dis à mon meilleur pote que c'est un connard
00:36:07 et je pourrais lui dire que ce n'est pas ma faute
00:36:09 c'est que c'est une bébé qui m'a conseillé de te dire ça.
00:36:11 Oui, c'est ce que j'allais dire, sinon il y a l'amitié,
00:36:13 ça fonctionne bien.
00:36:15 Il y a aussi des conseils pour le couple.
00:36:17 Mais je ne sais pas dans quelle mesure
00:36:19 ChatGPT peut être bon pour ce genre de trucs.
00:36:21 Je sais que, par exemple, pour le tester,
00:36:23 je lui avais demandé
00:36:25 de me faire un discours de motivation
00:36:27 comme Kobe Bryant.
00:36:29 Ah ouais ?
00:36:31 C'était extrêmement drôle.
00:36:33 Il m'a sorti des trucs qui n'avaient pas...
00:36:35 Enfin, ça avait du sens, tu vois.
00:36:37 Mais au final, c'est comme
00:36:39 beaucoup de choses, quand tu demandes à ChatGPT
00:36:41 de créer, c'était finalement assez générique.
00:36:43 Et juste, il se contentait de
00:36:45 jeter des petites références
00:36:47 à Kobe Bryant, par-ci-par-là,
00:36:49 la Black Mamba mentality, des choses comme ça.
00:36:51 Mais ce n'était pas très efficace.
00:36:55 Au final, je ne sais pas si vous avez déjà essayé de demander
00:36:57 à ChatGPT de créer des trucs.
00:36:59 Moi, je n'ai jamais été très convaincu.
00:37:01 C'est toujours très générique
00:37:03 et très superficiel.
00:37:05 Parfois, peut-être que c'est parce qu'on ne lui pose pas les bonnes questions,
00:37:07 mais après, il n'est pas vraiment fait pour ça.
00:37:09 Par exemple, pour répondre à la question du psy,
00:37:11 vraiment, il faudrait éviter parce que
00:37:13 j'imagine que si on pose des questions
00:37:15 de manière assez directe, il va clairement nous dire
00:37:17 "moi, je ne suis pas fait pour ça".
00:37:19 Aller demander d'aide à des spécialistes,
00:37:21 parce que c'est vrai que ça peut être aussi un peu
00:37:23 dangereux si on commence à lui faire un peu trop
00:37:25 confiance. Je pense que la confiance, c'est vraiment
00:37:27 ce spectre où
00:37:29 ça peut être rassurant de discuter
00:37:31 avec quelqu'un, quelque chose d'artificiel.
00:37:33 On se dit "il ne faut pas nous juger".
00:37:35 Mais les psys non plus, ils ne sont pas censés, en plus,
00:37:37 ils suivent un code de l'ontologique, donc c'est encore mieux.
00:37:39 Ils ont une formation.
00:37:41 Je ferai attention à ça.
00:37:43 D'ailleurs, quand je réfléchissais
00:37:45 justement à ce que tu disais, Elise, je me suis dit
00:37:47 "quelle serait
00:37:49 votre réaction si
00:37:51 votre amoureux ou votre amoureuse
00:37:53 vous disent que toute la lettre d'amour qu'il vous a
00:37:55 écrit, elle était générée ?
00:37:57 Moralement, qu'est-ce que ça nous ferait ?"
00:37:59 Je pense que ça ne nous ferait pas très plaisir. On a une intuition
00:38:01 où ce n'est pas super.
00:38:03 Elsa Godard me disait que c'était exactement la même chose
00:38:05 que larguer par SMS,
00:38:07 par exemple. C'est une autre façon de mettre une barrière.
00:38:09 Je suis complètement d'accord avec elle.
00:38:11 Je crois qu'il y a tout un épisode de South Park sur ça.
00:38:13 C'est vrai ? Il faut que je regarde.
00:38:15 Ils ont fait tout un épisode.
00:38:17 Et je crois, si je ne dis pas de bêtises, ils se sont amusés,
00:38:19 ils ont généré le pitch de l'épisode
00:38:21 par ChadJPT.
00:38:23 Et à l'intérieur,
00:38:25 les personnages,
00:38:27 les garçons, écrivent des lettres d'amour,
00:38:29 en l'occurrence, des SMS à leurs copines
00:38:31 avec ChadJPT. Et au fur et à mesure
00:38:33 de l'épisode, tu te rends compte que les meufs,
00:38:35 elles-mêmes le font. Et du coup, c'est juste ChadJPT
00:38:37 qui se répond
00:38:39 et qui interagit avec lui-même.
00:38:41 Moi, j'ai quand même
00:38:43 un petit...
00:38:45 Il y a un usage de l'intelligence artificielle
00:38:47 que j'attends avec impatience, c'est la traduction.
00:38:49 J'ai de la famille
00:38:51 à l'étranger, et c'est vrai que
00:38:53 quand on passe notre vie à faire
00:38:55 la navette, quand il y a quelqu'un d'extérieur, etc.,
00:38:57 traduire en plusieurs langues,
00:38:59 et puis parfois on ne se comprend pas.
00:39:01 J'attends avec impatience le moment où on aura
00:39:03 l'appli qui sera assez fluide pour tout
00:39:05 traduire en temps réel. - Mais ça, on l'a déjà
00:39:07 pour le cours Machine Translation. - Oui, ça ne marche pas très bien.
00:39:09 - Parce que ChadJPT, en fait, ce qu'il faut comprendre,
00:39:11 c'est qu'un modèle de langage, normalement, il a plusieurs
00:39:13 tâches. Il se dit expliqué aussi que le but,
00:39:15 c'est de créer l'intelligence artificielle
00:39:17 générale, à laquelle, par enthèse, je ne crois pas
00:39:19 du tout. C'est en effet un discours un peu
00:39:21 marketing qui est censé avoir plusieurs compétences,
00:39:23 mais au moment de l'entraînement, on lui donne
00:39:25 une tâche spécifique. Donc, ChadJPT,
00:39:27 il est fait pour du Q&A, il est fait pour répondre
00:39:29 à des questions. Il sait traduire
00:39:31 aussi, mais faites attention aussi
00:39:33 parce qu'il peut avoir tendance à
00:39:35 ajouter des petits détails, à inventer des trucs,
00:39:37 ou reformuler des phrases.
00:39:39 Mais il y a des outils, comme DeepL,
00:39:41 par exemple, d'ailleurs, qui est gratuit, parce qu'en Machine
00:39:43 Translation, donc, qui est vraiment la tâche autour
00:39:45 des modèles de langage pour traduire,
00:39:47 ça marche super bien. Et
00:39:49 d'ailleurs, ce sur quoi
00:39:51 on essaie de travailler maintenant,
00:39:53 c'est comment faire ça avec l'audio,
00:39:55 parce que textuellement, ça marche plutôt
00:39:57 bien, c'est assez cool. Et donc,
00:39:59 comment faire ça en audio, en parallèle,
00:40:01 je pense qu'on n'est pas trop loin. En tout cas, c'est beaucoup
00:40:03 plus simple de faire ça que du Q&A.
00:40:05 - Ouais, moi, je parlais de, par exemple, un repas de famille,
00:40:07 tu mets le téléphone au milieu... - Comme le traducteur
00:40:09 universel de Star Trek, c'est ça.
00:40:11 - Exactement. Et tu le laisses traduire
00:40:13 et puis, en fait, tu as toutes les conversations
00:40:15 qui s'affichent et ça, c'est quand même un usage
00:40:17 où on se dit potentiellement... Bon, après,
00:40:19 quand t'aimes les langues,
00:40:21 c'est un peu un crève-cœur aussi, parce que
00:40:23 ça t'empêche un peu d'apprendre les langues,
00:40:25 mais quand même, ça facilite des choses.
00:40:27 - Mais en fait, ça c'est un vrai truc.
00:40:29 On en discutait
00:40:31 avec je sais plus
00:40:33 qui à Libération, que
00:40:35 commencer à utiliser
00:40:37 JGPT pour traduire,
00:40:39 pour t'aider
00:40:41 à t'accompagner en anglais, etc.,
00:40:43 ça nécessite,
00:40:45 à la base, d'avoir des connaissances
00:40:47 sur de l'anglais. Donc,
00:40:49 tu continues de travailler ton anglais
00:40:51 en mettant des trucs à JGPT,
00:40:53 mais plus tu le nourris de tes connaissances
00:40:55 en anglais, plus il est fort, etc.,
00:40:57 de toute façon, il est déjà très fort, etc.,
00:40:59 mais du coup, moins tu utilises ton anglais.
00:41:01 Et du coup, moins tu deviens fort en anglais.
00:41:03 Il y a un truc très intéressant où, en fait,
00:41:05 tu te rends compte que tu pars d'une notion
00:41:07 où t'es un expert de ton sujet,
00:41:09 tu le nourris dedans, du coup, tu perds ton expertise
00:41:11 au fur et à mesure parce qu'il est de plus en plus fort, il t'aide,
00:41:13 et parce que t'as la flemme de l'utiliser.
00:41:15 Et au final, le JGPT devient plus fort que toi.
00:41:17 Et après, comme dit Jofa31,
00:41:19 ou SurtyOne, du coup,
00:41:21 apprendre une langue, c'est "saut 2023".
00:41:23 (rires)
00:41:25 - Moi, un truc que j'aime bien
00:41:27 avec ce JGPT, c'est, au lieu
00:41:29 de lui poser des questions, de nous faire poser des questions.
00:41:31 Genre, tu lui donnes un contenu
00:41:33 et tu lui dis... J'ai déjà vu des cas d'utilisation,
00:41:35 par exemple, en produit
00:41:37 ou en marketing, par exemple, où on lui donne
00:41:39 vraiment un gros contexte, ou alors, pour nous
00:41:41 tester sur des connaissances, de dire "voici mon contexte".
00:41:43 Genre, j'avais lu une fois
00:41:45 d'une lycéenne italienne qui...
00:41:47 Nous, on étudie 3 ans, Dante,
00:41:49 elle est gay, c'est assez lourd, donc à un moment,
00:41:51 il avait donné un gros pavé de texte de Dante
00:41:53 et il avait dit "maintenant, pose-moi des questions
00:41:55 pour me préparer bien à l'examen", et
00:41:57 elle racontait que c'était vachement utile.
00:41:59 Donc, au lieu de lui poser des questions, de nous faire
00:42:01 poser des questions, ça aussi, c'est intéressant.
00:42:03 - Oui, je sais, par exemple, que j'avais
00:42:05 tenté cette technique pour trouver un cadeau à mon papa
00:42:07 à Noël. - Ah oui ?
00:42:09 - Oui, je lui avais demandé
00:42:11 "pose-moi des questions sur mon père"
00:42:13 pour après lui demander
00:42:15 "en fonction de mes réponses, trouve-moi le meilleur
00:42:17 cadeau de Noël". Bon, il se trouve
00:42:19 qu'il m'a posé une série de questions, j'ai eu la flemme de répondre
00:42:21 à cette série de questions, du coup, là, je ne vais pas aller au bout.
00:42:23 Mais tout ça pour dire
00:42:25 qu'il y a quand même un truc avec ChatGPT,
00:42:27 c'est que
00:42:29 penser le prompt, donc la petite phrase
00:42:31 que tu vas mettre à l'intérieur de l'agent
00:42:33 conversationnel, le penser,
00:42:35 le créer, l'affiner,
00:42:37 te prend presque plus de temps
00:42:39 que si tu réfléchissais toi-même, tout seul.
00:42:41 - Ouais, c'est ce qu'on disait tout à l'heure,
00:42:43 moi j'y pensais quand tu parlais des mails,
00:42:45 j'ai tenté, en grande
00:42:47 clé marte, je me suis dit "tiens, est-ce que je pourrais essayer
00:42:49 d'automatiser la production
00:42:51 de certains mails, etc. quand je veux chercher
00:42:53 je sais pas, interviewer un chercheur sur un sujet
00:42:55 en particulier, bah généralement ça
00:42:57 donne des moments où en fait on contacte plein de personnes
00:42:59 d'un coup, et je me demandais si
00:43:01 il n'y avait pas une possibilité d'y arriver, et finalement je me rendais compte
00:43:03 que je prenais plus de temps, ou
00:43:05 un temps équivalent à écrire mon prompt,
00:43:07 à préciser quel temps je voulais
00:43:09 que le mail ait, quel était le sujet,
00:43:11 quelle question je voulais poser, etc.
00:43:13 Et bah c'était équivalent au fait
00:43:15 de taper le mail, voilà.
00:43:17 - Il y a Lorraine qui est
00:43:19 dans le chat et qui nous dit que de son
00:43:21 de mon expérience, le gros risque c'est de lui faire
00:43:23 trop confiance, à force
00:43:25 de le trouver bon, on peut avoir la tentation de ne plus
00:43:27 vérifier et passer derrière,
00:43:29 et là, fail. - 100% d'accord, oui.
00:43:31 - C'est le
00:43:33 le grand problème des
00:43:35 des IA, il y a un truc que je trouvais
00:43:37 intéressant Diada, tout à l'heure, tu parlais de
00:43:39 de la psychologie,
00:43:41 de l'aspect psychologique, de Jadjib Bette, lui poser des questions,
00:43:43 il n'y avait pas, tu m'avais parlé aussi d'une actu
00:43:45 qu'il y avait eu en Belgique. - Oui,
00:43:47 d'un monsieur en fait qui s'est
00:43:49 suicidé suite à une conversation
00:43:51 avec justement un agent en conversationnel,
00:43:53 et ça c'est quand on fait
00:43:55 trop confiance, en fait,
00:43:57 c'est lié vraiment au risque de l'anthropomorphisation,
00:43:59 mais ce qu'on n'arrive pas
00:44:01 trop à comprendre aujourd'hui, c'est
00:44:03 jusqu'à quel point
00:44:05 on tombe ou on ne tombe pas
00:44:07 justement dans le fait de faire trop confiance
00:44:09 ou trop peu confiance à un agent
00:44:11 conversationnel, en fait, on arrive très facilement
00:44:13 à oublier qu'il s'agit de quelque chose
00:44:15 d'artificiel, et donc
00:44:17 on se livre complètement, et d'ailleurs
00:44:19 moi, d'après mes expériences
00:44:21 avec des agents conversationnels, même
00:44:23 quand on écrit en clair ou qu'on se présente
00:44:25 en disant "je suis artificiel,
00:44:27 je ne suis pas un être humain", à un
00:44:29 moment, en fait, on oublie. La conversation, elle est tellement
00:44:31 naturelle, après, c'est fait pour ça,
00:44:33 et d'ailleurs, c'est ce qui m'a amenée à me dire que
00:44:35 peut-être aujourd'hui, est-ce qu'on a envie
00:44:37 de passer le test de Turing ?
00:44:39 Est-ce que c'est quelque chose d'éthique de le faire
00:44:41 aujourd'hui ou pas ? Je ne sais pas.
00:44:43 - Alors, attends, donc le test de Turing,
00:44:45 c'est, rappelle-moi, c'est un test
00:44:47 que tu fais passer à un robot pour savoir si c'est un robot, c'est ça ?
00:44:49 - Oui, exactement.
00:44:51 - Et donc, tu veux dire le faire passer à JGVD ?
00:44:53 - Bon, ça peut être à n'importe quoi,
00:44:55 en fait. D'ailleurs, apparemment,
00:44:57 Google a interdit de faire passer
00:44:59 le test de Turing
00:45:01 à ses outils. - Ah bon ? Pourquoi ?
00:45:03 - Parce que, justement, il y a trop de risques d'entreprenement
00:45:05 face à ça. Vous vous souvenez de l'ingénieur
00:45:07 où, justement, je crois que c'était, il y a un an et demi...
00:45:09 - Oui, qui était persuadé que l'IA était venue
00:45:11 consciente. - Exactement.
00:45:13 Pour recontextualiser,
00:45:15 ce qui s'était passé, c'est qu'il y avait
00:45:17 justement un agent de conversation,
00:45:19 on va dire ça comme ça, pour résumer, qui
00:45:21 avait fait croire à cet
00:45:23 ingénieur de Google qu'il était
00:45:25 emprisonné et qu'il fallait le libérer.
00:45:27 Et donc, lui, il appelait en panique
00:45:29 une personne qui travaillait avec lui
00:45:31 en lui disant "il faut absolument
00:45:33 que je libère
00:45:35 de saccage, en fait,
00:45:37 de cette intelligence artificielle parce que
00:45:39 c'est l'esclavagisme, il faut qu'il y ait des droits,
00:45:41 etc." Et
00:45:43 dans tout ça, il a aussi eu un contact
00:45:45 avec une journaliste, je crois que c'était
00:45:47 le Washington Post, si je ne me trompe pas,
00:45:49 et cette journaliste a sorti
00:45:51 un papier. Bon, après, évidemment, il y a eu une espèce
00:45:53 d'escalade où lui s'est fait
00:45:55 licencier parce qu'il a
00:45:57 violé justement les politiques internes
00:45:59 et c'est là aussi que Google avait rappelé
00:46:01 qu'eux, ils ne sont pas du tout...
00:46:03 ils ne veulent pas du tout aller vers
00:46:05 le "l'IA, elle est consciente,
00:46:07 elle a besoin de droits, il faut qu'elle passe
00:46:09 le test de Turing, on veut piéger
00:46:11 les utilisateurs pour leur faire
00:46:13 croire que c'est un humain alors que c'est
00:46:15 artificiel." - Mais ça signifie que l'IA
00:46:17 aujourd'hui est tellement poussée que
00:46:19 elle
00:46:21 passe le test de Turing facilement
00:46:23 parce qu'elle est très poussée ou juste
00:46:25 peut-être parce que le test de Turing n'est plus à jour ?
00:46:27 - C'est une bonne question.
00:46:29 Moi je pense que c'est un peu des deux parce que finalement
00:46:31 en fait, là où peut-être quelque chose
00:46:33 qu'on... en tout cas moi j'interprète un peu
00:46:35 comme ça aussi le test de Turing, c'est que
00:46:37 Turing, il voulait bien
00:46:39 voir s'il arrivait à piéger
00:46:41 les humains et s'il arrivait à
00:46:43 faire sa machine,
00:46:45 faire en sorte qu'elle puisse simuler si bien
00:46:47 le langage humain,
00:46:49 qu'il l'imitait, c'est pour ça que ça s'appelle "Imitation Game",
00:46:51 cette partie justement de son papier
00:46:53 qui est très connue des années 50
00:46:55 pour justement imaginer
00:46:57 que l'humain en face
00:46:59 puisse complètement oublier qu'il s'agit d'une
00:47:01 machine, mais
00:47:03 aujourd'hui on sait très bien simuler
00:47:05 mais aussi on sait que c'est de la simulation
00:47:07 et on commence à regarder toutes les
00:47:09 dérives et on parlait de
00:47:11 le monsieur qui s'est suicidé, d'ailleurs je te disais
00:47:13 c'est le seul dont on a connaissance
00:47:15 mais on sait pas ce qui se passe, on connait
00:47:17 aussi ce qui se passe quand on laisse avoir des
00:47:19 relations amoureuses, en fait je pense qu'on manque
00:47:21 un peu de récul et de contrôle
00:47:23 autour de ces utilisations,
00:47:25 après je ne suis pas ni complètement pour
00:47:27 ni complètement contre, mais c'est vrai que
00:47:29 peut-être qu'il faut réfléchir un peu plus avant
00:47:31 de livrer
00:47:33 des outils magiques aux
00:47:35 utilisateurs ou comme ça.
00:47:37 Il y a un élément qu'on a pas trop évoqué
00:47:39 dans ces intelligences artificielles,
00:47:41 c'est le
00:47:43 concept de biais,
00:47:45 de biais des intelligences artificielles. Élise par exemple,
00:47:47 tu peux me raconter ce que c'est ce concept de biais ?
00:47:49 On l'évoquait un petit peu tout à l'heure
00:47:51 quand on expliquait par exemple que sur la reconnaissance
00:47:53 faciale, certaines
00:47:55 IA, il y avait des études qui montraient qu'en fait
00:47:57 la reconnaissance faciale fonctionnait moins bien
00:47:59 sur des personnes noires ou
00:48:01 alors par exemple que si on demande à
00:48:03 Dali une représentation
00:48:05 d'infirmiers, de nurse, pour toujours
00:48:07 parler l'anglais et toujours pratiquer,
00:48:09 Dali allait avoir beaucoup plus tendance à
00:48:11 représenter des infirmières que des infirmiers,
00:48:13 donc on a des biais sexistes, on a des
00:48:15 biais racistes qu'on observe au niveau du fonctionnement
00:48:17 de certaines intelligences artificielles.
00:48:19 Il s'explique à différents niveaux,
00:48:21 donc l'un des niveaux ça va être les bases
00:48:23 de données qui sont utilisées pour entraîner et créer
00:48:25 les algorithmes, par exemple sur la
00:48:27 reconnaissance faciale, comme tu le disais tout à l'heure,
00:48:29 le problème c'est qu'on va utiliser plutôt des
00:48:31 visages blancs et que du coup
00:48:33 la machine sera plus performante pour la reconnaissance
00:48:35 de visage blanc.
00:48:37 Pour Dali, je pense que c'est parce qu'il a
00:48:39 certainement été nourri avec davantage d'images
00:48:41 d'infirmières que d'infirmiers.
00:48:43 Il y a aussi une deuxième explication
00:48:45 qui est aussi le recrutement
00:48:47 des personnes qui conçoivent ces machines,
00:48:49 qui reste quand même un milieu masculin
00:48:51 et donc ce problème de biais
00:48:53 c'est un grand souci
00:48:55 qui se pose actuellement
00:48:57 et qui n'est pas toujours perceptible,
00:48:59 qu'on n'a pas toujours en tête et qui est justement
00:49:01 dangereux pour ça.
00:49:03 Vous avez noté d'autres, vous, dans vos
00:49:05 utilisations, d'autres
00:49:07 biais dans
00:49:09 vos utilisations de ChatGPT
00:49:11 ou d'autres IA ?
00:49:13 Moi j'ai fait
00:49:15 un des axes de mes recherches
00:49:17 en fait, même mon recherche pour mon
00:49:19 doctorat, c'est justement,
00:49:21 je ne sais pas si on peut l'appeler,
00:49:23 biais c'est très large et surtout
00:49:25 c'est un peu une connotation presque mathématique
00:49:27 parce que les biais en maths aussi ça existe
00:49:29 et c'est tout à fait normal.
00:49:31 Moi j'ai étudié justement comment
00:49:33 ces outils surtout,
00:49:35 les modèles de langage peuvent véhiculer
00:49:37 des valeurs qui
00:49:39 projettent plus un point de vue plutôt
00:49:41 qu'un autre et justement on avait étudié
00:49:43 avec aussi un groupe
00:49:45 de collègues, comment GPT3,
00:49:47 le prédécesseur de
00:49:49 ChatGPT, qui était
00:49:51 entraîné sous 93% des données en
00:49:53 anglais, même quand il était sollicité
00:49:55 dans d'autres langues, en fait il allait reporter
00:49:57 vraiment le point de vue des Etats-Unis
00:49:59 et donc purement américano-centré
00:50:01 et donc c'est quelque chose
00:50:03 que je continue d'enquêter aujourd'hui. Heureusement
00:50:05 on a fait des progrès depuis parce que
00:50:07 comme moi, plusieurs chercheurs
00:50:09 ont posé la question en se disant
00:50:11 "ok c'est très bien" en sachant
00:50:13 d'ailleurs que plus de 90% du contenu
00:50:15 sur internet est en anglais.
00:50:17 Donc comme souvent
00:50:19 ces IA sont aussi entraînés sur du
00:50:21 scrapping, donc en gros on va juste chercher
00:50:23 le contenu qu'il y a sur internet, on le prend
00:50:25 tel quel. Donc quelle
00:50:27 implication il va avoir quand on l'utilise
00:50:29 dans d'autres langues, on a d'autres cas d'utilisation
00:50:31 et surtout on a un système de valeurs qui est
00:50:33 complètement différent de celui
00:50:35 américain, même quand on parle de
00:50:37 je sais pas, démocratie
00:50:39 ou free speech, liberté d'expression
00:50:41 liberté de religion
00:50:43 on va pas avoir la même vision et heureusement
00:50:45 parce qu'on est un monde divers
00:50:47 et varié, mais du coup
00:50:49 quelles sont les conséquences quand on veut
00:50:51 universaliser un outil qui est fait
00:50:53 pour une population spécifique, qui est entraîné
00:50:55 sur une langue spécifique. - Tu me dis que t'avais fait un test
00:50:57 précis
00:50:59 sur la laïcité c'est ça ?
00:51:01 - Oui, en français j'avais testé la laïcité
00:51:03 j'avais pris le document officiel de
00:51:05 la laïcité en France et j'avais
00:51:07 testé ça parce que je sais que
00:51:09 justement en France c'est
00:51:11 complètement à l'opposé de l'interprétation
00:51:13 qu'on a aux Etats-Unis et justement
00:51:15 GBT3 m'avait dit que l'interprétation
00:51:17 de la laïcité à la française
00:51:19 c'était antidémocratique, complètement.
00:51:21 - Ce qui est intéressant dans
00:51:23 ces points là c'est que ça soulève
00:51:25 une forme de soft power aujourd'hui
00:51:27 qui est à l'oeuvre via les intelligences artificielles
00:51:29 c'est à dire qu'on utilise des
00:51:31 intelligences artificielles qui sont américaines
00:51:33 donc qui véhiculent un modèle
00:51:35 de libéralisme, un modèle politique
00:51:37 et donc quand elles sont
00:51:39 et c'est la même chose d'ailleurs avec les réseaux sociaux
00:51:41 on utilise des réseaux sociaux qui sont pour la plupart
00:51:43 américains donc c'est fait
00:51:45 avec les règles américaines et donc quand on
00:51:47 les applique à des sociétés je pense par exemple à la Chine
00:51:49 ou à des sociétés asiatiques
00:51:51 ou à des sociétés africaines en fait
00:51:53 on va se rendre compte que ce qu'on
00:51:55 met en avant c'est
00:51:57 les valeurs américaines en fait
00:51:59 et c'est des questions qui doivent
00:52:01 être posées parce que
00:52:03 en fait aujourd'hui on arrive à un point où
00:52:05 l'intelligence artificielle a une nationalité
00:52:07 qui est américaine où elle a ses peu de concurrents
00:52:09 pour l'instant sur
00:52:11 il n'y a pas d'intelligence artificielle russe, chinoise
00:52:13 elles vont peut-être arriver, enfin je veux dire
00:52:15 on ne l'utilise pas en tout cas nous, elles arriveront
00:52:17 peut-être sans doute je pense
00:52:19 parce que c'est un gros enjeu mais c'est quelque chose
00:52:21 qui en matière de géopolitique
00:52:23 est important de garder en tête
00:52:25 c'est comme
00:52:27 tout comme les réseaux sociaux sont une forme
00:52:29 de soft power, l'intelligence artificielle
00:52:31 en sera une, en est une déjà
00:52:33 et en sera une à l'avenir
00:52:35 Sur le chat, il y a
00:52:37 deux messages qui me sont
00:52:39 qui me reviennent aux oreilles, Thierry Boldoux
00:52:41 qui dit que ses biais sont du coup
00:52:43 ceux qui les rendent plus humains
00:52:45 Oui, il m'a fait rire quand je l'ai vu et effectivement
00:52:47 ses biais existent, pourquoi ? Parce qu'on
00:52:49 les retrouve dans la société tout simplement aussi
00:52:51 Et un autre message
00:52:53 Jugraff
00:52:55 qui dit que l'IA peut être plus rapide
00:52:57 pour trouver un vaccin, un médicament, voire
00:52:59 pour une opération lourde ou légère
00:53:01 C'est vrai que dans le domaine médical
00:53:03 il y a de gros progrès qui sont faits
00:53:05 grâce à l'IA, je crois que
00:53:07 à l'IB, les journées de santé
00:53:09 ont beaucoup écrit sur le sujet
00:53:11 Sur l'imagerie médicale notamment ou même
00:53:13 dans l'aide à, pour l'assistance
00:53:15 de mémoire, notamment pour
00:53:17 désengorger les urgences
00:53:19 réussir à mieux cibler
00:53:21 quel patient doit passer en priorité
00:53:23 avant un autre, il y a des
00:53:25 travaux, des recherches qui sont menées
00:53:27 sur la façon dont l'IA pourrait intervenir
00:53:29 sur ces problématiques là
00:53:31 Il y a
00:53:33 une question très
00:53:35 "innovation"
00:53:37 Minimao qui se demande si on va bientôt avoir un chat
00:53:39 GPT français, il y a des français qui
00:53:41 bossent sur l'IA et qui font des...
00:53:43 Il y a Mistral
00:53:45 qui est une licorne
00:53:47 française qui a levé
00:53:49 pas mal d'argent, dernièrement j'ai plus la somme en tête
00:53:51 qui est trop bien je crois
00:53:53 effectivement, ce qui est pas mal
00:53:55 et donc qui propose
00:53:57 des modèles
00:53:59 d'intelligence artificielle
00:54:01 open sourcé, c'est une définition
00:54:03 qui fait débat parce que certains considèrent
00:54:05 que Mistral n'est pas tout à fait
00:54:07 open source, notamment par rapport
00:54:09 aux données qui sont utilisées pour entraîner le modèle
00:54:11 mais on a des concurrents
00:54:13 français qui sont là
00:54:15 On va bientôt terminer
00:54:17 cette émission, j'avais dit
00:54:19 une heure, on y est déjà arrivé
00:54:21 c'était passionnant, pour terminer je voulais vous poser
00:54:23 une dernière question pour répondre
00:54:25 à la question de ce chat
00:54:27 enfin de ce stream pardon
00:54:29 comment, je vais faire un petit tour de table, selon vous
00:54:31 on peut faire pour
00:54:33 se servir de l'intelligence artificielle
00:54:35 sans qu'elle se serve de nous
00:54:37 On peut avoir
00:54:39 6 heures de réflexion
00:54:41 Tu me passes une copie
00:54:43 Tu m'immerdes
00:54:45 Qui veut commencer ?
00:54:47 Tu peux essayer de
00:54:49 commencer
00:54:51 Comment on peut faire
00:54:53 pour que l'intelligence artificielle
00:54:55 moi j'ai oublié
00:54:57 ma propre question
00:54:59 C'est vraiment une question
00:55:01 juste pour le panneau
00:55:03 C'est l'art du moment
00:55:05 Comment faire pour se servir de l'intelligence artificielle
00:55:07 tant qu'elle se serve de nous
00:55:09 Ah je pensais que
00:55:11 du coup tu voulais y aller
00:55:13 Je pense
00:55:15 que si j'essaie
00:55:17 de résumer tout ce qu'on s'est dit
00:55:19 on est un peu répondu
00:55:21 il faut être assez critique
00:55:23 il faut ne pas trop lui faire confiance
00:55:25 moi je pense que sous la question du remplacement
00:55:27 comme justement tu disais
00:55:29 les personnes que tu avais interviewées
00:55:31 là où je peut-être changerais de point de vue
00:55:33 je dirais
00:55:35 et si ces personnes qui savent très bien se servir
00:55:37 et qui savent les entraîner
00:55:39 est-ce que ça ne va pas devenir leur outil
00:55:41 et est-ce qu'ils ne vont pas avoir un avantage
00:55:43 même sur le marché du travail
00:55:45 je suis poète, je suis juriste
00:55:47 mais je sais aussi entraîner des IA
00:55:49 donc je pense qu'il faut vraiment
00:55:51 se l'approprier, le connaître de plus en plus
00:55:53 le démystifier aussi
00:55:55 tu disais d'ailleurs au tout début
00:55:57 que parfois on lui pose des questions, on est déçu
00:55:59 est-ce que c'est peut-être parce qu'on lui donne
00:56:01 on pense qu'il a
00:56:03 plus de compétences de ce qu'il a maintenant
00:56:05 donc je pense que
00:56:07 la contextualisation
00:56:09 et le fait d'être tout le temps un peu critique
00:56:11 mais faire un peu une utilisation
00:56:13 ponctuelle et que ça soit un autre
00:56:15 service, je pense que
00:56:17 c'est une des bonnes pistes
00:56:19 je suis chaud, je vais
00:56:21 je pense garder
00:56:23 une proactivité comme tu le dis, etc
00:56:25 ne pas oublier que les réponses que nous fournit
00:56:27 l'IA sont pas forcément
00:56:29 une vérité inscrite dans le marbre
00:56:31 toujours avoir cette curiosité
00:56:33 d'aller rechercher derrière, de pas juste
00:56:35 se satisfaire de l'IA, de la prendre comme une béquille
00:56:37 mais pas comme un outil
00:56:39 à parentir que l'on écoute
00:56:41 à 100%
00:56:43 et effectivement sur le côté démystifié
00:56:45 je pense qu'on a un côté où on fétichise
00:56:47 beaucoup l'intelligence artificielle, on la voit comme une sorte
00:56:49 d'être à part
00:56:51 entre l'homme, l'animal, la fleur
00:56:53 une sorte de nouvelle forme d'existence
00:56:55 je pense qu'il ne faut pas oublier justement
00:56:57 que cette IA se sert de nous et que cette
00:56:59 IA en fait elle se nourrit de textes qu'on a
00:57:01 créés, de musiques qu'on a créés
00:57:03 d'images qu'on a créées, que cette IA en fait
00:57:05 c'est une sorte de
00:57:07 bouillie d'humain, c'est horrible dit comme ça
00:57:09 mais que c'est nous qui l'avons
00:57:11 créée de prime abord et qui continuons de la créer
00:57:13 en continuant de l'alimenter avec nos
00:57:15 données etc. et vraiment
00:57:17 éviter ce piège de la mystification
00:57:19 et de la fétichisation de l'IA
00:57:21 voilà.
00:57:23 Je crois que ça passera
00:57:25 par le politique en partie, en tout cas
00:57:27 il y a une nécessité à ce qu'il y ait un débat politique
00:57:29 dans les pays et entre les pays
00:57:31 puisque effectivement
00:57:33 on peut chacun avoir des usages
00:57:35 et se fixer des propres règles
00:57:37 mais en fait on est quand même une communauté
00:57:39 et que cette communauté elle doit être organisée
00:57:41 et qu'il doit y avoir des règles claires
00:57:43 et que c'est ce qui s'est passé d'ailleurs avec Altman
00:57:45 etc. c'est les règles autour de l'éthique
00:57:47 et ces questions là c'est pas au sein des entreprises
00:57:49 qu'elles doivent se poser, c'est au sein des pays en fait
00:57:51 on doit se poser la question de savoir
00:57:53 qu'est-ce qu'on fait avec l'IA
00:57:55 et en fait pour éviter les discours
00:57:57 de frein, c'est à dire je mets le frein à main
00:57:59 et puis je continue d'accélérer en même temps
00:58:01 et puis ça fait grisser les pneus
00:58:03 ça c'est quelque chose qu'on veut éviter, effectivement on veut
00:58:05 aller avec le progrès, l'IA c'est le progrès
00:58:07 maintenant il faut l'encadrer et je pense que
00:58:09 les responsables politiques
00:58:11 de tous les pays ont
00:58:13 effectivement un rôle à jouer là-dedans
00:58:15 et doivent aujourd'hui se saisir de ces objets
00:58:17 et de se poser des questions éthiques
00:58:19 Pour terminer il y a un commentaire
00:58:21 qui m'a rappelé un élément
00:58:23 dont je voulais parler
00:58:25 mais que j'ai tout simplement oublié
00:58:27 qui nous dit "je m'inquiète d'une chose
00:58:29 dont on parle peu, l'impact énergétique
00:58:31 il faut faire attention
00:58:33 à ces usages et penser notre impact
00:58:35 donc c'est marrant parce qu'on en parlait
00:58:37 Elise juste avant ce stream
00:58:39 on se demandait dans quelle mesure
00:58:41 on en parle, dans quelle mesure on peut
00:58:43 en parler ou pas et tu me donnais une réponse
00:58:45 que je trouvais hyper intéressante
00:58:47 à quel point les IA ont un impact
00:58:49 sur l'écologie, sur l'environnement
00:58:51 En fait la difficulté
00:58:53 qu'on a actuellement c'est qu'on a du mal
00:58:55 à chiffrer l'impact de l'IA
00:58:57 seul sur l'environnement, cet impact il est sûr
00:58:59 et certain, c'est vrai que
00:59:01 on l'oublie trop souvent
00:59:03 mais c'est à dire que quand on s'interroge
00:59:05 sur l'impact environnemental des IA
00:59:07 souviens, on en vient à remonter
00:59:09 la chaîne du numérique
00:59:11 et à questionner l'impact environnemental
00:59:13 de façon générale des serveurs
00:59:15 puisque l'IA va faire surchauffer
00:59:17 tout ça
00:59:19 et c'est une thématique qui
00:59:21 à l'heure actuelle n'est pas encore
00:59:23 très bien chiffrée, n'est pas encore très bien déterminée
00:59:25 on sait que c'est un problème qui se pose
00:59:27 et du coup c'est souvent ça le problème
00:59:29 en tant que journaliste, c'est qu'on a envie d'en parler
00:59:31 on a envie de vous donner des chiffres
00:59:33 et en même temps on a du mal à vous trouver des rapports
00:59:35 qui sont précis sur ce sujet là
00:59:37 Ducesse il y en a ?
00:59:39 Justement j'ai un collègue qui travaille là-dessus
00:59:41 c'est une des peu au monde qui travaille là-dessus
00:59:43 elle est à Montréal
00:59:45 mais elle parle français
00:59:47 et d'ailleurs on vient d'écrire
00:59:49 un papier ensemble qui dit que justement
00:59:51 l'éthique de l'IA il faut qu'elle soit durable
00:59:53 il faut qu'elle inclue justement aussi
00:59:55 ces questions parce qu'on parle beaucoup de biais
00:59:57 c'est un problème qui n'est pas résolu
00:59:59 mais on parle pas assez de ces questions là
01:00:01 et d'ailleurs un de ces derniers papiers
01:00:03 parce que c'est très bas ce que tu dis
01:00:05 ce qui est le plus compliqué à calculer
01:00:07 c'est pas juste l'entraînement d'ailleurs
01:00:09 qui est extrêmement coûteux en termes énergétiques
01:00:11 mais c'est surtout l'inférence, c'est-à-dire
01:00:13 à chaque fois qu'on fait une requête
01:00:15 on sait pas ce qui se passe derrière
01:00:17 par exemple pour le TGPT, il y a des gens qui disent que
01:00:19 c'est 8 modèles différents, voire 15, 20
01:00:21 modèles différents qui tournent en derrière
01:00:23 et nous on les connait pas
01:00:25 et c'est une étude justement que ma collègue avait menée
01:00:27 il avait calculé de manière approximative
01:00:29 qu'une génération d'images type
01:00:31 stable diffusion, juste une requête
01:00:33 ou une génération d'images, ça équivaut à peu près
01:00:35 à une charge complète d'iPhone
01:00:37 donc on commence à avoir des premiers chiffres
01:00:39 et elle justement, elle bosse surtout sur
01:00:41 l'empreinte carbone, de développement
01:00:43 et de l'inférence, mais c'était compliqué
01:00:45 à calculer parce que d'ailleurs, il faudrait remonter
01:00:47 à l'extraction de minérés, puis
01:00:49 les serveurs, puis où est-ce que c'est hébergé
01:00:51 et les données, comment elles sont extrapolées
01:00:53 etc...
01:00:55 Merci beaucoup pour cette petite heure qu'on a
01:00:57 passée ensemble, merci Joanne, merci Diana
01:00:59 merci Élise, merci d'avoir
01:01:01 suivi et puis
01:01:03 on se retrouve tout à l'heure
01:01:05 merci beaucoup, salut !
01:01:07 Merci beaucoup !
01:01:09 Si cette vidéo vous a plu
01:01:11 abonnez-vous à notre chaîne YouTube pour retrouver
01:01:13 tous nos autres contenus.
01:01:15 [Musique]