Demain,plus humain on faisait un travail de machine et on ne le savait pas !
Avec :
Yann Ferguson, docteur en sociologie, directeur scientifique du LaborIA
Sandrine Jullien-Rouquié, présidente French Tech Toulouse et CEO de Ludilabel
Stéphanie Lavigne, directrice générale de TBS Education
Suivez nous sur :
- Youtube :
https://www.youtube.com/c/lepoint/
- Facebook :
https://www.facebook.com/lepoint.fr/
- Twitter :
https://twitter.com/LePoint
- Instagram :
https://www.instagram.com/lepointfr
- Tik Tok :
https://www.tiktok.com/@lepointfr
- LinkedIn :
https://www.linkedin.com/company/le-point/posts/
-
www.lepoint.fr
Avec :
Yann Ferguson, docteur en sociologie, directeur scientifique du LaborIA
Sandrine Jullien-Rouquié, présidente French Tech Toulouse et CEO de Ludilabel
Stéphanie Lavigne, directrice générale de TBS Education
Suivez nous sur :
- Youtube :
https://www.youtube.com/c/lepoint/
- Facebook :
https://www.facebook.com/lepoint.fr/
- Twitter :
https://twitter.com/LePoint
- Instagram :
https://www.instagram.com/lepointfr
- Tik Tok :
https://www.tiktok.com/@lepointfr
- LinkedIn :
https://www.linkedin.com/company/le-point/posts/
-
www.lepoint.fr
Category
🤖
TechnologieTranscription
00:00 [Musique]
00:25 Merci d'être toujours avec nous, retour sur le direct de la Factory, sur le point.fr
00:33 exactement et sur les réseaux sociaux. Alors on va évoquer un sujet qui d'ailleurs
00:38 fait la une d'un journal que vous connaissez peut-être, Le Point.
00:43 Intelligence artificielle, la bataille pour contrôler nos cerveaux. Alors ce n'est pas
00:47 exactement la langue qu'on a choisie pour la séquence de ce soir.
00:52 On va évoquer évidemment les effets de l'intelligence artificielle et en
00:57 particulier de Chadjipiti sur les organisations, sur les entreprises, sur
01:04 le travail de manière globale puisque Chadjipiti en arrivant il y a un an a
01:11 donné une matérialité à l'utilité de l'IA dans nos tâches quotidiennes de
01:15 production, que ce soit des productions de texte, des productions de
01:19 développement de codes, d'images, de voix également. Cet effet immédiat de
01:29 réalité a évidemment expliqué la vitesse d'appropriation de Chadjipiti et a
01:36 donc révélé d'une certaine manière, d'où notre titre, que l'on faisait un
01:41 travail de machine et qu'on ne le savait pas. Alors aujourd'hui au moment où les
01:45 initiatives se déploient tous azimuts, puisqu'on a compris que c'est vraiment
01:48 maintenant que ça se passe, il y a un vrai besoin de déterminer si son usage est
01:54 efficace, légitime, autorisé, interdit. Bref c'est un sujet que nous abordons avec
02:00 nos trois invités que je vous demande d'applaudir. Stéphanie Lavinie,
02:04 Yann Ferguson et Sandrine Julien-Rouquier.
02:09 Merci à tous les trois d'être avec nous.
02:18 On a pris un petit peu de retard mais on va consacrer tout le temps
02:23 prévu et nécessaire pour aborder ces sujets. Je vais d'abord prendre quand même
02:28 quelques minutes pour vous présenter tous les trois. Yann Ferguson, vous êtes
02:32 docteur en sociologie, spécialiste du futur du travail et de l'intelligence
02:37 artificielle, responsable scientifique du Laboria, dont vous êtes d'ailleurs
02:41 désormais le directeur scientifique. Ça a été créé en 2021 mais le laboratoire
02:46 prend de l'ampleur. En fait il s'agit d'un programme de recherche et
02:50 d'intervention sur la transformation du travail par l'IA qui a été initié par
02:54 le ministère du travail et par l'INRIA. Et puis l'objectif évidemment c'est
02:59 d'appréhender les effets de l'intelligence artificielle sur l'avenir
03:03 du travail. Sandrine Julien-Rouquier, vous êtes CEO de Ludilabel, qui est une entreprise
03:08 que vous avez fondée il y a un peu plus de dix ans, qui fabrique et commercialise
03:12 des étiquettes nominatives. C'est un marché qui existait mais que vous avez
03:16 sérieusement dépoussiéré. 150 000 commandes par an dans 120 pays et donc
03:22 votre startup a été lauréat du pass French Tech en 2016, ce qui a fait que
03:28 vous avez découvert la puissance de la communauté du coq rouge, que vous portez
03:32 là sur la veste blanche. Et vous êtes présidente désormais de la French Tech
03:37 Toulouse depuis 2019. French Tech est rattachée à Bercy et c'est une
03:42 association qui fédère plus de 1000 entreprises innovantes ici à Toulouse.
03:47 Stéphanie Lavi, bonsoir, directrice générale de TBS éducation, docteur en
03:52 sciences économiques, professeur de stratégie d'entreprise.
03:56 Vous êtes responsable du laboratoire de recherche stratégie d'entreprise.
04:00 Aujourd'hui vous dirigez une business school à un moment où tout change à la
04:04 fois dans l'économie, dans les business models et aussi dans l'éducation.
04:09 Et vous nous direz justement que votre institution est plutôt, essaie d'être en
04:14 tout cas dans une vision à la fois pragmatique en tout cas, ni trop
04:18 contrôlante, ni trop cool. Si j'ai bien compris, vous allez nous
04:21 préciser tout ça. Et vous êtes plutôt favorable aux parties prix régulées et
04:27 innovées. Alors on va commencer par parler des effets à court terme de
04:33 chat GPT et des IA génératifs de manière générale sur vos entreprises et
04:38 vos métiers. Stéphanie Lavi, sur le secteur
04:41 spécifique de l'éducation, comment très concrètement ont réagi les
04:45 professeurs, ont réagi les étudiants et puis a réagi aussi la direction ?
04:50 Bonsoir à toutes et à tous, merci beaucoup. Moi je vais vous donner un retour
04:54 d'expérience sur une école mais aussi sur l'ensemble des acteurs que j'ai la
04:59 chance de rencontrer sur ces sujets. Alors chez nous à l'école, chat GPT, quand
05:03 c'est arrivé, les profs, ça a été le cauchemar.
05:05 Ils se sont dit le truc, il faut absolument l'interdire. Donc ils ont
05:09 demandé à la direction de prendre des mesures fortes. Au moment où ils nous
05:13 ont demandé ça, il y avait pas mal d'institutions en France, dont certaines
05:16 très importantes, qui avaient dit il n'y aura pas de chat GPT chez nous et on
05:20 interdit l'usage d'une innovation. Alors on s'est posé la question de est-ce que
05:24 c'est bien de refuser l'innovation et plutôt que de dire on l'interdit, on
05:29 s'est dit on va essayer de comprendre ce que c'est. On avait déjà commencé à
05:33 travailler beaucoup sur la data, le big data, tous les systèmes d'information.
05:36 Donc on a des gens très forts chez nous sur ces sujets et on a regardé qu'est-ce
05:41 que ça allait changer dans le métier des profs, qu'est-ce que ça allait changer
05:44 pour nous. Alors exemple très concret, quand vous voulez recruter des étudiants
05:48 sur quelque chose qui s'appelle Parcoursup, la plateforme, pour ceux qui
05:52 sont parents et pour les étudiants, ce mot-là n'est pas forcément très
05:56 glorieux, Parcoursup. Nous par exemple, on sélectionne des étudiants en
06:01 leur demandant de déposer sur Parcoursup des documents, un CV, une lettre de
06:05 motivation, des choses qu'on leur demande d'écrire et de produire. Alors
06:09 maintenant il y a un petit outil qui s'appelle ChalGPT et qui le fait mieux que
06:12 nous tous. Et du coup, on s'est dit première chose qu'on va faire, c'est on va
06:15 changer les modalités pour recruter les jeunes au lieu de dire vous allez
06:19 remplir tel document, tel document, tel document parce que c'est peut-être pas
06:23 vous qui allez le faire mais la machine. - Avant c'était les parents. - Alors c'était les
06:27 parents qui aidaient beaucoup les enfants mais il y avait quand même de la co-construction et
06:31 là c'est de la co-construction avec ChalGPT. Donc on s'est dit qu'on allait
06:34 changer les modalités et moi il y a quelque chose dont je suis ultra fan, c'est
06:38 l'humain et l'oral. - Donc il n'y a plus de la domotivation ? - On va le supprimer,
06:42 alors on aura toujours un petit quelque chose comme ça mais on s'en servira plus
06:46 comme un outil pour sélectionner parce qu'on sait très bien que voilà que
06:50 c'est pas forcément un outil qui va nous permettre de faire de
06:53 grandes découvertes. Donc moi je suis en train de me dire que ça peut être bien
06:57 pour remettre au centre du village l'humain et la relation. On discute avec
07:01 les gens, on teste des connaissances et ChalGPT il n'est pas là quand on est
07:05 face à un prof. Côté prof, très très sympa ce qui se passe à l'école, il y a une
07:10 dynamique incroyable. Il y en a qui ont peur, ils ont peur que leur métier
07:14 disparaisse parce que cet outil est très bizarre quand on le connaît pas. On se
07:18 dit "il produit de la connaissance". En fait il n'en crée pas de la connaissance, il
07:22 utilise de la connaissance qu'il va chercher mais il va quand même falloir
07:26 toujours continuer à en produire. Par contre c'est vrai que dans nos métiers
07:29 de chercheurs, quand on écrit un article, quand on écrit un bouquin, on fait des
07:32 synthèses d'articles, on fait des synthèses de livres et ça ChalGPT peut le faire
07:36 très bien. Et ça faisait partie d'une des composantes qui permettait de voir si
07:40 des professeurs, des chercheurs avaient un esprit critique de synthèse dans des
07:44 sciences qui sont pas les sciences physiques, les mathématiques. Donc moi je
07:47 suis issue des sciences sociales. Donc il y a à la fois un peu de peur et en même
07:52 temps il y en a qui se sont dit "mais je vais gagner vachement de temps quoi, je vais
07:55 le faire faire mais j'ai besoin de mon esprit critique". Et puis il y a la
07:59 question de la véracité de la donnée. Elle vient où la donnée que ChalGPT
08:03 est allée chercher ? Donc pour le moment c'est mixte. Mais moi je voulais vous
08:07 donner un petit exemple de truc très très très bête. On est le 2 ou 3 janvier et
08:12 je souhaite bonne année à tous les étudiants de l'école, donc ils sont 6000.
08:15 J'aurais écrit un petit mot chaque année et donc j'aurais écrit un texte. J'essaye
08:20 d'être inspirante, inspirée, enfin de faire un truc un peu bien quoi. Et j'écris
08:25 le texte et puis je le donne à relire à mon collaborateur préféré qui voyait
08:29 quelques minutes plus tard, très très vite, avec un texte vachement mieux que
08:33 le mien, mais vraiment super mieux que le mien. Et donc je lui dis "là vraiment on
08:37 va prendre ton texte parce qu'il est mieux quoi". Et le texte c'était ChalGPT
08:41 qui l'avait écrit avec un prompt qui était assez simple. On est ATBS
08:46 éducation, c'est la directrice qui veut souhaiter une bonne année, quelques
08:49 éléments. Qui veut être inspirante. Elle veut être inspirante, elle veut faire un
08:52 truc... - Inspirée. - Je sais plus quels étaient les consignes mais le truc était
08:56 super. Et je me suis dit je peux pas commencer l'année dans du faux, en leur
09:00 envoyant un faux texte. Je vais garder mon texte à moi qui est moins bien, mais au
09:05 moins c'est moi qui l'ai écrit. Voilà c'est un truc bête, mais en vérité je me
09:09 suis dit que j'aurais peut-être dû penser à lui donner une directive. Hop, il m'écrit
09:14 un texte, je gagne du temps. Alors on est dans une société où on veut toujours
09:18 gagner encore plus de temps, toujours. Est-ce que c'est bien ou pas c'est un
09:22 sujet. Mais en tout cas c'est vrai qu'il y a des utilisations au niveau
09:25 pédagogique qui valent la peine d'être investiguées. Et je pense que
09:31 il y a de l'appropriation pour les étudiants. On peut arriver à
09:34 personnaliser des parcours. Donc on va mettre plein de connaissances dans
09:37 l'outil et l'étudiant va pouvoir aller chercher un truc personnalisé par
09:41 rapport à ce que lui il veut rechercher à un moment donné. Donc des catalogues
09:44 qui va les extraire. Donc il y a des aspects à prendre avec des
09:50 pincettes. Mais de manière générale je suis assez curieuse. Et on a tous
09:55 développé des groupes avec les profs, avec les étudiants, avec la direction
09:59 de l'école pour voir qu'est ce qu'on intègre, qu'est ce qu'on n'intègre pas.
10:02 Mais est-ce qu'aujourd'hui il y a une sorte de vademécom ? Est-ce qu'on sait ce
10:05 qu'on a le droit de faire ou pas faire ? On est en train de le rédiger et je pense
10:09 que ce sera bien pour nos étudiants qu'ils sachent une utilisation raisonnée.
10:13 Qu'est ce que ça veut dire ? Une utilisation éthique, qu'est ce que ça veut dire ?
10:16 Donc en gros ils peuvent l'utiliser. Alors on parle de chat GPT mais il y a la
10:20 version gratuite, il y a la version payante. Mais ça y est, il y a déjà plein d'autres
10:22 plateformes. Donc c'est déjà périmé pour les étudiants qui sont très connectés
10:27 chez nous et très digitalisés parce que c'est cette génération qui est très
10:32 aguerrie à tout ça. Il y a d'autres choses que chat GPT déjà.
10:35 Voilà donc chacun a même ses préférences. Donc nous on va essayer
10:39 d'écrire quelque chose, pas de chat GPT orienté mais plutôt intelligence
10:43 artificielle pour avoir quelque chose de plus global.
10:47 Sandrine Julien-Rouquet, là aussi très concrètement, quels sont les effets de ces IA
10:53 génératives ? Bon sur l'e-D-Label puisque c'est votre entreprise mais aussi peut-être
10:56 sur celle que vous représentez via la French Tech ? Sur l'impact...
11:02 Est-ce qu'il y a des impacts sur certains métiers ?
11:04 Ce qui est sûr c'est qu'on s'en emparait très rapidement pour le coup parce que
11:10 les entreprises innovantes, l'innovation c'est quelque chose qu'on
11:14 aime tester donc pour le coup oui on s'est emparé rapidement de ça. Sur la
11:19 partie impact positif, négatif, le positif c'est ce qu'on a déjà
11:25 entendu c'est à dire que tout ce qui a été de l'ordre des tâches répétitives,
11:29 rébarbatives, ennuyeuses, là l'IA a pris le pas dessus. Sur la partie
11:36 productivité, il ne faut pas se mentir, ces mêmes tâches rébarbatives du coup
11:41 elles ont été faites par de l'IA et de façon beaucoup plus rapide et ensuite
11:46 ça nous a permis sur toutes ces entreprises innovantes de pouvoir
11:50 proposer des nouveaux services et on en parlera peut-être sur la partie
11:54 génération de contenus, sur la partie rédactionnelle.
12:00 Ça a ouvert des portes et sur les points de vigilance et tu l'as
12:05 évoqué, c'est sur la partie régulation sur quelles tâches on va pouvoir
12:10 accepter de passer par la moulinette de l'IA, que ce soit de chat GPT,
12:14 de Google, quelles sont celles qui vont être interdites et surtout
12:20 quels data on va accepter de mettre puisque là pour le coup elles
12:23 deviendront des données publiques.
12:26 Et pour ce qui concerne le recrutement, par exemple si je devais recruter un
12:32 développeur web, comment une entreprise peut se fier
12:40 aux productions qu'on va lui présenter ?
12:42 Alors pour le coup sur la partie IA, c'est intéressant pour le recrutement, je
12:48 dirais que côté candidat sur la préparation, il peut utiliser l'IA que
12:54 ce soit pour aller chercher des data sur l'entreprise sur laquelle il va
12:58 postuler, sur la partie même présentation, sur le langage
13:02 corporel, sa communication non-verbale, etc.
13:06 Le jour J, il y a deux écoles où il va faire le choix selon le métier
13:11 donc là sur le développeur web de montrer et pour le coup ça peut être un
13:14 atout qu'il sait maîtriser l'IA et que ça va l'aider à gagner du temps sur les
13:18 tâches. Nous chez Ludilabel, je sais qu'ils s'en servent, ils s'en sont emparés très
13:21 rapidement avec la conscience que ça ne va pas remplacer
13:27 l'humain mais ça va être, on l'évoquait, une espèce de direction assistée qui va
13:31 vous permettre d'avancer plus vite et là ça va être typiquement chez les
13:35 développeurs web pour balancer du code et trouver les petites erreurs.
13:39 Sur la partie recrutement, oui sur certains métiers, sur d'autres
13:43 attention, ça va se voir, c'est à dire qu'il y a toute la partie plagiat qui
13:48 peut être retoquée et voilà ce que tu évoques également sur le fait qu'à
13:54 un moment donné, sur des mêmes textes, des mêmes missions, on sent la
13:59 répétition, le déjà vu et là où on cherche, nous pour le coup, chez nos
14:03 collaborateurs, quel que soit le pôle dans lequel on va l'embaucher, qui est
14:08 ce fameux esprit critique, voilà là on ne va pas être en mesure, si c'est rédigé
14:13 uniquement avec de l'IA, de savoir s'il est capable de penser tout seul et
14:18 d'aller résoudre des problématiques beaucoup plus complexes que ne sait pas
14:22 faire l'IA. Je pense que cette expression, la
14:25 "penser seul" va intéresser beaucoup, Yann Ferguson, puisque vous, précisément,
14:30 vous avez étudié un certain nombre de cas d'usage de l'IA et que "penser seul"
14:36 c'est le propre de l'humain plus que le propre de la machine qui en
14:42 réalité n'a pas vraiment de projet dans son action.
14:47 Est-ce qu'aujourd'hui on est en capacité, enfin, est-ce que vous, vous êtes en
14:51 capacité de mesurer les effets de chatGPT, de ces outils d'IA génératif
14:56 sur les entreprises ? Alors on est en difficulté pour le mesurer précisément
15:00 parce que les usages de chatGPT sont des données propriétaires et je dirais
15:07 d'une part, OpenAI n'a aucun intérêt à les communiquer,
15:10 notamment si c'est pas aussi massif que ce qu'on entend, parce que ce qui était
15:17 porteur pour OpenAI c'est de dire c'est l'application qui a atteint le
15:21 plus rapidement possible les 100 millions d'utilisateurs, mais ce que ça ne dit pas
15:25 c'est si ces utilisateurs l'utilisent pour des choses sérieuses et si après
15:29 leurs premiers usages ils ont continué à l'utiliser à en faire finalement un
15:33 nouveau mode de travail. Donc ça on a un peu de difficulté. Puis deuxième chose,
15:36 il n'a pas le droit, parce que si jamais OpenAI commençait à dire voilà
15:42 comment on nous a utilisé, voilà comment les gens du marketing l'utilisent, voilà
15:46 comment les recruteurs l'utilisent, quelque part il y aurait un problème, c'est
15:50 le fait qu'il communique sur nos usages et il y a un problème de confidentialité.
15:55 Par contre on commence d'abord à voir effectivement le côté
16:03 technologie d'application générale de l'intelligence artificielle, là où depuis
16:08 plusieurs années les études sur le futur du travail associé à
16:12 l'intelligence artificielle avaient plutôt tendance à atterrir sur des
16:15 choses qui étaient assez communes finalement par rapport à l'automatisation,
16:18 c'est à dire on retrouvait vraiment des cols bleus à nouveau qui allaient
16:24 devoir être accompagnés vers des reconversions ou vers un déplacement de
16:29 la valeur etc. - Il y a des métiers qui disparaissent ?
16:31 - Sur l'IA générative encore une fois ce qui est difficile à
16:36 mesurer c'est que pour l'instant on est dans l'étape où on a une application
16:42 généraliste qui a été lancée comme une grande preuve de concept par une
16:48 entreprise qui s'appelle OpenAI et les usages sont, pardonnez-moi l'expression,
16:54 sous le chapeau, c'est à dire que les gens qui utilisent aujourd'hui HGPT le font
16:59 en cachette. Ça a été montré par une étude française et une étude américaine
17:03 qui est arrivé exactement sur le même résultat, 68% des utilisateurs de
17:07 HGPT au travail ne le disent pas leur manager et s'ils ne le disent pas leur
17:11 manager c'est que bien souvent de la même façon que dans les enseignements
17:14 supérieurs on a dit attention attention, les grandes entreprises ont dit
17:18 attention attention pour des bonnes raisons par ailleurs parce que les gens
17:21 commençaient à mettre les noms des clients, les données des clients, les
17:25 noms des collaborateurs et à faire des résumés de compte rendu, de projets,
17:29 voilà donc ça c'était très compliqué. Donc pour des bonnes
17:33 raisons ils ont dit faites attention voire ils l'ont interdit et on se
17:37 retrouve avec un peu une tension entre des projets maison des grands groupes
17:42 industriels qui, il faut le dire, ont du mal à aller vers le travailleur.
17:46 Donc porté par la direction d'entreprise. Porté par la direction, avec des
17:50 travailleurs un peu réticents qui disent bah ça réduit un peu notre
17:55 liberté, notre autonomie et puis on a un peu peur de l'IA et donc des dirigeants
17:59 qui disent n'ayez pas peur, l'IA c'est bien, l'IA ça vous libère des tâches à
18:03 faible valeur ajoutée etc. Et puis là arrive HGPT, les collaborateurs s'en
18:09 emparent, font des choses en mode bricolage, c'est ce qu'on appelle bring
18:13 your own AI, amener votre propre intelligence artificielle et puis là on
18:17 a des managers qui disent faites attention. Et là le collaborateur il se dit
18:20 alors vis à vis l'IA je dois faire quoi ? Je dois faire attention ou je dois ne pas
18:25 avoir peur ? Et donc il y a une espèce de dissonance cognitive, on est un peu là
18:28 dedans, avec le risque c'est que pendant que les entreprises l'interdisent, on a
18:35 des collaborateurs qui vivent des expériences personnelles avec ces
18:38 systèmes qui sont assez stimulantes, qui attendent que ça puisse aller vers le
18:43 monde professionnel et là on va peut-être inverser un peu la situation,
18:46 c'est à dire qu'on va avoir des collaborateurs qui développent ou alors
18:51 qui utilisent des systèmes d'IA qui développent leur propre pratique et puis
18:54 de l'autre côté des projets d'entreprise qui sont plus lents, qui sont plus
18:58 difficiles. Alors pourquoi ils sont plus lents ? Tout simplement parce qu'on essaie
19:00 de les rendre aussi sûrs, il faut qu'ils soient safe et c'est plus compliqué.
19:05 Ça veut dire qu'elle est performante mais elle n'est pas forcément fiable ?
19:07 Alors oui ça c'est un vrai sujet, c'est qu'aujourd'hui on a
19:12 évalué la pertinence de chaque GPT à à peu près 60% ça va
19:17 s'améliorer. En fait dans la plupart des décisions que l'on prend dans le
19:21 monde du travail, on ne saurait pas mesurer si on a 60% de pertinence.
19:25 Il n'y a pas très longtemps j'intervenais auprès d'un commerce qui me disait "oui c'est
19:28 n'importe quoi il y a 60% de pertinence, on peut pas utiliser ça". Je lui dis "mais
19:31 comment vous évaluez la pertinence de vos propres décisions ? Est-ce que vous le
19:34 savez ? Si je vous mets un cas d'école et que vous êtes trois autour, est-ce que
19:38 vous décidez la même chose ?" Donc dans la plupart du temps on
19:41 sait pas. D'ailleurs un des grands fondateurs de l'intelligence
19:44 artificielle, Herbert Simon, il avait défini l'intelligence et il avait
19:48 défini comme un objectif de l'intelligence artificielle le fait de
19:51 trouver des solutions satisfaisantes à des problèmes qui n'ont pas de réponse
19:54 optimale. Et la plupart du temps c'est ce que l'on fait, on trouve des solutions
19:58 satisfaisantes à des problèmes qui n'ont pas de réponse optimale.
20:00 Alors il y a des choses qui ont des réponses optimales, le calcul est
20:04 optimal, la non qualité, ça ça se mesure notamment lorsqu'on mesure des pièces
20:10 d'avion, on évalue la qualité des pièces d'avion, ça c'est très précis. Mais dans
20:13 beaucoup de métiers on n'a pas cette précision de la qualité, on est dans ce
20:16 que j'appelle de la qualité floue. Ça veut pas dire qu'on sait pas dire si
20:19 c'est bien ou si c'est pas bien. Moi je sais pas comment dire que ton discours il
20:23 était moins bien que celui de Chet Jepeté, c'est ce que tu as ressenti, mais peut-être
20:26 que quelqu'un ressentirait autre chose. On est dans la qualité floue et il y a
20:29 beaucoup de métiers à qualité floue, ça veut pas dire qu'il n'y a pas de qualité,
20:33 mais il n'y a pas de normalisation de la qualité. - Mais est-ce que ça veut dire
20:36 aussi, et là je viens d'insulter à Sandrine Tchouir-Louquet et à Stéphanie Lavigne, que
20:40 justement l'usage massif de ce genre d'outils peut abaisser le niveau
20:48 d'exigence qu'on a à l'égard de son propre travail ou du travail de ses
20:52 propres collaborateurs et qu'on peut s'habituer finalement à une réponse
20:56 moyennement satisfaisante puisque finalement c'est vrai que si on écrit
21:00 une lettre, par exemple une lettre personnelle, on va tout de suite voir que
21:03 c'est un peu tchad, gpt, touch, mais bon ça passe et on y va comme ça.
21:07 Même chose pour la traduction, même chose pour plein d'usages finalement.
21:11 - Oui, c'est une excellente question.