• il y a 6 mois
Dans Le Numérique pour Tous, Vanessa Pérez reçoit Mehdi Khamassi, Directeur de recherche employé au CNRS, affecté à l'Institut des Systèmes Intelligents et de Robotique (ISIR), sur le campus de Sorbonne Université & Philippe Huneman, Philosophe, directeur de recherche à l’Institut d’histoire et de philosophie des sciences et des techniques à l’université de Paris Panthéon Sorbonne

Retrouvez Le Numérique pour tous avec Vanessa Pérez tous les dimanches à 14h30 sur #SudRadio.
---
Abonnez-vous pour plus de contenus : http://
ow.ly/7FZy50G1rry


———————————————————————

▶️ Suivez le direct : https://www.dailymotion.com/video/x8jqxru

Retrouvez nos podcasts et articles :
https://www.sudradio.fr/


———————————————————————

Nous suivre sur les réseaux sociaux

▪️ Facebook :
https://www.facebook.com/SudRadioOfficiel

▪️ Instagram :
https://www.instagram.com/sudradioofficiel/

▪️ Twitter :
https://twitter.com/SudRadio

▪️ TikTok :
https://www.tiktok.com/@sudradio?lang=fr

———————————————————————

☀️ Et pour plus de vidéos du Numérique pour tous :
https://www.youtube.com/playlist?list=PLaXVMKmPLMDR4AnvSdAZjJkIhzXsyJ9fd


##LE_NUMERIQUE_POUR_TOUS-2024-06-02##

Category

🗞
News
Transcription
00:00 Vérissure, le numéro 1 des alarmes en France.
00:03 Rendez-vous sur verissure.fr pour votre demande de vie gratuite.
00:06 Vérissure présente...
00:07 Sud Radio, le numérique pour tous. Vanessa Pérez.
00:11 Bonjour et bienvenue dans le numérique pour tous.
00:13 Aujourd'hui, une émission spéciale culture de l'attention et profilage.
00:17 Et oui, nous n'arrivons plus à nous concentrer autant qu'avant à cause de ces fameux écrans.
00:22 Alors, quel est l'impact sur notre vie quotidienne, sur notre travail, sur notre relation aux autres
00:27 et comment ces fameux écrans conditionnent notre comportement ?
00:31 C'est ce que nous tenterons de comprendre avec nos invités.
00:33 Le numérique pour tous spécial culture de l'attention et profilage.
00:37 C'est parti et c'est sur Sud Radio.
00:39 Sud Radio, le numérique pour tous. Vanessa Pérez.
00:43 Et pour commencer cette émission, un homme dont le travail se situe entre la compréhension de l'esprit humain,
00:48 le fonctionnement du cerveau, l'intelligence artificielle et la robotique.
00:52 Oui, tout ça, il travaille pour le CNRS et j'ai nommé Mehdi Kamassi.
00:56 Mehdi, bonjour, on est ravis de vous avoir en plateau aujourd'hui.
00:59 Bonjour, Vanessa.
01:00 Vous êtes donc chercheur. Alors, concrètement, expliquez-nous quand même,
01:02 parce que vous faites beaucoup, beaucoup de choses.
01:04 Concrètement, expliquez-nous en quoi consiste votre recherche, vos recherches.
01:08 Mes recherches visent à essayer de mieux comprendre les mécanismes dans notre cerveau
01:12 qui nous permettent de décider, de prendre des décisions,
01:14 d'apprendre sur la base des conséquences des décisions,
01:17 mais aussi de comprendre qu'est-ce qui fait que dans certains contextes, dans certaines situations,
01:21 on bascule vers des modes automatiques de prise de décision sans réfléchir aux conséquences.
01:25 Et c'est là qu'il y a des choses à dire pour le sujet d'aujourd'hui.
01:27 Alors, on parle beaucoup, effectivement, de la culture de l'attention.
01:30 D'ailleurs, vous avez écrit un ouvrage avec trois autres co-auteurs parus aux éditions Audit de Jacob,
01:34 donc la culture de l'attention.
01:36 De quoi parle-t-on quand on parle de cette fameuse culture de l'attention, justement ?
01:40 C'est quelque chose qu'on propose en réponse à ce qu'on appelle l'économie de l'attention.
01:44 Qu'est-ce que c'est l'économie de l'attention ?
01:45 C'est un modèle économique sur lequel reposent la plupart des plateformes aujourd'hui,
01:48 Facebook, Google, qui consiste à essayer de capter notre attention le plus possible,
01:51 nous maintenir engagés le plus longtemps possible pour faire monter le prix des espaces publicitaires pour du profit.
01:57 La culture de l'attention, ça consiste à dire, plutôt que de laisser notre attention comme ça en pâture aux plus puissants,
02:01 essayons de réfléchir collectivement, de trouver différents moyens par l'éducation des enfants,
02:07 mais aussi par la régulation de certaines pratiques manipulatrices ou en favorisant certaines innovations
02:12 pour nous permettre de reprendre le contrôle de notre attention.
02:15 Mais vous voulez dire qu'on est plus libre, en fait, au lieu d'aller faire du sport, de lire un livre,
02:18 ce fameux téléphone mobile avec son écran va nous happer et on n'a plus forcément de liberté ?
02:23 C'est ce que vous évoquez ?
02:23 C'est une grande question qu'on se pose et notamment aussi avec des liens avec la philosophie.
02:27 Florent Forestier, c'est sa discipline.
02:29 En tout cas, ce qu'on sait, c'est qu'avec cette bascule vers des modes automatiques de la décision,
02:33 on est moins libre de nos choix.
02:35 On est moins en train d'avoir des choix, des décisions qui sont orientées vers nos propres buts.
02:39 Et on se laisse happer par des stimuli extérieurs.
02:42 La vidéo suivante qui nous donne envie de cliquer, le fil sans fin qu'on fait dérouler,
02:47 sans vraiment réfléchir et on se retrouve une heure plus tard,
02:49 encore connecté en train de faire les mêmes mouvements,
02:51 alors qu'on voulait peut-être juste y passer quelques minutes.
02:53 Et ça veut dire qu'on subit, on n'arrive plus à être aussi concentré qu'avant sur un livre,
02:58 on est happé pour scroller, comme on dit ?
03:00 C'est ça que vous évoquez ?
03:01 En partie.
03:02 C'est-à-dire, bien sûr qu'il y a des moments où on pourrait vouloir se faire divertir, se laisser guider.
03:07 Et il n'y a aucun problème.
03:08 Le problème, c'est qu'on a du mal à reprendre contrôle de notre attention par la volonté
03:12 à se dire "bon, maintenant, je m'arrête".
03:13 Quel est l'objectif ?
03:14 Est-ce que je suis satisfait aussi de mon interaction avec l'interface ?
03:18 Donc le but, c'est de ressusciter de la réflexivité et de reprendre le contrôle de nos automatismes.
03:23 Alors vous voulez dire que ces réseaux sociaux vont conditionner nos comportements ?
03:27 Vous pourriez nous donner quelques exemples ?
03:28 Même si on en est victime au quotidien, on n'arrive plus forcément à s'exprimer,
03:31 on a l'impression que c'est devenu naturel.
03:32 Mais non, justement, si on revient en arrière,
03:35 dites-nous pourquoi nos comportements sont radicalement en train de changer.
03:39 En fait, donc, il y a... Vraiment, la clé, c'est les automatismes.
03:43 On pourrait s'intéresser à des mécanismes de conditionnement et autres par la répétition,
03:46 le fait qu'il y a des effets, par exemple, de simple exposition,
03:49 le fait d'être réexposé au même stimuli un certain nombre de fois.
03:52 Naturellement, c'est comme ça, c'est un résultat de l'évolution.
03:54 On sait qu'il y a un sentiment de familiarité qui augmente
03:56 et du coup, un sentiment positif et on s'y attache.
03:59 Concrètement, dans ma vie quotidienne ?
04:01 Le fait que chez vous, c'est l'endroit auquel vous vivez, dans lequel vous allez tous les jours,
04:06 vous finissez par trouver cet endroit beau
04:08 parce que c'est l'endroit où vous vous sentez rassuré,
04:09 où vous n'avez pas besoin de stress, pas d'attaque extérieure.
04:11 Donc c'est quelque chose qui nous permet de relâcher, finalement, l'attention, la vigilance.
04:16 Et donc c'est une des choses qui se passent, mais ce n'est pas la plus importante.
04:18 La plus importante, c'est vraiment la bascule dans les automatismes.
04:21 On sait, avec l'accumulation de connaissances de psychologie depuis des années et des années,
04:24 on connaît des mécanismes pour attirer plus facilement notre attention
04:28 et la maintenir engagée. Et c'est là qu'on perd le contrôle.
04:32 - Vous travaillez beaucoup avec des designers, des chercheurs, des designers de jeux vidéo, par exemple.
04:37 Est-ce que ces personnes-là sont conditionnées, elles aussi, dans l'exercice de leur métier
04:42 pour provoquer le maintien de notre attention sur ces jeux, sur ces algorithmes,
04:47 sur leurs applications ? Tous ces gens qui travaillent pour Google, pour Amazon, etc.
04:50 ont quelque part dans leur contrat de travail l'obligation de nous maintenir captifs ?
04:54 - Alors, bien sûr, c'est plus compliqué que ça.
04:56 Et puis chacun, chacune a sa conscience et autre.
04:58 Bon, moi, j'interagis avec un petit nombre, mais j'en vois de plus en plus
05:02 qui sont conscients de ça, qui aimeraient faire du design éthique
05:05 et qui, quelque part, ne demandent que ça, de discuter aussi avec des gens des sciences
05:09 pour aider à trouver des solutions.
05:11 Mais la plupart me parlent d'un peu une double contrainte.
05:15 C'est-à-dire que d'un côté, ils aimeraient faire quelque chose d'un peu plus éthique, vertueux,
05:18 où les gens sont plus libres et ne sont pas happés.
05:20 Et puis de l'autre, il y a ces besoins d'avoir le maximum de joueurs, d'utilisateurs
05:24 qui restent le plus longtemps possible. Donc on fait ces petits bonus,
05:27 on utilise plein de mécanismes pour donner des récompenses
05:29 et donner envie aux gens de se reconnecter.
05:32 Et donc là, il y a quelque chose à faire ensemble.
05:34 - Et vous auriez l'impression qu'on peut reprendre le pouvoir, en fait,
05:36 sur cette relation aux réseaux sociaux, peut-être pour enlever cette addiction,
05:42 on peut appeler, ou cette dépendance ?
05:44 - Alors, déjà, le côté addiction, c'est très débattu.
05:48 On peut parler peut-être de mécanismes addictogènes,
05:51 de plus en plus de personnes en parlent.
05:52 On sait que dans le jeu vidéo, ça commence à être connu.
05:54 Et donc il y a vraiment à la fois le fait de passer beaucoup de temps,
05:58 mais de vraiment être frustré, d'avoir l'équivalent de phénomène de sevrage et autres.
06:03 Mais sinon, on peut parler de ces mécanismes qui nous enferment,
06:07 qui génèrent des compulsions, l'envie de répéter,
06:10 de s'en cesser les mêmes gestes, de s'y reconnecter.
06:12 Je pense que déjà, il faut prendre en main la question.
06:15 C'est-à-dire qu'il ne faut pas juste penser que les plateformes vont s'autoréguler.
06:18 Et on l'a vu avec des exemples comme le scandale soulevé par Frances O'Hagan,
06:22 quand Facebook était au courant en interne par des analyses
06:25 qu'Instagram renvoyait une mauvaise image de leur propre corps aux adolescents,
06:29 qu'il y avait un mal-être qui en résultait et n'a rien fait.
06:31 Donc, ça veut dire qu'il faut qu'on fasse quelque chose,
06:33 et pas qu'on attende que ça s'autorégule.
06:35 - Mais expliquez-nous, vous qui travaillez sur les mécanismes du cerveau,
06:39 il y a une chimie qui s'opère, il y a des mécanismes de récompense,
06:43 on parle de dopamine, on parle d'hormones, de la dépendance.
06:46 Toute cette chimie-là, elle est pensée par les gens qui font les algorithmes des réseaux sociaux ?
06:50 - Alors, c'est vrai qu'il faut toujours se méfier de ne pas réduire à certaines choses,
06:53 on a envie de simplifier, et autres.
06:54 Mais bien sûr, vous avez raison que la dopamine, c'est un neuromodulateur
06:58 qui vient moduler nos décisions, justement,
07:01 qui vient renforcer certaines de nos décisions quand on a la récompense,
07:04 et c'est des circuits qu'on commence à bien connaître, on accumule des connaissances.
07:07 Ce qu'on peut, je pense, convoquer des neurosciences,
07:10 c'est les compréhensions qu'on a de plus en plus sur la bascule entre différents réseaux dans le cerveau,
07:14 quand on est en train de décider, en train de se demander,
07:16 qu'est-ce que j'ai envie de faire là ce soir ?
07:18 Tiens, j'ai envie de m'informer, ou j'ai envie de m'éduquer,
07:20 ou j'ai envie de travailler, versus la bascule dans ces automatismes
07:24 où on réagit au stimuli externe, un pop-up qui nous attire,
07:27 la vidéo suivante qui se déclenche toute seule,
07:29 on n'a même pas eu le temps de réfléchir, est-ce que j'ai envie de continuer à voir une vidéo ou pas ?
07:32 Et puis on n'arrive pas à s'empêcher de continuer.
07:34 Je pense que là, il y a des choses à apprendre,
07:36 et on sait que dans le design, dans le marketing,
07:39 il y a plein d'inspirations, des connaissances en psychologie,
07:42 donc c'est connu.
07:43 Un exemple, ce sont ces récompenses.
07:45 Vous en avez parlé dans les jeux vidéo, mais finalement,
07:47 les likes sur les réseaux sociaux, on pense qu'ils sont designés d'une façon qui ré-exploite ça,
07:52 et si on a des récompenses complètement prédictibles,
07:54 ce n'est pas très intéressant, on s'en lasse vite.
07:56 Alors que si elles sont données avec une certaine variabilité,
07:58 ça nous donne envie de comprendre, et ça engage davantage notre attention.
08:02 J'insiste là-dessus, vous avez écrit un ouvrage,
08:04 l'idée c'est d'apporter des solutions,
08:06 est-ce que vous pensez qu'on peut sortir de ce cercle qui n'est pas forcément vertueux ?
08:10 Est-ce que vous proposez des solutions pour prendre un peu de recul et se dire
08:14 "Waouh, je n'ai pas passé 4 heures aujourd'hui sur un réseau social,
08:17 j'ai quand même fait autre chose, j'ai vu des vrais gens,
08:19 dans la vraie vie, j'ai fait du sport,
08:21 il y a des réflexions qui sont menées sur ces sujets ?
08:23 Absolument, on essaie vraiment de proposer un ensemble de solutions,
08:26 et on pense qu'il n'y a pas une solution unique.
08:28 Il ne faudrait pas soit juste laisser l'auto-régulation,
08:30 soit juste avoir des gouvernements qui imposent une régulation des contenus,
08:33 on pourrait aller vers l'autoritarisme,
08:35 il faut quelque chose au milieu et multifacette.
08:37 Donc il y a l'éducation à l'attention, dès l'enfance, c'est très important,
08:40 apprendre à savoir se concentrer, passer un certain temps sur un objet,
08:43 c'est quelque chose qui s'éduque,
08:45 apprendre aussi à passer du temps à faire d'autres choses que d'être sur des écrans.
08:48 Faire du sport, faire des choses manuelles ou autres.
08:51 Maintenant, il y a aussi, grâce à Célia Zolensky,
08:54 co-autrice qui est professeure en droit du numérique,
08:57 cette possibilité de traduire en proposition de loi directement des choses.
09:00 Donc il y a des choses à interdire, des interfaces manipulatrices,
09:03 qui orientent nos choix, par exemple,
09:05 pour faire que c'est plus facile d'accepter des cookies que de les refuser,
09:08 c'est une asymétrie, il y a plein d'exemples comme ça,
09:10 ou le fait de devoir cocher une case pour ne pas souscrire à un service,
09:13 c'est contre-intuitif, donc il y a des choses comme ça qu'on peut réguler.
09:16 Oui, mais vous savez très bien que quand on a effectivement cette fenêtre
09:19 qui apparaît sur notre téléphone mobile avec ses 25 pages de conditions générales de vente
09:22 et qu'on est obligé d'aller jusqu'au bout pour accepter,
09:25 on accepte bien volontiers, malgré soi, et puis finalement on a accès à son service.
09:28 Donc il y a quand même une hypocrisie derrière tout ça.
09:30 Absolument, c'est pour ça qu'il faut la réguler.
09:32 Ça veut dire qu'en fait on a accepté alors qu'on n'est pas content,
09:34 on ne voulait pas accepter, c'est là qu'on est moins libre.
09:36 Et après dans cette régulation, là aussi vous savez que l'innovation
09:38 va quand même beaucoup plus vite que la régulation,
09:40 donc on va être sans cesse en train de mettre des patchs.
09:42 L'idée, je pense que vous la partagez, est peut-être de travailler davantage sur l'éducation
09:47 et on voit que le dernier rapport qui a été remis au président de la République
09:51 insiste peut-être sur ce poids de l'éducation et du revivre ensemble
09:57 et de ce lien à créer entre des parents, des enfants, le système éducatif.
10:02 C'est peut-être une des voies de solution les plus raisonnables.
10:05 Absolument, c'est quelque chose de très important l'éducation
10:07 et il faut le faire, mais ce n'est pas suffisant.
10:09 Il y a une telle asymétrie entre un individu avec ses mécanismes psychologiques
10:13 et puis une industrie de l'influence que ce n'est pas suffisant.
10:16 Et donc c'est là que sur l'innovation, il y a des avancées au niveau européen,
10:20 par exemple pour demander aux grandes entreprises de faire une analyse de risque en amont.
10:23 Et une chose importante aussi à souligner, c'est que réguler, mettre des règles
10:27 ou inciter par exemple des plateformes qui nous invitent à collaborer sur Internet ou autre
10:30 n'est pas forcément quelque chose qui va brider l'innovation, au contraire.
10:33 Ça peut apporter de la créativité et susciter de nouvelles innovations
10:37 vertueuses, plus vertueuses pour notre attention.
10:39 Mais dit pour conclure en une poignée de secondes,
10:41 il est peut-être un peu trop tard pour remettre tout ça à place ?
10:45 Ça va prendre quand même quelques années ?
10:47 Je pense qu'il n'est jamais trop tard.
10:48 En tout cas, il faut réfléchir à ces questions, s'en emparer.
10:51 Le livre amène un certain nombre de pistes de réflexion
10:53 pour qu'on puisse aussi nous-mêmes réfléchir sur notre propre comportement.
10:57 Quand est-ce qu'on est satisfait de notre interaction avec cette interface ?
10:59 Quand est-ce qu'on ne l'est pas ?
11:00 Réfléchir sur nos automatismes et on pense que déjà comme ça,
11:03 le lecteur, l'électrice peut gagner en liberté, en réflexivité.
11:06 C'est peut-être une part de la solution.
11:08 Déjà, prenons un peu de recul avec votre livre, un vrai livre,
11:11 avec des vraies pages, "La culture de l'attention"
11:13 paru aux éditions Odile Jacob.
11:15 Merci beaucoup Mehdi Kamel.
11:16 Si il reste avec nous, on marque une courte pause
11:18 et on se retrouve dans quelques instants pour découvrir
11:20 comment ces fameux écrans sont en train de conditionner nos comportements.
11:24 Le numérique pour tous, ça continue dans quelques instants sur Sud Radio.
11:27 Vérissure, le numéro 1 des alarmes en France.
11:30 Rendez-vous sur verissure.fr pour votre demande de vie gratuite.
11:33 Vérissure présente...
11:35 Sud Radio, le numérique pour tous, Vanessa Pérez.
11:38 Et pour continuer cette émission spéciale "La culture de l'attention" et profilage,
11:42 j'ai le plaisir de recevoir un philosophe, également directeur de recherche
11:46 à l'Institut d'Histoire et de Philosophie des sciences et des techniques
11:50 à l'Université de Paris, Panthéon-Sorbonne.
11:52 J'ai tout bien dit Philippe Hinneman ?
11:54 Oui, oui, c'est vrai.
11:56 Alors, pour résumer ce que vous faites, en fait, vous analysez les évolutions
11:58 du fonctionnement de nos sociétés,
12:00 les orientations prises par la révolution digitale.
12:02 Mais alors, j'ai envie de vous demander quand même, pour commencer,
12:04 on est en train en permanence de crier au loup,
12:06 "c'était mieux avant", on est en train de perdre notre attention, etc.
12:10 Est-ce que c'est un phénomène normal ?
12:12 Est-ce que c'est un phénomène sain de râler en permanence
12:15 pour, quelque part, absorber ces mutations qui sont en train de se passer ?
12:19 Oui, enfin, en tout cas, le "c'était mieux avant",
12:23 il y a ça, j'imagine, même dans la Bible, il y a des milliers d'années.
12:27 Donc, non, c'est quelque chose de fréquent.
12:32 Ce qui m'a intéressé, moi, c'est surtout d'essayer de comprendre ce qui se passe
12:36 avant même de se demander dans quelle mesure c'est quelque chose de radicalement nouveau,
12:40 ce qu'on est en train de vivre avec ce qu'on appelle parfois le tournant digital,
12:44 l'explosion des technologies numériques qui sont présentes
12:48 à tous les instants de notre vie, pour dire très vite.
12:52 Et après, il y a toujours à la fois des gens qui trouvent que c'est la catastrophe
12:57 et des gens qui trouvent que c'est merveilleux et ça va tout résoudre
13:01 et il n'y aura plus de famine, de réchauffement climatique, de guerre.
13:05 Les deux positions sont constantes dans l'histoire et n'ont absolument aucun intérêt.
13:09 Alors, pour vous, Philippe, les grands acteurs du numérique que sont les GAFA,
13:13 dont Google, Amazon, Facebook et Apple, ont introduit ce que vous appelez,
13:17 et d'ailleurs vous en avez fait un ouvrage, la notion de profilage au sein de notre société,
13:21 c'est-à-dire qu'on a, chacun d'entre nous est représenté par un volume de data
13:25 et ces grands acteurs, justement, sont capables d'anticiper
13:29 ce que vont être nos désirs, ce que va être notre vie.
13:33 Est-ce que vous pourriez un peu préciser ce concept de profilage que vous avez développé dans votre livre ?
13:37 Oui, alors, c'est un concept qui part de quelque chose de concret,
13:42 qui est que, par exemple, vous vous connectez à un Wi-Fi ou vous entrez sur un réseau social,
13:46 on vous demande de renseigner votre profil, c'est ce mot-là,
13:49 mais je pense qu'il y a quelque chose de plus profond derrière,
13:51 qui est l'idée que l'ensemble des traces qu'on va laisser,
13:53 alors en particulier sur Internet, sur notre navigation, on laisse des traces,
13:56 dès qu'on fait une recherche Google, c'est enregistré sur Google, par exemple,
13:59 mais qu'on laisse aussi partout, si vous prenez une trottinette électrique ou un véli,
14:03 il y a le GPS qui trace vos déplacements, votre carte bleue trace exactement ce que vous avez fait,
14:07 donc l'ensemble des traces constitue un très grand ensemble de données sur vous-même
14:13 qui concernent à peu près toutes les dimensions de votre vie,
14:16 que ce soit ce que vous mangez, il y a des montres connectées
14:19 qui enregistrent le nombre de pas que vous faites, les calories, le rythme de votre sommeil, et ainsi de suite,
14:24 et tout ça constitue ce que j'appelle un profil individuel
14:30 qui a la particularité d'être comparé avec les profils de tous les autres individus,
14:33 ce qui permet en quelque sorte de faire des prédictions.
14:36 Quand vous regardez Spotify ou Netflix, on va vous recommander des films
14:41 qui sont définis à partir de la comparaison entre tout ce que vous avez aimé
14:46 et l'ensemble des individus qui aiment plus ou moins les mêmes choses.
14:51 Donc la notion de profil va avec la notion de prédiction,
14:55 et c'est cette prédiction qui permet effectivement de raffiner le savoir sur les individus
15:02 et de prédire automatiquement ce qu'ils vont faire.
15:04 Et effectivement, les grands acteurs du numérique, en particulier Google,
15:08 arrivent à récupérer ces données et les vendent.
15:12 Il y a un livre important d'une sociologue américaine qui s'appelle Shoshana Zuboff,
15:16 "Le capitalisme de surveillance", où elle explique comment, après la crise de 2008,
15:20 Google, qui avait vraiment des problèmes, a décidé de monétiser,
15:23 par exemple, les historiques de recherche d'une adresse IP,
15:26 ce qui leur a permis de gagner beaucoup d'argent.
15:31 Et il faut quand même mentionner qu'il n'y a pas que Google,
15:33 c'est-à-dire qu'il y a des centaines de petites compagnies
15:37 qu'on appelle les "data brokers", des courtiers en données en français,
15:40 qui sont "derrière votre épaule" quand vous êtes sur Internet,
15:44 et qui récupèrent des données sur vous et qui les vendent.
15:46 Ça veut dire qu'on est plus libre, on est dans l'illusion d'une liberté ?
15:49 Puisque nos choix sont conditionnés et on nous donne à voir ce que l'on veut voir
15:53 ou ce que l'on pense qui est bon pour nous.
15:55 Là, j'avoue que je suis neutre, je suis en plus philosophe de profession.
15:59 Donc sur la question philosophique, en général, je suis assez neutre.
16:02 Je sais pas, je veux dire, il y a toujours eu des...
16:04 Vous savez, la gouvernementalité, ça consiste aussi à construire des dispositifs
16:08 qui permettent de peser sur les choix des gens et ainsi de suite.
16:11 Ce que je sais, c'est qu'il y a un certain régime de prédiction
16:15 qui est permis par le profilage et qui a des effets à la fois économiques et politiques
16:18 qui sont très forts.
16:19 Alors, Philippe, on va en venir aussi à toute cette intelligence artificielle
16:24 qui nous présente des images qui sont justes ou erronées
16:27 et qui sont aujourd'hui de plus en plus erronées.
16:30 Là où l'image était une preuve avant, elle ne l'est plus.
16:33 Est-ce que vous pourriez développer ce sujet qui est quand même alarmant
16:35 puisqu'on est quelque part rentré dans une nouvelle ère de cette culture de l'image ?
16:39 Oui, alors effectivement, ce qu'on a depuis quelques années,
16:44 c'est des intelligences artificielles génératives
16:47 qui produisent des textes, tout le monde connait Chade J.P.T.
16:50 On fait une petite question, il fait une réponse extrêmement détaillée
16:53 ou qui produisent des images ou qui maintenant produisent des films.
16:56 Il y a Sora de OpenAI, je crois, qui vous fouette une phrase de trois lignes
17:00 à une personne qui marche dans la rue, dans une rue pluvieuse,
17:04 une ville un peu désertée un samedi soir et ça vous donne le film.
17:08 Et Sora génère l'image effectivement.
17:09 Oui, la vidéo, ça fait une vidéo de 2-3 minutes, c'est absolument stupéfiant.
17:13 Et surtout, si on se représente ce que c'était il y a peut-être 2-3 ans
17:16 c'est quand même assez rudimentaire.
17:18 On peut imaginer ce que ce sera dans 10 ans.
17:20 Autrement dit, dans 10 ans, on aura un monde où on pourra dire
17:23 je veux un film, je ne sais pas, avec Didier Bourdon et Kate Winslet
17:27 où il y a une histoire de manipulation et un chat.
17:29 Et puis vous aurez le film, j'exagère à peine, c'est l'horizon.
17:35 Alors ça veut dire quoi ça ? Ça veut dire,
17:37 hormis le fait qu'il n'y aura plus besoin de payer Didier Bourdon,
17:40 ça veut dire que le régime de vérité, pour dire de manière grandiloquente,
17:49 de l'image, qui est que l'image photographique, pas l'image dessinée,
17:53 l'image photographique et vidéo est une preuve de la réalité
17:56 pour la raison très simple.
17:57 Photographie, ça veut dire écrit par la lumière.
17:59 C'est une photographie prouve la réalité parce que ce qu'on voit sur la photo
18:02 a été comme écrit par la lumière directement via l'objectif
18:06 à partir de la chose photographiée.
18:08 Ça, ça va se terminer.
18:10 C'est-à-dire qu'on ne pourra pas compter sur le fait
18:12 qu'une photographie prouve quelque chose.
18:14 Si vous voyez par exemple un discours politique
18:20 où Jean Lassalle dit qu'il faut absolument envahir le Groenland,
18:26 il n'y a aucune raison que ce soit vrai, alors qu'on est habitué à ce que ce soit vrai.
18:29 Où va être la preuve, où va être une forme de vérité dans ce cas-là, Philippe ?
18:33 Ça veut dire qu'il faut changer un petit peu nos schémas mentaux ?
18:36 Oui, c'est-à-dire que c'est vraiment quelque chose qui a à voir avec l'image et le film.
18:41 Et quand on réfléchit deux secondes, c'est très récent.
18:44 Jusqu'au 19e siècle, le fait de voir un dessin,
18:48 ça n'avait jamais suggéré à quelqu'un l'idée que ce qu'on voyait sur le dessin
18:53 soit sans autre forme de précision, vrai, soit la réalité.
18:57 Donc on va retourner à quelque chose où l'image n'est pas forcément le garant d'une réalité.
19:04 Et ce qui va être compliqué, c'est la coexistence de ces deux modes d'appréhension de l'image.
19:09 L'une où c'est comme le dessin, c'est-à-dire que c'est quelque chose d'assez joli et imaginaire, etc.
19:14 qui peut éventuellement, dans certaines conditions, représenter la réalité.
19:17 Je pense par exemple à ce qu'on a dans les procès, on n'a pas le droit en France de filmer.
19:20 Donc il y a des dessinateurs de procès et on suppose en effet qu'ils ne dessinent pas n'importe quoi.
19:25 Et puis l'habitude qu'on a de la photo qui était effectivement une preuve de réalité.
19:30 Donc il va falloir s'habituer à sortir de cette pensée, de cette appréhension de l'image comme vraie.
19:41 Alors Philippe, tout à l'heure Mehdi parlait justement de l'éducation qui doit évoluer par rapport à cette culture du numérique.
19:49 Vous parlez de l'image là, mais j'aimerais aussi parler du récit.
19:51 On voit qu'il y a des récits sur TikTok, notamment qui sont de plus en plus courts.
19:54 Les enfants s'habituent à des choses de plus en plus courtes.
19:57 Est-ce que ça veut dire que leur concentration, leur degré d'attention et donc les cours qui leur sont administrés
20:03 vont devoir évoluer parce qu'ils n'ont plus la capacité de rester deux heures ou trois heures devant des cours magistraux ?
20:09 Alors je ne suis pas expert, parce que je ne suis pas psychologue ou cognitiviste.
20:13 La seule chose que je peux dire, c'est qu'en effet il est fort probable que la durée des récits,
20:19 si on peut appeler ça des récits, enfin des vidéos qui ressemblent à des récits,
20:23 et le fait d'être exposé à beaucoup de récits, va peut-être changer quelque chose.
20:30 Et la manière dont l'éducation a été quand même définie depuis très longtemps,
20:34 elle prenait en compte le fait que les enfants écoutaient quelques récits, quelques contes,
20:39 quelques histoires assez longues, avec des arcs narratifs, des types de narration quand même assez souvent répétitifs et identifiés.
20:50 Et ça par exemple c'est vrai au cinéma, c'est-à-dire que assez souvent vous allez au cinéma, vous voyez un film,
20:54 vous avez une vague idée de ce qui va arriver dans la suite, vous savez que les deux personnes qui se sont rencontrées par hasard,
20:59 elles vont avoir une histoire, vous savez que la personne qui a fait quelque chose de très très très très mal,
21:04 il va lui arriver des bricoles, et que la personne qui est le héros qui est dans une situation assez horrible, en général il s'en sort.
21:10 Ça c'est parce qu'on connaît tous des arcs narratifs qui ont été...
21:16 Donc ça c'est en train d'évoluer ? Ça c'est en train d'évoluer avec des choses beaucoup plus courtes ?
21:19 Oui, l'accumulation des formats courts, des formats auto-centrés, c'est-à-dire que c'est souvent les vidéos TikTok,
21:26 c'est souvent des gens qui parlent, enfin c'est centré sur une, deux personnes, etc.
21:29 Ça va probablement avoir des effets sur ce à quoi on s'accoutume, mais je ne peux pas en dire beaucoup plus.
21:36 Philippe, sans prévenir l'avenir, imaginons qu'on se voit en 2034, c'est-à-dire dans dix ans,
21:40 on voit que ces outils numériques viennent prendre une part assez importante dans nos vies individuelles,
21:48 dans la façon dont on appréhende la relation à l'autre.
21:51 Pour vous, dans les relations au sein de notre société, qu'est-ce qui aura fondamentalement changé dans une dizaine d'années ?
21:56 Alors, les choses qui me viennent à l'esprit, c'est d'une part le fait que...
22:04 S'habituer à tout ce qui est les services de type Netflix, Spotify, etc.
22:11 Ou les applications de rencontre qui marchent à peu près pareil en fait,
22:14 c'est-à-dire qui vous donnent des choses qui sont supposées être sur mesure par rapport à votre goût,
22:19 ça va avoir un effet qui est une habitude de vouloir une expérience, comme on dit, une expérience optimisée, tout le temps,
22:25 qui va probablement changer les anticipations, et qui change déjà les anticipations des gens,
22:30 et le rapport qu'on a à ce que c'est qu'une expérience, et en particulier une expérience ratée.
22:34 Rentrons, je ne sais pas, rencontrer quelqu'un et ça se passe mal.
22:38 Et tout le monde avait plus ou moins pendant très longtemps l'habitude de ça.
22:41 Maintenant, si vous pensez application de rencontre, c'est un peu comme un catalogue.
22:44 Vous achetez un meuble IKEA, il vient, application de rencontre, vous prenez quelqu'un, ça vient, le meuble IKEA est cassé,
22:49 mais c'est rare, vous n'êtes pas content, vous râlez, la personne que vous rencontrez ne sait pas ce que vous attendiez,
22:54 vous pouvez avoir quelque chose comme la même réaction en fait.
22:57 Et c'est quelque chose d'assez nouveau dans les relations humaines,
23:00 l'idée qu'on choisit des gens un peu comme sur catalogue avant les relations...
23:05 En tout cas, ce que les sociologues nous disent des relations humaines, c'est que vous avez des vecteurs de connexion, de rencontre,
23:12 qui était, je ne sais pas, le village, le lieu de travail, peu importe.
23:15 Mais en tout cas, il y avait une part de ce qu'on pensait être le hasard,
23:20 que les sociologues reconstruisent comme des déterminismes, puisqu'on ne rencontre jamais les gens complètement au hasard.
23:25 Mais voilà, donc ça, cette notion de catalogue et d'attente de quelque chose d'optimal, ça change probablement des choses.
23:34 Et puis l'autre point, c'est qu'effectivement, tout ce qui est intelligence artificielle, comme on dit parfois, c'est opaque.
23:41 C'est-à-dire que même les gens qui construisent des grands modèles de langage comme GPT,
23:44 ne savent pas exactement pourquoi quand vous posez une question à GPT, vous demandez un texte,
23:48 il vous donne ce texte-là et pas un autre.
23:50 Et donc, ce qu'on va avoir au milieu de nos relations, en fait, au milieu qu'il s'agisse de collègues de travail,
23:58 ou de faire une petite association, ou même de faire société, ça va avoir des intelligences artificielles opaques,
24:03 c'est-à-dire qui vont aiguiller telle personne vers telle autre personne pour des raisons que personne ne connaît.
24:07 Et donc, des relations médiées par ces espèces de dispositifs complètement opaques, ça, je pense que ça peut avoir des effets.
24:14 Alors, il y a beaucoup de gens dans la communauté, des gens qui font des grands modèles de langage,
24:17 qui posent ce problème et qui disent "nous, on voudrait ce qu'ils appellent parfois une intelligence artificielle explicable".
24:23 Ça voudrait dire donc, dont on comprend à peu près les rouages.
24:26 Mais ça, c'est un projet qui est un petit projet en développement et c'est pas du tout l'ensemble du domaine.
24:32 Bon, prenons un peu de recul et restons toujours vigilants, on va dire, et maîtres et acteurs de nos réseaux sociaux.
24:37 Je vous remercie beaucoup, MédicaMatie. Je rappelle le titre de votre ouvrage,
24:41 "La culture de l'attention", paru aux éditions Odile Jacob.
24:44 Philippe Huedemann, profilage ? C'est bien le titre ?
24:46 Les sociétés du profilage, évaluées, optimisées, prédires, paille au rivage.
24:50 Merci beaucoup à tous les deux. Le numérique pour tous, c'est fini pour aujourd'hui.
24:53 Et pour prolonger la discussion, on se retrouve sur vos réseaux sociaux préférés.
24:57 Je vous souhaite une excellente fin de week-end et je vous dis à la semaine prochaine.

Recommandations