• l’année dernière
"L'algorithme n'a aucune raison de vous exposer à du contenu qui porte une opinion différente…"

Au quotidien, les algorithmes prennent des tas de décisions pour nous. Et pour Marie-Neige Fossé, la question est de savoir quelles décisions on leur laisse. Voici pourquoi.

Category

🗞
News
Transcription
00:00 Si vous regardez cette vidéo, c'est probablement parce qu'un algorithme vient de vous la proposer
00:03 et que vous êtes en train de scroller sur un réseau social.
00:06 Simplement, c'est une décision que l'algorithme a pris pour vous, et que vous n'avez pas pris tout seul.
00:11 L'algorithme l'a probablement pris parce que vous avez déjà regardé une vidéo de Brut,
00:14 ou parce que vous avez déjà regardé une vidéo qui porte sur le thème de l'intelligence artificielle,
00:18 ou des algorithmes de tchat GPT en ce moment.
00:21 Et cette vidéo du coup est susceptible de vous plaire et de vous faire rester,
00:25 qui est l'objectif du réseau social à la base.
00:27 Au quotidien, pour la plupart d'entre nous, c'est très agréable d'être exposé aux mêmes idées que celles qu'on porte.
00:32 C'est un biais cognitif qui est très fort. On adore s'entendre dire qu'on a raison.
00:35 Le vrai problème, c'est celui de la bulle de filtrage derrière.
00:39 Ça veut dire qu'une fois que vous avez commencé à consommer du contenu qui porte une certaine idée,
00:44 ou qui porte sur un certain thème, l'algorithme va vous proposer du contenu similaire.
00:49 Et en fait, il n'a aucune raison par la suite de vous réexposer à du contenu qui porte une opinion différente ou opposée.
00:55 Il n'a aucune raison de vous sortir de votre bulle.
00:58 Et donc ça, c'est une vraie question d'éthique en fait.
01:00 C'est une vraie question d'éthique.
01:01 C'est quoi en fait un algorithme éthique et pourquoi il faut parler d'éthique quand on parle d'algorithme ?
01:07 Alors, s'il fallait donner une réponse du coup, stricte à ça,
01:12 un algorithme éthique, c'est un algo sur lequel on a appliqué des contraintes.
01:16 Et en fait, ça n'existe pas beaucoup aujourd'hui.
01:18 On applique beaucoup de contraintes techniques aux algorithmes,
01:23 mais on est en train de commencer à se poser des questions morales.
01:27 Donc là ici, on va parler plus spécifiquement des algorithmes dits de machine learning,
01:32 ou auto-apprenants en français,
01:35 qui sont des algorithmes qui se basent sur une base de données
01:40 et qui vont apprendre de leurs erreurs et qui vont apprendre de retours qu'on va leur donner.
01:45 Donc c'est des humains qui leur donnent des retours.
01:47 Du coup, par essence, un algorithme, il ne peut pas être neutre ?
01:50 Non.
01:52 Du tout, il ne peut pas et il ne pourra jamais l'être, en fait,
01:58 parce que les données qu'on lui fournit ne le sont pas.
02:01 Alors, il y a peut-être certaines décisions techniques
02:03 ou sur des sujets très particuliers qui pourront échapper à tous ces biais-là,
02:08 mais non, un algorithme n'est pas neutre, on n'attend pas qu'il soit neutre,
02:13 on attend de lui, techniquement, qu'il reproduise ce qu'on lui a fourni comme données d'apprentissage.
02:20 Et tant que ces données d'apprentissage ne seront pas neutres, et ce ne sera jamais le cas,
02:24 alors le résultat qu'elle nous fournira ne le sera jamais.
02:26 En fait, l'algorithme, il a les mêmes défauts que nous, humains, qui les concevons, finalement.
02:30 Exactement.
02:31 Il reproduit ce qu'on lui a appris à faire,
02:36 donc il n'a aucune raison de différencier le bien du mal
02:38 ou de différencier, par exemple, une vraie information d'une fausse information.
02:43 Il va les traiter de manière équivalente parce qu'il n'a pas de valeur,
02:46 il n'a pas d'esprit, il n'est pas capable d'exprimer un jugement sur ce qu'on lui fournit.
02:55 Les impacts des décisions que prennent ces algorithmes doivent être étudiés de près,
03:01 doivent être mesurés et quantifiés.
03:04 Et ça, c'est des systèmes de surveillance à mettre en place sur lesquels on est encore très peu mature.
03:10 Et c'est ça qui fait peur dans ce qui peut faire peur dans les discussions qu'on voit surgir,
03:17 dans les nouveaux outils qu'on voit arriver comme ChatGPT,
03:20 qui arrive et qui est à la disposition de tout le monde,
03:23 et qui a plein de défauts et qui pourrait avoir plein d'impacts bien concrets sur nos vies.
03:28 Et c'est ce qu'il y a derrière les réflexions aussi.
03:31 On a vu la tribune notamment signée par Elon Musk,
03:33 qui dit arrêtons tout et réfléchissons un peu à ce qu'on est en train de faire,
03:40 parce que l'innovation va beaucoup plus vite que les évolutions en termes de réglementation par exemple.
03:44 On commence tout juste à en parler et à réfléchir sur ces aspects-là.
03:49 C'est quelque chose dont on ne parlait pas du tout au début,
03:52 quand on a vraiment progressé sur la technique ?
03:55 Très peu.
03:56 C'est vraiment quelque chose dont on ne parlait peu.
03:59 C'est quelque chose qui est initié souvent par les personnes
04:04 qui pourraient être victimes des abus de ces algorithmes, de ces systèmes.
04:11 Il y a plusieurs questions qu'il faut se poser.
04:13 Au niveau de la société, il y a la question de quelles décisions on laisse dans les mains des algorithmes.
04:17 On pourrait parler de décisions plus médicales,
04:20 on pourrait aborder des sujets beaucoup plus compliqués comme celui des voitures autonomes.
04:24 Est-ce qu'on a envie de se dire que demain,
04:26 s'il y a énormément d'accidents du voiture autonome, on ne le souhaite pas,
04:29 c'est parce que quelqu'un dans un bureau probablement américain aura pris la décision de,
04:35 dans cette situation-là, je vais du côté de la petite fille ou du côté du groupe de six personnes ?
04:41 Donc, le dilemme du travail.
04:43 Et ça, pour l'instant, en tant que société, on n'a pas la réponse.
04:47 Et d'ailleurs, ce sont des discussions qui vont être en cours pendant un moment.
04:51 La deuxième chose qui est au niveau de l'entreprise, pour le coup,
04:54 de la poignée d'entreprises qui, aujourd'hui, mettent à disposition des algorithmes dans leurs produits,
05:00 c'est la question de quelle perte d'efficacité je suis prête à faire pour gagner en éthique
05:08 et pour être contente de l'aspect éthique de mon algorithme.
05:12 Et donc, ça, ça passe par les personnes qui sont en charge de les construire dans les entreprises,
05:18 donc par le recrutement, et donc on retombe sur les problématiques de diversité aujourd'hui.
05:22 L'objectif, c'est de mettre tout le monde sur le même niveau de compréhension
05:25 pour que tout le monde puisse remettre en cause les algorithmes aujourd'hui
05:30 et que, du coup, on avance tous dans le bon sens.
05:32 [Générique]
05:34 [SILENCE]

Recommandations