• il y a 2 mois
Xerfi Canal a reçu Meriem Hizam, doctorante en sciences de gestion et du management, LEMNA, Nantes Université, pour parler des enjeux éthiques associés à l'IA.
Une interview menée par Jean-Philippe Denis.

Category

🗞
News
Transcription
00:00Bonjour Myriam Issam. Bonjour Jean-Philippe. Myriam Issam, vous êtes doctorante en sciences
00:12de gestion et du management au Lemna, Université de Nantes, laboratoire économie-management de
00:16l'Université de Nantes. Éclairage sur l'évolution de la fabrique de la décision à l'ère de l'IA,
00:21c'est le papier que vous avez publié dans Management & Data Science, qui est une revue
00:24qu'il faut lire. Ce sont des textes courts, percutants, à impact et extrêmement intéressants.
00:30On va discuter ensemble des enjeux éthiques. Il y a le grand enjeu de est-ce que la machine va
00:38nous remplacer dans nos décisions ? Il y a le grand enjeu de est-ce qu'elle va nous voler nos emplois,
00:42nos jobs ? Puis il y a l'enjeu éthique. Alors les enjeux éthiques, qu'est-ce qu'on doit pointer ?
00:49Vous nous dites responsabilité, explicabilité, redevabilité. Dites-nous tout.
00:57En effet, l'intelligence artificielle, ça date des années 50 et l'éthique aussi. Je pense que
01:02ce n'est pas une question nouvelle qui vient de se poser. Mais ce qui est intéressant,
01:06c'est qu'avec la manipulation de l'IA générative, je reviens toujours à l'IA générative,
01:10parce qu'elle est manipulable par le grand public. On a entendu parler des scandales un peu éthiques,
01:17qui a par exemple le cas de la bombe avec ChatGPT, le cas de l'IA conversationnel pédophile de
01:25Snapchat. Donc ce sont des éléments qui ont été pas mal communiqués sur les réseaux sociaux qui
01:30ont fait parler le public. Évidemment, si on revient à l'IA de manière générale,
01:34il y a toujours un risque d'introduction ou bien de glissement des billets cognitifs ou autres. Les
01:42billets dans les systèmes d'information vont se glisser, même en détriment des meilleures
01:45intentions. Donc ce que nous on peut faire, c'est vraiment essayer de minimiser ces billets-là. Après,
01:51les billets ne sont pas forcément mauvais, c'est ce que je dis dans mon papier, parce que c'est ce
01:54qui fait ce que nous sommes. Mais dans des organisations, dans des contextes de développement
01:59des systèmes d'intelligence artificielle, l'idée ou bien ce qui est proposé actuellement, c'est de
02:04travailler sur la diversité des équipes qui développent les solutions de l'IA, travailler
02:09sur l'interdisciplinarité aussi pour introduire des chercheurs qui viennent de domaines un peu
02:13pas vraiment rattachés au domaine sur lequel on développe le système. Mais il y a aussi un
02:20travail actuellement de recherche sur de nouvelles approches pour aborder les données et pour essayer
02:26de rendre les données les plus éthiques possibles. Ne jamais oublier que l'IA ne sera jamais
02:31responsable. Vous dites d'ailleurs, qui assumera la responsabilité en cas de problème ? L'IA, elle
02:36n'est pas responsable ? Parce que ce n'est pas une personne physique ou morale, donc forcément,
02:40elle n'est pas responsable de ce qu'on lui demande de faire, ce qu'on lui demande de faire
02:45de manière implicite, ce qu'elle nous donne en contrepartie, c'est-à-dire les outputs, elle ne les
02:51crée pas. C'est nous qui mettons des algorithmes d'apprentissage. Du coup, la question se pose,
02:56pour ces algorithmes d'apprentissage-là, est-ce qu'il y avait un problème au niveau de la
02:59conception ? C'est la phase d'entraînement plus qui a entraîné ce problème ou bien qui a entraîné
03:03cette faille ? C'est l'utilisateur qui a mal utilisé le système ? Donc moi, quand je parle de
03:09responsabilité, je pense que c'est important de définir à quelle étape exactement il y avait
03:14le souci ou bien la faille. Mon idée n'est pas dans une logique de pénalisation ou bien pour
03:20pénaliser la personne qui a contribué en quelque sorte aux failles, mais c'est plus pour valoriser
03:26et pour aller vers une IA plus responsable et une IA qui est plus éthique, qui va répondre
03:32à nos besoins tout en respectant notre vie privée, notre intégrité, notre dignité et notre bien-être.
03:38Vaste sujet dont on n'a pas fini de parler parce que la question de la responsabilité,
03:45effectivement, l'IA, ce n'est pas une personnalité juridique. Donc on ne mettra pas une IA en prison.
03:52Voilà. Donc ça veut dire qu'on mettra quelqu'un d'autre. Merci à vous.
03:55Merci à vous.

Recommandations