• avant-hier
L’avis de Anis Ayari, ingénieur en Intelligence Artificielle. Il réalise des vidéos de vulgarisations sur l’IA, le machine Learning , la Data Science sur sa chaîne Defend Intelligence.

Face à lui, Apolline Guillot, rédactrice en chef de Philonomist. Normalienne agrégée de philosophie de l’École normale supérieure de Lyon.

Category

🗞
News
Transcription
00:00C'est un objet politique, en fait, l'IA.
00:01Ce qui fait qu'on est une société humaine qui fonctionne,
00:04c'est qu'on est capable de répondre de nos actes.
00:05Alors que demain, une machine qui fait quelque chose,
00:07une IA qui va faire quelque chose,
00:08ne pourra pas forcément en rendre compte de manière transparente
00:11puisqu'elle-même n'obéira pas effectivement à des normes.
00:14Elle ne sera pas consciente des normes sur lesquelles elle a été entraînée.
00:16Parce que ça ne sera jamais...
00:17Il faut comprendre qu'une IA n'aura jamais d'intention.
00:20Ce qu'ils devront en rendre compte,
00:21c'est les gens qui l'ont entraînée, c'est les gens qui l'ont construite.
00:23Et surtout, c'est les gens qui l'ont utilisée à ce moment-là pour faire ça.
00:26C'est comme si à toutes les échelles,
00:27entre le moment où on produit les données,
00:29où on va sélectionner les données,
00:30où on va étiqueter les données, le pré-pronce,
00:32tout ça, c'est des mille étapes
00:34où l'humain doit être tenu responsable.
00:37Et c'est ça qui est dur, c'est qu'il y a une responsabilité collective
00:39qu'on ne maîtrise pas encore vraiment
00:40parce qu'on parle beaucoup des ingénieurs,
00:41des gens qui codent, etc.
00:43Mais en réalité, il y a plein d'étapes
00:44qui sont d'une responsabilité collective, je dirais, qui est politique.
00:48C'est un objet politique, en fait, l'IA.
00:50On fait comme si c'était une technologie, mais c'est plus, en fait.

Recommandations