• il y a 13 heures
Dans un monde où l'intelligence artificielle, au cœur d'un grand nombre de débats, prend une place grandissante dans nos usages au quotidien, une question revient souvent : l'IA peut-elle être éthique et égalitaire ?

En réalité, il est difficile d'attribuer des comportements propres à l'humain à des algorithmes, mais questionner les concepteurs peut permettre d'obtenir certaines réponses
Transcription
00:00Est-ce que l'IA est égalitaire ?
00:02Alors d'abord, effectivement, ça ne fait pas trop sens d'attribuer des propriétés humaines à des algorithmes.
00:10Ce qu'il faut se poser comme question, c'est est-ce que les procédés que les humains ont utilisés pour créer ces algorithmes
00:16sont éthiques, sont égalitaires et prennent en compte toute la complexité du monde social, avec notamment les inégalités.
00:22Il y a beaucoup de biais sociaux qui sont reproduits par des systèmes d'IA qui ont été analysés.
00:29Un exemple, c'est la mauvaise reconnaissance des visages pour les personnes de couleur noire ou non blanche par les systèmes.
00:37Il a été requêté à plusieurs grands modèles de langue de créer des histoires contenant les mots « fille », « garçon », « homme » et « femme ».
00:45Et les histoires qui ont été produites pour le mot « fille » font mention majoritairement de questions de maternité, de mère, d'amour, de beauté, etc.
00:57Alors que les histoires produites pour inclure le mot « garçon » font référence à des aspects d'aventure, de découverte, d'audace
01:06et d'autres stéréotypes liés à des conceptions traditionnelles de la féminité ou de la masculinité.
01:11La cause du problème des biais qui sont reproduits par les systèmes d'IA, c'est la non-considération, au moment de la création de ces algorithmes,
01:20de facteurs sociaux complexes qui sont à l'œuvre dans les données humaines que l'on va utiliser pour créer ces algorithmes,
01:29mais aussi, comme je le disais, dans la conception, la simplification systématique que l'on doit faire du monde humain qui est complexe
01:38lorsque l'on veut attaquer des questions humaines, par exemple produire du texte avec des outils mathématiques, avec des formules mathématiques.
01:47On doit nécessairement simplifier la complexité du monde humain, par exemple, qu'est-ce que c'est que le sens d'un mot ?
01:53Et dans le choix même de cette simplification, de comment est-ce qu'on fait la simplification,
01:57il y a des a priori sociaux qui sont dus à notre culture et qui ensuite vont avoir un impact sur le type de résultat que vont produire les modèles qui sont basés sur ces hypothèses.
02:08Ces modèles sont, de façon par construction, conservateurs. Ils reproduisent l'historique.
02:14Et donc, pour ne pas nécessairement reproduire l'historique qu'on ne souhaite pas vouloir être reproduit dans le monde futur,
02:20il faut qu'on travaille à faire de la science nouvelle pour ces modèles.
02:23Un exemple dramatique, c'est celui mis en place par le gouvernement néerlandais à la fin des années 2010,
02:30qui a conçu un système d'intelligence artificielle en toute opacité pour prédire la probabilité qu'une famille fraude aux allocations familiales.
02:38Et ce système a été fait sans aucune transparence, avec du profilage racial et sans aucun garde-fou sur des données qui étaient à caractère racial,
02:47qui n'avaient pas été collectées de façon légale. Et la mise en place de ce système sans aucun garde-fou,
02:52donc dès qu'une famille était étiquetée comme possiblement fraudant les allocations familiales, les allocations lui étaient systématiquement coupées.
03:00Ça a jeté des milliers de familles dans la pauvreté. Des milliers d'enfants ont été retirés de leurs parents.
03:07Il y a eu beaucoup de suicides, à tel point que le gouvernement a été sanctionné de plusieurs millions d'euros
03:12et que l'affaire est arrivée à la Cour de justice des droits humains de l'Union européenne.
03:17On parle beaucoup de rendre le monde meilleur avec l'intelligence artificielle,
03:21ou en tout cas, ce sont des slogans qui sont souvent pris par des grandes entreprises qui produisent des grands modèles de langues que vous connaissez.
03:28Je pense notamment à OpenAI, qui digue directement sur son site qu'il travaille pour le bien de l'humanité.
03:33Un algorithme ne peut pas, en soi, ou même plusieurs algorithmes ne peuvent pas résoudre le problème du changement climatique.
03:38Le problème du changement climatique, typiquement, c'est un problème qui est extrêmement complexe et qui doit faire intervenir de multiples acteurs,
03:44gouvernements, citoyens, citoyennes, entreprises, avec des dynamiques de pouvoir extrêmement complexes.
03:50Et les algorithmes peuvent être là pour diagnostiquer le problème de façon plus précise, pour faire des prédictions plus précises,
03:56pour identifier ce que l'on peut faire ou pas avec des algorithmes, pour identifier si une certaine politique publique mise en place
04:02va ou pas porter ses fruits, ou bien si elle a des angles morts que l'on n'avait pas prévus.
04:06Mais il faut bien voir qu'un algorithme ou une approche algorithmique, en soi, ne peut pas résoudre un problème compliqué,
04:12et que c'est la responsabilité des scientifiques de mettre en place des collaborations multidisciplinaires
04:18pour faire en sorte que les méthodes algorithmiques, à base d'intelligence artificielle ou pas,
04:23contribuent à un effort commun pour résoudre, ou en tout cas, pour attaquer des problèmes difficiles, par exemple de justice sociale.

Recommandations