• le mois dernier
Avec Hélène Deckx Van Ruys, Directrice RSE, Diversité et Inclusion chez WFS (Worldwide Flight Services)

Retrouvez Muriel Reus, tous les dimanches à 8h10 pour sa chronique "La force de l'engagement" sur Sud Radio.

Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry

———————————————————————

▶️ Suivez le direct : https://www.dailymotion.com/video/x8jqxru
🎧 Retrouvez nos podcasts et articles : https://www.sudradio.fr/


##LA_FORCE_DE_L_ENGAGEMENT-2025-02-23##

Catégorie

🗞
News
Transcription
00:00AGP, Association d'Assurés Engagés et Responsables présente
00:05Sud Radio, le grand matin week-end, la force de l'engagement, Muriel Reus.
00:10Ce matin, engageons-nous pour une intelligence artificielle égalitaire.
00:15L'IA redéfinit notre monde.
00:17Elle influence le recrutement, l'accès aux prêts, la surveillance, la justice, la santé, la finance, la reconnaissance faciale.
00:24Mais derrière cette révolution technologique se cache une réalité préoccupante.
00:28Celle des biais de genre et des inégalités systémiques inscrites dans les algorithmes.
00:33Car loin d'être neutre, l'IA est façonnée par les données sur lesquelles elle est entraînée
00:37et par les biais inconscients de ses créateurs, en grande majorité des hommes.
00:42Vous voulez des exemples ?
00:43En 2018, Amazon développe un algorithme de recrutement qui élimine systématiquement les candidatures féminines.
00:49Pourquoi ? Parce qu'il a été entraîné sur des CV issus d'un milieu largement masculin.
00:54En 2019, des clientes d'Apple Card découvrent qu'on leur accorde des lignes de crédit bien inférieures à celles des hommes,
01:00malgré des profils financiers identiques.
01:03En octobre 2024, des algorithmes de l'accès aux allocations familiales ont été accusés de cibler de manière disproportionnée les femmes seules,
01:10les personnes à faible revenu et les jeunes dans les contrôles anti-fraude.
01:14Quant au logiciel de reconnaissance faciale, ils commettent plus d'erreurs lorsqu'ils identifient les femmes et les personnes issues de la diversité.
01:22Ce qui impacte directement les contrôles de sécurité et les décisions de justice.
01:26Alors, ces biais ne sont pas de simples bugs.
01:28Ils façonnent la vie des femmes, leur accès à l'emploi, aux financements et à leurs droits fondamentaux.
01:33Pourquoi, me direz-vous, l'IA est-elle encore si inégalitaire ?
01:37D'abord, parce que ceux qui la créent lui transmettent leurs biais.
01:41Aujourd'hui, les équipes qui développent cette technologie sont largement masculines.
01:45Seulement 27% de femmes dans la tech, 17% dans le numérique, 16,6% dans la recherche en intelligence artificielle.
01:52Résultat, des algorithmes conçus avec une vision partielle du monde.
01:56Ensuite, parce que l'IA apprend du passé et le passé est inégalitaire.
02:00Si l'on entraîne sur des décennies des décisions biaisées, recrutements dominés par les hommes,
02:05préaccordées à une majorité d'hommes, elle ne fait que perpétuer ces inégalités.
02:09Loin de corriger les erreurs, l'IA les grave dans le marbre.
02:12Enfin, parce qu'aucune régulation internationale n'oblige les entreprises à tester et corriger les biais sexistes de leurs algorithmes.
02:19Pour construire une IA égalitaire, il faut briser ce cercle vicieux, éviter les angles morts et imposer des règles du jeu.
02:26Lors du sommet pour l'action sur l'intelligence artificielle qui vient de se tenir à Paris,
02:30les gouvernements et les experts ont débattu des moyens de rendre l'IA plus responsable.
02:34Car l'intelligence artificielle est loin d'être un simple outil technologique, c'est un choix de société.
02:40Elle peut être un levier d'égalité ou un accélérateur d'injustice.
02:44Ce choix ne revient pas aux machines, il nous appartient.
02:47Bonjour Hélène.
02:48Bonjour Muriel.
02:49Vous êtes une figure emblématique de la responsabilité sociétale des entreprises, de la diversification et de l'inclusion.
02:54Votre engagement porte sur la manière dont notre monde peut évoluer vers un avenir plus durable et équitable
02:59en intégrant les enjeux environnementaux, la diversité, l'inclusion et les cadres de gouvernance.
03:04Est-ce que c'est la sous-représentation des femmes dans le numérique et l'intelligence artificielle
03:09qui a conduit cet engagement sur cette question ?
03:13Oui, partiellement, mais pas que.
03:16On a parlé des enjeux ESG, environnement, sociétal et gouvernance.
03:23Je viens d'une famille très féministe, mais le féminisme-humanisme.
03:30J'avais un rôle modèle qui était ma grand-mère, très avant-gardiste sur différents points.
03:34La question des femmes a toujours été un vaste sujet qu'on traitait chez nous
03:40de façon à faire bouger les lignes pour que les droits des femmes soient respectés
03:44et que les femmes prennent de plus en plus de responsabilités, soient de plus en plus dans la lumière
03:49et aient leur place complètement intégrée dans la société et dans les différents mouvements de la société.
03:56Bien sûr, mais quand même, au-delà de cette enfance et de cette vocation très précoce sur l'égalité et le féminisme,
04:05vous êtes aujourd'hui copilote au sein du laboratoire de l'égalité et du groupe de travail sur les femmes et l'intelligence artificielle.
04:11En France, les femmes ne représentent que 29,2% des étudiantes en engineering.
04:16Ce chiffre suit à 17% dans le numérique et à 16,6% en informatique et dans les systèmes d'information.
04:22Pourtant, les femmes réussissent peut-être même mieux que les garçons.
04:26Elles ont 88% de réussite au bac contre 78% pour les garçons.
04:30Alors pourquoi, malgré ces performances scolaires, les jeunes filles restent-elles aussi peu nombreuses dans ces filières qu'on appelle les STEM,
04:36les sciences, technologies, ingénierie et mathématiques ?
04:39En fait, ça c'est une vaste question. C'est d'abord un sujet sociétal, c'est-à-dire qu'il y a un vrai problème de mentalité.
04:47Je pense qu'on a aussi une responsabilité très particulière, donc l'éducation, les parents et l'entreprise.
04:53Pourquoi est-ce qu'on n'oriente pas davantage les filles qui sont aussi bonnes voire meilleures que les garçons dans les STEM, dans les maths ?
05:00En fait, le problème c'est que les parents dissuadent les filles de rejoindre des carrières scientifiques
05:07parce qu'elles ne sont pas suffisamment représentées et parce qu'on leur dit que ce n'est pas un milieu pour eux.
05:12Et encore plus quand on parle de l'IA et quand on parle de la tech parce qu'elles sont très peu nombreuses
05:19et que quand on leur dit que si tu y vas, tu vas se retrouver toute seule, tu vas devoir faire face à un sexisme ambiant,
05:26à un environnement qui n'est pas du tout accueillant.
05:29Et aujourd'hui, on a aussi le problème de la maturité des filles, donc le manque de confiance en soi des filles.
05:36Les filles n'ont pas suffisamment confiance et ne croient pas suffisamment en elles que pour aller dans les carrières scientifiques
05:43de façon à atteindre une certaine autonomie financière.
05:48Parce que n'oublions pas qu'on oriente davantage les filles dans des endroits, dans des secteurs où elles sont surreprésentées,
05:55la com, le marketing, la RH et beaucoup moins dans la tech.
05:59Et moi j'ai l'impression que ça fait des décennies qu'on entend ça, j'ai l'impression que ça fait des années et des années qu'on relève ce constat.
06:05Mais que faut-il faire pour que les parents comprennent enfin que l'avenir va peut-être se jouer là, il va sûrement se jouer là ?
06:12Alors pour moi il y a deux choses, il y a la sensibilisation et il y a la déconstruction des stéréotypes.
06:17La sensibilisation c'est encore et toujours avoir montré aux parents, sensibiliser les parents au fait qu'il n'y a pas de métier réservé aux garçons,
06:26que les filles si elles veulent être astronautes dans la tech ou autre, tout est possible pour elles.
06:33Donc ça il faut vraiment qu'on puisse avoir des mentalités, qu'on puisse avoir un discours qui soit totalement libérateur je dirais,
06:43en ne frustrant pas les filles et en ne leur donnant pas des limites.
06:47Alors cette intelligence artificielle, elle est souvent présentée comme neutre.
06:51On nous dit elle est neutre, il n'y a aucun problème, pourtant on sait bien que les algorithmes, enfin pas tout le monde le sait d'ailleurs,
06:57que les algorithmes méritent des biais de leurs concepteurs qui sont souvent des hommes et des bases de données utilisées.
07:02Comment est-ce qu'on peut éviter que l'IA devienne un accélérateur des inégalités de genre ?
07:09Alors l'IA n'est pas du tout neutre, effectivement comme vous venez de le rappeler.
07:12Pourquoi elle n'est pas neutre ? Parce qu'elle est fondée à 88% construite par des hommes qui reproduisent inconsciemment ou non leurs biais,
07:21donc leurs biais inconscients, donc pas du tout neutres.
07:23Qu'est-ce qu'on peut faire pour lutter contre ça ?
07:25Pour lutter contre ça, il faut poser un cadre, il faut mettre des limites, il faut poser des... pas des quotas mais des...
07:35C'est-à-dire qu'il faut intervenir dès la conception j'imagine ?
07:37Exactement, mettre différentes étapes, vérifier, avoir des audits qui permettent au fur et à mesure de la construction des algorithmes
07:44de vérifier qu'elles soient bien égalitaires et non plus inégalitaires.
07:49Et en fait il y a deux choses, il y a un, les algorithmes et deux, les bases de données.
07:54Les bases de données sont aussi très importantes et notamment par rapport à la santé,
07:58on s'aperçoit que, on sait tous que la santé des femmes n'est pas la même que celle des hommes,
08:03or les bases de données, elles sont surtout, les datas qu'il y a dans les bases de données,
08:07ce sont des données qui sont souvent pour les hommes et pas pour les femmes.
08:11En fait on a un manque de représentation, représentativité des femmes.
08:15Qu'est-ce que ça veut dire que les femmes peuvent passer sous le couvert d'alertes par exemple ?
08:19Tout à fait, et c'est là où ça peut amener des erreurs de diagnostic.
08:22Parce qu'on n'a pas suffisamment de représentation des femmes et que la santé des hommes est différente de celle des femmes,
08:26ça peut amener des erreurs de diagnostic.
08:28Alors le laboratoire de l'égalité auquel vous appartenez bien sûr a mené une étude récente
08:32et 69% des répondants estiment que les groupes de recherche sur l'éthique de l'IA existent,
08:36mais qu'ils sont peu visibles.
08:38Que diriez-vous aujourd'hui ?
08:40Est-ce que vous pensez qu'il y a des instances pluridisciplinaires
08:43qui effectuent des recherches sur l'éthique de l'IA aujourd'hui ?
08:45Alors de plus en plus, notamment les universités, notamment les organismes de recherche,
08:50donc la pluridisciplinarité est extrêmement importante
08:54parce qu'elle permet d'avoir une vue holistique et non pas segmentée.
08:58Donc c'est très important pour qu'on puisse avancer tous ensemble.
09:01Et l'éthique, c'est le point clé.
09:03C'est qu'aujourd'hui, surtout en Europe, on est plutôt en avance puisqu'on a eu l'IA Act.
09:08Elisabeth Born avait mis en place un comité d'IA l'année dernière.
09:14Et c'est vrai qu'on est tous d'accord, surtout en Europe,
09:17on a vraiment cette troisième voie pour dire qu'on a besoin d'un cadre éthique
09:21pour éviter les dérives, pour encadrer toutes les pratiques de l'IA,
09:27pour pouvoir construire durablement et de façon éthique et inclusive une IA.
09:32Et c'est vrai qu'aujourd'hui, on s'aperçoit que ni les États-Unis ni la Chine n'ont ce cadre-là.
09:38Et c'est vrai qu'avec l'Europe, et notamment on l'a vu la semaine dernière avec le sommet de l'IA,
09:43en fait l'Europe est la troisième voie qui a pour but de créer un cadre éthique,
09:49qu'il soit un cadre technologique éthique pour pouvoir lutter contre ces biais de genre.
09:54Et les enjeux éthiques sont extrêmement importants aujourd'hui.
09:58Alors l'éthique, c'est pas simplement une éthique sur l'IA en elle-même,
10:04c'est-à-dire pas simplement sur l'informatique.
10:06Ça veut dire construire des groupes dans lesquels il y a bien sûr des espères en informatique,
10:10mais en linguistique, en anthropologie, en droit et en sociologie.
10:13C'est bien ça le cadre de responsabilité qu'il faut mettre en place.
10:15Absolument. Et en plus de ceci, il y a aussi la représentation de la société.
10:19Aujourd'hui, si on veut créer une IA qui soit représentative de la société,
10:23il faut qu'on prenne en compte les cinq piliers de la diversité.
10:26Donc je rappelle, on a le genre, donc là c'est vrai qu'on parle plutôt de femmes,
10:29mais on a le genre, on a le handicap, on a l'ethnicity, on a le sexual orientation et l'âge.
10:39Donc pour avoir une IA éthique qui soit durablement représentative de la société,
10:46il faut absolument qu'elle ait ces cinq piliers de la société.
10:49Aujourd'hui, on n'en est pas du tout là.
10:50Et encore plus au niveau des femmes, parce qu'on sait que 88% des hommes construisent les algorithmes.
10:56Alors comment est-ce qu'on va régler ça ?
10:57Parce qu'objectivement, les Etats-Unis, c'est du libéralisme absolu.
11:01On ne va pas aller expliquer à M. Hellermotz comment il doit faire son IA,
11:06Vous pensez vraiment que l'Europe va être une force de proposition ou peut-être une force de contrainte ?
11:12Alors il faut qu'elle le soit. On a des résistances qui s'organisent.
11:16Là vous parlez de Tchadjipiti, moi j'ai envie de vous parler de Mistral et du Tchad Mistral pour contrebalancer.
11:22En parlant de Tchadjipiti, pour moi il est absolument essentiel que les femmes,
11:27ça c'est un détail, mais il faut que les femmes,
11:29alors les femmes sont moins nombreuses que les hommes à utiliser Tchadjipiti, ça c'est un fait.
11:34Ah pourquoi ?
11:35Parce qu'elles sont moins adeptes de la technologie, peut-être qu'elles n'y pensent pas,
11:40elles sont moins « aventurières » au niveau de la technologie, or c'est hyper important.
11:45Elles sont peut-être plus sincères, elles se disent que si elles utilisent Tchadjipiti,
11:48en fait c'est un peu usurper une compétence qu'elles devraient avoir ou qu'elles pourraient avoir.
11:52Vous pensez que ça joue ici ?
11:53Alors je pense que ça peut jouer en effet, mais c'est surtout le fait d'utiliser, donc c'est les usages.
11:59Pourquoi est-ce que c'est important que les femmes utilisent Tchadjipiti ?
12:02Pour alimenter les données ?
12:03Exactement, pour alimenter.
12:04Et à propos du wording, vous en parliez à l'instant, c'est important,
12:08parce que quand elles vont faire leur prompte, il faut qu'elles parlent au féminin,
12:11parce que ça indiquera à l'algorithme qu'il y a aussi des femmes qui sont présentes.
12:15Et donc ça veut dire qu'en étant auto-apprenant, il va se nourrir des promptes qu'on lui donne.
12:20Donc c'est pour ça qu'il faut absolument que les femmes puissent également prompter et utiliser Tchadjipiti,
12:25ou le Tchad Mistral, comme troisième voix.
12:29Et au niveau de Tchadjipiti, ce qui est important, c'est que vous vous en servez comme de super-assistant ou assistante.
12:35Mais c'est ce qui vous permet de, alors n'allez pas chercher dans Tchadjipiti des vérités extrêmes,
12:40il faut toujours que vous ayez un aspect critique, un œil critique,
12:43pour pouvoir aller cruncher votre data et vérifier.
12:46Après vous pouvez vous en servir pour vous organiser, c'est un super-assistant qui vous fait gagner du temps.
12:52Mais n'oubliez pas que dans les tâches de fond, il faut absolument que vous checkiez votre data.
12:57Alors, vous allez vérifier mesdames, celles qui nous écoutent, et puis surtout vous allez utiliser Tchadjipiti
13:02parce qu'il est extrêmement important qu'on nourrisse ces algorithmes de notre vision au féminin.
13:06Vous pouvez poser toutes les questions à partir du moment où elles sont posées de façon féminine.
13:11Ce manque de diversité dans la tech, est-ce que c'est un frein à l'innovation ?
13:16On voit bien que les entreprises technologiques sont loin d'être exemplaires.
13:19Il y a 18% de femmes dans le NEXT 40, 20% dans le CAC 40.
13:24En quoi l'exclusion des femmes dans le numérique représente un frein pour l'innovation et l'économie ?
13:29De façon générale, il n'y a pas que dans le numérique.
13:32On sait que les équipes diversifiées sont bien plus performantes, environ 30%.
13:38Il y a une performance économique, une performance de croissance.
13:42Plus vos équipes sont diversifiées, plus vous êtes source de progrès et plus vous êtes source d'innovation.
13:47Cela se voit particulièrement dans la tech parce que les femmes sont vraiment déficitaires au niveau du nombre.
13:53Mais c'est le principe de la diversité et de l'inclusion.
13:56Plus vous allez avoir des équipes diverses, plus vous allez avoir une espèce de panel au niveau de votre innovation et de votre progrès.
14:03Il ne faut pas oublier que la tech et la diversité sont source d'innovation.
14:08Un dernier point et on va terminer là-dessus.
14:11Il y a encore un chiffre qui est alarmant, me semble-t-il.
14:149% en 2018 de femmes dans les startups, 24% en 2021.
14:20On pourrait se dire que ça a progressé mais on est loin de la parité.
14:23En revanche, 88% des fonds levés vont encore à des équipes masculines.
14:27Pourquoi ce frein ?
14:29Pourquoi est-ce que les fonds d'investissement n'osent pas donner aux femmes dans la tech les moyens d'investir ?
14:37Je dirais que c'est à nouveau une question de mentalité, de déconstruction des stéréotypes.
14:43Tant qu'on n'aura pas changé les mentalités et qu'on n'aura pas montré que les femmes sont tout aussi performantes,
14:48voire davantage performantes que les hommes, et notamment en matière de gestion de crise.
14:53On a vu ça pendant le Covid.
14:55Tant qu'on n'aura pas fait un travail de fond sur les générations actuelles et futures,
15:01pour dire que les femmes sont aussi compétentes, on n'y arrivera pas.
15:05Moi, je trouve ça tout terriblement surprenant.
15:08Comme vous pouvez le dire, dans le Covid, on a vu les femmes à l'œuvre.
15:12Dans les conseils d'administration où elles sont présentes, on voit bien que les performances augmentent.
15:16Donc je me dis, messieurs qui nous écoutez, qui êtes à des postes de pouvoir,
15:20acceptez de donner aux femmes les moyens de leur performance.
15:23Absolument, c'est exactement le message à faire passer.
15:26Et n'oubliez pas qu'aujourd'hui, on est dans une société qui se transforme.
15:29La nouvelle société est à construire, alors non pas à deux mains, mais à quatre mains,
15:33hommes et femmes ensemble, et qu'on ne remplace pas le patriarcat par le matriarcat,
15:38ce qui n'aurait pas de sens.
15:39Mais qu'aujourd'hui, il faut faire deux choses, c'est construire ensemble le monde de demain
15:43et surtout changer le narratif par rapport à l'IA.
15:45On est toujours dans un narratif extrêmement négatif.
15:48L'IA fait peur et il faut passer ce cap-là pour se dire, OK, c'est un progrès.
15:54On est dans le progrès, on est dans l'innovation.
15:56En fait, on est en train de se réinventer et on est en train de réinventer les métiers.
16:00Mais si on continue et on persiste à dire que l'IA fait peur et est négatif, on ne va jamais avancer.
16:07Alors n'ayons plus peur, soyons inclusifs, soyons égalitaires et merci beaucoup Hélène pour ce partage.
16:13Merci à vous.

Recommandations