Les progrès rapides de l'intelligence artificielle suscitent de nombreuses inquiétudes. Qui peut choisir les garde-fous à mettre en place ? Sur quels risques se focaliser ? Comment impliquer les entreprises tout en évitant les conflits d'intérêts ? Éléments de réponse avec Sacha Alanoca, experte en gouvernance de l'IA.
Category
📺
TVTranscription
00:00 Il y a cette impression lorsqu'on parle de l'IA que c'est un sujet dominé par les experts,
00:06 mais on n'a pas besoin d'être expert pour choisir collectivement le futur technologique
00:10 que nous souhaitons. Ces derniers mois sur le devant de la scène, on a beaucoup entendu parler
00:14 de risques spéculatifs hypothétiques par rapport à l'IA, notamment une super intelligence qui
00:20 arrive et détruise l'humanité. Mais il faut également se focaliser sur les risques existants
00:25 qui eux sont bien réels. Des questions de biais discriminatoires par rapport au futur du travail,
00:30 par rapport à la surveillance de masse, et ça ce sont des risques existants et j'aimerais presque
00:34 dire existentiels pour certains. Il faut à présent qu'on fasse très attention dans la manière dont
00:39 justement on reçoit les suggestions de grandes entreprises et de CEOs tels que Salm Atman.
00:45 Lorsqu'on vend un produit, on a potentiellement un conflit d'intérêt, on a déjà vu ça dans
00:50 d'autres secteurs, notamment dans l'industrie du tabac. Bien sûr, l'industrie et les startups ont
00:56 un rôle clé à jouer, mais il faut justement que le mouvement soit quand même lancé, initié par
01:03 les régulateurs et par la société civile pour justement essayer de limiter au maximum de
01:08 potentiels conflits d'intérêt. La gouvernance mondiale en matière d'IA ne tombe pas des nues.
01:15 Il y a l'Observatoire en politique publique de l'IA de l'OCDE qui a été lancé en 2020,
01:20 et la même année le Partenariat mondial en IA a également été lancé.
01:25 ♪ ♪ ♪