Le documentaire d’Henri Poulain, diffusé mardi à 22h40, révèle la face sombre de l’intelligence artificielle.
Catégorie
🗞
NewsTranscription
00:00Bonjour Henri Poulain. Bonjour Céline. On est très loin des beaux discours des Zuckerberg, des Musk qui nous disent en gros que l'intelligence artificielle va sauver le monde.
00:07Vous levez le voile dans votre documentaire sur ceux que vous appelez les sacrifiés de l'IA, ces hommes, ces femmes qui sont exploités par cette industrie.
00:14Parce que contrairement aux récits des géants de la tech, ces systèmes n'ont rien d'autonome, ce sont bien des humains qui les façonnent et c'est ce que veulent nous faire croire, ces patrons de l'IA.
00:22C'est ce que vous expliquez dans le film. Dans quel but ?
00:24Il y a un récit marketing en fait. Il s'agit quand même de présenter l'IA comme le résultat d'un progrès technologique ultime qui a franchiré l'humanité, du travail, du dur labeur.
00:36Et évidemment, la réalité est tout autre et il ne s'agit pas de le révéler.
00:40Et c'est celle que vous nous montrez. Alors Siri, c'est de l'IA. La recommandation d'un restaurant sur Internet, c'est de l'IA.
00:45Une discussion en ligne avec un conseiller virtuel, c'est de l'IA. Elle est partout.
00:49Et pour qu'elle fonctionne, pour qu'elle soit alimentée, elle a besoin de milliards de données, les datas qui sont fournies par les data workers, les travailleurs de la donnée.
00:57On sait combien ils sont à travers le monde ?
00:59Alors la Banque Mondiale a sorti une estimation, c'est très compliqué de savoir très précisément parce que bien sûr, il y a une dynamique d'occultation volontaire.
01:06Mais l'estimation de la Banque Mondiale, c'est entre 150 et 430 millions de personnes actuellement sur la planète en 2023.
01:13Alors on sait que la tendance s'amplifie et que c'est une amplification assez considérable.
01:17Donc il y en a bien plus. La fourchette est large, mais ils sont très nombreux.
01:21Alors voilà en quoi consiste leur travail sur leur ordinateur.
01:24Là, je suis en train d'annoter des images. Donc on nous donne des images et on doit cocher des options.
01:35Par exemple ici, j'ai l'image d'un feu actif et plusieurs options, feu actif, fumé, brumeux ou dégagé.
01:46L'immeuble est en feu, on peut donc classer l'image dans la catégorie feu actif.
01:51Ça semble un peu bébête, à quoi ça va servir concrètement ?
01:54En fait, il faut imaginer qu'une IA, c'est comme une locomotive.
01:57Elle est très efficace pour avancer sur des rails, mais elle a besoin de charbon.
02:02Et les datacels, c'est le charbon de la locomotive.
02:04C'est pour alimenter les algorithmes qui permettent à l'IA de fonctionner.
02:10Il y a même des prisonnières en Finlande qui sont utilisés pour faire ce travail ?
02:15Oui, en fait, tous les moyens sont bons parce qu'ils ont besoin de tellement de données.
02:19On est sur des sommes et des volumes absolument hallucinants et qui vont crescendo.
02:25Il n'y a pas de semaine sans qu'on ait besoin davantage de données.
02:31Et il faut davantage de travailleurs.
02:33Ce n'est pas simple de trouver ces centaines de millions de travailleurs.
02:37Les prisons sont un endroit où on peut les trouver.
02:40Vous pensez qu'en France, ça existe aussi ?
02:42Il y a quelques data workers, des travailleurs de la donnée en France.
02:47Mais il y en a quelques-uns.
02:50Souvent, c'est dans les populations paupérisées, problématiques,
02:54qui sont plus pauvres que la moyenne, notamment les migrants,
02:59mais également des jeunes diplômés qui, ne trouvant pas de travail,
03:04finissent par se résoudre à ces déâts, à cette facilité.
03:07Ces data workers sont essentiellement dans les pays du Sud,
03:10en Afrique surtout, parce que c'est payé une misère,
03:13donc ils sont plus malléables, c'est ça l'idée ?
03:15Oui, Afrique, Asie du Sud-Est également, Amérique du Sud,
03:18beaucoup au Venezuela, beaucoup en Indonésie.
03:21Lorsque l'on a cartographié les zones, c'était extrêmement difficile
03:24parce qu'il y a une volonté délibérée d'occulter ce marché.
03:28Et puis, il y a toute une partie de ce travail qui passe par des plateformes,
03:32totalement numériques, évidemment, et qui ne localisent pas,
03:36qui ne géographisent pas leurs travailleurs.
03:38Ce qu'on a entendu tout à l'heure dans l'extrait, c'est très gentillet,
03:41parce que vous avez rencontré des ex-salariés, des sous-traitants
03:44de Google, Meta, Amazon, OpenAI, etc.
03:47Ils sont kenyans, et ils vous ont raconté l'enfer de leur travail.
03:51Souvent, j'annotais des contenus dans lesquels des enfants étaient agressés.
03:55Je vais essayer de ne pas être trop ému, mais les contenus que j'ai modérés
03:59pour les enfants, c'était monstrueux.
04:06Des enfants étaient exploités, certains étaient violés,
04:09les parents de certains les forçaient à avoir des rapports sexuels
04:12avec des animaux.
04:14Ce genre de contenu, vraiment, ça vous détruit.
04:17Il passe 10-12 heures à regarder des images traumatisantes,
04:20à lire des textes violents, alors qu'au début, on leur montrait
04:23plutôt des images de chats, si j'ai bien compris.
04:26Pourquoi ils doivent visionner ça ?
04:28Il s'agit d'entraîner, en l'occurrence, chaque GPT,
04:31à imiter le comportement, l'écriture et la création humaine.
04:36Il s'agit d'imiter à faire comme l'humain, mais également
04:40à imiter à ne pas faire certains comportements.
04:43C'est de la modération, finalement ?
04:46J'ai du mal avec le terme modération, parce qu'autant la modération
04:49sur les réseaux sociaux, comme Meta, Facebook, Instagram,
04:52a une fonction sociale évidente, puisqu'il y a quelques esprits
04:55dérangés qui publient des choses absolument ignobles,
04:58qu'il s'agit de nettoyer, d'enlever, pour que le public n'y accède pas.
05:01Là, en l'occurrence, ce n'est pas de la modération,
05:04puisque ces contenus-là vont être cherchés par OpenAI
05:07sur des sites ou sur des réseaux sociaux,
05:11sur des sites un peu glauques qui ont déjà été produits,
05:14parfois sur le Darknet même, pour simplement entraîner,
05:18alimenter, finalement, le moteur de chaque GPT à ne pas faire ainsi.
05:24Et pour ne pas faire ainsi, il faut savoir ce que c'est que cet ainsi-là.
05:28Et évidemment, là, un sacrifice d'une brutalité infinie,
05:31puisqu'il y a des endroits post-traumatiques très graves
05:34qui génèrent des suicides, des meurtres, et puis des pressions
05:37très profondes qui déstabilisent, bien sûr, pas simplement des individus,
05:40mais également des familles, des communautés entières.
05:42– L'homme qu'on vient d'entendre, c'est l'un de ceux que vous avez anonymisé,
05:45on ne voit que sa bouche, parce que c'est dangereux
05:48de témoigner sur les pratiques des géants de l'IA ?
05:50– C'est très dangereux, à mille endroits, il risque la prison,
05:54il signe des NDA qui ne sont pas achetés,
05:57je vais te payer un dollar de l'heure, mais de surcroît,
06:00et tu vas travailler énormément dans des conditions absolument déplorables,
06:03et si jamais tu en parles de ce travail-là, tu vas faire dix ans de prison.
06:07La loi Kenyan permet ce type de choses,
06:09et c'est d'autant plus dangereux qu'ils sont extrêmement surveillés.
06:12Nous, ça faisait un quart d'heure qu'on tournait à Nairobi,
06:15pour la première fois dans un petit hôtel,
06:17quand on a vu débarquer la police politique kenyane,
06:20l'équivalent de la DGSI, pour nous demander d'arrêter de tourner.
06:24On s'est débrouillé de mille manières pour ne pas totalement interrompre le tournage,
06:27et les tournages se sont suivis, mais il y avait une pression,
06:29une volonté de faire pression sur les témoins,
06:31et certains, effectivement, soit ont refusé de témoigner par la suite,
06:35soit ont demandé, évidemment.
06:37On leur a proposé, bien sûr, de les anonymiser pour essayer de les préserver.
06:40Après avoir regardé votre film, vous aimeriez qu'on se dise tous,
06:44avant d'aller poser une question à Tchad GPT,
06:46est-ce que j'en ai vraiment besoin ?
06:48Est-ce que je ne peux pas trouver la solution par moi-même ?
06:51Oui, il y a différents stades de responsabilité,
06:53il y a des responsabilités individuelles,
06:55on peut tous et toutes se poser cette question,
06:57et puis aussi une responsabilité politique.
07:00Cette industrie est très immature, elle vient tout juste d'émerger,
07:04il est logique que les pouvoirs publics n'en aient pas encore tout à fait conscience,
07:07mais il s'agit de se poser la question,
07:09et de remettre dans la question politique des IA,
07:13la question des travailleurs et des travailleuses,
07:15des centaines de millions de travailleurs qui la nourrissent.
07:19D'autant que les IA utilisent tout un tas de métaux qu'on extrait du sol,
07:22cuivre, cobalt, or, tungstène, etc.,
07:25ça détruit les humains, mais aussi la planète.
07:27Oui, ce que l'on fait aux humains, on le fait à la planète, à la nature évidemment.
07:30Donc là il y a une espèce de voracité sans limite,
07:33et cette voracité s'applique évidemment à l'ensemble de la chaîne du vivant,
07:37à l'eau, il y a une augmentation considérable des émissions de CO2 liées à l'IA,
07:44et là encore on est sur des chiffres exponentiels,
07:48qui sont pour la plupart minorés d'ailleurs.
07:50Le Guardian a récemment révélé que les chiffres d'augmentation d'émissions de CO2
07:56Microsoft qui entraîne OpenAI, ou de Google,
07:59n'étaient pas de 30 à 50%, mais certainement 6 à 10 fois plus.
08:03Voilà, on est sur une problématique éminemment politique,
08:07au sens plein du terme, c'est les affaires de la cité,
08:10et je pense qu'il serait urgent qu'on s'en parle de cette question en Europe,
08:14surtout parce qu'en face il y a les États-Unis
08:17qui ont fait des causes évidemment pour les Big Tech depuis très peu.
08:21Est-ce que vous avez tenté d'interviewer un patron de l'intelligence artificielle ?
08:25On leur a demandé, bien sûr, on le fait toujours d'ailleurs,
08:28on demande à pouvoir parler avec des personnes d'OpenAI, de Meta,
08:32on a insisté même à plusieurs reprises,
08:35on a été vraiment balayé, on n'existe pas.
08:38D'accord, ils ne veulent vraiment pas témoigner ?
08:40Non, non, non, mais aucun intérêt.
08:42En fait la communication pour ces grandes Big Tech,
08:45c'est de la communication au sens propre du terme, c'est du marketing,
08:49ils ne vont surtout pas venir répondre à des questions qui les dérangent,
08:51ils ont autre chose à faire.
08:52Pour ce film, Henri Poulin, est-ce que vous avez utilisé de l'intelligence artificielle ?
08:56Absolument pas, non, non, c'est intérêtralement fait avec nos mains.
09:00Même pour la traduction, les sous-titres ?
09:02Bien sûr que non, on a travaillé avec des sous-titreurs,
09:04des gens dont c'est la fonction,
09:06et je pense que c'est précieux de privilégier l'artisanat.
09:09Une manière de résister, c'est aussi d'aimer l'artisanat,
09:11le fait de faire soi-même, sans déléguer des tâches
09:14à portraison de création à des machines.
09:16Et d'être en accord avec le sujet de son documentaire.
09:18Il faut être un peu cohérent, oui.
09:19Merci beaucoup Henri Poulin.
09:20Merci beaucoup, merci à vous.