Toute l'actualité de la Côte d'Ivoire chaque jour sur RTI Info avec les journaux, reportages et magazines d'information RTI1, RTI2, Radio Côte d'Ivoire.
www.rti.info
https://www.facebook.com/RTIinfo225
https://twitter.com/RTI_info
https://www.instagram.com/rtiinfo/
https://www.linkedin.com/company/rtiinfo
https://www.dailymotion.com/rtiinfo
www.rti.info
https://www.facebook.com/RTIinfo225
https://twitter.com/RTI_info
https://www.instagram.com/rtiinfo/
https://www.linkedin.com/company/rtiinfo
https://www.dailymotion.com/rtiinfo
Category
🗞
NewsTranscription
00:00:00 Dans un monde en perpétuelle mutation, elle ne cesse de susciter débat ou intérêt.
00:00:23 Pour certains, elle est révolutionnaire et pour d'autres, elle est tout simplement
00:00:27 dangereuse.
00:00:28 L'intelligence artificielle permet aux machines de reproduire certaines capacités cognitives
00:00:33 humaines, offre un potentiel d'innovation et de transformation sans précédent.
00:00:39 Peut-elle alors bouleverser notre quotidien ? Doit-on la craindre ?
00:00:44 Mesdames et Messieurs, bonsoir et bienvenue dans le débat de société.
00:00:47 Ce soir, quatre intervenants pour une question.
00:00:50 L'intelligence artificielle a tout ou risque.
00:00:54 Bonsoir, M. Gwande.
00:00:55 Bonsoir, Madame.
00:00:56 Bienvenue sur ce plateau.
00:00:58 Merci.
00:00:59 Alors, je rappelle que vous êtes et je précise que vous êtes chef du département prison
00:01:03 et lieu de détention au Conseil national des droits de l'homme.
00:01:07 Merci d'être parmi nous.
00:01:09 C'est moi qui vous remercie.
00:01:10 À vos côtés, Franck Hedja, créateur de contenu entrepreneur digital consistant en
00:01:14 marketing.
00:01:15 Bonsoir, Franck.
00:01:16 Bonsoir.
00:01:17 Merci d'être là.
00:01:18 Merci, encore une invitation.
00:01:19 Alors, il y a un expert connu à travers le monde qui est sur ce plateau.
00:01:22 Bonsoir, Jean-Patrick Eumans.
00:01:25 Bonsoir.
00:01:26 Vous êtes virtuel ou réel?
00:01:27 Non, c'est l'enfant d'Asoba qui est là, donc c'est bien moi.
00:01:30 C'est bien vous.
00:01:31 Merci d'être là.
00:01:33 Alors, vous êtes architecte logiciel, entrepreneur social.
00:01:36 Alors, encore une fois, une émission de ce type, de ce calibre, sans un sociologue
00:01:41 parce que l'intelligence artificielle peut bouleverser notre quotidien.
00:01:44 Bonsoir, Dr.
00:01:45 Lil.
00:01:46 Bonsoir, Madame.
00:01:47 Alors, vous êtes sociologue, enseignant-chercheur à l'université à la Saint-Ouattara.
00:01:51 Tout à fait.
00:01:52 Bonsoir et merci encore d'être là.
00:01:53 Merci.
00:01:54 Bonsoir à vous également.
00:01:55 Ce débat, il est interactif et vous pourrez, chers téléspectateurs, intervenir, poser
00:02:01 des questions, évidemment, peut-être contribuer aussi à travers ce QR code qui s'affiche
00:02:06 au bas de l'écran.
00:02:07 Vous le scannez et vous aurez ici des questions que vous poserez et vous aurez des réponses
00:02:12 avec nos quatre invités.
00:02:14 En attendant, nous retrouverons Davis Oyo et Ibrahim Touré, nos reporters, pour ce
00:02:20 premier élément, l'avènement de l'intelligence artificielle.
00:02:23 L'intelligence artificielle ou IA gagne considérablement du terrain en Afrique.
00:02:29 En Côte d'Ivoire, l'IA sort de l'anonymat en 2018 grâce au Sacre de Fatim Sissé, première
00:02:36 dame diplômée en intelligence artificielle.
00:02:39 Quatre ans plus tard, précisément en novembre 2022, la vulgarisation des chats GPT, un
00:02:44 modèle de langage ou un prototype conversationnel reposant sur la technologie et utilisant l'intelligence
00:02:51 artificielle permet d'apporter des réponses dans plusieurs domaines d'activité.
00:02:56 Cette innovation suscite un intérêt croissant.
00:02:59 C'est le cas de Jean-Patrick Oumouang.
00:03:01 Il se fait l'ambassadeur de ce programme d'intelligence artificielle.
00:03:05 La vulgarisation de cette nouvelle trouvaille va attirer davantage l'attention des populations
00:03:10 et des entreprises, selon les spécialistes et experts du secteur.
00:03:14 « L'intelligence artificielle vous aide à travailler beaucoup plus vite, vous facilite
00:03:22 la vie, vous aide à travailler à votre rythme, à vous reposer beaucoup plus désormais,
00:03:28 vous aide à déléguer certaines tâches.
00:03:29 » Un bouleversement médiatique aux effets timides,
00:03:33 seulement 29% de la population mondiale l'utilise, selon les internautes.
00:03:38 Pourtant, des observateurs affirment que l'intelligence artificielle est incontournable dans tous
00:03:44 les secteurs d'activité.
00:03:45 « Tous les dirigeants, tous les responsables d'entreprise, la majorité des décideurs
00:03:50 veulent connaître, comprendre cette trouvaille.
00:03:52 Mais si toi, ton manageur lui-même, il utilise l'intelligence artificielle, il monte des
00:04:00 projets avec l'intelligence artificielle, eux, ils se disent, je pense que c'est beaucoup
00:04:05 pas vantageux pour mon personnel dans la mesure où désormais ils auront un temps de repos
00:04:08 assez important, puisque ce qu'ils auraient pu faire peut-être en trois jours, avec une
00:04:14 concentration et une maîtrise de l'intelligence artificielle, ils le feront pourquoi pas peut-être
00:04:18 même en cinq heures pour ne pas exagérer. »
00:04:21 Depuis 2022, formation, panel et masterclass se multiplient pour développer l'intelligence
00:04:28 artificielle dans le corps social.
00:04:30 La population et les entreprises sont sensibilisées sur l'utilisation de cette technologie.
00:04:35 Pour rappel, même s'il faut redouter l'effectivité globale de l'intelligence artificielle, la
00:04:41 technologie fait déjà des merveilles dans l'univers de la santé, la robotique, l'informatique
00:04:47 et dans bien d'autres domaines.
00:04:49 Merci Adivis Soyo et Ibrahim Touré.
00:04:53 Je me tourne directement vers le sociologue parce que, M.
00:04:56 Oumar, nous en parlerons tout à l'heure.
00:04:58 Le sociologue que vous êtes, quel est votre commentaire par rapport à cet élément où
00:05:02 on a parlé de formation, concentration, maîtrise, aller plus vite ?
00:05:05 Bien.
00:05:06 Il est évident que c'est une technologie qui n'est pas tombée du ciel, qui suit un
00:05:14 processus.
00:05:15 Et je pense que ce qui pose problème aujourd'hui, c'est la rapidité avec laquelle les choses
00:05:23 vont, se déroulent et la capacité.
00:05:27 Parce que l'homme a créé en gros cette intelligence-là, c'est pour ça qu'on la traite d'intelligence
00:05:32 artificielle.
00:05:33 Tout se passe comme si c'est lui qui allait traître maintenant par rapport aux capacités
00:05:39 de cette intelligence-là.
00:05:40 De telle sorte qu'il va se passer quelque chose de dialectique entre l'homme et sa
00:05:46 création au point où toute la créativité humaine elle-même et sociale va être remise
00:05:52 en cause par ce système.
00:05:54 Alors, est-ce que vous êtes d'avis, Franck, que le fait que l'homme ait créé donc l'intelligence
00:06:01 artificielle, à la limite, on court après cette technologie et il pourrait y avoir une
00:06:06 remise en cause ?
00:06:07 Quel est votre avis là-dessus ? En tenant compte de l'élément que nous avons suivi
00:06:09 tout à l'heure ?
00:06:10 Au vu de ce que le sociologue vient de dire, effectivement, la population n'est pas encore
00:06:15 au niveau déjà de ce que propose l'intelligence artificielle.
00:06:19 Une grande partie de la population.
00:06:21 Donc il y a une mise à jour à faire.
00:06:23 Et il y a ce côté qui est la peur de l'inconnu.
00:06:27 Parce que quoi qu'on dise, moi je dis à certaines personnes que l'intelligence artificielle,
00:06:31 c'est quelque chose qui existe déjà, qui était déjà dans notre quotidien.
00:06:36 Déjà lorsqu'on utilisait Siri ou Alexa pour danser une musique, la reconnaissance
00:06:41 faciale et tout, tout ça, ça fait partie d'une intelligence artificielle, on dira...
00:06:47 Basique ?
00:06:48 Basique, en fait, froide, comme on l'appelle d'ailleurs.
00:06:51 Et donc on est déjà habitué à l'utilisation de l'intelligence artificielle.
00:06:55 Donc on doit maintenant passer à une autre étape, qui est vraiment l'étape qui nous
00:07:00 permet de faciliter notre quotidien, le mécanisme dans nos business, dans notre vie de famille,
00:07:07 dans tous les différents domaines de notre vie.
00:07:08 Alors, M. Gwande, au niveau du Conseil national des droits de l'homme, quel est le regard
00:07:15 justement de l'intelligence artificielle, en tenant compte évidemment de l'élément
00:07:19 que nous venons de visionner ensemble ?
00:07:21 Merci, Madame.
00:07:22 Je tiens à vous réitérer nos remerciements.
00:07:26 À la RTI ?
00:07:27 À la RTI, oui, à la RTI surtout, au nom de Mme la Présidente, Mme Nnamiza Sangaré,
00:07:33 Présidente du Conseil national des droits de l'homme.
00:07:35 C'est dire combien de fois la RTI a une vue très large sur les questions des droits
00:07:39 de l'homme.
00:07:40 Et c'est une question également qui préoccupe le Conseil national des droits de l'homme
00:07:45 au plus haut point.
00:07:46 Avoir aujourd'hui des machines qui réalisent des tâches qui sont traditionnellement reconnues
00:07:54 aux êtres humains et qui facilitent le travail, tel qu'on l'a vu dans l'élément tout à
00:08:01 l'heure, qui facilite le travail des êtres humains, pour nous qui savons que le droit
00:08:06 à un emploi de descente est quelque chose d'important, on pense que l'avènement de
00:08:11 l'intelligence artificielle et le développement que cela connaît aujourd'hui, qui permet
00:08:15 le pénépanéusement des êtres humains dans son travail, c'est une bonne chose.
00:08:19 Donc, il contribue à la réalisation d'un droit.
00:08:22 Nous nous en satisfaisons et nous sommes regardants maintenant sur les défis que cela pose en
00:08:29 matière des droits de l'homme, surtout dans l'évolution.
00:08:31 Jean-Patrick Aoum, alors, votre regard en réalité sur ce qui a été dit et également
00:08:39 par rapport aux réactions des trois invités, est-ce qu'il faut avoir peur de l'intelligence
00:08:45 artificielle ?
00:08:46 Peur, peut-être pas, mais il faut peut-être prendre le temps de regarder ce que c'est.
00:08:52 C'est une création humaine.
00:08:54 Donc, en avoir peur, c'est ça, comme un parent qui a peur de son enfant.
00:08:59 Est-ce un enfant en tant que tel ? Est-ce un humain ?
00:09:02 Mais il n'a même pas toutes les capacités d'un enfant.
00:09:04 Donc, si on n'a pas peur des enfants, pourquoi avoir peur d'une intelligence artificielle
00:09:07 ? Le sociologue a parlé de quelque chose de très important.
00:09:11 On a l'impression que l'être humain aujourd'hui est en train de courir après.
00:09:15 Mais au niveau des informaticiens, au niveau des ingénieurs, ce n'est pas le cas.
00:09:19 On sait plus ou moins ce dans quoi on est à cause de certains secrets de fabrication.
00:09:26 Il y a certains acteurs qui font sonner, qui font rétentir la sonnette d'alarme.
00:09:31 Il y a des choses stratégiques.
00:09:33 Il faut bien voir les choses, comment ça évolue.
00:09:36 Il y a des choses stratégiques qui se déroulent.
00:09:38 Il y en a qui demandent à ce qu'on arrête la recherche.
00:09:43 Au même moment, ces mêmes personnes-là créent de nouvelles entreprises.
00:09:46 Donc, il y a une guéguerre entre les chercheurs.
00:09:49 Voilà.
00:09:50 Ils jouent sur l'ignorance de nos leaders.
00:09:53 Voici le point le plus important.
00:09:56 C'est une très grande avancée.
00:09:58 Ça va très vite.
00:09:59 Et quand les choses vont très vite comme ça, il faut que le chef, le chef de famille
00:10:03 et le chef essaient de regarder ce qu'il en est, prennent des décisions et rapidement
00:10:11 créent une régulation.
00:10:12 Et puis après, la vie continue comme avant.
00:10:14 C'est juste qu'actuellement, si je fais une création, si je produis quelque chose à
00:10:20 partir de l'intelligence artificielle et que je ne vous le dis pas, et que vous êtes
00:10:24 floués par cette chose-là, il n'y a rien qui est prévu par la loi pour moi, pour la
00:10:29 plupart des pays.
00:10:30 Et donc, en avoir peur, il faut peut-être prendre du temps pour regarder, mais pas
00:10:39 avoir peur jusqu'à s'en écarter.
00:10:40 - Alors, moi, j'ai une question pour tous les quatre, parce que vous dites qu'il ne
00:10:43 faut pas avoir peur.
00:10:44 Vous êtes un expert dans le domaine.
00:10:45 On a entendu tout à l'heure dans le document qui nous a été présenté.
00:10:50 On dit qu'on peut aller beaucoup plus vite.
00:10:53 À la limite, on peut se reposer.
00:10:55 Et pour les entreprises, ça permettra aux travailleurs de se reposer.
00:10:57 Alors, docteur, dans ce cas de figure, est-ce que ce n'est pas bon ?
00:11:01 - Bien, peut-être vu comme ça.
00:11:04 Si on voit aussi les emplois que cela va détruire, parce qu'aujourd'hui, on n'a pas besoin d'enseignants,
00:11:11 on n'a pas besoin de consultants, on n'a pas besoin de journalistes, on n'a pas besoin
00:11:16 de photographes.
00:11:17 - On est en danger.
00:11:18 - On n'a pas besoin de caissières non plus.
00:11:20 Parce qu'avec l'intelligence artificielle, ce sont des métiers qui seront bien exécutés
00:11:24 par les robots, voire même les Chinois ont une expérience réelle où une structure
00:11:33 de high-tech de près de 6 000 personnes est gérée directement déjà par l'intelligence
00:11:37 artificielle.
00:11:38 Et on a toutes les preuves d'une compétence hors norme de ce DG là.
00:11:44 Et lequel DG, c'est en 2017 que 25 ingénieurs l'ont créé.
00:11:48 Donc 25 ingénieurs l'ont créé et aujourd'hui, ils les gèrent à la perfection.
00:11:53 Il n'y a pas de grève, ils tiennent 24 heures sur 24, ils connaissent les émotions, ils
00:11:57 gèrent vraiment l'essentiel.
00:11:58 Donc ça veut dire que quand on dit qu'il n'y a pas de peur, je veux bien.
00:12:02 Ce n'est pas forcément l'approche de la technologie, ce n'est pas l'ignorance, ce n'est pas ça.
00:12:06 Mais ça pose des vraies questions sociétales.
00:12:09 Même la notion de vérité est remise en cause.
00:12:11 Parce qu'aujourd'hui, il est capable de tenir des raisonnements, tenir des réunions, peut-être
00:12:16 qu'il y a des étudiants qui arrivent à avoir déjà des 17 sur 20.
00:12:20 - Alors que ?
00:12:21 - Ils ont traité le devoir par l'intelligence artificielle.
00:12:23 - Alors à ce niveau, Franck, moi j'ai juste un commentaire.
00:12:26 Des étudiants qui ont des 17 sur 20 alors que c'est l'intelligence artificielle qui a
00:12:29 traité ce devoir.
00:12:30 Doit-on penser remettre en cause des diplômes qui seraient justement obtenus par ces étudiants
00:12:35 ou ces élèves ? Parce que traité par l'intelligence artificielle ?
00:12:38 - Après l'intelligence artificielle, c'est comme il a dit, c'est une machine qui vise
00:12:43 à simuler l'intelligence humaine.
00:12:47 Donc c'est les informations que vous rentrez dans la machine qui produisent un contenu.
00:12:52 Donc il faut quand même une petite intelligence humaine pour obtenir un résultat.
00:12:58 Lorsqu'aujourd'hui, il y a des personnes qui font des mémoires, qui traitent des mémoires
00:13:01 avec l'intelligence artificielle, en moins de cinq heures, ils finissent leurs mémoires
00:13:04 quand ils doivent en six mois.
00:13:05 Ça pose une grosse question, effectivement.
00:13:08 Donc Patrick a parlé des régulations qu'il faut mettre en place.
00:13:12 Au niveau de l'éducation, il y a aussi certaines normes à mettre en place pour pouvoir vraiment
00:13:17 détecter tous les élèves ou tous les documents qui sont passés par l'intelligence artificielle.
00:13:22 - Alors, moi je voudrais vraiment entendre sur cette question à ce niveau, le Conseil
00:13:28 des Nations Électroniques, seconde deux.
00:13:30 - Il y a deux choses qui ont été dites tout à l'heure.
00:13:32 La première des choses qui nous nous préoccupent en tant que personnes qui protégeons et promouvons
00:13:38 les droits de l'homme, c'est d'abord l'impact négatif sur l'emploi.
00:13:44 On est en train de parler des emplois qui sont progressivement en train de disparaître.
00:13:50 Nous, à ce niveau-là, on est inquiet parce que la machine, elle est faite à la base
00:13:57 pour servir l'homme.
00:13:59 Est-ce que dans cette avancée, on fait en sorte que l'humain puisse rester au centre
00:14:05 quand l'humain doit tout perdre à un moment donné, on va où?
00:14:10 Lorsque la machine prend le dévant et que l'humain perd, à quel niveau on se situe?
00:14:16 Ce sera quoi l'impact sur notre société?
00:14:18 Ce sera quoi la réaction de ces humains qui ont perdu l'emploi?
00:14:21 Bien sûr, on est en train de nous dire qu'il faut pouvoir s'adapter, avoir les compétences
00:14:27 pour être à l'air du temps.
00:14:30 Mais en même temps, on sait qu'on est dans différents contextes.
00:14:34 L'avancée que les États-Unis ou la Chine ont aujourd'hui en matière d'intelligence
00:14:39 artificielle, ce n'est pas ces avancées-là que nous avancions ici.
00:14:41 Ça, c'est le premier élément.
00:14:43 Deuxième élément, si vous permettez, avec tout à l'heure l'élève qui a pu traiter
00:14:48 son dévoie avec l'intelligence artificielle.
00:14:51 Là, ça pose des questions d'égalité.
00:14:53 Est-ce que c'est tout le monde qui a accès à l'intelligence artificielle?
00:14:57 On va en parler tout à l'heure.
00:14:58 Voilà, des questions éthiques, mais est-ce que c'est tout le monde qui a accès à l'intelligence
00:15:02 artificielle?
00:15:03 Donc, des questions d'égalité.
00:15:04 Des questions d'égalité.
00:15:05 Alors, il y a justement, vous parlez des questions d'égalité, il y a des questions qui nous
00:15:08 arrivent et je vais poser la question donc à M. Ehuma.
00:15:12 Alors, cette question vient de Maury Diabaté qui est en Côte d'Ivoire.
00:15:16 Il demande, quelle est l'innovation apportée par l'Afrique parlant d'intelligence artificielle
00:15:21 selon nos réalités?
00:15:23 Vous étiez il n'y a pas très longtemps dans un pays, je ne peux pas le citer, l'Afrique
00:15:27 du Sud et vous voyagez énormément.
00:15:29 Alors, quelle est l'innovation apportée par l'Afrique parlant d'intelligence artificielle
00:15:33 selon nos réalités?
00:15:35 Alors, le thème innovation, on fait pas mal de choses.
00:15:38 M. Maury, il faut qu'il sache que tous les jours, il y a des étudiants, il y a des ingénieurs,
00:15:45 il y a des techniciens qui créent des applications et qui sont disponibles sur les différents
00:15:50 stores.
00:15:51 Ça, c'est dingue.
00:15:52 Il y a des laboratoires qui travaillent, je ne peux même pas les citer parce que je ne
00:15:54 les connais pas tous.
00:15:55 C'est un peu comme il y a autant d'entreprises.
00:16:00 Donc, il y a des choses qui se font.
00:16:02 Mais les personnes, sinon les régions du monde qui sont devant en termes d'innovation,
00:16:09 pour l'instant, les pays africains ne sont pas cités.
00:16:12 Il ne faut pas se voiler la face.
00:16:14 Nous avons…
00:16:15 Qu'est-ce qui nous manque?
00:16:16 On a un problème fondamental.
00:16:17 On ne veut pas apprendre comment les choses fonctionnent.
00:16:19 Comment vous pouvez dire qu'on ne veut pas apprendre?
00:16:21 On est en train de faire un débat.
00:16:22 Expliquez-moi, je vais juste comprendre.
00:16:24 Ça va être plus simple.
00:16:25 Non, je vais juste comprendre.
00:16:26 On a un modèle d'éducation qui est caduque.
00:16:29 Non.
00:16:30 Qui ne fait que nous créer des problèmes.
00:16:31 Non, le débat n'est pas à ce niveau.
00:16:33 Non, j'en viens.
00:16:34 Je commence à ce niveau.
00:16:35 Et après est venu l'ordinateur et l'outil informatique.
00:16:39 Oui.
00:16:40 Il fallait rapidement s'adapter.
00:16:42 On n'a pas pu le faire.
00:16:43 Donc, on a créé…
00:16:44 Après les analphabètes, on a créé des analphabètes digitaux.
00:16:46 Et maintenant, on voit que l'intelligence artificielle arrive.
00:16:49 Donc, à quel moment est-ce qu'on va régler tous ces deux problèmes-là pour pouvoir
00:16:52 utiliser la…
00:16:53 Vous parlez du continent africain.
00:16:54 Je parle du continent africain et même de certains pays européens.
00:16:57 Oui.
00:16:58 Et donc, c'est de là que se situe tout le problème.
00:17:01 Sinon, les Chinois dont a parlé le professeur tout à l'heure, c'est parce que ces étudiants-là
00:17:07 ont compris que c'est le moment d'utiliser une intelligence artificielle pour gérer l'entreprise.
00:17:11 Alors, moi, j'ai une question justement qui vous a encore destinée.
00:17:14 Après, je vais prendre la question de Ibrahim Sidibé.
00:17:16 Il y a… c'est vrai que vous parlez du continent africain.
00:17:18 Il y a des instituts qui sont installés en Afrique du Sud.
00:17:21 Il y en a au Nigeria, en Côte d'Ivoire…
00:17:23 Au Rwanda aussi.
00:17:24 Au Rwanda, en Côte d'Ivoire aussi, nous avons une université virtuelle numérique.
00:17:28 On pourrait en citer.
00:17:30 Est-ce que… donc, on ne peut pas dire qu'il y a un désert.
00:17:34 Il y a quand même quelque chose qui existe.
00:17:35 Alors, à ce niveau…
00:17:36 Il y a même ce débat.
00:17:37 Justement, ce débat existe.
00:17:41 Justement, ma question justement, quand on fait ce constat qu'il y a entre la Chine,
00:17:47 par exemple, et le continent.
00:17:50 Il y a un existant, mais justement, vous, vous, et puis l'ensemble,
00:17:54 qu'est-ce qu'on fait justement, au-delà de cette émission ?
00:17:57 Merci à la RTI.
00:17:58 Qu'est-ce qu'on fait justement pour la vulgarisation, la sensibilisation ?
00:18:02 Et vous qui êtes justement un expert dans ce domaine,
00:18:04 comment vous travaillez pour casser justement ces barrières ?
00:18:08 Alors, à mon niveau, j'essaie de parler le plus loin possible à travers les réseaux sociaux.
00:18:14 C'est là où il y a les jeunes ivoiriens, c'est là où il y a les jeunes africains.
00:18:17 Et je parle d'analphabétisme numérique depuis très très longtemps, depuis plus de dix ans.
00:18:22 J'essaie de faire comprendre aux étudiants que, on sort de l'école,
00:18:26 mais il faut savoir utiliser l'outil informatique parce qu'il y a quelque chose qui arrive.
00:18:30 On le sentait, et voici qu'on y est.
00:18:32 Et là, maintenant, c'est comme si le ciel nous tombe sur la tête,
00:18:35 alors que ce sont juste des programmes informatiques.
00:18:37 Mais, est-ce que vous êtes d'accord ?
00:18:39 Monsieur Eyouma dit, ce ne sont juste que des programmes informatiques.
00:18:44 Effectivement, ce ne sont que des machines qui ne prennent que les humains.
00:18:49 Ce ne sont pas des humanoïdes qui font des choses, ce sont des programmes informatiques.
00:18:51 Ce ne sont que des machines, il n'y a pas à avoir peur, ce ne sont que des machines.
00:18:55 Les droits de l'homme après les sociologues.
00:18:57 Oui, en fait, quand on dit que l'Afrique est à la traîne, c'est vrai, c'est une réalité qu'on est à la traîne.
00:19:04 Pour plusieurs raisons.
00:19:05 Pour plusieurs raisons.
00:19:06 Et ces pays-là sont très développés.
00:19:08 Aujourd'hui, l'intelligence artificielle, on parle d'intelligence artificielle chez nous,
00:19:12 mais est-ce que là où nous sommes, là où nos populations se trouvent aujourd'hui,
00:19:16 l'intelligence artificielle a un impact qui est très important, mais c'est quoi nos réalités ?
00:19:22 Est-ce que tout de suite, c'est ce qui constitue nos priorités à un certain niveau ?
00:19:27 C'est ça la question.
00:19:28 Monsieur Gwandeu, on a un deuxième sous-thème, on parlera vraiment de l'impact et on rentrera vraiment dans notre quotidien.
00:19:37 Mais je voulais vraiment parler de l'avènement et j'ai deux questions sur l'avènement.
00:19:41 Après, je vais prendre les questions, s'il vous plaît.
00:19:43 Si vous avez un commentaire à faire sur l'avènement, ce dont il a été question.
00:19:46 Ce que je veux dire, ce n'est pas que de la technologie.
00:19:49 Ça n'a jamais été que de la technologie.
00:19:51 Voilà pourquoi on dit "science sans conscience n'est que ruine de l'âme".
00:19:56 Plus simplement...
00:19:59 Qu'est-ce qui dit que ça, c'est vrai, par exemple ?
00:20:01 Vous le laissez parler, s'il vous plaît.
00:20:04 Ce que je veux dire, plus simplement, il n'y a aucune peur à avoir vis-à-vis d'une machine.
00:20:11 Puisque, en tant que tel, depuis que le monde est monde, on assiste toujours à l'évolution de la technologie.
00:20:18 À moins qu'on me dise que pratiquement aujourd'hui la moitié de la Terre est à la fois analfabète, digitale, et j'accepterais.
00:20:25 Sinon, on a un des grands responsables de Google qui vient de démissionner.
00:20:30 Tout le bac français cette année a été challengé par cette histoire d'intelligence artificielle, etc.
00:20:37 Le débat est partout, au point où même on parle de réglementation mondiale ou rien.
00:20:43 Tellement la technologie échappe.
00:20:45 Ce n'est pas faire des applications pour faciliter la vie, personne ne s'en plaindra.
00:20:49 Ce n'est pas avoir peur d'une machine qui ne vous agresse pas, on ne s'en plaindra pas.
00:20:52 Mais ce qu'on veut dire, c'est quel est l'avenir du monde avec une création qui dépasse les créateurs.
00:21:00 Je pense que le débat est très avancé et ça a toujours été un débat.
00:21:04 Parce que la science doit être toujours au service de l'homme.
00:21:11 Ça ne pourra jamais être l'inverse.
00:21:13 Et donc aujourd'hui, toute chose étant égale par ailleurs, je ne sais pas moi personnellement,
00:21:20 mais beaucoup de gens se posent de véritables questions.
00:21:24 Je pense que Arte, c'est l'Allemagne, l'Allemagne est la France.
00:21:27 Il y a un grand débat qui a été fait dessus avec des députés.
00:21:31 Cette année, les gens ont fait des tests grandeur nature en France.
00:21:34 Des dissertations de philosophie corrigées par des enseignants
00:21:39 et des dissertations de philosophie proposées par l'IA.
00:21:42 Donc je veux dire que le débat est actuel, il est réel.
00:21:45 Ce n'est pas la machine en tant que telle.
00:21:47 Le débat est actuel, il est réel.
00:21:48 Alors je prends Bamba Saindou qui est en Côte d'Ivoire évidemment, toujours.
00:21:52 Alors il nous demande quelle est la nuance entre l'intelligence artificielle et la digitalisation.
00:21:59 Je vais demander à monsieur Ehouma et à monsieur Franck Edja
00:22:03 de nous donner, de donner en tout cas à Bamba Saindou la définition.
00:22:07 Qui se jette à l'eau entre vous deux ? Allez-y.
00:22:09 Oh, rapidement.
00:22:10 C'est une très belle question parce que ça en dit long sur le niveau de connaissance de nos jeunes.
00:22:14 C'est une bonne choix.
00:22:15 Mais justement, je veux juste comprendre comme vous le dites.
00:22:19 Ça veut dire, il pose cette question, ça veut dire qu'il y a des questions qu'on se pose.
00:22:23 Ça veut dire que la vulgarisation peut-être n'est pas,
00:22:26 est-ce que ceux qui ont la connaissance la partagent réellement ?
00:22:30 Écoutez, regardez ce que vous faites aujourd'hui, vous m'emmenez sur votre plateau et je parle.
00:22:35 Est-ce que si on me demande de venir à la radio, je vais refuser ? Non.
00:22:38 Très bien.
00:22:39 Je ne peux que m'exprimer là où j'ai l'opportunité et même j'essaie de créer des opportunités.
00:22:44 Très bien.
00:22:45 Donc les personnes comme moi, essaient de le faire.
00:22:47 Par contre, est-ce que le leadership favorise la sortie de l'analphabétisme de nos jeunes ?
00:22:54 Je ne suis pas sûr.
00:22:55 Non.
00:22:56 Parce que si c'était le cas, nos jeunes aujourd'hui seraient en train de fabriquer eux aussi leur propre programme informatique.
00:23:00 Oui.
00:23:01 Parce que pour faire ces choses-là, on n'a pas besoin d'aller très, très loin.
00:23:03 On a juste besoin de s'asseoir dans une salle de classe et d'apprendre.
00:23:06 Vous n'avez pas répondu à la question.
00:23:07 On n'a pas répondu à la question.
00:23:08 Monsieur Bamba, Saint-Hou, attend.
00:23:09 C'est quelque chose qui renferme aujourd'hui le numérique, qui renferme…
00:23:14 À la base, c'est anglophone.
00:23:16 Quand on parle de digital, c'est l'équivalent de numérique en français.
00:23:21 Donc, on va dire que l'intelligence artificielle est dans cette affaire de digital.
00:23:27 Mais l'intelligence artificielle, c'est une branche de l'informatique qui veut que des programmes informatiques
00:23:34 miment des capacités de l'intelligence humaine, des caractéristiques, par exemple.
00:23:39 Mais pas toutes.
00:23:40 Oui, certain.
00:23:41 L'intelligence artificielle n'a pas d'intuition.
00:23:42 L'intelligence artificielle n'a pas de spiritualité.
00:23:44 Pas d'émotion.
00:23:45 Pas d'émotion.
00:23:46 Encore.
00:23:47 Encore, encore.
00:23:48 Alors, l'émotion, il faut…
00:23:49 Des sentiments, pas de sentiments.
00:23:50 Regardez, par exemple, quelque chose comme la spiritualité.
00:23:52 Oui.
00:23:53 Nous, les hommes, on ne s'est même pas encore accordé là-dessus.
00:23:55 Le sociologue parlait de quelque chose de très important.
00:23:58 Mais…
00:23:59 Répondez.
00:24:00 J'ai répondu.
00:24:01 Non, non, non.
00:24:02 Répondez à vos débuts.
00:24:03 C'est très sympa quand je vous le dis parce qu'on a vraiment un sous-thème qui arrive,
00:24:07 qui va être important.
00:24:08 On va relancer justement votre intervention.
00:24:10 Il s'agit de l'impact dans le quotidien.
00:24:12 Vous en parliez tout à l'heure.
00:24:13 On va y aller.
00:24:14 On écoute justement, on retrouve nos deux reporters, Devis Oyo et Ibrahim Touré, pour
00:24:18 ce micro-tournoi.
00:24:19 Et on remercie également PACOM Afieri pour le montage, l'impact de l'intelligence
00:24:24 artificielle dans notre quotidien.
00:24:27 Derrière cette façade, un coup particulier se déroule.
00:24:32 Ici, pas de tableau, ni de professeur.
00:24:35 Seulement des étudiants, devant leur écran d'ordinateur, avec des claviers toujours
00:24:39 en alerte.
00:24:41 Nous sommes au Centre SERCO, Centre d'excellence et de recherche en création ouverte, une
00:24:48 université de formation et d'encadrement à l'intelligence artificielle.
00:24:52 Articules trouvailles du monde technologique en Côte d'Ivoire.
00:24:56 Anita Vincécan, étudiante en master 2 en gestion de projet, est une passionnée de
00:25:02 cet outil.
00:25:03 Elle travaille régulièrement, en classe, sur des programmes et algorithmes.
00:25:07 Objectif, améliorer et faciliter le quotidien des populations.
00:25:11 Le projet sur lequel nous travaillons, c'est un outil qui permet à une vendeuse qui est
00:25:17 en alphabète, peut-être, qui n'a pas forcément les moyens de pouvoir écrire le nom des
00:25:22 personnes, qui lui doit de l'argent à chaque fois, de pouvoir savoir en temps réel qui
00:25:26 lui doit de l'argent, combien cette personne lui doit.
00:25:29 Ça nous permet d'avoir la traçabilité de ces créanciers.
00:25:32 Dans ce centre, ils sont tous des passionnés de l'informatique.
00:25:36 Ezequiel, développeur d'applications en licence 2, mise sur l'intelligence artificielle
00:25:41 pour réaliser ses ambitions.
00:25:43 Notre projet est sur la personnalisation de publicité pour des personnes qui ont des
00:25:50 langues différentes, des personnes qui ne sont pas forcément lettrées, des alphabètes
00:25:55 et tout.
00:25:56 On va créer, personnaliser des pubs et on va les publier sur eux-mêmes leurs pages
00:26:01 et sur notre page en diffusion directe avec une intelligence qui est Chidi Petit, une
00:26:08 version Google Sheet de Chidi Petit.
00:26:11 Il est 12h30, c'est le moment choisi par les responsables pour jeter un coup d'œil
00:26:15 sur les travaux d'Anita et de ses camarades.
00:26:18 C'est un programme de formation pour les jeunes et les adultes.
00:26:23 S'il n'est pas auteur, il peut participer et ça sera affiché sur les étudiants.
00:26:30 Nous formons les étudiants et toutes les personnes désireuses d'apprendre et d'avoir
00:26:36 un impact sur la société avec les technologies du futur.
00:26:42 Nous formons pour demain.
00:26:43 Dans cet espace, l'heure est à la création, le partage, la diffusion et la transformation.
00:26:49 Si l'iPhone a son e-Siri, ici, on parle d'Assistant Kone, une application made in Côte d'Ivoire
00:26:56 qui a réponse à tout, autrement dit l'intelligence artificielle à l'ivoirienne.
00:27:01 Bonjour.
00:27:02 Addis Ababa.
00:27:07 Adler Coffee Frank.
00:27:08 Mario.
00:27:09 Abedi.
00:27:10 US Service du Moins les Filles.
00:27:12 Que sais-tu faire ?
00:27:13 Monsieur Bémié, Monsieur Kac Kac Chamanfo.
00:27:17 Adler Coffee Frank.
00:27:18 Mario.
00:27:19 Français Camp.
00:27:20 Focance Soyez-nous.
00:27:21 Paouli.
00:27:22 Sinoufou.
00:27:23 Bédé.
00:27:24 Agne.
00:27:25 L'Assistant Kone me permet aussi de faire des recherches, me permet de faire des calculs.
00:27:29 Par exemple, si j'ai des voix, je peux faire des recherches dessus, également comme Google.
00:27:34 A travers cet Assistant-là, je peux apprendre également ma langue, ma télé.
00:27:39 Les innovations de technologie sont nombreuses dans cet institut.
00:27:43 Et ce n'est nullement le fruit du hasard.
00:27:46 Ce centre est dirigé depuis sa création en 1998 par l'inventeur du superphone,
00:27:51 le smartphone made in Côte d'Ivoire, qui parle 1000 langues africaines et 50 langues ivoiriennes.
00:27:57 Dr Alain Kapo Chichi est convaincu que dans ce nouveau millénaire,
00:28:01 rien ne peut se faire sans l'intelligence artificielle.
00:28:04 Il faut savoir qu'aujourd'hui, l'intelligence artificielle est notre quotidien.
00:28:08 Aujourd'hui, on parle de chat GPT, c'est un outil qui est utilisé dans toutes les entreprises.
00:28:13 Il faut préparer l'homme à utiliser cette machine-là pour créer des choses,
00:28:17 pour pouvoir être capable de résoudre plus rapidement beaucoup d'autres choses.
00:28:20 Avoir l'impression d'être quelquefois inutile vis-à-vis de l'intelligence artificielle,
00:28:25 c'est ce sentiment qui anime bon nombre de personnes hors des murs de cet établissement.
00:28:31 Aujourd'hui, il y a des postes qu'on peut perdre
00:28:35 parce que les robots vont remplacer des êtres humains dans certains domaines d'activité.
00:28:40 Aujourd'hui, voyons même avec l'aide de l'Internet, il y a des métiers qui sont menacés.
00:28:46 Donc je veux dire, l'innovation est une bonne chose, mais qui a souvent un petit goût amer.
00:28:52 L'insceptique de l'intelligence artificielle ne s'en cache pas.
00:28:56 Pour moi, ce n'est pas une bonne chose parce qu'il est trop accéléré.
00:29:00 Avec la croissance de l'Afrique, et puis venir diminuer le taux du travail de nos parents,
00:29:06 bon, ce n'est pas bon.
00:29:07 Il n'y a pas de danger pour l'artificiel, parce qu'on ne peut plus faire de formes,
00:29:10 on ne peut plus tout réfléchir.
00:29:11 Donc vraiment, ça n'a pas sa place.
00:29:14 On se rend compte aujourd'hui que par l'intelligence artificielle,
00:29:18 des personnes qui sont recherchées pour exercer une activité
00:29:22 sont laissées de côté par rapport à la performance de l'intelligence artificielle.
00:29:28 Et cela est en train de désagréger les fondements même de la société,
00:29:32 et cela m'inquiète beaucoup.
00:29:33 Découverte, engouement, crainte, inquiétude,
00:29:37 des sentiments suscités par l'avènement de l'intelligence artificielle en Côte d'Ivoire.
00:29:42 C'est vrai qu'il y a de grands débats ici, même hors micro.
00:29:50 Alors, M. Gouande, on vient de voir, il y a des craintes aujourd'hui.
00:29:53 Là, on parle de l'impact.
00:29:55 Vous avez évoqué cet élément tout à l'heure.
00:29:58 L'impact, selon vous, de l'intelligence artificielle dans notre quotidien ?
00:30:03 L'impact, aujourd'hui, il est de deux natures.
00:30:06 Il y a un impact qui est positif.
00:30:08 Aujourd'hui, on a parlé tout à l'heure de l'emploi.
00:30:11 Je vous ai dit comment est-ce que cela facilitait la réalisation du droit à l'emploi.
00:30:16 Dans le domaine de la santé, on a vu comment est-ce qu'avec,
00:30:20 à travers l'intelligence artificielle, on a pu développer des traitements
00:30:23 plus poussés pour des maladies telles que l'Alzheimer, la schizophrénie.
00:30:28 Et aujourd'hui, on voit aussi au niveau de l'éducation, dans certains contextes,
00:30:32 comment est-ce que c'est des professeurs, des professeurs, on va dire, virtuels,
00:30:38 des machines, qui aujourd'hui enseignent, qui facilitent le droit à l'éducation.
00:30:43 Maintenant, le rêve de la médaille, on a aujourd'hui l'intelligence artificielle
00:30:48 que nous, on a en main tous les jours, qui est le plus basique.
00:30:52 On a les réseaux sociaux aujourd'hui qui nous proposent des contenus très adaptés,
00:30:56 des contenus personnels en fonction des données que nous entrons.
00:31:00 Et là, il y a des risques en matière du droit à la vie privée.
00:31:04 Qu'est-ce qui est fait avec nos informations ?
00:31:07 Aujourd'hui, je crois, il y a chaque GPT qui est une plateforme d'intelligence artificielle
00:31:13 avec laquelle on échange, qui nous donne vraiment accès à beaucoup de connaissances,
00:31:18 accès à beaucoup d'informations.
00:31:20 C'est des données que nous introduisons.
00:31:22 Mais que deviennent ces données ?
00:31:24 Quels sont les risques que ces données-là n'attirent pas dans des mains
00:31:30 qui ne sont pas, on va dire, pas forcément bien intentionnées, en fait ?
00:31:34 Monsieur, la question est justement des données.
00:31:37 On a vu tout à l'heure, certains parlaient de risques.
00:31:40 Il y a aussi un côté positif selon les intervenants.
00:31:43 Alors, quel est l'impact sur la société de façon concrète ?
00:31:46 Alors, tout à l'heure, le monsieur a parlé d'emplois.
00:31:51 La bonne nouvelle, c'est que toutes les études démontrent
00:31:55 qu'il y aura plus d'emplois créés que d'emplois qui vont disparaître.
00:31:58 Donc, il n'y a pas à ce...
00:32:00 De façon concrète, parce que quand on le dit comme ça, on est quand même...
00:32:03 Alors, je veux donner un exemple.
00:32:04 Donner un exemple concret.
00:32:05 Ton métier, il date d'il y a combien d'années ?
00:32:07 Je dirais...
00:32:08 Au moins des 10 ans.
00:32:09 Au moins des 10 ans.
00:32:10 Donc, ça va se passer, ce sera la même chose.
00:32:11 D'accord.
00:32:12 Il faut accepter que le monde est en train d'évoluer d'une certaine manière.
00:32:14 Vous pensez qu'on ne veut pas l'accepter ?
00:32:17 Je vois des ingénieurs de BTP qui ont peur de l'intelligence artificielle.
00:32:24 Ça me donne froid dans le dos, parce qu'en fait,
00:32:27 leur préoccupation principale devrait être de pouvoir créer des routes
00:32:32 là où on a l'impression qu'on ne peut pas créer.
00:32:34 Et en cela, on utilise des programmes informatiques
00:32:37 pour nous aider à trouver des solutions pour ces choses-là.
00:32:40 Tout à l'heure, il a parlé de risque.
00:32:42 Mais lorsque vous vous connectez à une plateforme d'intelligence artificielle
00:32:45 et au-delà, n'importe quelle ressource informatique,
00:32:48 la loi oblige les créateurs à vous prévenir de ce qui va se passer avec vos données.
00:32:53 Pourquoi est-ce qu'on a peur quand on sait que c'est déjà écrit ?
00:32:58 Est-ce qu'on lit ?
00:32:59 Pourquoi est-ce qu'on ne lit pas ?
00:33:00 J'ai parlé des systèmes éducatifs.
00:33:02 Non, ma question, ce n'est pas qu'on ne sache pas lire ou qu'on sache dire.
00:33:06 Je demande pourquoi on lit jusqu'à la fin.
00:33:08 Ce n'est pas une affaire d'éducation.
00:33:09 Je vous repose la question.
00:33:10 Pourquoi on ne lit pas ce qui est écrit quand on veut rentrer des données ?
00:33:15 C'est ça, ma question.
00:33:16 Mais c'est parce qu'on a des blocages cognitifs que le système éducatif
00:33:19 ne nous a pas aidé à soulever.
00:33:22 Je vous repose ma question.
00:33:23 Je comprends votre question, mais peut-être que ma réponse ne vous convient pas.
00:33:26 Non, ce n'est pas qu'elle ne me convient, mais je reprends ma question.
00:33:28 Moi, par exemple, je pense que je suis assise là.
00:33:31 J'ai quand même un parcours qui est sans doute intéressant.
00:33:37 Ça m'est arrivé, excusez-moi de personnaliser,
00:33:40 de ne pas lire jusqu'à la fin.
00:33:41 Est-ce que ça veut dire qu'il y a un problème au niveau de l'éducation ?
00:33:45 Oui, bien sûr, parce que peut-être que votre éducation,
00:33:47 qui vous a permis d'avoir de très bons diplômes,
00:33:49 vous a emmené à minimiser ces textes-là.
00:33:52 C'est de ça que je parle.
00:33:53 Je ne parle pas de personnes hyper éduquées ou non éduquées.
00:33:56 Je parle de priorité.
00:33:58 Lorsque vous êtes en train de faire quelque chose,
00:34:00 par exemple, s'il s'agissait d'un contrat d'assurance,
00:34:04 je suis convaincu que vous allez prendre le temps de lire
00:34:05 parce que le système éducatif vous a emmené,
00:34:07 vous a déjà préparé à ça.
00:34:08 Mais pour quelque chose que vous avez l'impression
00:34:10 qui n'est pas très important parce que c'est dans votre téléphone,
00:34:12 vous dites, allez, je fais OK et puis j'arrive.
00:34:14 Ça, c'est une impression.
00:34:15 Je vais demander à monsieur Gouandeau ce qu'il en peut dire.
00:34:17 Ce n'est qu'une impression.
00:34:18 Ce n'est que votre impression.
00:34:19 C'est votre impression.
00:34:20 Dis ainsi, c'est tellement beau à voir,
00:34:22 mais est-ce qu'aujourd'hui, il y a certaines plateformes
00:34:25 qui nous laissent vraiment le choix d'accéder ou pas
00:34:29 à nos données, par exemple, sur notre téléphone ?
00:34:32 Il y a des sites aujourd'hui,
00:34:33 quand vous voulez lire une information,
00:34:35 on dit « activez » pour les cookies.
00:34:38 Quand vous refusez, vous n'avez pas accès à l'article.
00:34:41 Quelque part, on vous oblige à quelque chose, à activer.
00:34:46 Alors que quand vous activez, ça leur donne accès
00:34:48 à toute votre vie privée dans votre téléphone.
00:34:52 Donc, il y a ces risques et c'est de ça qu'il faut parler, en fait.
00:34:55 Je veux entendre le sociologue.
00:34:57 Quand on vous donne le choix, c'est oui ou c'est non.
00:35:00 Alors, je veux entendre le sociologue là-dessus.
00:35:02 - Tigg Busser. - Docteur.
00:35:05 - Je pense que l'impact, chez nous, c'est dans l'enseignement,
00:35:09 c'est dans l'éducation. - Oui.
00:35:11 - Et je pense que c'est mondial.
00:35:12 Aujourd'hui, les trois secteurs qui sont ciblés à risque,
00:35:15 c'est la santé, l'éducation et l'opinion publique.
00:35:20 - Pourquoi ?
00:35:21 - La capacité à fabriquer n'importe quelle information
00:35:23 et à la rendre aussi vraie que possible,
00:35:26 soit par les photos, soit par les discours et les dialogues.
00:35:30 Parce que déjà, la base de données elle-même,
00:35:34 personne n'a la traçabilité de producteur de l'information.
00:35:39 C'est un maillage d'informations ramassées partout.
00:35:43 Est-ce que vous voyez ?
00:35:44 Alors que dans le cheminement intellectuel de base,
00:35:48 c'est que quand on va vers la vérité,
00:35:50 il faudrait savoir qui produit le discours
00:35:53 ou qui produit l'information,
00:35:55 de telle sorte que la légitimité ou la légitimation de l'information
00:36:00 part de la production de base.
00:36:02 C'est pour ça que je pense qu'un technologue
00:36:06 qui voit l'intelligence artificielle
00:36:09 et des gens comme nous, c'est totalement différent.
00:36:13 Totalement différent.
00:36:15 Parce que moi, je ne vais jamais fabriquer de sociologue
00:36:18 à partir de l'intelligence artificielle.
00:36:20 Pourquoi ?
00:36:21 Parce que la société est une chose très sérieuse
00:36:23 depuis que le monde est monde.
00:36:25 Et à un moment donné, quand on a l'impression
00:36:28 que la société n'a pas un retour réflexif sur elle-même,
00:36:33 il y a forcément problème et danger.
00:36:36 Et c'est parce que la société, ce n'est pas quelques-uns,
00:36:39 5 ou 10 % qui comprennent quelque chose
00:36:41 et 95 % qui n'ont qu'à courir,
00:36:44 ou bien qui sont en alphabètes,
00:36:45 ou bien qui vont être alphabétisés plus tard.
00:36:47 Nous faisons le vivre ensemble,
00:36:49 nous faisons socios ensemble,
00:36:51 nous faisons société ensemble
00:36:53 et la technologie doit pouvoir être à notre service à tous.
00:36:57 - Franck, la technologie doit être à notre service.
00:37:00 Qu'est-ce que vous en pensez ?
00:37:01 - Je pense qu'effectivement, la technologie doit être à notre service.
00:37:03 Mais voici l'intelligence artificielle,
00:37:04 elle doit être à notre service.
00:37:05 Elle ne doit pas nous dominer.
00:37:07 Il y a quelque chose qu'on oublie.
00:37:09 Lorsqu'on a vu l'élément à la télé,
00:37:11 il y a énormément d'ignorance.
00:37:12 Ce n'est même pas de la crainte, c'est de l'ignorance.
00:37:14 Ils n'ont jamais utilisé, que ce soit HDR-GTP,
00:37:17 ils n'ont pas utilisé l'intelligence artificielle
00:37:19 parce que l'impact de l'IA,
00:37:21 su par exemple l'éducation.
00:37:23 Aujourd'hui, on prend le cas de la Côte d'Ivoire,
00:37:24 il y a des villes où il n'y a même pas d'enseignants.
00:37:27 Vous savez qu'à partir de l'intelligence artificielle,
00:37:29 on peut former ses enfants là.
00:37:31 Dans ces villes de l'intelligence artificielle.
00:37:33 - Est-ce que ce n'est pas contrôlé ?
00:37:34 Parce qu'on les forme, derrière, il n'y a pas un contrôle ?
00:37:36 - Non, mais toutes les informations qui rentrent dans la...
00:37:37 ça reste encore une machine, c'est une technologie.
00:37:39 Donc toutes les données qui rentrent dans l'intelligence artificielle
00:37:41 sont des données qui sont écrites et...
00:37:43 - Contrôlées.
00:37:44 - Et qui sont données par des hommes, des êtres humains.
00:37:46 Mais c'est des êtres humains, c'est vous et moi.
00:37:48 - Non.
00:37:49 - Vous êtes sociologue.
00:37:50 Aujourd'hui, si vous devez enseigner à l'université de Boaké
00:37:53 et que vous n'êtes pas disponible,
00:37:55 vous pouvez mettre en place toutes vos données,
00:37:58 tous vos cours.
00:37:59 - Non, non.
00:38:00 - Vous pouvez mettre...
00:38:01 - S'il vous plaît, s'il vous plaît, c'est ce que je disais.
00:38:03 Ma question, je vous ai posé, j'ai dit,
00:38:05 le contenu, il est contrôlé.
00:38:06 - Le contenu, il est contrôlé.
00:38:07 - C'était ça ma question.
00:38:08 - Si vous permettez, madame, je pense que c'était ça ma question.
00:38:10 - Il y a une forme d'ignorance vis-à-vis de l'intelligence artificielle.
00:38:13 - On est là pour faire un plaidoyer et en parler.
00:38:16 - Personne n'est obligé de se connecter à Tchad GPT.
00:38:19 Personne n'est obligé de se connecter à Facebook.
00:38:22 Ces applications, ces technologies-là,
00:38:25 vous pouvez les créer pour vous-même à la maison,
00:38:28 vous pouvez les créer pour vous-même à l'école.
00:38:30 - Ça, on est d'accord.
00:38:31 - Les contrôler, décider de ce qui entre dedans,
00:38:33 de ce qui en ressort.
00:38:34 Vous prenez les pays comme la Chine.
00:38:36 Le leadership contrôle tout ce qui est géré par les technologies.
00:38:40 - Ça, c'est un choix.
00:38:41 C'est une possédance, c'est son choix.
00:38:42 - C'est possible ici aussi.
00:38:43 - C'est un choix.
00:38:44 - Si vraiment, telle est notre préoccupation la plus importante,
00:38:47 on peut le faire.
00:38:48 Il y a des écoles, j'ai parlé tout à l'heure de Havad,
00:38:51 Havad va introduire un enseignant,
00:38:53 une intelligence artificielle,
00:38:56 en tant qu'enseignant pour CS50,
00:38:58 qui est le cours le plus connu de Havad.
00:39:00 Ce n'est pas pour déshumaniser,
00:39:04 récupérer le travail de quelqu'un,
00:39:06 mais c'est pour permettre à certaines personnes
00:39:08 qui peut-être avaient du mal à le faire.
00:39:10 - Donc c'est un atout pour vous.
00:39:11 C'est un atout à ce niveau.
00:39:13 - Mais c'est bien sûr.
00:39:14 À la base, c'est créé pour être un atout,
00:39:16 mais comme n'importe quel outil,
00:39:17 un mauvais usage va créer un danger.
00:39:20 - On est d'accord là-dessus.
00:39:22 - Et pour qu'on ne puisse pas tomber sous,
00:39:24 je dirais, ce danger-là,
00:39:26 il faut ouvrir l'esprit, apprendre, découvrir.
00:39:30 Et quand on sait de quoi il s'agit,
00:39:32 on peut mieux se préparer.
00:39:33 - C'est pour ça qu'on en parle.
00:39:34 C'est pour ça qu'on est là.
00:39:35 Oui, monsieur Gouamde.
00:39:36 - Voilà. En fait, on est tous d'accord
00:39:38 que l'intelligence artificielle
00:39:40 donne un apport considérable
00:39:42 à tous les niveaux de la vie.
00:39:44 Tout à l'heure, on parlait de l'éducation.
00:39:46 Donc, je sais que la COVID-19
00:39:50 nous a mis, par exemple, au défi d'enseignement
00:39:54 dans un contexte où, forcément,
00:39:55 il n'y a pas d'êtres humains
00:39:57 qui soient présents quelque part.
00:39:58 - Présents, oui.
00:39:59 - Voilà. Et donc, c'est des phénomènes
00:40:02 ou des situations qui nous rappellent
00:40:04 combien de fois on a des efforts à faire
00:40:07 pour intégrer de tels systèmes,
00:40:09 pour faciliter, par exemple, le droit à l'éducation.
00:40:12 C'est très bon.
00:40:13 Ce qui est intéressant dans cette émission,
00:40:15 c'est qu'on est en train de répondre
00:40:17 à la préoccupation des gens qui ont peur.
00:40:19 Les gens ont peur parce qu'ils n'ont pas...
00:40:20 - Mais nous sommes sur la RTI, quand même.
00:40:21 - Parce qu'ils n'ont pas l'information.
00:40:23 Ça, c'est la première des choses.
00:40:24 Les gens ont peur aussi parce que, souvent,
00:40:26 on n'a pas l'impression
00:40:27 que l'humain reste au coeur de la chose.
00:40:29 Tout le monde...
00:40:30 Est-ce qu'on va dire à quelqu'un,
00:40:32 "Ne va pas sur Facebook
00:40:34 "parce que si tu vas là-bas, tes données sont exposées."
00:40:37 Non. On va chercher d'abord à encadrer
00:40:40 les mouvements de la personne sur Facebook,
00:40:42 de sorte de rassurer que la personne,
00:40:44 les informations qui sont mises sur Facebook,
00:40:46 ne seront pas utilisées par d'autres personnes malveillantes.
00:40:49 Et c'est là où on salue les efforts de l'État du Côte d'Ivoire.
00:40:52 Parce que je sais qu'en 2013,
00:40:54 on a la loi sur la cybercriminalité.
00:40:56 - Tout à fait. La PLC6.
00:40:58 - Oui. On a la loi sur la protection
00:41:00 des données à caractère personnel.
00:41:02 Voici où la Côte d'Ivoire a de très bonnes avancées.
00:41:04 Et lorsque vous avez un problème de ce genre,
00:41:06 vous pouvez saisir la plateforme
00:41:08 de lutte contre la cybercriminalité.
00:41:10 Donc c'est ces informations-là, je pense,
00:41:12 qu'il faut donner à la population
00:41:14 pour satisfaire aussi le droit à l'information.
00:41:17 - Franck, vous vouliez réagir.
00:41:18 - Non, moi, je pense qu'effectivement,
00:41:20 c'est très bien ce qu'on dit.
00:41:21 Mais le problème fondamental,
00:41:23 c'est comment donner accès à la jeunesse ivoirienne,
00:41:26 à l'Africaine, à l'outil de l'intelligence artificielle.
00:41:29 Parce que ça va révolutionner.
00:41:30 Et ça révolutionne déjà ailleurs.
00:41:32 Et nous, en Afrique, j'ai l'impression
00:41:34 qu'on est dans des débats qui vont nous...
00:41:37 On est sur la traîne encore.
00:41:39 On reste encore à la traîne.
00:41:40 - Encore une fois, c'est une impression.
00:41:42 Je pense que là, on est en train de débattre.
00:41:44 Il y a M. Euma, qui est un expert.
00:41:46 Vous-même, vous êtes un constructeur marketing reconnu.
00:41:49 - Utilisateur de l'intelligence artificielle.
00:41:51 - Vous êtes vous-même, au Nouveau-Ile-des-Dordognes,
00:41:53 utilisateur aussi de l'IA.
00:41:55 - Vous aussi et moi aussi.
00:41:56 Mais on veut comprendre en sociologie.
00:41:59 - C'est vrai que ceux qui ont le plus bénéficié de l'IA au départ,
00:42:04 ce sont les enseignants.
00:42:06 Les capacités à faire les thèses à distance.
00:42:08 Moi, j'ai expérimenté ça.
00:42:09 J'ai fait ma thèse en 91.
00:42:11 Mon directeur de thèse était aux États-Unis.
00:42:14 C'est pour dire que nous, on en a toujours bénéficié.
00:42:16 C'est pas de ça que nous parlons.
00:42:18 Les cours en ligne, ça, c'est le minimum.
00:42:20 C'est contrôlé, c'est encadré.
00:42:22 C'est juste du présentiel.
00:42:23 Nous n'avons aucun problème avec ça.
00:42:25 Mais déjà cette année, l'étudiant met deux mots,
00:42:29 sa dissertation est traitée.
00:42:31 Il met deux mots, c'est là où vous rentrez dans l'utilisation.
00:42:34 Vous êtes en train de faire un plaidoyer pour la découverte,
00:42:37 l'apprentissage et la soumission.
00:42:39 Mais nous, nous sommes déjà dans un impact réel
00:42:42 où déjà les gens prennent les raccourcis.
00:42:44 Ils commencent à tricher.
00:42:46 C'est aussi la réalité du pays.
00:42:48 Je pense que c'est moi qui me suis occupé.
00:42:50 - Attends, excusez-moi.
00:42:51 - Si les étudiants utilisent pour résoudre des exercices,
00:42:55 c'est parce que ces exercices-là ne sont plus d'actualité.
00:42:58 - Mais qui... Excusez-moi.
00:42:59 - Si, si, si.
00:43:00 - Non, là, c'est une...
00:43:01 - C'est choquant.
00:43:02 - Non, mais c'est pas... Non, je ne...
00:43:04 - Allez-y, allez-y.
00:43:05 - Je ne vous ai pas dit que c'était choquant.
00:43:07 Je vous dis juste que c'est une affirmation.
00:43:09 Il y a un professeur...
00:43:10 - Elle parle d'être gratuite.
00:43:11 - Il y a un professeur qui est là.
00:43:12 - Si vous préférez.
00:43:13 - Un exercice en sociologie est dépassé
00:43:15 parce que le scientifique parle de sociologie.
00:43:17 - Non, non, mais...
00:43:18 - Si vous préférez faire des exercices,
00:43:20 parce que même moi, je suis formateur,
00:43:22 je demande à mes apprenantes
00:43:23 d'utiliser l'intelligence artificielle
00:43:24 pour résoudre les problèmes.
00:43:25 - D'accord.
00:43:26 - Parce que dans deux ans,
00:43:27 quand elles iront chercher du travail,
00:43:29 c'est ça qu'il s'agira.
00:43:30 Si vous faites faire des maths à un enfant
00:43:32 sans qu'il comprenne que c'est quelque chose
00:43:34 qu'il va utiliser pour faire des ponts,
00:43:36 qu'est-ce que vous allez en faire?
00:43:38 Vous allez en faire des doctorants en mathématiques
00:43:41 qui font des grèves.
00:43:42 - Ça, c'est encore une caricature.
00:43:44 Mais écoutez-moi, je vais prendre une question.
00:43:46 - Vous prenez trop aux caricatures.
00:43:47 - Non, non, non, c'est-à-dire qu'on n'y est même pas.
00:43:49 Et vous parlez de grève.
00:43:50 C'est ça, la caricature.
00:43:51 - Ah non, c'est parce que je me projette.
00:43:53 - Non, c'est ça, mais c'est une caricature.
00:43:55 Je vais vous poser justement une question,
00:43:57 parce que je sens, je pense que là,
00:43:59 vous avez une bonne inspiration.
00:44:00 Alors, monsieur Ehouma,
00:44:01 il y a une question qui nous vient d'Eme Komwe.
00:44:07 L'intelligence artificielle ne fait-elle pas
00:44:09 l'apologie de la paresse intellectuelle?
00:44:11 - Comment ça peut faire l'apologie?
00:44:13 - C'est une question que...
00:44:14 - Non, c'est non.
00:44:15 - Que Eme Komwe a posée.
00:44:16 - C'est non, justement,
00:44:17 parce que je viens de donner un exemple.
00:44:19 Je prends le cas de ce que nous faisons
00:44:21 comme formation.
00:44:22 - D'accord.
00:44:23 - Avant l'avènement de l'intelligence artificielle
00:44:25 générative comme elle est actuellement,
00:44:27 on faisait les cours comme tout le monde.
00:44:29 Quand cette innovation est apparue,
00:44:31 on a essayé de comprendre comment est-ce qu'on insère
00:44:34 dans nos parcours.
00:44:35 Et on a compris qu'il fallait modifier les cours.
00:44:38 Dans un premier temps, il fallait former les formateurs
00:44:41 pour qu'ils puissent utiliser l'intelligence artificielle
00:44:44 pour définir leurs cours, pour définir les objectifs
00:44:47 et les parcours des étudiants qui vont s'aligner
00:44:50 sur le marché, ce qui est demandé sur le marché
00:44:53 dans les 3, 5, 10 prochaines années.
00:44:55 Et partant de là, les étudiants maintenant,
00:44:57 les apprenants sont autorisés à utiliser
00:44:59 l'intelligence artificielle pour résoudre leurs problèmes
00:45:02 parce que c'est dans l'ère du temps.
00:45:04 Alors, si on décide que l'intelligence artificielle
00:45:08 fait l'apologie de la paresse...
00:45:10 - C'est une question qu'il a posée.
00:45:12 - Je fais une démonstration, si vous permettez.
00:45:14 - Bien sûr.
00:45:15 - Si on décide que ça fait l'apologie de la paresse,
00:45:17 je vous ramène en 1960 ou 1950 face aux comptables
00:45:22 qui étaient frustrés face à l'avènement
00:45:25 de Excel et des tableurs.
00:45:27 C'était la même chose.
00:45:28 On se disait, mais attends, la comptabilité,
00:45:30 c'est des cahiers, il faut tenir des registres
00:45:33 et on ne va pas s'amuser à donner les données,
00:45:38 l'argent, entre guillemets, parce que c'était ça le truc.
00:45:41 L'argent aux machines, parce que c'est des machines
00:45:43 qui, des fois, s'arrêtaient.
00:45:45 Mais c'est une progression.
00:45:47 C'est un groupe de personnes qui avait compris
00:45:49 que si on faisait bien, les machines allaient nous aider
00:45:52 à mieux faire cette comptabilité.
00:45:54 Aujourd'hui, presque tous les comptables,
00:45:56 peut-être même tous les comptables du monde,
00:45:57 utilisent des machines pour faire leur travail.
00:45:59 - D'accord. Donc on est d'accord en vous écoutant.
00:46:03 Il y a une évolution, on s'adapte à une évolution,
00:46:05 on s'adapte, on anticipe, il y a une perspective.
00:46:07 On est d'accord là-dessus.
00:46:08 - Mais répondre à la paresse...
00:46:10 - Oui, la paresse intellectuelle.
00:46:12 Elle est déjà dans le CMI, mais c'est vous la paresse intellectuelle.
00:46:16 - Si l'élève utilise l'IA pour résoudre son devoir,
00:46:22 ici, c'est dans l'intérêt du professeur d'utiliser aussi l'IA
00:46:26 pour corriger le devoir.
00:46:28 - Et produire le devoir.
00:46:29 - Produire le devoir, effectivement.
00:46:31 Parce que l'IA vous permet de détecter
00:46:33 si ce document a été conçu d'une intelligence artificielle,
00:46:38 et peut aussi la corriger.
00:46:40 - Et ce ne sont pas les mêmes capacités qu'on doit évaluer aujourd'hui.
00:46:43 Ce qu'on évaluait il y a 50 ans, ce n'est pas la même chose qu'il faut évaluer.
00:46:46 - Messieurs, ce n'est pas un dialogue entre tous les deux.
00:46:49 Là, là, vous vous retrouvez entre vous, mais ce n'est pas un dialogue.
00:46:51 On est tous les quatre, je ne veux pas passer la parole à M. Gouandeux, s'il vous plaît.
00:46:54 - Voilà. En fait, nous, sur la question,
00:46:58 parce qu'effectivement, c'est l'un des défis
00:47:01 avec le développement de l'intelligence artificielle,
00:47:04 quelle est la place de l'homme ?
00:47:06 Quel est l'impact sur les capacités cognitives de l'individu ?
00:47:11 Parce que là, on est en train de parler d'un élève
00:47:14 à qui on a appris, a appris une méthodologie,
00:47:17 à qui on a appris la capacité de raisonner.
00:47:20 Et l'élève met à côté tout ce qu'il a appris,
00:47:25 et il va, il introduit son sujet juste dans l'intelligence artificielle,
00:47:29 qui va lui donner des éléments, des réponses.
00:47:31 Et on est en train de nous dire que c'est l'int...
00:47:34 Dans ce cas, le professeur devra concevoir son sujet
00:47:37 à travers l'intelligence artificielle.
00:47:40 Donc finalement, je suis en train de me demander,
00:47:42 mais ce sera quoi l'objet de l'apprentissage ?
00:47:45 Est-ce que l'individu qui est là est en train d'apprendre quelque chose ?
00:47:48 - Faites, faites, non, allez-y, allez-y.
00:47:50 - La question qui est posée ici parle d'abord des questions
00:47:54 d'intégration même de l'intelligence artificielle
00:47:57 dans notre quotidien.
00:47:59 C'est-à-dire, on intègre cela comment ?
00:48:01 Quel est l'objectif qu'on vise ?
00:48:03 Si on est en train d'intégrer aujourd'hui l'intelligence artificielle
00:48:06 dans le système éducatif, quand on l'intègre, on l'intègre comment ?
00:48:09 Est-ce qu'on l'intègre pour que l'élève qui est là
00:48:11 se passe d'apprendre pour utiliser la machine,
00:48:14 et puis lui-même individu, il ne peut plus rien faire
00:48:16 en dehors de la machine ?
00:48:17 Mais comment est-ce qu'on intègre cela ?
00:48:19 Et puis il y a des questions, comme je le disais tout à l'heure,
00:48:21 il y a des questions d'égalité.
00:48:22 Aujourd'hui, si je permets à l'élève qui est ici à Abidjan
00:48:25 d'utiliser l'intelligence artificielle,
00:48:28 est-ce que l'élève qui se retrouve à Toulépleu,
00:48:31 quelque part là-bas, peut aussi utiliser l'intelligence artificielle,
00:48:34 même s'il est brillant ?
00:48:35 même s'il est brillant.
00:48:36 Ce sont des questions qu'il faut intégrer,
00:48:39 qu'il faut prendre en compte,
00:48:40 même si on doit intégrer l'intelligence artificielle,
00:48:42 faire en sorte que les élèves soient tous sur le même pied d'égalité.
00:48:47 En tout cas, c'est une autre préoccupation.
00:48:50 L'intelligence artificielle, avant de passer la parole à Franck,
00:48:54 et à Docteur, pardon, à Monsieur Oumar,
00:48:57 le gouvernement est en train de travailler, justement,
00:48:59 il travaille sur l'intelligence artificielle.
00:49:01 Et apparemment, au niveau de l'éducation nationale,
00:49:03 c'est une question qui est traitée.
00:49:06 Donc, vous vouliez dire quelque chose sur ce...
00:49:10 rapidement, parce que j'ai des questions à poser.
00:49:12 - Tout simplement, ce qu'il vient de dire,
00:49:13 moi, je viens de l'apprendre ce soir,
00:49:15 parce que pendant que toute la Terre entière est en train de réfléchir
00:49:18 sur le défi des dérives de l'IA dans l'éducation,
00:49:24 lui, nous donne déjà la solution en disant que,
00:49:27 comme ils vont y aller, nous, on prend aussi la barre,
00:49:30 on corrige, bon, cette expérience, je n'en ai jamais entendu parler.
00:49:33 Peut-être que c'est nouveau, ça vient de sortie.
00:49:35 Bon, après, on va s'y intéresser.
00:49:38 Mais c'est pour lui dire que le débat n'est pas nombriliste, en fait.
00:49:41 Le débat est mondial, puisqu'on parle de réglementation mondiale.
00:49:45 Et les secteurs sont les mêmes.
00:49:47 Éducation, santé, opinion publique.
00:49:50 On n'invente rien.
00:49:51 Moi, je ne prêche pas pour moi, je suis un témoin de mon temps.
00:49:55 Et en tant que témoin de son temps, quand nous sommes interpellés,
00:49:59 comme il a dit, nous sommes interpellés globalement.
00:50:02 Nous sommes interpellés comme des gens qui vivons ensemble.
00:50:07 Sinon, on peut traiter toujours...
00:50:09 La technologie a toujours évolué, a fonctionné en marche.
00:50:12 Ce que nous disons, là, si vous allez dans le domaine militaire,
00:50:16 vous ne pouvez même pas, vous n'avez aucune idée
00:50:18 des développements qui ont été faits,
00:50:20 les applications jusqu'au sous-marin, tout ce que vous pouvez imaginer.
00:50:23 Mais c'est toujours de manière de proche en proche que ça se passe.
00:50:27 Et avec le minimum de casse sociale possible.
00:50:31 Parce qu'il ne faut pas décréter des élites qui auraient tout compris,
00:50:35 qui rêvent... Non, ça, je ne pense pas que ce soit un respect
00:50:38 pour la société dans laquelle vous êtes,
00:50:41 qui vous a produit et dans laquelle vous vivez.
00:50:43 Moi, j'ai une question pour tous les quatre.
00:50:45 On a parlé de la santé, on a parlé de l'éducation.
00:50:47 Alors, l'intelligence artificielle, entre les mains,
00:50:50 elle peut tout faire, entre les mains, elle obscure.
00:50:53 Est-ce qu'elle peut provoquer, par exemple, je prends un cas concret,
00:50:56 une panne d'électricité ? Elle prend possession du système ?
00:51:01 Il n'y a aucun programme informatique qui fait les choses de lui-même.
00:51:05 Ce sont des hommes qui utilisent le programme pour arrêter l'électricité.
00:51:09 Comme n'importe quel être humain pourrait prendre son doigt
00:51:12 pour arrêter l'électricité avec l'interrupteur,
00:51:14 on peut le faire à distance avec un programme informatique
00:51:16 connecté à un dispositif qui va lui déclencher une action à distance.
00:51:21 Donc, il faut vraiment qu'on comprenne que c'est l'homme qui est à la base.
00:51:25 - L'homme qui est à la base. L'homme qui est à la base.
00:51:27 Alors, est-ce que, justement, vous êtes très connecté informatique,
00:51:31 et vous également. La question des hackers, ça a été,
00:51:35 vous avez parlé de la cybercriminalité. La question des hackers,
00:51:39 est-ce que l'intelligence artificielle ne va pas, justement,
00:51:41 encore faciliter la vie aux hackers ?
00:51:44 - Ah, bien sûr. C'est pour cela que nous devons tous comprendre
00:51:48 comment ça fonctionne, parce qu'il faut se prémunir.
00:51:51 Et pour pouvoir se prémunir, je l'ai dit tout à l'heure,
00:51:53 pour pouvoir se prémunir de ces dangers-là, il faut comprendre
00:51:56 comment ça fonctionne. Et donc, le leadership, c'est comme un père de famille
00:51:59 qui explique à ses enfants que quand on te parle dans la rue
00:52:02 que tu ne connais pas la personne, il ne faut pas répondre.
00:52:04 Quand on vient sonner à la porte que tu ne connais pas la personne
00:52:07 et qu'il n'y a pas de rendez-vous, on n'attend pas quelqu'un,
00:52:08 il ne faut pas répondre. Et c'est un travail de fond.
00:52:10 Aujourd'hui, c'est devenu la base de l'éducation.
00:52:15 Je le dis, peut-être que je suis futuriste, mais regardez vous-même.
00:52:20 - Ce n'est pas un reproche.
00:52:21 - Voilà, votre émission sera plus vue grâce au numérique.
00:52:26 C'est-à-dire que tous les êtres humains, aujourd'hui,
00:52:29 ont quelque chose qui est connecté au numérique.
00:52:31 Même quand ce n'est pas la personne elle-même qui est connectée,
00:52:34 c'est dans le village, celui qui est connecté,
00:52:35 qui donne les nouvelles aux autres.
00:52:37 Donc, c'est devenu très important de faire comprendre aux gens
00:52:40 comment les technologies fonctionnent.
00:52:42 Et quand les gens savent comment les technologies fonctionnent,
00:52:44 à la limite, on n'a même pas besoin de leur parler des dangers
00:52:46 parce qu'ils arrivent à s'auto-réguler.
00:52:48 L'être humain est très intelligent.
00:52:50 Individuellement, nous sommes super intelligents.
00:52:53 Mais quand on n'a pas accès à certaines informations
00:52:55 et que d'autres ont accès à ces informations, comme les hackers,
00:52:58 ils deviennent une très grosse menace pour nous.
00:53:00 Aujourd'hui, il est très facile de prendre l'image d'une dame
00:53:03 et la voix d'une dame et de faire un live.
00:53:06 - Mais je pense qu'il y a eu un cas comme ça entre Trump,
00:53:09 on a pris sa voix, c'était un fake, un deep fake en réalité.
00:53:12 Donc, c'est pour dire jusqu'où ça va, cet annoncé présent des États-Unis.
00:53:16 Mais moi, je voudrais entendre M. Bandeux,
00:53:18 et puis tous les quatre d'ailleurs, sur...
00:53:21 On parle des atouts et des risques.
00:53:23 Est-ce que l'intelligence...
00:53:24 Quelles sont les limites en réalité de l'intelligence artificielle ?
00:53:27 Parce qu'on nous suit, on veut comprendre.
00:53:29 Quelles sont les limites qui garderaient une place à l'homme
00:53:32 ou pour l'homme ?
00:53:33 - Merci, merci beaucoup, madame.
00:53:35 Effectivement, parce que quand on parle...
00:53:37 Tout à l'heure, quand j'écoutais un peu les techniciens parler,
00:53:41 on a entendu dire que c'est des données, d'abord,
00:53:44 qui sont introduites dans une machine,
00:53:47 et cette machine-là va apprendre,
00:53:49 et cette machine-là va s'adapter,
00:53:51 et cette machine-là va, comment on appelle ça,
00:53:54 développer d'autres compétences dans son fonctionnement.
00:53:58 Mais là où nous, on est quand même...
00:54:02 C'est des choses qui ont leur avantage, on l'a dit.
00:54:06 Maintenant, de l'autre côté,
00:54:08 quand on introduit des données dans une machine,
00:54:11 et que cette machine-là doit apprécier d'elle-même des choses,
00:54:14 alors qu'on sait qu'un appareil peut avoir forcément des problèmes,
00:54:17 il peut avoir à un moment donné des bugs,
00:54:19 il peut avoir un moment des soucis,
00:54:21 vous avez des thèmes qui...
00:54:23 En termes de pannes qui peuvent intervenir
00:54:25 dans le fonctionnement d'une machine.
00:54:27 À partir de ce moment, quand une machine, par exemple,
00:54:29 doit décider de qui on choisit comme candidat pour un emploi,
00:54:33 parce qu'aujourd'hui, les choix se font comme ça.
00:54:35 - C'est ce qu'on a fait pour les visas depuis très longtemps.
00:54:37 - Voilà. Vous allez voir qu'il peut aussi avoir de la discrimination.
00:54:40 - Ah, bien sûr.
00:54:41 - Voilà. Sur la base des données qu'on a introduites,
00:54:43 ou sur la base des problèmes qui sont intervenus dans la machine.
00:54:47 Donc, voici les risques éventuels,
00:54:49 et nous, ce qu'on propose, c'est que ces risques-là,
00:54:52 ces risques-là soient pris en compte dans la législation,
00:54:55 ces risques-là.
00:54:57 Le développement même de ces outils-là,
00:54:59 prennent en compte, comment on appelle, l'homme,
00:55:02 et qu'on se dise, il est possible d'avoir ce genre de règles-là,
00:55:06 pour que l'homme soit toujours à côté même du fonctionnement
00:55:09 de cette machine, pour l'appréciation définitive des choses.
00:55:12 - Alors, il y a des questions, ça suscite beaucoup de questions.
00:55:15 Thomas Dobon nous parle de ses enfants.
00:55:17 Aujourd'hui, nous avons des enfants de 2 à 10 ans
00:55:19 qui ont une maîtrise des smartphones.
00:55:21 Je pense qu'on en a beaucoup parlé sur ce plateau.
00:55:24 Et selon lui, la maîtrise est très surprenante.
00:55:28 Donc, vous comprenez qu'ils sont quand même très aguerris,
00:55:31 2 à 12 ans.
00:55:32 Alors, quel sera l'impact de l'intelligence artificielle
00:55:35 sur ces enfants, monsieur Ehouma?
00:55:38 - Je reviens à la question qui est très fondamentale.
00:55:40 Ces enfants-là n'ont pas une si grande maîtrise.
00:55:42 Ils savent utiliser quelques fonctionnalités...
00:55:44 - Thomas... Thomas Dobon dit qu'ils ont une maîtrise.
00:55:47 - Si vous me laissez terminer, peut-être que vous allez comprendre.
00:55:49 - Non, mais c'est ce que lui dit.
00:55:50 - C'est relatif à lui.
00:55:51 - Mais c'est sa liberté aussi.
00:55:53 - Justement, c'est relatif à lui.
00:55:55 J'essaie maintenant de vous expliquer que la plupart des enfants
00:55:58 peuvent rapidement prendre en main l'outil technologique.
00:56:03 Mais c'est très limité dans leur usage.
00:56:06 - D'accord.
00:56:07 - Ils peuvent facilement manipuler des jeux
00:56:09 parce que c'est fait en fonction de leur esprit.
00:56:12 Ils peuvent manipuler des applications de vidéo.
00:56:15 Ils peuvent manipuler des applications de réseaux sociaux.
00:56:18 Par contre, si vous leur demandez de résoudre un problème
00:56:21 dans le cadre du journalisme, ils auront du mal.
00:56:24 Chaque parent a la capacité et la possibilité
00:56:29 de mettre le contrôle parental qui verrouille
00:56:34 presque tous les usages que je viens d'expliquer là,
00:56:37 de sorte à ce que le smartphone en question
00:56:39 ne devienne qu'un outil d'éducation.
00:56:42 Et c'est la responsabilité du parent.
00:56:45 Cette responsabilité-là, on a la pleine mesure
00:56:49 lorsqu'on prend quelques temps pour comprendre
00:56:52 quand on achète un appareil, pour lire la notice,
00:56:55 parce que tous les constructeurs sont dans l'obligation
00:56:57 de mentionner ces choses-là dans les appareils.
00:56:59 On n'achète pas un appareil et on le met dans la main des enfants.
00:57:02 - J'ai une question rapidement et puis on va passer
00:57:05 au troisième thème qui nous intéresse également,
00:57:07 ce sont les élections.
00:57:09 Alors, Antonio Guterres a dit jeudi aux Nations unies,
00:57:12 il dit ceci, "Le développement de l'intelligence artificielle
00:57:15 "ou l'IA, pour le bien de tous, nécessite des gardes fondés
00:57:19 "sur les droits de l'homme.
00:57:21 "La transparence et la responsabilité",
00:57:24 s'est signé Antonio Guterres.
00:57:26 Commentaire rapidement, docteur.
00:57:29 - Non, je veux dire que moi, ça ne me surprend pas
00:57:31 parce que l'inquiétude, elle est mondiale.
00:57:33 L'inquiétude dite depuis 40 ans.
00:57:35 Et aujourd'hui, les développements qu'on voit
00:57:37 sont plus effrayants que ce que les gens imaginaient.
00:57:39 - Monsieur Oumam.
00:57:41 - On n'a pas attendu... - Non, oui, allez-y.
00:57:43 Allez-y, allez-y. - Je m'exprime en fonction
00:57:45 de ce que je comprends. - Allez-y.
00:57:47 - On n'a pas attendu ce type de déclaration.
00:57:49 Les technologistes ont annoncé depuis très, très longtemps,
00:57:52 ont invité depuis très, très longtemps
00:57:54 les leaders politiques mondiaux à s'asseoir
00:57:56 pour la régulation des laboratoires de recherche.
00:57:58 - D'accord. - C'est seulement récemment
00:58:01 que quelques leaders ont commencé à se manifester.
00:58:04 Donc, c'est le résultat que vous voyez là.
00:58:06 Sinon, les constructeurs, les premiers constructeurs,
00:58:09 les personnes qui ont fait de la recherche
00:58:11 depuis très, très longtemps, ont toujours interpellé
00:58:13 le leader pour lui faire comprendre que nous sommes
00:58:15 en train de travailler sur quelque chose qui est très puissant.
00:58:17 Ça signifie que de l'autre côté aussi,
00:58:19 en parlant de pays, en parlant de régions du monde,
00:58:22 il y a des gens qui font ce type de travail
00:58:24 et donc il est important de s'asseoir pour réguler.
00:58:27 - S'asseoir pour réguler, dit monsieur Oumam.
00:58:30 Franck, qu'est-ce que vous en pensez?
00:58:32 - Il a tout à fait raison. Il faut s'asseoir
00:58:34 pour réglementer l'usage de l'intelligence artificielle
00:58:36 dans tous les domaines, dans tous les domaines de la société.
00:58:39 Je pense qu'ailleurs, c'est en train d'être fait.
00:58:41 Je ne sais pas encore pour la Côte d'Ivoire,
00:58:42 mais ailleurs, c'est en train de faire.
00:58:43 - Il y a des discussions.
00:58:44 - On suit les débats. On voit qu'il y a,
00:58:46 par exemple, dans certains pays que ce soit en Italie,
00:58:48 même en Chine, il y a des réglementations
00:58:50 sur le temps d'utilisation, les sites disponibles
00:58:53 pour les différentes catégories.
00:58:55 Et il y a énormément de choses qui sont faites
00:58:58 pour vraiment utiliser de façon plus efficace
00:59:01 cet outil-là, le bien-être de tout le monde.
00:59:03 - Vous êtes d'accord avec...
00:59:04 - Non, je suis tout à fait d'accord.
00:59:05 - C'est l'idée du bien de tous.
00:59:06 - Le bien de tous.
00:59:07 Encore une fois, je vais utiliser la citation du sociologue
00:59:10 "La science en conscience n'est que l'une de l'âme".
00:59:12 Donc ici, ce n'est pas la solution, l'outil, le problème.
00:59:16 C'est les personnes.
00:59:17 Donc l'éthique et la transparence doivent être enseignées
00:59:20 aux êtres humains, aux constructeurs,
00:59:21 aux personnes qui vont utiliser ces outils-là.
00:59:24 - Monsieur Gwandeu, je voulais juste rebondir.
00:59:26 Je veux vous entendre, mais il parle des constructeurs,
00:59:29 donc en question des responsabilités.
00:59:30 Est-ce que derrière, il y a des gros business,
00:59:32 est-ce que la responsabilité peut intervenir
00:59:34 en ce qui concerne les constructeurs également?
00:59:36 - Oui, la responsabilité peut intervenir
00:59:38 en ce qui concerne les constructeurs
00:59:40 et en ce qui concerne, par exemple, les entreprises
00:59:42 et les gouvernements qui intègrent l'intelligence artificielle
00:59:45 dans leur fonctionnement.
00:59:47 C'est là où le thème que le secrétaire général
00:59:50 des Nations unies...
00:59:52 La transparence.
00:59:53 - Il a parlé de transparence et responsabilité.
00:59:55 - Une approche participative.
00:59:57 Ça veut dire quoi?
00:59:58 Aujourd'hui, quand nos gouvernements,
01:00:00 quand les entreprises doivent intégrer
01:00:02 l'intelligence artificielle dans leur fonctionnement,
01:00:05 les utilisateurs, la population qui utilise,
01:00:10 qui sera la cible d'un produit, d'une publicité,
01:00:15 jusqu'à quel niveau cette cible est informée,
01:00:19 est associée à la mise en place de tout ce processus?
01:00:23 Voilà, nous, notre préoccupation.
01:00:25 C'est en même temps une recommandation
01:00:27 qu'on fait à l'endroit de nos gouvernements,
01:00:29 à l'endroit des entreprises.
01:00:31 On intègre l'intelligence artificielle,
01:00:33 mais il est aussi bien d'informer les utilisateurs,
01:00:36 d'informer aussi la population sur...
01:00:39 - Il est bien d'informer les populations,
01:00:42 et les populations, justement,
01:00:43 elles veulent aussi entendre, vous entendre
01:00:46 et entendre ce que vous pensez sur les élections,
01:00:49 parce que l'intelligence artificielle,
01:00:51 la question, elle est celle-là.
01:00:52 Peut-elle influencer des élections?
01:00:54 Et nous savons que le 2 septembre prochain,
01:00:56 la Côte d'Ivoire organise des élections régionales et locales.
01:00:59 Nous suivons ce micro-trottoir.
01:01:01 Et messieurs, on se retrouve par la suite.
01:01:04 - L'intelligence artificielle peut,
01:01:06 par le réseau, par les différents réseaux,
01:01:08 c'est-à-dire Facebook, Internet et consorts,
01:01:11 s'ingérer déjà pour connaître le nombre de personnes déjà,
01:01:14 c'est-à-dire la population qu'il y a déjà dans un pays.
01:01:17 Vous êtes d'accord avec moi?
01:01:18 Même les élections, c'est de façon numérique
01:01:20 que ça se passe.
01:01:21 Donc s'il y a, s'ingérer déjà dans le réseau,
01:01:22 il y a peut-être une influence.
01:01:24 - Avec l'intelligence artificielle,
01:01:26 nous sommes capables de faire des prédications.
01:01:28 Donc au fait de prédire,
01:01:29 au fait de ce qui peut arriver ou pas.
01:01:31 L'intelligence artificielle peut permettre au fait
01:01:33 de savoir que, au fait, avec toutes les informations
01:01:36 qu'ils ont sur moi, de faire un rapport et de prédire
01:01:38 au fait que je serais capable au fait de peut-être voter pour lui
01:01:41 si on me montre peut-être une telle publicité,
01:01:44 si on me montre une chose comme ça, des critères et tout.
01:01:47 - C'est vrai qu'on a vu sur les réseaux sociaux
01:01:51 des votes, notamment les votes électroniques,
01:01:55 qui ont été manipulés parce qu'il y a un logiciel
01:02:01 qui permet de manipuler le vote, notamment électronique.
01:02:05 Alors si l'intelligence artificielle rentre en jeu
01:02:09 de ce point de vue-là, j'ai dit oui, il faut faire attention
01:02:12 parce que les résultats peuvent être manipulés
01:02:15 exactement comme on peut manipuler la voix de quelqu'un
01:02:18 et faire passer quelqu'un pour un autre.
01:02:22 Si vous faites allusion aux élections locales
01:02:25 qui arrivent en Côte d'Ivoire, on est très loin encore
01:02:30 de cette possibilité-là.
01:02:33 - Alors messieurs, on parle des élections à venir,
01:02:37 mais surtout, est-ce que l'intelligence...
01:02:39 Merci d'abord à David Soyo et Ibrahimi Touré.
01:02:42 Alors est-ce que l'intelligence artificielle
01:02:44 peut influencer les élections, docteur?
01:02:48 - Bien, peut-être, si j'ai une seconde, je pourrais revenir
01:02:51 sur l'aspect réglementation. - Une seconde.
01:02:53 - Une seconde. - Oui.
01:02:55 - Parce qu'aujourd'hui, quand les étudiants ont tenté
01:02:57 de traiter les devoirs de droit, il n'y a qu'un droit
01:03:01 où les gens ont pu rapidement se rendre compte.
01:03:03 Parce que quand ils ont dit "article 1800 aliénéatain",
01:03:06 il y a sorti quelque chose, mais qui n'avait aucune traçabilité
01:03:10 par rapport aux références juridiques.
01:03:12 Donc ça vous dit aussi qu'on ne peut pas parler
01:03:14 de régulation, de réglementation comme ça,
01:03:16 sauf si on nous dit qu'il y a aussi une réglementation
01:03:18 qui peut nous permettre que le droit aille vite.
01:03:20 Sinon, le droit a toujours eu un temps de retard
01:03:22 sur les faits sociaux, à plus de raison sur la technologie.
01:03:25 Donc comment est-ce que le législateur lui-même
01:03:27 sera assez averti, avait fait une loi adéquate?
01:03:30 Je pense que le monde entier se pose la question.
01:03:32 - Absolument. - Maintenant, revenons aux élections.
01:03:34 - L'influence, peut-être. - Cela fait au moins
01:03:36 30, 40 ans qu'on en parle. On se dit que chaque fois
01:03:39 que les gens auront accès... C'est pour ça que jusqu'à présent,
01:03:41 le vote électronique est très difficile, parce que les gens...
01:03:44 - Pourtant, il marche, parfois.
01:03:46 - Bon, les tablettes, les ceci, les cela, je sais, je connais...
01:03:49 Enfin, par expérience, il y a beaucoup de réticence
01:03:51 dans tous les pays, pratiquement.
01:03:53 Vous voyez que même les élections entre Trump et...
01:03:56 Voilà, donc c'est pas... - Biden.
01:03:58 - Il n'y a aucune confiance totale dans l'affaire.
01:04:00 Tout le monde parlera de manipulation.
01:04:02 Euh... Mais je veux dire que c'est...
01:04:05 En tout cas, concernant les élections,
01:04:07 c'est un vrai problème, c'est un vrai souci.
01:04:09 - Vous pensez, monsieur... - En tout cas,
01:04:11 que les candidats acceptent. Parce que quand on dit "élection",
01:04:14 c'est pas l'outil qui fait problème.
01:04:16 Ce sont les hommes autour qui acceptent
01:04:18 tous de se faire confiance et de faire confiance
01:04:20 à l'outil qui est utilisé et qui va le manipuler.
01:04:22 - Mais si c'est validé, est-ce qu'il faut avoir une crainte
01:04:25 de l'apport ou l'influence de l'intelligence artificielle?
01:04:28 Et peut-elle vraiment influer,
01:04:30 influencer les élections, monsieur Heumann?
01:04:33 - L'intelligence artificielle peut effectivement
01:04:35 influencer les élections. On l'a vu, hein, déjà.
01:04:38 L'outil informatique. - Oui.
01:04:40 - On l'a vu avec les réseaux sociaux.
01:04:42 Je vais pas revenir sur le cas de Facebook et de Trump.
01:04:44 - Absolument. - Mais moi, là,
01:04:46 ce que j'aime aujourd'hui, c'est que grâce
01:04:48 à l'intelligence artificielle, l'électeur peut en savoir plus
01:04:53 sur son candidat, peut en savoir plus sur les candidats.
01:04:56 Avec l'intelligence artificielle, on a, par exemple,
01:04:58 des outils qui permettent de déterminer
01:05:01 si ce qu'on recherche soi-même, c'est-à-dire de manière personnelle,
01:05:05 est-ce que ce qu'on recherche est aligné
01:05:09 avec ce que le candidat en face dit.
01:05:12 Donc, il y a ces outils-là qui existent.
01:05:14 J'en parle parce que ça peut peut-être aider les populations
01:05:16 pour qu'elles puissent savoir si leur candidat leur convient.
01:05:19 - Bien sûr. - Donc, ça, c'est la bonne nouvelle
01:05:21 pour les populations. Concernant les manipulations,
01:05:23 comme l'a dit tout à l'heure l'étudiant en cybersécurité,
01:05:26 au-delà de l'intelligence artificielle,
01:05:29 l'outil informatique est très puissant pour aider les gens
01:05:34 qui ont envie de faire de mauvaises choses
01:05:36 pendant les élections. Donc, c'est vraiment pour les aider.
01:05:38 Sinon, elles-mêmes, elles ont ces intentions-là.
01:05:40 Donc, on peut aujourd'hui... - Ça, c'est encore...
01:05:42 Il a fait une masse, monsieur Oumach.
01:05:45 - Je vais dire que les manipulations ont existé
01:05:47 bien avant l'outil informatique, les élections,
01:05:49 bien avant l'avènement d'Internet.
01:05:51 Et aujourd'hui, avec l'intelligence artificielle,
01:05:55 il est très facile de prêter des propos
01:05:59 à un concurrent, par exemple.
01:06:01 - Donc, il y a un danger potentiel.
01:06:03 - Voilà. Il y a éventuellement, mais quand on utilise...
01:06:07 Tout à l'heure, j'ai parlé de ce que les citoyens
01:06:09 peuvent en faire. - Oui.
01:06:11 - Les citoyens en font déjà un bon usage.
01:06:13 - Oui. - Ils sauront comment
01:06:15 consommer les informations qui viennent des candidats.
01:06:19 - Franck, je voudrais vous entendre là-dessus.
01:06:21 - Déjà, il y a deux niveaux.
01:06:23 Donc, lorsqu'on dit que l'intelligence artificielle
01:06:25 peut influencer les élections... - C'est une question.
01:06:27 - Oui. C'est une question. Je vais répondre à deux niveaux.
01:06:29 Donc, déjà, on suppose qu'il y a une commission indépendante
01:06:32 qui gère, qui organise les élections.
01:06:34 - Elle existe. - Qui va utiliser cet outil-là.
01:06:37 L'outil, en lui-même, ne peut pas décider de qui va gagner.
01:06:40 Donc, c'est la commission, qui est censée être indépendante,
01:06:43 qui va... - Elle est indépendante.
01:06:45 - Non, je parle donc en général. - Oui.
01:06:47 - Elle est indépendante. - Oui.
01:06:49 - Et donc, on conçoit qu'elle est indépendante.
01:06:51 Elle va utiliser un logiciel qui n'a pas de priorité,
01:06:53 qui n'a pas de... - Pas de biais.
01:06:55 - Parti-prix. - Parti-prix.
01:06:57 Et donc, si on est dans ce cas de figue,
01:06:59 il n'y a pas vraiment un cas échéant
01:07:01 où il y aura vraiment une manipulation ou quoi que ce soit.
01:07:04 Maintenant, si les personnes de nature
01:07:06 ont des intentions malfaisantes,
01:07:09 ils peuvent programmer le logiciel de telle sorte
01:07:11 à ce qu'ils sélectionnent un candidat.
01:07:13 - Bien sûr. - Donc, ici, moi, je pense
01:07:15 qu'il faut faire la sensibilisation des personnes, et non de l'outil.
01:07:17 - L'outil. - Voilà.
01:07:19 - Voilà, vous, c'est vrai... - On vient d'entendre
01:07:22 comment l'intelligence artificielle
01:07:24 peut à la fois faciliter la réalisation du droit au vote
01:07:28 et en même temps, quelque part, aussi,
01:07:30 compromettre des élections transparentes, en fait.
01:07:33 Voilà. Et c'est là où,
01:07:36 donc, ce que nous disons, on l'a dit tout à l'heure,
01:07:40 c'est que même lorsqu'on utilise l'intelligence artificielle,
01:07:44 faisons en sorte que l'homme ne soit pas loin,
01:07:48 pour que l'homme ait une appréciation
01:07:50 de ce qui a été fait par l'intelligence artificielle.
01:07:53 De sorte à aussi donner confiance à la population
01:07:57 qui peut-être peut éviter toutes sortes de suspicions.
01:08:00 Voici, voilà vraiment les éléments que nous,
01:08:02 on souhaiterait enlever sur cet aspect-là, en fait.
01:08:04 - Parce que, justement, vous avez, au niveau du conseil,
01:08:07 vous êtes engagé en termes de sensibilisation
01:08:10 des populations... - Et de l'informatique.
01:08:12 - Est-ce que l'intelligence artificielle ou l'informatique,
01:08:16 ces éléments vont faire partie de vos éléments de langage?
01:08:20 - Bien sûr. Mme la présidente, Mme Nnamdi Zatanga,
01:08:23 présidente du Conseil national des droits de l'homme,
01:08:25 elle met un point d'honneur sur cet aspect-là.
01:08:27 Comment est-ce qu'on informe les populations d'abord sur le droit?
01:08:32 Comment est-ce qu'on informe aussi les populations sur les risques?
01:08:37 Et en même temps, les avantages à utiliser les plateformes numériques
01:08:42 pour s'informer sur des questions d'élection,
01:08:45 parce qu'on est dans des contextes
01:08:46 où il y a beaucoup d'informations qui circulent.
01:08:49 Comment est-ce que les populations font pour trier
01:08:52 les informations qui sont justes, des informations qui sont fausses?
01:08:57 Comment elles arrivent à faire la part des choses?
01:09:00 Comment est-ce que les populations même doivent se comporter en temps d'élection?
01:09:05 Comment les populations doivent faire attention pour chercher à savoir
01:09:10 qui est derrière telle information ou telle information
01:09:13 que je lis sur les plateformes?
01:09:15 C'est un combat dans lequel le CNDS s'est engagé depuis longtemps.
01:09:20 Et cette année, on l'a déjà commencé ici à Abidjan
01:09:25 et dans toutes nos 31 commissions régionales de la Côte d'Ivoire.
01:09:28 Alors, docteur et monsieur Yegouma, et je vais vous entendre aussi là-dessus,
01:09:33 Franck, c'est vrai, on parle des réseaux sociaux,
01:09:35 intelligence artificielle, vous avez dit tout à l'heure qu'on peut,
01:09:38 la voix, on peut prendre ma voix alors que je ne suis pas là
01:09:41 et on me fait dire ce que je n'ai pas dit.
01:09:43 Nous sommes en période de sensibilisation sur des élections apaisées, transparentes.
01:09:49 Est-ce qu'il y a, selon vous, un mécanisme qui pourrait permettre,
01:09:53 justement, à cette intelligence artificielle de prévenir des discours
01:09:56 de haine, de violence et de faux résultats?
01:10:02 Parce que c'est très souvent quand il y a des résultats qu'il y a des problèmes.
01:10:06 Comment on fait avec l'intelligence artificielle, justement?
01:10:09 Moi, je pense que peut-être que ce serait la partie noble de l'outil.
01:10:13 Sinon, globalement, l'homme, c'est du comportemental.
01:10:18 Celui qui veut nuire, celui qui veut manipuler,
01:10:21 celui qui veut dire qu'à tout prix, il aura gagné,
01:10:23 celui qui veut salir les autres, ça, c'est vieux comme le monde.
01:10:27 Ça ne veut pas réformer le comportement de vieux politiciens
01:10:31 d'il y a 40, 50, 60 ans, juste avec un outil.
01:10:34 L'outil peut toujours venir avec sa neutralité.
01:10:37 Et ce serait même bien qu'il vienne avec une neutralité comprise par tous,
01:10:40 comme ils disaient. Là, ça va nous mettre tous à l'abri,
01:10:43 de dire que c'est un jeu à somme nulle où le meilleur gagne.
01:10:46 Et soyez dans des programmes propres, ne soyez pas dans l'invectif,
01:10:49 parce qu'à l'arrivée, il y a toujours des innocents qui perdent leur vie,
01:10:52 il y a des genèses, etc. Donc, je pense que si l'outil peut nous aider
01:10:56 dans tout ce qui est valeur comportementale, transparence, etc.,
01:11:00 je pense que ce sera une bonne chose.
01:11:02 Mais ne rêvons pas que l'outil va venir créer le propre dans la poubelle.
01:11:06 - Le propre dans la poubelle ? - Dans la poubelle.
01:11:09 - Propre docteur. - La prédis-moi.
01:11:11 - Monsieur Egoumen, alors, en 2009, parce que c'est vrai que vous faites beaucoup de choses,
01:11:14 on parle d'intelligence artificielle, mais vous avez aussi,
01:11:17 vous faites aussi de la formation, de la sensibilisation,
01:11:19 et vous avez mis sur pied, vous confirmerez ou infirmerez,
01:11:22 Akenewa. C'est cela ? - Akenewa.
01:11:25 - Voilà. Alors, c'est un lien avec les élections.
01:11:28 Alors, de votre côté, comment vous pensez pouvoir justement sensibiliser
01:11:31 avec un outil que vous avez, au-delà d'habit-genre, etc.,
01:11:35 comment vous pensez pouvoir le faire pour des élections apaisées, justement,
01:11:39 le devoir citoyen, encourager les uns et les autres à aller voter,
01:11:42 puisque cette initiative, elle existe ?
01:11:46 - Alors, juste un petit rectificatif. Akenewa n'a pas été créée pour des élections.
01:11:50 Donc, on a eu de projets, on a eu de programmes.
01:11:54 - Donc, elle a un lien avec quoi ? - Akenewa, c'est juste pour éduquer
01:11:57 la population au bon usage des technologies.
01:12:00 Donc, de 2009 à maintenant, on a eu plus de 27 projets,
01:12:04 et parmi ces projets-là, il y en a quelques-uns qui concernent les élections.
01:12:07 - C'est de ça dont je parle, et dans mes recherches, j'ai trouvé "élections".
01:12:10 C'est pour ça que j'ai extrait "élections" du reste.
01:12:12 - Alors, ce qui est intéressant, c'est que si vous avez trouvé ces informations
01:12:15 sur le web, vous avez pu voir comment est-ce qu'on a utilisé les technologies
01:12:19 pour aider les gens en situation pendant la crise,
01:12:23 c'est-à-dire crise électorale et même postélectorale,
01:12:27 parce qu'avant la crise postélectorale, il y avait une petite crise,
01:12:30 il y avait des soucis, il y avait des gens qui se faisaient agresser
01:12:33 pour leur opinion, de part et d'autre.
01:12:36 - Maintenant, pour 2023, ma question, comment, justement,
01:12:42 en poursuivant votre sensibilisation et cet accompagnement,
01:12:45 vous pensez pouvoir vous appuyer sur vos outils pour que ces personnes
01:12:50 soient à y voter, et un devoir citoyen, connaissent leurs droits aussi ?
01:12:54 Ça dépend de votre programme.
01:12:55 - Alors, ce que nous faisons, c'est que nous utilisons les technologies
01:12:59 pour faire comprendre aux gens que lorsqu'il s'agit d'élections,
01:13:01 il ne s'agit pas de s'entretuer.
01:13:03 D'où l'un de nos projets qui s'appelle "Élections", c'est Paniaga.
01:13:07 - Parfait.
01:13:08 - C'est surtout pour faire comprendre aux gens qu'il ne faut pas se faire de mal.
01:13:13 Et pour cela, on arrive à mettre en place des systèmes
01:13:16 qui permettent de repérer des sources de tensions.
01:13:21 - D'accord.
01:13:22 - Sur les réseaux sociaux, par exemple.
01:13:23 Voilà, donc ça, c'est vraiment quelque chose qu'on fait,
01:13:26 qu'on décide ou pas, parce que les élections précédentes,
01:13:29 on ne l'a pas fait.
01:13:30 Donc, c'est un projet qu'on peut décider de faire ou pas.
01:13:34 - Et quand c'est comme ça, quand vous avez ces informations,
01:13:36 qu'est-ce que vous en faites ? Parce que c'est utile, en fait.
01:13:38 - Oui.
01:13:39 - Ça peut être utile.
01:13:40 - Oui, c'est utile parce qu'en 2015, par exemple,
01:13:45 on avait formé 50 jeunes, 25 jeunes filles, 25 jeunes hommes.
01:13:51 Et leur travail, c'était, on appelait la brigade digitale pour les élections apaisées.
01:13:54 Donc, leur travail, c'était d'utiliser les outils qu'on avait mis en place
01:13:57 pour détecter les sources de tensions en ligne.
01:14:00 Parce qu'en fait, de simples mots, des agressions verbales,
01:14:04 peuvent être à la base d'agressions physiques.
01:14:06 - Absolument.
01:14:07 - Et donc, quand ces jeunes-là repéraient ces spots d'agressivité,
01:14:12 ils rentraient en contact avec les personnes,
01:14:14 essayaient de calmer un peu le jeu.
01:14:15 Et ça a bien marché parce que la plupart des candidats
01:14:18 ont accepté de les recevoir et de faire un mot pour les élections apaisées.
01:14:23 Alors, je ne garantis pas qu'on fera quelque chose pour l'élection 2023.
01:14:26 2009, 2010, 2015, ça avait du sens.
01:14:31 2020, on n'a rien fait, donc on verra bien.
01:14:34 - On ne sait pas, on ne dit jamais.
01:14:35 - C'est intéressant. Ce qu'il dit, c'est très intéressant.
01:14:38 Déjà, félicitations.
01:14:39 - Et vous-même, qu'est-ce que vous allez faire justement pour ne pas aller en ligne ?
01:14:43 - Ce que je prévois de faire avec l'association des blogueurs et influenceurs de Côte d'Ivoire,
01:14:47 c'est vraiment interpeller les jeunes, surtout les jeunes,
01:14:51 sur nos différentes plateformes, sur les risques
01:14:54 liés à ce qu'on écrit sur les réseaux sociaux,
01:14:58 aux contenus qu'on produit, aux mots qu'on utilise sur le digital,
01:15:01 parce qu'énormément de personnes nous suivent.
01:15:03 Nous devons être des leaders d'opinion, mais quel type de leader d'opinion sommes-nous ?
01:15:07 Nous devons impacter positivement notre société.
01:15:10 Avoir un langage plutôt d'unité et d'amour, c'est vrai, on dit aux gens,
01:15:14 allez voter, votez votre candidat selon vos critères,
01:15:17 mais ça reste un devoir individuel.
01:15:19 Nous n'avons pas besoin d'aller discuter de cela avec quelqu'un d'autre
01:15:23 et de rentrer en contradiction, et ça peut ramener des crises.
01:15:27 On sait ce qu'on a vécu, et donc c'est un peu ce langage d'amour,
01:15:30 d'unité qu'on va essayer de propager sur le digital.
01:15:33 Alors, M. Gouando, justement, à votre niveau,
01:15:36 comment vous allez justement vous appuyer pour qu'on ait des élections
01:15:42 qui soient apaisées, transparentes, ouvertes,
01:15:44 et que les uns et les autres puissent aller à leurs meetings,
01:15:47 en tout cas, cette forme de liberté, de respect de la liberté des autres ?
01:15:51 Merci beaucoup, en tout cas, pour garantir le droit au vote des individus,
01:15:54 pour garantir des élections transparentes,
01:15:57 le CNDH fait ce qu'on appelle de l'observation électorale.
01:16:01 Le CNDH, depuis 2015-2020, déjà fait de l'observation des élections,
01:16:08 de tout ce que nous avons eu jusqu'à la combinaison.
01:16:11 On a 31 commissions régionales sur l'ensemble du pays.
01:16:14 Vous utilisez le numérique ?
01:16:15 Oui, à travers une plateforme dont je vais vous parler tout à l'heure.
01:16:18 Allez-y.
01:16:19 Les 31 commissions régionales utilisent une plateforme d'alerte précoce.
01:16:24 Et c'est cette plateforme-là qui sert à dénoncer.
01:16:27 Et cette plateforme sert avant, pendant et après les élections.
01:16:31 Et c'est une plateforme sur laquelle nos observateurs sur le terrain
01:16:36 repèrent tout ce qui est, tout de suite,
01:16:39 peut entraver le bon fonctionnement des élections,
01:16:42 même avant, pendant ou après.
01:16:44 À l'instant où nos observateurs relèvent ces éléments-là sur la plateforme,
01:16:50 sur le terrain, nous, ici, nous avons une salle
01:16:54 où il y a des écrans avec la plateforme.
01:16:56 Dès qu'il y a un incident qui est relévé sur le terrain,
01:16:59 nous sommes saisis de cet incident ici et informons en même temps
01:17:03 la Commission électorale indépendante et les autorités compétentes
01:17:06 pour faire cesser la violation en question sur le terrain.
01:17:10 Alors, comment, justement, là, vous parlez de ce suivi,
01:17:14 mais encore une fois, vous l'avez dit, l'éducation, l'information,
01:17:19 on est ici, on fait un plaidoyer.
01:17:21 Comment, justement, on peut, vous pouvez jouer un rôle très fort
01:17:25 auprès de ceux qui nous regardent, des jeunes, de la jeunesse,
01:17:29 mais de façon simple et directe, avec vos connaissances ?
01:17:33 Parce que tout le monde ne comprend peut-être pas ce que vous faites,
01:17:36 mais comment aller vers ces personnes de façon concrète,
01:17:40 pour leur apprendre ce que vous avez et le bien fonder,
01:17:44 selon vous ou non, de l'intelligence artificielle ?
01:17:48 - OK, j'ai une très bonne nouvelle.
01:17:50 - Ah, il y en a beaucoup aujourd'hui.
01:17:52 - Aujourd'hui, oui. Le 17 et le 18 août, il aura lieu ce qu'on appelle
01:17:56 Bar Camp à Bijan. C'est un grand événement communautaire.
01:17:59 Tout le monde est invité, les entreprises,
01:18:03 les acteurs de la société civile, les sociologues,
01:18:08 nos têtes pensantes, les médias.
01:18:11 Et c'est cet événement-là, en 2009, qui est à la base
01:18:14 de la création d'Akendewa. Donc nous revenons avec cet événement
01:18:17 qui va réunir toutes les couches de la société
01:18:21 pour parler d'inclusion grâce à l'intelligence artificielle.
01:18:25 C'est-à-dire utiliser l'intelligence artificielle,
01:18:28 mais pour que l'homme soit au centre, pour faciliter l'inclusion
01:18:32 dans le sport, pour les élections, dans l'éducation,
01:18:36 dans tous les domaines. Et donc, c'est plus de 2 000 personnes
01:18:39 qui sont attendues. C'est ouvert à tout le monde, c'est gratuit.
01:18:42 Et vous y êtes invité. - Merci.
01:18:44 Bon, docteur, il a parlé d'inclusion et de l'humain au centre.
01:18:49 - Oui, je le félicite parce que c'est vraiment cette réflexion-là
01:18:53 inclusive que tout le monde doit chercher à mener.
01:18:57 C'est vrai qu'il a beaucoup parlé des leaders,
01:19:00 mais les leaders ont beaucoup d'arbitrages aussi à faire sur Terre.
01:19:03 Donc c'est aussi aux spécialistes, de proche en proche,
01:19:06 comme vous avez dit, d'appeler, d'échanger, de sensibiliser,
01:19:11 d'initier pour que la même réflexion qui est menée partout...
01:19:15 C'est vrai qu'aujourd'hui, la Chine a 27 milliards de dollars
01:19:18 dans l'économie, hier. Ça veut dire que c'est quelque chose
01:19:21 de sérieux, d'important de ce point de vue. La Chine talonne,
01:19:24 voire même dépasse les États-Unis. Donc ils ont raison,
01:19:27 nous ne pouvons pas rester en reste, mais nous ne pouvons pas y aller
01:19:30 aussi n'importe comment, sans moyens, sans ceci, sans cela.
01:19:33 Donc il y a toute une réflexion globale, moi je suis tout à fait d'accord,
01:19:36 à mener là-dessus. Ce n'est pas un débat de quelques heures,
01:19:39 c'est une question de force. - Ce n'est pas fini, ce n'est pas le dernier.
01:19:42 - Voilà, par rapport même à l'avenir de l'humanité.
01:19:45 Comme on dit, quand il pleut, chacun cherche sa tête.
01:19:48 Donc c'est vraiment bien qu'ils fassent ça, comme ça nous aussi,
01:19:51 en tant qu'Africains, en tant qu'Ivoiriens, on va aussi se réunir,
01:19:54 réfléchir, nous on va exposer peut-être nos angoisses,
01:19:57 nos hantises, nos peurs, les juifs vont exposer.
01:20:00 Et je pense qu'à un moment donné, on pourra, pourquoi pas,
01:20:03 partir dans le même sens. - Est-ce que, dernière question,
01:20:06 est-ce qu'il est possible à vous quatre d'avoir un consensus international,
01:20:09 même si c'est vrai que nous ne sommes pas logés tous à la même enseigne,
01:20:12 mais avoir un consensus international sur les réglementations
01:20:15 au regard des défis qui sont posés ?
01:20:18 - Moi je pense que oui, en tant que technologiste.
01:20:21 - Je réponds tout de suite. - Oui, allez-y.
01:20:24 Je suis très contente, vous êtes très avant-garde.
01:20:27 - En matière de droit de l'homme, on est très à l'aise de dire oui.
01:20:30 Je vous ouvre une parenthèse, parce que j'ai entendu société civile tout à l'heure.
01:20:33 Le CNDI, c'est une institution, ce n'est pas une organisation de la société civile.
01:20:36 Voilà, ça je voulais faire cette précision-là.
01:20:39 On est très à l'aise pour dire qu'il peut y avoir une réglementation internationale.
01:20:42 Parce que quand on parle de droit de l'homme, c'est des conventions internationales
01:20:45 auxquelles sont parties la quasi-totalité des États.
01:20:48 Aujourd'hui, la convention internationale suit la cybercriminalité.
01:20:52 Et ça, je pense que c'est le début de la réglementation de tout ce qui est numérique.
01:21:00 C'est juste de poursuivre cette réflexion-là,
01:21:03 et avoir une réglementation sur l'intelligence artificielle.
01:21:06 - Moi je pense que ça va s'imposer à nous, comme le traité des Nations Unies.
01:21:12 Parce qu'en fait, on veut survivre, on veut continuer à vivre.
01:21:15 - Oui. - Voilà, donc en tant qu'humain,
01:21:18 et en tant qu'habitant de la planète, nous sommes heureux d'être ici.
01:21:22 Donc on veut garder cette chose-là.
01:21:24 Donc quand c'est chaud, on met de côté nos divergences, on s'assoit, on signe un document.
01:21:29 Et après, bon, c'est vrai que ça met du temps pour la mise en œuvre,
01:21:32 mais après on arrive à le faire.
01:21:34 On a réussi à le faire avec le nucléaire, on a réussi à le faire avec pas mal de choses.
01:21:40 - Donc il y a de l'espoir ? - Non, ça va se faire.
01:21:42 Le seul souci, moi personnellement en tant qu'ingénieur...
01:21:45 - Ce sera votre mot de fin. - Oui, ce sera mon mot de fin.
01:21:47 C'est que je ne souhaite pas que, quand on arrive au moment où tout est régulé,
01:21:51 l'Afrique est tellement en retard parce qu'elle n'a pas pris le temps d'apprendre à faire les choses
01:21:56 et qu'elle est obligée de subir maintenant.
01:21:58 C'est ça qui serait dommage.
01:22:01 - C'est votre avis ? - Comment ?
01:22:03 - Docteur. - Oui, moi je sais que...
01:22:05 - Votre avis. - Quand vous voulez, la réglementation, c'est un texte.
01:22:07 Mais comme les réalités sont divergentes,
01:22:09 donc du coup, dans l'application, dans le respect,
01:22:13 dans les gains et les pertes,
01:22:16 vous voyez que, comme on l'a dit,
01:22:18 où les gens vont ensemble, aucun ne va ensemble.
01:22:21 - Donc la réglementation est en cours.
01:22:23 Donc aujourd'hui, nous n'attendons que les retombées,
01:22:25 sur l'Afrique, sur la Côte d'Ivoire d'ailleurs,
01:22:27 et on va mettre les choses en place.
01:22:29 Mais déjà, on est engagé, j'incite les jeunes africains, les jeunes ivoiriens,
01:22:32 à adopter l'intention artificielle.
01:22:34 - Votre mot de fin. - La Côte d'Ivoire a déjà fait le pas.
01:22:37 Avec les réglementations de 2013 que j'ai citées tout à l'heure,
01:22:40 sur la cybercriminalité, sur la protection des données à caractère personnel.
01:22:43 Donc c'est déjà une avancée.
01:22:45 Donc on peut arriver à une réglementation plus spécifique
01:22:48 à l'intelligence artificielle.
01:22:50 Et aujourd'hui, le mot de fin qu'on peut dire, c'est à nos jeunes,
01:22:53 à nos gouvernements, comment il faut intégrer cela dans l'éducation.
01:22:56 Il faut, nous également, individuellement, nous former
01:22:59 sur les questions d'intelligence artificielle,
01:23:01 pour nous adapter à l'ère du temps.
01:23:03 - S'adapter à l'ère du temps, je vous dis vraiment merci.
01:23:06 Merci, Messieurs, Docteur Lille.
01:23:09 Merci, merci, Monsieur Ehouma.
01:23:11 Merci, je viendrai prendre des cours.
01:23:13 Merci, Jean-Patrick Ehouma.
01:23:15 Merci, Franck Eja pour vos, on va dire, vos informations et pour le débat.
01:23:22 Puis, Monsieur Gouandeux, merci infiniment.
01:23:24 Merci vraiment au CNDH-CI.
01:23:28 Ce n'est plus CI, mais c'est le CNDH.
01:23:30 En tout cas, merci à tous les quatre de nous avoir éclairés sur cette question
01:23:33 qui mérite, évidemment, encore des discussions,
01:23:36 mais nous sommes confiants quant à l'avenir.
01:23:38 Donc, merci à tous les quatre.
01:23:40 Il est important de veiller à ce que cette transformation
01:23:43 avec l'intelligence artificielle soit inclusive, éthique et responsable
01:23:49 et qu'elle bénéficie à tous les citoyens.
01:23:52 Nous étions réels et non virtuels.
01:23:55 Merci, Mesdames, Messieurs, de nous avoir suivis.
01:23:57 Excellente soirée sur RTI 1.
01:23:59 C'est la meilleure.
01:24:00 À très bientôt.
01:24:01 (Générique)