• il y a 11 mois
Une chaîne d’infos entièrement générée par l’IA, avec des présentateurs virtuels et des contenus personnifiés, c’est le pari que s’est récemment lancé la start-up américaine Channel 1. Si ce projet est inédit, ces nouvelles technologies se sont en réalité déjà fait une place dans les rédactions. Transcription d’interviews, veille d’infos, détection de fake news… autant de tâches fastidieuses qui peuvent être automatisées grâce à l’intelligence artificielle. Mais comment l'IA est-elle concrètement utilisée aujourd'hui pour améliorer le travail du journaliste ? Nos experts en plateau tentent de répondre à vos questions sur le sujet.

Category

🗞
News
Transcription
00:00 (Générique)
00:04 -L'utilisation de l'intelligence artificielle par les médias,
00:06 c'est notre talk avec deux experts.
00:08 Pierre Petillot, directeur de l'Alliance de la presse
00:11 d'information générale.
00:12 Bonjour. -Bonjour.
00:14 -Principale organisation française d'éditeurs de presse.
00:16 Vous pilotez notamment les négociations
00:18 avec les plateformes numériques,
00:21 j'allais dire les géants du numérique
00:22 et les éditeurs autour du droit voisin.
00:25 Vous avez précédemment exercé des fonctions au CSA,
00:27 devenu l'ARCOM.
00:29 Dans le domaine de la régulation et de la concurrence.
00:31 Merci beaucoup d'être avec nous sur ce sujet.
00:33 Avec vous, Claude Deloupy, docteur en informatique
00:35 appliqué au traitement automatique des langages
00:38 et à la gestion de l'information.
00:40 Bonjour, Claude. -Bonjour, Delphine.
00:41 -Co-fondateur de Syllabs.
00:42 Alors, Syllabs, moteur de rédaction
00:45 qui permet de transformer des données brutes en texte
00:48 et qui est particulièrement utilisé depuis plusieurs années
00:51 par des grands médias comme Le Monde ou Radio France.
00:55 Je voulais savoir déjà que vous inspirez cette vidéo de lancement
00:58 qui a beaucoup tourné de Channel One AI,
01:00 qui promet donc une chaîne entièrement présentée, animée
01:04 par des personnages virtuels, par des avatars
01:08 et dont les données sont aussi compilées par des IA.
01:11 Est-ce que ça vous a paru complètement loufoque ?
01:14 Vous avez dit "ça, c'est le futur".
01:15 Enfin, comment vous avez réagi ?
01:17 Allez, Claude.
01:19 -Ce sont des choses, effectivement,
01:21 qui sont faisables technologiquement.
01:23 Donc, en tant que technicien, c'est vrai que c'est des choses
01:25 que je trouve assez fascinantes et assez intéressantes.
01:28 Après, en tant que citoyen,
01:30 c'est beaucoup plus discutable, évidemment.
01:32 Le fait d'avoir encore des présentateurs virtuels,
01:36 pourquoi pas ? Je trouve que ça manque un petit peu de vie,
01:39 mais pourquoi pas ?
01:40 Mais le fait d'avoir des données traitées automatiquement,
01:42 si elles ne sont pas vérifiées par des journalistes,
01:44 si elles ne sont pas traitées par des journalistes,
01:45 je trouve ça extrêmement dangereux.
01:47 -Alors, on ne sait pas trop, finalement,
01:48 ce qui se passe derrière cette chaîne pour l'instant.
01:51 On n'a pas énormément d'éléments.
01:53 Ce qui est intéressant aussi, c'est la promesse de présentateurs
01:56 et de journalistes de terrain virtuel
01:59 qui sont capables de parler toutes les langues
02:00 et donc d'offrir une information ultra personnalisée.
02:04 Qu'en avez-vous pensé ?
02:05 -Un petit peu la même chose que Claude,
02:07 mais comme vous le dites,
02:08 on ne sait pas très bien ce qu'il y a derrière.
02:10 C'est un petit peu ça, le sujet.
02:11 Ça soulève tout de suite la question de la transparence
02:13 et c'est sans doute une des grandes questions
02:15 qui est soulevée aujourd'hui par les IA Génératives
02:17 et leur développement accéléré.
02:19 À quel moment il y a eu un humain derrière ?
02:21 À quel moment il y a eu des journalistes impliqués ?
02:23 Et la réalité est quand même que pour qu'une IA Générative
02:26 produise un contenu, que ce soit un contenu écrit,
02:28 un contenu vidéo, à un moment,
02:29 il y a eu des contenus produits par des vrais humains.
02:31 Elle s'est inspirée de vrais contenus
02:33 produits par des vrais humains.
02:34 Donc la question, c'est à quel moment ?
02:36 Qu'est-ce qu'elle en a retenu ?
02:37 Et est-ce qu'il y a eu, comme disait Claude,
02:39 derrière un contrôle, une relecture
02:40 par des journalistes du contenu ?
02:42 -Alors, Pierre et Claude, je vais vous demander aussi
02:44 de répondre à une question d'un téléspectateur,
02:46 Fabien Reynaud, qui nous pose la question
02:49 de comment l'IA est-elle utilisée déjà aujourd'hui
02:52 pour faciliter ou améliorer le travail des journalistes,
02:55 pour le travail de recherche d'information ?
02:57 Les sources sont-elles vérifiées ?
02:58 Autrement dit, comment s'assurer
03:00 que ce n'est pas une hallucination de l'IA ?
03:02 Il va un petit peu plus loin dans sa question
03:03 que ce qui s'affiche.
03:06 -Alors là-dessus, ça fait très longtemps
03:08 que les médias utilisent l'intelligence artificielle.
03:10 Ca, c'est pas quelque chose de nouveau.
03:12 Effectivement, rien qu'utiliser un moteur de recherche
03:14 sur le web comme Google,
03:15 c'est de l'intelligence artificielle
03:17 au sens strict du terme.
03:19 Mais après, j'imagine que là, on parle un petit peu plus
03:21 des derniers, de la génération de textes, par exemple.
03:24 -Des IA génératives, oui.
03:25 -Donc effectivement, là-dessus, nous, ça fait maintenant 12 ans
03:29 qu'on travaille là-dessus, et depuis 2015
03:31 qu'on génère des contenus pour les médias,
03:33 donc avec "Le Monde pour les élections" en 2015.
03:37 -Mais pas en utilisant, justement, les IA génératives.
03:40 -C'est ça. Ce n'est pas les mêmes types de technologies.
03:42 Nous, effectivement...
03:44 Alors du coup, rapidement, je vais faire une petite comparaison.
03:46 L'avantage qu'on a, c'est que nous, c'est une IA
03:48 qui est totalement explicable et transparente.
03:51 Donc on peut tout expliquer sans problème
03:55 et on peut garantir le résultat.
03:57 La différence... -C'est-à-dire qu'on sait
03:59 quelles données on a mises en entrant dans cette technologie
04:03 et expliquer le résultat à la sortie.
04:06 -Expliquer le résultat et garantir que ce résultat
04:08 sera conforme à ce qu'on en attend.
04:10 -D'accord. -Donc c'est pour ça
04:11 que les médias peuvent publier...
04:12 On a publié 350 000 contenus en 4 heures
04:16 lors des dernières élections présidentielles,
04:18 législatives, pardon,
04:19 et évidemment, aucun média ne les a relus.
04:23 Là-dessus, donc, nous, on garantit.
04:24 Maintenant, on est un peu moins souples
04:26 que les nouvelles technologies génératives.
04:28 L'avantage de ces technologies, c'est qu'elles peuvent parler
04:30 de n'importe quoi sans configuration.
04:32 On pourra parler des problématiques de copyright, bien évidemment.
04:34 -Donc pour les résultats d'élection, on comprend,
04:36 c'est assez simple, finalement.
04:37 Vous allez récupérer, vous allez collecter
04:39 l'ensemble des résultats de tous les bureaux de vote.
04:41 -C'est ça. -Et ensuite,
04:42 c'est transformé en un texte.
04:44 J'imagine un canevas général
04:47 dans lequel on remplace les résultats.
04:49 -Exactement. -Et les noms des communes.
04:50 -C'est ça. C'est pas des textes à trous
04:51 parce qu'il y a vraiment une scénarisation de l'information,
04:54 mais c'est un peu ça. -C'est un peu ça.
04:56 Quand on passe aux IA génératives,
04:58 pour répondre quand même à Fabien, qui nous demande
05:00 comment est-ce qu'on évite ce phénomène d'hallucination ?
05:03 -Le problème, c'est qu'on ne peut pas l'éviter
05:05 sur les IA génératives.
05:06 Je précise aussi qu'hallucination, maintenant, c'est là,
05:08 donc on l'utilise, mais c'est pas le bon terme.
05:10 On pourrait plutôt parler d'affabulation,
05:12 c'est-à-dire le système a besoin de parler
05:14 et quoi qu'on lui donne, il y parlera, même si c'est faux,
05:16 parce qu'il a besoin de parler.
05:18 Mais on ne peut pas garantir, à l'heure actuelle,
05:20 que ces systèmes ne publient pas quelque chose de faux.
05:23 C'est impossible.
05:24 -Pierre ? -Je souscris totalement, évidemment...
05:28 -Peut-être déjà sur la 1re partie,
05:30 quel est le niveau, aujourd'hui, d'utilisation de l'IA par les médias ?
05:33 -On va dire que par les médias,
05:34 en tout cas pour la presse d'information que je représente,
05:37 je représente une partie,
05:39 il y a énormément d'intérêt
05:40 pour l'utilisation des IA génératives par les rédactions,
05:43 mais il y a aussi beaucoup de prudence.
05:44 Il y a beaucoup de tâches, de cas d'usage, aujourd'hui,
05:48 qui relèvent du travail des journalistes,
05:50 qui peuvent être effectués par une IA générative
05:52 sans beaucoup de dommages sur le contenu, sur l'éditorial,
05:55 pour peu, encore une fois, qu'il y ait une relecture,
05:56 une vérification... -Par exemple ?
05:58 -Par exemple, ce qu'on appelle en bon franglais
06:00 le "text-to-speech", le "speech-to-text",
06:02 le fait d'aller saisir un fichier audio ou inversement,
06:06 c'est des tâches, pour ceux qui les ont déjà pratiquées,
06:08 qui sont très rébarbatives, pas très passionnantes
06:10 et qui prennent beaucoup de temps.
06:11 -Si un journaliste, par exemple, va tendre son téléphone
06:14 pour enregistrer les réponses d'un invité,
06:18 eh bien, plutôt que de retaper cette transposition lui-même,
06:21 en fait, il confie ça à une IA.
06:23 -Exactement. On peut imaginer aussi des tâches de documentation,
06:26 d'agrégation de données, comme vous le soulignez à l'instant.
06:29 Voilà, il y a tout un ensemble de tâches
06:30 qui ne sont pas journalistiques au sens strict,
06:32 mais qui sont effectuées par les journalistes,
06:34 dont on peut les libérer grâce aux IA génératives.
06:36 Pour autant, il y a évidemment une question sociale
06:38 qui se pose d'abord dans les rédactions,
06:40 dans la relation des éditeurs avec le journaliste.
06:41 Donc, les éditeurs y vont avec beaucoup de prudence,
06:44 c'est une évidence, en tout cas en France.
06:46 Dans d'autres pays, c'est pas forcément la même chose.
06:49 Et puis derrière, il y a encore une fois
06:51 une question de transparence.
06:52 Ce qui fait votre métier de journaliste,
06:53 c'est la capacité, et le métier des éditeurs de presse,
06:55 c'est la capacité à s'engager sur ce qu'on publie
06:57 et sur ce qu'on écrit, c'est la prise de responsabilité,
06:59 y compris, si nécessaire, pénale.
07:02 Donc, il faut préserver ça.
07:03 C'est la valeur ajoutée du journalisme et de la presse.
07:06 Et aujourd'hui, c'est quelque chose
07:08 que les IA génératives n'apportent pas.
07:09 Donc, encore une fois, les éditeurs restent prudents,
07:11 et ceux qui utilisent les IA génératives,
07:13 et il y a un intérêt aussi des journalistes,
07:14 des rédactions, il faut le dire,
07:15 garantissent qu'il y ait de toute façon
07:17 intervention d'un journaliste et relecture
07:19 avant toute publication.
07:20 C'est encore une fois ce qui fait notre valeur ajoutée.
07:21 -Mais donc, contre ces affabulations,
07:23 vous avez raison, c'est plus pertinent d'employer ce terme,
07:28 pour éviter ces affabulations,
07:29 ça veut dire qu'il faut aller tout vérifier,
07:31 est-ce que finalement, on démultiplie pas
07:33 le travail journalistique ?
07:36 -Encore une fois, rien ne remplacera
07:38 le travail journalistique de recherche de l'information,
07:41 de recoupage, d'élaboration de l'information.
07:43 -Vérification des sources. -Voilà, vérification des sources.
07:46 Ce que je pointais, c'est vraiment des tâches
07:47 un petit peu techniques, annexes au journalisme,
07:50 qui peuvent être assez facilement, encore une fois,
07:51 remplacées par une IA générative, mais dans tous les cas, oui,
07:54 il faut être capable de recouper et de s'engager
07:55 sur ce qu'on écrit.
07:57 -Sur la démultiplication des tâches ou de nouvelles tâches ?
08:01 -En fait, moi, je dirais quand même un petit peu plus loin,
08:03 parce qu'effectivement, ces IA qui prolongent
08:06 des choses qui existaient déjà avant,
08:07 texte ou speech et autres, mais ces IA, en fait,
08:10 pour moi, sont extrêmement utiles pour faciliter le travail,
08:12 même un travail intellectuel complexe.
08:14 Un journaliste qui doit préparer une interview
08:16 sur un sujet très technique, qui n'y connaît rien,
08:19 et c'est normal, ça fait partie du boulot,
08:21 en utilisant ces IA, on peut aller beaucoup plus vite
08:25 dans la préparation du travail, dans la compréhension
08:28 du domaine en question.
08:29 Donc pour moi, c'est pas simplement
08:31 pour des tâches de petite main qui seraient pas
08:34 un travail journalistique, je pense que ces outils
08:36 devraient être utilisés, devraient même être enseignés
08:39 en école de journalisme pour, justement, aller plus vite,
08:42 plus efficacement et plus loin, à condition, effectivement,
08:45 de bien prévenir que le journaliste reste totalement
08:49 responsable de ce qu'il fait et s'il y a fait une erreur
08:52 et s'il l'a retranscrit, c'est la faute du journaliste.
08:55 -Alors, il y a aussi le cas de vidéos qui sont créées,
08:58 produites par des IA génératives à partir d'informations
09:01 produites par des journalistes.
09:02 Je pense à Brut, qui s'est lancé dans ces vidéos
09:04 générées par des IA génératives.
09:06 Quel est votre regard là-dessus, à tous les deux, Pierre ?
09:09 -C'est un peu tôt pour dire ce qu'il y en a.
09:12 Moi, je représente surtout la presse écrite,
09:13 qui se met aussi de plus en plus à faire de la vidéo,
09:15 mais qui n'en est pas là, en tout cas,
09:16 qui aujourd'hui produit de la vidéo faite par des humains
09:19 et pas par des IA génératives.
09:20 Donc on verra ce que ça donne avec le travail de Brut,
09:22 mais il est un peu tôt pour se prononcer.
09:24 -Alors, pourquoi pas ? C'est une expérience intéressante.
09:26 -À partir du moment où on le flague,
09:29 enfin, en tout cas, où on le précise, bien évidemment.
09:31 -Oui, ou à partir du moment où les choses sont totalement contrôlées...
09:35 Oui, c'est mieux de le préciser.
09:38 Est-ce que c'est absolument nécessaire ?
09:39 -Vous ne dites pas forcément ?
09:40 -C'est toujours pareil.
09:42 En fait, c'est l'éternelle discussion qu'on a eue, nous, en interne.
09:45 Est-ce qu'on devait forcer nos clients à préciser
09:47 que les textes qu'on génère sont publiés par une machine ?
09:50 À partir du moment où, dans les médias,
09:51 il y a des sujets qui ne sont pas importants,
09:54 qui ne sont pas signés,
09:56 si nos sujets ne présentent pas une opinion...
09:59 -Mais ils sont quand même toujours signés,
10:00 par la rédaction ou par une dépêche ?
10:02 -Non, pas forcément.
10:04 Un bulletin météo n'est pas forcément signé dans un média.
10:08 Donc, nous, on produit des bulletins météo.
10:11 Pourquoi faudrait-il dire que ça a été produit par une machine ?
10:13 Donc, le point, c'est de savoir ce que véhicule la vidéo.
10:17 Si la vidéo véhicule, effectivement...
10:18 Nous, on a, par exemple, toujours refusé de faire des textes
10:20 ayant une opinion politique, même pour des résultats,
10:22 même pour un média qui avait une orientation politique.
10:25 Donc, si on reste sur quelque chose d'extrêmement neutre
10:28 et qui n'a pas de conséquences dans ce qui est dit,
10:32 à voir.
10:33 Est-ce qu'il faut que ce soit précisé ?
10:34 Je ne me prononcerai pas là-dessus.
10:36 -Alors, on a une...
10:38 Je vais dire une.
10:39 On a trois questions de Karine Nadarajan.
10:42 Alors, elle sort peut-être un peu du domaine des médias,
10:45 mais dans les médias, on a aussi des RH.
10:46 Elle nous demande "Quel est l'avenir de l'IA
10:48 dans la fonction des ressources humaines ?"
10:50 Et c'est intéressant, parce que moi, j'ai reçu, par exemple,
10:53 une proposition de poste en tant que journaliste IA.
10:56 Et alors, j'ai regardé, finalement, ce qu'on attendait
10:59 d'un journaliste IA.
11:01 Eh bien, c'est vraiment, surtout,
11:03 "Utiliser l'IA pour augmenter l'efficacité
11:05 de la rédaction automatisée des tâches."
11:09 Alors, est-ce que les RH doivent, aujourd'hui,
11:11 inclure ce type de profil spécifique dans les rédactions ?
11:16 -Si je peux, là-dessus.
11:17 Alors, nous, en fait, dans notre métier,
11:20 on a un type de ressources humaines
11:26 qui suivent une formation dite de linguiste informaticien.
11:29 C'est-à-dire, ce sont des gens qui ont une formation de linguiste
11:31 et qui, ensuite, basculent pour faire de l'informatique
11:33 appliquée à la linguistique.
11:35 Et c'est une ressource absolument essentielle
11:37 dans le traitement des langues, dans notre type de travail,
11:40 parce qu'il y a, justement, cette double compétence.
11:42 Et je dis toujours, typiquement, que, effectivement,
11:44 ça fait des années que je le dis, chez les journalistes,
11:46 il faudrait qu'il y ait des formations
11:47 de journalistes informaticiens pour, justement, travailler là-dessus.
11:51 Par rapport à l'intelligence artificielle,
11:54 je pense qu'on devra arriver là.
11:57 Il ne faut pas que tous les journalistes soient spécialistes
12:00 en IA et sachent l'utiliser.
12:01 Pour moi, il faut qu'il y ait des journalistes
12:03 qui sachent utiliser ça.
12:04 Et je dirais que c'est probablement pareil
12:05 dans toutes les professions, y compris les RH.
12:08 Mais, effectivement, c'est très dangereux, le côté RH.
12:10 On a vu des problématiques de sélection
12:12 de catégorisation automatique qui...
12:15 Et je sais pas si on doit en parler,
12:16 mais le problème des biais est gigantesque.
12:19 Et la question des biais en ressources humaines,
12:22 ça devient très dangereux.
12:24 -C'est un sujet éthique. -Oui.
12:26 -Karine nous demande aussi,
12:28 l'IA est-elle une menace ou une opportunité ?
12:30 Alors, j'ai envie de vous demander, du côté des médias,
12:34 comment est-ce qu'on répond à cette question, aujourd'hui ?
12:36 Qu'est-ce qu'ils en disent, les éditeurs de presse, de l'IA ?
12:39 -La tentation peut être de voir tout de suite le verre à moitié vide.
12:42 Et c'est vrai qu'il y a pas mal d'éléments
12:44 qui vont dans ce sens.
12:45 Si on dessine un scénario un petit peu apocalyptique,
12:48 je dirais, pour les médias,
12:50 que demain, effectivement, on risque d'avoir
12:53 beaucoup de contenus générés par des IA
12:55 qui pourraient prendre leur place auprès du public.
12:58 On sait qu'il y a des grandes plateformes numériques
12:59 qui réfléchissent à la production de contenus
13:01 qui viendraient un peu remplacer
13:02 ceux qui sont aujourd'hui téléchargés par les utilisateurs
13:05 ou qu'elles viennent référencer dans leur moteur
13:07 par des contenus générés par les IA.
13:09 Donc, ça, c'est vraiment... C'est un risque.
13:11 Il y a un risque de désintermédiation.
13:12 On peut... Alors, quand je dis scénario apocalyptique,
13:14 on pourrait imaginer, effectivement, demain,
13:16 que les gens ne s'informeraient plus
13:17 que par des contenus générés par des IA
13:20 via des grandes plateformes numériques
13:21 et puis derrière, des petites mains
13:22 au statut social sans doute dégradées
13:24 qui seraient chargées d'alimenter,
13:25 des espèces de sous-journalistes
13:26 qui seraient chargées d'alimenter ces IA génératives.
13:28 Ca, c'est le scénario catastrophe.
13:30 -C'est-à-dire qu'on n'aurait plus besoin
13:31 d'aller sur le site du Média, finalement, pour s'informer.
13:33 Les résultats seraient donnés directement
13:35 par nos assistants virtuels.
13:37 -Exactement. C'est la tentation, sans doute,
13:39 des plateformes numériques.
13:40 Ca répond sans doute aussi à une certaine évolution
13:42 des capacités cognitives du public,
13:44 un moindre intérêt pour la lecture,
13:46 ce genre de choses.
13:49 En même temps, comme je disais tout à l'heure,
13:50 la question de la transparence et de la responsabilité,
13:53 enfin, les questions, sont essentielles.
13:54 Et pour que demain, l'IA soit un succès public,
13:57 un succès d'usage et aussi une création de valeur,
14:00 un succès économique,
14:02 il faudra s'engager sur ce qu'elle produit.
14:03 Ce n'est pas le cas aujourd'hui.
14:05 Les gens utiliseront certes les contenus des IA génératives
14:08 s'ils s'aperçoivent qu'effectivement,
14:09 il y a des affabulations à tous les étages
14:11 et que le fournisseur de l'IA ne s'engage absolument pas là-dessus
14:13 et leur laisse toute responsabilité.
14:15 À un moment, il y aura assez peu de valeur économique créée,
14:17 à mon avis. Donc si on veut dépasser ça,
14:19 il faut de la transparence,
14:20 si on veut créer de la valeur en commun.
14:21 Et si on voit maintenant le verre un petit peu à moitié plein,
14:24 encore une fois, le fait même que les IA s'appuient
14:27 sur les contenus de tierces personnes
14:29 et ne s'engagent pas, ne prennent pas de responsabilité,
14:31 est quelque part une opportunité,
14:32 une opportunité de revaloriser le métier de journaliste
14:35 et d'éditeur de presse, cette capacité à s'engager,
14:37 à vérifier l'information, à prendre ses responsabilités.
14:40 -Alors, Karine encore, qui nous demande
14:41 "Quelle mesure prenez-vous pour assurer la transparence
14:44 dans les décisions prises par des systèmes basés sur l'IA ?"
14:46 Vous avez un petit peu commencé à y répondre, Claude.
14:50 Mais c'est vrai que ça va aussi dans le sens de cette inquiétude
14:53 des Français, qu'on a vues notamment
14:55 au travers d'un sondage de La Croix.
14:57 Les Français n'accorderaient pas leur confiance
14:58 aux médias utilisant cette technologie
15:01 pour choisir les sujets à traiter à 58 %, quand même.
15:05 -Oui, c'est exactement ce que disait Pierre.
15:10 Ce que représente le média, c'est effectivement,
15:12 normalement, quelque chose, une source d'information
15:15 auquel on peut avoir confiance, parce qu'il y a vérification
15:19 et il y a traitement d'une information,
15:22 souvent, on espère, à la source.
15:24 Après, il peut y avoir, évidemment, plein de défauts,
15:26 plein d'erreurs, on le sait, mais c'est pas pour ça
15:28 que la source en entier doit être flaguée comme étant dangereuse.
15:32 Si on est sur des éléments
15:34 où il n'y a pas de vérification intermédiaire,
15:37 s'il n'y a pas de contrôle humain
15:39 avec une charte journalistique appliquée dessus,
15:42 on ne sait pas du tout ce que ça peut donner.
15:44 Donc, forcément, on a un risque...
15:46 -Ca, il va falloir aussi bien l'expliquer
15:48 pour que les Français continuent à garder leur confiance
15:50 ou retrouvent peut-être leur confiance,
15:52 parce qu'elle est déjà quand même pas mal entamée.
15:54 -Elle est très entamée.
15:55 Mais au contraire, c'est effectivement
15:56 là où il y a l'opportunité aussi.
15:57 -Peut-être que c'est effectivement une opportunité.
16:00 On n'a plus que 30 secondes peut-être pour nous dire un mot
16:02 sur ce projet Spinoza, RSF et l'Alliance de la presse,
16:06 donc partenaire pour développer un outil d'IA pour les journalistes.
16:08 Qu'est-ce que vous voulez faire ?
16:10 -Un outil d'IA, modestement, ça va être, ce projet Spinoza,
16:13 un prototype d'IA générative.
16:14 C'est un partenariat, effectivement, entre l'Alliance et RSF.
16:17 L'idée est de montrer qu'on peut fournir aux journalistes
16:20 un outil d'IA générative dédié sur un thème,
16:22 qui est un thème, évidemment, d'actualité,
16:23 qui est la transition écologique,
16:25 et qui fonctionne précisément de façon transparente
16:27 sur ses sources et sur le partage de la valeur éventuelle.
16:29 -Donc, un outil qui leur apporte de l'information.
16:31 -Voilà.
16:32 -Merci beaucoup, Pierre Petithiau.
16:34 On arrive à la fin de ce débat.
16:36 Je vous avais dit que ça passerait très vite.
16:37 Directeur général de l'Alliance de la presse
16:38 et Claude Deloupy, cofondateur de C-LABS.
16:40 - Merci encore. On part du côté du biomimétisme tout de suite.

Recommandations