Accusé à tort par ChatGPT d'avoir été condamné dans une affaire de pots-de-vin, ce maire australien pourrait poursuivre en diffamation l'entreprise qui a mis au point l'intelligence artificielle.
Category
🗞
NewsTranscription
00:00 Un politicien australien peut devenir la première personne à soumettre aux créateurs de Chatshipiti
00:05 à cause des allégations falses que l'outil a fait sur le maire.
00:08 Chatshipiti est un chatbot emprunté par l'intelligence artificielle
00:12 et il a attiré l'attention du monde,
00:14 avec son capacité à générer instantanément des réponses à n'importe quel de vos demande.
00:18 Mais si vous demandez à Chatshipiti qui est Brian Hood, le maire australien,
00:22 il dit que c'est faux de dire qu'il a été convaincu de payer des frais
00:25 et qu'il a été condamné à 30 mois de prison.
00:27 Quand en réalité, Hood n'avait jamais été chargé d'un crime
00:31 et qu'il était en fait le "bruit de bataille" qui a aidé à découvrir un scandale de briberie internationale
00:37 qui a invoqué l'Agence nationale de réserve de l'Australie au début des années 2000.
00:41 Donc, quand Brian Hood a été alerté par ses collègues de ces allégations falses,
00:46 il a dit à Euronews qu'elle lui a causé "extrême distress",
00:50 surtout en tant qu'officiel électe.
00:52 J'étais vraiment choqué. Je ne pouvais pas croire.
00:55 J'ai dû lire et lire encore et regarder et mettre en question une autre fois
01:00 parce que je ne l'avais pas expécuté.
01:04 Votre réputation, votre intégrité, votre position sont importantes pour tout le monde.
01:08 Mais quand vous êtes dans ces positions,
01:11 vous êtes encore plus prudemment conscient de ce que les gens peuvent penser.
01:15 Ce cas est le plus récent exemple d'une liste de chatbots d'IA qui publie des allégations falses sur les gens.
01:22 Un exemple récent, un chatbot a récemment inventé un cas de harassment sexuel faux
01:28 qui impliquait un professeur de la loi aux Etats-Unis.
01:31 Il a même cité un article de Washington Post qui n'a jamais existé comme source.
01:36 Sur son blog public sur l'outil, OpenAI, l'entreprise derrière ChatGPT,
01:41 a dit qu'il y a des limitations, que les choses peuvent sembler plausibles,
01:44 mais que les réponses sont incorrectes ou nonsensiques,
01:47 et que le réparation des problèmes est un défi.
01:49 Mais pour Brian Hood, cette expérience a érodé son confiance dans cette technologie artificielle.
01:56 Tout est présenté de façon qui vous fait croire que c'est réel, factuel et confiable.
02:04 Il faut plus de contrôles, plus de réglementations.
02:07 Je pense que c'est très urgent, car ça peut vraiment endommager la réputation des gens,
02:12 complètement falsement, ou des entreprises ou des organisations.
02:16 Si ça peut se passer à moi, ça peut se passer à tout le monde.
02:19 Les légendaires de Brian Hood ont envoyé un courriel de concerne à l'entreprise derrière ChatGPT, OpenAI.
02:24 Ils ont maintenant jusqu'à 18 avril à répondre et à réparer ces erreurs
02:28 ou à face à un possible discours de défamation.
02:31 Le Cube a reçu OpenAI, mais ils n'ont pas répondu à notre demande pour des commentaires.
02:36 [SILENCE]