• 4 days ago
Technology journalist Chris Stokel-Walker joins CGTN Europe to discuss the consequential lawsuit that followed the tragedy.

Category

🎵
Music
Transcript
00:00La mère d'un petit garçon de 14 ans, qui a pris sa propre vie après avoir interagi avec un chatbot alimenté d'intelligence artificielle, a commencé une action légale contre ses créateurs.
00:11L'Américain, Sewell Setzer, s'est tué après avoir discuté de ses pensées suicides avec un personnage dans un jeu de rôle en ligne.
00:20Sa mère a commencé une action légale contre le créateur du jeu, Character.ai, et sa compagnie parentée, Google.
00:27Elles ne dénoncent pas les erreurs. Parlons avec le journaliste de la technologie, Chris Stoker-Walker.
00:33Chris, quelle est la significance de cette action légale pour les compagnies technologiques ?
00:40Pour ces deux compagnies technologiques, je pense que c'est assez important.
00:44Ce n'est pas la première fois que nous avons vu cela, mais c'est la première fois que l'action légale a été mise en place contre des compagnies qui sont allégées avoir joué un rôle dans l'encouragement de quelqu'un de prendre sa propre vie grâce aux avancées de l'intelligence artificielle.
01:02Bien sûr, l'une des choses que nous devons tenir compte, Jamie, c'est que c'est dans les Etats-Unis.
01:06Malheureusement, dans les Etats-Unis, il y a une tendance à tenter de litiguer ces choses à travers le court, ce qui ne signifie pas nécessairement que ça réussira ou que ça mettra un précédent légal.
01:17Mais certainement, je pense que je serais inquiété, non seulement en termes de l'idée d'être emprisonné dans un court à cause de cela, mais aussi de la risque, je suppose, du court de l'opinion publique.
01:28C'est vraiment choquant pour beaucoup de gens d'apprendre qu'en fait, quelqu'un a pris sa vie en partie grâce à l'encouragement semblable de ce personnage de l'intelligence artificielle.
01:37Vous avez mis en place les différences entre la régulation de l'Europe et la régulation des Etats-Unis, si on peut l'appeler ainsi.
01:44Quelles responsabilités possèdent les compagnies technologiques quand il s'agit d'enfants et d'enfants?
01:52Oui, nous voyons cela se dérouler, non seulement en termes de rôle de l'intelligence artificielle, mais aussi en termes d'autres plateformes technologiques,
01:58celles qui sont peut-être un peu plus longues dans notre vie, comme Instagram et d'autres plateformes comme Snapchat et d'autres.
02:06Il y a une augmentation, je suppose, de l'awareness de la possibilité de liabilité de ces compagnies technologiques pour certaines des actions que les utilisateurs adolescents prennent,
02:15ce qui est, je pense, pourquoi ces compagnies technologiques commencent à s'effondrer sur les utilisateurs adultes.
02:20Les gens qui s'effondrent sous l'âge de 13 ans, ce qui est généralement la limite pour ces utilisateurs sur ces plateformes,
02:27et qui commencent à l'utiliser de façon qui empêche leur mentalité.
02:31À ce moment-là, il n'y a pas vraiment autant de législation dans le monde qui le fait.
02:35Certainement, le Royaume-Uni pense à cela, grâce à beaucoup de lobbying des parents décédés d'un adolescent ici appelé Molly Russell.
02:43Mais aussi en Europe, on voit des choses comme ça.
02:45Mais comme tu l'as souligné, les Etats-Unis ne prennent pas vraiment autant d'action.
02:48Parce que, bien sûr, un grand nombre de ces compagnies viennent d'ici et sont basées ici aussi.
02:52Je veux dire, même avec la législation, est-ce qu'on peut vraiment réguler, est-ce qu'on peut vraiment éditer ?
02:59Pas vraiment, et c'est une partie du défi, particulièrement quand il s'agit de l'IA.
03:04Parce qu'en partie, vous ne savez pas vraiment ce que l'IA va faire.
03:07C'est, par définition, une boîte noire.
03:09Et c'est réactif à l'utilisateur individuel.
03:12Ce qui est, je pense, pourquoi cela devient si difficile pour ces grandes plateformes technologiques.
03:16Cela ne veut pas dire qu'elles ne devraient pas faire quelque chose.
03:19Certainement, elles devraient le faire.
03:20Elles ont trop de gros...
03:21Beaucoup de gens croient qu'elles sont trop rapides et ne prennent pas vraiment d'action pour essayer de mitiger les risques qui s'en viennent.
03:27Mais quand vous combinez la technologie rapide avec les sortes de foibles d'individus et leurs choix individuels,
03:33vous obtenez un mélange assez potentel qui peut causer des problèmes réels,
03:37comme nous le voyons, non seulement dans le monde en ligne, mais aussi en ligne.
03:40Chris, je suis sûr que nous allons regarder les procédés légaux aux Etats-Unis avec intérêt.
03:44Pour le moment, merci.
03:45C'est Chris Stoker-Walker, le journaliste de la technologie.

Recommended