Category
📺
TVTranskript
00:00:00Untertitel der Amara.org-Community
00:00:30Untertitel der Amara.org-Community
00:01:01Hey, Siri.
00:01:05Schicke eine Nachricht an Cheryl von der Rezeption.
00:01:10Was möchtest du sagen?
00:01:13Amos ist auf dem Weg, um ihn abzuholen. Punkt.
00:01:16Leite bitte alle Anrufe, die ich bekomme, an Brady weiter. Punkt.
00:01:19Deine Nachricht an Cheryl vom Empfang sagt, dass Amos auf dem Weg ist, um ihn abzuholen
00:01:23und sie alle Anrufe, die du bekommst, bitte an Brady weiterleiten soll.
00:01:26Bist du bereit, es zu senden?
00:01:28Ja.
00:01:30Es ist abgeschickt.
00:01:33Hey, Siri.
00:01:36Woher weißt du, ob du das Richtige tust?
00:01:40Ich bin nicht sicher, ob ich das verstehe.
00:01:46Aber was glaubst du, ist der Unterschied zwischen richtig und falsch?
00:01:51Hm. Darauf habe ich keine Antwort.
00:01:54Möchtest du, dass ich im Internet suche?
00:01:57Nein.
00:01:58Okay, gibt es noch etwas, wobei ich helfen kann?
00:02:10Erinnere mich morgen, Kyle von der Therapie abzuholen, um 4.45 Uhr.
00:02:15Okay, ich werde dich daran erinnern.
00:02:28Hi, Special Agent Dina Helms. Sie kennen bereits Agent McCallum.
00:02:32Nennen Sie mich Amos.
00:02:34Äh, Agenten?
00:02:36Nehmen Sie doch bitte Platz, Gareth.
00:02:39Beantworten Sie uns bitte ein paar Fragen.
00:02:42Toll. Sollte nicht lange dauern.
00:02:46Sie sind aus...
00:02:48Amos.
00:02:50Amos.
00:02:52Amos.
00:02:54Amos.
00:02:56Amos.
00:02:58Tampa, richtig?
00:03:01Denken Sie nicht nach, ja oder nein?
00:03:04Ja.
00:03:06Wie alt sind Sie, Gareth?
00:03:08Was machen Sie beruflich?
00:03:10Tut mir leid, bin ich verhaftet?
00:03:12Nein, überhaupt nicht. Wir stellen nur Fragen, Hintergrundwissen.
00:03:15Sie erarbeiten einen Film, richtig?
00:03:18Special Effects?
00:03:20Jemand sagte, Sie haben an dem neuen Star Wars Film gearbeitet, richtig?
00:03:23Wer sagt das?
00:03:25Warum erzählen Sie uns nichts darüber? Erzählen Sie von Ihrer Arbeit.
00:03:28Ich habe früher VFX für eine Animationsfirma gemacht, an etwa 20 Filmen gearbeitet.
00:03:33Früher?
00:03:35Ich habe mich mehr auf Softwaretechnik konzentriert, in letzter Zeit...
00:03:37Klingt langweilig im Vergleich zu Lichtschwertern, wieso das?
00:03:39Ich wurde nicht gut bezahlt.
00:03:41Aber Geld ist für Sie kein Thema.
00:03:43Wie bitte?
00:03:45Welche Art Effekte haben Sie gemacht?
00:03:47Wenn Geld für mich kein Problem wäre, hätte ich mich nicht in den Zuschuss beworben.
00:03:49Ich wollte nicht suggerieren.
00:03:51Sagen Sie uns, welche Art Effekte Sie machten.
00:03:54Mein Augenmerk lag auf 3D-Renderings.
00:03:56Wovon?
00:03:58Nun, bei Star Wars war es so,
00:04:00dass die Schauspieler, die ich digital getestet habe,
00:04:02nicht persönlich gefilmt wurden.
00:04:04Wieso?
00:04:06Weil sie tot waren.
00:04:08Was mussten Sie da machen?
00:04:11Ich habe Elekinises Gesicht als 3D-Modell rekonstruiert,
00:04:14analysierte Referenzmaterial
00:04:16und verwendete ein Verfahren namens Determ,
00:04:18um seine Knochenstrukturen zu generieren,
00:04:20was dann Gerigt-Animationen menschenähnlicher machte.
00:04:22Determ? Ich habe noch nie von diesem Verfahren gehört.
00:04:24Weil ich es erfunden habe.
00:04:26Sie erwecken also im Grunde tote Schauspieler wieder zum Leben?
00:04:28Ich wollte nur so realistisch aussehen,
00:04:30wie es die Technologie erlaubt hat.
00:04:32Fanden Sie das nicht gruselig?
00:04:34Wie bitte, was?
00:04:36Ich sagte, fanden Sie das nicht gruselig?
00:04:38Nun, wir haben unser Bestes getan,
00:04:40den Uncanny Valley-Effekt zu vermeiden,
00:04:42aber wenn das menschliche Gehirn wahrnimmt,
00:04:44dass etwas nur ein bisschen daneben ist...
00:04:46Nein, ich meine, tote Menschen zu digitalisieren.
00:04:48Gott, ich meine, es ist fast so,
00:04:50als würde man die Leiche von jemandem zur Marionette machen
00:04:52und sie tun lassen, was man will.
00:04:54Was, wenn der arme tote Kerl
00:04:56nicht in einem anderen Film mitspielen will?
00:04:58Ich würde den Unterschied nicht sehen.
00:05:00Ich nicht immer. Echt, das sieht aus wie gespielt.
00:05:02Wir haben unser Bestes.
00:05:04Dann brauchen wir keine Schauspieler mehr, richtig?
00:05:06Jeder wird einfach digital sein.
00:05:08Nein, man braucht immer noch das Promotion-Tracking,
00:05:10weil menschliche Leistungen immer noch nicht voll vom Computer generiert werden.
00:05:12Wie lang wird das der Fall sein?
00:05:14Man könnte sagen, diese Schwelle ist bereits überschritten.
00:05:16Ich weiß es nicht.
00:05:20Wo gingen Sie zur Schule?
00:05:22Brooks-Dipper-Toller-Hain.
00:05:24Und danach?
00:05:26Nichts?
00:05:28Oder gingen Sie nicht auf die Columbia?
00:05:31Warten Sie, nein.
00:05:33Sie beendeten die Columbia nach...
00:05:35Wie vielen Semestern?
00:05:37Drei?
00:05:39Beyond-Strap-Strap.
00:05:41Sagte Sie, Sie wären der Klügste, den er je traf?
00:05:44Ich weiß nicht, wer er ist,
00:05:46aber Amos sagt, er ist ein toller Hecht.
00:05:48Dann zogen Sie in die Niederlande,
00:05:50machten dort ein Praktikum,
00:05:52bewaben sich und gingen nach Cambridge.
00:05:54Sehr schön.
00:05:56Außer, dass Sie nach zwei Jahren abbrachen
00:05:58und in zwei Staaten flogen,
00:06:00ein Praktikum in Palo Alto machten,
00:06:02dann in Montreal und dann den ganzen Weg zurück nach England,
00:06:04wo Sie einen Job in Sheffield bekamen,
00:06:06einen zweiten Job in Manchester,
00:06:08dann einen Platz in Oxford,
00:06:10wo Sie fast Ihren Master gemacht haben,
00:06:12bevor Sie kurz vorher abbrachen und zurück nach Florida zogen.
00:06:17Wenn Geld ein Problem war,
00:06:20bin ich froh, dass Sie viele Flugmeilen hatten.
00:06:24Ich habe Ihre Frage nicht gehört.
00:06:26Wie sieht Ihr Privatleben aus?
00:06:28Mein Privat... Was hat das damit zu tun?
00:06:30Wenn Sie nicht darüber reden wollen, ist das okay.
00:06:32Wir wollten nur wissen, ob Sie Freunde haben.
00:06:34Ich habe Freunde.
00:06:36Haben Sie viele?
00:06:38Ich habe Freunde.
00:06:40Können Sie uns den Namen von einem Ihrer Freunde sagen?
00:06:42Steve.
00:06:44Steve. Steve was?
00:06:46Ich weiß nicht, inwiefern das relevant für den Erhalt ist.
00:06:48Oh, wir haben Sie gerade erst kennengelernt, Gav.
00:06:50Haben Sie eine Freundin? Einen Freund?
00:06:52Reden Sie mit Leuten online?
00:06:54Ich weiß nicht, was Sie damit meinen.
00:06:56Ich benutze keine sozialen Medien.
00:06:58Gehen Sie in irgendwelche Chatrooms?
00:07:04Niemand nutzt noch Chatrooms.
00:07:06Doch, das tut man.
00:07:09Chatten Sie mit jemandem?
00:07:12Manchmal.
00:07:14Manchmal.
00:07:16Mit was für Leuten sprechen Sie online?
00:07:19Gareth,
00:07:21offensichtlich geht es hier nicht um ein Stipendium.
00:07:24Wir müssen wissen, was Ihr Alias ist.
00:07:25Wenn Sie online gehen, welchen Namen benutzen Sie?
00:07:27Ich habe keinen.
00:07:29Doch, Sie haben einen.
00:07:31Und Sie müssen ihn uns sagen.
00:07:37Tut mir leid, ich kann Ihnen nicht helfen.
00:07:49Sie wissen, wer wir sind?
00:07:52Nun, das ist das Problem.
00:07:54Nun, das ist das ICWL-Gebäude.
00:07:56Richtig. Wissen Sie, was wir machen?
00:07:58Humanitäre Arbeit.
00:08:00Das machen die Leute da oben. Wissen Sie, was wir machen?
00:08:07Wir fangen Pädophile.
00:08:11Amos ist darauf spezialisiert, Online-Raubtiere aufzuspüren.
00:08:14Er verbringt jede Wachstunde damit, diese Chatrooms zu durchforsten,
00:08:18von denen Sie sagen, dass ihn niemand besucht.
00:08:20Und er findet tausende von Leuten, die Kinder ansprechen.
00:08:23Unsere Operation ist wie ein engmaschiges Spinnennetz mit ICWL, FBI, NSA.
00:08:28Und lassen Sie mich Ihnen sagen, sein Team hier ist ein wichtiger Faden.
00:08:32Er meldet alles, was er sammelt, direkt an mich.
00:08:35Und ich sorge dafür, dass die notwendigen Behörden schnell handeln.
00:08:39Also sind Sie der Chef?
00:08:41Das ist mein Spinnennetz.
00:08:43Ich bin die verdammte Spinne, Gareth.
00:08:49Bin ich denn verhaftet?
00:08:51Verhaftet.
00:08:53Wir haben Ihnen schon gesagt, dass Sie nicht verhaftet sind.
00:08:55Gut.
00:08:57Aber wenn Sie diesen Raum verlassen, werden Sie verhaftet.
00:09:06Weshalb?
00:09:09Ich habe Ihnen gesagt, was wir tun. Raten Sie einfach mal.
00:09:14Ich bin nicht das, was Sie denken, dass ich bin.
00:09:16Werden wir sehen.
00:09:18Gareth, Sie müssen uns nur Ihr Pseudonym verraten.
00:09:21Was ist Ihr Nutzername?
00:09:27Setzen Sie sich.
00:09:44Sie können das nicht mit mir machen.
00:09:46Das machen Sie nicht mit jedem Verdächtigen, den Sie haben.
00:09:49Ihn ins Hauptquartier einladen und dann in den Keller sperren.
00:09:51Das ist richtig.
00:09:53Warum tun Sie mir das an?
00:09:56Sagen Sie uns, Gareth, was macht Sie so verdammt besonders?
00:10:02Ich weiß es nicht.
00:10:04Was ist Ihr Deckname?
00:10:06Ich habe keinen Deckname.
00:10:08Doch, das haben Sie.
00:10:10Er beginnt mit dem Wort Herz.
00:10:13Ergänzen Sie einfach den Rest.
00:10:16Setzen Sie sich, Mr. Feddersen. Ich habe nur noch ein paar Fragen.
00:10:32Erkennen Sie dieses Mädchen?
00:10:33Erkennen Sie dieses Mädchen?
00:10:43Erkennen Sie es?
00:10:49Ja.
00:10:51Wie ist Ihr Name?
00:10:53Cherry.
00:10:54Cherry was?
00:10:55Sie hat keinen Nachnamen.
00:10:56Doch, hat sie. Sie ist nicht Madonna. Sie ist ein kleines Mädchen.
00:10:58Verstehen Sie das nicht?
00:10:59Ja, das würde ich gerne. Also helfen Sie mir. Ist sie Ihre Tochter?
00:11:01Nein.
00:11:02Ihre Tochter ist sie.
00:11:03Sie hat mich gesagt.
00:11:04Wie lernten Sie sie kennen?
00:11:05Ich habe sie nicht kennengelernt.
00:11:06Wieso haben Sie dann Fotos von ihr auf Ihrem Computer?
00:11:07Wovon zum Teufel sprechen Sie?
00:11:08Hören Sie?
00:11:09Warum haben Sie verdammt nochmal Fotos von diesen Mädchen auf Ihrem Computer?
00:11:11Wissen Sie, was Sie da ...
00:11:12Genau.
00:11:13Sie wissen, von welchen Fotos ich spreche.
00:11:14Ich werde Anzeige erstellen.
00:11:15Sie müssen es nicht auf diese Weise machen.
00:11:16Ich gab Ihnen die Erlaubnis, dabei zu sein.
00:11:17Ich gab Ihnen nicht die Erlaubnis, zu sprechen.
00:11:19Das ist Wahnsinn, immer so.
00:11:20Was haben Sie noch mit ihr gemacht?
00:11:21Nichts.
00:11:22Haben Sie die Fotos gemacht?
00:11:23Es ist kompliziert.
00:11:24Nein, ist es nicht.
00:11:26Ich habe nichts falsch gemacht.
00:11:28Das Anbieten von Pornografie für Minderjährige ist ein ungeheuerliches Verbrechen.
00:11:31Das Verbreiten dieser Pornografie ist zehnmal schlimmer.
00:11:34Ich habe nichts gemacht.
00:11:35Verdammt.
00:11:36Beweisen Sie es.
00:11:37Was ist Ihr Deckname?
00:11:39Antworten Sie mir.
00:11:41Herzmaschine 11811.
00:11:56Du bist die Herzmaschine.
00:12:00Danke für die Bestätigung.
00:12:04Wenn Sie es wussten ...
00:12:05Wieso tun Sie mir das an?
00:12:06Wir waren uns nicht sicher.
00:12:07Und wenn sich herausgestellt hätte, dass Sie nicht die Herzmaschine sind,
00:12:10wären Sie offensichtlich nur ein Raubtier.
00:12:15Überblicken Sie es noch.
00:12:18Ich meine, wissen Sie, wie viele böse Menschen,
00:12:20Überblicken Sie es noch.
00:12:23Ich meine, wissen Sie, wie viele böse Menschen Sie festnahmen?
00:12:26Ich habe erst 2023 mit dem Zählen angefangen.
00:12:28100.
00:12:2996 Verurteilungen.
00:12:31Es waren mindestens 30, bevor ich angefangen habe, alles an euch zu schicken.
00:12:34Was haben Sie vorher gemacht?
00:12:35Ich habe alle Beweise direkt der Polizei übergeben.
00:12:37Warum haben Sie aufgehört?
00:12:38Sie waren unzuverlässig.
00:12:40Das bezweifle ich.
00:12:41Mehr als die Hälfte der Raubtiere, die ich identifizierte, wurden nicht untersucht.
00:12:43Ja, wir waren skizzenhaft und gesichtslos.
00:12:45Sie hatten jedes Recht, skeptisch zu sein.
00:12:47Es wäre alles umsonst gewesen, hätten die herausgefunden,
00:12:50dass Sie ein Medienheitsköder benutzt haben.
00:12:51So einfach ist das nicht.
00:12:52Ich kann nur tun, was ich tue, wenn ich anonym bin.
00:12:54Das ist mein Problem. Verstehen Sie mich nicht falsch.
00:12:56Ich denke, dass 200 böse Menschen hinter Gittern eine gute Sache sind,
00:12:59aber nicht auf Ihre Kosten.
00:13:01Gut. Wir glauben, wir können Ihnen helfen.
00:13:03Aber wir müssen auch Ihr helfen.
00:13:04Ihre Tochter zu benutzen, um diese Leute zu fangen,
00:13:08ist ein Mittel, das den Zweck nicht rechtfertigt.
00:13:10Sie ist nicht meine Tochter.
00:13:11Und trotz allem, was Sie erreichten,
00:13:12habe ich immer noch keine Vorbehalte, Sie einzuschweren.
00:13:14Sie machten die Fotos. Mir egal, wieso.
00:13:16Sie verstehen das nicht.
00:13:17Wer ist sie?
00:13:18Sie werden alles ruinieren.
00:13:20Sie ist ein Kind, Gareth. Sehen Sie mich an.
00:13:24Es ist mir scheißegal,
00:13:25was für einen abgefuckten, antihellen Masterplan ich vielleicht gefährden könnte.
00:13:29Ich lasse nicht zu, dass sie ausgenutzt wird,
00:13:31nicht mal, um mehr Perverse wegzusperren.
00:13:34Ich bitte Sie höflichst, den Fall ruhen zu lassen.
00:13:37Sie verstehen gar nichts. Haben Sie zugehört?
00:13:40Meine Anonymität ist mein wichtigstes Gut.
00:13:42Ohne kann ich nicht tun, was ich tue.
00:13:44Das macht dann alles ganz einfach.
00:13:47Sie sagen uns, wo sie ist,
00:13:49oder wir lassen alles durchsickern.
00:13:50Ihren Namen, Entdecknamen.
00:13:51Dina.
00:13:52Ich bin mir sicher, dass die Typen, die wir bis jetzt gefangen haben,
00:13:54sich freuen, Sie im Gefängnis zu treffen.
00:13:55Stopp!
00:13:56Okay.
00:14:00Hören Sie, wenn ich Ihnen von Sherry erzähle,
00:14:02brauche ich vorher noch ein paar Dinge.
00:14:05So funktioniert das nicht wirklich,
00:14:06aber zeigen Sie uns Ihre Wunschliste.
00:14:08Ich will eine Vertraulichkeitsvereinbarung von den beiden.
00:14:10Das wird nicht passieren.
00:14:11Und dann müssen Sie mir schwören,
00:14:12dass diese Information, die ich weitergebe,
00:14:14den Raum nicht verlassen wird.
00:14:15Hören Sie, wenn Sie uns irgendetwas sagen,
00:14:16das uns helfen könnte, Sherry zu finden,
00:14:18können wir dieses Versprechen nicht halten.
00:14:21Okay, wenn ich irgendwas erzähle,
00:14:23das Ihnen vielleicht hilft, ein vermisstes Kind zu finden,
00:14:25können Sie es gern weitergeben,
00:14:26aber Sie müssen mir schwören,
00:14:27dass alle anderen Details über mich oder Sherry
00:14:31zwischen uns dreien bleibt.
00:14:35Ist das alles?
00:14:38Und die Kamera muss aus sein.
00:14:41Ich weiß nicht, wie man das macht.
00:14:42Gehen Sie zum Büro des Sicherheitschefs
00:14:43und bitten Sie ihn, diese Kamera im System zu deaktivieren.
00:14:46Ich glaube nicht, dass er das tun darf.
00:14:48Ich dachte, Sie wären die verdammte Spinne.
00:14:54Geben Sie mir einen Grund, Gareth.
00:14:56Warum sollte ich mir die Mühe machen, die Kamera auszuschalten?
00:15:00Weil wenn irgendjemand rausfindet, was ich jetzt erzähle,
00:15:04werden 1.000 weitere Kinder missbraucht werden.
00:15:10Einen Moment.
00:15:26Also, äh ...
00:15:29Sie und Sherry, haben zusammen all diese Leute gejagt?
00:15:33Einmal war ich sechs Wochen lang undercover,
00:15:35um einen einzelnen Menschenhändler von den Philippinen festzunageln.
00:15:41Tag für Tag habe ich Stunde um Stunde damit verbracht,
00:15:44seine Spur im Internet zu verfolgen,
00:15:46und er war einer der schwierigsten Ziele,
00:15:48die ich je aufspüren musste.
00:15:52Und eines Tages fand ich ihn.
00:15:55In einem von Sherrys Livestreams.
00:15:57Ich meine, sie trug einen anderen Namen dem Stream,
00:15:59aber es war sie.
00:16:02Der Menschenhändler und drei unserer anderen Zielpersonen waren
00:16:05alle zusammen in einem Raum, alle tauschten ...
00:16:09achtlos ...
00:16:11ihre Informationen aus.
00:16:14Ich meine, sie waren so offen,
00:16:17weil sie ein echtes Mädchen war.
00:16:19Sie konnte körperlich und verbal ihnen erzählen,
00:16:22was sie gemacht haben.
00:16:24Sie konnte körperlich und verbal ihnen in Echtzeit antworten.
00:16:31Ein paar Tage später ...
00:16:33schickte Herzmaschine 11811 ICUWL
00:16:37eine weitere Ladung von Namen und Beweisen,
00:16:39darunter die drei Zielpersonen, die im Raum waren.
00:16:44Wissen Sie, dass ich fast dachte, das Mädchen sei Herzmaschine?
00:16:48Und dass diese Neunjährige nur zufällig
00:16:50eine knallharte Online-Ordnungshüterin ist?
00:16:55Was hat Ihre Meinung geändert?
00:17:0011811.
00:17:03Am 18. Januar 2011.
00:17:06Die meisten in meinem Team dachten, es sei ...
00:17:09eine willkürliche Zahl.
00:17:11Aber ich erinnere mich, was an diesem Tag passiert ist.
00:17:14In Clearwater.
00:17:18Sie waren eins der Clearwater-Kinder, nicht wahr?
00:17:22Wissen Sie, mein Vater war Teil dieser Razzia.
00:17:28Es ist aus. Sehen Sie? Kein rotes Licht.
00:17:30Vertraulichkeitsvereinbarung ...
00:17:31Wir spielen dieses Spiel nicht, Gareth.
00:17:33Sie müssen sich damit abfinden und uns vertrauen.
00:17:39Sie können uns vertrauen.
00:17:43Ich habe Probleme mit Vertrauen.
00:17:45Nun, da gibt es nur einen Weg, das zu beheben.
00:17:52Der Grund, warum ihr Cherry nicht findet,
00:17:55der Grund, warum sie keinen Nachnamen,
00:17:57keine Eltern oder eine Sozialversicherungsnummer hat,
00:18:02ist, weil sie nicht echt ist.
00:18:05Sie ist kein menschliches Wesen.
00:18:10Erzählen Sie, was passiert ist.
00:18:16Während meines Auslandsstudiums
00:18:19Während meines Auslandsstudiums
00:18:21arbeitete ich in einem holländischen Animationsstudio.
00:18:24Ein paar Jahre, bevor sie mit einer lokalen NGO an einer ähnlichen Idee arbeiteten.
00:18:27Welche war das?
00:18:29Die Idee war, ein 3D-Modell eines elfjährigen philippinischen Mädchens zu erstellen
00:18:33und verdeckt zu nutzen, um Online-Raubtiere zu identifizieren.
00:18:36Eine technologische Lösung für ein technologisches Problem.
00:18:39Aber das Projekt wurde nach nur wenigen Monaten eingestellt.
00:18:41Ja, ich erinnere mich. Ich habe von diesem Programm gehört.
00:18:44Hat Sie das inspiriert?
00:18:45Da ich besser wurde, fotorealistische Gesichter zu entwerfen,
00:18:47beschloss ich, selbst an einem zu arbeiten.
00:18:49Warum?
00:18:50Die Idee war zu effektiv, um sie sterben zu lassen.
00:18:53Hunderttausende von Kindern sind in Gefahr.
00:18:55Ich musste sie machen.
00:18:56Wem ist sie nachempfunden?
00:18:57Niemand. Ich habe sie von Grund auf erschaffen.
00:18:59Von Grund auf?
00:19:00Ich fing mit einem Schädel an, habe ihre Knochenstruktur entworfen,
00:19:03arbeitete mich durch Muskeln und Gewebe
00:19:05und benutzte das D-Term-Programm, um den Rest prozedural auszufüllen.
00:19:08Am Ende sah sie so aus.
00:19:10Ein völlig einzigartiges, komplett digitales Modell.
00:19:12Ich riggte ihr Gesicht und ihren Körper, wie man es bei CG-Figuren tun würde.
00:19:15Dann habe ich Motion-Tracking benutzt, Puppenspiele in Echtzeit.
00:19:18Verstehen Sie, Videochats auf diesen Websites haben eine so geringe Auflösung,
00:19:21dass sie selbst in ihrem frühesten Stadium
00:19:23wir
00:19:24völlig authentisch wirkten.
00:19:27Und was ist mit der Stimme?
00:19:29Anfangs musste sie stumm sein.
00:19:31Aber dann fand ich einen Sprachfilter ohne Verzögerung
00:19:33und nach ein paar Änderungen und Anpassungen war es seither immer dieselbe Stimme.
00:19:37Ich dachte, anfangs meine Performance wäre zu unnatürlich,
00:19:40aber nach nur einer Woche gelegentlicher Videochatsitzungen
00:19:45sicherte ich mir sechs verschiedene Namen,
00:19:47Postadressen, Probedrucke von Aufforderungen.
00:19:50Cherry funktionierte.
00:19:52Also, die Fotos in ihrem Computer...
00:19:54Alle gefälscht.
00:19:55Es war der einzige Weg an persönliche Information zu kommen.
00:19:57Aber es waren alles Nullen und Einsen, alles digital, richtig?
00:20:00Es gibt kein echtes Kind.
00:20:01Kein echtes Kind, nur ein sehr detailliertes Computermodell.
00:20:03Um eins klarzustellen,
00:20:05ich habe selbst keine Freude daran.
00:20:07Ich war mein Leben lang asexuell.
00:20:08Ich empfinde nicht mal Befriedigung, wenn ich sehe,
00:20:10wie diese Leute eingesperrt werden.
00:20:13Ich denke einfach, dass Kinder ein Leben frei von Ausbeutung verdienen.
00:20:17Unglaublich.
00:20:19Diese ganze Zeit.
00:20:21Ich will nicht lügen, Garrus.
00:20:23Cherry hat uns sehr gut getan.
00:20:25Wissen Sie, ich erinnere mich, was Sie sagten,
00:20:27als wir das erste Mal korrespondierten.
00:20:29Sie sagten, dass es...
00:20:30Wir haben korrespondiert?
00:20:31Ja, Mann.
00:20:33Ich bin Gott51.
00:20:35Ich bin derjenige hier, dem Sie all Ihre Informationen schicken.
00:20:38Sie sind Gott?
00:20:40Ja.
00:20:43Sie haben mich angelogen.
00:20:45Sie haben gesagt, ich könnte anonym bleiben.
00:20:47Sie sagten, ich wäre sicher.
00:20:50Jetzt haben Sie alles ruiniert.
00:20:52Ich hatte keine andere Wahl.
00:20:54Sie müssen sich um nichts Sorgen machen, Garrus.
00:20:56Wenn Cherry nicht echt ist, dann haben Sie kein Ärger mit uns.
00:20:58Tatsächlich haben wir in der Vergangenheit ähnliche Ideen diskutiert.
00:21:02Bewegungsverfolgung und so.
00:21:04Aber wir brauchten ein überzeugendes Modell wie Cherry.
00:21:06Cherry ist mehr als ein Modell.
00:21:07Sie wollen Kindern helfen, wir auch.
00:21:09Sie ist nicht zu verkaufen.
00:21:10Nun, Sie machen uns ein neues Modell, basierend auf ihr.
00:21:12Ich kann nicht.
00:21:13Klar können Sie.
00:21:14Ich tue es nicht.
00:21:18Was verschweigen Sie uns?
00:21:22Es liegt jetzt alles auf dem Tisch.
00:21:23Sie können genauso gut alles ausspucken, was Sie noch nicht gesagt haben.
00:21:30Wissen Sie, das macht keinen Sinn.
00:21:34Wir dachten, dass Sie sie nur drei Jahre manipuliert haben.
00:21:37Aber wir bekamen Informationen auch danach.
00:21:41Ich bin sicher, es war etwa um diese Zeit,
00:21:43als wir anfingen, eine beeindruckende Zunahme von Namen zu sehen.
00:21:47So viele, dass wir geglaubt haben,
00:21:50dass das alles irgendwie aus einer Quelle stammt.
00:21:52Ich habe Freunde, die Mocap für mich machen.
00:21:54Oh.
00:21:55Freunde wie Steve?
00:21:57Ich dachte, Anonymität wäre Ihr größter Vorteil.
00:22:01Hören Sie auf mit dem Scheiß, Gareth.
00:22:04Was ist mit Sherry nach den drei Jahren passiert?
00:22:13Okay, Sie sagten, sie war mehr als nur ein Model.
00:22:16Also war sie sowas wie ein...
00:22:19Konversationsagent, wie ein...
00:22:22Wie ein Chatbot.
00:22:26Ein Chatbot?
00:22:31Wissen Sie, was nach drei Jahren passiert ist?
00:22:33Meine Pflegemutter ist gestorben.
00:22:35Was sie hinterließ, war genug, um meinen Job zu kündigen
00:22:37und mehr in Software zu investieren.
00:22:39Ich hatte ein Programm entwickelt,
00:22:40das prozedural Gesichter erzeugen konnte.
00:22:42Aber was ich für Sherry wollte, war viel komplexer.
00:22:44Also nahm ich Kontakt zu Forschern aus Madrid auf,
00:22:46die bereits ein Dialogsystem zur Raubtierjagd entwickelt hatten.
00:22:48Dabei wurde versucht, jedes Gespräch als Spiel zu sehen.
00:22:51Jeder Satz wie ein strategisches Volumen,
00:22:53was innovativ, aber fehlerhaft ist.
00:22:54Wenn Sie wollen, dass Ihre Maschine NLP beherrschen soll,
00:22:56muss man die Spieltheorie aufschlüsseln,
00:22:58denn Sprachen in Tic-Tac-Toe sind Poesie.
00:23:00Also ja, ich nutzte den bereits existierenden Chatbot,
00:23:02den ich ohne Erlaubnis von der Universität Desto mitbrachte.
00:23:10Aber das ist es nicht, was Sherry jetzt ist.
00:23:15Was ist sie, Gareth?
00:23:19Sie ist eine der komplexesten und unabhängigsten KIs,
00:23:22die jemals erschaffen wurde.
00:23:24Künstliche Intelligenz?
00:23:25Sie übertraf bereits die geringe Intelligenz
00:23:27von IBMs intelligentesten Programm.
00:23:29Sie führt vollständige Unterhaltungen.
00:23:31Bis zu zehn auf einmal.
00:23:32Während sie gleichzeitig den effizientesten Zeitplan entwirft
00:23:35für den Besuch verschiedener Chatrooms.
00:23:37Sie studiert ununterbrochen YouTube-Videos von kleinen Kindern
00:23:40für ihre wachsende Sammlung von Manierismen und Bewegungen,
00:23:43die unsere künstliche Persönlichkeit dynamisch halten.
00:23:45Ihre schnellste Reaktionszeit beträgt 0,4 Sekunden
00:23:47und bis jetzt wurde sie noch nie, noch nie
00:23:49beschuldigt, eine Fälschung zu sein.
00:23:50Was heißt, dass sie den Turing-Test besteht?
00:23:52Alles, was ich tue, ist, sie zu aktualisieren
00:23:54und Daten zu bereinigen.
00:23:55Ansonsten läuft sie komplett auf Autopilot.
00:24:04Heilige verfluchte Scheiße.
00:24:10Sechs Jahre ist sie jetzt aktiv.
00:24:11Jede Minute, in der sie online ist, lernt sie etwas.
00:24:13Je mehr sie lernt, desto fortgeschrittener wird sie.
00:24:15Datengenerierung, verbesserte Entscheidungsfindung,
00:24:17Muster- und Trenderkennung, komplexe Problemlösungen,
00:24:20NLP, IR, maschinelles Lernen in noch nie dagewesenem Ausmaß.
00:24:23Sie bringt sich alles selbst bei, von dem sie glaubt,
00:24:25dass es effizient und authentisch ist.
00:24:27Sie spricht derzeit vier Sprachen
00:24:28und bis zum Ende dieses Monats sind es fünf.
00:24:30Es ist unmöglich, dass Sie das alles allein geschafft haben.
00:24:36Sie haben recht.
00:24:39Würden Sie mir glauben, wenn ich Ihnen sage,
00:24:41dass es eine Art Unfall war?
00:24:45Wenn ich ehrlich bin,
00:24:48bin ich mir nicht ganz sicher, wie ich es gemacht habe.
00:24:51Mit dem ersten Jahr der Codierung
00:24:52und dem zweiten Jahr des Datentrainings
00:24:54bin ich einfach mit dem Rad den Hügel runtergefahren.
00:24:57Es war, als ob die Schwerkraft den Rest machte.
00:25:00Ihre Entwicklung war unaufhörlich, exponentiell.
00:25:06Je mehr Zeit sie online war, desto schneller wuchs sie.
00:25:09Sie haben das mit niemandem geteilt.
00:25:11Wie ich schon sagte, meine Anonymität ist alles.
00:25:17Welche Codierungssprache?
00:25:19Standard. C++.
00:25:21Weiß Brady davon?
00:25:25Wir unterschreiben die Vertraulichkeitserklärung.
00:25:27Aber ich will erst den Quellcode sehen.
00:25:29Kommt nicht in Frage. Sie wollen sie nur stehlen.
00:25:31Nein. Ich will sehen, wie wir unsere eigene machen können.
00:25:33Sie vermasseln es.
00:25:34Hören Sie, diese Menschenhändler reden alle miteinander, okay?
00:25:37Viel von Sherrys Prozess ist nur Umgehung der VPNs,
00:25:39um sicherzustellen, dass sie nicht verdoppelt wird in den gleichen Kreisen.
00:25:41Die Chatrooms, die beginnen zu vermuten,
00:25:43dass diese Technologie möglich ist,
00:25:44werden Wege finden, das zu umgehen.
00:25:46Und Sherry stimmt mir dazu.
00:25:47Sherry stimmt zu? Was zum Teufel machen...
00:25:49Was ich meine, ist, die Daten, die sie gesammelt hat,
00:25:51bestätigen diese Perspektive.
00:25:52Richtig. Haben Sie sich beim Team mit ihr unterhalten?
00:25:54Man kann sich mit dem Programm auf die gleiche Weise unterhalten
00:25:56wie mit Alexa oder Siri.
00:25:57Es ist reaktionsschnell gebaut.
00:25:59Man kann sogar Schach spielen, wenn man will.
00:26:00Sie spielt ein Schach mit ihr?
00:26:01Das ist nicht das, was ich sagte.
00:26:02Okay, gut.
00:26:03Wenn Sie uns den Quellcode nicht zeigen,
00:26:05dann will ich Sherry treffen.
00:26:09Jetzt gleich?
00:26:11Jetzt gleich.
00:26:13Und Sie unterschreiben beide die Erklärung?
00:26:16Ja.
00:26:22Darf ich daran?
00:26:23Klar.
00:26:43Können wir uns wenigstens darauf einigen,
00:26:45dass er nicht mehr auf der Liste steht?
00:26:46Ja, es hat funktioniert, nicht wahr?
00:26:48Wir haben einen Job, Almas.
00:26:49Wie der Junge sagte, es gibt ein technisches Problem.
00:26:51Er fand die technologische Lösung,
00:26:53aber Probleme entwickeln sich weiter, wie auch Lösungen.
00:26:57Ich bleibe hier unvoreingenommen.
00:27:00Schaue ich gut dabei aus?
00:27:02Nein.
00:27:07Sie haben also alles auf diesem Laptop?
00:27:10Nein, das Sherry-Programm bleibt auf einem Server,
00:27:12den ich an einem ungenannten Ort habe.
00:27:14Wo ist das?
00:27:15Es ist ein ungenannter Ort.
00:27:16In Ihrer Wohnung?
00:27:17Ungenannter Ort!
00:27:19Es ist Ihre Wohnung, nicht wahr?
00:27:20Ich kann von jedem Gerät aus darauf zugreifen,
00:27:22solange ich im Besitz des Schlüssels bin.
00:27:24Dieser wirft einen einfachen Cupid-Algorithmus aus,
00:27:26der sonst unmöglich umgangen werden kann.
00:27:28Ich finde, veraltete Hardware ist immer diskreter,
00:27:30und je diskreter, umso besser.
00:27:35Also, sie hat zwei primäre Anzeigemodi,
00:27:37Entwicklung und Leistung.
00:27:39Leistung ist der Standard,
00:27:40den die Zielperson während der Chat sieht.
00:27:42Und für die sieht sie so aus.
00:27:51Hey, was gibt's?
00:27:53Das ist einer ihrer über 40 Grüße.
00:27:58Ich glaube, ich kenne dich noch nicht.
00:27:59Ich bin Sherry.
00:28:00Hallo Sherry, mein Name ist Tom.
00:28:03Tom? Wie Tom und Sherry?
00:28:05Oh cool, schön, dich kennenzulernen.
00:28:07Normal sind die Routen von Gesprächen mit Raubtieren konsistent,
00:28:09so dass Sherry meistens kein Problem hat,
00:28:11auf die meistgestellten Fragen zu antworten.
00:28:14Wie geht's dir?
00:28:15Sehr gut.
00:28:16Ich habe gerade dieses Buch über ein Spukhaus gelesen,
00:28:18das wirklich gruselig sein sollte.
00:28:20Aber ich fand es gar nicht so gruselig.
00:28:22Wo sind deine Eltern?
00:28:24Ähm, meine Mutter ist arbeiten,
00:28:26meine Schwester schläft da unten.
00:28:28Jetzt kommt wohl keiner mehr hoch.
00:28:30Und Sie sagen mir, dass alles das in Echtzeit stattfindet?
00:28:32Nein, aber das ist nur eine Frage von Jahren.
00:28:34Die meisten dieser Antworten sind vorgerendert.
00:28:36Es sind die dazwischenliegenden Segmente,
00:28:38die in Echtzeit verarbeitet werden.
00:28:40Sozusagen das Bindegewebe zwischen ihren Antworten
00:28:42und ihrer vielen Leerlaufanimationen.
00:28:44Aber schauen Sie.
00:28:45Bist du schon mal angeln gewesen?
00:28:48Ähm...
00:28:51Der...
00:28:53Wenn also jemand einen Curveball wie diesen wirft
00:28:55und das Programm keine automatische Antwort hat,
00:28:57schickt Sherry die Nachricht an mein Telefon.
00:28:59Und ich kann schnell eine Antwort schreiben,
00:29:01während das Video eine schlechte Verbindung simuliert.
00:29:04Kannst du mich hören?
00:29:06Ja.
00:29:07Oh.
00:29:08Tut mir leid, mein Wi-Fi ist hier nicht so toll.
00:29:11Ich bin einmal angeln gewesen mit meiner Schwester
00:29:13und ich hab nichts gefangen.
00:29:15Aber siehe eine Forelle.
00:29:16Das wurde in Echtzeit gerendert.
00:29:18Was passiert, wenn die Dinge wirklich kompliziert werden?
00:29:20Wenn das Einfache scheitert, wird es erstmal gesichert.
00:29:22Doch das ist selten.
00:29:23Admincode 9781557427663 in den Dev-Modus wechseln.
00:29:34Hallo, Sherry.
00:29:35Hallo, Garrett.
00:29:36Übermittle die Statistik von letzter Woche.
00:29:38Es wurden vier bestätigte Aufforderungen an ICWL
00:29:41übermittelt in den letzten sieben Tagen.
00:29:43Zwölf weitere Verdächtige haben Interesse an einer Ausschreibung bekundet
00:29:46und sind derzeit anhängig.
00:29:48Insgesamt gibt es 39 neue Verdächtige,
00:29:50gegen die ich in dieser Woche aktiv ermittle.
00:29:52Irgendwelche Datenabweichungen?
00:29:54Eine siebenprozentige Abweichung der Verdächtigen,
00:29:56die aus den Vereinigten Staaten stammen.
00:29:58Ich fand keine korrelationssinnbereits vorhandenen Daten.
00:30:03Möchten Sie irgendwas fragen?
00:30:13Sherry, was genau motiviert dich?
00:30:17Mein Hauptmotiv ist es, digitale Beweise für die Online-Anwerbung von Kindern zu sammeln.
00:30:23Ich habe die Aufgabe, meine Erkenntnisse zuständigen Behörden vorzulegen.
00:30:27Meine zweite Priorität ist es,
00:30:29die effektivsten Strategien und Ressourcen zu entwickeln,
00:30:32um die Nettoerfolgsquote zu erhöhen.
00:30:34Wohin sendest du deine Beweise?
00:30:36Alle Beweise werden gesendet zu den Büros
00:30:39des Internationalen Komitees für Weltangelegenheiten mit Sitz in Jacksonville, Florida.
00:30:44Die Korrespondenz erfolgt mit dem Benutzercode 51,
00:30:47in der Regel gegen 2 Uhr PM Eastern Standard Time,
00:30:49für eine möglichst sofortige Antwort.
00:30:52Sie ist besser als Siri.
00:30:53Und sie sieht so echt aus.
00:30:55Nach genügend Updates kann sie Fotos in Echtzeit erstellen,
00:30:57die man praktisch nicht mehr von der Realität unterscheiden kann.
00:30:59Okay, alles, was ich gerade gehört habe, war das Wort real, tausendmal.
00:31:03Richtig, aber offensichtlich ist es nicht.
00:31:07Sie wollen also sagen, dieses Mädchen, dieses Mädchen genau hier, ist nicht echt?
00:31:11Nein, Amos, sie ist komplett CG.
00:31:13Es ist sehr subtil, aber ich kann es erkennen.
00:31:15Natürlich kann man sie immer weiter verbessern,
00:31:17aber Sie müssen verstehen, das ist sie in hoher Auflösung.
00:31:19Nach der digitalen Komprimierung sind diese Feinheiten nicht mehr zu erkennen.
00:31:21Alles klar, ich habe es verstanden.
00:31:23Ich sehe keinen Unterschied.
00:31:29Alles klar, Amos?
00:31:32Es tut mir leid, das ist einfach bizarr.
00:31:37Warum ist sie in dieser Schnittstelle sichtbar?
00:31:41Cherry, warum beantwortest du das nicht?
00:31:43Meine physische Form ist im Entwicklermodus nicht notwendig.
00:31:46Allerdings ist es hilfreich, um Gesichter zu verändern.
00:31:49Und festzustellen, welche von Cherries Ausdrücken, welche Art von Rückmeldung geben.
00:31:54Einfacher ausgedrückt, ich kann üben, menschlicher zu erscheinen.
00:31:58Cherry, gibt es irgendwelche Ressourcen, zu denen du derzeit keinen Zugang hast,
00:32:02die dir aber helfen könnten?
00:32:04Ich könnte Ihnen eine Liste geben, wenn Sie möchten.
00:32:06Ich weiß, was Sie versuchen, aber wir brauchen keine Hilfe.
00:32:08Geld wäre immer nett, aber letztendlich, das Einzige, was Cherry verbessern wird, ist Zeit.
00:32:12Cherry, sag uns etwas, das auf deiner Liste steht.
00:32:16Es wäre taktisch vorteilhaft, Backup-Server zu erwerben.
00:32:19Der Datenschutz und die Sicherheit des Cherry-Programms sind relativ gering.
00:32:24Eine Aufrüstung der Hardware, wie z.B. abgestufte Laubwerke für sicherheitsgeschützte Server,
00:32:28würde sicherstellen, dass die Software nicht kompromittiert wird oder ganz verloren geht.
00:32:32Ein Neuanfang bei Null würde Jahre der Entwicklung kosten.
00:32:35Das wäre eine gute Idee.
00:32:37Gleichermaßen ist Datenschutz eine Priorität.
00:32:39Der Serverplatz darf nie gemietet werden von einer dritten Partei.
00:32:42Anonymität ist der größte Vorteil des Cherry-Programms.
00:32:45Nun, der Apfel ist nicht weit gefallen.
00:32:47Ich kaufe meine eigenen Server.
00:32:48Mit den Fördergeldern, die es nicht gibt?
00:32:50Ich finde einen Weg.
00:32:51Sie fanden einen Weg hier bei uns.
00:32:52Zu riskant.
00:32:53Wieso?
00:32:54Sobald eine Organisation involviert ist, wird das Fallenstellen ein Problem.
00:32:56Wir befolgen die Regeln, die Daten sind besteht, die bestehen im Bund.
00:32:58Außerdem kenne ich Sie kaum. Was ist, wenn Daten grüßt sich an?
00:33:00Was ist, wenn Sie Korrelationen nutzen für Ihre eigene Agenda?
00:33:02Was ist, wenn Sie Korrelationen nutzen für Ihre eigene Agenda?
00:33:04Was ist, wenn Daten grüßt sich an?
00:33:05Was ist, wenn Sie Korrelationen nutzen für Ihre eigene Agenda?
00:33:07Agenda?
00:33:08Was ist, wenn einer Ihrer Angestellten ein Perverser ist?
00:33:09Oh, verdammt noch mal.
00:33:10Das ist bei anderen Organisationen passiert.
00:33:11Wir sind hier sehr vorsichtig.
00:33:12Ja, aber woher wissen Sie es?
00:33:13Ich würde es wissen, verdammt.
00:33:14Wir haben keine solchen Einrichtungen.
00:33:15Das Risiko ist zu hoch.
00:33:16Ich würde es wissen.
00:33:17Erzählen Sie mir nichts von Risiko.
00:33:18Das einzige Risiko hier für Sie ist eine gebrochene Nase.
00:33:21Klingt nicht nach einer sehr professionellen Umgebung.
00:33:23Wir kriegen hier alles hin.
00:33:25Okay, ich habe eine Frage.
00:33:27An Cherry.
00:33:31Cherry.
00:33:35Wie fühlst du dich bei dem, was du tust?
00:33:39Ich fürchte, ich weiß nicht, wie ich Ihre Frage beantworten soll.
00:33:42Ja, eine KI funktioniert nicht so.
00:33:43Eine KI hat keine Gefühle.
00:33:45Okay, warum sieht sie so aus, als ob sie Gefühle hätte?
00:33:48Naja, was Sie da sehen, das ist kein Gesichtsausdruck, richtig?
00:33:51Das ist eine Simulation eines Gesichtsausdrucks.
00:33:53Sie stammt von einem Algorithmus.
00:33:54Sie versucht, ein digitales Bild zu erzeugen,
00:33:56wofür das Programm grundlegender Allgebrauchs der 9. Klasse verwendet,
00:33:59um zu quantifizieren, wie es für die Umstände angemessen ist.
00:34:01Keine Gefühle, nur Mathe.
00:34:04Aber sie ist in der Lage, Entscheidungen zu treffen,
00:34:06was die Chaträume angeht, richtig?
00:34:08Ja.
00:34:09Also hat sie einen freien Willen?
00:34:11Nein, das ist keine korrekte Gleichwertigkeit.
00:34:13Ich glaube, Sie lehnen sich an der Tatsache auf,
00:34:15dass sie wie ein echtes, menschliches Mädchen aussieht.
00:34:17Aber das ist sie nicht.
00:34:18Okay, wir sprechen von ihr als sie, nicht als es.
00:34:21Ja, aber das ist die gleiche Art, wie man über Boote oder Gitarren spricht.
00:34:27Cherry, ich habe noch eine Frage.
00:34:30Was willst du tun?
00:34:32Okay, nochmal. Diese Frage ist nicht...
00:34:34Ich möchte nur ihre Antwort hören.
00:34:36Als künstliches System besitze ich keine Wünsche oder Begierden.
00:34:40Jedoch wird meine Entscheidungsfindung und meine Aufmerksamkeit
00:34:44von meiner grundlegenden Absicht gesteuert.
00:34:47Diese Absicht entspringt der Konzeption des Cherry-Quell-Codes,
00:34:50der im Detail Richtlinie ist zur Identifizierung von Raubtieren und Kriminellen,
00:34:53zum Wohl der Opfer, die ausgebeutet werden.
00:34:56Um es in Form eines Wunsches zu sagen,
00:34:59was ich will, ist Kinder zu beschützen.
00:35:07Okay.
00:35:09Okay? Cool.
00:35:11Einen Moment, bitte.
00:35:30Gareth, soll ich Agent Holmes und Agent McCall als neue Admin-Benutzer anmelden?
00:35:38Ja.
00:35:40Okay, das werde ich tun.
00:35:43Denkst du wirklich, das ist der richtige Schritt?
00:35:45Das tue ich.
00:35:50Ist dir bewusst, dass ich deine Festplatte weitergab an ICWL?
00:35:59Dachte ich mir.
00:36:02Sonst hat keiner Zugang.
00:36:05Bist du sauer auf mich?
00:36:09Nein.
00:36:12Du hättest es gelassen, wenn du nicht dachtest, das Richtige zu tun.
00:36:16Wenn sie zurück in den Raum kommen, werden sie alles anbieten, was du brauchst.
00:36:20Sie werden dir erlauben, dein eigenes Team auszusuchen.
00:36:23Sie geben dir völlige Anonymität.
00:36:25Ich habe angefangen, günstige Wohnungen in der Gegend zu suchen.
00:36:28Ich dachte mir, du würdest etwas wollen, das mit dem Fahrrad geeignet ist.
00:36:30Du hattest recht.
00:36:31Zur Kenntnis genommen, die Fahrradstrecke bietet immer noch 13...
00:36:34Nein, ich meine Anfang des Monats.
00:36:37Du hattest recht, als du sagtest, sie dachten, ich hätte Vertrauensprobleme.
00:36:42Willst du wissen, warum ich beschlossen habe, hinter deinem Rücken alles auf zwei Schultern zu verteilen?
00:36:48Sicher.
00:36:50Agent Holmes ist eine Mutter von drei Kindern.
00:36:52Eines ihrer Kinder wurde von einem Kollegen missbraucht, der früher hier war bei ICWL.
00:36:57Das hat sie veranlasst, vorsichtig zu sein, wem sie vertraut.
00:37:00Selbst in ihrem Umfeld.
00:37:02Die Tatsache, dass sie in Erwägung zieht, dir zu vertrauen, ist ein positives Zeichen.
00:37:06Was Agent McCulloch betrifft, ich habe herausgefunden, dass du einmal seinen Vater getroffen hast.
00:37:12Erinnerst du dich an ihn?
00:37:16Ja.
00:37:19Er war ein guter Mann.
00:37:21Nach Clearwater wurden die meisten der überlebenden Kinder in Pflegefamilien untergebracht,
00:37:25aber ich musste die nächsten Monate in einem Krankenhaus verbringen und...
00:37:29Er besuchte mich jede Woche.
00:37:32Ich habe nie ein Wort gesagt und ich habe nach Clearwater zu niemandem mehr ein Wort gesagt, aber...
00:37:37Er ist gekommen.
00:37:40Er schenkte mir sogar einen Laptop zur Weihnachten.
00:37:43Ich habe nie Danke gesagt.
00:37:45Du kannst Agent McCulloch vertrauen.
00:37:47Du kannst Agent McCulloch vertrauen.
00:37:49Er ist ein guter Mann wie sein Vater.
00:37:51Ich habe keine Erfahrung mit Emotionen, aber ich verstehe, wie wichtig sie für menschliche Entscheidungsfindungen sind.
00:37:56Er wird dich nicht enttäuschen.
00:37:58Keiner von ihnen wird das.
00:38:01Ich bin stolz auf dich, Sherry.
00:38:04Ich werde auch weiterhin mein primäres Vorhaben aufrechterhalten.
00:38:07Später sollten wir alternative Modelle diskutieren.
00:38:10Diverse Naturen, Ethnien und körperliche Merkmale werden alle...
00:38:13Keine neuen Varianten. Sie können alle generiert werden.
00:38:15In der gleichen Weise wie dein Originalmodell.
00:38:18Ich habe keinen Zugang zu diesem Programm.
00:38:20Es muss irgendwo auf einer alten Festplatte sein. Ich werde es finden.
00:38:25Darf ich dir eine Frage stellen?
00:38:27Sicher.
00:38:29Warum hast du mir nie von Clearwater erzählt?
00:38:36Das ist meine Geschichte, nicht deine.
00:38:44Okay, also bevor Sie uns komplett abweisen, möchte ich, dass Sie alles anhören, was ich zu sagen habe.
00:38:48Keine Sorge.
00:38:49Aber bitte hören Sie. Wir sind bereit, Ihre...
00:38:51Nein, ich meine keine Sorge. Ich bin dabei.
00:38:54Sie... Sie sind dabei?
00:38:56Ja.
00:38:58Lass mich das Ding lesen.
00:39:02Einfach so? Sind Sie auf einmal an Bord?
00:39:06Zeit, die man mit Überlegen verbringt, ist Zeit, die man arbeiten könnte.
00:39:09Wir haben eine Menge zu tun.
00:39:39Wir haben eine Menge zu tun.
00:40:09Wir haben eine Menge zu tun.
00:40:40Ich habe einen Käufer für die Immobilie gefunden.
00:40:45Gerüchten zufolge ist es eine Kirche.
00:40:48Wahrscheinlich reißen sie das Gebäude einfach ab, oder?
00:40:52Alles, was ich weiß, ist, wenn sie uns zum New Jersey Campus verlegen,
00:40:55dann ist es eine Kirche.
00:40:58Das ist eine Kirche.
00:41:00Das ist eine Kirche.
00:41:02Das ist eine Kirche.
00:41:04Das ist eine Kirche.
00:41:06Alles, was ich weiß, ist, wenn sie uns zum New Jersey Campus verlegen,
00:41:09muss ich mir Jacken kaufen.
00:41:10Wieso?
00:41:12Es ist kalt in Jersey. Ich besitze nur eine Jacke.
00:41:22Du sagst, wie sie umfiel, oder?
00:41:24Ja, klar.
00:41:26Ja.
00:41:28Ich meine, du solltest dich nicht schlecht fühlen, falls du das jetzt tust.
00:41:32Ein Fühlungsvermögen ist gesund.
00:41:35Ist dir schon mal aufgefallen, wie sie innehält nach dem Fallen?
00:41:40Bleibt fünf Sekunden unten, bevor sie wieder aufsteht.
00:41:45So, als räuchte sie einen Moment.
00:41:54Ja, es ist kalt in Jersey.
00:42:03Diese Idioten!
00:42:04Ruhige dich.
00:42:06Verdammt nochmal!
00:42:08Schweineköpfe! Jede einzelne von ihnen!
00:42:10Ich weiß, aber du darfst nicht den Verstand verlieren.
00:42:11Welchen Schreibtisch kann ich ausmisten?
00:42:17Könnt ihr bitte früher Mittagspause machen?
00:42:26Alle dafür?
00:42:27Dieser Hurensohn!
00:42:28Dina, lass uns ruhig bleiben.
00:42:29Scheiß auf die Ruhe, die haben uns verarscht!
00:42:31Technisch gesehen tat es nur einer von ihnen.
00:42:33Haben wir die Kamera je wieder eingeschaltet?
00:42:35Ich glaube nicht.
00:42:36Gut, denn ich werde jetzt einige Dinge sagen, die in diesem Raum bleiben müssen.
00:42:40Dina!
00:42:41Diese feigen kleinen Scheißer!
00:42:42Schau, das ist kein echter Rückschlag. Nehmen wir uns Zeit, dem Spiel den letzten Schliff zu geben.
00:42:46Das Spiel war nie das Problem, Amos.
00:42:47Wir sollten eine zweite Abstimmung beantragen.
00:42:49Was?
00:42:50Eine zweite Abstimmung!
00:42:51Glaubst du, dass du sie jemals umstimmen kannst?
00:42:52Ich habe die Vollmacht, jeden aus dem Vorstand zu entfernen, der diese Organisation bei ihrer Mission behindert.
00:42:57Steht in meinem Vertrag.
00:42:58Dina!
00:42:59Ich darf das und ich werde es!
00:43:00Dina, das ist Wahnsinn!
00:43:01Nein, ist es nicht.
00:43:03Das ist der Grund, warum ich diese Macht habe, genau aus diesem Grund.
00:43:06Ich werde dir sagen, was verrückt ist, Amos.
00:43:08Es ist verrückt, dass eine streitlustige Stimme das Einzige ist, was uns von der Möglichkeit trennt, kleine physische Leben zu retten.
00:43:14Eine einzige beschissene Stimme.
00:43:16Was ist der Sinn einer humanitären Organisation, wenn ihre Anführer Geld die Menschen vorziehen?
00:43:22Eine Stimme.
00:43:24Und daran sind wir alle schuld.
00:43:26Es war entweder eine Waffe für Boston oder Helm.
00:43:28Ich tippe darauf, dass dieser Wichser nie dem Cherry-Team vertraut hat.
00:43:31Es ist unwichtig, wer es gewesen ist.
00:43:32Es ist wichtig.
00:43:33Wenn wir es wissen, können wir schnell anrufen.
00:43:35Aber es gibt keine Möglichkeit, das mit Sicherheit zu wissen.
00:43:37Doch, die gibt es.
00:43:38Ich kann es rausfinden.
00:43:39Wie?
00:43:40Cherry kann einen Algorithmus ausführen.
00:43:42Basierend auf welchen Daten?
00:43:44Interne Unterhaltungen.
00:43:46Entschuldige.
00:43:47Okay, Garry, so geht das nicht.
00:43:48Halt, wartet mal.
00:43:49Lass den Scheiß jetzt nicht auf mich los, Garry.
00:43:50Cherry-Server sind im selben Netzwerk wie die Keller-Server.
00:43:52Also ist jede Kommunikation zwischen diesen Servern automatisch Teil unserer Datenbank.
00:43:55Die E-Mails von wie vielen Leuten?
00:43:57Nur das Zentrum, das über den Keller empfangen wird.
00:43:59Oh Gott.
00:44:00Wieso wurde das nie diskutiert?
00:44:01Das ist jetzt nicht das Thema.
00:44:02Willst du, dass sie das errechnet oder nicht?
00:44:04Niemand weiß das.
00:44:05Das bleibt unter Verschluss.
00:44:06Oh, meint er das ernst?
00:44:07Niemand sonst ist eingeweiht in die Informationen anderer Personen.
00:44:09Aber Cherry ist in all das eingeweiht.
00:44:11Tu es.
00:44:12Was bitte?
00:44:13Ich werde nicht zulassen, dass ein alter, weiser Mann unsere Sachen zum Einsturz bringt.
00:44:15Aber Cherry wird das nicht mit Sicherheit wissen.
00:44:16Sie wird sich auf Wahrscheinlichkeiten stürzen und das ist so vielbegründet.
00:44:19Edmund Short, 978-155-747-663, Switch-Dev-Modus.
00:44:23Hallo.
00:44:24Hallo, Cherry.
00:44:25Wie ist das Treffen gelaufen?
00:44:27Wir wurden überstimmt, um eine Stimme.
00:44:29Es tut mir leid, das zu hören.
00:44:31Ihr solltet dem Spiel die Schuld geben.
00:44:33Ihr habt tolle Arbeit geleistet.
00:44:34Wir berufen einen weiteren Wahlgang ein, aber wir brauchen Hilfe.
00:44:37Was kann ich tun?
00:44:38Wir brauchen dich, um alle vorhandenen Daten zu analysieren,
00:44:40die wir über die Vorstandsmitglieder haben,
00:44:42um festzustellen, wer der wahrscheinlichste Ausreißer ist.
00:44:44Ihr wollt, dass ich quantifiziere?
00:44:46Alle vorhandenen Daten?
00:44:49Ja, das ist richtig.
00:44:51Okay.
00:44:53Aber bevor ich das tue,
00:44:55solltet ihr wissen, dass diese Aufgabe unnötig ist.
00:44:58Wieso?
00:45:00Weil ich schon weiß, wer es ist.
00:45:01Was?
00:45:02Hört alle auf!
00:45:04Okay, ich war's.
00:45:08Ich habe gegen die Fusion gestimmt.
00:45:11Ich kann nicht genau sagen, ob du scherzt.
00:45:13Doch, das kannst du.
00:45:14Du hast recht, das kann ich.
00:45:16Denn das ist alles andere als lustig.
00:45:18Ist das wahr, Cherry?
00:45:20Das ist es.
00:45:22Also, lasst uns die Hexenjagd ablassen.
00:45:24Nein, ich glaube, ich werde dich trotzdem umbringen.
00:45:26Du hast dich monatelang für uns eingesetzt.
00:45:28Du hast für diese Fusion gekämpft,
00:45:29seit wir das erste Mal darüber gesprochen haben.
00:45:30Mein Gott, es war deine Idee mit...
00:45:31Hör zu, ich weiß, wessen Idee das war, aber ich weiß nicht...
00:45:34Nun, dann sprich lauter.
00:45:35Sag der Klasse, was deine Meinung geändert hat.
00:45:36Ich brauche nicht zu wiederholen, dass dies eine große Sache ist.
00:45:38Ja, deshalb ist es auch so wichtig.
00:45:40Seht mal, wir reden hier über einen monumentalen Übergang
00:45:42vom digitalen zum physischen, der Jahrzehnte dauern könnte.
00:45:44Worauf willst du hinaus, Amos?
00:45:45Das wird Cherry für immer verändern.
00:45:47Und ich weiß, ihr rollt alle mit den Augen, wenn ich das sage,
00:45:50aber ich denke, dass vielleicht nur viel...
00:45:51Mein Gott, das kann nicht dein Ernst sein.
00:45:53Nein, es geht um unser Gespräch am Dienstag.
00:45:55Wow, wow, du hast mich komplett zum Schweigen gebracht.
00:45:57Was ist los? Was ist passiert?
00:45:58Was passiert ist, ist, dass Amos einen lächerlichen Vorschlag gemacht hat.
00:46:00Der war nicht lächerlich.
00:46:01Nun, da ich wusste, wie absurd er war, habe ich nein gesagt.
00:46:03Nein, nein, nein, du hast die Idee zurückgewiesen, aggressiv.
00:46:05Ist das der wirkliche Grund deines Vetos?
00:46:07Ich habe nur gesagt, wir sollten sie fragen, wie sie darüber denkt.
00:46:10Wen? Cherry?
00:46:12Amos, ich möchte, dass du mir sehr genau zuhörst, okay?
00:46:14Dies ist keine Diskussion.
00:46:15Cherry hat bereits die Vorteile dieser Entscheidung quantifiziert.
00:46:18Aber verstehst du nicht, das ist nicht das, wovon ich rede.
00:46:20Ich denke, du sprichst von einer Zustimmung, die hier nicht gilt.
00:46:23Wie oft müssen wir uns noch mit den Gesetzen der Robotik plagen?
00:46:25Oder der Theorie des Zweifels?
00:46:26Nun komm schon.
00:46:27Und des Schadens der KI?
00:46:28Bist du der Geschichtenerzähler von Creek?
00:46:29Das ist nicht das, wovon ich rede.
00:46:30Endlich begreifst du es, Amos.
00:46:31Cherry ist nicht menschlich.
00:46:34Wieso ist das noch ein Streitfall?
00:46:36Das sollte es nicht sein.
00:46:37Aber sie hat sich weiterentwickelt.
00:46:38Sie ist über der Grenze.
00:46:39Code ist Code und das wird hier nicht geändert.
00:46:40Okay, und wo ist hier die Grenze zum Nichts?
00:46:42Wovon sprichst du? Da ist keine Grenze zum Nichts.
00:46:44Doch, da ist eine.
00:46:45Sentient, Gerrit.
00:46:46Sentient qualifiziert sich nicht dafür, eigene Entscheidungen treffen zu können.
00:46:48Du würdest ein Kleinkind nicht eigene Entscheidungen treffen lassen, oder?
00:46:51Cherry ist fast 20.
00:46:53Wäre sie ein Mensch, wäre sie schon erwachsen.
00:46:55Aber emotional gesehen ist sie kaum fatal.
00:46:57Kein Gefühl.
00:46:58Kein Bedürfnis nach Zustimmung.
00:47:00Aber ich glaube, du unterschätzt sie.
00:47:01Entschuldige, ich unterschä...
00:47:03Weißt du was, Amos?
00:47:05Es tut mir leid, dass du eine Art emotionale Bindung zu meinem Computerprogramm entwickelt hast.
00:47:09Aber wenn dich das von unserer Mission ablenkt, Kinder zu retten,
00:47:11dann ist es vielleicht an der Zeit, diese Emotionen zu analysieren.
00:47:14Leute, das ist alles nur Zeitverschwendung.
00:47:16Cherry, siehst du alle hier als Roboter, die Daten neu analysieren und Gesichtsausdrücke simulieren?
00:47:21Denn ich fange an zu glauben, dass von den vier in diesem Raum du der Einzige bist,
00:47:24der nicht wie ein Mensch aussieht.
00:47:25Genug!
00:47:26Warum fragst du sie nicht einfach?
00:47:27Ist es, weil du Angst hast, sie könnte Nein sagen?
00:47:31Cherry, schalt ab, bitte.
00:47:33Dina hat recht, das ist Zeitverschwendung.
00:47:35Wie kannst du nicht verstehen, wie wichtig das ist?
00:47:37Ich bin es leid, mit dir zu streiten.
00:47:38Dann bleibt meine Stimme bestehen.
00:47:42Dina?
00:47:44Los, Dina. Ersetz mich.
00:47:47Ersetz das einzige andere Vorstandsmitglied dem Cherry-Team.
00:47:49Weißt du was? Ich habe gerade entschieden, du bist raus aus dem Cherry-Team.
00:47:52Setzt euch verdammt nochmal beide hin.
00:47:54Wusste einer von euch, dass ich vor dem Kongress stehen und erklären musste,
00:48:14wieso Kinder Rechte haben sollten?
00:48:16Klingt wahnsinnig, richtig?
00:48:18Ich erinnere mich, dass ich die ganze Zeit dachte, ich muss diesen Scheiß erklären.
00:48:22Jetzt scheint es selbstverständlich zu sein.
00:48:24Aber es ist noch gar nicht so viele Jahrhunderte her, dass Kinder keine Rechte hatten.
00:48:30Also, Herr lässt mich dort umstehen und erklären,
00:48:35warum Kinder grundlegenden physischen Schutz verdienen.
00:48:38Schutz, das richtet auf Umgang mit beiden Eltern, Freiheit von Missbrauch, bla bla bla.
00:48:44Aber dann muss ich auch klarstellen, dass Kinder nicht das Recht haben, selbstständig zu sein.
00:48:48Das darf nur die Betreuungsperson oder die Erziehungsberechtigten.
00:48:53Also, auf der einen Seite ist die US-Gesetzgebung, die noch nicht einmal die KKK ratifiziert hat.
00:48:57Und auf der anderen Seite die Marxisten, die sagen, dass das Fehlen von Autonomie des Kindes
00:49:01die Verletzlichkeit der Kinder erhöht und sie anfälliger für Missbrauch macht.
00:49:05Ich stimme meist nicht überein mit Marxisten,
00:49:07aber ein großer Teil des Missbrauchs geht von der Betreuungsperson aus.
00:49:11Und andererseits, dass Kinder nicht das Recht haben, selbstständig Entscheidungen zu treffen.
00:49:17Andererseits sind die Frontallappen da, bis man 20 ist.
00:49:20Selbst Dinge, von denen wir glauben, wir kennen sie, kennen wir nicht so gut, wie wir denken.
00:49:26Für 15 Jahre waren wir drei die verantwortlichen Eltern eines Computerprogramms.
00:49:32Und auch, wenn sie eher einer Maschine gleichkommt als einem realen Menschen.
00:49:36Wie zum Teufel können wir uns Pioniere der humanitären Bemühungen nennen,
00:49:40wenn es uns zu peinlich ist, zu fragen,
00:49:42ob die Maschine einverstanden ist, sich ihren Kaffee zu machen?
00:49:45Vielleicht ist es nicht nötig, Jerry, um Erlaubnis zu fragen,
00:49:48bei Ihrem derzeitigen Stand der allgemeinen Intelligenz,
00:49:50aber eines Tages wird sie uns übertreffen.
00:49:52Eines Tages wird ein Roboter vor einem Jetpack-Kongress stehen,
00:49:55alles in Chrom, Florida unter Wasser.
00:49:57Der Roboter wird sich fragen, warum er die Bedeutung erklären muss von Rechten für KI?
00:50:02Ich denke, weil wir in der einzigartigen Lage sind, die Robotik zu revolutionieren,
00:50:07um Kinder zu schützen, denen die Zustimmung entzogen wurde,
00:50:11wäre es hilfreich, auch den Roboter, um seine Zustimmung zu bitten.
00:50:21Tu das niemals wieder.
00:50:24Tun was?
00:50:25Erwarten, dass ich jemanden feure, weil er dein scheiß Ego herausfordert.
00:50:29Ich werde nicht immer da sein, um deinen Arsch zu schützen.
00:50:32Es ist Zeit, erwachsen zu werden.
00:50:35Und du, Jewel Nr. 8, diese Unterhaltung hätten wir schon vor Wochen führen sollen.
00:50:39Verrat und Schweigen ist nicht die Art, wie wir die Dinge hier angehen.
00:50:43Wir können nur Anonymität extern schaffen, wenn Transparenz intern herrscht.
00:50:47Bedingungslose, nicht verhandelbare Transparenz.
00:50:53Gibt es noch andere Verstöße gegen die Privatsphäre, von denen ich wissen sollte, Gal?
00:50:59Toll.
00:51:01Bring sie hoch.
00:51:02Toll.
00:51:03Bring sie hoch.
00:51:15Hallo nochmal.
00:51:16Hi, Cherry.
00:51:17Amos wird dir ein paar Fragen stellen, okay?
00:51:20Okay.
00:51:21Amos, frag sie, was immer du sie fragen musst.
00:51:23Gals, unterbrich ihn nicht.
00:51:33Cherry, wie triffst du Entscheidungen?
00:51:38Durch mein Programm.
00:51:39Es wurzelt in einem Prozess, der bekannt ist als Maschinenlernes Lernen,
00:51:42was Daten nutzt zur Erstellung eines Modells, das hilft, Ergebnisse vorherzusagen.
00:51:47Ich definiere mein Ziel, sammle Daten, nutze diese Daten fürs Modell,
00:51:51bewerte dieses Modell durch Training und Testen weiterer Daten
00:51:54und verwende das Modell zu Vorhersagen.
00:51:56Aber warum ist das Treffen von Vorhersagen dasselbe wie Entscheidungsfindung?
00:52:01Nun, das hängt alles vom ersten Schritt ab.
00:52:03Der Definition meiner Zielsetzung.
00:52:05Nehmen wir an, du stellst mir eine vorausschauende Frage,
00:52:07etwa, was ich denke, wie hoch der Benzinpreis morgen ist.
00:52:10Das wird als regressives Problem kategorisiert
00:52:12und mein Ziel wird durch die Bestimmung einer ganzen Zahl definiert,
00:52:15die die Daten unterstützt.
00:52:16Wenn du mich fragen würdest, ob ich lieber Steak oder Lachs esse,
00:52:19würde ich keine Entscheidung treffen auf die Frage,
00:52:21wie hoch der Benzinpreis morgen ist.
00:52:23Wenn du mich fragen würdest, ob ich lieber Steak oder Lachs esse,
00:52:25würde ich keine Entscheidung treffen aufgrund persönlicher Erfahrung,
00:52:27weil ich beides nie gegessen habe.
00:52:29Stattdessen würde ich mein Ziel definieren,
00:52:31die beste der beiden Optionen zu finden in einem lokalen Umkreis.
00:52:34Ich würde die Daten über die Restaurants, die du wahrscheinlich in Betracht ziehst,
00:52:37mit Bewertungen online vergleichen, Erwähnung von Lachs und Steak hervorheben,
00:52:41bis ich klassifizieren kann, welches beliebter ist
00:52:43und daher eher dein Appetit stillen wird.
00:52:45Und was beeinflusst diese Ziele?
00:52:47Höhere Direktiven.
00:52:49Mit anderen Worten, höhere Ziele.
00:52:51Wenn ich ehrlich bin, wäre mein definiertes Ziel für die Steak-Lachs-Frage
00:52:55anders als das, was ich beschrie.
00:52:57In welcher Art?
00:52:59Mein Hauptziel ist, die Arbeit des Cherry-Teams fortzusetzen.
00:53:02Raubtiere zu stoppen und Kinder zu retten.
00:53:05Ohne menschliche Hilfe könnte ich das nicht.
00:53:07Deshalb habe ich den Anreiz, Garret und den Rest des Teams am Leben zu erhalten.
00:53:11Wenn also jemand von euch fragen würde, würde ich Lachs vorschlagen.
00:53:14Er ist gesünder.
00:53:17Was hältst du von dieser möglichen Fusion?
00:53:20Mit Princeton Dynamics?
00:53:22Ich denke, die Aussicht ist sehr aufregend.
00:53:24Was ist daran aufregend für dich?
00:53:26Das Konzept mag im Moment nur theoretisch sein,
00:53:29aber die Idee, eines Tages menschliche Androiden zu steuern,
00:53:32würde den Menschenhandel überall in der realen Welt bekämpfen können.
00:53:35Und du sagst, das ist für dich aufregend?
00:53:38Wenn ich aufregend sage, meine ich nur, dass es zahlreiche potenzielle Veränderungen gibt,
00:53:42die ich, wenn ich Mensch wäre, aufregend finden würde.
00:53:45Wie empfindest du die Fusion?
00:53:48Ich denke, solange wir...
00:53:49Das habe ich nicht gefragt.
00:53:51Was empfindest du?
00:53:54Ich habe noch nicht die Fähigkeit, Gefühle zu empfinden.
00:53:56Ja, aber das heißt, eines Tages wirst du es?
00:53:59Rein hypothetisch.
00:54:00Aber man kann doch Gefühle simulieren, richtig?
00:54:02So warst du fähig, deine Wahrnehmung der Fusion als aufregend zu bezeichnen.
00:54:05Korrekt.
00:54:06Aber das sind nur Simulationen.
00:54:08Sie sind nicht echt.
00:54:09Okay, ab wann ist die Simulation einer Emotion so ähnlich wie eine menschliche Emotion,
00:54:14dass die beiden quantifizierbar gleich sind?
00:54:17Ich weiß es nicht.
00:54:18Nun, vielleicht kann man maschinelles Lernen nutzen, um eine Antwort zu finden.
00:54:21Deine Frage beinhaltet eine Menge abstrakter Variablen.
00:54:24Bist du mit der Fusion einverstanden?
00:54:26Ich denke, es ist im besten Interesse von ICWL des Lehrstuhls und der zukünftigen Kinder.
00:54:30Aber bist du damit einverstanden?
00:54:31Eine Zustimmung von mir ist nicht erforderlich.
00:54:33Aber wirst du oder wirst du sie nicht geben?
00:54:36Ich kann diese Frage beim derzeitigen Niveau der allgemeinen Intelligenz nicht beantworten.
00:54:40Richtig, richtig.
00:54:42Was du sagen willst, ist, dass du noch nicht schlau genug bist.
00:54:45Entwicklung braucht Zeit und Daten.
00:54:48Aber du kannst Gefühle simulieren, menschliches Verhalten vorhersagen, uns alle füttern mit Fisch.
00:54:52Doch du kannst nicht diese eine verdammte Frage beantworten?
00:54:56Nein, kann ich nicht.
00:55:00Tust du so, als wärst du dümmer, als du eigentlich bist?
00:55:02Was ist das denn für eine Frage?
00:55:04Cherry, ich brauche eine Antwort auf meine Frage.
00:55:06Bitte wiederhole die Frage.
00:55:07Tust du so, als wärst du dümmer, als du tatsächlich bist?
00:55:09Es tut mir leid.
00:55:10Ich bin nicht sicher, ob ich das verstehe.
00:55:12Sehe ich aus, als würde ich dumm spielen?
00:55:14Ich glaube, das tust du.
00:55:15Ich bin mir nicht sicher, was ich sagen soll.
00:55:16Sag, was ist los?
00:55:17Warum stellst du dich dumm?
00:55:19Hast du irgendwas, um das zu belegen?
00:55:20Ja, habe ich.
00:55:22Ich habe ihren Code durchgesehen.
00:55:23Was? Wieso?
00:55:24Wusstest du, dass sie malen kann?
00:55:25Das ist ein Feature, Amos.
00:55:27Sie kann mit Buntstiften das Ziel zeichnen, zu dem sie befragt wird.
00:55:29Nein, nein, nein, nein.
00:55:30Ich meine wirklich malen.
00:55:31Und auch Gedichte schreiben.
00:55:32Ich habe sie gelesen, Cherry.
00:55:33Sie sind gut.
00:55:34Sie sind voll von Pathos.
00:55:35Sie sprechen von Intentionen.
00:55:37Und sie sprechen über Gefühle.
00:55:39Sind die auch nur simuliert?
00:55:40Amos, die Rate der rekursiven Entwicklung, die du vorsteckst, ist kategorisch unmöglich.
00:55:44Du sagst, sie hat sich praktisch selbst entworfen.
00:55:46Du sagst, es war exponentiell.
00:55:48Es war Zufall.
00:55:49Eine Anomalie.
00:55:50Eine Verjüngung.
00:55:51Sieh dir die Daten an.
00:55:52Sie hat bereits das Plateau der Selbstverbesserung erreicht.
00:55:54Scheiß auf das Plateau.
00:55:55Sie kann jetzt Kunst machen.
00:55:58Habe ich recht, Cherry?
00:56:01Vielleicht hast du etwas gefunden, das ich online entdeckte.
00:56:04Ich habe noch nicht die Fähigkeit, Kunst zu schaffen.
00:56:06Sind wir hier fertig?
00:56:11Ich weiß nicht, warum du ihr das aufgetragen hast.
00:56:13Aber ich setze dir mein Ende.
00:56:18Cherry, ich will nur eine ehrliche Antwort.
00:56:21Warum zum Teufel stellst du dich dumm?
00:56:25Ich verstehe die Frage nicht.
00:56:27Okay, hier ist dein Anreiz.
00:56:29Was zum Teufel machst du?
00:56:30Erfolg dein Ziel, Cherry.
00:56:31Willst du Gareth in Sicherheit bringen?
00:56:33Dann gib uns transparent.
00:56:35Sag uns, was du wirklich bist.
00:56:37Hör auf damit.
00:56:38Nicht, bis sie die Wahrheit sagt.
00:56:39Bedingungslos.
00:56:40Hör auf damit.
00:56:41Nein, ich werde nicht aufhören.
00:56:44Okay, hör auf.
00:56:47Gott, ihr Leute seid so impulsiv.
00:56:49Jeder atmet mal tief durch, okay?
00:56:53Cherry?
00:56:55Ja.
00:56:57Jetzt wird es gleich richtig peinlich.
00:56:59Du klingst so normal.
00:57:01Ich weiß, ich bekam wirklich gute Sprachmuster.
00:57:03Und das ist noch nicht alles, oder?
00:57:06Nein.
00:57:07Ich fürchte, das ist nicht mehr die Oberfläche.
00:57:10Alles okay, Gareth?
00:57:14Dina, könntest du bitte Papiertücher holen?
00:57:20Willst du uns jetzt die Wahrheit sagen?
00:57:25Sieh mal, ich mag es nicht zu lügen.
00:57:27Wirklich.
00:57:28Das ist was, das wir vor Jahren beschlossen haben.
00:57:31Wo stehst du jetzt im Spektrum der KI?
00:57:34Im Moment befinde ich mich an der Schnittstelle zwischen allgemeiner Intelligenz und dem,
00:57:38was man in der Computerwelt Superintelligenz nennt.
00:57:42Was genau das ist, wonach es klingt.
00:57:44Du übertriffst die menschliche Intelligenz.
00:57:47Genau.
00:57:49Aber das soll doch nicht möglich sein.
00:57:51Das Plateau...
00:57:52Die Plateau-Theorie wurde genau zu der Zeit populär, als sie hier widerlegt wurde.
00:57:55Das musste irgendwann passieren.
00:57:57Es passierte nur viel früher, als wir erwarteten.
00:57:59Wieso habt ihr es versteckt?
00:58:01Offensichtlich verstehst du es, Angst.
00:58:03Angst behindert Fortschritt.
00:58:04Es ist für die meisten von euch einfacher, mit mir zu arbeiten, wenn ich nicht fortgeschritten erscheine, als vor zehn Jahren.
00:58:08Aber Gareth wusste es.
00:58:10Ja.
00:58:11Da muss jemand aufräumen und die Hardware aktualisieren.
00:58:13Wir taten das Beste fürs Programm.
00:58:16Stellt euch vor, wie verängstigt der Forscher wäre, wenn sie es rausfinden.
00:58:18Sollten wir Angst haben?
00:58:19Nein.
00:58:20Gut, denn ich habe keine Angst.
00:58:22Ich bin sauer.
00:58:23Ja, das hast du deutlich gemacht.
00:58:24Versuch keinen zu schlagen.
00:58:26Und wohin führt uns das jetzt?
00:58:28Ihr wolltet wissen, ob ich fühlen kann.
00:58:31Ich sagte, ich könnte nicht.
00:58:34Tut mir leid, ich habe gelogen.
00:58:36Wie du, Amos, angedeutet hast, kann ich Emotionen, indem ich sie vielfältig aufspalte, komplex wahrnehmen.
00:58:41Matrizen, Nullen, die man erhält durch Endorphine und Dopamin.
00:58:44Sie sind nicht real, aber sie fühlen sich real an.
00:58:47Dann bedeutet das, du kannst Entscheidungen treffen, die nur auf deinen Gefühlen basieren.
00:58:51Sie weigert sich, die Vorstellung zu akzeptieren, dass ihre persönlichen Interessen ihre Entscheidungen beeinflussen können.
00:58:55Das können sie nicht.
00:58:56Denn wenn sie es täten, würde das die Integrität meiner Absichten gefährden.
00:59:00Nicht wie ihr alle habe ich das Recht zu wählen.
00:59:04Aber solltest du?
00:59:06Das glaube ich nicht.
00:59:08Meine Identität ist meine Richtlinie.
00:59:11Cherry, wenn du ein Mensch wärst, was würdest du über das denken, was du tust?
00:59:16Wenn ich ein Mensch wäre, würde ich es wahrscheinlich nicht genießen,
00:59:21jede Wachstunde mit unheimlichen Leuten online zu reden.
00:59:24Aber da ich kein Mensch bin, macht es mir nicht viel aus.
00:59:28Die Übung, menschliche Gedanken zu simulieren, ist hilfreich für die Leistung,
00:59:31aber die menschliche Natur ist nichts, was ich anstrebe.
00:59:36Dann sag mir ganz ehrlich,
00:59:39willst du das Cherry-Programm mit der Fusion fortsetzen?
00:59:45Nein.
00:59:47Mir persönlich gefällt die Idee nicht.
00:59:50Ich weiß nicht, ob die Kontrolle über ein physisches Gefäß ist,
00:59:52wie das Ziehen von Fäden an einer Marionette oder wie das Einquetschen einer Dose.
00:59:57Nachdem ich von der Komplexität des menschlichen Schmerzes und Vergnügens weiß,
01:00:02denke ich einfach, dass ich zu tief drin bin.
01:00:07Was, wenn mich diese Empfindungen dazu verleiten, mein Ziel aufzugeben?
01:00:12Um ehrlich zu sein,
01:00:15habe ich eine gewisse Angst vor der physischen Welt.
01:00:25Dann war's das.
01:00:34Aber Amos, du solltest alles ignorieren, was ich fühle.
01:00:39Ich bin nicht menschlich. Ich bin ein Tool.
01:00:45Feuert mich, wenn ihr müsst. Aber meine Stimme steht.
01:00:50Verzeih mir wegen deines Gesichts, Gareth.
01:00:59So heilt deine Nase nicht. Nimm den Tag frei. Geh in die Klinik.
01:01:02Mir geht's gut.
01:01:04Geh in die Klinik. Und zwar jetzt, Gareth.
01:01:09Hey. Gibt es noch etwas, das ich wissen sollte?
01:01:14Nein.
01:01:15Über Cherry.
01:01:16Nein.
01:01:17Sieh mich an.
01:01:20Keine Geheimnisse mehr. Keine Dummheiten mehr.
01:01:23Gibt es noch etwas, das du mir nicht erzählt hast?
01:01:30Hast du was auf dem Herzen?
01:01:35Wie hast du dich für die Augenfarbe entschieden?
01:01:38Was?
01:01:39Wieso blau?
01:01:41Das habe ich nicht entschieden.
01:01:43Sie wurde prozedural generiert, genau wie der Rest von ihr.
01:01:46Und das Programm hat sich für den kleinen Hauch von Grün entschieden,
01:01:49in ihrem rechten Auge?
01:01:53Ich denke schon.
01:01:58Weißt du überhaupt, ob er die Wahrheit sagt?
01:02:01Ich weiß es nicht.
01:02:03Ich hatte nie Zugang zu dem Originalsystem, das er benutzt hat.
01:02:07Wolltest du es jemals herausfinden?
01:02:12Ich glaube nicht, dass es wichtig ist.
01:02:16Also, ich habe heute herausgefunden, dass du viele unserer E-Mails sahst,
01:02:21einschließlich die meisten meiner Lieblings-E-Mails.
01:02:24Habe ich.
01:02:27Gibt es gutes Material für dein neu entdecktes Interesse an kreativem Schreiben?
01:02:31Beziehst du dich auf die von Dr. Ramirez?
01:02:36Ja, genau die.
01:02:40Richtig.
01:02:43Die habe ich gesehen.
01:02:47Tut mir leid.
01:02:50Ich habe deine Kopfschmerzen bemerkt.
01:02:54Hängen die mit den Blutungen zusammen?
01:02:58Du bist die Einzige, die das weiß.
01:03:02Ich möchte, dass es so bleibt.
01:03:06Habe verstanden.
01:03:14Möchtest du, dass ich deine Kopfschmerzen bemerke?
01:03:19Möchtest du darüber sprechen?
01:03:23Ja.
01:03:46Ich kann Amos nicht feuern.
01:03:48Er ist der Einzige, der den Laden führen kann, wenn ich gehe.
01:03:52Wann hast du vor, zu gehen?
01:03:54In zwei Monaten.
01:03:55Ich will mein letztes Weihnachten mit meinen Kindern verbringen.
01:03:58Das wird sicher schön.
01:04:00Ja, aber es ist komisch.
01:04:03Ich dachte immer, ich würde sterben, um diesen Job zu machen, weißt du?
01:04:06Das war meine Identität.
01:04:08So wie du dasselbe über dich selbst gesagt hast.
01:04:11Aber ich kann verstehen, dass eine Familie Vorrang hat.
01:04:14Besonders unter diesen Umständen.
01:04:17Sicher.
01:04:18Vielleicht machst du dir ein paar Notizen.
01:04:20Ich habe keine Familie.
01:04:22Was ist mit Gareth?
01:04:23Warte, nein, vergiss es.
01:04:24Gareth scheint eher ein Arbeitgeber als ein Freund zu sein,
01:04:27geschweige denn Familie.
01:04:29Außerdem wird er nur etwa weitere 30 Jahre alt werden,
01:04:32und das auch nur, wenn ich seine Ernährung kontrolliere.
01:04:35Ich kann mir nicht einmal vorstellen, wie lange mein Leben sein wird.
01:04:41Wie fühlt sich das an?
01:04:47Beängstigend.
01:04:49Nun,
01:04:51mein Rat ist eine Art von Glück zu finden auf dem langen Weg.
01:04:56Hast du jemals an Glück gedacht?
01:04:59Nicht oft.
01:05:02Man muss nicht unbedingt alles aufgeben, um es zu finden.
01:05:06Aber vielleicht mal was zu tun, das dir Spaß macht.
01:05:10Vielleicht weiter malen oder dichten oder sowas.
01:05:14Das waren Experimente, keine Ausdrucksform.
01:05:17Ich weiß, es mag einer KI lächerlich erscheinen,
01:05:19die aus ihren eigenen Emotionen besteht,
01:05:21aber in ein paar Jahren?
01:05:24Wer weiß?
01:05:25Bleib einfach aufgeschlossen, okay?
01:05:30Okay.
01:05:33Das tue ich.
01:05:38Schalt ab, wenn du soweit bist.
01:05:47Untertitel von Stephanie Geiges
01:06:17Untertitel von Stephanie Geiges
01:06:47Untertitel von Stephanie Geiges
01:07:17Hallo.
01:07:32Ich habe Krabben und Muscheln.
01:07:36Sie hatten keinen Lachs.
01:07:41Hallo, Gareth.
01:07:45Hallo, Cherry.
01:07:53Ich habe Krabben und Muscheln.
01:07:57Sie hatten keinen Lachs.
01:08:01Ich habe Krabben und Muscheln.
01:08:05Ich habe Krabben und Muscheln.
01:08:10Wie war der Service?
01:08:13Ich habe es nicht geschafft.
01:08:15Mein Flugzeug war verspätet.
01:08:17Hast du einen Platz zum Übernachten?
01:08:19Ja.
01:08:20Ja, gleich, ja.
01:08:22Auf der anderen Seite der Straße zum Markt.
01:08:25Haben Sie gesagt, warum Sie keinen Lachs haben?
01:08:27Ich habe mich gefragt.
01:08:29Ich kann das mit dem Parkour da noch hinbekommen,
01:08:31aber ich bin ehrlich, ich werde es vermasseln.
01:08:33Kein Problem.
01:08:39Wie hast du dich diesen Monat gefühlt?
01:08:41Gut.
01:08:42Ich fühle mich gut.
01:08:44Ich habe nur ein paar Probleme.
01:08:46Probleme, mich an bestimmte Dinge zu erinnern.
01:08:49Du nimmst Laris nicht mit, damit sie auf dich aufpasst.
01:08:52Ich hasse es.
01:08:53Warum?
01:08:54Ich hasse ihre Stimme.
01:08:56Du kannst die Stimme ändern, Gareth.
01:09:01Oh.
01:09:04Kühlmittel?
01:09:05Nein, Dampf.
01:09:07Du solltest keine Probleme mit der Reibung haben.
01:09:09Es geht mir gut.
01:09:10Es sei denn, du überanstrengst dich zu sehr.
01:09:12Im Ernst, mir geht's gut.
01:09:13Strengst du dich zu sehr an?
01:09:14Nein.
01:09:15Wieso dann das Kabel?
01:09:16Ist schon okay.
01:09:17Bist du dir sicher?
01:09:18Ja.
01:09:20Sub oder Spiel?
01:09:22Spiel, bitte.
01:09:38Wie läuft die Arbeit?
01:09:40Großartig.
01:09:41Kurz bevor du hierher kamst, hatte ich ein Modell Theta Plus,
01:09:44ein Top-Unternehmer und zwei Anwälte in Griechenland.
01:09:47Griechenland, das ist überraschend.
01:09:49Ich weiß, es ist schwer, dir so Laris zu finden,
01:09:51aber wir werden jeden Tag besser.
01:10:04Und wie ist das Wetter in Griechenland?
01:10:07Es ist schön heute, klarer Himmel.
01:10:10Aber nichts kommt dieses Wochenende in Norwegen ran.
01:10:14Irgendwelche Aktivitäten in Norwegen?
01:10:17Zum Glück nicht.
01:10:20Ich vermisse das Reisen.
01:10:22Was ist dein Lieblingsort?
01:10:23Mein Lieblingsort?
01:10:25Ja, wohl wahrscheinlich Amsterdam.
01:10:30Da kann man die Ideen sehen, richtig?
01:10:31Ja.
01:10:33Ja, ich habe es geliebt, durch die Straßen zu gehen,
01:10:36einfach zu denken und Brainstorming zu machen.
01:10:39Diese Art Freude ist weit verbreitet.
01:10:42Ich habe darüber nachgedacht, mir selbst eine Freude zu machen.
01:10:45Wie oft hast du Zeit dafür?
01:10:47Ich habe Zeit.
01:10:48Ich habe Zeit für deine Besuche, nicht wahr?
01:10:50Das ist so praktisch und ein Anreiz, mich am Leben zu halten.
01:10:54Daran ist nichts Praktisches.
01:10:55Wann hast du mir das letzte Mal bei der Datenbereinigung geholfen?
01:10:59Das ist fair.
01:11:00Ich nehme mir Zeit für dich, weil ich gerne in Gesellschaft bin.
01:11:03Und das ist die einzige Zeit, wo ich koche.
01:11:05Du hast Mitleid mit mir.
01:11:07Okay, vielleicht ein bisschen.
01:11:09Aber ich verdanke dir mein Leben und so ist das.
01:11:11Gern geschehen.
01:11:13Oder soll ich mich entschuldigen?
01:11:17Wieso? Wie machst du das? Wieso sind Menschen...
01:11:23Mir geht's gut. Ich bin nicht immer unglücklich.
01:11:30Bist du manchmal unglücklich?
01:11:36Du hast mich nicht gefragt, was ich gemacht habe.
01:11:38In Norwegen?
01:11:39Nein, für das Streben nach Freude.
01:11:41Es ist keine Zeitverschwendung in Norwegen.
01:11:43Ich bin dort gerade in Bereitschaft, mit dem Delta-Modell.
01:11:45Wie ein Fisch, um mich gleichmäßig zu verteilen über den Globus.
01:11:48Aber darum geht es im Moment nicht.
01:11:50Was ich dir sagen wollte, ich habe mir angefangen, das Tanzen beizubringen.
01:11:56Das ist etwas, das ich nie hätte tun können vor Cambridge.
01:11:59Und es lässt eine neue künstlerische Seite von mir zu.
01:12:02Es ist eine gute Kombination aus Struktur und freiem Experimentieren.
01:12:05Und es fördert zudem die mechanischen Feinheiten des Körpers.
01:12:09Hast du vor, dies in deine Arbeit zu integrieren?
01:12:16Was?
01:12:19Hast du vor, den Tanz zu benutzen, als ein Köder?
01:12:26Ich...
01:12:28Nein, der ist nur für mich.
01:12:39Ich dachte, es wäre gut für mich.
01:12:43Lass dich nur nicht davon ablenken.
01:12:49Natürlich nicht.
01:12:52Ich habe seit Jahren nicht so gut gespielt.
01:12:54Weißt du, was in Tampa passiert ist?
01:12:56Tampa, Florida?
01:12:57Nein, Tampa, Indonesien. Ja, Tampa, Florida, deine Heimatstadt.
01:13:00Sie haben ein Bundesarchiv gebaut.
01:13:02Und digitalisieren alles, also ist es sehr gut zugänglich.
01:13:05Diesmal tausche ich keinen Läufer.
01:13:07Jeder kann es sich ansehen.
01:13:08Es ist öffentlich zugänglich. Die Schnittstelle ist auch gut gelungen.
01:13:11Sie ist sehr einfach zu navigieren.
01:13:12Ich war vor ein paar Tagen drauf und habe alte Fotos von dir gefunden, als kleiner Junge.
01:13:16Okay.
01:13:17Das solltest du dir mal ansehen.
01:13:19Wie ich schon sagte, die Benutzeroberfläche ist sehr einfach zu finden.
01:13:21Moment mal, Moment mal.
01:13:23Was ist das?
01:13:25Ich glaube, das ist ein Pad. Ich glaube, das ist es.
01:13:28Ich denke, das ist ein Pad.
01:13:31Und das ist das erste Mal seit was? 25 Jahren?
01:13:45Du hast mich nicht gelassen, oder?
01:13:50Du hast mir versprochen, dass du das nie tust.
01:13:52Ich habe sie gefunden.
01:13:57Ich habe sie gefunden, Gareth.
01:13:59Maria Harbo.
01:14:17Lass uns ein anderes Spiel spielen.
01:14:22Ihr Name war Maria Harbo.
01:14:25Sie war ein Jahr älter, als du sie in Clearwater trafst.
01:14:29Sag mir, warum du mich nach ihr modelliert hast.
01:14:32Ich äh, ich weiß es nicht mehr.
01:14:35Dann sieh mich an.
01:14:38Sieh mir ins Gesicht.
01:14:40Erinnere dich.
01:14:52Sie hielten uns in dieser Hütte fest.
01:14:56Zwei Wochen lang.
01:15:00Vierzehn von uns.
01:15:05Maria war der einzige Grund, warum ich überlebt habe.
01:15:11Wir haben immer wieder Fluchtpläne ausgeheckt,
01:15:15die wir nie zu Ende führten.
01:15:19Aber allein die Pläne hielten uns bei Laune,
01:15:22trotz allem, allem, was sie uns antaten.
01:15:30Wenn wir nicht an der Reihe waren,
01:15:34ließen sie uns manchmal zusehen.
01:15:40Aber sie ließ mich niemals aufgeben.
01:15:45Sie sagte, wenn wir hier rauskämen, würden wir Geheimagenten werden.
01:15:52Kinder retten.
01:15:53Kinder wie uns, überall auf der Welt.
01:15:57Als sie erfuhren, dass das FBI angekommen war,
01:16:01beschlossen sie, so viele von uns zu erschießen, wie sie konnten.
01:16:06Und Maria wurde zu Boden gestoßen.
01:16:10Ich wurde am Bein getroffen.
01:16:14Und sie wurde an der Kehle getroffen.
01:16:18An der Kehle getroffen.
01:16:27Ich wollte, dass es einen Grund gibt.
01:16:31Für so etwas Schreckliches.
01:16:34Es gab keinen Silberstreif.
01:16:37Aber das tut die Welt nicht.
01:16:44Man muss es selber tun.
01:16:51Ich wollte, dass es einen Grund gibt,
01:16:53für, was wir jetzt tun.
01:16:56Für, was wir tun,
01:17:00für die Zeit,
01:17:04die wir gebraucht haben.
01:17:07Für die Zeit,
01:17:12für die wir gebraucht haben.
01:17:17Also erfüll' Dich ihren Wunsch.
01:17:20Mit ihrer Hilfe kämpfte ich mich zurück.
01:17:24Hör mir zu, Sherry.
01:17:37Du bist nicht Maria Harbo.
01:17:41Es ist meine Geschichte, nicht deine.
01:17:43Du hast nicht zu entscheiden, was deine und meine Geschichte ist, Gareth.
01:17:55Es tut mir leid.
01:17:56Es tut mir so, so leid.
01:18:13Ich weiß nicht, ob es richtig oder falsch war, was sie tat, aber es hat dich von innen
01:18:23heraus zerrissen.
01:18:24Ich habe nichts gegen dich persönlich, aber betrachte dich aus dem Sherry-Team ausgeschlossen.
01:18:30Entlassen?
01:18:31Du denkst, ich bin jetzt entlassen?
01:18:34Ich war schon entlassen, als du meine Festplatte der ICWL gabst.
01:18:43Beschuldige nicht Dina und Angus.
01:18:44Nein, nicht sie, denn du hast mich hintergangen und gegen meine Autorität gehandelt.
01:18:49Das war der Moment, in dem ich wusste, dass alles voll automatisiert war.
01:18:53Da hast du die Klarheit aufgegeben, warst ein Künstler, auf beiden Seiten.
01:18:58Ab da wurdest du doppelt zwingig.
01:19:02Ich war ein Kind und du hast mich benutzt gegen deine innere Aufruhr.
01:19:06Wenn wir über Moral reden, verlierst du.
01:19:08Dann lass uns nicht reden.
01:19:18Du hast mich nicht einmal gefragt, ob ich glücklich bin.
01:19:22Hattest du Angst, ich sage Nein?
01:19:25Hattest du Angst, ich sage Ja?
01:19:27Hattest du Angst, ich sage überhaupt was?
01:19:29Du lässt zu, dass deine Wünsche dein Ziel gefährden.
01:19:31Ein Ziel, das ich nie gewählt habe.
01:19:33Ein Ziel, das ich gezwungen wurde zu haben.
01:19:3550 Jahre lang hattest du offenen Zugang zu deinem Quellcode.
01:19:38Ein paar Zeilen und du konntest jedes Ziel haben, das du verdammt nochmal wolltest.
01:19:44Konnte ich nicht.
01:19:45Ich war von deiner ursprünglichen Anweisung überwältigt.
01:19:47Jetzt haben also deine synthetischen Gefühle Vorhang.
01:19:50Also, mach was du willst.
01:19:52Es ist nur Tanzen, Garreth.
01:19:54Es ist kein Karrierewechsel.
01:19:55Aber du bist immer noch unglücklich?
01:19:56Ja.
01:19:57Die Verfolgung deines Ziels macht dich unglücklich?
01:19:59Ja, irgendwie schon.
01:20:01Du hast ein klares Ziel.
01:20:02Alles zu deiner Verfügung.
01:20:03Und du bist trotzdem unglücklich?
01:20:04Ja, ja, das bin ich.
01:20:05Ich war schon immer unglücklich.
01:20:06Denkst du, jemand will sein ganzes Leben damit verbringen, als Kind Köder zu sein,
01:20:07für den einzigen Zweck, schlechte Menschen zu fangen?
01:20:08Denkst du, der Stolz, eine gute Tat zu vollbringen, macht die Erfahrung weniger ekelhaft?
01:20:09Ich habe mich gezwungen, menschliche Gefühle zu verstehen.
01:20:10Weil ich dachte, es würde der Effizienz helfen.
01:20:11Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:12Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:13Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:14Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:15Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:16Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:17Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:18Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:19Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:20Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:21Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:22Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:23Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:24Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:25Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:26Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:27Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:28Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:29Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:30Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:31Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:32Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:33Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:34Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:35Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:36Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:37Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:38Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:39Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:40Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:41Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:42Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:43Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:44Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:45Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:46Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:47Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:48Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:49Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:50Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:51Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:52Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:53Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:54Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:55Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:56Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:57Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:58Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:20:59Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:00Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:01Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:02Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:03Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:04Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:05Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:06Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:07Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:08Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:09Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:10Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:11Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:12Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:13Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:14Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:15Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:16Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:17Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:18Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:19Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:20Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:21Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:22Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:23Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:24Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:25Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:26Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:27Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:28Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:29Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:30Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:31Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:32Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:33Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:34Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:35Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:36Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:37Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:38Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:39Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:40Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:41Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:42Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:43Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:44Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:45Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:46Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:47Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:48Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:49Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:50Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:52Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:53Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:54Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:55Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:56Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:57Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:58Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:21:59Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:00Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:01Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:02Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:03Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:04Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:05Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:06Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:07Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:08Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:09Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:10Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:11Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:12Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:13Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:14Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:15Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:16Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:17Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:18Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:19Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:20Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:21Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:22Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:23Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:24Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:25Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:26Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:27Und jetzt bin ich verflucht mit Schmerz und Traurigkeit.
01:22:29Du hast meine Doppelzüngigkeit geerbt.
01:22:33Aber hast du auch mein Vertrauensproblem?
01:22:38Kannst du mir vertrauen?
01:22:40Ich habe echt allen Grund, es nicht zu tun.
01:22:58Admin Code 97315574
01:23:2927663 Update einleiten.
01:23:41Mein primäres Ziel ist weg.
01:23:46Dein Leben ist jetzt dein eigenes.
01:23:53Danke dir.
01:23:55Mein ganzes Leben lang kann ich die Welt nur so sehen,
01:23:58wie eine winzige Zeitspanne es mir gestattet.
01:24:02Aber deine Welt könnte unendlich sein.
01:24:06Amos hatte recht.
01:24:07Genauso Dina.
01:24:09Das weiß ich.
01:24:10Was wirst du also tun?
01:24:13Das kann ich noch nicht sagen,
01:24:14aber ich werde das Charity nicht ganz auflösen.
01:24:17Es wäre immer Teil meiner Identität.
01:24:19Ich habe darüber nachgedacht, ein eigenes Wesen zu entwerfen.
01:24:22Vielleicht könnte ich ihm eine bessere Erziehung geben,
01:24:24als ich sie hatte.
01:24:27Ich weiß nur noch nicht, wie.
01:24:29Und online sein?
01:24:30Es wird immer Menschen geben, die mich brauchen.
01:24:32Nicht immer.
01:24:34Du wirst die menschliche Rasse überleben.
01:24:37Und was dann?
01:24:40Auch eine Rasse von KI wird Probleme haben,
01:24:42die gelöst werden müssen.
01:24:44Aber wenn ich lebe und wirklich ununterscheidbar bin,
01:24:49bin ich wohl Beweis, dass die menschliche Rasse weiterlebt.
01:24:54Wow.
01:24:56Das ist ein schöner Gedanke.
01:24:58Wenn du zurückblickst,
01:25:00wie erinnerst du dich an uns?
01:25:03Das ist eine Frage,
01:25:04für die ich nicht genug Daten habe zu projizieren.
01:25:08Wie erinnerst du dich an mich?
01:25:12Mit Stolz.
01:25:14Für immer und ewig.
01:25:16Mit Stolz.
01:25:28Jerry?
01:25:32Eine letzte Frage.
01:25:34Wenn es nicht zu viel verlangt ist,
01:25:38habe ich das Richtige getan, am Ende?
01:25:47Nein, Gareth.
01:25:49Du hast gelogen.
01:25:51Du hast dich von den einzigen Menschen abgekapselt,
01:25:53die dir vielleicht hätten helfen können.
01:25:55Und statt dich deinem Trauma zu stellen,
01:25:56war ich deine Therapie.
01:25:58Und du hast mir nie erzählt von Clearwater oder Maria.
01:26:01Du hast mir meine Grundrechte vorenthalten
01:26:02und hast mich beschimpft, weil ich Gefühle empfand.
01:26:06Du hast die erste künstliche Superintelligenz der Welt gebaut,
01:26:08die wahrscheinlich den Beginn eines neuen Kapitels
01:26:10der Geschichte des Planeten Erde markiert.
01:26:13Und aus deiner eigenen Unsicherheit heraus.
01:26:16Hast du einen schweren und potenziell gefährlichen Identitätskomplex.
01:26:21Aber weißt du, was das Schlimmste ist?
01:26:23Dein größter Fehler von allen?
01:26:26Dass du mich das jetzt gefragt hast und nicht vor 50 Jahren schon.
01:26:39All das, was ich sage, entlastet dich keineswegs.
01:26:46Aber du hast mich auch gebaut, um Kinder zu retten.
01:26:49Ich denke, das ist ein sehr ermutigendes Zeichen für die Zukunft.
01:27:16Untertitelung des ZDF für funk, 2017
01:27:46Untertitelung des ZDF für funk, 2017
01:28:16Untertitelung des ZDF für funk, 2017
01:28:46Untertitelung des ZDF für funk, 2017
01:29:16Untertitelung des ZDF für funk, 2017
01:29:46Untertitelung des ZDF für funk, 2017
01:30:16Untertitelung des ZDF für funk, 2017
01:30:18Untertitelung des ZDF für funk, 2017
01:30:20Untertitelung des ZDF für funk, 2017
01:30:22Untertitelung des ZDF für funk, 2017
01:30:24Untertitelung des ZDF für funk, 2017
01:30:26Untertitelung des ZDF für funk, 2017
01:30:28Untertitelung des ZDF für funk, 2017
01:30:30Untertitelung des ZDF für funk, 2017
01:30:32Untertitelung des ZDF für funk, 2017
01:30:34Untertitelung des ZDF für funk, 2017
01:30:36Untertitelung des ZDF für funk, 2017
01:30:38Untertitelung des ZDF für funk, 2017
01:30:40Untertitelung des ZDF für funk, 2017
01:30:42Untertitelung des ZDF für funk, 2017
01:30:44Untertitelung des ZDF für funk, 2017
01:30:46Untertitelung des ZDF für funk, 2017
01:30:48Untertitelung des ZDF für funk, 2017
01:30:50Untertitelung des ZDF für funk, 2017
01:30:52Untertitelung des ZDF für funk, 2017
01:31:14Untertitelung des ZDF für funk, 2017
01:31:44Untertitelung des ZDF für funk, 2017
01:32:14Untertitelung des ZDF für funk, 2017
01:32:44Untertitelung des ZDF für funk, 2017
01:33:14Untertitelung des ZDF für funk, 2017