So viel neue Grafik-Hardware wie 2025 gab es lange nicht mehr – und die ist erst der Anfang. Neben neuen Konsolen und Grafikkarten tut sich auch bei der Software unglaublich viel. Wir fassen für euch zusammen, welche Neuerungen ihr bei Raytracing, DLSS, Unreal Engine und so viel mehr erwarten könnt.
Category
🎮️
VideospieleTranskript
00:00Herzlich willkommen zu unserem Deep Dive Talk zu Spielegrafiken der Zukunft 2024 und
00:18die Folgejahre werden, glaube ich, ziemlich, ziemlich spannend in dem Bereich.
00:23Warum?
00:24Nicht nur die Hardware entwickelt sich weiter, sondern natürlich auch die Software.
00:28Und wir wollen heute so ein bisschen darüber sprechen, was uns da so erwartet und deshalb
00:32habe ich zwei fantastische Gäste an meiner Seite.
00:34Einmal Alana.
00:35Hi.
00:36Hi.
00:37Und Yusuf.
00:38Herzlich willkommen.
00:39Ich schon wieder.
00:40Du schon wieder.
00:41Du warst gerade auch schon im letzten Slot drin, ne?
00:42Den Platz kann ich verlassen.
00:44Ja.
00:45Sehr gut.
00:46So, ihr zwei.
00:47Warum wird denn 2024 ein starkes Jahr für Spielegrafiken?
00:52Pass auf, die einfache Antwort ist, weil wir eine Menge neuer Hardware bekommen.
00:58Also, wer die letzten Tage schon aufgepasst hat, der weiß natürlich, die PS5 Pro steht
01:05jetzt in den Startlöchern, das heißt, da werden wir auf jeden Fall nochmal einen Leistungssprung
01:10sehen, schönere Grafik sehen, mehr Performance sehen.
01:12Wie groß es tatsächlich wird, haben wir beziehungsweise seit Jan schon eine Stunde
01:17drüber geredet und seine Erwartungshaltung der Kunden getan, müssen wir noch gucken,
01:21was tatsächlich dann bei rumkommt, aber es ist nicht die einzige Konsole, die wir nächstes
01:25Jahr erwarten, sondern wahrscheinlich, was heißt wahrscheinlich, 95 Prozent, 99 Prozent,
01:32vielleicht sogar 100 Prozent sehen wir nächstes Jahr die Switch 2.
01:35Oh, okay.
01:36Und das ist natürlich gerade dahingehend spannend, weil die Switch 2 einfach als Konsole
01:42schon zum Release nicht auf dem Niveau von der Xbox oder der Playstation war, sondern
01:46eben familienfreundlich und so weiter, da gerne Abstriche gemacht hat und jetzt halt
01:51schon, was, sieben Jahre alt ist, nächstes Jahr dann acht Jahre?
01:54Ja, ich glaube sogar, so acht, ja.
01:57Also halt auch so ein Bottleneck ist, also wenn man sagt, man möchte sein Spiel auch
02:01auf die Switch bringen, dann muss man das ja irgendwie im Hinterkopf halten, das heißt,
02:06wir sehen da zumindest bei den Konsolen schon mal, dass was Neues dazu kommt und auch bei
02:12den Grafikkarten wird sich nächstes Jahr auch was tun.
02:15Mindestens ein bisschen was tun.
02:17Nein, es kommt ja zur CES, soll jetzt erst mal Anfang des Jahres die nächste Nvidia-Generation
02:23vorgestellt werden, heißt es, wir wissen es auch noch nicht, wir hoffen auch darauf,
02:29dass dann die RTX 5090 kommt, dass dann die RTX 5080 kommt, dass da wieder die neuen Höhen
02:35der PC-Grafik erreicht werden und irgendwann im ersten, zweiten Quartal wollte auch noch
02:40AMD sich mal wieder mit ein paar neuen Grafikkarten melden, wo es dann auch wieder Richtung Ardena
02:464 geht, wo es Richtung neues Upscaling geht und so weiter.
02:50Das ist, glaube ich, aber alles schon ein bisschen Vorkniff auf, was wir alles noch
02:53zu besprechen haben.
02:54Ja, wir haben heute ein paar Sachen, über die wir reden wollen, ist ja auch ein großes
02:58Thema einfach, wo man sehr tief reingehen kann, sowohl was Hardware als auch Software
03:02angeht und meine nächste Frage wäre, warum wird denn gerade Software für so Hardware-Hersteller
03:09eigentlich immer wichtiger?
03:10Da müssen wir tatsächlich das aus zwei verschiedenen Richtungen betrachten.
03:16Das Erste ist, wir hatten ja lange Jahre, war bei Grafikkarten im Endeffekt das Wichtige,
03:21wie viel mehr Rasterleistung bekommt man jedes Jahr?
03:24Also jetzt ohne irgendwie KI-Upscaling und so weiter, wie viel schöner ist es einfach
03:30mit der neuen Generation, wie viel mehr ist möglich und da sehen wir einfach jetzt schon
03:35seit ein paar Jahren, das wird wahrscheinlich in Zukunft auch noch stärker werden, dass
03:39da einfach nicht mehr so viel rauszuholen ist von einer Generation zur nächsten.
03:44Also diese gigantischen, reinen Rastersprünge, die haben wir nicht mehr.
03:48Das bedeutet, man muss irgendwie andere Möglichkeiten finden, also wenn man sein Produkt verkaufen
03:52will und sagen will, hey, unsere neue Generation, die ist jetzt der geile neue Scheiß, muss
03:57man natürlich auch entsprechend liefern.
03:59Das heißt, die Lösung, die da die Software-Hersteller, die Hardware-Hersteller vor allem Nvidia für
04:03sich gefunden haben, ist eben die Software und dann die andere Seite der Medaille ist,
04:11dass sich mit Software einfach auch mehr Geld verdienen lässt.
04:14Also da gibt es tatsächlich, das ist auch jetzt nicht irgendwie so eine Verschwörungstheorie.
04:20Jensen Huang, also der Chef von Nvidia, hat sich da auch schon zu geäußert und hat das
04:26so ein bisschen verglichen wie Disketten und CDs mit Windows.
04:30Also es ist ja, wenn man eine Diskette kauft damals oder eine CD auch damals, heutzutage
04:36kauft man keines von beiden mehr, deswegen klingt der Vergleich ein bisschen, aber daran
04:40wird es, glaube ich, ganz, ganz deutlich und da drauf ist Windows, dann zahlt man ja
04:45nicht den Preis der CD oder den Preis der Diskette, sondern man zahlt im Endeffekt die
04:49ganze Entwicklung, die in diese Software reingelaufen ist, in das Betriebssystem und genau so sieht
04:55Jensen Huang beziehungsweise Nvidia heute Grafikkarten.
04:58Das heißt, die Grafikkarte ist eigentlich nur noch das Vehikel, auf dem die ganzen Softwarelösungen,
05:04sprich KI-Lösungen laufen, die Nvidia im Hintergrund entwickelt hat, mit denen sie
05:09dann natürlich auch rechtfertigen, dass die Preise für Grafikkarten entsprechend
05:13hoch sind.
05:14Heißt leider auch, wer jetzt gehofft hat, nächste Nvidia-Generation gehen die Preise
05:19wieder runter, ich glaube, das dürfen wir uns abschminken, weil man zahlt eben nicht
05:23mehr für die Hardware, sondern für die ganze Software, die da drauf ist.
05:26Ich glaube, hier schon im Chat wird schon ein bisschen diskutiert über die ganzen Preise,
05:33über die Preise für Hardware und für Grafikkarten gerade, ist nicht billig.
05:40Nein, es wird auch nicht billiger.
05:43Ja, leider.
05:44Wäre ich Nvidia, ich würde 3.000 für die 5090 nehmen, die Leute kaufen das ja.
05:49Echt?
05:50Klar.
05:51Wäre ich Nvidia, ich würde es tun, aber auch auf die Gefahr, dass ich mich jetzt unbeliebt
05:55mache.
05:56Aber es gibt für den Grafikkartenhersteller an sich, gibt es erstmal keinen Grund von
06:00den Preisen, die man bisher gefahren ist.
06:02Abzumücken.
06:03Was erwartet uns denn vielleicht bei so Upscaling-Technologien gerade, also ich schiehe da jetzt so ein
06:10bisschen auf DLSS 4 und FSR 4, beide mit 4, beide mit S drin, was kommt da so auf uns
06:20zu?
06:21Müssen wir tatsächlich noch so ein bisschen raten, also wir wissen nicht mal direkt, ob
06:26mit RTX 5000 dann zur CES auch direkt schon DLSS 4 kommt.
06:31Ich halte es aber jetzt eben aus den vorhin genannten Gründen für einigermaßen wahrscheinlich,
06:36dass es zumindest zeitnah kommt, weil wenn du eine Grafikkarte hast, die du den Leuten
06:40schmackhaft machen willst mit neuer Software, dann brauchst du neue Software, sonst funktioniert
06:45das ganze Kartenhaushalt irgendwie nicht.
06:47Und es gibt tatsächlich auch schon so Gerüchte oder verschiedene Leaks, Aussagen zu DLSS
06:544, was man da erwarten könnte.
06:56Also es gibt zum Beispiel so als groben Richtwert, wird davon geredet, dass es 60% mehr FPS sein
07:02könnten als noch zu DLSS 3, wenn man jetzt dieselbe Grafikkarte nimmt.
07:06In dem Fall war es glaube ich eine RTX 5090 dann, was die Vermutung war.
07:11Man soll weniger Artefakte haben, also im Endeffekt dieses ganze Upscaling-Erlebnis
07:17einfach noch besser werden und ja, die Probleme, die man aktuell noch hat, dass man eben dann
07:23merkt, so hey, das ist abgescaled und eigentlich, wenn ich mir ein High-End-Modell hole, dann
07:27will ich nicht, dass da irgendwelche Artefakte drin sind, dass das weniger wird.
07:30Was so eine neue Technologie ist, die man da vielleicht sehen könnte, ist was, das
07:38kennt man vielleicht von VR so zu einem gewissen Maß, dass auf dem Bildschirm nicht alles
07:44im gleichen Maß hochskaliert wird, sondern nur der Teil, der tatsächlich auch gerade
07:51nah am Spieler dran ist.
07:53Das heißt im Endeffekt, die DLSS 4 kann mit einberechnen, welche Objekte sind gerade nah
07:57dran am Spieler, welche sind weiter weg und dann natürlich die, die näher dran sind,
08:01stärker hochskalieren und die, die weiter weg sind, weniger stark hochskalieren, was
08:05natürlich dann auch nochmal hilft, die Performance eben entsprechend einzudämpfen, was umgekehrt
08:10auch bedeuten kann, wenn man die Performance aber gleich hochlässt, dass man dann einfach
08:14ein schöneres Bild bekommt.
08:15Jusuf, hier fragt jemand im Chat, aber machen dadurch die Spiele mehr Spaß?
08:19Was würdest du sagen?
08:20Ja.
08:21Mal ganz stumpf, ja, natürlich machen Spiele mehr Spaß, wenn sie schöner aussehen.
08:27Warum?
08:28Wobei, lass es uns eingrenzen in die Spiele, die dir Realismus versprechen oder dich in
08:35eine andere Welt eintauchen lassen wollen, in Richtung die klassischen RPGs, ob es jetzt
08:42von mir aus Cyberpunk ist, ob es jetzt Witcher ist, ob es jetzt Baldur's Gate 3 vielleicht
08:47noch ist.
08:48Kennspiele jeder Art?
08:50Kennspiele.
08:51Microsoft Flight Simulator.
08:52Oh ja, da kann ich mir das sehr gut vorstellen.
08:56Ja, klar macht es dann mehr Spaß, dass die Spiele schicker ausschauen.
09:01Sowas wie Minecraft oder so wird immer Pixelblock sein, da ist es auch relativ egal, ob es
09:06eine 7090 von mir aus ist, da kommt der Spielspaß ja von was anderem.
09:10Aber solange Grafik und Ästhetik ein Teil der Identität eines Spiels sind, wird mehr
09:17Qualität immer mehr Spaß machen.
09:20Haben wir schon über FSR 4 gesprochen?
09:22Haben wir noch gar nicht bisher.
09:25Ist auch dahingehend spannend, weil das noch mehr Blackbox ist und vor allem auch ein spannendes
09:31Fragezeichen ist.
09:32Also wir wissen, dass AMD an FSR 4 arbeitet und das auch schon seit ungefähr einem Jahr,
09:39nämlich genau einem Jahr sogar.
09:40Und dass FSR jetzt da das erste Mal auch auf KI-Upscaling setzen wird, das war bisher nicht
09:49der Fall.
09:50Das war immer so, dass das hatte Nvidia, das hatte AMD nicht.
09:52Also da versucht man jetzt so nochmal einen Schritt aufzuholen auf Nvidia.
09:57Die große Frage ist, man hatte bisher einen, und ich glaube das kann man schon sagen, immer
10:03noch relativ deutlichen Unterschied zwischen DLSS und FSR, dass DLSS einfach da die Nase
10:09vorne hatte, was dann das Endergebnis anging.
10:11Da ist jetzt die Frage, inwieweit kann FSR 4 da aufschließen zu DLSS 3 und dann eben
10:18auch einen potenziellen DLSS 4.
10:21Ich glaube, so einen ersten Ausblick könnte PSSR bieten.
10:26Jetzt schmeiße ich lauter Abkürzungen hintereinander.
10:28Ja, vielleicht für die Leute, um alle mal abzuholen, was sind all diese Begriffe, was
10:33bedeuten die, was können die?
10:35Genau, lass uns noch einmal zum Anfang.
10:38DLSS und FSR sind im Endeffekt beides Möglichkeiten, wie man das Bild, das man hat, das die Grafikkarte
10:47generiert hat, nochmal schärfer machen kann.
10:50Das kann man entweder dafür nutzen, um zu sagen, hey, bitte berechne mir so ein gutes
10:55Bild, wie du es sonst machst und pack da nochmal eine Schippe drauf.
10:58Oder man sagt, wenn ich ein Bild haben möchte, dann ächzt meine Grafikkarte aber ganz schön,
11:03also berechne mir doch lieber ein weniger scharfes Bild und dann macht im Endeffekt
11:07der Algorithmus DLSS oder FSR dann im Endeffekt die restliche Arbeit und ich komme am selben
11:14Endergebnis mit weniger Arbeit raus.
11:16Und es gibt dann noch so ein paar andere, Intel hat auch sowas in die Richtung, da heißt
11:22es XESS, funktioniert unter der Haube auch alles ein bisschen unterschiedlich, macht
11:27aber im Endeffekt alles das Gleiche, es macht ein schöneres Bild, ohne dass die Grafikkarte
11:31die Arbeit erledigen muss groß.
11:32Wir sehen es hier einmal im Stream.
11:35Genau, das ist jetzt im Endeffekt DLSS von Nvidia und dann gibt es noch PSSR, das ist
11:40das von der PlayStation.
11:42Da sagt Sony, das haben sie selbst entwickelt, dass sie da im Endeffekt jetzt auf der PlayStation
11:495 Pro auch so eine KI-Lösung anbieten.
11:53Das ist auch einer der Vorteile, den die PlayStation 5 Pro gegenüber der normalen PlayStation 5
11:59hat und sie ist jetzt noch nicht draus, aber man rechnet damit, dass es besser wird als
12:04das, was AMD liefert aktuell.
12:06Nicht ganz so gut wie das, was Nvidia liefern kann.
12:10Und jetzt ist natürlich die Frage, Sony sagt, sie haben das selbst gemacht, in der PlayStation
12:14ist aber ein AMD-Chip drinnen, wie viel hat man da vielleicht doch dann mit AMD zusammengearbeitet?
12:19Wenn AMD jetzt mit der nächsten FSR-Generation auch auf KI setzen will, dann liegt so der
12:24Schluss ein bisschen nahe, dass das, was jetzt wir bei der PlayStation sehen, mit PSSR, ungefähr
12:29auch so das ist, womit wir rechnen könnten, was vielleicht so die Stoßrichtung von AMD
12:34mit FSR 4 sein wird.
12:35Und was ist denn die Zukunft von Upscaling?
12:44Kannst du dazu irgendwas sagen?
12:46Oder Yusuf?
12:47Allgemein die Zukunft meinst du?
12:49Also allgemein die Upscaling-Zukunft, dass alles irgendwann von der KI, von der nicht
12:54nicht mehr klassisch gerendert wird, sondern von der KI quasi in die Welt gesetzt wird
13:02mehr oder weniger.
13:03Wir sind ja jetzt an dem Punkt mit DLSS und Frame Generation und was weiß ich, dass entwahlweise
13:09die KI oder das temporale Upscaling bei FSR, dass die einfach nur ein paar Pixel dazwischen
13:15berechnen sozusagen.
13:16Wir haben einen Ausgangspixel und einen Zukunftspixel mehr oder weniger und das, was dazwischen
13:21kommen soll, das wird von der KI berechnet.
13:23Der nächste Step wäre dann, ganze Texturen, ganze Objekte, vielleicht sogar komplette
13:293D-Modelle herzunehmen und die von der KI generieren zu lassen in dem Sinne.
13:34Und wenn wir da sind, dann können wir über komplette Spiele reden.
13:38Also ich habe hier ein Zitat von NVIDIA auf dem Plan stehen, wo es heißt, DLSS 10 könnte
13:45Rendering komplett ersetzen.
13:47Die Zahl hat er jetzt einfach in die Luft gesetzt, weil 10 so schön eine runde Zahl
13:51ist.
13:52Wir sind ja noch ein bisschen davon entfernt.
13:54Kann auch zu DLSS 47,4 sein.
13:58Das macht ja jetzt erstmal nichts, aber das ist am Ende des Tages das Endziel für die
14:03aktuelle Entwicklung.
14:05Irgendwann wollen NVIDIA, AMD, Intel, wenn sie bis dahin noch Grafikkarten machen, soweit
14:11sein, dass die KI komplett die Renderaufgaben übernehmen lassen können.
14:18Wie realistisch schätzt du das ein, dass es mit der 10.
14:23Generation kommen könnte?
14:26Boah, das ist…
14:28Wenn ich das wüsste, wäre ich bei NVIDIA Berater und würde ein paar mehr.
14:32Ja, wahrscheinlich.
14:33Also das ist super schwer bis unmöglich zu sagen.
14:38Einerseits, weil KI einfach noch so ein, ja am Ende doch junges Feld ist, was das angeht,
14:44wo sich einfach teilweise super viel tut und dann hat man so dieses Gefühl, boah krass,
14:50es ist nur noch ein Jahr, zwei Jahre, drei Jahre und wir reden nicht mehr über KI in
14:55einer Grafikkarte, sondern keine Ahnung, AGI, General Intelligence, weiß ich nicht.
14:59Und dann kommt so ein Moment, ein halbes Jahr später, wo man sich denkt, ja irgendwie
15:02war das doch alles nur Luft und das waren jetzt viele Buzzwords.
15:06Also ich finde es super schwer jetzt tatsächlich einzuschätzen, was die realistische Zukunft
15:12allein schon von einem DLSS hin ist, von KI im Allgemeinen zu sprechen, noch komplizierter.
15:18Deswegen, es wird schrittweise dahin gehen.
15:21Irgendwann werden wir den Punkt erreicht haben.
15:23Ich kann mir vorstellen, dass es schneller passiert, als viele meinen, aber eine Zahl
15:29da dran hängen, aktuell, boah.
15:31Ist schwierig.
15:32Wird halt auf einmal da sein.
15:35Auf einmal kommt die Ankündigung, wir sind jetzt soweit.
15:37Nvidia hat es nicht so mit langer Vorlaufzeit oder AMD oder wer auch immer dahinterstecken
15:42wird.
15:43Wie sieht es denn eigentlich aus mit, also wenn wir jetzt schon bei KI sind, dann können
15:48wir ja auch mal darüber reden, was würde denn eigentlich mit der ganzen Spielebranche
15:54passieren, wenn irgendwie KI als wirklicher Ersteller von Spielen, als Spielentwickler
16:01zu Tage tritt.
16:02Habt ihr da Zukunftsszenarien im Kopf, wie sowas aussehen könnte, was Vor- und Nachteile
16:08davon wären?
16:09Ich glaube nicht, dass es passiert.
16:11Also ich glaube nicht, dass wir irgendwann an den Punkt kommen, wo KI Spiele erstellt.
16:17Nicht, weil wir es technisch nicht könnten, sondern weil ich nicht glaube, dass das Spaß
16:21macht.
16:22Also einerseits, weil ich fest daran glaube, dass so eine gewisse Autorenschaft dahinter,
16:30also Leute, die sich Gedanken darüber machen, was will ich für ein Spiel machen, wie soll
16:35das aussehen, wie soll sich das anfühlen, ein Spiel einfach massiv besser machen.
16:41Auch Leute, die da dieses Know-how haben, um es dann umzusetzen.
16:44Und andererseits, weil ich tatsächlich glaube, und da schließe ich mich selbst mit ein,
16:49dass wir Spieler nicht so gut darin sind, Spiele zu machen.
16:52Das heißt, wenn mir jetzt jemand eine KI gibt und sagt, diese KI kann jedes Spiel der
16:56Welt erstellen, dann glaube ich nicht, dass ich damit ein Spiel erschaffen könnte, das
16:59mir am Ende Spaß macht.
17:00Das überlasse ich dann lieber Profis.
17:02Ja.
17:03Was sehen wir hier gerade?
17:04Du hast uns was mitgebracht.
17:07Genau.
17:08Das ist tatsächlich so ein bisschen das perfekte Beispiel für das, was ich mit dieser Autorenschaft
17:11meine.
17:12Ich habe das von einem YouTuber namens Soundtrick erstellt und technisch finde ich das super
17:16spannend.
17:17Das ist, wie ein Spiel mit so einem KI-Filter grafisch drüber aussehen könnte.
17:22Technisch funktioniert das im Endeffekt noch relativ simpel, also da wurde die Spielszene
17:28aufgenommen, die wir da teilweise auch im direkten Vergleich sehen, hier jetzt links.
17:32Und dann wurde dieses Video einer KI gegeben und gesagt, so und jetzt, basierend auf dem
17:38Video, das ich dir gegeben habe und basierend auf fotorealistischen Bildern und Videos,
17:43die du kennst, wandel mir dieses Video doch bitte mal in eine fotorealistische Version
17:47um.
17:48Das heißt, das ist jetzt natürlich nicht ein fotorealistisches Spiel, das da komplett
17:52generiert wird.
17:53Das ist wirklich nur dieses Video, aber es ist eben genau das, was wir meinen mit diesem
17:57Wo geht die Reise hin?
17:58Und da finde ich, wenn ich die beiden gegenüber stelle, auf der rechten Seite das fotorealistische
18:08Bild, das ist beeindruckend, ja, aber bockt es zu spielen gegenüber dem, was da links
18:12zu sehen ist?
18:13Es gibt ein Beispiel, das sehen wir wahrscheinlich später auch noch, da finde ich tatsächlich,
18:19da ist es sehr gut gelungen, weil einfach Fotorealismus sehr gut zu dem Setting passt.
18:22Aber jetzt hier bei einem Bioshock Infinite oder auch bei anderen Titeln wie zum Beispiel
18:27einem Kingdom Come Deliverance, wo ich noch das Beispiel mit rausgeholt habe, da finde
18:32ich das tatsächlich dann eher abtörend.
18:34Da habe ich dann weniger Lust, dieses Spiel noch zu spielen, wenn es so fotorealistisch
18:37aussieht.
18:38Sufi, wie ist es bei dir?
18:39Hättest du Bock, sowas zu spielen, was von einer KI ausgespielt wird?
18:41Kommt auf das Spiel an.
18:43Ich spiele alles, was nicht bei drei Haufen Bäumen ist, das muss doch gut sein.
18:47Wo du es gerade vom Kingdom Come hattest, wenn du mir sagst, das sieht jetzt wie das
18:54fotorealistische Mittelalter aus, am besten noch mit Virtual Reality und hau dir die Brille
18:58drüber und du bist in dem Jahrhundert, das wäre schon sehr schnieke.
19:06Aber da kommen wir genau hin, wenn wir jetzt vielleicht, ich weiß nicht, ob die Regie
19:10uns einmal das Video raussuchen kann von Kingdom Come Deliverance.
19:12Ja, Regie.
19:13Also Kingdom Come Deliverance als Spiel, das ist ja ein Spiel, das hat einen sehr, sehr
19:20genauen Ort, an dem es spielt, einen sehr, sehr genauen Zeitpunkt, wo sich Leute wirklich
19:24massiv damit beschäftigt haben, wie hat das damals wahrscheinlich ausgesehen und wie muss
19:30sich das anfühlen, damit wir uns in genau diesen Zeitpunkt, genau diesen Ort reinversetzen
19:34können.
19:35Und eine KI, wo wollen wir denn die Trainingsdaten herbekommen, um eine KI so zu trainieren,
19:42dass sie genau diesen Zeit- und Ort entsprechend umsetzen kann?
19:45Ja.
19:46Ich wüsste aktuell nicht, wo in absehbarer Zeit das möglich ist.
19:50Und dann kommen wir eben genau dahin, wie wir es in dem Video sehen, dass halt aus einem
19:54wahnsinnig spezifischen Setting, was wird, was mich eher an für 4,99 bei Amazon Faschings
20:00Kostüm bestellt erinnert.
20:01Ja, absolut.
20:02Also es sieht mehr generischer aus, als wirklich speziell auf dieses Spiel zugeschnitten.
20:08Ja.
20:09Aber auch das kannst du vorher während der Entwicklung lösen, weil irgendwer muss die
20:14KI auch erstmal bedienen und irgendwer muss der KI in dem Sinne die Grundlage, das Futter
20:19geben, um das Zeug überhaupt ausspucken zu können.
20:22Generisch ist erstmal nur das Problem, finde ich, ist eher ein Problem des Entwicklungsstandes
20:31und weniger als des Spiels.
20:32Hier hat noch jemand in den Chat geschrieben, jetzt habe ich es hier gerade.
20:38Einer, du bist gut.
20:39Mehrere Leute, aber hier schreit Hiccups1980, ich glaube aber, dass KI Spieleentwickler
20:49in der Zukunft extrem unterstützen werden.
20:51Es gibt jetzt Machine Learning für Texte, Bilder und Video, das wird in der Zukunft
20:55für Spiele kommen.
20:56KIs werden Spiele durchspielen.
20:58Alle Spiele, die es gibt.
20:59KI wird alle Let's Player der gesamten Date schauen und auf dieser Basis Spieleentwickler
21:04gut unterstützen können, was Spiele brauchen oder nicht.
21:06Wann das kommt, ist eine ganz andere Frage.
21:08Was sagt ihr dazu?
21:10Klingt ein bisschen nach Skynet, aber ich finde es nicht so unrealistisch.
21:16Es ist zumindest mal nicht ausgeschlossen, dass KI, was heißt ausgeschlossen, das ist
21:20ja jetzt schon so, KI ist ein Tool, das in den richtigen Händen viel Arbeit abnehmen
21:25kann.
21:26Ob das jetzt Texte sind, ob das jetzt irgendwelche Bilder sind, die du generieren kannst, wenn
21:32du irgendein Hintergrundbild und ich keine Lust habe, mir das Zeug zu ziehen, dann machst
21:37du halt irgendein Muster hin und gut ist es.
21:39Genauso auch mit Musikstücke, die jetzt angefangen werden von der KI generiert zu werden und
21:43Step by Step kommen wir eben zu dem Punkt, wo es ein hilfreiches und vielleicht irgendwann
21:50auch notwendiges Tool in der Spieleentwicklung wird, einfach weil der Aufwandnutzen so groß
21:55ist, weil das Verhältnis so positiv ist, dass es einfach mitgenommen werden muss.
21:59Wie sieht es denn aus mit neuronalen Netzen?
22:04Das wäre ja so der nächste Step neben KI, dass man wirklich über neuronale Netze in
22:08der Spieleentwicklung redet.
22:10Was wisst ihr dazu?
22:13Das Ding ist, wir haben jetzt tatsächlich nicht so die Insights in die Spieleentwicklung
22:20selber.
22:21Klar, natürlich.
22:22In den Studios zum Beispiel schon mal im Mai haben wir auch über KI in Spieleentwicklung
22:26geredet und wir wissen, das passiert.
22:29Es gibt durchaus auch schon Studios, InnoGames zum Beispiel, hatten wir da mit dabei, die
22:33dann eben darüber gesprochen haben, wie sie in der Findung von ihren Charakteren für
22:37ein Videospiel zum Beispiel auf KI gesetzt haben, um einfach super viel zu Prototypen.
22:42Also im Endeffekt einer KI zu sagen, hey, gib mir mal bitte zig hunderte Möglichkeiten
22:47und dann kann ich mir die Rosinen raussuchen.
22:50Ob jetzt da irgendwo mit neuronalen Netzen, also im Endeffekt kommt es ja auch bei diesen
22:58ganzen Diffusion-Sachen und so schon zum Einsatz.
23:01Aber wie genau das jetzt in der Spieleentwicklung sonst noch passiert, weiß ich tatsächlich
23:06nicht.
23:07Aber dass KI eingesetzt wird, 100 Prozent ist jetzt schon der Fall, ist schon eine Weile
23:11der Fall.
23:12Wir haben später auch noch eine ganze Reihe von Beispielen, was da KI-Anwendungsfälle
23:17teilweise noch aus der Forschung sind, teilweise eben auch schon aus der Praxis sind.
23:22Es ist zum Beispiel eine Sache, die hast du glaube ich rausgesucht, Joseph, mit Counter-Strike
23:29in einer KI, wo man sieht, was da so an der Bleeding-Edge gerade schon passiert und das
23:35ist sehr, sehr cool.
23:36Haben wir dazu Videomaterial?
23:38Ich hab dir nur den Link zu dem Artikel geschickt.
23:44Wir haben es mit drinnen.
23:46Es ist, das muss ich dazu sagen, es ist von einem Twitter-Video gescreen-captured, dementsprechend
23:51sieht es vielleicht auch aus, aber man kann da trotzdem sehr gut erkennen, was da gerade
23:56passiert.
23:57Was man darauf sieht, sind im Endeffekt Spielszenen aus Counter-Strike Global Offensive.
24:02Die haben nur das Erste reingepackt gehabt, also nicht Counter-Strike 2, sondern?
24:09Nein, es war nur Counter-Strike Global Offensive und der Witz ist, dass dieses Ganze, alle
24:15Bilder, die wir da sehen, sind KI generiert, also jedes einzelne Bild da, aber das, was
24:22die Spielfigur macht, das wird von einem Spieler gesteuert.
24:24Also es funktioniert im Endeffekt so, die KI wurde mit der Map, die wir da sehen, das
24:292 trainiert und das läuft mit ungefähr 10 FPS auf einer RTX 3090 und die KI hat die
24:39Aufgabe, sie gibt eben alle 0,6 Sekunden, ne Moment, alle sechstel Sekunde, Mathe nicht
24:47meine Stärke, deswegen mach ich was mit Buchstaben, gibt sie ein Bild aus und das basiert immer
24:55auf dem Bild, das sie davor angezeigt hat und auf dem, was die Spielfigur als letztes
24:59gedrückt hat.
25:00Also wenn man auf W drückt, dann weiß die KI, ah ja, ok, jetzt muss ich im Endeffekt
25:04das nächste Bild so ausgeben, wie wenn die Spielfigur nach vorne gegangen ist.
25:08Wir sehen also eigentlich keinen großen Unterschied mehr zu dem, was auch sonst bei Spielen passiert,
25:14was natürlich hier noch fehlt, sind andere Mitspieler, also wir sehen nur die Spielfigur
25:17selber, aber das ist schon, das ist schon relativ krass.
25:2110 FPS klingt jetzt auch erstmal nicht nach viel, aber das ist Insanity, dass das überhaupt
25:26möglich ist, dass ne Maschine effektiv sich selber das zusammenrechnet und zusammenbastelt
25:32und Step by Stepping das auf ner 3090 vor allem, was ja, ich weiß, das war das Topmodell
25:39letztes Jahr oder vorletztes Jahr, aber vergleichs mal mit den KI-Computern, den Supercomputern,
25:43ob das dann NVIDIAS, Grace Hopper Chips sind oder schlag mich durch.
25:48Das ist ne Gnavi-Karte, die kann jeder von euch kaufen und danach läuft quasi ein erdachtes,
26:00ein erdachtes Spiel, eine erdachte Partie von Counter-Strike, das ist Insanity.
26:05Wahnsinn, ey.
26:06Hier fragt jemand, lässt sich das mit der KI skalieren, wie viel die KI nachbearbeiten darf?
26:11Ha, die Frage ist jetzt, welche KI genau hier gemeint ist gerade.
26:18Ich glaube, die Frage bezog sich auf das Beispiel von davor, also mit Kingdom Come, genau.
26:25In dem Fall ist es ja wirklich ein Prompt, der gesagt hat, hey, bitte gib mir das so
26:32realitätsnah wie möglich aus.
26:34Das heißt, da sprechen wir jetzt weniger davon, dass das im Spiel selber passiert,
26:38dass es auch nicht in Echtzeit passiert.
26:39Das kann man auch nicht während dem Spielen so nutzen.
26:41Also diese Videos, die wir da gesehen haben, das ist nicht das Spiel, das ist wirklich
26:45nur ein Video.
26:46Aber es gibt zum Beispiel, gibt's schon ein paar Jahre und das ist, glaube ich, das, was
26:51irgendwo sich dann hin entwickeln wird, man hat eben verschiedene Filter, die man
26:56da hinlegen kann.
26:57Es gibt von Nvidia ein Tool, das heißt Freestyle und da kann man tatsächlich dann in Echtzeit
27:03das Spiel nehmen, wie man es hatte und da verschiedene Farbfilter drüber legen.
27:06So ein bisschen, wie man es von Instagram vielleicht kennt, nur halt eben für Videospiele,
27:11dass man eben sagen kann, ich möchte bitte meinen Horizon Forbidden West mit warmen Farbtönen
27:16haben oder ich möchte es mit kalten Farbtönen haben, ich möchte es vielleicht sogar komplett
27:20in schwarz-weiß haben.
27:21Genau, hier sehen wir das gerade, wie das dann aussehen kann und das wird dann tatsächlich
27:26in Echtzeit berechnet und so kann sich jeder, wie man es möchte, so sein eigenes Spiel
27:31zusammenstellen.
27:32Also ist es dann ja gar nicht mehr so richtig von den EntwicklerInnen irgendwie gedacht
27:39in einem bestimmten Modus oder einer Farbauswahl, sondern jeder könnte sich das so selber
27:45hinbasteln, wie er das quasi bevorzugt?
27:47Genau, ist dann einerseits natürlich cool, weil man seine eigenen Vorlieben da spielen
27:53lassen kann und wenn wir das jetzt eben weiter in die Zukunft denken, hin zu einem, du kannst
27:57entscheiden, ob dein Spiel fotorealistisch aussieht oder mit Cartoon-Charakteren ist,
28:03du kannst entscheiden, wie zum Beispiel der Gewaltgrad in einem Spiel aussieht, du kannst
28:08entscheiden, wie Gegner dargestellt werden.
28:10Ich möchte bitte keine Spinnen in meinem Spiel haben, weil ich eine Arachnophobie habe.
28:15Heutzutage lädt man dann eine Skyrim-Mod runter, die dann gegen, weiß ich nicht, Thomas
28:19die Lokomotive ersetzt, in Zukunft könnte man das vielleicht direkt mit so einem Freestyle-Nachfolger
28:24lösen.
28:25Das ist natürlich cool, das erlaubt mehr Zugänglichkeiten, erlaubt mehr Möglichkeiten
28:28es anzupassen, aber eben dieses, da sitzen Leute, Profis, die sich ewig lang Gedanken
28:33gemacht haben, wie soll mein Spiel bis ins kleinste Detail aussehen, das geht halt dann
28:37verloren.
28:38Das wäre natürlich schon schade, gerade wenn man eben diese Spiele auch nicht nur als Konsumgut,
28:44sondern eben als Kunst betrachtet, wird dann beliebig.
28:49Finde ich auch tatsächlich schwierig, ich habe vorhin im Chat gelesen, dass jemand geschrieben
28:53hat, auch so KI-Musik, also von KI-erstellter Musik ist ein bisschen catchy, hat die Person
28:59geschrieben.
29:00Gehe ich mit, die ist catchy, nur man merkt ja jetzt schon, dass bei solchen Sachen, die
29:05halt alles irgendwie was mit Kunst zu tun hat und dann halt KI erstellt ist, das fing
29:11mit Bildern an, das geht jetzt über Musik, irgendwann werden es Videos und irgendwann
29:15werden es auch Spiele vielleicht mal sein.
29:17Ich finde, das ist so eine absolute Gratwanderung irgendwie und man hat es ja schon bei KI-erstellter
29:24Musik gemerkt, dass da viele MusikerInnen irgendwie dann auf die Barrikaden gegangen
29:29sind, zu Recht meiner Meinung nach, weil es halt alles dann so beliebig und austauschbar
29:34wird und Kunst ist halt meiner Meinung nach eine sehr subjektive Form, sich auszudrücken
29:40und wenn das dann eine KI übernehmen kann, weiß ich nicht.
29:43Hast du Lust auf den Hot-Take?
29:44Ja, gerne.
29:45KI bei Videospielen gehört in die Hände der Entwickler, nicht in die Hände der SpielerInnen.
29:51Okay.
29:52Warum?
29:53Wo ist das Hot-Take?
29:54Würde ich aber erst mal so mitgeben, glaube ich.
29:59Obwohl, ja, ich finde halt, das, was du vorhin angesprochen hast, mit zum Beispiel, dass
30:04man Spinnen ersetzen kann, das finde ich schon mal super, wenn man so einzelne Elemente irgendwie
30:10für sich anpassen kann, weil man irgendwie verschiedene Phobien, Ängste oder sonst
30:15irgendwas hat und dadurch Spiele zugänglicher werden für bestimmte Personen.
30:20Aber auf der anderen Seite hat es eben dann auch Nachteile, wenn sich das jeder so anpassen
30:25kann, wie er möchte, weil es dann halt vielleicht abweicht von dem, wie sich das SpieleentwicklerInnen
30:29gedacht haben.
30:30Ja.
30:31Ja.
30:32Punkt.
30:33Ja.
30:34Jetzt habe ich dir das vorweggenommen.
30:36Aber jetzt ist es halt ein lauwarmer Take.
30:39Nein.
30:40Sorry.
30:41Bin ich voll bei dir.
30:43Ich glaube, dass KI eine Menge hilfreiche Anwendungsfälle in Spielen hat, eben gerade
30:50auch auf Entwicklungsseite, auf Accessibility-Seite.
30:55Wir haben auch noch eine Reihe von Möglichkeiten, wie man eben gerade was grafische Anwendungen
31:01angeht, was realistischere Welten zum Beispiel angeht, wie da EntwicklerInnen mit KI arbeiten
31:09können.
31:10Ich weiß nicht, ob wir schon weitergehen wollen in Richtung NerveXL oder ob wir…
31:16Ja.
31:17Okay.
31:18Kommen wir gleich noch darauf zu sprechen.
31:19Ich halte meine Pferde.
31:20Gerne noch fragen.
31:21Was hältst du von dem Hot-Take?
31:22Gehst du da mit oder hast du noch einen größeren Hot-Take?
31:24Es ist kein Hot-Take.
31:26Es ist so.
31:27Punkt.
31:28Okay.
31:30Der einzige Gedankengang, den ich habe, am Beispiel dieser Atmophobie mit dem Spinnen-Ersetzen.
31:35Manche Spiele machen das ja heute schon, nur halt ohne KI.
31:38Geben dir halt einfach nur einen Toggle, wo du sagen kannst, okay, ich mag keine Spinnen,
31:42bitte keine Spinnen zeigen, danke, ciao.
31:45Und dann ersetzen wir das wahrscheinlich nicht durch Thomas die Lokomotive, sondern durch
31:50etwas Angenehmes.
31:511000 Hösler.
31:52Okay.
31:53Aber du kannst damit ja auch nur so viel machen.
31:58Also da muss ja irgendjemand davor die Entscheidung getroffen haben, beziehungsweise das Bewusstsein
32:03erstmal haben, dass das ein Problem ist, dann die Entscheidung treffen, da Ressourcen rein
32:07zu investieren, um dieses Problem zu lösen.
32:09Der einzige Unterschied ist dann ja einfach nur der Aufwand, der dahintersteckt.
32:12Ja.
32:13Mehr ist ja nicht.
32:14Aber das ist ja bei eigentlich allem, wo wir über KI reden.
32:17Irgendwer muss es ja trotzdem noch bedienen.
32:20So ist es auch nicht.
32:21Hier sagt jemand im Chat, ich sage nur Deepfake.
32:24Und das ist, glaube ich, auch ein Szenario, wo wir gar nicht so tief reingehen wollen,
32:29weil das, glaube ich, sehr tief und düster wird.
32:32Aber das ist natürlich auch eine Gefahr dann irgendwie von, wenn sich jeder seine Spiele
32:37irgendwie bauen kann, wie er möchte, vielleicht baut man sich dann halt reale Personen da
32:42rein, die man kennt, in ein gewaltvolles Spiel und naja, ist jetzt nur mal so dumm rumgesponnen.
32:51Ich meine, Deepfake hat ja einfach schon eine Geschichte, wo das einfach missbraucht wurde.
32:55Ja, mir macht am meisten Sorgen, dass das dein erster Gedanke war.
32:58Naja, du, also mit Deepfake verbinde ich ganz andere Sachen.
33:02Einfach, weil das die Geschichte von Deepfakes gezeigt hat.
33:06Das kommt ja nicht von mir.
33:09Tatsächlich geht auch ohne KI, aber wird mit KI noch schwieriger.
33:13Es gab zum Beginn vom Ukraine-Krieg ja durchaus Versuche, da so Desinformation ins Netz zu
33:22stellen, wo Leute in Arma 3, also in diesem Militär-Simulationen, Videos aufgenommen
33:28haben und dann gesagt haben, hey, das sind echte Kriegsszenen, die ihr hier seht.
33:32Und natürlich, wenn man da einen fotorealistischen Filter drüber legt.
33:35Aber ja.
33:36Ja.
33:37Reden wir über was Schönes.
33:39Genau.
33:40Deepfakes.
33:41Ja, sehe ich.
33:42Guter Kommentar dazu.
33:44So.
33:45Nerf XL.
33:46Was damit?
33:47Nerf XL.
33:48Da haben wir was Schönes.
33:49Da haben wir was Schönes.
33:50Weil Nerf XL ist tatsächlich was, das hat auch echte Anwendungsfälle neben der Spielegrafik,
33:56aber welche, die eigentlich ganz positiv sind.
33:59Nerfs sind eine Möglichkeit, wie man aus ein paar Fotos 3D-Modelle generieren kann.
34:05Also man stellt sich vor, ich weiß nicht, wir können hier zum Beispiel, kriegen wir
34:09die mit rein?
34:10Genau.
34:11Wenn man hier zum Beispiel diesen Blumentopf hat und ich fotografiere den aus verschiedenen
34:15Winkeln, dann kann ich diese Fotos nutzen, diesen Nerf geben und das macht daraus dann
34:20ein 3D-Objekt von dieser Vase.
34:22Die kann ich dann natürlich zum Beispiel in ein Level setzen, in eine Simulation setzen
34:26und so weiter.
34:27Das gibt es jetzt schon eine Weile, da haben wir, glaube ich, auch in den letzten Jahren
34:30schon ab und zu drüber gesprochen.
34:31Nerf XL treibt das vollkommen auf die Spitze, weil wir da nicht mehr darüber reden, eine
34:37Vase in so ein 3D-Objekt zu verwandeln, sondern zum Beispiel Rennstrecken, Kreuzungen,
34:44Strände, Städte, also wirklich bis, weiß nicht, mehrere Quadratkilometer große Modelle,
34:51die wir dann im Endeffekt in 3D-Modelle verwandeln.
34:53Und das fängt eben im Kleinsten an, das ist, glaube ich, auch für Videospiele der konkreteste
34:57Anwendungsfall, dass man sagt, man nimmt jetzt eine komplette Rennstrecke, weiß ich nicht,
35:02den Nürburgring oder so und macht da viele Fotos von und sagt dann im Nerf XL, bitte
35:09verwandeln wir das in eine exakte Kopie von diesen Fotos, die ich hier habe, nur eben
35:14als 3D-Objekt.
35:15Wahnsinn.
35:16Und dann hat man plötzlich die komplett realistische Rennstrecke da.
35:19Und das ist natürlich sehr, sehr cool und was, wo ich auch mir dann echt gedacht habe,
35:25ich kann mir das total vorstellen, zwei, drei Jahre Videospiele, dass genau das gemacht
35:30wird und wir dann eben davon reden, wir haben ja nicht mehr Abbildungen von den Rennstrecken,
35:34sondern wir haben die Rennstrecken in den Videospielen.
35:36Das ist ja mega krass.
35:38Also, wenn du die Lizenz dafür bekommst.
35:40Ja, das könnte das nächste Ding wahrscheinlich sein, ja.
35:43So ähnlich wie bei Google Maps, als die damals die ganzen Straßen und Karten und so erstellen
35:49wollten.
35:50Ja, da war die, da war ja vor allem Deutschland dann auch ein bisschen schwierig.
35:54Ja, also ich wäre jetzt noch kurz darauf eingegangen, was man damit noch alles Cooles
36:01machen kann.
36:02Gerne.
36:03Weil es da auch echt coole Anwendungsfälle gibt.
36:05Zum Beispiel Tesla kann man davon halten, was man will.
36:08Die nutzen es zum Beispiel, um ihre selbstfahrenden Assistenzen zu trainieren bei ihren Autos,
36:15indem die dann Kreuzungen abfotografieren, das umwandeln und dann im Endeffekt die Software,
36:20die da bei diesem Autopiloten läuft, einfach wieder und wieder durch diese Kreuzungen durchschicken,
36:24die natürlich eine echte Kreuzung ist, die es wirklich so gibt.
36:26Cool.
36:27Das ist zum Beispiel so eine Option.
36:29Oder dass man den ganzen Strand und so ein Strandgebiet nachbildet und dann damit simulieren
36:35kann, wie Überflutungen auf diesem Strand stattfinden.
36:38Weil man hat ja ein exaktes 3D-Modell, so einen digitalen Zwilling davon und kann dann
36:42da zum Beispiel im Katastrophenschutz Vorübungen machen und einfach immer wieder trainieren,
36:46was, wenn wir hier einen Damm hinziehen, wie verhält sich das dann und so weiter.
36:51Also es ist nicht nur was für die Spielebranche, sondern so generell einfach, um Simulationen
36:56in verschiedenen Bereichen durchzuführen.
36:58Genau.
36:59Crazy.
37:00Okay.
37:01Shadowman of the North fragt, wann glaubt ihr, kann eine KI bei der Programmierung Pathtracing
37:06in ein bestehendes Spiel implementieren?
37:10Neun von zehn Entwicklern können das heute nicht.
37:12Bis die KI es kann, dauert es noch ein bisschen.
37:14Das ist wieder so eine Blackbox-Frage, wie du es vorhin genannt hast.
37:20Das ist so weit weg in der Zukunft.
37:24Warum?
37:25Zum einen, weil Pathtracing an sich ja erstmal in einer Handvoll Spiele überhaupt erst mal
37:35aktiv ist oder entwickelt wurde.
37:38Bis wir das erstmal vollflächig überall drin haben, die KI braucht ja auch irgendwas,
37:44worauf sie lernen kann, sozusagen.
37:48Warum ist das nur in einer Handvoll Spielen drin?
37:50Was ist da die Herausforderung bei Pathtracing?
37:52Das ist so eine wahnsinnig große Mechen-Operation dahinter, da müssten wir jetzt ein bisschen
37:58tiefer in GPU-Hardware absteigen und was da eigentlich tatsächlich passiert.
38:03Effektiv ist es einfach nur eine riesige Ansammlung von Matrizen, die miteinander addiert, multipliziert
38:10werden, mehr als du dir vorstellen kannst.
38:13Und das kostet seine Mechenleistung wie sonst was.
38:17Und deshalb ist Pathtracing auch Teil von DLSS 3.5 mit Ray Reconstruction geworden.
38:24Also Ray Reconstruction war 3.5 und Pathtracing war glaube ich 3.0 Regulär, weil es die Grafikkarten
38:34einfach nur ab der RTX 4070, 8090 erst so richtig hinbekommen, das überhaupt alles
38:39durchzurechnen.
38:40Wir sind noch nicht mal so weit, dass unsere normalen Grafikkarten, also die Mittelklasse
38:43durchschnittlichen Grafikkarten mit Pathtracing hinterherkommen, bis da eine KI hinterherkommt
38:48und weiß, was sie da tun muss und wie sie das überhaupt richtig, in Anführungszeichen,
38:54implementieren soll.
38:55Dann sind wir bei RTX 30.000.
38:59Okay, spannend, weil ich hätte jetzt noch, ich wäre auf eine ähnliche Frage eingegangen,
39:08aber nicht Pathtracing, sondern Raytracing.
39:12Wo ist da aktuell der Stand?
39:14Ja, bei KI-Raytracing haben wir jetzt gelernt, KI-Pathtracing sind wir noch nicht.
39:19Heißt aber nicht, dass sich bei Raytracing jetzt in den letzten Monaten nicht auch was
39:24getan hätte.
39:25Hat es nämlich.
39:26Bevor wir da tiefer reinsteigen, müssen wir einmal kurz die Grundlagen klären, warum
39:31wir da überhaupt noch über so Entwicklungen reden, wie wir es jetzt gleich tun.
39:35Also beim Raytracing simulieren wir im Endeffekt Lichtstrahlen.
39:40Wenn wir ein Objekt und wollen herausfinden, hey, wie verhalten sich denn alle möglichen
39:44Lichtstrahlen, die auf dieses Objekt drauf treffen?
39:46Wie sieht denn das Licht dann da eigentlich genau aus?
39:48Das Problem ist nur, wir müssen das in Echtzeit machen.
39:51Also wir haben jetzt nicht die Möglichkeit zu sagen, hey, nimm diese eine Szene hier,
39:55diese, wie jetzt bei einem Video oder vielleicht sogar nur bei einem Bild und genehmig dir
40:00mal 10 Minuten, 15 Minuten, um das durchzurechnen.
40:02Nee, wir wollen 60, 120, 240 FPS haben und in denen muss das bitte auch geschafft werden.
40:10Das heißt, wir können nur so viele Rays, also Lichtstrahlen tatsächlich auch ausschicken.
40:17Und wenn man jetzt nur auf Raytracing setzt, dann sieht das eher bescheiden aus.
40:22Wir haben gleich auch noch, wenn wir über das, was sich verändert hat, ein paar Bilder
40:27dazu.
40:28Man muss heutzutage einerseits eigentlich immer noch neben dem Raytracing auch andere
40:34klassische Renderoptionen nutzen und man braucht einen sogenannten Denoiser.
40:39Das ist dann im Endeffekt ein Algorithmus, der läuft über dieses Raytracing-Bild drüber
40:43und versucht da dieses ganze Rauschen, das man noch drin hat, weil man eben nicht unendlich
40:47viele Lichtstrahlen verwenden kann, rauszufiltern.
40:50Und das ist genau der Punkt, wo sich jetzt einiges getan hat.
40:54Das, was Yusuf gerade schon erwähnt hat, DLSS 3.5, der letzte große Schritt, den wir
41:01bei DLSS gemacht haben, der hat eben Ray Reconstruction gebracht.
41:05Das war eine Möglichkeit, wie man diesen Denoiser ein bisschen entlasten kann, weil
41:11da im Endeffekt, da wird zur Berechnung von diesem ganzen Raytracing-Bild nicht mehr nur
41:17das Bild genommen, sondern da wird der Software direkt auch das ganze Level mitgegeben.
41:24Also das kriegt im Endeffekt den Aufbau vom Spiel, kriegt es von der Engine mit übermittelt
41:32und kann dann aus diesem Modell von der Engine und dem Bild, das ausgegeben wird,
41:36deutlich leichter ein schönes Raytracing-Bild rausholen.
41:42Was wir dann noch hatten, was sich jetzt dieses Jahr viel getan hat, ist, na, wo habe ich es?
41:48Area Re-Stir heißt das. Re-Stir ist ein Algorithmus, der zum Denoising eingesetzt wird.
41:55Also um dieses Bild, das man hat, hier sehen wir es zum Beispiel, das sieht super grisselig aus.
42:02Und wenn man da so was wie jetzt Area Re-Stir drüber packt, dann sieht es deutlich schöner aus
42:07als bisher, wenn man zum Beispiel normales Re-Stir noch verwendet hat.
42:13Jetzt muss ich schauen, dass ich mich da nicht so ganz verrenne.
42:15Es ist ein technisches Thema, es ist tief drin. Ich hoffe, ich habe nicht alle verloren.
42:21Und einmal noch ein Shoutout an die Person, von der diese ganzen Videos stammen.
42:25Das ist ein YouTuber namens TwoMinutePapers.
42:28Den kann ich allen nur ins Herzen legen, die sich für diese ganzen Videografiken,
42:32Videospielgrafiken, KI und so interessieren, weil der das wirklich gut zusammenfasst.
42:39Wenn wir das Video einmal vielleicht noch von vorne abspielen können, da sieht man es ganz gut.
42:46Ähm, na?
42:51Muss ich gucken, ob ich es finde.
42:54Da ist ein Video, vielleicht sehen wir es gleich nochmal, vielleicht kommen wir nochmal drauf.
42:57Ein Video von einem Schaf, einem Schafskopf, der einmal mit normalem Re-Stir und einmal mit Area Re-Stir gemacht wird.
43:04Und die Unterschiede da, die sind, da ist tatsächlich ein Riesenunterschied.
43:10Das heißt, meine Hoffnung ist so ein bisschen, dass das Technologien sind,
43:13die mit DLSS 4 dann auch so ihren Weg in den Videografikkarten finden.
43:18Weil dadurch einfach Raytracing nochmal ein gutes Stück schöner aussieht, als wir es aktuell noch den Fall haben.
43:24Kann die Regie noch einmal den Schafskopf bitte raussuchen?
43:28Das ist ein Satz.
43:30Ein Satz, den ich so noch nie gesagt habe.
43:33Kannst du mal den Schafskopf?
43:35Genau, das ist im Endeffekt mit dem, was man so ab 2021 mit Re-Stir eben machen konnte.
43:41Und das, was wir rechts sehen, ist jetzt das Neue, was ich dieses Jahr getan habe.
43:45Und da sieht man natürlich schon einen großen Unterschied.
43:48Wie gesagt, das sieht hier eher nach einer mittelschweren Katastrophe aus.
43:51Aber das liegt daran, dass hier wirklich nur Raytracing in Echtzeit zum Einsatz kommt.
43:55Also keine anderen Render-Methoden.
43:57Bei Videospielen ist das natürlich so ein Blend aus verschiedenen.
44:01Ja, wird dann viel zusammengeschmissen, damit das dann gut aussieht.
44:04Genau.
44:06Krass.
44:07Ja, aber man sieht auf jeden Fall einen Unterschied, würde ich mal sagen.
44:10Schon, ne?
44:11Ja, auf jeden Fall.
44:12Danke für den Schafskopf.
44:17Hat mir viel gegeben.
44:20Hier kommt eine Frage gerade rein.
44:23Ich habe das Gefühl, die meisten Techniken, die gerade besprochen werden,
44:26kommen von NVIDIA oder sind am ehesten mit NVIDIA-Treibern umzusetzen.
44:30Droht uns ein NVIDIA-Monopol, weil AMD, was KI angeht, weit hinterher ist?
44:36Haben wir das nicht schon?
44:37Ich wollte nur sagen, es droht uns kein...
44:39Wir sind in einem...
44:40Also, was ist...
44:41Ich habe die aktuellen Zahlen nicht im Kopf.
44:43Aber ich glaube, so 90 Prozent der Grafikkarten sind von NVIDIA.
44:46Kommt das hin?
44:47Ja, würde ich jetzt...
44:48Kommt.
44:49Also, vom Gefühl her würde ich das jetzt so unterschreiben.
44:52Eben.
44:53Wobei es auf AMDs KI-Seite aber bislang halt auch noch nichts so wirklich gibt.
44:58Jetzt fangen...
44:59Wie wir es vorhin hatten.
45:00Jetzt fangen sie mit FSR-4 erst mal überhaupt an,
45:02in das KI-Upscaling einzusteigen.
45:05Dann schauen wir mal, was danach kommen könnte.
45:08Das ist jetzt aber auch eine sehr auf PC zugeschnittene Einschätzung.
45:14Weil deine Xbox läuft auf einem AMD-Chip,
45:17deine PlayStation läuft auf einem AMD-Chip,
45:19dein...
45:20Twitch nicht?
45:21Twitch läuft NVIDIA-Tegna von 2000...
45:25Schlag mich tot.
45:26Alt.
45:28Dein Steam-Deck läuft auf einer Custom-APU auf Basis von AMD.
45:35Was gibt es noch?
45:37Die ganzen Gaming-Handles.
45:38Ein guter Teil der Gaming-Handles ist halt auch alles AMD-basiert
45:41und profitiert dann natürlich auch am Ende des Tages von FSR-3 oder FSR-4.
45:46Da muss man denen schon lassen.
45:49Da haben eher die Noten sozusagen das Monopole als NVIDIA.
45:55Solange wir uns auf PC beschränken, ja, NVIDIA-Monopole ist da.
46:00Mal schauen, was in den nächsten Jahren kommt.
46:03Ich würde gerne nochmal auf Raytracing kurz zu sprechen kommen,
46:06weil wir sind ja jetzt sehr technisch tief reingegangen.
46:08Danke, dass du uns das mitgebracht hast, um das irgendwie zu verdeutlichen.
46:12Aber auf was können wir uns denn bei Raytracing konkret freuen?
46:15Was kommt denn bei uns dann an?
46:17Ja, wir haben tatsächlich nächstes Jahr so ein paar Grafikzuckerl.
46:21Ich habe es vorhin zum Beispiel auch schon ein paar Spiele im Chat gesehen.
46:25Da war jetzt zum Beispiel dabei Crimson Desert zum Beispiel.
46:30Ein sehr schönes Spiel.
46:32Ich hätte eigentlich euch auch gerne neues Material zu Marvel 1943 gezeigt.
46:38Das war im Sommer so ein Spiel, wo wir viel drüber geredet haben,
46:41weil das sehr, sehr, sehr schick aussah und da viele grafische Sachen dabei waren.
46:44Da gibt es leider nichts Neues bisher zu.
46:46Deswegen hat das nicht funktioniert.
46:47Dafür, was ich noch dabei habe, was nächstes Jahr erscheinen soll, ist Black State.
46:51Das ist das Spiel, das hier dabei ist.
46:53Und das macht zumindest grafisch sehr vieles richtig.
46:57Ich finde zum Beispiel, wenn man hier jetzt bei diesem Weg da unten auf die Pfützen achtet,
47:01wie sich da eine Schrift drin spiegelt.
47:03Das ist schon sehr, sehr schick.
47:05Und das ist eben genau das, was, denke ich,
47:07aktuell state of the art in Richtung Raytracing ist.
47:10Das sieht schon sehr, sehr cool aus.
47:12Meine persönliche Meinung ist, es wirkt noch ein bisschen eher wie so eine Tech-Demo.
47:16Also es geht vor allem darum, die schöne Grafik zu zeigen.
47:20Spielerisch weiß ich nicht.
47:22Auch die anderen Szenen, die man da jetzt sieht,
47:24da sind noch ein paar Sachen dabei, die wirklich grafisch sehr, sehr beeindruckend sind.
47:28Da gibt es zum Beispiel Explosionen in dem Spiel
47:30oder da gibt es glänzende Oberflächen von Spiegeln, von Glas, das kaputt geht.
47:35Das sieht alles wunderschön aus.
47:37Aber ja, ob es spielerisch auch so ein Highlight wird,
47:40da bleibe ich mal noch kritisch.
47:42Zumindest grafisch zeigt es was Mögliches.
47:44Das hat der Day before auch.
47:48Das sah auch nach einem tollen Spiel aus in der Alpha und was weiß ich.
47:52Und dann war es ein Asset-Flipper.
47:57Ja, so viel möchte ich jetzt Black State nicht unterstellen.
48:00Ja, das ist ein Asset-Flipper.
48:03Ja, so viel möchte ich jetzt Black State nicht unterstellen.
48:06Ja, ich unterstelle auch nichts.
48:08Ich warne nur an mahnenden Beispielen,
48:10vielleicht noch nicht anhand von einer technischen Alpha abzugehen.
48:14Ich nehme die Spieler-Highlights mal als Stichwort.
48:17Was sind denn so eure Spieler-Highlights mit Unreal Engine 5?
48:23Boah.
48:26Ich müsste überlegen, was das letzte Spiel war,
48:28was ich wirklich dauerhaft gespielt habe mit UE5.
48:32Lass es Black Myth Wukong gewesen sein,
48:34auch wenn es nur ein paar wenige Stunden waren.
48:37Weil Zeit ist begrenzt.
48:42Boah.
48:43Ich bin in letzter Zeit so wenig zum Spielen gekommen.
48:46So ein Streaming-Event.
48:48Same.
48:49Ich wollte so ein Streaming-Event vorbereitet werden.
48:57Kannst du gerade tatsächlich gar nicht sagen.
48:59Ich habe gerade echt eine Liste mit UE5-Spielen vor mir,
49:02um dir sagen zu können.
49:03Ah ja, doch, das habe ich die letzten sechs Monate mal gesehen.
49:06Vielleicht kann die Regie da was raussuchen.
49:08In der Zwischenzeit beantworten wir eine Frage.
49:11Alphabet ist aber auch groß in der KI.
49:13Könnte das nicht auch Auswirkungen für die KI am PC haben?
49:17Bezieht sich das jetzt wahrscheinlich weniger auf Spieleentwicklung,
49:21würde ich jetzt mal behaupten, Alphabet?
49:23Ich habe die Frage nicht zu Ende gelesen, tut mir leid.
49:26Ich habe nur KI und Auswirkungen gelesen.
49:29Und Gamestar.
49:30Und Gamestar, ja, genau.
49:32Aber wir können sie natürlich trotzdem kurz beantworten.
49:35Ich glaube, wenn wir jetzt rein über Videospiele sprechen,
49:38dass da Alphabet gerade nicht die große Rolle spielt.
49:42Und ich sehe jetzt auch nicht irgendwie,
49:44dass sich abzeichnet, dass sich das groß ändern würde.
49:47Abseits davon natürlich ist Alphabet da einer der großen Player,
49:51was KI-Entwicklung allgemein sowohl am PC als auch abseits davon angeht.
49:56Sowohl was Anwendungen wirklich betrifft,
49:58also konkret das, was man nutzen kann.
50:00Wir hatten zum Beispiel ja in dem Smartphone-Slot,
50:02da warst du, glaube ich, auch mit drin,
50:04mit Circle to Search und so weiter,
50:06den ganzen Funktionen, die man auf dem Smartphone hat.
50:08Oder eben am PC mit KI-Assistenz, Chatbots und so weiter.
50:12Gleichzeitig aber auch in der Forschung.
50:14Mit Google heißt es noch DeepMind.
50:16Ich bin mir nicht mehr sicher, ob sie es nicht inzwischen umbenannt haben.
50:19Sie haben irgendwann die Teams zusammengelegt.
50:21Ja, irgendwas habe ich da auch mitbekommen.
50:23Ich war eben auch großer Player in der Forschung bei Google.
50:26Deswegen auf jeden Fall.
50:30Was haltet ihr denn so von, oder wie realistisch schätzt ihr es ein,
50:34dass wir dynamische, erzeugte 3D-Welten irgendwann zu sehen bekommen?
50:39Also gibt es da schon irgendwelche Technologien,
50:41die da so auf den Weg ebnen dafür?
50:45Ja, aber nicht in der Art, dass man auf einen Knopf klickt und fertig.
50:50Das ist nicht der Fall.
50:52Es gibt z.B. aktuell schon in der Unreal Engine 5 Möglichkeiten,
50:56dass man sagt, generier mir jetzt mal was Komplettes.
51:00Sie hatten z.B. in der Demo zum Release von Unreal Engine 5.2
51:04die Möglichkeit, dass man so eine Dschungelszene hatte.
51:08Und dann hieß es, du kannst dir hier im Endeffekt
51:11so einen Tempel da mit reinsetzen lassen in diese Dschungelszene.
51:15Das ist dann nichts, was einfach so im fertigen Spiel landet.
51:18Aber das ist natürlich gerade eben, wenn man sagt, man möchte Prototypen,
51:21man möchte schauen, wie sehen denn so Sachen aus?
51:23Gib mir mal bitte 40 verschiedene Dschungel-Tempel-Vorschläge.
51:27Genau dafür wird das, denke ich, schon aktiv eingesetzt,
51:30eben weil es die Engine liefert.
51:33Aber dann eher, um die Ressourcen zu sparen,
51:36man setzt da irgendjemanden hin, der das alles entwerfen muss.
51:39Lass uns einfach mal ganz viel an eine Wand schmeißen
51:42und schauen, was kleben bleibt.
51:43Und dann setzen wir uns hin und setzen es tatsächlich noch mal um.
51:46Okay, ist also eher was auch Unterstützendes irgendwie,
51:49anstatt dass man sagt, hier, ihr habt das jetzt
51:52und das wird jetzt einfach so erzeugt,
51:54ohne dass wir großartig was machen.
51:56Das ist jetzt so.
51:57Bitte?
51:58Das ist jetzt so, wir lassen es wie es bleibt.
52:00Ja, ja, genau, so, hier, viel Spaß damit.
52:04Alana, du hast mir im Vorhinein auch noch ein Wort hier reingeworfen,
52:08und zwar Gorschensplättigen.
52:10Ah, ja.
52:11Was kann ich mir denn darunter vorstellen?
52:13Ich habe das einfach mal so mitgenommen und dachte mir so,
52:16naja, Alana wird mir das schon erklären.
52:18Okay, ich habe, glaube ich, schon mal versucht,
52:21hier in einem Talk zu erklären
52:23und bin einigermaßen daran gescheitert,
52:26es locker rüberzubringen.
52:28Aber Gorschensplättigen ist auch eine Möglichkeit,
52:32wie man Inhalte eben aus der Realität in 3D-Modelle umwandelt,
52:39nur dass man dabei nicht, wie man es aktuell kennt,
52:44Dreiecke verwendet.
52:46Wie war der Fachbegriff?
52:49Es ist spät.
52:50Dreiecke.
52:51Dreiecke im Videospielen.
52:52Polygone.
52:53Polygone.
52:55Dass man keine Polygone verwendet, sondern sogenannte gaussische Tupfer.
53:01Das ist, glaube ich, die deutsche Übersetzung am besten dafür.
53:04Vielleicht kennt man diese Gausskurve,
53:06diese gaussische Normalverteilung.
53:08Weißt du, was ich kenne?
53:09Ich kenne die gaussische Unschärfe.
53:11Ja, der Weichzeichen.
53:12Der Weichzeichen.
53:13Sodass man so eine Art Bouquet-Effekt auf Leder legen kann.
53:16Der hilft da tatsächlich ganz gut.
53:18Der nutzt ja auch im Endeffekt genau diese gaussische Normalverteilung.
53:21Das kennt man vielleicht aus der Schule.
53:23Und sie ist ja, warum kriegen nicht alle eine Eins?
53:25Die meisten müssen eine Zwei und Drei und Vier bekommen.
53:27Und an den Rändern, es gibt ein paar Einsen und ein paar Fünfen und Sechsen.
53:30Das in der Mitte gibt es häufiger.
53:32So ist es ja im Endeffekt auch,
53:33das macht sich der gaussische Weichzeichner zunutze.
53:36Indem er im Endeffekt sagt,
53:37in der Mitte bin ich stärker und nach außen hin werde ich weniger stark.
53:41Und ein gaussischer Tupfer macht im Endeffekt genau das
53:43in einem dreidimensionalen Raum.
53:45Also der packt ganz viele Punkte in die Mitte
53:49und weniger an den Rand.
53:51Und damit kriegt man dann im Endeffekt so ein Objekt.
53:55Und wenn man davon genug übereinander lagert,
53:57da passiert dann ein bisschen KI-Magie und so weiter.
54:00Dann kriegt man ein Bild, das realistischer aussieht,
54:02als wenn man ein Polygon verwendet.
54:04Okay, Gaussian Splattering.
54:06Alles klar.
54:07KI-Magie finde ich ein gutes Wort.
54:09Damit lässt sich die ganze Stunde zusammenfassen.
54:11Was passiert eigentlich?
54:12KI-Magie.
54:13KI-Magie.
54:14Wir haben eine Frage reingekommen.
54:16Was gibt es denn an Konkurrenz zur Unreal Engine aktuell?
54:19Um nochmal zu dem Thema von vorhin zurückzukommen.
54:22Unreal Engine, wisst ihr da irgendwas?
54:24Eigentlich sollte die Konkurrenz Unity sein.
54:28Aber Unity hat die letzten zwölf Monate beschlossen,
54:32Geschäftspraktiken anzuwenden,
54:35die bei Entwicklern nicht so gut angekommen sind.
54:39Das ist jetzt nochmal ein bisschen längeres Thema,
54:41wo es dann darum ging,
54:42ab einer bestimmten Anzahl an Installationen
54:44musst du nochmal irgendeine Gebühr bezahlen.
54:46Irgendwie sowas war es.
54:48Deshalb ist gerade, so wie ich das sehe und verstehe,
54:51Unity zwar auf technischer Ebene eine Konkurrenz,
54:54aber hat viel an Vertrauen eingebüßt.
54:57Ansonsten Engine-seitig,
54:59die eine Engine für alle Entwickler,
55:01wo jeder Entwickler hingehen kann und sagen kann,
55:03die hätte ich gern,
55:04gibt es außerhalb Unreal eigentlich nicht mehr so.
55:06Weil sowas wie Bethesda hat sein eigenes Ding
55:08mit der Creation Engine.
55:10EA hat Frostbite Engine.
55:13Sega mag mich nicht,
55:16hat aber glaube ich auch,
55:18zumindest Atlas hat mit seinen JRPGs
55:20mittlerweile eine eigene Engine.
55:22Die Projekt Red Engine,
55:24also diese ganzen Inhouse-Engines,
55:26wo die Entwicklerstudios ihre eigenen Lösungen haben.
55:28Dann gibt es natürlich,
55:29wenn man jetzt in den Indie-Bereich geht,
55:31da hat man dann auch nochmal so kleinere Lösungen.
55:34G-Maker.
55:36Zum Beispiel, aber ja.
55:38Hier schreibt einer,
55:39Blackspace Engine wäre eine Konkurrenz.
55:43Was ist Blackspace Engine?
55:46Ich möchte nochmal fünf Sekunden googeln,
55:49um zu wissen, welches Spiel das nochmal war,
55:51aber es klingelt was.
55:54Kannst gerne hier reinschreiben,
55:55Shadow Man of the North.
55:57Das wäre fantastisch, dann lernen wir auch noch was.
55:59Ja, dann lernen wir auch noch was.
56:00Wir lernen mit euch, Chad.
56:04Ich muss nochmal ganz kurz die Regie anfunken.
56:06Wie lange haben wir noch?
56:10Alles klar.
56:13Können wir auch noch über Unreal Engine 5.5 zum Beispiel reden?
56:17Kannst du gerne kurz anreißen.
56:19Wir haben noch eine Minute ungefähr.
56:21Dann mach ich super fix.
56:23Vielleicht finden wir auch noch das Video dazu,
56:25weil das wirklich schick ist, das anzuschauen.
56:27Vor drei Wochen ist die nächste Version der Unreal Engine rausgekommen,
56:30nämlich die Version 5.5.
56:32Und die hat ein großes Highlight gehabt,
56:34und das sind Megalights.
56:36Das ist im Endeffekt jetzt eine neue Lösung,
56:38die sie da mitliefern,
56:39die Spiele umsetzen können, wenn sie möchten,
56:42wo sie wahnsinnig viele Lichter in eine Szene packen können,
56:45die dann alle ihre eigenen Schatten bekommen.
56:48Die Schatten, das können dann auch Soft Shadows,
56:50also so weichere Schatten sein.
56:51Und das ist wirklich absolutes Zucker,
56:55diese Demo, die sie da hochgeladen haben.
56:57Das anzuschauen.
56:58Man musste jetzt mal kurz warten,
56:59bis da gleich die Lichter angehen in dieser Szene.
57:01Also sie haben da diesen Bazar gebaut.
57:03Und jetzt gerade ist im Endeffekt noch,
57:06es ist alles noch vergleichsweise überschaubar.
57:10Aber wenn da dann gleich die Szene dunkel wird,
57:12die Lichter angehen,
57:13es wird jetzt da vorne gleich,
57:14man sieht es da hinten schon leicht leuchten,
57:16in diesen Durchgang reingehen.
57:18Und das ist so hübsch.
57:21Krass.
57:24Wow, also ja, das sieht sehr beeindruckend aus.
57:28Da sieht man, wenn man da eben auf die Treppe schaut,
57:31wie diese Schatten dann sich an das Licht anpassen.
57:34Das ist wirklich sehr, sehr cool.
57:36Jetzt müssen wir dann gucken,
57:37wie viel Zeit wir dann tatsächlich noch haben.
57:39Sie wird da gleich noch in so einen größeren Markt reinkommen,
57:43so einen Robotermarkt,
57:44wo Roboter irgendwie Sachen verkaufen.
57:46Und wenn da dann die Neonlichter und die Verkaufsschilder angehen
57:49und so, das ist richtig hübsch.
57:53Und da sind jetzt tatsächlich die Schatten noch gar nicht dabei.
57:56Also sie legen da noch eine Schippe drauf,
57:58packen die Lichter drauf.
58:00Das ist was.
58:01Da kann man sich, glaube ich,
58:02dann tatsächlich schon zeitnah darauf einstellen,
58:04dass da Spiele kommen, die das umsetzen könnten,
58:06weil es eben jetzt wirklich schon seit drei Wochen
58:09als experimentelles Feature in der Unreal Engine mit dabei ist.
58:12Wahnsinnig schön.
58:14Vielen, vielen Dank für eure Expertise.
58:16Also Alana, du hast hier ein absolutes Feuerwerk mitgebracht
58:22an Spielegrafiken,
58:24die wir hoffentlich in Zukunft dann sehen werden.
58:27Vielleicht ein bisschen weniger KI,
58:29weil ich habe so ein mulmiges Gefühl irgendwie dabei.
58:32Aber erst mal klingt das alles ziemlich versprechend.
58:35Also danke schön, dass ihr da wart.
58:53Vielen, vielen Dank.