Zum Player springenZum Hauptinhalt springen
  • vor 5 Minuten
NVIDIAs DLSS 5 Ankündigung auf der GTC spaltet das Netz wie lange nichts mehr! Während CEO Jensen Huang vom revolutionären „GPT-Moment für Gaming-Grafik“ schwärmt, läuft die Community Sturm. Überall fällt das Wort „AI Slop“: Gamer fürchten zerstörte Entwickler-Visionen und generischen KI-Matsch statt echter Grafik-Meilensteine.

In diesem Talk dröseln wir den kompletten Hype und die massive Kritik objektiv auf: Steht uns wirklich eine technische Revolution bevor oder geht die Industrie gerade einen völlig falschen Weg? Schreibt uns eure Meinung zu DLSS 5 direkt in die Kommentare!

Das ist die Videoversion unseres GameStar Podcasts.
-  Alle Folgen des GameStar Podcasts
-  GameStar Podcast bei Apple Podcasts
-  GameStar Podcast bei Spotify
-  GameStar Podcast bei Podcast Addict
-  GameStar Podcast im RSS Feed

Mehr Videotalks findet ihr auf bei  GameStar Talk  – auch  auf Youtube .

Was ist GameStar Talk?
GameStar Talk ist sozusagen die Videofassung des GameStar Podcasts und ein gemeinsames Angebot von GameStar, GamePro und MeinMMO. Wir wollen euch mit jedem Gespräch, mit jedem Video unterhalten und zugleich etwas Neues bieten: Neue Perspektiven, neue Einblicke, neues Wissen über Spiele und die Menschen, die sie entwickeln und spielen, sowie neue Seiten unserer Teammitglieder. Falls ihr Themenwünsche habt, dann schreibt sie gerne in die Kommentare!
Transkript
00:11Man kann es euch aber auch nicht recht machen, oder?
00:14Da präsentiert Nvidia den, nach eigenen Worten, revolutionärsten Techniksprung seit Raytracing.
00:19Und das Netz ist voller Häme.
00:22KI-Slop-Disgrace statt Grace sieht denn in Zukunft alles aus wie ein mieser KI-Instagram-Filter.
00:29Und wo bleibt die kreative Freiheit und Kontrolle der Entwickler?
00:32Ist dieses negative Feedback berechtigt oder zeigt DLSS5 doch, wo die Zukunft des Rendering liegt?
00:41Und wer soll das überhaupt alles bezahlen?
00:43Diese Fragen beantworten wir heute drei Experten, beziehungsweise zwei, einer konnte leider nicht, von Gamestar Tech,
00:49die so markant ausschauen, dass sie bestimmt nicht durch einen KI-Felder gejagt wurden.
00:54Und damit Hallöchen und Willkommen im Talk, Jan und Nils.
01:01Jan, du bist zugeschaltet aus Heilbronn.
01:04Wir haben gerade schon festgestellt, du bist zwischen zwei Kirchen.
01:07Deswegen, wenn es zwischendurch mal bimmelt, das ist nicht unsere Abo-Glocke, die aber trotzdem klicken solltet.
01:12Und Nils, du bist im Ruhrpott, in Essen.
01:16So ist das, richtig.
01:17Wunderbar, da haben wir sozusagen ein inhaltliches Dreieck quer durch Deutschland, mit dem wir jetzt DLSS5 eintriangulieren wollen.
01:25Bevor wir starten, hätte ich eine Umfrage an euch da draußen.
01:29Nämlich, ihr habt ja vielleicht die Dinge gesehen, die von DLSS5 bisher gezeigt wurden.
01:36Da gab es Screenshots und kurze Videos aus Resident Evil Requiem, Hogwarts Legacy, Assassin's Creed Shadows, Starfield und so weiter
01:43und so fort.
01:44Wie hat euch das denn gefallen?
01:48Hat es euch super gut gefallen oder haben euch Aspekte daran gefallen und manche nicht?
01:53Oder findet ihr das alles eine einzige grauenvolle Scheiße?
01:56Stimmt ab.
01:57Am Ende der Folge gibt es nochmal eine kleine Umfrage und dann werden wir schauen, ob sich eure Meinung etwas
02:04differenziert hat.
02:05Aktuell sieht das so aus, als ob teils teils oder grauenvoll vorne liegt.
02:10Jetzt geht grauenvoll in Führung.
02:12Das heißt, insgesamt war das Feedback nicht so gut.
02:15Jetzt frage ich euch, lieber Jan, lieber Nils, wie konnte es denn zu diesem massiven Aufschrei rund um DLSS5 kommen?
02:25Also ich denke, der Aufschrei ist erstmal dadurch entstanden, dass es halt für die meisten Leute, und ich denke mal,
02:33das kann man wirklich so sagen, dass es für die meisten Leute so aussieht, wie KI-generierte Bilder.
02:39Und das ist generell momentan ja schon ein heißes Thema, auch wenn wir nicht über DLSS sprechen.
02:44Und das wird jetzt natürlich nochmal durch die Leidenschaft, die Spieler eben für dieses Thema haben, nochmal eingefeuert und wird
02:53deswegen sehr, sehr, sehr heiß diskutiert.
02:57Ich glaube, es kommt auch noch erschwerend hinzu, ein wichtiger Faktor, dass Nvidia sich viele Spiele geschnappt hat, die man
03:07halt zum einen schon länger, also populäre Spiele einfach, ein Hogwarts Legacy, ein frisches Resident Evil Requiem.
03:14Und diese Spiele verändert hat, da vielleicht auch in puncto Umfrage ein ganz interessanter Hinweis.
03:20Wir haben selber auch welche gemacht auf der Homepage, da können wir ja nachher auch nochmal drauf eingehen.
03:24Und wenn man sich die Likes und Dislikes bei YouTube anguckt, zu diesen ganzen Trailern, dann schneidet auch das Video
03:30am besten ab, das zu einer Technik-Demo ist.
03:32Also, dass nicht von Nvidia gezeigt wurde zu einem Spiel, wie jetzt hier zu sehen, Resident Evil Requiem, sondern zu
03:38einer Tech-Demo.
03:39Das heißt, da hatte man halt auch gar nicht den direkten Vergleich.
03:42Bei diesen Spielen weißt du halt, okay, so wollten die Entwickler das, sage ich mal, oder so kenne ich das.
03:47Und dann kommt halt das, was Nvidia daraus macht.
03:50Und da ist die Chance natürlich einfach größer, dass man sagt, nee, gefällt mir nicht, als bei einer Tech-Demo.
03:55Also, ich glaube, da war auch die Auswahl von Nvidia einfach vom Material nicht ganz optimal, sagen wir es mal
04:00so.
04:00Aber inwieweit spielt da schon eine Müdigkeit eine Rolle?
04:04Man sieht es jetzt hier bei den Gesichtern von Hogwarts Legacy ganz gut, dass das Gesicht natürlich schon deutlich besser
04:10ausgeleuchtet ist, als es die Original-Engine kann.
04:13Oder hier bei Starfield, gut, bei Starfield, ob das da so die große Kunst ist, seid ihr mal dahingestellt.
04:16Aber dass die sozusagen von der KI übermalten Gesichter, dass die extrem diesen Look haben, wie er einem über Instagram
04:28schon zu den Ohren rauskommt.
04:30Und wo du halt sofort siehst, diese Person wurde per KI erzeugt oder mindestens, in Anführungszeichen, hübscht oder verfremdet.
04:37War das ein Fehler von Nvidia, so sehr Wert auf Gesichter zu legen in den ersten Präsentationen?
04:44Ich denke, ja.
04:46Ich denke, das kann man sehr eindeutig mit Ja beantworten.
04:48Ich denke, da steckt einfach noch, beziehungsweise sie müssen da einfach noch mehr Arbeit reinstecken, dass das ein bisschen besser
04:54aussieht.
04:55Denn momentan haben wir einfach diesen sehr typischen, ja, ich gebe halt bei JetGPT oder Gemini einen Prompt ein und
05:02da kommt irgendein Bild raus, Look.
05:04Und man hat auch schon andere Dinge gesehen.
05:06Wir haben ja auch Umgebungsdetails gesehen, wie sich das Ganze so auswirkt.
05:10Auch da gibt es Kontroversen.
05:12Aber ich denke, da ist der Konsens eher Richtung, das sieht eigentlich ziemlich gut aus.
05:17Nur Gesichter und vor allem eben Charaktere ändern sich einfach zu sehr und sehen teilweise eben auch aus wie andere
05:23Menschen,
05:24die eben ganz andere Charaktere darstellen und teilweise sind die Leute einfach unzufrieden, weil das auch das Bild, das sie
05:32verinnerlicht haben von der Persönlichkeit des Charakters, dadurch ein bisschen, ja, angebrochen wird.
05:39Was genau ist denn DLSS 5?
05:41Okay, Nils erst bitte.
05:43Ja, ich kann auch darauf antworten.
05:45Ich kann eigentlich nur mit anderen Worten bestätigen, was Jan sagte.
05:49Ja, DLSS 5.
05:51Also zum einen kann man sich fragen, warum heißt es überhaupt DLSS?
05:53Weil, ehrlich gesagt, hat es mit dem, was DLSS eigentlich mal war, nicht mehr so richtig viel zu tun.
05:59Die Abkürzung steht ja für Deep Learning Super Sampling.
06:03Und Super Sampling heißt, den Begriff kann man natürlich weit dehnen.
06:06Aber an und für sich war damit mal gemeint, dass man Spiele halt die Auflösung quasi hoch skaliert.
06:12Das, was DLSS ja als erstes gemacht hat.
06:14Also du nimmst eine Auflösung, ein Spiel hinter einer bestimmten Auflösung, skalierst die hoch, damit es einfach schärfer und besser
06:20aussieht mit möglichst gleichbleibender Qualität.
06:23Also im Vergleich zu dem, wie wenn du es nativ in dieser Auflösung spielen würdest.
06:27Also da übernimmt dann quasi die KI das hoch skalieren und du stellst die Auflösung halt nicht einfach selber hoch.
06:32Dann kam Frame Generation hinzu, was eigentlich auch schon was anderes ist.
06:36Eine Frame Generation heißt ja, dass die KI komplette Zwischenbilder berechnet.
06:40Also auf Basis dessen, was in dem Spiel passiert, werden Zwischenbilder berechnet, vorausberechnet sozusagen, damit das Bild flüssiger aussieht.
06:49Es fühlt sich oft nicht wirklich flüssiger an, weil dadurch eine gewisse Latenz hinzukommt.
06:53Aber das ist dann die Frame Generation.
06:55Und jetzt haben wir halt, ja, es hat noch keinen Namen außer DLSS 5.
06:58Aber das ist jetzt nochmal was anderes.
07:00Jetzt haben wir kein Upscaling und keine Zwischenbilder, sondern quasi ein neues Bild.
07:04Oder das Bild, was da ist, wird verändert von der KI.
07:08Natürlich wird das auch beim Upscaling einer gewissen Art verändert, weil ja mehr Pixel hinzukommen.
07:13Aber da ist es quasi die simplere Aufgabe, sage ich mal.
07:17Ich erzeuge mehr Pixel, einfach damit die Bildschärfe höher ist.
07:20Und bei der Frame Generation nimmst du ja, nimm die KI als Vorlage das, was eh schon normal gerendert wurde.
07:25Und soll das jetzt nur insofern verändern, dass es zwischen den nächsten Frames passt,
07:30wenn ich mich halt im Spiel bewege, nach links und rechts gucke.
07:32Und das ist jetzt halt was komplett anderes.
07:34Es ist im Prinzip generative KI, wie wir sie eben von ChatGPT, wie heißen die ganzen Tools,
07:41wie heißt es nochmal, das Builder-Tool, wir haben Gemini, ja, ich komme gerade auf den Namen,
07:48Mid-Journey, genau, unter anderem, es gibt ja so viele.
07:50Aber ja, genau, also das macht jetzt DLSS 5.
07:54Und das ist schon eine Hausnummer, gerade weil wir ja auch von Spielen reden.
07:58Und das heißt in Echtzeit.
08:01Das heißt also DLSS 5, zum einen wird es wahrscheinlich einen Grund geben,
08:07warum NVIDIA es nicht anders genannt hat.
08:09Vielleicht um auch an die eigentlichen Erfolgszeiten von DLSS anzuknüpfen.
08:15Aber es passiert was anderes wie bisher.
08:17Es werden nicht, es passiert kein Upscaling, also es wird nicht ein schlechteres Bild
08:23verschönert in Auflösung und Qualität,
08:25sondern es werden Informationen aus einem Bild, das die Engine berechnet, genommen
08:29und dann ist wie so eine Ebene, die von der KI erzeugt wird, noch drüber.
08:34Welche Informationen nimmt DLSS 5 denn und wie variabel kann sie diese Informationen dann verändern?
08:45Die Ebene.
08:47Auf welcher Basis arbeitet DLSS 5?
08:50Nimmt es nur die Polygone oder schaut es sich das an, was schon per Raytracing oder Pathtracing
08:56berechnet wurde, an Beleuchtung und verbessert das dann nochmal in Abgleich mit vorhandenen Bildern?
09:01Wie kann man sich das vorstellen?
09:05Es nimmt da, also die Materialien und die Beleuchtung werden verändert auf Basis von begrenzten Inhalten,
09:14also Farb- und Bewegungssektoren.
09:15Die sind quasi die Grundlage.
09:17Das ist jetzt technisch ein bisschen schwer zu sagen.
09:19Ich finde auch, weil von dem, was man in den Videos gesehen hat,
09:23hatte ich auch das Gefühl, dass da mehr passiert als das, was so offiziell als Basis kommuniziert wurde.
09:30Weil eigentlich hieß es dann auch, dass die Charaktermodelle an sich,
09:33also wie die aufgebaut sind, dass das auch nicht verändert werden soll.
09:37Aber ich hatte schon bei mehreren Charakteren, hat man schon den Eindruck,
09:40dass da jetzt nicht nur die Beleuchtung und die Materialien, also quasi wie die Haut sich dargestellt wird.
09:46Das kann man ja, also es kann schon sehr beeindruckend aussehen, wenn man Hyporen erkennt,
09:50wenn da das Licht wirklich so in die Haut einfällt, sage ich mal,
09:53so ein bisschen auch wieder reflektiert wird aus der Haut raus und so.
09:56Da wird es technisch sehr genau und interessant.
10:00Aber ich hatte eben nicht das Gefühl, dass es jetzt nur Beleuchtung und Oberflächen sozusagen sind,
10:06sondern ich hatte schon das Gefühl, dass sich die Formen auch teilweise verändert haben,
10:10was jetzt eigentlich zu der offiziellen Beschreibung nicht so ganz passen würde.
10:13Aber man muss natürlich auch dazu sagen, wir sind ja immer noch,
10:15es ist ja quasi so eine Art Beta, würde ich jetzt vielleicht mal sagen,
10:19die wir da jetzt gesehen haben.
10:20Soll zwar im Herbst schon kommen dieses Jahr, was ich früh finde,
10:23muss ich sagen, für das, was diese Technik macht, ist es sehr früh, für mein Gefühl.
10:30Aber das muss man natürlich auch immer mit einkalkulieren.
10:32Also es kann natürlich sein, dass sich da auch noch bis dahin einiges daran ändert,
10:37wie das arbeitet, zumal es ja auch noch ohnehin je nach Spiel unterschiedlich sein wird.
10:42Die Entwickler haben ja Kontrolle darüber, was DLSS 5 macht und können das selbst beeinflussen.
10:49Eine Frage im Chat kommt gerade, wird DLSS 5 nur bei älteren Spielen benutzt,
10:54die eine schlechte Grundgrafik haben?
10:58Also das denke ich eher nicht.
10:59Das stellt sich Nvidia jetzt schon eindeutig als neues, großes Ding vor.
11:03Das haben sie ja auch ganz eindeutig gesagt, hier große Revolution.
11:07Also das kam ja jetzt nicht nur von irgendwelchen Webseiten oder YouTubern.
11:11Das haben sie wirklich selbst so gesagt.
11:13Seit dem Echtzeit-Raytracing soll das das nächste wirklich ganz große Ding sein.
11:18Und dementsprechend bin ich mir sicher, die wollen das wirklich in so vielen Spielen wie möglich sehen
11:22und das verbreiten.
11:24Also das wird sicherlich nicht nur in älteren Spielen eingesetzt, um die zu verbessern.
11:29Und selbst da halte ich es für fragwürdig.
11:31Wahrscheinlich sieht es bei älteren Spielen noch schlechter aus,
11:34weil man wahrscheinlich weniger von diesen detaillierten Informationen,
11:39Materialinformationen, Lichtverhältnisse und so weiter und so fort,
11:41so diese Tiefenwirkung mit dem Subsurface-Scattering und so,
11:45das gibt es halt nur bei neueren Spielen.
11:47Bei älteren ist das gar nicht der Fall.
11:48Und ich denke, da werden ganz, ganz, ganz komische Kreationen, glaube ich, bei rauskommen,
11:53wenn man das auf ältere Spiele anwendet.
11:57Also ja, ich glaube eher, dass das eine neuere Sache sein soll.
12:00Und wir haben es gerade eben auch, glaube ich, schon im Chat gesehen.
12:02Das ist halt auch eine Hardware-Frage nochmal,
12:05die das auch wieder eher auf aktuelle Spiele beziehen wird.
12:09Definitiv.
12:09Welche Hardware brauche ich denn dafür?
12:11Wahrscheinlich.
12:13Tja, bisher zwei 50, 90 Grafikkarten.
12:18Also dürft man kurz 4.000 Euro hinlegen.
12:21Ja, easy, ne?
12:23Komplett super.
12:25Also das ist wirklich...
12:27Bei Daniel Feith, da schenkt euch noch ein paar.
12:30Der hat das dann über.
12:32Also momentan wirklich ist die offizielle Angabe von Nvidia,
12:35sie haben zwei 50, 90 Grafikkarten benutzt dafür.
12:38Eine hat das Spiel gerendert und die andere hat wirklich nur DLS S5 berechnet.
12:44Und das ist natürlich eine Hausnummer.
12:46Aber sie haben auch schon gesagt, wir wollen das optimieren auf eine Grafikkarte,
12:51bis es dann rauskommt.
12:53Aber auch da muss man sich dann fragen,
12:54das wird jetzt nicht eine 40, 60 sein, für die das optimiert ist.
12:58Also ich befürchte fast, dass man da wirklich eine 50, 90 im Rechner haben muss.
13:03Also selbst mit anderen 50er-Karten wird es, denke ich, eng.
13:07Das ist jetzt spekulativ, vielleicht noch eine 50, 80 oder so.
13:10Ich weiß nicht, inwiefern sie das noch optimieren können.
13:14Aber man wird auf jeden Fall ein bisschen Geld hinlatzen müssen,
13:16um dieses Feature überhaupt sehen zu können, denke ich schon.
13:19Ein bisschen.
13:19Erfault hier der Herzen im Chat sagt gerade, wegen zwei Grafikkarten.
13:22Ich denke, das wird ein Feature für GeForce Now werden,
13:25wo man die zweite GPU dann eben mitmietet.
13:28Was ist eure Einschätzung dazu?
13:30Ist das plausibel,
13:31dass Nvidia damit auch seinen Streaming-Service ein bisschen befördern will,
13:35für die Leute, die sich keine 50, 90 oder 60, 90 oder was es dann noch immer geben wird,
13:39leisten wollen?
13:40Ist sicher ein naheliegender Gedanke.
13:42Ich meine, Cloud-Gaming tut sich grundsätzlich weiterhin schwer,
13:46was die Verbreitung und Akzeptanz angeht,
13:48so zumindest mein Eindruck.
13:50Aber es ist sicherlich was, was sehr im Interesse von Nvidia liegt,
13:54das mehr an den Mann zu bringen.
13:56Und da gibt es viele Gründe,
13:59die da aus einer Hersteller-Sicht dafür sprechen.
14:02Interessantes Thema auch generell,
14:03was die Frage des Mietens von Hardware auch angeht.
14:07Wir haben es ja im Medienbereich,
14:10beschweren sich ja Leute auch immer mehr
14:11oder man hat mehr das Gefühl,
14:12ich besitze sehr viel gar nicht.
14:13Egal, ob das jetzt meine Spiele sind bei Steam
14:16oder Videos, die ich halt im Stream immer nur schaue,
14:19die ich aber nicht mehr wie früher auf DVD in meiner Sammlung habe,
14:22die ich einfach mal auspacken kann, wenn ich will.
14:24Und das könnte uns durchaus auch bei Hardware
14:26mehr und mehr blühen, sage ich mal.
14:29Gibt es auch ein interessantes Video von Gamers Nexus dazu,
14:32falls es kann ich mal empfehlen, zu der Thematik.
14:35Ja, aber das ist natürlich naheliegend.
14:37Klar, je mehr Rechenleistung etwas braucht,
14:40desto eher bin ich vielleicht geneigt,
14:43mir diese super teure Harte nicht zu kaufen,
14:46sondern den sparsameren Abo-Streaming-Weg zu gehen.
14:49Wie sparsam der ist, kommt natürlich immer darauf an,
14:51wie viel spiele ich jetzt und wie teuer ist es
14:53und alles, aber das ist schon naheliegend.
14:56Und also ich glaube schon, dass sie schauen werden,
14:58ich meine, es ist auch die Frage,
14:59wie gut es skaliert halt auch mit niedrigeren Auflösungen.
15:02Also ob die KI dann auch in Full-HD, sage ich mal,
15:05auf DLSS 5 dann in Kombination mit dem Upscaling
15:07und Frame Generation,
15:09ob das dann auch vielleicht mit langsameren Karten gut funktioniert,
15:13wie hoch der V-Ram-Hunger halt auch sein wird,
15:15ist dann auch wieder eine Frage.
15:16Da hat Nvidia ja gerade bei den langsamen Karten
15:19eher ein bisschen gegeizt, würde ich mal sagen,
15:21zumindest im Vergleich zur AMD.
15:23Wobei, ja, kommt aus dem Modell an.
15:24Aber ja, das sind dann alles Fragen,
15:26die kann man jetzt einfach noch nicht sicher beantworten.
15:28Und auch wie es mit der Latenz dann wird,
15:30da hast du ja wieder einen KI-Faktor,
15:33der vielleicht auch die Flüssigkeit dann gefühlt wieder sinkt.
15:37Also, ja, schwierig.
15:39Ja, ich finde die Frage mit dem Cloud-Game echt super interessant,
15:42weil einerseits ist es natürlich so,
15:43ja, das kann bestimmt passieren.
15:45Auf der anderen Seite muss die Hardware trotzdem irgendwo liegen.
15:48Und wenn Nvidia jetzt sagt,
15:50also wenn das, sagen wir mal,
15:51jetzt wirklich nicht mehr gut optimiert werden würde,
15:53man braucht wirklich 250,90er dafür,
15:55dann braucht ja auch Nvidia 250,90er pro Cloud-Sitzung,
16:02sage ich mal, im Vergleich.
16:03Und das kann dann, glaube ich, schon wieder eng werden.
16:06Also, sollte das wirklich so nötig bleiben,
16:09wovon ich jetzt mal nicht ausgehe,
16:10dann wird das auch für Nvidia, glaube ich,
16:12nicht so lohnenswert werden.
16:13Also, deswegen müssen wir das schon
16:14auf eine Grafikkarte runterbringen.
16:16Ja.
16:17Das war ja auch das Ziel.
16:18Nvidia hat ja gesagt,
16:20jetzt läuft es aktuell auf 250,90ern.
16:23Und im Herbst, wenn es denn irgendwie erscheinen soll,
16:26ist schon das Ziel, das auf eine GPU zu bringen,
16:29ab der Fünfer-Generation.
16:30Also, ob jetzt eine 5070 in einem Laptop
16:33da noch mithalten kann, muss man sehen.
16:35Aber es hängt ja auch ein bisschen davon ab,
16:37was die Devs, und das sei vielleicht dazu gesagt,
16:39das, was wir jetzt gesehen haben von DLSS 5,
16:43heißt nicht, dass jedes Spiel so aussehen wird.
16:45Und gerade, die Gesichter, die haben jetzt
16:46für eine hohe Kontroverse gesorgt,
16:48aber es ist eben nicht nur das,
16:50sondern es geht auch um Beleuchtung von Umgebungen,
16:53Wälder, Mauern, Städte, Objekte.
16:56Und da macht es tatsächlich einen enormen Unterschied.
16:59Die Gesichter sind das, was eben stark auffällt
17:02mit diesem KI-Look.
17:04Der Rest, wenn man nur den gezeigt hätte,
17:08dann wäre es wahrscheinlich eher positiv aufgefallen.
17:10Wie bewertet ihr denn das,
17:12was man davon bis jetzt sehen konnte?
17:14Also wie differenziert habt ihr die verschiedenen Elemente wahrgenommen?
17:19Also ich, ja, ich lege jetzt mal los.
17:24Ich persönlich, ich fand es sehr spannend, die Frage auch,
17:27weil ich muss jetzt gestehen,
17:28ich habe es am Montagabend, als es angekündigt wurde,
17:31habe ich es nicht direkt live gesehen.
17:32Das heißt, ich habe es quasi erst,
17:34als das Kind in den Brunnen gefallen war,
17:37am Dienstag mitbekommen.
17:39Und da war ich natürlich schon automatisch ein bisschen voreingenommen,
17:42weil das Internet sowas von voll war mit den negativen Reaktionen.
17:48Ich finde es sehr interessant, ob ich selber das,
17:50wenn ich es komplett unvoreingenommen hätte sehen können,
17:53wie ich es beurteilt hätte, weiß ich jetzt natürlich nicht mehr.
17:55Aber ich glaube, ich hätte es positiver beurteilt,
17:57als das, wie die Community jetzt in großen Teilen darauf reagiert,
18:01oder zumindest in denen, die man sehr laut hört,
18:04sagen wir es mal so.
18:05Und ich finde schon, dass das sehr beeindruckend ist.
18:09Also ich habe ja vorhin schon gesagt,
18:10ich finde, das ist ein früherer Zeitpunkt,
18:12weil wir reden hier ja von Computerspielen.
18:15Das heißt, die müssen mit, damit es sich gut anfühlt,
18:1860 Bilder pro Sekunde ungefähr.
18:20Ich werfe jetzt mal eine Zahl in den Raum.
18:21Ich weiß, können wir jetzt über diskutieren.
18:22Aber sowas in der Richtung.
18:24Und wenn das wirklich jetzt schon die KI in Echtzeit berechnet hinbekommt
18:29und das auch noch mit Konsistent in einem Computerspiel,
18:32finde ich persönlich das technisch schon sehr beeindruckend.
18:35Und vor allem, das hast du ja gerade auch gesagt, Daniel,
18:38das sind jetzt nur erste Beispiele.
18:40Das darf man ja nicht vergessen.
18:41Das ist immer noch ein früher Status von der Technik.
18:44Man wird das sehr stark beeinflussen können.
18:46Jeder, der schon mal KI genutzt hat,
18:48weiß ja, wie extrem wichtig quasi der Prompt ist
18:51und das, was ich der KI sage.
18:52Wenn ich da natürlich reinschreibe,
18:53macht das ja alles hyperrealistisch, glänzend, bla bla.
18:56Und die ganze Schlagwörter, die damit erschlage.
18:59Dann wird das auch mehr danach aussehen nach KI.
19:02Und wenn man damit weiß, umzugehen,
19:03dann kann man durchaus auch ja jetzt schon selber Ergebnisse erzielen,
19:08die durchaus weniger diesen AI-Slop-Look haben, sage ich mal.
19:12Das darf man dabei nicht vergessen.
19:13Also ich persönlich glaube schon,
19:15also ich kann verstehen,
19:16dass Nvidia das als Chat-GPT-Moment
19:18für die Spiegelgrafik bezeichnet hat
19:20und als größte Entwicklung seit Raytracing,
19:23weil da einfach extrem viel Potenzial drin steckt.
19:25Das ist schon heftig, wenn man in Echtzeit
19:29Bilder, die ich selber steuern kann,
19:31wo gucke ich hin, was mache ich,
19:32wenn da KI verbessern kann,
19:35und das kann KI, bei all der Skepsis,
19:37die man gegenüber KI völlig berechtigt haben kann,
19:40die kann absolut Schindluder treiben,
19:42aber sie kann auch nützlich sein.
19:44Und das gilt für mich auch in dem Fall.
19:46Und insgesamt bin ich eher positiv bestimmt,
19:49was diese Technik angeht.
19:50Wie haben wir das bei dir?
19:53Also mir ging es relativ ähnlich.
19:56Ich dachte erst mal,
19:56als ich es zuerst gesehen habe,
19:57gerade hier Grace aus Requiem,
19:59da war ich erst mal positiv überrascht
20:02und dachte mir,
20:03Mensch, was haben denn die Leute?
20:04Ich habe es nämlich auch nicht
20:05zur Ankündigung gesehen.
20:07Dann am nächsten Tag,
20:08und je weiter der Trailer voranschritt,
20:11desto mehr habe ich erkannt,
20:12okay, jetzt sehe ich es auch.
20:14Das ist schon ein Problem.
20:15Also gerade die Charaktere aus Hogwarts Legacy,
20:18die finde ich so furchtbar.
20:20Also es sieht echt super schlecht aus teilweise.
20:23Diese ältere Dame,
20:24wir sehen es jetzt gleich nochmal,
20:26die da ein bisschen rumzaubert,
20:28also die tiefen Furchen und so,
20:30das sieht so furchtbar einfach nach einem,
20:32mittlerweile muss man auch sagen,
20:34schlecht KI generierten Bild aus.
20:35Es gibt mittlerweile ja KIs,
20:36die können das besser als das,
20:38was wir hier sehen.
20:39Die Szene hier,
20:41ich schreibe es kurz für einen Podcast,
20:42Entschuldigung,
20:42wenn ich euch unterbreche,
20:43die finde ich aber super.
20:45Also da ist bei Hogwarts eine Szene zu sehen
20:47von so einer jungen Zauberin,
20:48die in der Straße in Hogsmeade steht.
20:50Und da ist das Gesicht eben nicht so,
20:55alles crankt ab auf zwölf,
20:57drüber gebügelt und alles glänzt zu viel,
20:59sondern die sieht einfach aus,
21:01wie ein Videospielcharakter aussehen würde,
21:03wenn er besser gerendert wäre.
21:04Und das hat mir persönlich schon echt Hoffnung gegeben,
21:06dieses okay,
21:07es ist offenbar eben nicht dieses so,
21:09du schaltest das ein
21:10und es sieht halt aus wie KI-Slops,
21:11sondern wenn die Entwickler
21:14entsprechend dran tweaken können,
21:16dann kann man das sehr subtil einsetzen
21:18und gerade was zu Lichteinfall,
21:20die Haare,
21:21wie das Gesicht aussieht,
21:22die Zuhörer hören es jetzt nicht,
21:23sehen es jetzt nicht,
21:24aber die Zuschauer.
21:26Erstens,
21:27wie plastisch ist der Ort,
21:28wenn man umschaltet auf DLS S5,
21:31kriegt viel mehr Tiefe,
21:32das Licht fällt viel schöner
21:33auf die Mauern und auf die Straße
21:35und auch die Person im Vordergrund,
21:37wirkt einfach wie aus einem Guss
21:39und auch wie aus einem Guss in die Spielwelt platziert.
21:42Und das ist schon enorm.
21:44Und wenn das eben was ist,
21:45was nicht jedes Entwicklerstudio
21:46für sich selber ausdenken muss
21:48und nicht jeder beherrscht Pathtracing aus dem FF,
21:54zumal es ja auch sehr hardwarehungrig ist,
21:56das alles eben nicht mehr von der CPU berechnen zu lassen
22:00oder GPU, Entschuldigung,
22:01in der Qualität,
22:02sondern sozusagen ein Werkzeug zu haben,
22:05eine gewisse Licht- und Strukturqualität
22:08von Oberflächen zuzuschalten,
22:11so wie man das möchte,
22:13das ist halt schon ein enormer Schritt.
22:15Definitiv.
22:16Ich meine,
22:16da schwingt halt auch wieder
22:17ein gewisses Risiko mit.
22:19Das war auch ein interessantes Meme,
22:20das ich bei Reddit wo sonst gesehen habe.
22:25Da ging es darum,
22:26wie sehen Spiele in vier Jahren aus,
22:29wenn dir das S50 durchgesetzt hat.
22:32Das war ein Screenshot.
22:33Ich weiß nicht,
22:33ich glaube,
22:33es war vielleicht der Three Damages,
22:34aber egal,
22:34das Bild war halt quasi,
22:36die Basis war komplett hässlich.
22:38Also da war quasi die Grundsorge,
22:40dass wir es ja schon bei DLSS hatten,
22:42beim Upscaling,
22:43Entwickler ruhen sich auf DLSS aus,
22:45ich muss nicht mehr optimieren,
22:46weil ich mache einfach Upscaling
22:47und dann läuft das schon.
22:49Und da ist jetzt eine Sorge,
22:51die auch hier aufkommt,
22:52dass die Entwickler quasi sich darauf ausruhen könnten,
22:55ich muss mein Spiel gar nicht mehr so hübsch machen,
22:58weil am Ende jage ich DLSS drüber
23:00und dann wird das schon.
23:02Das ist jetzt nur eine Sorge,
23:03die im Netz mitschwingt.
23:05Ich will damit jetzt nicht sagen,
23:06dass es sehr wahrscheinlich ist
23:06oder dass es in großem Ausmaß passieren wird,
23:08aber es ist natürlich was,
23:09was immer dabei mitschwingt.
23:11Du hast immer diese zwei Seiten.
23:12Einerseits sehr schön,
23:13dass man vielleicht Spiele optimieren kann
23:17ohne großen Ressourceneinsatz
23:18oder mit sehr effizientem Ressourceneinsatz.
23:21Andererseits ist dann halt immer wieder die Frage,
23:23wie sehr muss ich in die Tiefe gehen?
23:25Wie viel Zeit stecke ich?
23:26Da ist echte menschliche Kreativität,
23:28das ist ja auch das, was viele an den KI-Geschichten stört,
23:31was ich absolut nachvollziehen kann.
23:33Man merkt KI halt oft,
23:34irgendwie fehlt da die Seele einfach.
23:36Es ist natürlich immer schwer,
23:38wenn man halt weiß, dass es KI ist.
23:40Dann ist man sicherlich,
23:41geht mir auch sogar immer so ein bisschen voreingenommen,
23:43auch bei den Bildern.
23:44Also ich glaube, dass bei relativ vielen dieser Gesichter,
23:48wenn wir die mal vor fünf Jahren, sieben Jahren genommen hätten
23:52und einfach Leuten gezeigt hätten,
23:54so Bild 1, Bild 2, welches sieht besser aus?
23:57Ich glaube, dass in 95 Prozent der Fälle die Leute gesagt hätten,
24:01dass DLSS 5 Bilden sieht besser aus,
24:04weil da halt oft einfach die Beleuchtung besser ist,
24:06der Detailgrad höher.
24:09Aber es ist halt trotzdem,
24:11ich kann es verstehen,
24:12oft irgendwie wirkt es halt so glatt gebügelt.
24:16Ich kann es nicht schwer beschreiben.
24:18Und das sieht man dann halt schon.
24:20Aber ist halt die Frage,
24:20sehe ich das auch noch, wenn ich das Spiel spiele?
24:22Jetzt waren wir ja auch sehr konzentriert auf An-Aus-Standbilder,
24:27vielleicht mal so ein bisschen Bewegung.
24:29Wie ist der Effekt,
24:30wenn ich wirklich vor dem Spiel sitze
24:32und es einfach spiele
24:33und mich jetzt nicht so sehr darauf konzentriere,
24:36wie die Gesichter aussehen?
24:37Das ist dann auch eine spannende Frage.
24:40Wie das dann sein wird,
24:41können wir jetzt noch nicht sagen,
24:42weil wir es noch nicht gesehen haben.
24:45Aber ja, extrem interessantes Thema, definitiv.
24:49Also was ich mir auch sehr gut vorstellen kann in dem Rahmen,
24:53ist, dass es vielleicht ein bisschen individualisierbarer wird,
24:55was die einzelne Spielsession angeht.
24:58Also momentan reden wir noch von Engine-nahem DLSS,
25:02das dann halt wirklich so eingefügt wird.
25:03Aber wir haben ja zum Beispiel Funktionen von DLSS,
25:05dass wir jetzt die Multi-Frame-Gen,
25:06wo wir auch aktiv als Nutzer eingreifen können.
25:09Vielleicht wird das bei DLSS 5 ja auch
25:11früher oder später eine Sache sein,
25:13wo wir einfach einen Regler haben,
25:14wo wir sagen können,
25:15okay, AI-Smoveness,
25:17jetzt mal blöd dahergesagt,
25:18auf 10 Prozent statt auf 100
25:20und dann sieht es schon nur noch ein bisschen korrigiert aus
25:23und man hat nicht diesen typischen AI-Look.
25:25Also da könnten Sie ja auch noch ein bisschen dran rumschrauben.
25:28Aber generell, um den Gedanken nochmal abzuschließen,
25:31meine Meinung zu dem Thema,
25:32ich warte auf optimale Optimierung auf jeden Fall.
25:37Auf optimale Optimierung.
25:38Ja, ihr wisst, was ich meine.
25:39Ich warte auf Optimierung.
25:41Momentan mache ich mir Sorgen um ein bisschen so Atmosphäre und so,
25:45um die konkrete Veränderung der Spielcharaktere,
25:47wie man sie bisher gesehen hat,
25:48dass die einfach anders aussehen.
25:50Aber ich glaube,
25:51was oftmals viel nicht bedacht wird,
25:53was jetzt auch Nils schon erwähnt hatte,
25:56Entwickler können das ja noch einstellen.
25:59Und die fangen jetzt erst gerade damit an.
26:01Also ich würde mal die Kirche im Dorf lassen.
26:03Ich glaube so,
26:04das kann schon cool werden,
26:05aber wir müssen halt abwarten.
26:07Ja,
26:10inwieweit seht ihr da so ein Uncanny Valley-Effekt
26:13auf uns zukommen?
26:14Nehmen wir mal Beispiel Starfield
26:15oder allgemein Bethesda-Rollenspiele,
26:17die jetzt ja nicht gerade das erste oder die ersten Spiele
26:21sind, die einem einfallen,
26:22wenn es darum geht,
26:22dass sich Personen besonders lebensnah verhalten.
26:26Es ist ja alles etwas hölzern oft.
26:28Wenn jetzt beim Spiel wie Starfield
26:30die eher hölzernen Figuren so ein DLSS-5-Layer haben,
26:34klar, der ist jetzt hier meinetwegen ein bisschen viel
26:36und glänzt ein bisschen viel,
26:38aber angenommen,
26:39das würde subtiler eingeschraubt,
26:41fällt einem dann nicht umso mehr auf,
26:47wie rigide das Framework dahinter ist.
26:49Vermisst man da nicht umso mehr
26:52realistischeres Verhalten von NPCs,
26:54Bewegungen,
26:57Reaktivität der Spielwelt?
26:58Kann das auch,
26:59selbst wenn es super aussieht,
27:01schaden im Gesamtlook?
27:05Also ich denke ja,
27:06gerade dieser Uncanny Valley-Effekt,
27:08ich finde,
27:09das war gerade das perfekte Beispiel
27:10zu Starfield schon.
27:12Ich finde,
27:12hat man es perfekt gesehen,
27:13gerade als die zwei Charaktere nebeneinander stehen,
27:15hier links der Mann,
27:16rechts die Frau.
27:17Das sieht für mich sehr
27:18Uncanny Valley aus.
27:19Da wird es dann creepy,
27:22weil die halt,
27:22Uncanny Valley,
27:23wissen wir ja,
27:24es sieht quasi zu realistisch aus,
27:26aber wir wissen,
27:27dass es nicht realistisch ist
27:28und dann entsteht
27:28dieser kleine Grusel-Effekt
27:29und ich finde,
27:30das ist hier wieder stärker.
27:31Das haben wir ja in den letzten
27:33einigen Jahren
27:34über das Gaming eigentlich
27:35mehr oder weniger verloren,
27:37kommt natürlich aufs Spiel an,
27:38aber es ist deutlich weniger schlimm geworden,
27:39als es früher noch war.
27:40Aber dadurch,
27:40dass es jetzt so realistisch aussieht,
27:42auch der Rest im Shot
27:44einfach von der Umgebung her
27:45so realistisch aussieht,
27:46aber dann haben wir diese kalten Augen,
27:48die keinerlei Ausdruck haben.
27:50Also das wird,
27:51das wird auf jeden Fall
27:52ein Thema sein,
27:53das, um das sich die Spiele
27:55schmieden,
27:56kümmern müssen,
27:56gerade bei Befest.
27:57Also das wird ein Thema werden,
27:59denke ich.
28:00Ja, man darf ja bei all dem
28:01nicht vergessen,
28:03das ist so wie Frame Generation
28:05und Upscaling sicherlich was,
28:07also da gehe ich jetzt schwer von aus,
28:09was ich an und aus machen kann.
28:10Also ich glaube nicht,
28:12dass uns das aufgezwungen wird
28:14und insofern finde ich persönlich,
28:18ja mein Gott,
28:18wenn ich die Option habe,
28:19wenn die Entwickler es gut machen
28:20und es mir gefällt,
28:21dann mache ich es an
28:21und wenn es mir nicht gefällt,
28:23dann mache ich es eben aus.
28:24Also da verliert man ja jetzt nichts
28:26und was auch noch hinzukommt,
28:28du hast es ja gerade
28:29schon angesprochen, Jan,
28:30ich finde diese Möglichkeit
28:30extrem spannend,
28:32der Individualisierung,
28:33wir haben es gerade
28:34auf dem Chat ja schon gelesen,
28:35da hat jemand geschrieben,
28:35zum Beispiel Half-Life 1
28:36mal mit moderner Grafik.
28:38Ich habe mir auch schon so gedacht,
28:39was wäre,
28:40wenn ich einfach quasi sagen könnte,
28:41so ich möchte jetzt mal
28:42dieses Triple-A-Spiel
28:43im Pixel-Art-Look sehen.
28:45Ob die KI das dann kann,
28:46keine Ahnung,
28:47aber mein Gott,
28:48wenn ich es einfach anmachen könnte
28:49oder jetzt Hell-Shading-Look
28:50oder was auch immer
28:51und einfach mal so ein bisschen
28:52rumprobieren,
28:53und das dann klappt,
28:54das finde ich eine sehr,
28:56sehr spannende Möglichkeit
28:56und du kannst es ja auch
28:57viel subtiler machen.
28:58Du kannst ja auch sagen,
29:00ein Witcher 3
29:01ist mir zu bunt
29:02von der Farbgebung,
29:04mach das mal entsättigter.
29:05Klar,
29:05da gibt es jetzt auch
29:06simplere Fälle,
29:07wie so Reshade,
29:08kennen bestimmt auch viele
29:08hier im Chat,
29:09so ein Tool,
29:10was sich den Frame einfach nimmt,
29:11wo man sowas wie Farbgebung
29:13und so eh auch anpassen kann,
29:14übrigens sehr empfehlenswert.
29:16Aber warum das nicht
29:17eine Stufe höher geschaltet
29:18mit KI?
29:19Nein, klar,
29:20ein Warum nicht
29:21könnte halt sein,
29:22wir verbrauchen
29:23noch mehr Rechenleistung
29:24für KI-Kram,
29:25der letztlich Spielerei ist.
29:27Aber mein Gott,
29:27klar,
29:28wir sind die Gaming-Seite,
29:29wir reden hier als
29:30Überspiele.
29:31Und da,
29:32ich verstehe,
29:33wenn man darüber
29:33natürlich auch kritisch denkt.
29:35Aber jetzt erstmal
29:36rein aus der technischen Sicht
29:37und auch grafisch
29:38finde ich das
29:39sehr interessant
29:40und man kann halt
29:41nicht so viel verlieren,
29:42finde ich,
29:42dadurch,
29:43dass man es an- und ausmachen kann,
29:44wovon ich jetzt mal rausgebe.
29:46Jetzt ist es für Herbst
29:472026 angekündigt,
29:49das ist nicht mehr
29:49so weit hin.
29:50Wir vergessen auch immer
29:51ein bisschen,
29:52auch GTA soll
29:52in nicht mal mehr
29:54in einem Gruppenhalbenjahr kommen.
29:56Dazu DLSS 5,
29:58eine neue Generation
29:59kommt auf uns zu.
30:00Ist das realistisch,
30:01dass DLSS 5
30:02im Herbst ausgerollt wird
30:03oder
30:04eher nicht?
30:06Oder eher nur so als Demo
30:07wie jetzt,
30:08sagen wir mal,
30:09RTX Remix?
30:10Dass es grundsätzlich geht,
30:11aber dass es noch
30:12ganz schön lang dauern wird,
30:13bis namhafte Spiele
30:15das einsetzen werden.
30:17Also ich glaube,
30:19Nvidia wäre
30:19nicht hingegangen
30:21und hätte gesagt,
30:21Herbst,
30:22wenn nicht Herbst
30:23realistisch wäre.
30:24Also eigentlich ist Nvidia
30:25jetzt schon,
30:25ich meine klar,
30:26es gibt Ausnahmen,
30:26ich glaube,
30:27das neueste Reflex
30:28lässt auf sich warten,
30:29aber bei so einer Technologie,
30:32die sie jetzt so
30:33groß ankündigen,
30:35gehe ich davon aus,
30:35dass es im Herbst
30:37auch wirklich kommen wird.
30:38Aber wie du schon sagst,
30:39in welcher Form dann halt,
30:40in wie vielen Spielen,
30:42wir erinnern uns ja zurück,
30:44Raytracing 2018,
30:45Gott,
30:45schon wieder acht Jahre her.
30:47Das kam ja auch,
30:48also es kam,
30:49als Nvidia es angekündigt hat,
30:51die erste RTX-Generation,
30:53aber dann auch erst mal
30:54nur so halb,
30:55also es war, glaube ich,
30:55erst mal nur in Battlefield
30:57oder da, glaube ich,
30:58sogar auch erst nach Release
30:59in einem Patch
30:59und dann trudelten
31:00so ganz langsam
31:02ein,
31:03zwei,
31:03drei weitere Spiele
31:04ein.
31:04also da würde ich jetzt
31:06von ausgehen,
31:06dass das quasi
31:07ein langsamer Release
31:08wird,
31:09möglich auch,
31:10dass sie die Kompatibilität
31:11bei den Grafikkarten,
31:12ich meine,
31:13wie du schon sagst,
31:13RTX 5000 wird sowieso
31:14Voraussetzung sein,
31:16aber vielleicht schränkt es
31:17auch noch weiter ein,
31:18je nachdem,
31:19wie viel Leistungshunger
31:20es dann auch hat.
31:21Also das wird eher
31:22so ein langsamer Release,
31:24denke ich jetzt,
31:25und nicht sofort der,
31:26hier habt ihr es in 300 Spielen,
31:28legt mal los,
31:29Release.
31:31In welchen Spielen
31:32werden wir es denn sehen?
31:34Also wir haben jetzt
31:34eine Szene gesehen
31:35aus Resident Evil Requiem,
31:36Hogwarts Legacy,
31:37Assassin's Creed Shadows
31:40und Starfield.
31:41Habe ich was vergessen?
31:43Oblivion Remastered.
31:46Ja, jetzt,
31:47da erwischen mich
31:48ein bisschen,
31:49es gibt irgendwo eine Liste,
31:50jetzt habe ich sie nicht parat.
31:52Warte mal,
31:53was haben wir hier?
31:54Ah ja,
31:54ich habe es,
31:54es wird in Spielen
31:55wie Aeon 2,
31:56Assassin's Creed Shadows,
31:57Black State,
31:58Sinner City,
31:59Delta Force,
32:00Hogwarts Legacy,
32:01Justice,
32:02Naraka Blade Point,
32:03Phantom Blade Zero,
32:05Resident Evil Requiem,
32:06Sea of Remnants,
32:07Starfield,
32:07The Elder Scrolls 4,
32:08Oblivion Remastered,
32:09Where Wind Meets
32:10und weiteren verfügbar sein.
32:12Also das sind die,
32:13die angekündigt sind.
32:14Es wird ähnlich sein,
32:15wie es jetzt auch schon
32:17bei DLSS ist.
32:18Ihr kennt das ja
32:19bei sowohl Frame Generation,
32:21ich meine,
32:21das Upscaling ist mittlerweile
32:22in sehr, sehr vielen Spielen drin,
32:24Frame Generation
32:24in weniger Spielen,
32:25aber weil da die Entwickler
32:27halt auch nochmal mehr ran müssen
32:28als beim reinen Upscaling,
32:29das wird bei DLSS 5
32:31auch so sein,
32:32aber die Aufnahmerate
32:35hat sich ja schon,
32:36ist schneller geworden
32:37und ich gehe auch davon aus,
32:39dass das jetzt auch
32:39im Vergleich zu einem
32:40Raytracing vor acht Jahren
32:42schneller gehen wird,
32:44dass das in mehr Spielen kommt.
32:45Aber es ist dann auch
32:46wirklich jetzt noch die Frage,
32:47wie kommt es auch
32:48bei den Entwicklern an?
32:49Das ist ja letztlich
32:50das Entscheidende,
32:50das darf man auch nicht vergessen.
32:51Die sind diejenigen,
32:52die das jetzt benutzen können,
32:53die jetzt da tweaken können,
32:55die die Einstellung
32:55erstmal vornehmen können
32:56und die müssen dann auch
32:58diejenigen sein,
32:58die sagen,
32:59das ist geil,
32:59das will ich für mein Spiel haben
33:02und daran wird es dann
33:03auch viel hängen.
33:04Was machen die Entwickler damit?
33:05Wie nehmen sie das auf?
33:07Entweder ist offensichtlich
33:07sehr selbstbewusst,
33:08was das angeht,
33:10auch wenn die Ankündigung
33:12jetzt nicht so lief,
33:12wie sie sich das wahrscheinlich
33:13oft haben.
33:14Aber da bleiben auch noch
33:15viele Fragen offen.
33:18Die Frage ist,
33:19kommt es für GTA 6 noch?
33:21Ja, das ist die Frage.
33:22Wie sieht Crysis damit aus?
33:23Hat Max gerade im Chat gefragt.
33:26Läuft es dann noch?
33:28Wie läuft es dann noch?
33:29Genau, wie läuft es?
33:30Glaubt ihr denn,
33:31oder große Dev-Teams
33:33wurden damit schon geprimed?
33:34Also denen ist das
33:35schon länger bekannt?
33:36Gerade hinsichtlich Releases
33:38vom kommenden Jahr?
33:40Oder noch nicht
33:41eigentlich für die Spiele?
33:42Ich denke auch, ja.
33:44Also da hat der Video
33:44grundsätzlich gute Kontakte,
33:46in die Branche natürlich.
33:48Und ich meine,
33:48das ist die GTA-Frage
33:49entspannt,
33:49weil ich sage mal,
33:50wenn sie mit denen
33:51gesprochen hätten
33:51und die schon gesagt hätten,
33:52jo, machen wir.
33:53Also ich glaube,
33:53dann hätten sie das
33:54jetzt nicht verheimlicht,
33:56wäre jetzt mein Gefühl.
33:57Wer weiß,
33:57vielleicht kommt dann
33:59der nächste GTA-Trailer
34:00mit DLSS 5.
34:01Keine Ahnung,
34:02auch möglich.
34:04Aber ja,
34:04das ist natürlich
34:05so ein Spiel,
34:07ja, da ist halt auch wieder
34:08die Frage,
34:08ob es da dann wieder zu passt.
34:09So ein Spiel,
34:10das sowieso schon quasi
34:11damit hausiert,
34:13sage ich mal,
34:13sehr realistische
34:14State-of-the-art-Grafik
34:16zu haben.
34:16Vielleicht braucht es,
34:17dass es dann vielleicht
34:18doch gar nicht mehr so sehr
34:19und die Entwickler
34:20sind deswegen auch
34:21zurückhaltend.
34:22Möglich.
34:23Ich kann mir aber auch
34:23vorstellen,
34:24dass Rockstar da halt
34:25mit rum experimentiert
34:26und jetzt erst mal
34:27nichts zeigen wollte.
34:28Vielleicht machen sie es
34:29nur minimal.
34:30Ich kann mir halt gut
34:31vorstellen,
34:31dass man hätte ja
34:33durchaus vielleicht
34:33den Riecher haben können
34:35schon,
34:35wenn man so ein bisschen
34:36die Anti-KI-Stimmung
34:38aufschnappt,
34:38dass das vielleicht
34:39nicht so smart ist.
34:40das meist erwartete Spiel
34:42aller Zeiten
34:43jetzt mit
34:44AI-Slog
34:45zu verunreinigen.
34:47Ja,
34:49also ich kann mir gut
34:49vorstellen,
34:50dass sie damit schon
34:51lange am Experimentieren
34:52sind,
34:53relativ lange.
34:54Aber ob es kommen wird,
34:55ist halt wirklich
34:56die Frage,
34:56braucht man es?
34:57Wollen sie es wirklich
34:57haben?
34:58Es wird spannend.
34:59Ich hätte es so gefeiert,
35:00wenn sie den Trailer
35:01einfach jetzt released hätten,
35:02jetzt GTA jetzt mit
35:03AI-Slog ist,
35:07im Herbst kommt sowieso
35:10erstmal nur für Konsolen
35:11und nicht für den PC
35:12und zumindest nach meiner
35:13Kenntnis ist in aktuellen
35:14Konsolen auch nicht in der
35:15PS5 Pro eine NVIDIA-Karte
35:17verbaut.
35:18Das heißt,
35:19das wird dann erst
35:20wahrscheinlich zur PC-Version
35:21überhaupt ein Thema
35:22werden können.
35:24Das ist korrekt,
35:24natürlich.
35:25Jetzt war der Backlash
35:26ja enorm und Regie,
35:28ich weiß nicht,
35:29ob wir Szenen aus
35:30Assassin's Creed Shadows
35:31und Oblivion Remastered,
35:33noch parat haben,
35:34weil die würde ich gerne,
35:35bevor ich die zweite
35:36Umfrage starte,
35:37kurz zeigen.
35:39Okay,
35:40das dauert einen kleinen
35:41Moment.
35:42Bis dahin,
35:44die Frage,
35:44jetzt war der Backlash
35:45wie gesagt enorm,
35:46was muss NVIDIA
35:49denn jetzt tun,
35:51um das Ruder
35:51rumzureißen,
35:52was die öffentliche
35:53Wahrnehmung angeht?
35:54Man kann differenziert
35:56darüber sprechen,
35:56man kann auch Beispiele
35:57zeigen von Spielen
35:59oder Stellen
36:00in den bekannten
36:02Szenen,
36:02wo die Technik
36:04enorm viel bringt
36:05und wo sie nicht
36:06die Gesichter
36:06der Charaktere
36:07versaut.
36:09Das ist allerdings
36:11nicht das,
36:11worüber das Netz
36:12schimpft.
36:13Es gibt schon
36:14unzählige Memes
36:15darüber,
36:15wie das Monster
36:16aus Resident Evil
36:17jetzt mit DLSS5
36:19aussieht
36:19und dann ist es halt
36:20so eine komplett
36:23überdramatisierte
36:25Modelperson.
36:26Die Häme ist groß,
36:28wie kriegt NVIDIA
36:29das jetzt wieder
36:30eingefangen?
36:31Was müssen sie tun?
36:32Ja, ich würde sagen,
36:33so wie Jensen Wang
36:34das gemacht hat,
36:35sich hinstellen
36:35und sagen,
36:36die Spieler haben
36:37alle keine Ahnung.
36:38Das ist der beste Weg.
36:40Hier täuscht du mich.
36:41Ich glaube,
36:42so muss man das machen.
36:46Ja, nein,
36:46mal im Ernst.
36:47Also,
36:49wie du gerade schon gesagt hast,
36:50ich glaube,
36:51das Beste,
36:51was sie tun können,
36:52ist,
36:53diese Technik
36:54in ihrer besten Version
36:56zu zeigen.
36:56Also möglichst schnell
36:57dafür zu sorgen,
36:58dass man Material hat,
37:00das was anderes zeigt,
37:02dass den Fokus
37:02auf was anderes legt,
37:04dass Charaktere
37:05vielleicht weniger
37:06AI-mäßig aussehen lässt,
37:07weil das, denke ich,
37:08wird jetzt schon
37:09alles möglich sein
37:09mit der Technik.
37:10Weil letztlich
37:11reden wir ja davon,
37:12von dem,
37:13was wir alle
37:13schon längst machen können
37:14mit KI.
37:15Ihr sagen,
37:16hier ist das Bild,
37:17mach mal damit das und das.
37:18Das klappt,
37:20wie wir auch,
37:20wer das öfter benutzt,
37:21der weiß,
37:22das kann super gut klappen
37:23und es kann auch
37:23richtig mies klappen.
37:25Und ich denke,
37:25vor dem Problem
37:26steht letztlich auch Nvidia.
37:28Also mir ist es schon
37:29so oft passiert,
37:29dass ich KI um irgendwas
37:30gebeten habe bei einem Bild,
37:32so auch simpelste Sachen
37:33und sie hat einfach
37:33was völlig anderes gemacht
37:34oder komplett ignoriert,
37:36was ich gesagt habe.
37:38Vielleicht ist Nvidia
37:38da mit der eigenen
37:39Machine Learning
37:40in Bezug auf Spiele
37:41schon weiter hoffentlich.
37:43Aber ich glaube,
37:44das ist das,
37:44was sie jetzt vor allem
37:45machen müssen.
37:46Ich meine,
37:46sie haben ja immerhin
37:46schon in dem
37:48offiziellen Ankündigungs-Trailer
37:49auch den Kommentar
37:50runtergesetzt,
37:50hey,
37:51die Entwickler haben Kontrolle,
37:53das ist keine Sorge,
37:55das ist nicht einfach
37:56nur jetzt hier
37:57AI-Slop,
37:58aber die müssen dem
37:58jetzt auch mal dann
37:59Taten beziehungsweise
38:00Szenen folgen lassen.
38:02Ich glaube,
38:02das ist das Beste,
38:03was sie jetzt machen können.
38:04Genau,
38:05wahrscheinlich wäre es
38:06am besten,
38:07wenn sie sich wirklich
38:08konkret die Probleme
38:10vornehmen,
38:10die die Community
38:11jetzt am meisten
38:12beschäftigt
38:13und dann beweist,
38:15dass das eben
38:15kein Problem ist.
38:17Diese Gesichtsveränderung
38:18von,
38:18wie heißt,
38:19Grace aus Regen,
38:21die ja sehr wie ein
38:23AI-Model dann
38:24doch aussieht
38:25mit volleren Lippen
38:26und betont
38:27daran Wangenknochen
38:28und so,
38:29das müssen sie beweisen,
38:30dass das eben auch
38:31anders geht.
38:31Es geht auch viel um
38:32die Atmosphäre,
38:33gerade Requiem wieder
38:34dasselbe Beispiel
38:35in dieser Szene,
38:36in der Grace dasteht,
38:37ist im Original
38:38ohne DLSS 5
38:40es ist sehr neblig
38:41und es ist sehr düster
38:43und dann mit DLSS 5
38:44ist es halt
38:45eher heller,
38:47nicht mehr so neblig,
38:48es ist einfach
38:48ein bisschen eine andere
38:49Atmosphäre
38:49und auch da müssen sie
38:50wahrscheinlich jetzt
38:51erstmal zeigen,
38:51ey, das war halt
38:52eine Einstellung,
38:53das kann man aber
38:53auch anders machen
38:54und da müssen sie
38:55jetzt, glaube ich,
38:56an die ganzen einzelnen
38:57Details,
38:57beziehungsweise das wäre
38:59wahrscheinlich das Optimum,
39:00was sie jetzt machen könnten,
39:00um diesen Hate
39:01ein bisschen wieder
39:02zurückzufahren
39:03und eben zu beweisen,
39:04ey, das kann wirklich
39:05eine geile Technik sein
39:06und wir sind hier eben
39:07nicht komplett
39:07tone-deaf
39:08und denken,
39:08es sieht super aus,
39:09obwohl es halt aussieht
39:10wie von JGPT
39:12ja,
39:13erstellt.
39:15Und was man auch
39:15nicht vergessen darf,
39:17der Backslash
39:18ist da,
39:18klar,
39:19aber wenn man
39:20genauer hinguckt,
39:21also natürlich sind die
39:22Stimmen am lautesten
39:24jetzt,
39:24die sich beschweren.
39:25ich kann das auch völlig
39:26verstehen,
39:27ich möchte das auch gar
39:28keinem absprechen,
39:29diese ersten Reaktionen,
39:31aber allein,
39:32wenn man zum Beispiel
39:33die Umfrage auf unserer
39:34Webseite anschaut,
39:35die haben wir auch
39:36direkt am Dienstag gestartet,
39:37da haben fast 2000 Leute
39:38mitgemacht,
39:39ich kann die Zahlen jetzt,
39:41also ich kann es einfach
39:42runterbrechen,
39:42da ist es quasi
39:43komplett 50-50,
39:44also wir haben das sehr,
39:46also feinstufig,
39:47findest du das sehr positiv,
39:49was du gesehen hast,
39:50positiv,
39:50neutral,
39:51negativ oder sehr negativ
39:53und das ist quasi
39:53komplett 50-50,
39:55also sehr positiv
39:56hat fast genauso viele
39:57Stimmen,
39:57es hat sogar am meisten,
39:58hat 26%,
40:00sehr negativ 21%,
40:02neutral sind 18%
40:03und positiv und negativ
40:05haben jeweils 17%,
40:06also da sind die Leute,
40:08es ist nicht ganz so
40:09eindeutig,
40:10dass es alles scheiße
40:11letztlich in der
40:12Gesamtwahrnehmung,
40:13würde ich sagen,
40:13wie es jetzt vielleicht
40:14durch diesen massiven
40:16Backslash,
40:17den man halt natürlich
40:17in Foren sieht,
40:19der ist etwas größer
40:20als das,
40:20was glaube ich bei den
40:21Leuten tatsächlich
40:22angekommen ist.
40:23Das ist auch bei der
40:23PC Games Hardware,
40:24die haben auch eine
40:25Umfrage dazu gemacht,
40:26die haben immerhin
40:27auch 500 Teilnehmer,
40:28da ist auch die
40:29meistbewertete Option
40:30ist ein echter
40:31Meilenstein,
40:32der die Zukunft
40:32der Computergrafik
40:33markieren wird,
40:34mit 32%.
40:36Klar,
40:37und auch da ist
40:37sogar noch positiver,
40:38also da ist die
40:39schlechteste Option,
40:41hat am wenigsten
40:41Prozent,
40:42mit 21%,
40:43also das ist für mich
40:44absoluter KI-Slop,
40:45wird von mir
40:46kategorisch abgelehnt,
40:47hat die wenigsten
40:48Stimmen bei der
40:48PCGH.
40:49Ich denke,
40:51da kann man vielleicht
40:51sagen,
40:52je technologieaffiner
40:54die Zielgruppe,
40:55bei PCGH ist sicherlich
40:56nochmal ein Stück,
40:57klar,
40:58wir haben auch bei
40:58Games viele Techniker,
40:59viele Leute,
41:00aber auch natürlich
41:02Menschen,
41:02die mehr rein sich
41:03aufs Gaming
41:04fokussieren,
41:05eine PC Games Hardware
41:06ist nochmal mit einem
41:06stärkeren Technik-Fokus,
41:08finde ich jetzt auch
41:09gar nicht so überraschend,
41:09dass quasi in solchen
41:10Zielgruppen das eher
41:12positiver oder nicht
41:13ganz so negativ
41:14wahrgenommen wird,
41:15wie vielleicht in,
41:16ja,
41:17also,
41:18das soll jetzt nicht
41:18despektierlich klingen,
41:19Menschen,
41:20die sich einfach jetzt
41:20nicht so intensiv mit der
41:21Technik vielleicht
41:22auseinandersetzen,
41:23was ja völlig in Ordnung ist.
41:24Dann siehst du halt auch
41:25erstmal nur das Endergebnis
41:26und da kann ich völlig
41:26verstehen,
41:27wenn man eine Grace
41:28vorher kennt und sie dann
41:29mit der SS5 sieht,
41:31was man dann vielleicht
41:31halt sagt,
41:32ja, nee,
41:32so nicht,
41:33bitte.
41:33Wir schauen uns jetzt noch
41:34eine kurze Szene an
41:35aus Assassin's Creed Shadows,
41:37wo es mal nicht
41:38um die Gesichter geht,
41:39sondern wo es um
41:40die Beleuchtung
41:41der Umgebung geht.
41:42Wer Assassin's Creed Shadows
41:43nicht kennt,
41:44das ist vor etwa
41:44einem Jahr erschienen,
41:46das beeindruckte schon
41:47in der
41:48nicht-DLSS5-Version
41:50mit einer wahnsinnigen
41:51Weitsicht
41:52und
41:53erstaunlichen
41:54Wäldern.
41:55Haben wir denn
41:56die DLSS5,
41:58dieses Bild
41:58auch,
41:59liebe Regie,
42:00oder haben wir nur
42:00Szenen aus dem Spiel?
42:03Ah, okay,
42:03die Szene von
42:04Okay,
42:05wir schauen gerade noch
42:06nach der DLSS5-Version.
42:08Die wäre in dem
42:10Digital Foundry-Video,
42:11ich weiß gar nicht,
42:12ob die in dem
42:12offiziellen Material
42:13drin ist.
42:14Die Kollegen von
42:15Digital Foundry
42:16waren ja vor Ort
42:16auf der GTC
42:17und die konnten sich
42:18das vor Ort angucken,
42:19auch Live-Demos
42:21und ich meine,
42:22in dem Material
42:22ist das drin,
42:23vielleicht nur als
42:24Hinweis an die Regie,
42:25wenn wir das mit
42:26Quellenangabe
42:27zeigen können,
42:28genau.
42:29Ich kann es ja schon
42:30mal schildern,
42:30also man sieht da auch
42:31Nauwe,
42:32die Ninja
42:33in dem Spiel,
42:34wie sie auf einem,
42:36wo man halt
42:36bei Assassin's Creed
42:37irgendwo drauf sitzt,
42:38die sitzt da irgendwo drauf
42:39und sie hat eine enorme
42:40Weitsicht und hinterher
42:40sind Wälder zu sehen
42:41und ein Hafen
42:42mit Schiffen
42:43und der Sonne,
42:44die sich auf dem Wasser
42:45spiegelt
42:46und mit DLSS5
42:48sieht die Figur
42:49fast genauso aus,
42:51aber die Wälder
42:52im Hintergrund
42:53und das Wasser
42:54und die Bäume
42:54und deren Schatten
42:55und die,
42:56wie das Licht
42:57plastisch
42:58die Landschaft
43:00formt,
43:01das ist tatsächlich
43:01ein enormer
43:02Unterschied
43:02und deswegen
43:03möchte ich euch,
43:04bevor wir es uns
43:05kurz anschauen,
43:06danach dann bitten,
43:07an eine Umfrage
43:08teilzunehmen
43:08und zwar dessen,
43:12wo glaubt ihr,
43:13ist denn jetzt
43:13der große Quantensprung
43:15oder was macht
43:15für euch den Unterschied
43:16aus?
43:16Sind es eher
43:17die Charaktere
43:18oder ist es eher
43:19die Umgebung
43:19oder beides
43:20oder keins von beiden?
43:21Das schauen wir uns
43:21jetzt gleich mal an.
43:23Selbiges war bei
43:24Oblivion zu sehen,
43:25dem Remaster,
43:26da sind auch die Figuren
43:27so ein bisschen,
43:28naja gut,
43:29es sind quasi
43:30inzwischen 20 Jahre
43:31alte Figuren,
43:32die remastert wurden
43:33und über die dann
43:34der KI-Layer
43:35drüber gelaufen ist.
43:36Da ist natürlich
43:38klar,
43:38dass es ein bisschen
43:39merkwürdig aussieht,
43:40aber gerade wie
43:40die Gemäuer
43:41und die Pflanzen
43:43und die Lichtstimmung
43:44im Dorf ist,
43:46das ist tatsächlich
43:46ein enormer Unterschied
43:47und jetzt läuft
43:48die Umfrage,
43:49wo sollte DLSS 5
43:51eingesetzt werden?
43:52Bei Charakteren,
43:53bei Umgebungen,
43:53bei beidem
43:54oder nirgendwo?
43:55Also niemand
43:57sagt bei Charakteren
43:58ja,
43:59bei Umgebungen
44:00eher nicht,
44:01aber die Mehrheit,
44:03wie sich es aktuell
44:03entwickelt,
44:04scheint dafür zu sein,
44:07die Umgebungen
44:08oder beides
44:09einzusetzen.
44:11Woraus ich jetzt
44:12lese,
44:14vielleicht sollte man
44:15sich auch in der
44:16Präsentation dieser
44:17Technik erstmal
44:18darauf konzentrieren,
44:19wie die Spielwelten
44:19aussehen werden
44:20und wenn man
44:21KI-überarbeitete
44:23Charaktere zeigt,
44:23dann sollte man
44:24vielleicht
44:25da nochmal
44:26eine Gruppe
44:27mit mehr
44:30oder mit weniger
44:31Tone-Deafness
44:32dransetzen,
44:32die sagen,
44:33okay,
44:33das sollten wir
44:34so veröffentlichen.
44:35Das hat Nvidia,
44:36glaube ich,
44:36falsch gemacht
44:36in den letzten Tagen.
44:38Ja,
44:39mich würde so
44:39interessieren,
44:40habe ich auch schon
44:40mit dir Kollegen
44:41darüber gesprochen,
44:42ob sie
44:43das wirklich
44:44nicht haben,
44:44kommen sehen.
44:45Das fände ich
44:46echt sehr interessant
44:46oder ob Nvidia
44:48mittlerweile ein Punkt
44:49ist, wo sie,
44:50es könnten sie längst
44:51sein,
44:51mein Gott,
44:51das ist das wertvollste
44:52Unternehmen der Welt.
44:54Also ihnen kann
44:54nicht völlig egal sein,
44:55was Leute über sie
44:56denken,
44:56das jetzt nicht,
44:57aber am Ende wird
44:58Nvidia nicht so
44:59wichtig sein,
45:00was einige,
45:02was in Reddit-Foren
45:03jetzt passiert,
45:04für die ist viel wichtiger,
45:05was ihre höchsten Kunden,
45:06wo sie der meisten
45:07Geld verdienen,
45:07sind auch längst nicht
45:08mehr wie Spieler.
45:09So realistisch muss
45:10man einfach sein,
45:12dass die da einfach
45:13nur noch raushauen.
45:14Wir werden es wohl
45:14leider nie erfahren,
45:16aber es würde mich
45:16schon sehr interessieren,
45:17ob sie davon jetzt
45:18überrascht wurden oder
45:18nicht.
45:18Ja, man sieht die Szenen
45:19jetzt hier gerade,
45:19das ist schon,
45:21ja, das Bild gewinnt
45:23schon einfach an Tiefe.
45:24Also ich fand auch
45:24viele Szenen,
45:25die man gesehen hat,
45:26da ist es dieser Effekt,
45:27den man auch manchmal
45:28bei Raytracing hat,
45:29man sieht,
45:29es sieht anders aus,
45:30aber man weiß gar nicht,
45:30es sieht jetzt besser aus.
45:32Das hat man ja gerne mal,
45:33aber hier finde ich,
45:35ist es ziemlich eindeutig,
45:35dass es besser aussieht.
45:37Ja, das ist der Richard
45:37Leadbetter hier von
45:38Ginger Fonding,
45:39den wir jetzt hier gerade sehen,
45:40die konnten sich das angucken
45:42und ja,
45:43die haben auch ihr Fett
45:44ein bisschen wegbekommen,
45:46die Kollegen von
45:47Digital Founding.
45:49Allgemein lohnt es sich,
45:51Artikel zu lesen
45:52zum Thema
45:52und weniger auf den
45:54Meme oder Hype Train
45:55aufzuspringen,
45:55vor allem den Hate Train,
45:57denn in Artikeln,
45:58habe ich jetzt teilweise
45:59schon gesehen,
46:00sind Sachen noch beschrieben
46:01und teilweise auch mit
46:02Video-Footage
46:03und Screenshots
46:03untermauert,
46:05die es viel besser zeigen.
46:06Das war zum Beispiel
46:07die ganze Zeit die Rede
46:07von irgendeiner Kaffeemaschine,
46:08die so toll aussah
46:09und das hat NVIDIA
46:11selber nicht released,
46:12diese Footage,
46:13aber es gibt Footage davon,
46:14wie die Kaffeemaschine
46:15vorher und später aussieht
46:16und das ist tatsächlich
46:17ein enormer Unterschied.
46:19Zum einen sieht sie halt aus
46:20wie eine Computergrafik
46:22auf Starfield-Engine-Niveau
46:23und das andere
46:24sieht halt einfach aus
46:25wie eine,
46:26man sieht,
46:26dass es Computergrafik ist,
46:27aber wie eine plastische
46:28Kaffeemaschine
46:29mit korrekten
46:30Chrom-Spiegelungen
46:31und so weiter
46:32und das ist halt schon geil.
46:33Das ist genau das,
46:34wo wir uns vor fünf Jahren
46:35drüber gefreut hätten,
46:36wenn Pathtracing
46:37sowas jetzt auf einmal ermöglicht
46:38und jetzt
46:40ist es halt noch einfacher,
46:42das zu ermöglichen.
46:43Zwei RTX 5090
46:44für eine Kaffeemaschine,
46:45sagt Schrottler.
46:45Geil.
46:46Ja, mein Gott,
46:47wenn der Kaffee
46:47allerdings schmeckt,
46:48dann ist es doch okay,
46:49würde ich sagen.
46:51Übrigens immer
46:51Siebträger beim Kaffee,
46:52wisst ihr ja.
46:53Gute Kaffeemaschine
46:54kostet auch so viel
46:55wie zwei RTX 5090.
46:57Irgendwann brauchen wir
46:58zwei Kaffeemaschinen
46:59für einen guten Kaffee.
47:00Guten Tag.
47:01Ich muss noch mal
47:02einen Gamestar Tech
47:03Kaffeeartikel machen,
47:04das habe ich mir schon
47:05lange vorgenommen.
47:06Naja,
47:07anderes Thema.
47:08Machen wir mal.
47:10So,
47:12gibt es jetzt noch
47:13einen Weg zurück?
47:14Oder ist die Büchse
47:15der Pandora jetzt offen
47:16und
47:18neurales Rendering
47:19ist in der Welt
47:20und wird nicht mehr gehen?
47:22Oder
47:23kommen wir auch zurück?
47:24Es gibt keinen Weg mehr,
47:25keinen Weg zurück.
47:27Oder Jan,
47:27wie siehst du das?
47:28Ja,
47:29nee,
47:29also
47:30ich hätte das jetzt
47:31genauso gesagt.
47:32Einen Weg zurück
47:33gibt es glaube ich nicht.
47:34Es wird halt in Zukunft
47:36Entwickler geben,
47:37die die DLSS 5 benutzen
47:39und welche,
47:40die es nicht benutzen
47:40und es wird
47:41wie so häufig
47:42halt im Endeffekt
47:43beim Entwickler liegen,
47:44ob das auch
47:44gut aussieht.
47:46Aber loskriegen
47:47kriegen wir es jetzt
47:47nicht so begeistert,
47:49wie Nvidia davon ist gerade
47:51und wie sie es
47:52als Revolution verkaufen.
47:53Da glaube ich
47:54auf gar keinen Fall,
47:55dass sie das in nächster Zeit
47:55ruhen lassen.
47:56Selbst wenn es jetzt
47:57am Anfang nicht verwendet
47:58werden würde,
47:59ich bin davon überzeugt,
48:01dass sie daran
48:01weiterschrauben werden
48:02und das immer weiter
48:03verbessern werden.
48:03Und wenn das dann
48:04soweit ist,
48:05dass auch Gesichter
48:06nicht mehr komplett
48:07strukturell verändert werden,
48:08dann wird das,
48:09denke ich,
48:09auch mal hinten.
48:11Ja,
48:12man darf ja auch nicht vergessen,
48:13das haben wir auch schon
48:13Stimmen aus der Branche
48:14sich positiv geäußert,
48:15jetzt ein Todd Howard,
48:16gut,
48:16das ist jetzt auch nicht
48:16so überwaschend mit
48:18Bethesda-Titeln,
48:19die haben es besonders
48:20nötig.
48:21Aber,
48:22und welche Kontakte,
48:23die Nvidia eh hat,
48:24sie sind nun mal einfach
48:25da eine Riesen-Markt-Dominanz,
48:28auch,
48:28mein AMD wird auch
48:30wahrscheinlich mit
48:30FSA Diamond,
48:31wir wissen ja noch nicht
48:32genau,
48:32was es sein wird,
48:33aber das,
48:33es ist schon sehr
48:34wahrscheinlich,
48:34dass die anderen das dann,
48:36vielleicht auch in Intel
48:37nur mit seinem Grafiker,
48:38wie es ja jetzt auch vorher
48:39schon der Fall war,
48:40dann auch machen werden.
48:42Jetzt nicht,
48:42weil alle Nvidia kopieren,
48:44es ist nun mal einfach so,
48:44Nvidia ist da einfach
48:46oftmals Vorreiter
48:47bei bestimmten Techniken
48:49und da sind ja auch Sachen bei,
48:51wo man jetzt heute auch sagen will,
48:53ich meine,
48:53denken wir mal an DLSS zum Beispiel,
48:54das erste DLSS,
48:56ganz am Anfang war das ja auch
48:57eher so,
48:58naja,
48:59also man konnte schon auch
49:00direkt benutzen,
49:01aber da war die Bildqualität
49:02noch deutlich schlechter,
49:03es gab deutlich eher
49:04Bildfehler als jetzt
49:05und heute ist DLSS ja
49:07an und für sich
49:08eigentlich ein kompletter
49:08No-Brainer.
49:09Also es ist ja einfach nur
49:10eine super Technik,
49:10weil ich quasi
49:13höhere Bildqualität
49:14bei gleicher oder
49:15besserer Performance bekomme
49:17und also man verliert ja
49:18meistens eigentlich nichts
49:19durch das Aktivieren
49:20von DLSS,
49:21ob das halt bei DLSS 5
49:22dann auch mal so wird,
49:23dass wir einfach immer sagen,
49:25so,
49:25DLSS 5 ist in dem Spiel,
49:27also mach ich's an,
49:28warten wir mal ab,
49:29aber muss ich ja nicht,
49:30ich muss ja auch jetzt schon
49:30Frame Generation,
49:31weil es nächste DLSS-Technik,
49:33da kommt's ja auch sehr darauf an,
49:34wie empfindlich bin ich
49:35gegenüber dieser höheren Latenz,
49:37wie wichtig ist mir diese,
49:38diese flüssigere Darstellung
49:39einfach von dem Bild
49:40und welches Spiel spiele ich,
49:42nicht in jedem Spiel
49:43ist die Latenz so entscheidend
49:45und das wird auch
49:46für DLSS 5 gelten,
49:48weil Latenz wird hinzukommen,
49:49die Frage wie viel
49:50und wie sich die optischen
49:52Auswirkungen darstellen,
49:53das wird auch sehr unterschiedlich
49:55einfach immer sein
49:56und es wird auch Spiele geben,
49:57ich mein,
49:58wie viele super coole
50:00Indie-Spiele gibt's,
50:00die irgendeine
50:02Billo-Pixel-Art-Grafik haben,
50:04da braucht man
50:04sehr wahrscheinlich
50:05kein DLSS 5,
50:06auf der anderen Seite,
50:06vielleicht kann es da auch
50:07wieder irgendwelche
50:08coolen Sachen machen,
50:08keine Ahnung,
50:10also ich find das einfach
50:10sehr spannend
50:11und bei aller Kritik,
50:12die man gegenüber KI haben kann,
50:14hat das einfach
50:15riesiges Potenzial
50:16und ich finde es schon
50:17beeindruckend,
50:18dass entweder da
50:19jetzt schon an dem Punkt ist,
50:21sagen zu können,
50:21das kriegen wir in Echtzeit hin,
50:23das finde ich technisch
50:24bemerkenswert.
50:26Dem entnehme ich,
50:28dass ihr oder wir
50:29alle drei
50:29dem Ganzen
50:31positiv
50:32und optimistisch
50:33gegenübertreten,
50:35wir alle hoffen,
50:36dass wir uns irgendwann
50:37mal Grafikkarten leisten können,
50:38die das dann auch tun
50:40und das...
50:41Du schenkst die uns,
50:42Daniel,
50:42ich dachte,
50:43du hast es ja abgemacht.
50:43Ich schenke dir
50:44eine zweite Siebträgermaschine,
50:45die kannst du dann koppeln
50:46und dann einen doppelt
50:47so geilen Kaffee machen.
50:48Auch gut, ja.
50:48Oder zwei gleichzeitig.
50:50Wenn du Gäste hast,
50:51ist das das Problem,
50:52das größte Problem
50:52von Siebträgermaschinen.
50:53Wenn du Gäste hast,
50:54dann dauert Zeit,
50:55bis die alle ihren Kaffee haben.
50:56Deswegen nehme ich eine zweite.
50:57Deswegen gar nicht erst
50:57Leute einladen.
50:59Oder so,
51:00einfach zocken im Keller.
51:01Wenn du deine 5090 daheim hast,
51:03dann ist die nämlich
51:03nicht mehr daheim,
51:04wenn Gäste da waren,
51:09freche.
51:10Ja,
51:12unterm Strich
51:12war vielleicht
51:13die Marketingrunde
51:14von NVIDIA
51:15nicht die cleverste,
51:16aber das haben sie jetzt
51:17hoffentlich auch gelernt
51:18und wir freuen uns
51:19auf kommende Footage
51:20mit DLSS 5
51:21und ja,
51:23wahrscheinlich haben wir
51:23trotzdem ein Stück
51:24der Zukunft gesehen
51:26diese Woche.
51:27Vielen Dank,
51:28dass ihr dabei wart
51:28bei diesem recht spontanen
51:30Tech Talk,
51:32was wir immer mal
51:33wieder machen werden,
51:34wenn wir ein spannendes
51:35Tech Thema haben,
51:35dass wir euch auch hier
51:36live im Stream
51:37und dann auf Gamester Talk
51:38und im Podcast
51:39mit Themen
51:40rund um die Technik
51:41versorgen können.
51:42Danke,
51:43dass ihr dabei wart,
51:43Jan und Nils.
Kommentare

Empfohlen