00:03Mit DLSS 5 hat Nvidia auf der hauseigenen KI-Konferenz GTC die neue Generation seiner
00:09Upscaling-Technologie vorgestellt. Statt eine gewählte Bildschirmauflösung nativ darzustellen,
00:14nimmt DLSS niedriger aufgelöste Bilder und skaliert diese dann mit KI auf das gewählte
00:19Format hoch. Das ermöglicht nahezu gleiche Bildqualität bei besserer Performance.
00:23Für die neueste Version der Technik verspricht Nvidia aber deutlich mehr. Besonders im Bereich
00:28der Beleuchtung bringt DLSS 5 riesige Fortschritte mit sich. Auch Texturen von Oberflächen und
00:33Gesichtern sollen nun realistischer aussehen. Die Firma bezeichnet den Sprung auf das neue
00:38Modell als den signifikantesten Durchbruch der Firma seit der Einführung von Echtzeit-Raytracing.
00:44Nvidia-CEO Jensen Huang behauptet sogar großspurig, dass die Firma mit der Technologie Computergrafik
00:50neu erfunden hätte. Die Technologie wird unter anderem in Spielen von Capcom, EA, Ubisoft und
00:56Warner zum Einsatz kommen und es gibt bereits erste Bilder, wie sich das auf die Optik auswirkt.
01:01Nvidia präsentiert im Trailer unter anderem Szenen aus Resident Evil, EA Sports FC und
01:05Hogwarts Legacy jeweils mit und ohne DLSS 5. Die Technologie bringt offensichtliche Unterschiede
01:11hinsichtlich Beleuchtung und Materialien wie Metall, Stoff und Haar. Am auffälligsten und auch
01:16am extrem umstrittensten sind aber die Veränderungen am Aussehen der Charaktere. Mit DLSS 5 schauen einige
01:23der Figuren nämlich nicht nur hochauflösende aus, sondern haben darüber hinaus auch einen ganz
01:27neuen Look. Und der kommt nicht mal so gut an. In vielen Internetforen und Kommentarspalten ist DLSS 5
01:34derzeit zum Gespött der Woche geworden. Und es ist nicht schwer zu erahnen, wieso. Durch die
01:39auffällige Ausleuchtung und Veränderung der Gesichtdetails fühlen sich ganz viele Leute bei
01:44den Aufnahmen an Bilder erinnert, die mit KI erstellt oder zumindest mit einem starken KI-Filter bearbeitet
01:50wurden. Was sie ja halt auch irgendwo sind. Es war jetzt aber bestimmt nicht im Sinne von Nvidia,
01:55dass alle denken, ihr DLSS 5 lässt Bilder aussehen wie beiläufig hingeschlonzer KI-Slop. Unter den ersten
02:02Reaktionen liest man diese Bezeichnung häufig. Besonders die sogenannte Yesification der Figuren,
02:08also die digitale Retusche, die Gesichter auf unnatürliche Art attraktiv wirken lässt,
02:13sorgt im Netz für höhnisches Gelächter und selbstverständlich zahlreiche Memes.
02:29Und es ist was dran an den Eindrücken. Besonders diese Oma hier aus Harry Potter sieht durch die
02:34neue Beleuchtung schon sehr, sehr künstlich aus. Und Grace aus Resident Evil Requiem könnte man auch
02:39glatt mit einer Einstellung aus einem KI-generierten Fancasting-Video verwechseln. Bei Leon hier sind die
02:45Änderungen deutlich subtiler. Was aber auch kein Wunder ist. Gegen sein teuflisch gutes Aussehen
02:50kommt auch einfach keine KI an. Das schürt natürlich Angst, dass die Technologie den Originallook
02:55vom Spielen komplett verzerrt. Nvidia befindet sich daher schon im Schadensbegrenzungsmodus. Unter
03:01dem Vorstellungsvideo hat der YouTube-Account der Firma einen Kommentar angepinnt, der wohl kritische
03:06Stimmen beschwichtigen soll. Dort wird klargestellt, dass DLSS 5-Spielentwicklern totale Kontrolle über die
03:11Effekte der Technologie erlaubt. Sie können also dafür sorgen, dass die künstlerische Gestaltung
03:15immer noch dem ursprünglichen Konzept entspricht. Das Software-Development-Kind erlaube wohl Anpassung
03:21bei Farbkorrektur, Intensität und Rendering-Effekten. Und auch für den gemeinen Pöbel, also uns alle,
03:27soll die Technologie optional sein. Nvidia-Chef Huang widerspricht den Kritikern, die DLSS 5 mit anderen
03:33generativen KI-Modellen vergleicht. Ich zitiere,
03:36Es ist nicht Post-Processing auf einem Frame-Level, es ist generative Kontrolle auf einem Geometrie-Level.
03:42Es ist sehr anders als generative KI. Es ist Content-Control-generative KI. Darum nennen wir es
03:48Neural Rendering. In menschlicher Sprache meint der CEO damit, dass DLSS 5 eben nicht einfach ein Filter
03:56ist, der über die einzelnen Bilder gelegt wird, sondern die Geometrie der Spielwelt selbst mit
04:01generativer KI ausliest und verschönert. Und das liegt halt alleine in der Kontrolle der jeweiligen
04:07Devs. Das dürfte der Breitenmaße allerdings vollkommen wurscht sein. Die bewerten ja nur das
04:12Endergebnis und wie es aussieht, nicht wie wir dort hingekommen sind. Aber dass der CEO sein Produkt
04:17verteidigen muss, ist ja auch irgendwie klar. Immerhin investiert Nvidia mächtig in KI und muss
04:23diese Investition der Welt und Aktionären schmackhaft machen. Bethesda-Chef Todd Howard freut sich
04:28ebenfalls wie ein Schnitzel über die Technologie, die auch in Elder Scrolls und Starfield
04:31Einzug finden wird. Es sind aber nicht alle Kommentare zu dem Thema negativ. Die Technologie
04:42hat auch ihre Fürsprecher. Die Technikexperten von Digital Foundry, die DLSS 5 bereits vorab
04:47ausprobieren konnten, sind ausgesprochen begeistert von ihren Testergebnissen. Auf dem Channel wurde
04:52auch schon ein Video mit Bewegtbildmaterial veröffentlicht, über das der Moderator regelrecht
04:57ins Schwärmen gerät. Bei der Erstellung dieser Bilder kamen zwei Grafikkarten vom
05:07Typ 5090 zum Einsatz. Als Endnutzer sollen wir dann aber nur eine GPU brauchen. Allerdings
05:13steht die Technologie nur für Karten der RTX 50er-Serie zur Verfügung. In den Kommentaren
05:17von Digital Foundry hagelt es Vorwürfe. Die Seite sei voreingenommen und unglaubwürdig, da das Video
05:22einer Werbeveranstaltung gleichkomme. Es gibt hier und da aber auch positive Kommentare.
05:26Wir haben uns zur Einschätzung des ganzen Nvidia-Dramas mal Unterstützung aus unserer Tech-Redaktion
05:30geholt. Lässt DLSS 5 in Zukunft wirklich jedes Spiel aussehen wie von einer KI generiert oder ist
05:36die Technologie einfach nur missverstanden? Alex, wie hast du auf die Präsentation von Nvidia reagiert?
05:41Also ich kann, wie gesagt, die Kritik nachvollziehen auf der anderen Seite und ich sage, finde ich es
05:46trotzdem irgendwie schockierend gut, wie das aussieht. Die Kernidee dahinter, glaube ich, ist einfach
05:53Richtung Fotorealismus sich zu entwickeln. Wird erzielt durch dieses Neural Rendering, durch ein KI-Modell,
06:00das einfach bestimmte Effekte oder Lichtstimmungen interpretiert und ergänzt. Das zum Beispiel Haut und
06:09Stoffe, Materialien und so weiter erkennt und unverbessert zumindest ist das das Ziel. Aber das ist
06:16gleichzeitig auch so der Punkt, wo es die Kritik daran gibt. Viele Leute erkennen das halt wieder. Die
06:21kennen diese ganzen Instagram- und sonst irgendwas Videos von KIs und sehen dann, wenn sie eine Grace
06:27Ashcroft aus Resident Evil Requiem sehen, dann kennen sie das halt sofort wieder als KI-Content.
06:35Es kann auch sein, habe ich mir so überlegt, dass es vielleicht dieser Uncanny Valley-Effekt
06:39ist. Je näher da man wirklich an echten Menschen oder an echt wirkenden Menschen
06:43rankommt. Vielleicht ist genau das jetzt dieser Punkt, wo man sagt, ja, irgendwie ist es schon
06:48gut. Irgendwas ist da auch völlig schief. Vielleicht ist das auch etwas, was viele stört. Das generiert
06:53auch. Also es generiert so ein ganzes kurzes Stück weit. Also es nimmt Daten aus der Engine
06:58und analysiert die Bilder Pixel für Pixel und sagt dann, ja, okay, also wir haben jetzt da zum Beispiel
07:05die Haare von dieser Grace, die im Original, ja, das schaut relativ gleichmäßig blond aus und in der
07:12überarbeiteten Version hast du halt so richtig dunkle Haarensätze. Tja, da ist natürlich jetzt die Frage, wie viel
07:17Interpretation ist dabei? Wie viel generative KI ist da dabei? Ich vermute aber, und so muss es eigentlich
07:26fast sein, dass eben das, was die KI da generiert, ganz eng gesteckt ist. Das ist ja eine direkte
07:35Extrapolation von dem, was sie an Daten aus dem Spiel und an der Analyse gewinnt. Und dann macht es nur
07:40noch
07:41den nächsten Schritt. Schaut sich da Haare, Haut, irgendwelche anderen Materialien an. Wie werden sie
07:48beleuchtet? Wie soll sie wirken? Und so weiter und so fort. Genau, wie hell sind sie? Wie dunkel? Ja, und
07:54so kommt
07:54das irgendwie zustande. Wie gesagt, die Leute haben jetzt das Gefühl, ja, da wird vielleicht viel zu viel
08:00rein interpretiert und der Look verfälscht, die Intention der Entwickler verfälscht. Die arbeiten
08:06ja auch für die Demos wahrscheinlich mit den Entwicklern zusammen. Und sie haben ja selber
08:09gesagt, okay, es gibt einen gewissen Spielraum, den die Entwickler haben, wie weit es dann geht.
08:15Also es ist nicht ganz so, dass es völlig an dem vorbei ist, wahrscheinlich, was Entwickler
08:19wollen. Aber ja, es ist trotzdem, ja, es ist so ein gewisser einheitlicher Look. Die Gefahr besteht
08:25natürlich schon, wenn die KI überall in mehreren Spielen auf ähnliche Weise eingreift und
08:32schauen vielleicht die Charaktere auf einmal noch gleich aus. Aber insgesamt stellt sich
08:35schon auch die Frage, wie stabil ist das Ganze? Also wenn es jetzt in Bewegung ist, gibt es
08:41da irgendwelche Artefakte später oder einfach irgendwelche Brüche, weil die KI einmal so interpretiert,
08:47das nächste Pixel oder so und einmal so. Das steht noch, also Nvidia gibt es selber an,
08:51ist es temporarily stable. Da muss man natürlich erstmal die Spiele sehen, wie das so eine
08:57Bewegung in Echtzeit bei verschiedenen Auflösungen sich verhält. Also das kann ein richtig großer
09:03Schritt sein. Das hat ja angefangen eben dann schon Anfang letzten Jahres mit dem Release
09:09der RTX 50-Reihe, wo die RTX Neural Shaders vorgestellt worden sind. Die umfassen jetzt ein bisschen
09:15mehr als Neural Rendering, das ist jetzt Teil von der Erde des Fünfes. Da kommt noch ein bisschen
09:20mehr dazu, unter anderem Kompressionstechniken und so weiter, die dann zum Beispiel den
09:25Speicherbedarf, vielleicht reduzieren, der momentan bei der kommenden Jahr zwei
09:29RTX 5090 zum Einsatz womöglich relativ hoch ist. Also ich finde schon, dass man auch diesen
09:34Themos schon ansieht. Das wird schon insgesamt realistisch, einmal abgesehen von den Gesichtern,
09:39wenn ich jetzt gerade, also eben diese Szene Grace Ashcroft steht da draußen irgendwo in so einer
09:43äußischen Lucht, leicht verregnet und so weiter. Und wenn ich mir da jetzt die Gebäude im Hintergrund
09:48anschauen und alles, das wirkt schon nochmal alles irgendwie ein Stück weit echter. Auf
09:54der anderen Seite muss ich aber auch sagen, kann ich natürlich die Leute schon verstehen,
09:58die dann sagen, naja gut, aber vielleicht, weil im Original sieht man dahinter eben auch
10:03Leute, aber du siehst es so ein bisschen im Nebel versinken und so weiter. Und das macht
10:09ja auch einen großen Teil der Atmosphäre aus. Und das ist sicherlich, so wie es im Original
10:13ist es sicherlich gewollt. Die Frage bleibt also, genauso wie bei den Gesichtern, ist das,
10:18was man da in der Umgebung sieht, dieser viel hellere Hintergrund, aber auch detaillierte
10:23Restaurant, ist das so gewollt? Auch wenn ich persönlich sagen würde, subjektiv gefällt es mir
10:30vielleicht besser. Eine Sache ist tatsächlich die Ausleuchtung. Man sieht den Bildern an, die sind
10:39Menschen vor allem, aber auch den Umgebungen. Die sind sehr stark und sehr gut ausgeleuchtet,
10:44mega professionell. Da fällt mir zum Beispiel auch ein, diese eine Szene, glaube ich, in
10:47Oblivion ist das, wo es da runtergehen in das Dorf und da ist diese Steingebäude und so.
10:52Und auf der einen Seite ist das Original, das schon irgendwie nach dem Spiel auch aussieht
10:56und sehr düstere und dunkle Atmosphäre hat. Das andere ist so, erinnert mich mehr so an
11:03Stargate SG-1, wenn sie dann auf einem anderen Planeten sind, gut ausgeleuchtet. Siehst du,
11:09ob das so bleibt, ist fraglich und das ist sicherlich auch etwas, was man kritisieren
11:12kann. Ich frage mich da auch, inwieweit das dann später mal vielleicht verrechnet
11:18wird, wenn Raytracing und Pathtracing mit da eine Rolle spielen, die die globale
11:24Beleuchtung steuern sollten. Ob das dann wieder zurückgenommen wird, ja, das steht
11:29auch alles noch ein bisschen in den Sternen auch. Ja, aber insgesamt denke ich schon, wenn
11:35man das mal auf alles so anwendet, vor allem Materialien und eben dann, wenn diese Kompression
11:42möglicherweise dazukommt, dann sind da einfach ein viel, da ist eine viel höhere Bildqualität
11:48drin. Und auch wenn der Begriff schon aufgefallen ist, Fotorealismus oder so, also mit dem Schritt
11:54nähern wir uns dem, finde ich, schon nochmal deutlich näher an. Vielleicht bin ich auch zu optimistisch.
12:02Also hoffentlich hassen mich jetzt nicht alle, die das hören. Aber kann auch sein.