Nvidia'Die neuen KI-Entwicklungstools von Nvidia sind irgendwie seltsam, oder?
Auf der CES 2025 kündigte Nvidia-CEO Jensen Huang diese Woche die neueste Generation von Grafikprozessoren an, die GeForce RTX 50 Series. Wie viele seiner Karten verfügt die RTX 50-Serie über KI-gestützte Deep-Learning-Funktionen, um die Leistung zu steigern, aber die neueste Version von DLSS (DLSS 4) nutzt KI, um bis zu drei Bilder pro gerendertem Frame zu generieren, was die Framerate erhöht. Die meisten der neuen Funktionen sind KI-gestützt.
Das wird natürlich niemanden überraschen. Nvidia ist ein Vorreiter in Sachen KI, was dem Unternehmen eine Marktkapitalisierung von über 3 Billionen Dollar eingebracht hat, und übertrifft Microsoft im Juni 2024. Wie Huang auf der Keynote des Unternehmens sagte: „Wir haben GeForce benutzt, um KI zu ermöglichen, und jetzt revolutioniert KI GeForce.“
Nvidia bietet neue KI-Tools für Entwickler an
Doch nicht alle Neuigkeiten waren so vorhersehbar wie diese. Zusammen mit den GPUs kündigte Huang eine Reihe von Tools für Entwickler an, die Nvidia RTX Kit, eine Gruppe von „neuronalen Rendering-Technologien“, die im Großen und Ganzen dazu gedacht sind, die Grafik in Videospielen zu verbessern.
Also, was ist in dem Kit enthalten? Zunächst einmal sind da die RTX Neural Shader. Diese Shader, so heißt es in einem Blogeintrag auf der Website des Unternehmens, „bringen kleine neuronale Netzwerke in programmierbare Shader und ermöglichen eine neue Ära der Grafikinnovation. Die Anwendungsmöglichkeiten von Neural Shading sind vielfältig, einschließlich Radiance Caching, Texturkompression, Materialien, Radiance Fields und mehr.“
Außerdem gibt es RTX Mega Geometry, das es „ermöglicht, bis zu 100-mal mehr Dreiecke als der heutige Standard zu verfolgen“, und New Reflex 2’s Frame Warp, das die Latenz reduziert, „indem es den gerenderten Spiel-Frame basierend auf den letzten Mauseingaben aktualisiert, bevor er an den Bildschirm gesendet wird“.
Nvidia stellt außerdem ACE autonome Spielcharaktere vor, die durch generative KI angetrieben werden, was „lebendige, dynamische Spielwelten mit Begleitern, die die Ziele des Spielers verstehen und unterstützen, und Feinden, die sich dynamisch an die Taktik des Spielers anpassen, ermöglicht.“ Wir haben dies bereits bei PUBG Ally im Spiel gesehen, aber es wird auch im kommenden InZOI zum Einsatz kommen.
Ich habe keine großen Hoffnungen für dieses Spiel.
Ich werde nicht lügen und sagen, dass ich mehr als ein oberflächliches Verständnis davon habe, was das meiste davon in der Praxis bedeutet, weil ich kein Entwickler bin. Es bedeutet mehr Details, mehr Realismus, mehr Licht und vielleicht klügere NSCs. Ist das gut? Ist es hilfreich? Das müssen die tatsächlichen Entwickler entscheiden. Nicht mein Zirkus, nicht meine Affen. Was ich mache Wir wissen jedoch nicht, wie die Gesichter aussehen, und hier kommt der nächste Teil ins Spiel.
Kann mein Pokerface nicht lesen
Das vielleicht seltsamste der enthaltenen Programme ist RTX Neural Faces, das „ein einfaches gerastertes Gesicht und 3D-Positionsdaten als Input nimmt und ein generatives Echtzeit-KI-Modell verwendet, um ein natürlicheres Gesicht zu erzeugen“. Die Formulierung „natürlicher“ ist.nun ja, irreführend. In dem unten eingebetteten Video können Sie sich selbst davon überzeugen.
Es ist besonders seltsam, dass der Abschnitt des Blogposts, in dem die Neural Face-Technologie beschrieben wird, den Titel „Crossing the Uncanny Valley of Rendering Digital Humans“ trägt, denn das tut er nicht. Es sieht immer noch wild aus. In dem Video sehen wir eine Figur – das „Standard Face“ -, die wie ein beliebiges Charaktermodell in einem modernen Triple-A-Videospiel aussieht. Ihr Mund bewegt sich irgendwie seltsam, während sie spricht.
Dann wird der Bildschirm auf das „RTX Neural Face“ umgeschaltet, das eine völlig anders aussehende Figur zeigt. Sie sieht aus, als hätte sie ein komplettes Make-up aufgelegt, einschließlich Konturen. Ihre Haut ist gebräunter, ihre Wangenknochen sind ausgeprägter, ihre Lippen sind fülliger, ihr Kinn ist runder. Ihre Gesichtszüge scheinen sich leicht zu verschieben, wenn sie spricht und ihren Kopf neigt. Im Grunde genommen hat der Filter sie vergast. Es ist wie das Aloy-Memo „Fans einstellen“, das zum Leben erweckt wurde.
Ich weiß nicht, was ich dir sagen soll, Mann, es sieht verdammt seltsam aus. Man nahm eine absolut gute Figur mit markanten Merkmalen und gab ihr ein anderes Gesicht und wohl auch eine andere Ethnie. Ich bin offensichtlich nicht der Einzige, der so denkt – sieh dir nur die Antworten unter Nvidia’s Tweet über diese Technologie. Charakterdesign ist eine Kunst, und die Neural Face-Technologie ist ein Instagram-Filter, der das auslöscht und ihm den bekannten KI-generierten Verschiebungseffekt verleiht. Buh.
All das dient dem Streben nach besserer Leistung, damit wir aus größeren Spielen bessere Grafiken herausholen können und alles realistischer aussieht und sich auch so anfühlt. Es ist schwer vorstellbar, dass jemand sich solche Figuren ansehen will, die wahrscheinlich 50 Stunden lang auf sie einreden, und doch gibt es diese Technik. Gott, ich hoffe, niemand benutzt das, es ist so hässlich.