AMD und Sony haben gemeinsam drei entscheidende Innovationen für die nächste Generation der RDNA-Architektur angekündigt: das Neural Array, den Radiance Core und die Universal Compression. Diese Technologien werden in zukünftigen GPUs und kundenspezifischen SoCs integriert sein. Angesichts der parallelen Entwicklungen von Ray Tracing, KI-Rendering und Path Tracing in der Gaming-Industrie, werden diese Updates die Funktionsweise von GPUs neu definieren und die Grundlage für zukünftige PlayStation- und High-End-Radeon-GPUs schaffen.

Der Radiance Core ist ein dediziertes Ray-Traversal-Hardwaremodul, welches die kompliziertesten Berechnungselemente des Path Tracing übernimmt. Raytracing erfordert, dass die GPU zwei Arten von Aufgaben gleichzeitig ausführt: geometrische Berechnungen zur Bestimmung, wo die Strahlen auf die Millionen von Dreiecken in der Szene treffen, und traditionelle Schattierungsoperationen, welche Beleuchtung, Reflexion und Textur-Sampling umfassen. In der Vergangenheit waren diese Aufgaben auf allgemeine Shader-Einheiten angewiesen, was zu einem Wettbewerb um Ressourcen und Leistungsengpässen führte. Der Radiance Core wird die Ray-Traversal-Logik übernehmen, sodass sich die Hauptrechenressourcen der GPU auf das Rendering konzentrieren können. Dies verbessert die Leistung von Echtzeit-Ray-Tracing und Path-Tracing erheblich, so Jack Huynh, Senior Vice President bei AMD. Diese Architektur wird intern als eine neue Render-Pipeline angesehen, die die Lichtübertragung sauberer und effizienter gestaltet. Mark Cerny, Architekt der PS5-Serie, stellte fest, dass die Einführung des Radiance Core die Lichtübertragung zu einem filmähnlichen Niveau heben kann. Entwickler werden eine flexible und erweiterbare Raytracing-Lösung auf Hardwareebene nutzen können. Berechnungen für dynamische Beleuchtung und globale Beleuchtung in Spielen nähern sich dadurch dem filmischen Standard an. Das parallel zum Radiance Core eingeführte Neural Array ist ein weiteres zukunftsweisendes Schlüsseldesign. Während in herkömmlichen GPUs Recheneinheiten (CUs) in der Regel unabhängig arbeiten, ermöglichen neuronale Arrays den Datenaustausch und die Zusammenarbeit bei der Verarbeitung, wodurch sie als eine einzige KI-Engine fungieren. Diese Architektur erlaubt es, eine verteilte maschinellen Lernplattform innerhalb der GPU zu schaffen, was die Inferenzgeschwindigkeit und Ressourcenauslastung verbessert, so AMD. Ziel des Neural Arrays ist es, die Fähigkeiten des maschinellen Lernens direkt im GPU-Rendering-Prozess zu integrieren. Dies bietet noch mehr Effizienz und Bildqualitätspotential für zukünftige Versionen von FSR (FidelityFX Super Resolution) und Redstone-Upgrade-Algorithmen. Da traditionelle Recheneinheiten Schwierigkeiten haben, den Echtzeitanforderungen gerecht zu werden, weil Modellgrößen und Algorithmen für Frame-Generierung immer komplexer werden, können neuronale Arrays komplexe KI-Rendering-Aufgaben mit dem gleichen Energieverbrauch bewältigen. Diese gemeinsam genutzte Architektur wird laut Cerny die neuronale Renderlandschaft revolutionieren und zukünftige Upscaling-, Denoising- und Rendering-Systeme ermöglichen, die Strahl- und Ray-Rekonstruktionstechniken in Echtzeit auf der GPU durchführen. AMD fügte hinzu, dass dies auch die Basis für FSR Redstone bildet, das neues Neural Radiance Caching und KI-beschleunigte Frame Interpolation auf GPUs der nächsten Generation unterstützen wird.

Die dritte Technologie, Universal Compression, zielt darauf ab, die Bandbreitenauslastung zu verbessern. Da sowohl die Auflösung als auch die Komplexität des Mappings immer weiter zunehmen, wird die Speicherbandbreite zu einer kritischen Einschränkung für die GPU-Leistung. Der Universal Compression-Algorithmus von AMD wählt dynamisch die optimale Kompressionsmethode aus, indem er alle Formen von Datenströmen innerhalb der GPU bewertet—darunter Textur, Geometrie und Zwischencaches—um den Bandbreitenverbrauch drastisch zu reduzieren, ohne die Bildqualität zu beeinträchtigen. Dieses Hardware-basierte Modul kann die Datenübertragung um bis zu 30 Prozent reduzieren, was zu verbesserter Leistung und geringerem Energieverbrauch führt. Für Spiele bedeutet dies schnelleres Laden von Texturen und flüssigere Frameraten; für Entwickler eröffnet dies die Möglichkeit, komplexere Szenarien bei begrenzter Speicherbandbreite zu realisieren. Zusammen beschreiben diese drei Technologien die Richtung der nächsten RDNA-Architektur von AMD: Eine tiefgehende Integration spezialisierter Hardware-Module mit KI-Recheneinheiten verwandelt die GPU von einem traditionellen Renderer in eine intelligente Rechenplattform. Der Radiance Core bietet Strahlgenauigkeit im Path-Tracing, das Neural Array ermöglicht Echtzeit-Maschinenlernen mit der GPU, und die generalisierte Kompression sorgt für höhere Dateneffizienz bei all diesen Berechnungen. Diese Innovationen werden nicht nur die Leistungsfähigkeit von Radeon-Karten beeinflussen, sondern auch eine Schlüsselkomponente der Grafikeinheiten in zukünftigen benutzerdefinierten SoCs, wie der PlayStation 6, darstellen. Es gibt noch kein konkretes Veröffentlichungsdatum, aber es wird allgemein angenommen, dass diese Innovationen in den ersten RDNA-GPUs der nächsten Generation für High-End-Grafikkarten und Konsolen-Chips enthalten sein werden. Angesichts der Fortschritte, die RDNA 4 bereits bei der Effizienz von Raytracing gemacht hat, könnte die nächste Architektur-Generation um 2026 auf den Markt kommen. Bis dahin könnten verbesserte Neural-Array-Treiber und Radiance-Core-beschleunigtes Ray-Rendering die Spielgrafik der nächsten Generation bereichern.