"Pixelzähler"-Thread

systems, systems, systems, systems, systems, systems, systems, systems
Spielt gerade: Warframe, SB Demo
Hier mal eine Grundlagen-Prognose für die nächsten Monate, oder vielleicht sogar 2-3 Jahre des Pixelzähler-Threads. Der Matt in den Foren-Screenshots dürfte Matt Harget sein, Ex-Playstation-Entwickler und jetzt bei Roblox. Ich denke die Einschätzung ist sehr stichhaltig und wir können uns darauf gefasst machen, dass die Unterschiede in den kommenden Jahren zwischen XSX und PS5 bis auf wenige Ausreißer oder 1st-Party Titel die hervorstechen nur marginal sein werden. Noch einmal deutlich geringer als wir es von PS3/360, XBox One und PS4 und PS4 Pro und XBox One X schon kennen.
Matt Harget hatte anscheinend auch schon mit quasi allen Prognosen zu XBox One und PS4 richtig gelegen.

Schwere Zeiten für DF - statt 200% bis 400% Zoom, werden sie wohl 800% brauchen und die mittleren Abweichungen bei den FPS werden wohl oft nur im 1-stelligen %-Bereich liegen.
Andererseits, wenn sie Vergleiche von Konsolen- zu PC-Versionen machen, dann könnte es fast egal sein ob sie XSX oder PS5 nehmen.

Könnte echt langweilig und ruhig werden hier, wenn die Unterschiede "egal" im Sinne von marginal sein werden. Oder die PCMR übernimmt den thread.

https://www.neogaf.com/threads/next...leaks-thread.1480978/page-3957#post-261147689
 
systems, systems, systems, systems, systems, systems, systems, systems
Spielt gerade: Warframe, SB Demo
Was viele bei den 12 TF halt nicht bedenken, ist vor allem dass dies nur ein Merkmal ist. Die XSX hat 18% mehr TF und auf 10 GB RAM auch mehr Speicherbandbreite. Auf 6 GB aber weniger und die Zugriffe auf die 6 GB nehmen auch Zugriffszyklen auf die 10 GB weg - weil der Speicher zwar unterschiedlich schnell angebunden, aber dennoch unified ist. Im Mittel ist das dann am Ende nicht viel mehr als bei der PS5 - je nachdem wieviel auf die langsameren 6 GB zugegriffen werden muss.

Ein anderer Punkt, der beim Design-Konzept deutlich abweicht ist möglicherweise ein Flaschenhals bei der XSX - und den erkennen alle die nur Specs und nicht das tatsächliche GPU-Design vergleichen nicht. Es ist auch erst seit der Vorstellung der 6000er Serie bekannt und vergleichbar.
Anscheinend sind alle Desktop-AMD-Karten nicht so ausgiebig weit aufgebaut und haben nicht so lange Shader-Arrays wie die XSX-GPU, sondern vertrauen auf höheren Takt.

Bedeutet:

Maximal 5 recht hoch getaktete D-CUs (Dual Compute Units) pro Shader Array - wie bei der PS5
4 Arrays bei 40 CUs (entspricht den 36 bei der PS5) und 8 Arrays bei den 80 CUs (im Prinzip ist hier wohl alles gedoppelt)

Die XSX hat 7 D-CUs pro Shader Array - im Prinzip eine 40 CU - RDNA2 Architektur, wo in jeder Branch zwei D-CUs "angehängt" wurden.
Interessanterweise ist die XSS hier ausgewogener und ist die halbierte Variante der 40 CU-Architektur - allerdings niedriger getaktet.

Wichtig ist dabei zu wissen, dass anscheinend eine Geometry Engine "unified" ist, d.h. die ist für 4 Shader Arrays zuständig und es gibt eine Shader Engine bestehend aus je 2 Shader Arrays. L1-Cache ist je Shader Array, L2-Cache ist unified je 4 Shader Arrays. Also:

1x Geometry Engine
2x Shader Engines mit je 2 Shader Arrays, also 4 Arrays
4x L1 Cache - 1x je Array
1x L2 Cache - unified

Alles davon ist bei der PS5 nach bisherigen Annahmen genauso groß wie bei der XSX - nur dass die XSX mit der gleichen Infrastruktur deutlich mehr CUs füttern muss. Hinzu kommt noch, dass diese Komponenten die die CUs versorgen bei der PS5 alle schneller getaktet sind. Hinzu kommt bei der PS5 evtl. noch die Cache-Scrubber-Funktion die den Einsatz der Caches effizienter macht - jedenfalls wurde das bisher nur von Mark Cerny hervorgehoben.
Wo die Verhältnismäßigkeit wieder passt ist die Anbindung des GDDR6 RAMs, hier hat die XSX eine zu den CUs passende Größenordnung.
Aber dazwischen könnte es je nach Workload eng werden.

Jedenfalls wäre das eine Erklärung, weshalb es für die XSX schwieriger wird die 12 TF auch auf den Bildschirm zu bringen und die aktuellen Benchmarks scheinen das zu bestätigen.

Zur Veranschaulichung:

 

Heroic

walks on the brightside
systems, systems, systems, systems, systems
PSN-Name: The-Heroic
Was viele bei den 12 TF halt nicht bedenken, ist vor allem dass dies nur ein Merkmal ist. Die XSX hat 18% mehr TF und auf 10 GB RAM auch mehr Speicherbandbreite. Auf 6 GB aber weniger und die Zugriffe auf die 6 GB nehmen auch Zugriffszyklen auf die 10 GB weg - weil der Speicher zwar unterschiedlich schnell angebunden, aber dennoch unified ist. Im Mittel ist das dann am Ende nicht viel mehr als bei der PS5 - je nachdem wieviel auf die langsameren 6 GB zugegriffen werden muss.

Ein anderer Punkt, der beim Design-Konzept deutlich abweicht ist möglicherweise ein Flaschenhals bei der XSX - und den erkennen alle die nur Specs und nicht das tatsächliche GPU-Design vergleichen nicht. Es ist auch erst seit der Vorstellung der 6000er Serie bekannt und vergleichbar.
Anscheinend sind alle Desktop-AMD-Karten nicht so ausgiebig weit aufgebaut und haben nicht so lange Shader-Arrays wie die XSX-GPU, sondern vertrauen auf höheren Takt.

Bedeutet:

Maximal 5 recht hoch getaktete D-CUs (Dual Compute Units) pro Shader Array - wie bei der PS5
4 Arrays bei 40 CUs (entspricht den 36 bei der PS5) und 8 Arrays bei den 80 CUs (im Prinzip ist hier wohl alles gedoppelt)

Die XSX hat 7 D-CUs pro Shader Array - im Prinzip eine 40 CU - RDNA2 Architektur, wo in jeder Branch zwei D-CUs "angehängt" wurden.
Interessanterweise ist die XSS hier ausgewogener und ist die halbierte Variante der 40 CU-Architektur - allerdings niedriger getaktet.

Wichtig ist dabei zu wissen, dass anscheinend eine Geometry Engine "unified" ist, d.h. die ist für 4 Shader Arrays zuständig und es gibt eine Shader Engine bestehend aus je 2 Shader Arrays. L1-Cache ist je Shader Array, L2-Cache ist unified je 4 Shader Arrays. Also:

1x Geometry Engine
2x Shader Engines mit je 2 Shader Arrays, also 4 Arrays
4x L1 Cache - 1x je Array
1x L2 Cache - unified

Alles davon ist bei der PS5 nach bisherigen Annahmen genauso groß wie bei der XSX - nur dass die XSX mit der gleichen Infrastruktur deutlich mehr CUs füttern muss. Hinzu kommt noch, dass diese Komponenten die die CUs versorgen bei der PS5 alle schneller getaktet sind. Hinzu kommt bei der PS5 evtl. noch die Cache-Scrubber-Funktion die den Einsatz der Caches effizienter macht - jedenfalls wurde das bisher nur von Mark Cerny hervorgehoben.
Wo die Verhältnismäßigkeit wieder passt ist die Anbindung des GDDR6 RAMs, hier hat die XSX eine zu den CUs passende Größenordnung.
Aber dazwischen könnte es je nach Workload eng werden.

Jedenfalls wäre das eine Erklärung, weshalb es für die XSX schwieriger wird die 12 TF auch auf den Bildschirm zu bringen und die aktuellen Benchmarks scheinen das zu bestätigen.

Zur Veranschaulichung:

ich verstehs nicht aber scheint mir logisch.
 
systems, systems, systems, systems, systems, systems, systems, systems
Spielt gerade: Warframe, SB Demo
Die Kurzfassung:
Gegenüber Sony und auch den Desktop-Karten von AMD hat MS "zu viele" Compute Units (auf denen basiert die theoretische TFLOP-Performance) an einem Strang hintereinander - aber nicht genauso viel Unterbau pro Compute Unit, um diese auch genauso effizient zu versorgen.
Deswegen kommt die XSX nicht so leicht und oft an ihre theoretische Leistung heran. Vielleicht wird sie die Compute Units auch nie so weit ausnutzen können, wie die PS5 und die Desktop-GPUs, außer in synthetischen Benchmarks oder einer Hand voll Sonderfällen.

Der Punkt ist, weder AMD noch Sony haben pro Shader-Einheit mehr als 8-10 CUs. MS hat aber 12-14 und muss diese mit der gleichen Infrastruktur mit Arbeit versorgen.

Noch ein Extra:
MS hat dies vermutlich so geplant, weil sie die gleiche APU ja auch für XCloud verwenden wollen, um bis zu 4 XBox One mit einer XSX in der Cloud abzubilden. Dafür haben sie mindestens 4x12 (die XBox One hat 12 CUs), also 48 CUs gebraucht um die Hardware symmetrisch abzubilden - ganz zufällig ist 12 das Minimum in der XSX pro Shader-Array. Daher auch die Server-Architektur - nicht weil die besonders gut für Konsolen ist, sondern weil sie damit zwei Anwendungsfälle auf einmal abbilden können.
 

FlyingUberHuzo

<enter custom title here>
systems
PSN-Name: nazcape
Spielt gerade: Nioh2 - MHW:Iceborne
Die Kurzfassung:
Gegenüber Sony und auch den Desktop-Karten von AMD hat MS "zu viele" Compute Units (auf denen basiert die theoretische TFLOP-Performance) an einem Strang hintereinander - aber nicht genauso viel Unterbau pro Compute Unit, um diese auch genauso effizient zu versorgen.
Deswegen kommt die XSX nicht so leicht und oft an ihre theoretische Leistung heran. Vielleicht wird sie die Compute Units auch nie so weit ausnutzen können, wie die PS5 und die Desktop-GPUs, außer in synthetischen Benchmarks oder einer Hand voll Sonderfällen.

Der Punkt ist, weder AMD noch Sony haben pro Shader-Einheit mehr als 8-10 CUs. MS hat aber 12-14 und muss diese mit der gleichen Infrastruktur mit Arbeit versorgen.

Noch ein Extra:
MS hat dies vermutlich so geplant, weil sie die gleiche APU ja auch für XCloud verwenden wollen, um bis zu 4 XBox One mit einer XSX in der Cloud abzubilden. Dafür haben sie mindestens 4x12 (die XBox One hat 12 CUs), also 48 CUs gebraucht um die Hardware symmetrisch abzubilden - ganz zufällig ist 12 das Minimum in der XSX pro Shader-Array. Daher auch die Server-Architektur - nicht weil die besonders gut für Konsolen ist, sondern weil sie damit zwei Anwendungsfälle auf einmal abbilden können.
Also ist die Xbox Series X die neue PS3 und die PS5 ist die neue Xbox 360?
 

Heroic

walks on the brightside
systems, systems, systems, systems, systems
PSN-Name: The-Heroic
Geh mal stark davon aus das dort noch einige Performance/Qualität Patches kommen. Zumindest das Tearing der XSX Version sollte dringend behoben werden, zur Not lieber die Auflösung drosseln. Für mich gerne auch ein Full 4k aber 30 fps Mode, reicht mir aus :D Da ich es eh erst im Sale kaufen werde, ist es bis dahin hoffentlich durchgepatched. Aber generell schon entäuschende Performance von der XSX.
 
systems, systems, systems, systems, systems, systems, systems, systems, systems, systems, systems, systems, systems, systems
PSN-Name: BillMorisson
Spielt gerade: FF VII Remake
Da fühlt man sich doch als Xbox Besitzer schon irgendwie beschissen. Labern was von "mehr teraflops" blah blah und dann sit die Performance teilweise deutlich beschissener als auf der PS5. Was da los?
Was kann Microsoft dafür, dass die Leute von Ubisoft unfähig sind? Zumal wir gaaanz am Anfang der Gen sind, da kann man wohl kaum Schlüsse draus zu ziehen :ugly:

Ich meine auch von Digital Foundry in einem anderen Video gehört zu haben, dass die Dev Kits der PS5 ähnlicher zu den Dev Kits der PS4 sind und sich die Entwickler nicht besonders stark umgewöhnen müssen. Die Dev Kits der XSX sollen etwas mehr Einarbeitung benötigen. Keine Ahnung ob das stimmt.
 
Zuletzt editiert:
systems, systems, systems, systems, systems, systems, systems, systems
Spielt gerade: Warframe, SB Demo
Das Tearing lässt sich vermutlich wegoptimieren, davon gehe ich auch aus. Hoffentlich bekommt die PS5 dann auch bald VRR - John hat ja schon etwas davon geschwärmt.
Die generell etwas schlechtere Performance hat aber neben vielleicht dem nicht so ausgereiften GDK noch Architektur-Gründe. Jedenfalls zeigt sich hier abgesehen vom Tearing der gleiche Trend wie schon bei CoD und DMC.

Was zumindest ein Teilgrund sein könnte, habe ich oben beschrieben. Das wird sich außer für bestimmte Szenarien und Optimierungen auch nicht mehr dramatisch ändern. Die Systeme sind halt diese Gen sehr nah beieinander - das möchte erst einmal festhalten, wir sprechen hier nicht über dramatische Unterschiede, auch später in der Gen nicht (Secret Sauce - Überraschungen mal außen vor... ;;;) )

Die Render-Pipeline der PS5 ist besser abgestimmt und kann die potentielle Leistung konstanter liefern.
Je nach Art des Workloads könnte mal die PS5 und mal die XSX ein paar Prozent vorn liegen. Das kommt darauf an wo künftige Spiele ihre Schwerpunkte setzen werden.
Fillrate und Rasterization sind bei der PS5 halt 22% besser, genauso die Cache-Performance und Culling-Rate. Alles schneller bei der PS5, weil sie die gleiche Menge Einheiten besitzt, diese aber höher getaktet sind. Das ist aber selten ein Engpass, weil heutige GPUs hier schon oft weit über der notwendigen Grenze selbst für native 4k sind.

Die 18% mehr, hat die XSX in der Theorie dann bei den Floating-Point und RT-Operationen. Diese werden aber in den CUs ausgeführt. Und die XSX hat für 52 CUs aber leider nur die gleiche Menge Shader-Array-Infrastruktur zum Versorgen dieser CUs wie die PS5 für ihre 36. Das gilt dann damit auch für die Größe des GPU-L1-Cache, der ist bei der PS5 genauso groß für die 36 CUs wie bei der XSX für die 52. Das ist ist der Bottleneck der XSX - sie hat Probleme ihre Compute Units gleichmäßig konstant hoch auszulasten und kann daher die 12 TFs nicht so gut abrufen - ob die Entwickler dafür noch einen Weg finden, der zu vielen Gaming-Workloads passt ist zumindest fraglich.
Die RDNA2-Desktop-Karten haben das gleiche Problem nicht, weil sie niemals mehr als 10 CUs pro Array haben, genau wie die PS5. Die XSX hat 12-14.
In dieser Hinsicht ist die PS5 näher an RDNA2-Desktop als die XSX.

Was mich sehr wundert ist dass DF dies noch nicht angesprochen hat, denn in einigen Foren war das schon Thema und ein Crytek Dev hatte das schon im April angesprochen - nur war da RDNA2 noch nicht offengelegt und viele nicht so technisch versierte Nerds haben es nicht so ernst genommen. Ich hatte eigentlich schonmal vor 6 Wochen ein Posting dazu vorbereitet, es aber nicht abgeschickt, deswegen konnte ich einen Teil davon heute nutzen... der Tab war noch offen... o_O

Grundlage war u.a. dieser thread: https://www.neogaf.com/threads/ali-...-interview-up-tweets-article-removed.1535138/

Also ist die Xbox Series X die neue PS3 und die PS5 ist die neue Xbox 360?
Deutlich abgemildert ist das wohl sogar ein wenig passend. Die Gründe die dazu geführt haben sind aber andere. Sony hat auf Entwicklungs- und Hardware-BC-Optimierung hingearbeitet - indem sie z.B. die CUs passend zu PS4 (18 CUs) und PS4 Pro (36 CUs) im Mengengerüst haben - das macht die Anwendung des Boost-Mode so einfach - weil die PS5 eben genau auch 36 CUs hat, die aber viel schneller sind, selbst wenn man nur GCN-Features nutzt und RDNA2 ignoriert.
Eine PS5 Pro oder PS6 würde dann vermutlich 54 oder 72 bekommen <- Die Prognose muss ich in 3-7 Jahren noch einmal verifizieren! :unsure:

MS hat auf BC- und XCloud-/Konsolen-Doppelanwendung hingearbeitet. Für Sony war es dabei sehr günstig dass die von AMD geplante Shader-Array-Größe bei RDNA2 mit 10 CUs pro Array und 20 CUs pro Shader Engine passend war - ob sie darauf Einfluss hatten? Keine Ahnung.
Für MS war einmal mehr das Design der XBox One mit 12 CUs ein Stolperstein - ich glaube nicht, dass sie sonst die Shader-Arrays mit so vielen CUs haben würden.
Wirklich nachweisen kann ich diese Entscheidungen nicht, aber es ist nun im Rückblick seit dem RDNA2-Reveal schlüssig.

Naja, mal sehen was die Entwickler daraus noch machen, aber große Unterschiede würde ich nicht mehr erwarten.
 

Heroic

walks on the brightside
systems, systems, systems, systems, systems
PSN-Name: The-Heroic
Was kann Microsoft dafür, dass die Leute von Ubisoft unfähig sind? Zumal wir gaaanz am Anfang der Gen sind, da kann man wohl kaum Schlüsse draus zu ziehen :ugly:

Meine auch von Digital Foundry in einem anderen Video gehört zu haben, dass die Dev Kits der PS5 ähnlicher zu den Dev Kits der PS4 sind und sich die Entwickler nicht besonders stark umgewöhnen müssen. Die Dev Kits der XSX sollen etwas mehr Einarbeitung benötigen. Keine Ahnung ob das stimmt.
Was auch immer da ein Grund sein könnte, Fakt ist: Das Ergebnis ist leider nicht so toll, und gerade MS sollte nach ihrem TF Gelaber umso mehr Wert drauf legen das die frühsten Präsentationen delivern. Kann mir gut vorstellen das allein dieses DF Valhalla Video Microsoft einige hundert Konsolen in Zukunft weniger verkaufen lässt (auch wenn das später weggepatched wird). Gerade bei den ersten "NextGen" Spielen wird natürlich etwas genauer hingeschaut. Ist jetzt die Frage wer über das Endprodukt drüber schaut, aber sowas wie ne Qualitätssicherung wirds bei MS denke ich schon geben/sollte es geben.
 
Top