Einen Chip von Ati oder NVidia von der Stange einzukaufen wäre der größte Fehler, den Sony nur machen könnte. Erstens wäre dann die PS3 von der Hardware her kaum von der XBox2 zu unterscheiden und zweitens hätte Sony dann die gleichen Probleme am Hacken wie die Konkurrenten. Sony ist nämlich äußerst erfolgreich mit der Masche, selber die Chips zu Entwickeln und zu Produzieren. Dadurch hat man am Anfang höhere Kosten, aber später steckt man das Geld dafür in die eigene Tasche, während bei eingekauften Chips jedes mal der Chiphersteller/-entwickler die Hand aufhält. Die PS2 steuert ähnlich wie die PS1 auf die 100-Millionen-Geräte-Grenze zu, in diesen Regionen lohnt sich das extrem, zumal man dann auch mehr Freiheiten hat wie z.B. die Integration von CPU und GPU in einem Chip (PS2) oder gar als Teil des IO-Chips (PS1 in PS2).
Dazu kommt, dass sich die Architektur so grundsätzlich unterscheidet, wie Pry bereits angeführt hat. Die aktuellen PC-GraKa-Chips sind für AGP gedacht und brauchen einen zusätzlichen Chip um über PCI-Express angeschlossen zu werden, welches zum AGP-Port nicht unglaublich unterschiedlich ist. Diese Spezialisierung zieht sich durch sämtliche Details des Innenlebens, es wird an allen Ecken und Enden versucht, möglichst wenig zwischen GPU und dem Hauptsystem auszutauschen, weil der lokale Speicher viel schneller ist. Gänzlich anders arbeitet die PS2, wo ständig Daten gestreamt werden (jedenfalls bei hochentwickelten Spielen). Dazu schau dir doch bitte mal an, was für Aufwand bei den Grafikchips betrieben wird (Transistorenzahl, Taktfrequenzen, dadurch nötige Kühlkörper) und wie groß dann am Ende wirklich der Fortschritt ist! PC-Spieler mögen ja bei einer knappen Verdopplung der Leistung bereits Saltos vor Freude machen, eine PS-Generation muss da mehr Steigerung auf den Tisch legen. Die XBox2 mag auf dem Papier beeindruckend klingen, aber in Wirklichkeit hat man damit gegenüber der XBox1 eine Leistungssteigerung um schätzungsweise das 4-10fache. Wiederum ist das für PC-Antiverwöhnte eine unglaubliche Neuerung, aber die PS2 hat die PS1 um weit mehr übertroffen, und das wird die PS3 wiederholen. Die PC-Technologie als Ganzes steckt schwer in der Sackgasse, Macintosh hat zwar teilweise bessere Chips, aber ähnliche Architektur-Probleme.
Die Lösung ist nicht, sich in die gleiche Falle zu begeben, sondern vernünftige Software-Schnittstellen zu bieten. Das ist die Strategie, die MS mit XNA anvisiert, aber Sony schläft nicht und hat aller Wahrscheinlichkeit nach Ähnliches vor. Die Gerüchteküche brodelt, aber Sony hält sich noch bedeckt, im März wissen wir es sicher. Lies dir doch mal den kurzen Artikel über
OpenGL in der PS3 auf PS3Insider.com durch. Dass die Entwickler Probleme haben/hatten, die PS2 in den Griff zu kriegen, ist an Sony nicht komplett vorbeigegangen, zumal sich das Problem von der PS1 zur PS2 verschärft hat, und bei der PS3-Architektur noch stärker zu erwarten ist. Mit einheitlichen, offenen, wohldokumentierten und -bekannten Softwareschnittstellen kann Sony die Arbeit wesentlich erleichtern und XNA den Wind aus den Segeln nehmen, zumal das Microsofts größtes Argument für die XBox2 zu sein scheint. Dazu werden die Entwickler von Sony noch darauf trainiert, Prozesse möglichst in kleine, abgeschlossene Einheiten aufzuteilen, damit die vielen Rechenwerke gut zum Einsatz kommen. Das muss MS mit seinem Tri-Prozessor auch so tun, sonst liegen 2/3 der potentiellen Leistung brach. Die Architektur der PS2 hat die Leute bereits zum Umdenken gezwungen, das war nicht völlig für die Katz. Wie ich bereits in einem anderen Thread schrieb, ich vermute stark, dass eine Bibliothek aus vorgefertigten parallelisierbaren Modulen erstellt wird. Diese Module können dann in jedes Projekt relativ einfach eingebaut werden und ermöglichen so z.B. automatisch korrekte Bewegung von Kleidern, Haaren, Gras usw. im Wind. Die Zukunft liegt nicht in der 2000 km/h Hochgeschwindigkeitsstrecke sondern in der 128-spurigen Autobahn.
Wie der Grafikchip der PS3 wird, ist natürlich noch überhaupt nicht klar. Darüber hat Sony noch nicht das geringste Wörtchen verloren. Aber die Cell-Architektur ermöglicht, Schwächen auszubügeln, falls doch welche auftreten sollten. Mit Hilfe einer Vector-Unit konnte die PS2 z.B. plötzlich DTS-Sound in Echtzeit kodieren, nachdem MS mit dem Echtzeit-AC3-Encoder der XBox so geprahlt hat. Sicherlich sind die beiden Vector-Units zu kostbar, um das in jedem Spiel einzubauen, aber der Cell-Chip hat ähnliche Einheiten zu Dutzenden. Ich denke da positiv, Sony hat sich auch bei der PSP mit den Entwicklern zusammengetan, um eine möglichst komfortable und leistungsfähige Lösung zu finden. Bei der PS3 wird Sony wohl nicht plötzlich die Erkenntnisse, die sie aus den ersten beiden (drei?) Generationen erlangt haben, vergessen und stur gegen die Wand fahren. Auch wenn viele, die der Playstation nicht so sehr wohlgesonnen sind, das stark hoffen.
Nachtrag: Shader Versionen sind die Zukunft für PC-Grafikkarten, ja. Aber das kann man nicht auf andere Architekturen übertragen. Programmierbarkeit der Grafikchips (nichts anderes sind Shader) kann man mit OpenGL auch erreichen (siehe Doom 3). Das wäre ja so als würdest du sagen: ohne AMD-64-Erweiterung wird die PS3 untergehen...
VRAM ist so gut wie ausgestorben, weil der Zuwachs an Geschwidnigkeit bei DRAM den Vorteil des zweiten Ausgabekanals bereits längst überflüssig gemacht hat. Früher war der Speicher von Grafikkarten relativ lange Zeit damit beschäftigt, die Daten an den RAMDAC für die Bildschirmausgabe zu schicken, aber damals war der Speicher einfach super langsam. Deshalb hat man VRAM erfunden, welches einen zusätzlichen reinen Lesekanal hat. Mit heutigem schnellen Speicher bringt das so gut wie nichts, kostet aber Unsummen. Sollte die Architektur wirklich der Abbildung entsprechen, wären die 64MB EDRAM ähnlich wie die 4MB der PS2 lediglich eine Art Cache, denke da bloß nicht an 64MB auf eine PC-Grafikkarte, das ist nicht das Gleiche.