PS3: 256Mbit Chip. Produktionsbeginn scheinbar Sommer 2005.

Planet

50% water, 50% air, the glass is always full!
PSN-Name: PlanetJumble
#21
Es steht immer noch die Aussage von Sony im Raum, dass eventuell 2 Versionen der PS3 erscheinen werden, eine reine Spielkonsole und eine mit Multimediaerweiterungen.

Ansonsten würde ich sagen, wenn Blu-Ray das Medium für PS3-Spiele wird, warum sollte man dann nicht gleich die Funktionalität eine Blu-Ray-Players einbauen? Sollte der Cell-Chip eigentlich sowieso per Software alleine hinkriegen. Als die PS2 nagelneu war, war sie der günstigste DVD-Player (wenn auch nur für kurze Zeit), das könnte bei der PS3 in Verbindung mit BR wieder ein netter Zusatzanreiz sein.

Was die Kosten der Spieleherstellung betrifft, natürlich ist es ein Problem, derart hochwertigen Content zu schaffen, wie er bei modernen Spielen benötigt wird. Aber das Rad der Zeit kann man nun mal nicht aufhalten, die Spiele werden in Zukunft zum Beispiel auf dem PC nunmal grafisch aufwändiger. Aber die enorme Rechenleistung wird auch einen Teil der Arbeit abnehmen, weil man vieles berechnen lassen kann statt es von Hand zu animieren. Es kommt darauf an eine große Bibliothek aufzubauen mit deren Hilfe Entwickler schnell derartige Dinge in ihre Spiele einbauen können, ohne das Rad jedes Jahr neu zu erfinden. Bei der PS3 hat man im Vergleich zum PC den Vorteil, dass Sony als Zentrale Stelle ein großes Interesse hat, solche Bibliotheken aufzubauen und allen günstig zur Verfügung zu stellen. In der PC-Welt gibt es sowas auch (Tendenz steigend), aber verstreuter und es wird mehr Geld damit gemacht. Selbst Microsoft hat dies erkannt und macht es sogar zum zentralen Argument für die XBox2.
 

.ram

Editor in Chief
Team-Mitglied
PSN-Name: dethforce
#22
Original von Cpt.Planet

Ansonsten würde ich sagen, wenn Blu-Ray das Medium für PS3-Spiele wird, warum sollte man dann nicht gleich die Funktionalität eine Blu-Ray-Players einbauen? Sollte der Cell-Chip eigentlich sowieso per Software alleine hinkriegen. Als die PS2 nagelneu war, war sie der günstigste DVD-Player (wenn auch nur für kurze Zeit), das könnte bei der PS3 in Verbindung mit BR wieder ein netter Zusatzanreiz sein.
bedenkt man, dass die ps2 damals auch anch der ersten preissenkung günstiger war als eventuelle dvd player - so wird sich sony diesen vorteil sicherlich auch zu nutze machen bei der ps3. bleibt aber zu hoffen, dass man dieses mal die die euros nicht wieder mti dem dämlichen grünstich ding ärgern will. denn selbst die iditoen beis ony sollten mittlerweile mittbekommen haben, dass man ps2 nur mit rgb kabel spielen kann.

btw.

der dvd preis war ja nurmal ein beispiel.
 

Planet

50% water, 50% air, the glass is always full!
PSN-Name: PlanetJumble
#24
Sieht sehr lecker aus, ziemlich direkt abgeleitet aus dem Cell-Patentantrag. Quelle?

Es könnte nämlich auch genausogut ein Fake sein, Informationen aus dem Patentantrag mit ein paar Abschätzungen vermischt, zumal die Zahlen beim Hauptspeicher schon etwas stutzig machen.
 
PSN-Name: Elbareon
#25
Quelle ist ein anderes Forum..., ich sage es mal so: Wünschen würde ich mir so ein System schon, damit dürften technisch keine Grenzen mehr gesetzt sein, aber glauben tue ich an sowas nicht...

Ich hoffe immer noch, dass Sony keine Kosten und Mühen scheut und ein Exampel statuieren will und daher so eine "Über"-Konsole baut, aber ernsthaft glauben tue ich es nicht.
 

Planet

50% water, 50% air, the glass is always full!
PSN-Name: PlanetJumble
#26
Sagen wir mal so, die PS3 wird sich wahrscheinlich nicht um Dimensionen von dem Abgebildeten unterscheiden, weil dies nunmal der Cell-Architektur entspricht. Was jetzt noch variabel ist sind Zahlen: Anzahl der Rechenwerke, Taktfrequenzen und Speichergrößen. Intern sind die Cell-Einheiten übrigens tatsächlich mit 1024-Bit-Bussen untereinander verbunden, wahrscheinlich wird dies als Anlass genommen, von einer 1024-Bit-Konsole zu sprechen, wenn auch wohl nicht von Sony selbst. Dass diese direkte Zuordnung Bitzahl <-> Konsole (oder Generation) Quatsch ist sollte inzwischen jeder begriffen haben, hoffe ich zumindest.

Es wird definitiv zumindest von den theoretischen Werten die Über-Konsole, spannend wirds beim Übergang in die Praxis... ;)
 
PSN-Name: Elbareon
#27
Das Problem ist nur, wie die Entwickler das in den Griff bekommen. Wenn man sich heute Spiele wie Killzone, Metal Gear Solid 3, WRC4 oder Champions of Norrath ansieht, dann sieht man das Potential der komplizierten Hardware der PS2..., aber leider erst nach Jahren. Dieses Mal wird Sony eine solche Zeit kaum bekommen, Microsoft wird mit XNA und der Xbox 2 wohl gleich durchstarten, da brächte es nix, wenn die PS3 im Endeffekt leistungsfähiger wäre. Bei der PS2 war das Problem, dass die Entwickler quasi an die Architektur "gezwungen" werden, 4 MB VRAM sind da und kein MB mehr und das muß man sinnvoll nutzen (und nach PC-Vorbild ist das natürlich nicht möglich). Wenn Sony aber quasi "zwei" Architekturen bilden würde, wäre das ein System, welches zu Beginn einfach zu programmieren ist und später noch jede Menge Ressourcen hat. Also, das eigentliche System wird wohl ähnlich der PlayStation 2 sein, komplex und mit jeder Menge Möglichkeiten. Aber "außenrum" stehen diesmal auch ordentlich Speicher und hardwaremäßige Grafik-Features á la Anti-Aliasing oder Displacement-Mapping. So wäre die PlayStation 3 auf verschiedene Arten zu programmieren, Sony müßte ihren Weg nicht verlassen und kommt trotzdem den Entwicklern entgegen. Und so würde mir auch dieses System-Bild aussehen, einerseits sehr komplex, andererseits diesmal aber auch mit genug Speicher ausgestattet, um "normales" Programmieren zu ermöglichen.
 
#28
imho sollte sony den chip nicht selbst entwickeln. besser wäre es wenn se sich nen chip von ati oder nvidia nehmen. hätte (würde) entwicklungskosten gespart und ist auch von der programmierung her einfach bzw. kommt den entwicklern entgegen.
 
PSN-Name: Elbareon
#29
Das Problem ist aber, dass PC-Chips von nVidia oder ATI auf eine PC-Architektur bauen und das hat Sony in der PlayStation 3 nicht. Dort ist der Cell die Hauptkomponente und nicht der Grafikchip wie in der Xbox. Somit wäre ein "normaler" Grafikprozessor von ATI oder nVidia in der PS3 gar nicht einsetzbar und ob jetzt Sony selbst diesen Spezialchip entwickelt oder es in Auftrag gibt, dürfte an Kosten und Effizienz nicht viel ändern. Einzig eben mehr hardwareintegrierte Features sollte Sony im Graphic-Synthesizer 2 einbauen, was aber technisch kein Problem darstellen dürfte. In der PS2 war der GS der Flaschenhals in gewisser Weise, einmal durch den knappen Speicher (was halt an der Philosophie von Sony in Bezug auf die PS2 lag) und zum anderen war er gegenüber der EE etwas schwachbrüstig, dies sollte bei der PlayStation 3 aber ebenfalls behoben sein. Das er sich nicht verstecken muß zeigt er ja, einen internen Bus von 48 Gbyte pro Sekunde hatte damals keine einzige Grafikkarte von nVidia oder ATI und auch die 3fache Geschwindigkeit einer GeForce 2 (zum Launch der PS2 aktuell) sind nicht übel. Der Speicher war halt das Problem bzw. die Gesamtarchitektur, aber wie gesagt, die sollte in der PlayStation 3 optimiert worden sein. Echtzeittexturkompression im VRAM wären schon in der PS2 ein großer Schritt in Richtung bessere Texturen gewesen.
 
#30
nen chip von ati oder nv wäre sicherlich einsetzbar. nur müsste die pci-express bzw. agp bridge "ausgetauscht" werden. warum sollte so ein grafik chip nicht mit dem cell zusammen arbeiten können? ich denke nicht das der so "speziell" ist. in macs (powerpc's) laufen se ja auch. wie gesagt, es müsste nur andre bridge, für die anbindung an cell, board oder whatever, her und dann sollte es kein problem sein. ich denke grade bei multi titeln könnte so sony etwas ins hinter treffen geraten, falls die gpu nicht die shader version 3.x (4.x??) unterstützt. denn die zukünftigen spiele werden immer mehr auf diesen basieren. und wenn xbox 2 und revolution wirklich auf ati setzen werden diese im vorteil sein, wenn sony's grafik chip keine beherrscht. falls doch wirds kein problem, ansonsten -> gearscht :D

axo hat die gpu nur die 64mb edram oder wirds auch noch richtigen vram geben?
 

Planet

50% water, 50% air, the glass is always full!
PSN-Name: PlanetJumble
#31
Einen Chip von Ati oder NVidia von der Stange einzukaufen wäre der größte Fehler, den Sony nur machen könnte. Erstens wäre dann die PS3 von der Hardware her kaum von der XBox2 zu unterscheiden und zweitens hätte Sony dann die gleichen Probleme am Hacken wie die Konkurrenten. Sony ist nämlich äußerst erfolgreich mit der Masche, selber die Chips zu Entwickeln und zu Produzieren. Dadurch hat man am Anfang höhere Kosten, aber später steckt man das Geld dafür in die eigene Tasche, während bei eingekauften Chips jedes mal der Chiphersteller/-entwickler die Hand aufhält. Die PS2 steuert ähnlich wie die PS1 auf die 100-Millionen-Geräte-Grenze zu, in diesen Regionen lohnt sich das extrem, zumal man dann auch mehr Freiheiten hat wie z.B. die Integration von CPU und GPU in einem Chip (PS2) oder gar als Teil des IO-Chips (PS1 in PS2).

Dazu kommt, dass sich die Architektur so grundsätzlich unterscheidet, wie Pry bereits angeführt hat. Die aktuellen PC-GraKa-Chips sind für AGP gedacht und brauchen einen zusätzlichen Chip um über PCI-Express angeschlossen zu werden, welches zum AGP-Port nicht unglaublich unterschiedlich ist. Diese Spezialisierung zieht sich durch sämtliche Details des Innenlebens, es wird an allen Ecken und Enden versucht, möglichst wenig zwischen GPU und dem Hauptsystem auszutauschen, weil der lokale Speicher viel schneller ist. Gänzlich anders arbeitet die PS2, wo ständig Daten gestreamt werden (jedenfalls bei hochentwickelten Spielen). Dazu schau dir doch bitte mal an, was für Aufwand bei den Grafikchips betrieben wird (Transistorenzahl, Taktfrequenzen, dadurch nötige Kühlkörper) und wie groß dann am Ende wirklich der Fortschritt ist! PC-Spieler mögen ja bei einer knappen Verdopplung der Leistung bereits Saltos vor Freude machen, eine PS-Generation muss da mehr Steigerung auf den Tisch legen. Die XBox2 mag auf dem Papier beeindruckend klingen, aber in Wirklichkeit hat man damit gegenüber der XBox1 eine Leistungssteigerung um schätzungsweise das 4-10fache. Wiederum ist das für PC-Antiverwöhnte eine unglaubliche Neuerung, aber die PS2 hat die PS1 um weit mehr übertroffen, und das wird die PS3 wiederholen. Die PC-Technologie als Ganzes steckt schwer in der Sackgasse, Macintosh hat zwar teilweise bessere Chips, aber ähnliche Architektur-Probleme.

Die Lösung ist nicht, sich in die gleiche Falle zu begeben, sondern vernünftige Software-Schnittstellen zu bieten. Das ist die Strategie, die MS mit XNA anvisiert, aber Sony schläft nicht und hat aller Wahrscheinlichkeit nach Ähnliches vor. Die Gerüchteküche brodelt, aber Sony hält sich noch bedeckt, im März wissen wir es sicher. Lies dir doch mal den kurzen Artikel über OpenGL in der PS3 auf PS3Insider.com durch. Dass die Entwickler Probleme haben/hatten, die PS2 in den Griff zu kriegen, ist an Sony nicht komplett vorbeigegangen, zumal sich das Problem von der PS1 zur PS2 verschärft hat, und bei der PS3-Architektur noch stärker zu erwarten ist. Mit einheitlichen, offenen, wohldokumentierten und -bekannten Softwareschnittstellen kann Sony die Arbeit wesentlich erleichtern und XNA den Wind aus den Segeln nehmen, zumal das Microsofts größtes Argument für die XBox2 zu sein scheint. Dazu werden die Entwickler von Sony noch darauf trainiert, Prozesse möglichst in kleine, abgeschlossene Einheiten aufzuteilen, damit die vielen Rechenwerke gut zum Einsatz kommen. Das muss MS mit seinem Tri-Prozessor auch so tun, sonst liegen 2/3 der potentiellen Leistung brach. Die Architektur der PS2 hat die Leute bereits zum Umdenken gezwungen, das war nicht völlig für die Katz. Wie ich bereits in einem anderen Thread schrieb, ich vermute stark, dass eine Bibliothek aus vorgefertigten parallelisierbaren Modulen erstellt wird. Diese Module können dann in jedes Projekt relativ einfach eingebaut werden und ermöglichen so z.B. automatisch korrekte Bewegung von Kleidern, Haaren, Gras usw. im Wind. Die Zukunft liegt nicht in der 2000 km/h Hochgeschwindigkeitsstrecke sondern in der 128-spurigen Autobahn.

Wie der Grafikchip der PS3 wird, ist natürlich noch überhaupt nicht klar. Darüber hat Sony noch nicht das geringste Wörtchen verloren. Aber die Cell-Architektur ermöglicht, Schwächen auszubügeln, falls doch welche auftreten sollten. Mit Hilfe einer Vector-Unit konnte die PS2 z.B. plötzlich DTS-Sound in Echtzeit kodieren, nachdem MS mit dem Echtzeit-AC3-Encoder der XBox so geprahlt hat. Sicherlich sind die beiden Vector-Units zu kostbar, um das in jedem Spiel einzubauen, aber der Cell-Chip hat ähnliche Einheiten zu Dutzenden. Ich denke da positiv, Sony hat sich auch bei der PSP mit den Entwicklern zusammengetan, um eine möglichst komfortable und leistungsfähige Lösung zu finden. Bei der PS3 wird Sony wohl nicht plötzlich die Erkenntnisse, die sie aus den ersten beiden (drei?) Generationen erlangt haben, vergessen und stur gegen die Wand fahren. Auch wenn viele, die der Playstation nicht so sehr wohlgesonnen sind, das stark hoffen. ;)

Nachtrag: Shader Versionen sind die Zukunft für PC-Grafikkarten, ja. Aber das kann man nicht auf andere Architekturen übertragen. Programmierbarkeit der Grafikchips (nichts anderes sind Shader) kann man mit OpenGL auch erreichen (siehe Doom 3). Das wäre ja so als würdest du sagen: ohne AMD-64-Erweiterung wird die PS3 untergehen...

VRAM ist so gut wie ausgestorben, weil der Zuwachs an Geschwidnigkeit bei DRAM den Vorteil des zweiten Ausgabekanals bereits längst überflüssig gemacht hat. Früher war der Speicher von Grafikkarten relativ lange Zeit damit beschäftigt, die Daten an den RAMDAC für die Bildschirmausgabe zu schicken, aber damals war der Speicher einfach super langsam. Deshalb hat man VRAM erfunden, welches einen zusätzlichen reinen Lesekanal hat. Mit heutigem schnellen Speicher bringt das so gut wie nichts, kostet aber Unsummen. Sollte die Architektur wirklich der Abbildung entsprechen, wären die 64MB EDRAM ähnlich wie die 4MB der PS2 lediglich eine Art Cache, denke da bloß nicht an 64MB auf eine PC-Grafikkarte, das ist nicht das Gleiche.
 
PSN-Name: Elbareon
#32
Sehe ich auch so. Die Hauptfehler der PS2 waren die kaum vorhandenen Tools und Bibliotheken seitens Sony, die Entwickler haben sich quasi alles selbst erarbeiten müssen. Wenn man bei der PlayStation 3 gleich zu Beginn in dieser Hinsicht (ähnlich XNA) etwas bereitstellt und stetig erweitert, dann kommt man den Entwicklern meht entgegen, als irgendeinen PC-Grafikchip zu verbauen. Man darf nicht vergessen, die Xbox ist trotz allem nahezu wie ein PC aufgebaut, da funktioniert das, nicht aber bei einer komplett anders konzipierten Hardware. Sony wird dieses mal wohl mehr hardwareintegrierte Features schaffen (Texturkompression, Anti-Aliasing etc, Displacement-Mapping etc.), damit nicht alles über Software laufen muß, aber ein Shader 3.0 oder so sind trotzdem keine Pflicht. Der Cell kann theoretisch sowas ohne Probleme "emulieren" und sogar noch weiter führen, während die anderen bei Shader 3.0 hängen, könnte der Cell schon Shader 4.0 bewerkstelligen (nur so als Beispiel). Die PlayStation 2 kann hardwareseitig auch kein Bump-Mapping oder Anti-Aliasing, aber trotzdem sind beide Features z.B. in Champions of Norrath zu finden, weil sie eben softwareseitig eingebaut wurden (und sowas kann die Xbox nicht). Damit hat man zwar mehr Aufwand, ist aber auch viel flexibler.
 

Planet

50% water, 50% air, the glass is always full!
PSN-Name: PlanetJumble
#33
Ich muss Pry mal eben ergänzen, bevor wilde Aufschreie kommen:

Die XBox kann natürlich Bump-Mapping und Anti-Aliasing. Es geht darum dass Features, die nicht explizit im Grafikchip vorgesehen sind, nicht durch geschickte Programmierung nachgebaut werden können, weil der XBox dazu die rohe Rechengewalt fehlt. Der Grafikchip ist aber relativ solide mit Funktionen bestückt, also ist das auch prinzipiell nicht so schlimm.

Trotzdem stimme ich ohne Zweifel Pry zu, gewisse Features die in so gut wie allen Spielen gebraucht werden sollten in der GPU der PS3 hart verdrahtet werden, da hatte die PS2 einige Nachteile.
 
PSN-Name: Elbareon
#34
Ja, so habe ich das gemeint (Xbox ohne Bump-Mapping, wo kämen wir denn da hin :D).

Ich persönlich finde, eine Architektur á la PS2 (also enorm viel Rechenkraft und sehr flexibel, dass wird wohl der Cell) und eine GPU, die diesmal aber auch hardwareseitig gut bestückt ist, sind das ideale Gespann für die Grafik der Zukunft.
 
#35
@ cpt.planet
Einen Chip von Ati oder NVidia von der Stange einzukaufen wäre der größte Fehler, den Sony nur machen könnte. Erstens wäre dann die PS3 von der Hardware her kaum von der XBox2 zu unterscheiden und zweitens hätte Sony dann die gleichen Probleme am Hacken wie die Konkurrenten. Sony ist nämlich äußerst erfolgreich mit der Masche, selber die Chips zu Entwickeln und zu Produzieren. Dadurch hat man am Anfang höhere Kosten, aber später steckt man das Geld dafür in die eigene Tasche, während bei eingekauften Chips jedes mal der Chiphersteller/-entwickler die Hand aufhält. Die PS2 steuert ähnlich wie die PS1 auf die 100-Millionen-Geräte-Grenze zu, in diesen Regionen lohnt sich das extrem, zumal man dann auch mehr Freiheiten hat wie z.B. die Integration von CPU und GPU in einem Chip (PS2) oder gar als Teil des IO-Chips (PS1 in PS2).
joa

Dazu kommt, dass sich die Architektur so grundsätzlich unterscheidet, wie Pry bereits angeführt hat. Die aktuellen PC-GraKa-Chips sind für AGP gedacht und brauchen einen zusätzlichen Chip um über PCI-Express angeschlossen zu werden, welches zum AGP-Port nicht unglaublich unterschiedlich ist. Diese Spezialisierung zieht sich durch sämtliche Details des Innenlebens, es wird an allen Ecken und Enden versucht, möglichst wenig zwischen GPU und dem Hauptsystem auszutauschen, weil der lokale Speicher viel schneller ist. Gänzlich anders arbeitet die PS2, wo ständig Daten gestreamt werden (jedenfalls bei hochentwickelten Spielen). Dazu schau dir doch bitte mal an, was für Aufwand bei den Grafikchips betrieben wird (Transistorenzahl, Taktfrequenzen, dadurch nötige Kühlkörper) und wie groß dann am Ende wirklich der Fortschritt ist! PC-Spieler mögen ja bei einer knappen Verdopplung der Leistung bereits Saltos vor Freude machen, eine PS-Generation muss da mehr Steigerung auf den Tisch legen. Die XBox2 mag auf dem Papier beeindruckend klingen, aber in Wirklichkeit hat man damit gegenüber der XBox1 eine Leistungssteigerung um schätzungsweise das 4-10fache. Wiederum ist das für PC-Antiverwöhnte eine unglaubliche Neuerung, aber die PS2 hat die PS1 um weit mehr übertroffen, und das wird die PS3 wiederholen. Die PC-Technologie als Ganzes steckt schwer in der Sackgasse, Macintosh hat zwar teilweise bessere Chips, aber ähnliche Architektur-Probleme.
man braucht nur ne andre bridge im chip selbst für pci-express. und sowas für andere bus' (busse??) zu entwickeln stellt nicht wirklich ein großes problem dar.
ich weiß ja nicht was du für ne pc graka hast, aber zb. ne rad 9800 hat nen mini alu kühler, der sogar relativ leise ist. nen vga silencer ist unhörbar.
na ja so nen großen sprung wie von ps1 auf ps2 wird die ps3 nicht schaffen. da müsste sony tief in die wundertüte greifen. pc technik steckt in der sackgasse? -> :wall:

Die Lösung ist nicht, sich in die gleiche Falle zu begeben, sondern vernünftige Software-Schnittstellen zu bieten. Das ist die Strategie, die MS mit XNA anvisiert, aber Sony schläft nicht und hat aller Wahrscheinlichkeit nach Ähnliches vor. Die Gerüchteküche brodelt, aber Sony hält sich noch bedeckt, im März wissen wir es sicher. Lies dir doch mal den kurzen Artikel über OpenGL in der PS3 auf PS3Insider.com durch. Dass die Entwickler Probleme haben/hatten, die PS2 in den Griff zu kriegen, ist an Sony nicht komplett vorbeigegangen, zumal sich das Problem von der PS1 zur PS2 verschärft hat, und bei der PS3-Architektur noch stärker zu erwarten ist. Mit einheitlichen, offenen, wohldokumentierten und -bekannten Softwareschnittstellen kann Sony die Arbeit wesentlich erleichtern und XNA den Wind aus den Segeln nehmen, zumal das Microsofts größtes Argument für die XBox2 zu sein scheint. Dazu werden die Entwickler von Sony noch darauf trainiert, Prozesse möglichst in kleine, abgeschlossene Einheiten aufzuteilen, damit die vielen Rechenwerke gut zum Einsatz kommen. Das muss MS mit seinem Tri-Prozessor auch so tun, sonst liegen 2/3 der potentiellen Leistung brach. Die Architektur der PS2 hat die Leute bereits zum Umdenken gezwungen, das war nicht völlig für die Katz. Wie ich bereits in einem anderen Thread schrieb, ich vermute stark, dass eine Bibliothek aus vorgefertigten parallelisierbaren Modulen erstellt wird. Diese Module können dann in jedes Projekt relativ einfach eingebaut werden und ermöglichen so z.B. automatisch korrekte Bewegung von Kleidern, Haaren, Gras usw. im Wind. Die Zukunft liegt nicht in der 2000 km/h Hochgeschwindigkeitsstrecke sondern in der 128-spurigen Autobahn.
die (pc) hardware hersteller/entwickler haben mitlerweile begriffen das nicht alles mit mehr mhz zu machen ist. wobei ich bei nv etwas am zweifeln bin. ich frag mich echt warum man so ein stromfressendes monster bauen musste. einen tripple core in die xbox zu bauen finde ich absolut schwasinnig. der vorteil gegenüber einer dual core lösung relativ gering und es verbaucht nur mehr strom und produziert mehr abwärme. na ja vielleicht baut ja ms auch so ne flüssigkeits kühlung in die xbox wie beim g5.

Wie der Grafikchip der PS3 wird, ist natürlich noch überhaupt nicht klar. Darüber hat Sony noch nicht das geringste Wörtchen verloren. Aber die Cell-Architektur ermöglicht, Schwächen auszubügeln, falls doch welche auftreten sollten. Mit Hilfe einer Vector-Unit konnte die PS2 z.B. plötzlich DTS-Sound in Echtzeit kodieren, nachdem MS mit dem Echtzeit-AC3-Encoder der XBox so geprahlt hat. Sicherlich sind die beiden Vector-Units zu kostbar, um das in jedem Spiel einzubauen, aber der Cell-Chip hat ähnliche Einheiten zu Dutzenden. Ich denke da positiv, Sony hat sich auch bei der PSP mit den Entwicklern zusammengetan, um eine möglichst komfortable und leistungsfähige Lösung zu finden. Bei der PS3 wird Sony wohl nicht plötzlich die Erkenntnisse, die sie aus den ersten beiden (drei?) Generationen erlangt haben, vergessen und stur gegen die Wand fahren. Auch wenn viele, die der PlayStation nicht so sehr wohlgesonnen sind, das stark hoffen. Wink

Nachtrag: Shader Versionen sind die Zukunft für PC-Grafikkarten, ja. Aber das kann man nicht auf andere Architekturen übertragen. Programmierbarkeit der Grafikchips (nichts anderes sind Shader) kann man mit OpenGL auch erreichen (siehe Doom 3). Das wäre ja so als würdest du sagen: ohne AMD-64-Erweiterung wird die PS3 untergehen...
hmm überbewertet den cell nicht. es ist zwar ne schönes stück technik, aber auch nicht so herausragend wie ihn manche machen.
was shader sind weiß ich übrigens, man sollte es aber nicht so vereinfahcen. der amd64 vergleich ist, sry, mehr als schlecht.
opengl unterstützt auch shader, na gut doom setzt hauptsächlich auf bump mapping, aber dafür, dass man auf ne veraltete technik setzt ist engine echt gut. far cry ist da viel moderner und imho von der grafik her ebenbürtig. die schatten von doom sind genial obwohl sie nicht smooth sind.

VRAM ist so gut wie ausgestorben, weil der Zuwachs an Geschwidnigkeit bei DRAM den Vorteil des zweiten Ausgabekanals bereits längst überflüssig gemacht hat. Früher war der Speicher von Grafikkarten relativ lange Zeit damit beschäftigt, die Daten an den RAMDAC für die Bildschirmausgabe zu schicken, aber damals war der Speicher einfach super langsam. Deshalb hat man VRAM erfunden, welches einen zusätzlichen reinen Lesekanal hat. Mit heutigem schnellen Speicher bringt das so gut wie nichts, kostet aber Unsummen. Sollte die Architektur wirklich der Abbildung entsprechen, wären die 64MB EDRAM ähnlich wie die 4MB der PS2 lediglich eine Art Cache, denke da bloß nicht an 64MB auf eine PC-Grafikkarte, das ist nicht das Gleiche.
64mb edram werden genauso zu wenig sein, wie es bei der ps2 4mb vram sind. edram hin oder her. die anbindung ist zwar schön schnell (übrigens nen alter hut -> bitboys) aber 64mb sind zu wenig. wenn sony der gpu noch nen bissl vram (eventuell auf basis von xdr) spendiert sollte es allerdings kein problem sein. vram ist alles andere als ausgestorben...

@pry
die shader zu emulieren ist unwahrscheinlich, dafür sind sie zu komplex.
der gamecube hat technisch gesehn sogar eine pixel shader einheit. die wird allerdings anders programmiert und nicht so genannt.
ich frag mich wie die ps3 zb. die unreal3 engine emulieren soll, da diese zum großteil auf shader aufsetzt. dafür wird die leistung nicht reichen.
 
PSN-Name: Elbareon
#36
Schon die PS2 kann Shader simulieren, glaube mir, dass packt der Cell mit Leichtigkeit... ;)

Und niemand spricht davon, dass die PS3 die Unreal 3 Engine emulieren muß. Es wird nur höchstwahrscheinlich eine PC-Engine sein und kaum auf die Hardware der PS3 genau passen. Sowas ist dann eine simple Portierung und die kann auch bei der besten Hardware schief gehen. Es gibt etliche PS2- auf Xbox-Portierungen, die auf Xbox schlechter aussehen und ruckeln, ganz einfach weil die Engine für PS2 optimiert ist und nicht Xbox. Zudem muß sich die Unreal 3 Engine erst mal beweisen, die von Unreal 2 hat mich ziemlich enttäuscht und sogar sie kann noch auf PS2 sehr gute (Splinter Cell 2) Ergebnisse erreichen. Die PS3 wird also mit ner Unreal 3 Engine, wenn sie ordentlich portiert oder angepasst wird, keinerlei Probleme haben.

Und Cell ist so überragend wie ihn alle machen. Denn wer die EE kennt, der kann ahnen, was hinter einem Cell steckt. Die EE steckt Xbox- und Gamecube Prozessoren alle in die Tasche und es ging sehr lange, bis im PC-Bereich Prozessoren vorhanden waren, die diese Leistung erreichten (mit einem viellfachen an MHz). Wenn Sony, IBM und Toshiba diesen Weg weiterverfolgen, ist der Cell der mächtigste Prozessor seiner Zeit und es wird so sicher wie das Amen in der Kirche weder in der Xbox 2 noch dem Nintendo Revolution eine CPU geben, die da mithalten kann.

Die PS3 wird locker so einen Sprung wie der von PS1 auf PS2 schaffen, wenn nicht sogar noch mehr. Und die PC-Technologie steckt sicher in der Sackkgasse, oder warum suchen alle verzweifelt nach neuen Wegen? Glaubst du, das uneffiziente immer höher Takten geht noch lange weiter? Siehe AMD, sie haben das schon länger kapiert und ihre Prozessoren viel niedriger als die von Intel getaktet, sie aber wesentlich effizienter gemacht. Im PC-Bereich heißt es zur Zeit, immer mehr und höher, das wird aber auch immer teurer und das ganze geht auf eine Sackgasse zu, was auch schon etliche führende Firmenchefs- und Entwickler erklärt haben. Effizienz heißt das Zauberwort für die Zukunft und davon ist die aktuelle PC-Technologie weit entfernt.
 

Planet

50% water, 50% air, the glass is always full!
PSN-Name: PlanetJumble
#37
Original von Daedalus

man braucht nur ne andre bridge im chip selbst für pci-express. und sowas für andere bus' (busse??) zu entwickeln stellt nicht wirklich ein großes problem dar.
Da kommen wir schon exakt zum Problem. Ein Bussystem selbst kostet schon mal Leistung, die bei einer Konsole einfach nicht benötigt wird. Hast du schon mal eine neue "Grafikkarte" in deine PS2 geschoben? Oder eine zweite für den zweiten Bildschirm? Die Grafikchips sind für PCs und PC-ähnliches entwickelt worden. Hast du dir das Diagram für die PS3 schon mal angeschaut? Der Grafikchip ist auch ein Cell-Prozessor, mit weniger Rechenwerken dafür mit Grafikeinheiten. Cells können sich untereinander verständigen und koordinieren, die CPU kann der GPU Arbeit abnehmen und umgekehrt. Versuch mal eine solche Harmonie über AGP herzustellen. Es ist einfach nicht das Gleiche, egal wie du es drehst und wendest. Der Graphics Synthesizer der PS2 z.B. ist zwar nicht gerade der mächtigste Chip von den Features her, aber er hat massive Bandbreite und ist perfekt in einer übergreifenden Pipeline an die Emotion Engine gekoppelt. Das ist eine maßgeschneiderte Lösung für eine spezielle Aufgabe, PC-GPUs arbeiten einfach anders.

na ja so nen großen sprung wie von ps1 auf ps2 wird die ps3 nicht schaffen. da müsste sony tief in die wundertüte greifen. pc technik steckt in der sackgasse? -> :wall:
Warte mal ab, wie groß der Sprung wird, ich bin mir sehr sicher dass es dich aus den Socken haut.

Und ja, Sackgasse, definitiv. Der Aufwand für eine Verdoppelung der Systemleistung wird immer gigantischer, begleitet von einer Verfünffachung der Komplexität der Bauteile, und es dauert immer länger.

die (pc) hardware hersteller/entwickler haben mitlerweile begriffen das nicht alles mit mehr mhz zu machen ist. wobei ich bei nv etwas am zweifeln bin. ich frag mich echt warum man so ein stromfressendes monster bauen musste.
Diese Einsicht ist bisher eher selten. Intel hat es auch erst kapiert, nachdem sie voll gegen die Wand gelaufen sind, wieder aufgestanden und gleich nochmal dagegen gerannt sind und dann noch ein paar Stunden mit dem Hammer geklopft haben. Intel als eines der technologisch führenden Unternehmen ist halt mit seiner krampfhaften Gigahertzhatz als erstes an die Grenzen der Realität gestoßen. Erst als alle Welt über die Verschlimmbesserung des P4 gelacht hat, sind sie umgeschwenkt, dafür aber relativ konsequent.

einen tripple core in die xbox zu bauen finde ich absolut schwasinnig. der vorteil gegenüber einer dual core lösung relativ gering und es verbaucht nur mehr strom und produziert mehr abwärme. na ja vielleicht baut ja ms auch so ne flüssigkeits kühlung in die xbox wie beim g5.
Hier sieht man am deutlichsten das Dilemma, Dualcores bringen für die PC-Architektur nochmal eine frische Brise, aber dann stößt man schon wieder an die Grenzen. Was macht mal mit einem Flaschenhals? man hängt gleich zwei, drei oder mehr Flaschenköper unter einen einzigen dünnen Hals? Oder sollte man sich überlegen das Ganze System zu überdenken?

Die Recheneinheiten des Cell-Chip sind einzeln für sich genommen nicht sehr mächtig. Sie brauchen für komplexe Rechenaufgaben sicherlich mehr Takte als ein P4. Dafür erledigen sie die einfachen, mit Abstand am häufigsten gebrauchten Rechenoperationen flink und mit vielen kleinen Operationen kann man jede komplexe Operation nachstellen. Dafür schaffen Sony und IBM es in einem Cell-Chip nach obigen Vorbild gleich 128 Ganzzahl- und 128 Fließkomma-Rechenwerke einzubauen, der P4 hat 2 bzw. 3 wenn ich mich recht entsinne. PowerPC ist etwas besser, aber eher dem P4 als dem Cell ähnlich.

hmm überbewertet den cell nicht. es ist zwar ne schönes stück technik, aber auch nicht so herausragend wie ihn manche machen.
Nein? Woher hast du denn diese brisanten Informationen? :)

was shader sind weiß ich übrigens, man sollte es aber nicht so vereinfahcen. der amd64 vergleich ist, sry, mehr als schlecht.
opengl unterstützt auch shader, na gut doom setzt hauptsächlich auf bump mapping, aber dafür, dass man auf ne veraltete technik setzt ist engine echt gut. far cry ist da viel moderner und imho von der grafik her ebenbürtig. die schatten von doom sind genial obwohl sie nicht smooth sind.
Doom 3 setzt auf veraltete Technik? *kopfkratz* Sehr interessant...

64mb edram werden genauso zu wenig sein, wie es bei der ps2 4mb vram sind. edram hin oder her. die anbindung ist zwar schön schnell (übrigens nen alter hut -> bitboys) aber 64mb sind zu wenig. wenn sony der gpu noch nen bissl vram (eventuell auf basis von xdr) spendiert sollte es allerdings kein problem sein. vram ist alles andere als ausgestorben...
Du verwechselst da was. Nicht jeder Speicher der für Grafik genutzt wird ist VRAM, um genau zu sein wie gesagt keiner mehr. Die PS2 benutzt EDRAM, genauso wie zumindest im obigen Diagramm die PS3. Nun gut, wo ich jetzt weiß was du mit "VRAM" meinst werde ich nicht nochmal darauf eingehen.

XDR ist eine Technologie um eine bestimmte Form von DRAM an ein System anzubinden, das ist nichts was man in einen Chip intern nachbauen würde. EDRAM ist EDRAM, die Breite der Verbindung wird beim Chipdesign festgelegt und die Taktfrequenz hängt vom Chip ab, XDR hat genormte Breite und Taktfrequenz.

Wie ich bereits sagte, du kannst die 64 MB nicht mit deinen PC-geprägten Augen sehen. Sicherlich ist das nicht unglaublich viel, aber es ist ja auch nur Cache und dafür zumindest anfangs gigantisch. Zumal EDRAM sehr sehr teuer ist und so klein wie irgend möglich gehalten werden muss. EDRAM ist der größte Ausschussfaktor bei der Chipherstellung.

Wo kann man denn so eine tolle Bitboys Grafikkarte käuflich erwerben? Das würden glaube ich viele gerne wissen. Das ist Vaporware, existiert lediglich auf Papier, und wurde eine Weile nach Erscheinen der PS2 zum ersten mal erwähnt.

die shader zu emulieren ist unwahrscheinlich, dafür sind sie zu komplex. der gamecube hat technisch gesehn sogar eine pixel shader einheit. die wird allerdings anders programmiert und nicht so genannt.
ich frag mich wie die ps3 zb. die unreal3 engine emulieren soll, da diese zum großteil auf shader aufsetzt. dafür wird die leistung nicht reichen.
Shader sind nicht komplex, es ist eine sehr simpel gehaltene Assemblersprache welche im übrigen neuerdings eine ähnliche Evolution erfährt wie die CPU-Maschinensprache. Es werden bei neueren Engines wie eben Unreal 3 die Shader in einer abstrakteren Hochsprache geschrieben (z.B. die NVidia-Lösung CG, C for Graphics) und erst zur Laufzweit in echte Shader kompiliert. Warum sollte der Cell-Grafikchip das nicht können? So gut wie niemand programmiert heutzutage noch wirklich in Assembler, und das wird bei Shadern auch bald so sein, weil es einfach viel zu aufwändig wäre und kaum schneller läuft mit guten Compilern.

Der Gamecube Grafikchip ist programmierbar, fein, aber warum muss man das genauso nennen wie das was sich die Microsoft- und NVidia-Marketingabteilungen gemeinsam ausgedacht haben. Shader ist nämlich nicht gerade ein technischer Begriff. Wie schattiert man denn bitteschön Koordinaten?
 
Top