(25.07.2015)Andromachus schrieb: [ -> ]Irgendwie hast du nicht ganz kapiert worum es geht: Nämlich dass im High-End Bereich, zu dem auch die Fury gehört, gewisse Eckdaten gefragt sind.
Zitat:Tatsache ist das die FPS bei 4GB HBM nicht so stark einbrechen wie bei 4GB GDDR5, tatsache ist das die Fury X auch nicht stark benachteiligt ist ggü. nV.
Das ist Unsinn und hängt vom Spiel ab. Durch HBM ändert sich weder die Bandbreite auf dem PCI-E Bus, noch die Anbindung ans System RAM. Wenn die Karte also Daten holen gehen muß, dann ist es erstmal völlig egal ob GDDR5 oder HBM verbaut ist, es dauert.
Viele Leute machen einen Bogen um die Fury und greifen eher noch zur 290x bzw. 390x.
Man muß auch verstehen daß HBM als Gamechanger gehyped wurde, als Durchbruch in der GPU Leistung. Und das konnte AMD leider nicht erfüllen. Man muß schon die Produkte im Kontext der Marketingaussagen sehen.
HBM ist zurzeit Bleeding-Edge-Technologie, und daher sowohl schwierig herzustellen als auch teuer. Die Fury ist für die Leute, die das Neuste vom Neusten in Sachen Grafiktechnologie wollen.
Und warum packt AMD "nur" 4GB davon drauf? Weil sie im Moment schlicht und einfach das Geld nicht haben, um diese Technologie so weit weiter zu entwickeln, dass sie sowohl für sich selbst als auch den Endkunden halbwegs erschwinglich mehr auf die Karten bauen könnten. Und das wird sich auch so lange nicht ändern, bis die Leute tatsächlich anfangen, diese Karten zu kaufen.
Aber nein, man gibt lieber deutlich mehr aus für Karten von Nvidia, die wie Apple bloß durch Hype und hohe Preise die Leute reinziehen können, weil "innovativ" ist die Firma ganz sicher nicht.
-PhysX? Gibt's schon, nennt sich Havok und Bullet und ist plattformunabhängig.
-Gameworks? Schlechter Deckmantel der "Vereinfachung von Spieleentwicklung", um sich einen Vorteil gegenüber AMD in Sachen Performance zu verschaffen.
-Hairworks? AMD did it, nennt sich TressFX.
-TITAN? Glorifizierte Workstation-Karten, die an Gamer vermarktet werden, obwohl es letztendlich bloß High-End-GTX-Karten mit mehr Speicher und doppelt so hohem Preisschild sind.
Bei Intel kann ich es mittlerweile durchaus verstehen, die FX-Chips von AMD, wenn gut, lassen in ihrer Singlecore-Performance doch etwas zu wünschen übrig, speziell in Sachen Virtualisierung und Emulation.
Diesen Vorteil sehe ich bei AMD vs. Nvidia nicht.
Und "4GB sind auf High-End-Karten heutzutage einfach nicht mehr zeitgemäß", bitte was? Die meisten Leute können sich ja nicht einmal einen 4K-Monitor leisten, und selbst Downsampling von 4K auf 1080p verbraucht in der Regel nicht mehr als 3,5-4GB an VRAM. Oberhalb von 4K lässt der Mehrwert schnell nach.
Dass diese ganzen neuen Karten mit mehr als 4GB an VRAM ausgeliefert werden, sehe ich, bis man mir einen konkreten Mehrwert demonstrieren kann, eher als Marketing-Gag an, um den Kunden weißzumachen, dass sie "das brauchen". Texturen kann man schon jetzt nicht mehr viel schärfer machen, ohne dass erneut der Mehrwert zu gering ist, besonders in neuen Spielen wie eben Star Citizen, und wenn ein Spiel soviel VRAM braucht, behaupte ich erstmal, dass es schlecht designed wurde und zuwenig auf LoD geachtet wurde.
Für marktreifes 4K ist es einfach noch zu früh, da die meisten Higher-End-Karten noch immer selbst bei 1080p in vielen grafisch aufwendigen Spielen keine stabilen 60FPS halten können.