Dieses Forum nutzt Cookies
Dieses Forum verwendet Cookies, um deine Login-Informationen zu speichern, wenn du registriert bist, und deinen letzten Besuch, wenn du es nicht bist. Cookies sind kleine Textdokumente, die auf deinem Computer gespeichert sind; Die von diesem Forum gesetzten Cookies düfen nur auf dieser Website verwendet werden und stellen kein Sicherheitsrisiko dar. Cookies auf diesem Forum speichern auch die spezifischen Themen, die du gelesen hast und wann du zum letzten Mal gelesen hast. Bitte bestätige, ob du diese Cookies akzeptierst oder ablehnst.

Ein Cookie wird in deinem Browser unabhängig von der Wahl gespeichert, um zu verhindern, dass dir diese Frage erneut gestellt wird. Du kannst deine Cookie-Einstellungen jederzeit über den Link in der Fußzeile ändern.
Hallo, Gast! (Registrieren)
03.05.2024, 03:11



Hardware-Ecke
29.11.2016
Captain Gulasch Abwesend
Wonderbolt
*


Beiträge: 2.417
Registriert seit: 23. Jan 2013

RE: Hardware-Ecke
(29.11.2016)mowny schrieb:  Der Trend zu mehr Cores statt mehr Takt ist weiterhin ungebrochen, zum Beispiel mit dem da. Ob das gerade beim Gaming was nützt ist wieder eine ganz andere Frage.

Server CPU, ja, da muss bzw. ist aber auch alles Parallelisiert.

Im "Consumer" Markt findest du max. den 6950x mit 10 Kernen, der richtet sich aber schon wieder an Leute mit zuviel Geld oder als Workstation CPU, nichts für den normal Anwender.
Der 6900k und 6850k reihen sich auch dazu ein (wobei der 6850k einfach nur ein höher getakteter 6800k mit mehr PCI Lanes ist, dafür zahlt man aber auch einen ordentlichen aufpreis)

Die i3, i5 und die Quadcore i7 sind der Haupteil, was 2-4 native Kerne wären.
Der 6800k richtet sich auch schon wieder eher an die Enthusiasten, ist gleichzeitig auch die einzig halbwegs sinnvolle Option ist wenn man bereits einen SandyBridge oder höher sein eigen nennt, da der halt 2 Kerne mehr bietet.

Ab Sandy (2500k oder 2600k) ist man spätestens mit OC auf ~4,5GHz aber wieder sehr gut dabei.
Die Zahl der Spiele die mehr als 4 threads nutzen können wächst zwar, das ausschlaggebende ist aber immernoch min. 4 Kerne mit möglichst hoher IPC, dann hat man für gewöhnlich ruhe.

Ändern wird sich das vielleicht mit Zen oder wenn Intel mit Coffee Lake 6 Kerner in den Mainstream Markt bringt.
Zitieren
29.11.2016
404compliant Offline
GalaCon Volunteer-Stratege Carrot Not Found
*


Beiträge: 8.327
Registriert seit: 23. Okt 2011

RE: Hardware-Ecke
(29.11.2016)Mikami-Katze schrieb:  Effektiv ist der FX 6300 ein Triplecore, außer deine Anwendung begnügt sich mit Integer-Rechnungen, da kann sie von 6 Kernen profitieren.

So einfach kann man es sich halt nicht machen. Das Modul-Konzept mit ein paar gemeinsam genutzten, und auch mehrfach vorhandenen Ressourcen war eigentlich nicht soo schlecht, die Engpässe liegen viel mehr im Detail. Insbesondere dürfte das Konzept ja bei Single-Thread keinerlei Nachteile haben, und ein 3x2-Kerner dürfte nicht gegen einen i3 2-Kerner verlieren können.

Nein, den Bulldozern fehlt es vielmehr beim schnellen Befeuern der Rechenwerke mit Instruktionen, und den dadurch erreichbaren Instructions-per-cycle. Da hilft es auch nicht, noch mehr Fließkomma-Rechenwerke in den Ring zu werfen, oder diese exklusiv nur für einen Kern zu nutzen.

(Dieser Beitrag wurde zuletzt bearbeitet: 29.11.2016 von 404compliant.)
Zitieren
30.11.2016
mowny Offline
Wonderbolt
*


Beiträge: 1.897
Registriert seit: 09. Mai 2014

RE: Hardware-Ecke
(29.11.2016)Captain Gulasch schrieb:  Ab Sandy (2500k oder 2600k) ist man spätestens mit OC auf ~4,5GHz aber wieder sehr gut dabei.
Die Zahl der Spiele die mehr als 4 threads nutzen können wächst zwar, das ausschlaggebende ist aber immernoch min. 4 Kerne mit möglichst hoher IPC, dann hat man für gewöhnlich ruhe.
Ändern wird sich das vielleicht mit Zen oder wenn Intel mit Coffee Lake 6 Kerner in den Mainstream Markt bringt.

Das wird aber echt langsam Zeit. Die Taktfrequenz ist schon längst in den Bereich vorgedrungen, in dem die Signalausbreitungsgeschwindigkeit die Abmessungen des Bereichs begrenzt, den man noch synchron halten kann. Daher kriegt man Taktfrequenzerhöhungen nur noch mit noch kleineren Strukturbreiten oder mit weiterer Unterteilung der Cores in getrennt vor sich hin wurschtelnde Einheiten hin. Mit kleineren Strukturen kriegt man aber bei gleicher Chipgröße relativ einfach mehr Cores unter, wie man an o.g. Xeon schön sehen kann. Bei der nächsten Strukturverkleinerung wird das sicher noch drastischer, mit nur mäßig erhöhter Taktfrequenz aber wohl doppelt so vielen Cores.

[Bild: nazihorsefuckoff.png]
Zitieren
30.11.2016
Nic0 Offline
Pegasus Masterrace


Beiträge: 3.999
Registriert seit: 25. Jun 2014

RE: Hardware-Ecke
Man muss sich auch darauf einstellen, dass in etwa 4 Jahren wohl Schluss mit den bisherigen Prozessoren sein wird. Wir sind momentan bei 14nm, nächstes Jahr werden es 10nm und 2019 dann vermutlich 7nm und da kommt langsam der Punkt, wo es einfach nicht mehr kleiner geht. Physisch größer kann man die Chips nicht bauen, ohne dass man eine Turbine drauf packen muss und ich glaube auch nicht, dass immer mehr Cores langfristig so eine gute Lösung sind. Worin soll das enden? Dass dann jedes meiner Chrome Tabs einen eigenen Core hat?

Being gay is bad
But lying is worse
So just realize you have
A curable curse
And turn it off

Zitieren
30.11.2016
Captain Gulasch Abwesend
Wonderbolt
*


Beiträge: 2.417
Registriert seit: 23. Jan 2013

RE: Hardware-Ecke
Naja okay die nm Zahlen sind geschönt, echte 14, 10 oder 7nm sind das nicht.

Der letzte ausweg, sofern das bei CPUs überhaupt möglich ist, wäre wie Speicher zu stapeln.
Stacken, 3D wie auch immer.

Die Hoffnung das sich am Markt was ändert liegt wirklich bei Zen, wenn man sich z.B. Kaby Lake anschaut sieht man das sich nichts tut.
Keine höhere IPC, mit 4,5GHz einen noch höheren Grundtakt, mit guter Kühlung sollen 5GHz drinne sein womit der Prozessor 1040pkt im Cinebench erreicht, dafür muss man aber sehr hohe Temperaturen in kauf nehmen. (i7 7700k)

Der Nachfolger wird sicher auch nicht besser, wenn wir Glück haben bekommen wir da auch nur wieder 5% höhere IPC.
Zitieren
30.11.2016
Conqi Offline
(K)ein Fag
*


Beiträge: 5.910
Registriert seit: 04. Mär 2012

RE: Hardware-Ecke
Ich bin ja durchaus gespannt, was für Lösungen uns erwarten bezüglich Prozessoren in der Zukunft. Stapeln dürfte schwierig werden, denn die Leistungsaufnahme steigt ja trotzdem und schon heute ist Kühlung eine der aufwendigsten Aufgaben, zumindest bei Servern. Vielleicht rennen wir ja tatsächlich in absehbarer Zeit in eine Grenze und dann bleiben "nur" ein paar architektonische Anpassungen. Müsste man immerhin nicht mehr so oft aufrüsten. RD laugh

Neue Signatur
Zitieren
30.11.2016
404compliant Offline
GalaCon Volunteer-Stratege Carrot Not Found
*


Beiträge: 8.327
Registriert seit: 23. Okt 2011

RE: Hardware-Ecke
Stacking hilft nur, wenn Platzprobleme dringender sind als Wärmeprobleme. Momentan wäre es wohl effizienter, in die Breite zu gehen, was bei Serverchips ja auch Praxis ist. Die Wärmeprobleme löst man so aber nicht.

Die Hoffnung der Branche liegt daher weiter in der EUV-Lithografie, damit ließe sich erst mal weiter shrinken. Nur ist der Prozess immer noch ungleich aufwändiger und damit teurer.

Zitieren
30.11.2016
Conqi Offline
(K)ein Fag
*


Beiträge: 5.910
Registriert seit: 04. Mär 2012

RE: Hardware-Ecke
Aber auch EUV Lithografie bringt keine langfristige Lösung, da gelangt man schnell in den Bereich, in dem mit Siliziumatome nicht viel mehr, bzw. weniger, machbar ist. Dann wird sich zeigen, ob aus Graphen tatsächlich mal was wird, oder wie viel sich durch weitere in Hardware implementierte Funktionen machen lässt.

Neue Signatur
Zitieren
01.12.2016
Captain Gulasch Abwesend
Wonderbolt
*


Beiträge: 2.417
Registriert seit: 23. Jan 2013

RE: Hardware-Ecke
Da es vorgestern dieses Thema gab, lass ich das einfach mal hier: http://www.computerbase.de/2016-12/radeo...eich-test/
Zitieren
05.12.2016
Der Unbekannte Offline
Enchantress
*


Beiträge: 735
Registriert seit: 17. Apr 2012

RE: Hardware-Ecke
Ich frage mich immer noch was Sapphire mit deren Karte gemacht hat....
Zitieren
05.12.2016
Captain Gulasch Abwesend
Wonderbolt
*


Beiträge: 2.417
Registriert seit: 23. Jan 2013

RE: Hardware-Ecke
Naja, ich hatte die Rx480 schonmal testen können und kann die Tests so nicht bestätigen.

(26.09.2016)Captain Gulasch schrieb:  Ich hab am WE mal eine Sapphire Rx480 Nitro einbauen können und testen können.

Die ganzen Berichte auf den PC Seiten sind übertrieben (sprich das die Karte zu laut und heiß ist)

Unter Volllast erreichte die 65-70°C, in einem BitFenix Neos und bleibt dabei leiser als meine 390 Nitro.
Performance wäre ca. auf dem Niveau der R9 390.
Allerdings war in dem PC ein Phenom II 955 @ 3,6GHz und rennt damit deutlich schneller ins CPU limit als mein 4,1GHz 4690k, daher kann man das nur ganz grob vergleichen.
Zitieren
07.12.2016
Conqi Offline
(K)ein Fag
*


Beiträge: 5.910
Registriert seit: 04. Mär 2012

RE: Hardware-Ecke
http://www.pcgameshardware.de/Nvidia-Gef...h-1215300/
An alle Nvidia Nutzer mit 1080p HDMI-Monitor, ruhig mal den "dynamischen Ausgabebereich" im Treiber checken. Bei meinem Freund war das offensichtlich schon seit Ewigkeiten falsch eingestellt und das Bild war unnötig deutlich schlechter. Aber AMD sind ja die mit den schlechten Treibern, ne? AJ Prost

Neue Signatur
Zitieren
07.12.2016
Pandora51 Offline
Royal Guard
*


Beiträge: 3.095
Registriert seit: 04. Sep 2012

RE: Hardware-Ecke
Okay dann darf ich ja nochmal einen Rant dazu anbringen:

Spoiler (Öffnen)

Always be yourself unless you can be a dragon, then always be a dragon

(Dieser Beitrag wurde zuletzt bearbeitet: 07.12.2016 von Pandora51.)
Zitieren
07.12.2016
Captain Gulasch Abwesend
Wonderbolt
*


Beiträge: 2.417
Registriert seit: 23. Jan 2013

RE: Hardware-Ecke
Ey AMD Treiber sind voll kackjes ey. Big Grin

Mal gucken ob dieser Mythos sich irgendwann mal umdreht, den gibts ja nur weil das rumerzählt wird und nicht auf fakten basiert.

Von Nvidia hingegen hört man relativ häufig von Problemen die nicht auf einige wenige beschränkt sind mittlerweile. Sind sich in ihrer Position als Marktführer wohl etwas zu sicher.


Edit: Achja morgen kommt die Neuauflage von Crimson, Crimson ReLive, mal gucken was der bringt.

Zitat:Der Leak zeigt aber das Vorhandensein neuer Power-Target- und Frame-Limiter-Funktionen sowie einer Möglichkeit, direkt aus dem Treiber bzw. einem Zusatzprogramm heraus Aufzeichnungen und Livestreams aus Spielen zu erstellen. Wohl auch geplant ist die Ausweitung der WattMan-Unterstützung für ältere Karten sowie die Möglichkeit, FreeSync nun auch auszuführen, wenn die Anwendung im Vollbild-Fenstermodus ausgeführt wird.
(Dieser Beitrag wurde zuletzt bearbeitet: 07.12.2016 von Captain Gulasch.)
Zitieren
07.12.2016
Der Unbekannte Offline
Enchantress
*


Beiträge: 735
Registriert seit: 17. Apr 2012

RE: Hardware-Ecke

Danke dafür, war bei mir auch.
Wenn ich aber ehrlich war habe ich das auch nicht gemerkt, als ich von AMD auf nVidia gewechselt habe.
Jetzt merke ich einen Unterschied.

Beim Treiber, das liegt einfach daran das HDMI eher PC untypisch ist, meistens ist es doch DP.
Kann man sehen wie man will.
Zitieren
07.12.2016
Conqi Offline
(K)ein Fag
*


Beiträge: 5.910
Registriert seit: 04. Mär 2012

RE: Hardware-Ecke
Also bei den meisten, die ich kenne, ist eher HDMI im Einsatz. DP ist zwar theoretisch eher der neue Universal Monitor-Anschluss, aber die Realität sieht (noch) etwas anders aus. Zumal ich das trotzdem nicht als Ausrede gelten lassen würde.

Neue Signatur
Zitieren
07.12.2016
Nic0 Offline
Pegasus Masterrace


Beiträge: 3.999
Registriert seit: 25. Jun 2014

RE: Hardware-Ecke
(07.12.2016)Conqi schrieb:  http://www.pcgameshardware.de/Nvidia-Gef...h-1215300/
An alle Nvidia Nutzer mit 1080p HDMI-Monitor, ruhig mal den "dynamischen Ausgabebereich" im Treiber checken. Bei meinem Freund war das offensichtlich schon seit Ewigkeiten falsch eingestellt und das Bild war unnötig deutlich schlechter. Aber AMD sind ja die mit den schlechten Treibern, ne? AJ Prost

Bei meinem Monitor ist der Unterschied gleich 0, was ich etwas seltsam finde.

Würdest du bitte mal dieses Bild auf dem Monitor deines Freundes legen (Monitor auf Werkseinstellungen) und schauen, welche Kästchen in den beiden Modi noch erkennbar sind? Ist esein PC Monitor oder ein TV?

Theoretisch müsste man bei dem begrenzten Dynamikbereich gar keine Kästchen mehr erkennen können.


(07.12.2016)Pandora51 schrieb:  Okay dann darf ich ja nochmal einen Rant dazu anbringen:

Spoiler (Öffnen)

Es hat tatsächlich einen sehr guten Grund, warum das so ist.
Mich hat das auch interessiert und ich werde mal bis zum Wochenende ein paar Tests machen. Spätestens Sonntag werde ich das weiter ausführen. Ich bin momentan noch am Daten sammeln.

Being gay is bad
But lying is worse
So just realize you have
A curable curse
And turn it off

Zitieren
07.12.2016
Conqi Offline
(K)ein Fag
*


Beiträge: 5.910
Registriert seit: 04. Mär 2012

RE: Hardware-Ecke
(07.12.2016)Nic0 schrieb:  Würdest du bitte mal dieses Bild auf dem Monitor deines Freundes legen (Monitor auf Werkseinstellungen) und schauen, welche Kästchen in den beiden Modi noch erkennbar sind? Ist esein PC Monitor oder ein TV?

Es ist ein (recht billiger) TN Monitor. Es sind in beiden Einstellungen jeweils alle Kästchen zu erkennen. Beim vollen Dynamikbereich ist aber gerade bei den schwarzen Kästchen zu erkennen, dass diese dunkler sind.

(07.12.2016)Nic0 schrieb:  Theoretisch müsste man bei dem begrenzten Dynamikbereich gar keine Kästchen mehr erkennen können.

Ist dem so? Müsste das Signal nicht einfach "gestaucht" werden? Also ein Schwarzwert von 0 wird als 16 gesendet und beispielsweise ne 2 dann als 17 oder wird wirklich alles unter 16 einfach gleich behandelt und verschluckt? Also dass es nicht so ist offensichtlich, hat der Test ja gezeigt, aber in der Theorie meine ich.

Neue Signatur
Zitieren
07.12.2016
Nic0 Offline
Pegasus Masterrace


Beiträge: 3.999
Registriert seit: 25. Jun 2014

RE: Hardware-Ecke
(07.12.2016)Conqi schrieb:  Ist dem so? Müsste das Signal nicht einfach "gestaucht" werden? Also ein Schwarzwert von 0 wird als 16 gesendet und beispielsweise ne 2 dann als 17 oder wird wirklich alles unter 16 einfach gleich behandelt und verschluckt? Also dass es nicht so ist offensichtlich, hat der Test ja gezeigt, aber in der Theorie meine ich.

Das ist auch möglich. Ein TV würde in manchen Situationen einfach die Werte abschneiden.
Es kommt teilweise auch auf die Software an (bei Video).

Ich habe morgen Zugang zu Referenzmonitoren. Da wollte ich das mal genau testen.

Sind nur die Unterschiede der schwarzen Kästchen zu dem 0-Schwarz geringer oder ist das 0-Schwarz beim Vollbereich auch schwärzer?

Being gay is bad
But lying is worse
So just realize you have
A curable curse
And turn it off

Zitieren
07.12.2016
Conqi Offline
(K)ein Fag
*


Beiträge: 5.910
Registriert seit: 04. Mär 2012

RE: Hardware-Ecke
Wirkte eher so als wäre bei geringerem Dynamikumfang nur der Kontrast höher und das 0-Schwarz war eigentlich gleich. Allerdings ist der Monitor wie gesagt auch eher nicht so toll und ich hab nur kurz geguckt.

Neue Signatur
Zitieren


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 2 Gast/Gäste