Vergleich HD5500 vs. 8600GT

vom 05.01.2012, 08:44 Uhr

Ich muss eine Grafikkarte vom Typ 8600GT ersetzen. Wichtigstes Kriterium ist der Stromverbrauch. Eine neue Grafikkarte sollte nicht wesentlich mehr Strom verbrauchen als die bisherige 8600GT. Ich bin auch fündig geworden und habe eine HD5550 ausfindig gemacht. Diese verbraucht 39 Watt (8600GT: 43 Watt).

Nun habe ich mal alle erdenklichen Parameter verglichen und habe festgestellt, dass die neu ausgesuchte Grafikkarte in allen Parametern besser ist außer in einem. Der Shader-Takt liegt bei lediglich 550MHz, wohingegen die Taktrate der 8600GT bei 1180 MHz liegt. Demgegenüber hat aber die HD5500 320 Stremprozessoren und die 8600GT nur 32.

Nun meine Frage an euch: Hat dieser geringere Takt von 550 MHz eine negative Auswirkung? Was wird sich dadurch wirklich verschlechtern? Die erwähnten Parameter habe ich von klick

» dhammer » Beiträge: 234 » Talkpoints: 105,69 » Auszeichnung für 100 Beiträge



Der Shader-Takt gibt soweit mir bekannt an, wie schnell die Bild-Deteil-Datensätze errechnet werden können. Unterden Bild-Deteil-Datensätzen versteht man beispielsweise die Schattierungen oder auch 3D-Effekte. Beim Vergleich von zwei Grafikkarten mit unterschiedlichem Shader-Takt, muss es jedoch nicht unbedingt bedeuten, dass die Grafikkarte mit geringerem Shader-Takt im Endeffekt tatsächlich langsamer ist. Bei einer Grafikkarte gibt es so viele Faktoren, welche bezüglich der Geschwindigkeit viel aussagen können. Ich finde, der Vergleich von Grafikkarten ist am einfachsten und aussagekräftigsten, wenn man die Benchmark-Werte der jeweiligen Grafikkarten vergleicht. Diese Benchmarkwerte solltest du über die Google Such wohl gut finden, es gibt doch zahlreiche Seiten beziehungsweise Foren, welche sich intensiv mit den Benchmarks von Grafikkarten beschäftigen.

Benutzeravatar

» User92 » Beiträge: 936 » Talkpoints: 2,20 » Auszeichnung für 500 Beiträge


Die Grafikkarte, die du ersetzen musst, ist nach deinen Angaben eine nVidia 8600GT, die neue, die du einzubauen planst, eine ATI Radeon HD5550. Die alte GraKa von nVidia dürfte schon einige Jahre auf dem Buckel haben, seitdem hat sich aus technologischer Sicht betrachtet Einiges getan. Die alte nVidia 8600GT ist mit absoluter Sicherheit um Meilen ineffizienter als die neue ATI Radeon HD 5550 - bedeutet, dass sie aus dem gleichen Strom weniger Leistung schöpft.

Und das zum Trotz des niedrigeren Shader-Taktes. Dies liegt an den neuen Berechnungsmethoden und Algorithmen, die nicht mehr so stark auf den Shadertakt gestützt sind. Der Faktor zehn der Streamprozessoren macht das deutlich sichtbar. Du kannst dir sehr sicher sein, das die neue Karte bestens die alte lückenlos ersetzen wird. :)

» Bozo » Beiträge: 90 » Talkpoints: -0,65 »



Ähnliche Themen

Weitere interessante Themen

^