PDA

View Full Version : Reale Leistungsaufnahme von 10 Grafikkarten



Snitlev
17.02.09, 17:40
Grafikkarten und deren "Stromverbrauch"


PC Games Hardware hat jeweils 5 Grafikkarten mit AMD- und Nvidia-Chip vermessen und die reale Leistungsaufnahme ermittelt.
Nachdem das neue Messequipment im Labor eingetroffen ist, haben wir uns gleich an die Arbeit gemacht und zehn von Ihnen vorgeschlagene Grafikkarten vermessen. Insgesamt sind dabei 30 verschiedene Messwerte entstanden. Wir haben die Leistungsaufnahme von Grafikkarten im Leerlauf (statischer Desktop in 1.920 x 1.200), mit Furmark und Crysis Warhead geprüft.

Quelle: Reale Leistungsaufnahme von 10 Grafikkarten - Grafikkarte, Grafikkarten, Leistungsaufnahme (http://www.pcgameshardware.de/aid,676238/Reale-Leistungsaufnahme-von-10-Grafikkarten/Grafikkarte/Test/)

So jetzt will ich aber hoffen das dass im Bezug zu Chip eine seriöse und gute Quelle ist. :eek13:

mfg

mabuse
18.02.09, 11:43
So jetzt will ich aber hoffen das dass im Bezug zu Chip eine seriöse und gute Quelle ist. :eek13:
Naja, wie'n Meßgerät funktioniert werden die wohl schon wissen - das würde sogar einem Redakteur der Chip zutrauen . . .


Erschreckend finde ich:

Positiv stechen die beiden Grafikkarten Nvidia Geforce GTX 260-216 (65 nm) und AMD Radeon HD 3870 hervor: In Ruhe "verbrauchen" sie 36 beziehungsweise 22 Watt.
Das ist positiv?
Mein Webserver verbraucht 24 W. Der komplette Rechner! Und nicht im Ruhezustand, sondern während er saugt, was die Leitung hergibt.

ghostfucker
18.02.09, 11:47
Mein Webserver verbraucht 24 W. Der komplette Rechner! Und nicht im Ruhezustand, sondern während er saugt, was die Leitung hergibt.

na dann starte mal auf deinem 24w server z.b. ein spiel...

das ist wieder so ein vergleich mit äpfel und birnen :rolleyes:

v6ph1
18.02.09, 12:00
Ich kann mich aber auch noch gut erinnern an eine Zeit, wo die Grafikkarten nur über AGP versorgt wurden, welcher 25W zur Verfügung stellt.

Sicher, die Leistung ist zwar gewaltig gestiegen, aber leider auch die Abwärme und insbesondere im Idle-Mode müsste man dagegen etwas mehr tun. (z.B. Shader abschalten und noch weiter runtertakten)

Dass man den Grafikkarten genügend Energie gönnen sollte, wenn sie ausgelastet sind, ist klar, den die nominelle Leistung von 1TFLOP/s muss ja auch irgendwoher kommen.
Aber wenn sie nicht oder nur kaum beansprucht werden (Aero/2D-Desktop), dann sollte die Leistungsaufnahme entsprechend gesenkt werden.


Alternativ hätte man auch mal die Techniken, wie Hybrid-Power weiterverfolgen sollen:
Im Normalfall übernimmt die Chipsatzgrafik (mit 1-2W) und falls die Leistung wirklich erforderlich ist, kommt das Grafikmonster zum Einsatz.

Leider wurde die Idee von NVidia bereits wieder eingestampft obwohl PCIe Hot-Plug-Fähig ist.

mfg
v6ph1

Snitlev
18.02.09, 15:45
v6ph1
Ich kann mich aber auch noch gut erinnern an eine Zeit, wo die Grafikkarten nur über AGP versorgt wurden, welcher 25W zur Verfügung stellt.

da bin ich aber froh das ich nur AGP in meiner alten Heizplatte habe (Asus P800 deluxe) :web-smilies_big0030

mfg

mabuse
18.02.09, 15:55
na dann starte mal auf deinem 24w server z.b. ein spiel...

das ist wieder so ein vergleich mit äpfel und birnen :rolleyes:
Nein, ist es nicht - die Werte für die Graphikkarten sind die Werte im Leerlauf!.

Das die Dinger im Daddelbetrieb über 100 W ziehen ist ein anderes Thema, aber das die im Leerlauf soviel verbrennen ist ein Witz. Sollte man den Herstellern um die Ohren schlagen!

ghostfucker
18.02.09, 16:05
jo, da stimme ich zu, die grafikkarten könnte im idle weniger fressen.

dennoch hinkt der vergleich. du wirst in deinem server demnach ne karte haben die kaum was zieht...sie wird dann allerdings im 3d betrieb nichts reißen können. und das kannst du eben schlecht mit ner graka vergleichen, die im richtigen betrieb auch was kann.

mabuse
19.02.09, 09:08
dennoch hinkt der vergleich. du wirst in deinem server demnach ne karte haben die kaum was zieht...sie wird dann allerdings im 3d betrieb nichts reißen können. und das kannst du eben schlecht mit ner graka vergleichen, die im richtigen betrieb auch was kann.
Natürlich hinkt der Vergelich. So betrachtet hinkt jeder Vergleich (mein Server hat gar keine GraKa und die 3D-Fähigkeiten der OnBoardGraphik liegt ziemlich dicht bei Null).

Dennoch kann es im 21 Jarhundert nicht sein, das eine Karte soviel Strom verbrennt, wenn es im Prinzip nix zu tun gibt. Ich mein, es sollte doch selbstverständlich sein, das nicht benötigte Recheneinheiten vollständig abgeschaltet werden können. Das es aufgrund der nackten Masse der Funktionseinheiten und des Speichers etc. nicht soweit runtergehen kann, wie bei meiner jämmerlichen OnBoard-Graphik ist klar, aber heutzutage sollte man schon den "Nullverbrauch" einstellig halten können.