Jump to content
Sign in to follow this  
svl7

[Diskussion] Stromverbrauch GTX485M

Recommended Posts

Anmerkung der Administration:

Dieser Thread dient der Diskussion folgender Schnuffel-Anleitung:

 

 

 


 

Z (Max. moegliche Stromaufnahme der Karte) / 100 * V (%der Maximalleistung) + 50 Watt = ~ Stromaufnahme

 

Ok... sehen wir uns das mal genau an... Kleine Korrektur bezüglich der Begriffe, statt Stromaufnahme reden wir besser von Leistungsaufnahme um physikalisch korrekt zu sein.

 

Nehmen wir an wir habe eine GPU mit 100W Maximalleistung... und die Karte laufe mit 100% der möglichen Leistung. Nun setzen wir dies in deine Formel ein:

 

100W/100*100W + 50W... (das gibt schon mal ein durcheinander mit den Einheiten, also eigentlich 100W^2+50W) aber lassen wir das mal weg, dann gäbe es 150W. Woher kommen plötzlich die 50W mehr Leistung als die GPU eigentlich aufnehmen kann? Oder meinst du mit %Maximalleistung den prozentualen Anteil des maximal möglichen Core-Takts (und nicht die elektrische Leistung)?

 

Auf jeden Fall sehe ich nicht wirklich wie ich daraus schliessen kann, dass eine 485m auf gleichem graphischem Leistungsniveau wie die 460m weniger elektrische Energie verbraucht. Wie kommst du auf diese Formel?

 

Mit der Behauptung ATI Karten verbrauchen mehr als Nvidia Karten bin ich auch nicht wirklich einverstanden, in der Vergangenheit hat sich gerade bei mobilen Karten das Gegenteil gezeigt. Aber es ist so oder so schwierig dies zu messen, da Nvidia und AMD Karten sich grundsätzlich unterscheiden... dazu müsste man ja je eine Karte von beiden Herstellern haben, die exakt die gleiche 3d Performance aufweisen...

Share this post


Link to post
Share on other sites

Tja, da machst Du, lieber svl7 so das Eine Oder das Andere durcheinander...

Und das mit der Formal ist auch nich ganz richtig verstanden worden. Aber HW berechnen ist nicht jedermann's Sache, dafuer ist ja Schnuffel zustaendig, er wird dafuer sogar bezahlt!

Also beginnen wir mal etwas mit dem Kurs: Es geht hi9er um Leistungsverbrauch. ALso nicht, und das betont Schnuffel deutlich, um Leistungsaufnahme!!!!!!!

Warum das so ist: Abgesehen davon, dass man Energie ja nicht erzeugen sondern nur umwandeln kann, entstehen bei der Umwandlung Verluste... Und wie wir ja alle von Der Grafikkarte aus dem Desktop wissen, sind die Dinger nicht nur Leistungshungrig, sondern werden auch MIT VERSCHIEDENEN SPANNUNGEN versorgt.

Beispiel:

Karte A:

Leistungsaufnahme an 5 V: 8 Amp. also 5V x 8A = 40W

Leistungsaufnahme an 12 V: 2 Amp. also 12V x 2A = 24W

Leistungsaufnahme an 3 V: Amp. also 3V x 1A = 3W

Also haetten wir fuer diese Karte ein Total von 67W

Karte B:

Leistungsaufnahme an 5 V: 12Amp. also 5V x 12A = 60W

Leistungsaufnahme an 12 V: 0 Amp. also 12V x 0A = 00W

Leistungsaufnahme an 3 V: 2.33 Amp. also 3V x 2,33A = 7W

Also haetten wir fuer diese Karte ein Total von 67W

Frage: Welche Karte verbraucht nun mehr Leistung? Nun, Schnuffel meint, dass svl7 nun mit Inbrust der Uebrzeugung sagt: Beide gleichviel.

Nun, Schnuffel mein FALSCH.

Richtige Antwort: Es nehmen beide Karten gleichviel Leistung auf, aber Karte A verbraucht WESENTLICH mehr Leistung, da die Verlkustleistung zum Erzeuen der 24 Watt Leistung, welche Karte A an 12 Volt zieht, wesentlich hoeher ausfaellt als bei Karte B fuer die Erzeugung der Leistungen an den niedrigeren Spannungen. Dazu kommt, dass Das ganze noch nicht einmal die Kuehlung beruecksichtig. Die Luefter haengen naemlich am MB dran und nicht an der GPU... Und wenn die GPU extrem warm wird, muss sogar der CPU Luefter mehr arbeiten, weil er die Waerme nicht gleich gut wegbekommnt. Braucht auch mehr Strum. Und je heohert die Stroeme der hoeheren Spannungen dest niedriger der WIrkungsgrad des externen Notebook-Netzteiles und der nOtbookinternen Spannungsumwandlung. Das Notebooknetzteil liefert naemlich nur eine Spannung, naemlich 19.5 Volt. Die anderen Spannungen werden im Notebook drinn durch sogenante Step-Down Konvertoren (DC - DC Konverter) erzeugt.

Also Schnuffel weis schon, was er rechnet, er macht das Tagtaeglich. Und dass die ATI Karten im Notebookbereich mehr Leistung verbrauchen ist schon lange ein wirklich alter Hut. Dass hat mit der neuen ATI Generation begonnen. Es liegt an der Chiparchithektur von ATI. Bei Desktop's ist das kein Problem, da der Unterschied wirklich marginal ist. Warum? Der Desktop liefert alle benoetigten Spnnungen direkt ab Schaltnetzteil, nicht wie der Noti nur eine, die dan erst noch nicht passt. Im Noti drinn wirnd naemlich NIERGENDS. und wirklich NIERGENDS 19.5V direkt gebraucht!

Jetzt kommt sicher die Frage warum dan die 19.5 V. Erklaerung da ganz einfach. Es geht um die Leistunng. Und wenn man als Beispiel 200 Watt durch Kabel jage, kann man das auf verschiedene Arten tun. Beispiele:

1: 10 V x 20 Amp = 200 Watt

2: 20 V x 10 Amp = 200 Watt

Beides ist ja dasselbe am Ende... naemlich 200 Watt...

Aber es ist doch nicht dasselbe: Bei Version 1 benoetige ich einen groesseren Kupferquerschnitt im Kable. Und auch bei den Leiterbahenn im Kompi drinn einen groesseren querschnitt (breite) Braucht viel Platz und Gewicht...

Ach noch was: Eine GPU hat nie eine MAXIMALLEISTUNG in WATT. Hoechstens eine Maximal moeglich LeistungsAUFNAHME in Watt (bevor sie naemlich stiften geht)...

Wie wilste also die Grafikleistung berechnen? In der Framrate? Falsch. die Beruecksichtigt weder das Rendern noch die Aufloesung etc...

Oder in den Pixeln? Ne, auch falsch...

Am ehsten eignet sich da eine Kombination aus der Fuellrate und der Dreiecksberechnung BEI KLAR DEFINIERTER UMGEBUNGS WIE AUFLOESUNG, FARBTIEFE RAM ETC... Ist also gar nicht so einfach.

Und schon gar nicht dafuer eigenen sich die so beliebten "BENCHMARK's"!

So, soviel zur heutigen Physikklasse lol

Nun noch zum direkten Vergleich der GTX 460m und der GTX 485m:

svl7 wird es warscheinlich nicht glauben. aber dei GTX485 erreicht unter 43% ihrer Maximalllen Grafikleistung dieselbe Fuellrate und Dreieksberechnung wie eine GTX 460:

Schnuffel gruesst aus Atlanta!

  • Like 1

Share this post


Link to post
Share on other sites

Besten Dank für die Antwort, zugegeben, da hast du mich erwischt mit dem Begriff Maximalleistung...

Ich kann dir hier nicht ganz folgen:

Richtige Antwort: Es nehmen beide Karten gleichviel Leistung auf, aber Karte A verbraucht WESENTLICH mehr Leistung, da die Verlkustleistung zum Erzeuen der 24 Watt Leistung, welche Karte A an 12 Volt zieht, wesentlich hoeher ausfaellt als bei Karte B fuer die Erzeugung der Leistungen an den niedrigeren Spannungen.

Ein Grafikprozessor kann schliesslich keine Energie speichern... die ganze Energie wird als Wärme (=Verlustleistung) abgegeben. Wieso verbraucht "A" mehr?

Offensichtlich leuchtet mir deine Erklärung nicht ein oder ich verstehe sie falsch...

Aber was mich wirklich interessiert (nach wie vor) ist deine Formel... wie du auf diese kommst und was du genau einsetzt. Kannst du mir mal ein Beispiel machen, vielleicht hilft mir das auf die Sprünge :D

Share this post


Link to post
Share on other sites

Hoi svl7

Das ist jetzt die letzte Antwort von Schnuffel im oeffentlich Tread zu diesem Thema... Schnuffel kann nicht ganze Physikkurse hier im Forum geben...

Also Du schreibst, dass die ganze Enerie wieder als Waerme abgegeben wird! So ein Bloedsinn!!!!!

Die Waerme ist nur Verlustleistung. Der Groesste Teil geht natuerlcih fuer die Bildaufbereitung "Verlohren". Also es werden im CHIP drinn ELEKTRONEN BEWEGT. So entsteht das Bild. Durch Verschieben von Elektronen! Und das ist eigentlich Weg, den diese Zuruecklegen. Also so bloed es fuer Dich toenen mag, der Groesste Teil der einer Grafikkarte zugefuehrte Energie wird IN BEWEGUNG umgewandelt. Dadurch entsteht das Bild. Daher hat die ABGEGEBENE waere UEBERHAUPT NICHTS mit der Menge der aufgenommenen Energie zu tun.

Wuerde Deine Behauptung stimmen, haettest Du den N-Preis verdient, den dann wuerde eine Grafikkarte naemlich:

- Entweder gar kein Bild erzeugen weil sie die gesamte Energie ewieder als Waerme abgiebt

- Oder eben Energie erzeugen, da sie, obwohl sie Deiner Behauptung zufolge die gesamte Energie wieder als Waerme abgiebt ja doch noch ein Bild produziert. Nur womit denn??? Das waere dan die Loesung auf alle Energieprobleme der Erde: Die Energieproduzierende Grafikkarte!

Zurueck zur Formel:

Gehen wir davon aus, dass wir eine Grafikkarte "A" und eine Karte "B" haben.

Karte "A" ist eine aeltere Chip-Generation, Karte "B" die neuere.

Karte "A" Verbraucht maximal 120 Watt auf, "B" Maximal 150 Watt

Das ist jeweils die Summe aus der Leistungsaufnahme und der Verlustleistung, welche zur Bereitstellung der Leistung anfaellt sowei die Aufgenommene Kuehlleistung (Fan, etc...)

Jetzt haben wir eine Grafikleistung X definiert. Diese besteht aus Anzahl Dreicksberechnungne und der Filrate bei einer fixierten Aufloesung, Framerate und Farbtiefe.

DIese Grafikleistung ist das Maximus, welches die Karte "A" erreichen kann.

Karte "B" erreicht diese Leistung nun aber bereits bei 25% der maximalen Taktrate. "B" ist ja schneller.

Und wir wissen, dass diese Leistung ja die Maximal-Leistung ist, die "A" bringen kann. Und wir wissen auch, das "A" dazu 75 Watt aufnimmt.

Nun moechten wir berechnen, wieviel Watt "B" fuer diese Leistung braucht:

Z (Max. moegliche Stromaufnahme der Karte) / 100 * V (% der Maximalleistung) + 50 Watt = ~ Stromaufnahme

Das waer nun:

150 Watt (maximaler Verbrauch von und durch "B") / 100 x 25 +50 Watt = 87.5 Watt

Also ist "B" mit 87.5 Watt deutlich Spaarsammer als "A".

Zum Verstaendniss ist es auch wichtig zu wissen, dass diese Formel unter umstaenden ploeztlich ein hoeheres Resultat als das Maximum lifert. In unserem Beispiel zum Beispiel dann, wenn wir 65% Leistung brauchen. Dan sieht es so aus:

150 Watt (maximaler Verbrauch von und durch "B") / 100 x 75 +50 Watt = 162.5 Watt

Das heisst jetzt nicht, dass die Formel Schrott ist. Sondern wenn das Resultat groesser als der Maximale Stromverbrauch ausfaellt, bedeutet das lediglich, dass die Karte in diesem Falle 150 Watt verbrauchen wird. Das heisst somit, dass aufgrund der Archithektur von Grafikkarten immer irgendeinmal ein Punkt kommt, wo eine verlangsamung kein Energiespaarpotential merh bringt. Das liegt daran, dass man nicht jeden Takt xum Besipiel X-Beliebg senken kann, sondern nur in Stuffen. Auch bei Speicher kann ich nicht nur den Speicher bedienen, den ich brauche, sondern ich kann hoechsten Baenke stillegen. Und wenn ich eine Bank nur anbrauche, muss ich sie trotzdem mit Stroom versorgen: Grafikspeicher brauch immer strom sobald die Bank in betrieb genommen wird. Also auch dann, wenn ich sie nur zu 10% benutze. Spaaren kann ich nur, wenn ich eine Bank GANZ ausschalten kann!

Und noch was ganz Anders zur Leistungsberechnung:

Nehmen wir das Netzteil vom M15x.

Da steht hinten drauf:

Input: 100-240V ~ 2.5A

Output: 19.5V = 7,7 A

Das bedeutet: Das Ding liefert 19,5V x 7,7 = 150.15 Watt

Aber es benoetigt: 100V x 2.5A = 250 Watt

Verlustleistung: 100 Watt!!!

Hoffentlich hilft das nun fuer's Verstaendnis.

Gruesse vom Schnuffel

  • Like 1

Share this post


Link to post
Share on other sites

was mich viel mehr interessieren würde, das ist ja alles schön und gut was hier mit der GTX 485M gerechnet wird, aber bis heute ist das ding bei Alienware noch immer nicht erhältlich ... wann ist es endlich so weit?

Share this post


Link to post
Share on other sites

Naja das weiss eigentlich niemand so genau. Dass Problem ist, dass es am Markt eigentlich im Moment kein wirklich 100% funktionikerenden GTX485m gibt...

Da ist nur China-Shrot erhaeltlich...

Es gibt allerdings noch einige NVIDA Referenzboards, die bekommt man ueber Spezielle Quellen.

Zur Zeit zum Beispiel fuer 600.00 Euro von Kris Verbeek von mxm-upgrade.com

Lieferzeit ist zur Zeit fast 3 Wochen. Aber das sind und werden auf laengere Zeit die Besten GTX485m bleiben. Wie lange Kris die noch besorgen kann, weiss Schnuffel auch nicht.

Und wann Alienware den Zugriff zu funktionierenden GTX485m erhaelt, weiss er auch nciht. Bei den Dingern die z.B. Clevo verbaut, funktioniert zum Beispiel 3D nicht. Und auch die Performance ist bei diesen Karten zwar gut, aber nicht das Optimum, welches die GTX485 tatsaechlich erreichen kann.

Gruesse vom Schnuffel

Share this post


Link to post
Share on other sites
Sign in to follow this  

×
×
  • Create New...

Important Information

Please note following information: Terms of Use, Privacy Policy and Guidelines. We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.