Zum Inhalt springen

[Diskussion] Alienware NVIDIA Tuning


Teskal

Empfohlene Beiträge

Anmerkung der Administration:

Dieser Thread dient der Diskussion folgender Schnuffel-Anleitung:

 


 

Schlauer Skunk hat es gefunden. :D

 

NVIDIA Inspektor 1.95

 

Danke.

Wäre die SW nicht besser unter 'Software für Alienware-Features' aufgehoben?

 

(Dummer Skunk hat es am falschen Ort gepostet.)

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 3 Wochen später...

Schnuffel Meint: Wieso wollt Ihr den die Spannung senken?

Also mal ein bisschen Physik:

P (Leistung in Watt) = U (Spannung in Volt) * I (Strom in Ampere)

Will heissten, dass die Leistung (die sich entsprechend des Wirkungsgrades wiederum in Leistung und Verlustleistung definiert) ist eine Abhaengigkeit von Spannung und Strom. Die lEistung ist auch das, was uns bei einer Batterie die Laufzeit verkuerzt. Hohe Leistungaufnahme = Kuerzere Batteriellaufzeit.

Und bei Grafikkarten ist das so, dass der Strom das Flipperding ist. Also die Stromaufnahme steigt und faellt, gerade so wie es der Karte passt. Wenn wir nun die Taktfrequenz verringern, was mit dem obigen Tool bestens funtkioert. Sinkt nicht nur die Grafikleistung, sondern auch die Stromaufnahme massiv. Dadurch steigt die Batterielaufzeit.

Schnuffel meint, dass man von der Spannungseinstellung eh besser die Finger laesst. Da wir es bei Computern ja mit HALBLEITERN zu tun haben, ist jedes SPiel mit der Spannung an sich brandgefaehrlich: Unterschreitet am eine gewisse Sopannnung, funktioniert das System nicht mehr stabiel weil es intern zu Fehlern kommt. Ueberschreitet man die ideale Betriebsspannung, so gehen allenfalls gewisse Halbleiter stiften....

Das Spiel mit der Taktfrequenz hat aber den gewuenschten Effekt uns ist weitgehend ungefaehrlich.

Gruesse vom Schnuffel

Link zu diesem Kommentar
Auf anderen Seiten teilen

ja das mit der Spannung ist klar ;) wollte nur wissen, wie weit ich mit dem takt runtergehen kann, habe momentan mal auf : Clock=100 | Memory: 180 | Shader=200 gestellt. Müsste wir mal die WErte von der Intel HD 3000 raussuchen und diese dann unterbieten, wenn ich im akkubetrieb bin um dann mal zu testen wie lange der akku aushält! :)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich muß sagen, das ich die Software nicht richtig verstanden habe. Ich weiß nicht wann die Einstellungen übernommen sind und wann nicht. Außerdem verstehe ich nicht wie ich die Desktop-Icons zum Starten der verschiedenen Modi erstellen soll. Falls jemand ein Tutoriell machen könnte, wäre das echt toll.

Link zu diesem Kommentar
Auf anderen Seiten teilen

also ich habe jetzt 3 Profile gemacht:

1. Low (Batteriesparend)

2. Default

3. High

Also ich habe den mittleren Einstellungswert (glaub es war der Performance Level 2) genommen und dann die Taktraten runtergeschraubt und dann das low profil erstellt! wenn ich nun auf das low profil drücke, werden die niedrigen Taktraten angepasst. Wähle ich das default Profil aus, werden die normalen Taktraten übernommen! Also eigentlich ganz easy :) leider habe ich momentan keine zeit für ein HowTo :(

gruss

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 1 Monat später...

Hallo alle zusammen,

ich kann kaum glauben, dass man mit dem Tool den Energiebedarf der Grafikkarte gar unter den der Onboard-Grafik drehen kann.

Wenn dem so ist, sind dann die Lüfter (aufgrund der geringeren Wärmeabgabe) im Idle- und im Office-Modus genauso deaktiviert wie bei der Grafikkarte mit Optimus? Für eine Antwort diesbezüglich wäre ich Euch sehr dankbar, da ich vor dem Kauf eines m17x stehe und bisher mit der Optimus-Lösung liebäugle, da dort die Lüfter im Idle- und Office-Betrieb (selbst bei der GTX 580m) deaktiviert sein sollen.

Viele Grüße

marcel7

Link zu diesem Kommentar
Auf anderen Seiten teilen

Schnuffel meint: Also da machen wir zu diesem leidigen Thema einmal mehr einen kleinen Crashkurs. Aber Schnuffel bittet Euch, dieses Mal das Ganze exakt zu lesen. Da werden zum Teil in den Foren Behauptungen aufgestellt, dass dem Hasen die Ohren wackeln....

Also, als erste Lektion lest Ihr bitte das Posting von Schnuffel zu OPTIMUS, zu finden hier: http://www.aw-community.com/forum/f11/nvidia-optimus-inkompatible-games-problemthread-883.html#post5646

So, wenn Ihr dieses Beitrag gelesen habt, so wisst Ihr, wie Optimus funtkioniert.

Und schauen wir uns nun den Grafikprozessor von Intel an: - So, schon fertig.

Kein Witz, es gibt keinen Intel Grafikprozessor! Also wie macht Intel das denn? In der Sandy Bridge Archithektur hat Intel einfach die alten Funkrionen aus der Zeit von 80386, die damals unter dem Namen MMX bekannt waren, etwas aufgewaermt, verbessert und auf den Cougar Chip UND DIE CPU (KIEN WITZ) verteilt. Es gibt in der Intel-Archithektur also keinen echten Grafikprozessor, der diese Aufgabe uebernehmen koennte! Genausowenig gibt es einen Grafikspeicher. Dieser muss sich Intel nach wie vor von der echten GPU leihen. Jetzt ist es aber dummerweise so, dass Intel nur DDR-Ram und kein GDDR adresieren kann. Daher hat der M14x ja nur DDR-Speicher. Also sobald nun GDDR Speicher vorhanden ist, muss auch bei OPTIMUS die echte GPU (Nividia) mitlaufen, auch wenn diese nur den Speicher adressiert!

So, nun schauen wir weiter, was passiert wenn wir einen m17x mit Optimus nehmen und ein bisschen Office machen:

- Die Sandy Brdge (Cougar) laeuft auf nahezu 100% Leistung

- Die CPU laeuft auf nahezu 100% Leistung, da sie die Grafikaufbereitung machen muss

- Die GPU laeuft mit minimaler Leistung (ca.10%) mit, sie muss das GDDR Memory ja verwalten

- Das fuehrt nun dazu, dass auch der CPU-Luefter laeuft, der GPU Luefter laeuft natuerlich nicht, da reicht die alleinige Masse die Waerme wegzubringen

Nur, habt Ihr eine Ahnung, was die Sandy und die Intel zusammen verbrauchen, wenn die auf nahezu 100% laufen????

Natuerlich nicht so viel wie eine NVDIA GPU auf 100%, nur muesste hier diese naemlich nicht auf 100% laufen...

Nehmen wir nun dieselbe Anwendung (Office auf dem M17xR3, aber ohne OPTIMUS):

- Die Sandy Brdge (Cougar) laeuft auf ca. 20% Leistung

- Die CPU macht Ferien, Leistung bei etwa 10%, Office ist nicht so der Brueller...

- Die NVIDIA GPU laeuft mit NVIDIA Inspector auf vielleicht 20% der Lesitung, reicht locker fuer ein superschnelles Office

- Das fuehrt nun dazu, dass im m17xR3 kein Luefter laeuft, da sowohl bei der CPU wie auch der GPU die alleinige Masse der Kuehlkoerper / Waermetauscher reicht, die Waerme wegzubringen

Fazit: Die Konfig ohne Optimus verbraucht bei dieser Anwendung nicht nur wneiger Energie, sie ist auch leiser

naztuerlich gibt es einige Multimedia-Anwendungen, wo Optiums wenige Energie verbraucht als eine Richtige GPU Loesung. Nur hat das mit Office-Anwendungen nichts zu tuen. Und bei diesen Games wird man au h mit Intel nicht lange auf Akku Arbeiten koennen. Und ob dan die Geschwindigkeitseinbusse gegenueber einer echten Nvidia Loesung tatsaechlich das bisschen Mehr Akkulaufzeit wert ist, muss man selber entscheiden.

Aber Optimus bring fuer OFFICE-Anwendungen GAR NICHTS.

Wo es allenfalls wirklich zu ueberlegen ist, ist wenn man viele DVD's schaut. Das ist der Teil, wo es allenfalls am Meisten bringt.

Ihr vergesst naemlich immer, dass mit Optimus nicht nur der Leistungsbedarf der NVIDIA GPU Teile Sinkt, sondern dafuer der der CPU / Sandy und deren Kuehler drastisch steigt...

Und ein Fan bracht auch noch Energie... (Und arbeitet auch nie lautlos)!!!

Diese Rechnung sieht nur beim M14x anders aus. Dort kann optimus naemlich wirklich sinn machen und zwar aus folgenden Gruenden:

- Es gibt kein GDDR Speicher, sondern nur DDR, also kann Intel im Optimus Betrieb da direkt darauf zugreifen, ohne dass die NVIDIA GPU mitlaufen muss.

- Da die Kuehlkoerper von CPU und GPU nicht getrennt sind, ist weniger Masse vorhanden und die Komponenten heizen sich gegenseitig, wodurch der Luefter (ist nur einer) sowieso fast immer laeuft

- Die 555we Grafikkarte von NVIDIA koenne wir nicht mit den Moeglichkeiten einer GTX 560 / 580 vergleicehn, weder in der Leistung ncoh im Konfigurationspotential (Strom Spaaren, etc...)

Gruesse vom Schnuffel

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Schnuffel: Vielen Dank für Deine sehr ausführlichen Erklärungen! :) Dann werde ich wohl doch von der Optimus-Technologie absehen und mich für 3D entscheiden und die Grafikkarte per Tool drosseln. Weil mir ist wichtig, dass beim Office-Betrieb oder auch beim Surfen die Lüfter komplett aus sind.

Mit meinem Satz...

ich kann kaum glauben, dass....

...wollte ich auch mehr meine Verwunderung zum Ausdruck bringen und nicht eine Skepsis gegenüber deinen vorherigen Schilderungen.

Also schon einmal vielen vielen Dank für die Hilfe!

Marcel

Link zu diesem Kommentar
Auf anderen Seiten teilen

Schnffel meint: Alles kein Problem Marcel7...

Schnuffel wollte nur aerklaehren, wieso es wirklich so ist....

Viele Leute schauen nur auf die GPU und nicht auf den Rest des Systemes. Und leider wird gerade bei Computern im Moment sehr viel Mist mit sehr viel geld ermarkted. Und die Anwender - entschuldigung - werden immer duemmer und glauben an die Eierlegendewollmilchsau... Faktisch gilt aber die Physik. Da gibt es ein paar Gesetze, die wir uns immer vor Augen fuehren muessen, auch bei Computern:

- Energie koennen wir nicht erzeugen oder vernichten - nur immer umwandeln

- Leistung bassiert auf Energie

- Jeder Enegrieumwandlung unterliegt einem Wirkungsgrad, der regelt wieviele % wirklich fuer das was wir wollen zur verfuegung stehen und wie viele % Abfallprodukte (Waerme etc...) sind.

- Der Wirkungsgrad ist immer bei speziellisierten Bauteilen am besten. Also eine GPU die Grafik machen muss hat sicher den besseren wirkungsgrad als eine CPU die Grafik machen muss...

Und da koennen die Marketingheinis erzaehlen was sie wollen, aendern koennen die das nicht.

Gruesse vom Schnuffel

Link zu diesem Kommentar
Auf anderen Seiten teilen

also nach reichlichem Teste kann ich momentan nur sagen, dass ich an die Akku-Leistung von Optimus nicht ran komme!

Ich habe folgendes gemacht:

  • 3D ausgestellt in den Nvidia-Settings
  • Energiesparmodus an
  • AlienFusion ausgeschaltet
  • Displayhelligkeit niedrigste Stufe
  • NvidiaInspector die Graka auf 100, 180, 200 eingestellt
  • Alle Beleuchtungen ausgeschaltet

Und die Akkulaufzeit betrug bei 100% nur 3:10 std! was muss ich noch machen, damit ich auf die gleiche Laufzeit von Optimus komme? Ich hatte als 1. alien m17x R3 die gleiche Ausstattung siehe sig nur mit Optimus und HD+ Display und ich hatte 4:55 std akkulaufzeit laut Batteriestatus!

Momentan würde ich die Aussage nicht teilen, dass man ohne Optimus auf die gleiche Laufzeit kommt! bitte um falzifizierung^^

Link zu diesem Kommentar
Auf anderen Seiten teilen

Schnuffel emint: Um das genau zu testen, brauchst Du dieselbe Optimus konfiguratiuon, stellst sie daneben und testest exakt dasselbe! Die Optimus-Werte aus dem Datenblatt werden nciht mit Games ermittelt, sondern mit Office -Applikationen...

Optimus braucht mit Games auch wesentlich mehr!

Aber hast Du auch daran gedacht, Im Nvidia Treiber die Darstellungsqualitaet auf Optimus-Niveau zu senken und unter "Manage 3D Settings" (Bei Global und bei Program Settings) alles auszuschalten, was Optimus auch nicht bietet?

Ganz wichtig ist auch dass Du dort Multi-display/moxed GPU acceleration auf "Single Display" stellst.

Nur dan haste dieselben Bedingungen...

Gruesse vom Schnuffel

Link zu diesem Kommentar
Auf anderen Seiten teilen

Aber hast Du auch daran gedacht, Im Nvidia Treiber die Darstellungsqualitaet auf Optimus-Niveau zu senken und unter "Manage 3D Settings" (Bei Global und bei Program Settings) alles auszuschalten, was Optimus auch nicht bietet?

Ganz wichtig ist auch dass Du dort Multi-display/moxed GPU acceleration auf "Single Display" stellst.

und das hat Auswirkungen auf die Akku-Laufzeit?

also ich hatte kein Game an, sondern habe nur Office-Anwendungen angehabt und die System waren identisch!! das Optimus-Alien war genauso ausgestattet wie mein jetziges System!

Darum zweifle ich halt ;)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Schnuffel meint; Ja, die Dsratellungsqaulitaet hat EXTREM auswirkung auf die Akkulaufzeit. Auch ob Du im Single Display modus arbeitets. Mit diesen beiden Einstellungen legst Du ca. 70% des Grafikspeichers und der GPU still...

Gruesse vom Schnuffel

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich hab mal ne frage zu diesem Tool vorab das Notebook steht am Tisch und ich nutze kein Kühlpad äh Prozesser is der i7 2820 (2,3 Ghz) und GTX 580m wie weit kann ich übertakten ohne das is schlecht für die Hardware ist??

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 2 Wochen später...

dazu hätte ich auch noch eine frage (hatte bereits einen neuen thread dafür aufgemacht da ich den hier irgendwie nicht mehr gefunden habe :)

ich habe keine möglichkeit mit nvidia inspector 1.9.5.5 den core-takt der 580M zu ändern. lediglich speicher und shader sind änderbar...ist das normal oder muss hier noch etwas im tool freigeschaltet werden?

grüße

Link zu diesem Kommentar
Auf anderen Seiten teilen

also nach reichlichem Teste kann ich momentan nur sagen, dass ich an die Akku-Leistung von Optimus nicht ran komme!

Ich habe folgendes gemacht:

  • 3D ausgestellt in den Nvidia-Settings
  • Energiesparmodus an
  • AlienFusion ausgeschaltet
  • Displayhelligkeit niedrigste Stufe
  • NvidiaInspector die Graka auf 100, 180, 200 eingestellt
  • Alle Beleuchtungen ausgeschaltet

Und die Akkulaufzeit betrug bei 100% nur 3:10 std! was muss ich noch machen, damit ich auf die gleiche Laufzeit von Optimus komme? Ich hatte als 1. alien m17x R3 die gleiche Ausstattung siehe sig nur mit Optimus und HD+ Display und ich hatte 4:55 std akkulaufzeit laut Batteriestatus!

Momentan würde ich die Aussage nicht teilen, dass man ohne Optimus auf die gleiche Laufzeit kommt! bitte um falzifizierung^^

Ähm, da fehlt noch was!

- Wifi + BT aus. Rechts oben ist ja der Schalter.

- Alle Externen Kabel entfernen. Kein LAN, kein USB, nichts!

- ODD leeren, bzw. nicht abspielen.

- keine Videos abspielen

- so wenig Programme wie möglich laufen lassen, besonders irgendwelche laufenden Schutzprogramme, die nicht Virenscanner sind.

- Virenscanner deaktivieren (nicht empfehlenswert!!! Zumindest nicht die HDD in der Zeit gerade testen lassen)

- Firewalls deaktiveren (nicht empfehlenswert für die Windows-Firewall, alle anderen Firewalls gleich deinstallieren...)

- nicht drauf den Batteriestatus achten, sondern echt testen, aber das meinte Schnuffel wohl mit 2 baugleichen Geräten, nur mit unterschiedlichen Displays. Also mit und ohne Optimus/3D Display

- Display auf 60, nicht auf 120 laufen lassen.

- dann kommt es noch auf die Energie-Einstellungen noch an. Auch der Prozessor kann heruntergetaktet werden.

Notebookcheck.com kommt beim 17r3, mit der neuen GF580 bei Idle (ohne WLAN, min Helligkeit) auf5h 46min. Wobei Idle bedeutet, das Du nicht einmal im Office arbeitest, sondern das nur der Rechner an ist und vermutlich verhindert wird, das der Bildschirm ausgeht.

Bearbeitet von Teskal
Link zu diesem Kommentar
Auf anderen Seiten teilen

also mit Optimus ist das ja auch kein Wunder das ein Alien mit 580m auf über 5 Std kommt

Im Akkubetrieb profitiert das Alienware M17x deutlich von der automatischen Grafikkartenumschaltung namens Optimus. 5 Stunden und 46 Minuten im Idle Test sind ein ordentlicher Wert für ein Gaming Notebook dieses Kalibers.

ich rede aber von der 3D Version und der Aussage, dass diese auch auf die besagte Laufzeit kommen soll und dem ist nicht so! Ich habe Optimus gehabt und nun die 3D Variante und hatte soweit die identische Ausstattung! Vergleich mit beiden zeigt auf, die Messung nach dem Systemstart stand beim Optimus Alien 4:55 Std und bei meinem 3D Alien 2:59 Std. Beide hatten komplett gleiche Einstellungen (sei es WLAN, Display, Energiesparmodus etc....) beim 3D Alien konnte ich auch nicht nachträglich mehr rauskitzeln... :(

WER MIT 3D kommt denn bitte auf über 4Std Laufzeit? Würde mich gerne mal interessieren

Link zu diesem Kommentar
Auf anderen Seiten teilen

Schnuffel meint: Etwas geduld... Der NVIDIA Inspekto muss erst noch an die GTX580m angepasst werden. Die GTX580m unterscheidet sich INTERN GRUNDLEGEND von der GTX460m. Weiter haben wir das problem, dass es ncoh keine "richtigen" GTX580m treiber gibt. Die Karte laeuft im Moment noch mit angezpogener Handbremse. Dass weil die Treiber aus der "alten" Familie stammen und die GTX580m so in einer Art Kompatibilitaetsmodus arbeiitet.

Die neuen treiber werden von NVUIDIA aur Zeit fertiggestellt. Sie ermoeglichen dan auch das ausschalten einzelner Chipteile bei der GTX580m etc....

Aber das dauert ncoh ein bisschen...

Daher kommt ein aktueller m17xR3 3D (also einer mit GTX580m) NICHT auf dieselbe Batteriezeit wie ein gleiches Geraet mit GTX460m. Weite verbraucehn die seit einiger Zeit verbauten Hynix Riegel DEUTLICH MEHR Strom als die vorher verbauetn Samsung. Dafuer sidn die Hynix etwas schneller...

Gruesse vom Schnuffel

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.
Hinweis: Dein Beitrag muss vom Moderator freigeschaltet werden, bevor er sichtbar wird.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.