Zum Inhalt springen

Alienware M17 und M15 mit RTX Grafikkarten


K54

Empfohlene Beiträge

Hier der Link zum US Konfigurator für das m17.

https://www.dell.com/en-us/shop/cty/pdp/spd/alienware-m17-laptop

Hmm, gerade ging er noch. Die basteln da wohl gerade rum...

Bearbeitet von pitha1337
Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich hab' nur mal kurz einen Blick in das NBR Forum geworfen und da hab' ich ziemlich schnell einen Beitrag eines Besitzers des m15 gefunden, der die exakt gleichen Temperaturprobleme beschreibt wie bei meinem R4 vor dem Repaste. Und dann hab' ich noch das hier gefunden:

https://www.dell.com/community/Alienware/Adventures-of-an-M15-owner/td-p/6238971

Also sagt mir bitte wie ihr das interpretiert aber ich befürchte dass sich die Kühlungs-Situation beim m15 und damit auch sehr wahrscheinlich beim m17 kein bisschen geändert hat.

Weiss jemand von euch ob es eine Webpage oder einen youtube-Channel gibt der das Notebook wirklich aufschraubt und sich den Kontakt des Kühlkörpers genau anschaut? Oder müssen wir da warten bis sich einer von uns eines kauft und einen repaste macht?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Schau mal HIER rein. Musst den Thread etwas durchstöbern. Die Wärmeentwicklung scheint wirklich ein dauerhaftes Problem im m15 sein, selbst mit LM.

vor 5 Stunden schrieb espresso:

Weiss jemand von euch ob es eine Webpage oder einen youtube-Channel gibt der das Notebook wirklich aufschraubt und sich den Kontakt des Kühlkörpers genau anschaut? Oder müssen wir da warten bis sich einer von uns eines kauft und einen repaste macht?

Soweit mir bekannt hat nur Stephen von OwnOrDisown einen recht ausführlichen Test (mit LM) damit gemacht, aber kein Video wo es rein um den Repast geht. Ein Disassembly-Video gibt's aber schon etwas länger. Vielleicht hilft's dir ja. VIDEO

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Sk0b0ld:

Am 9.1.2019 um 21:55 schrieb Sk0b0ld:

Selbst im Desktop-Bereich ist eine Multi-GPU Konfig eher Geldverschwendung.

Generell sehe ich in einem SLI/Crossfire-System keine Geldverschwendung. Leider ist es aber im Moment so, dass immer weniger Spiele dies unterstützen, so dass es aktuell nicht mehr unbedingt sehr viel Sinn macht, sich ein Multi GPU-System zuzulegen. Man muss abwarten, was die Zukunft bringt.

Am 9.1.2019 um 21:55 schrieb Sk0b0ld:

Zwei Grakas bedeutet nicht doppelte Leistung.

Ist richtig, es ist nicht zu 100% doppelte Leistung, jedoch kann ein Spiel, was vom Entwickler für einen Multi GPU-Betrieb ausgelegt ist(leider sind es aktuell immer weniger Spiele), mit z.B. 2 GPU's einen enormen Leistungsschub bekommen. Von daher kann ich.....

Am 9.1.2019 um 21:55 schrieb Sk0b0ld:

Für mich ist das eher Prestige (Showcase) oder halt in synthetischen Benchmarks Top-Scores zu erreichen.

….hier nicht generell zustimmen, obwohl es im Moment so ausschaut, als würde die Industrie sich von Multi GPU abwenden, was ich persönlich sehr schade finde, denn die Vergangenheit hat gezeigt, dass es sehr wohl gut funktionieren und dementsprechend auch Vorteile haben kann, sofern Entwickler und Treiberproduzent gewillt sind, diese Technik zu unterstützen.

Am 9.1.2019 um 21:55 schrieb Sk0b0ld:

Die Desktop CPUs können unter Last auch sehr hungrig werden. Du findest es schade, dass es keine SLI/ NVlink Konfig mehr gibt, aber wie viel Netzteile willst du denn anschließen?

Ja ok, wenn es technisch unter diesen Bedingungen nicht anders möglich ist, muss man das natürlich so akzeptieren. Bei mysn gibt/gab es ja auch Geräte mit Desktop CPU, wo man sogar 2 330Watt-Netzteile mitgeliefert hat, allerdings waren das dann auch Multi GPU-Systeme. Von daher ist mir eine Dual-Netzteil-Auslegung jetzt nichts neues.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Um noch mal auf das Thema mit den RTX Karten zurück zu kommen. Gigabyte hat mit dem AERO Refresh auch die RTX Karten verbaut. In der Demo läuft PUBG, hoffentlich auf Ultra Settings (mit AI) bei rund 60 - 65 fps. Ich finde das etwas enttäuschend. Auf meinem R4 (den jetzt ein Arbeitskollege hat) lief PUBG so um die 75 - 90 fps. Ultra Settings ohne OC. Mit OC auf 4.2 GHz waren's nicht unter 90 fps auf dem QHD Panel. Den fps Counter hatte ich über Steam einblenden lassen.

Bin schon wirklich auf die ersten Tests und Zahlen gespannt. Kann mir nicht vorstellen das neue Hardware schlechter sein soll als alte.

@Jörg ich habe wirklich viele PC/ Hardware-Channels abonniert und schaue mir den Content regelmäßig an. Ebenso auch die ganzen Tests und Benchmarks. So gut wie jeder Channel empfiehlt eine Single-GPU Konfiguration. Ein paar der genannten Gründe habe ich oben schon erwähnt. Früher zu SLI Zeiten war das sicher eine sinnvolle Option. Heute, naja eher nicht so. Zumal die Dinger extrem teuer geworden sind. Hinzu kommt das Problem mit der CPU. Letztendlich ist das System nur so gut wie das schwächste Bauteil im Glied. In vielen Fällen ist man mit einer SLI/ NVlink Konfiguration auf GPU Seite overpowerd. Wenn man jetzt ein Spiel hat was sehr CPU lastig ist, bringt einem die enorme GPU-Power nicht mehr so viel.

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Sk0b0ld:

vor 22 Minuten schrieb Sk0b0ld:

So gut wie jeder Channel empfiehlt eine Single-GPU Konfiguration.

Aufgrund der momentanen Situation ist diese Empfehlung auch für die meisten nicht verkehrt.

vor 24 Minuten schrieb Sk0b0ld:

Früher zu SLI Zeiten war das sicher eine sinnvolle Option. Heute, naja eher nicht so

Auch richtig, es gibt im Moment zu wenige neue Spiele, die SLI unterstützen, von daher IM MOMENT!! für die breite Masse nicht so sehr sinnvoll.

vor 27 Minuten schrieb Sk0b0ld:

Letztendlich ist das System nur so gut wie das schwächste Bauteil im Glied.

Korrekt, ist grundsätzlich immer so.

vor 27 Minuten schrieb Sk0b0ld:

In vielen Fällen ist man mit einer SLI/ NVlink Konfiguration auf GPU Seite overpowerd. Wenn man jetzt ein Spiel hat was sehr CPU lastig ist, bringt einem die enorme GPU-Power nicht mehr so viel.

Von der technischen Seite mag das sicher zutreffen, zumindest theoretisch. Bei den Spielen, die ich bisher auf meinen beiden SLI-Systemen gespielt habe, war es aber eher so, dass die CPU nur eine untergeordnete Rolle hinsichtlich fps gespielt hat. Um übermäßig hohe Temperaturen der CPU zu vermeiden, habe ich sogar bei manchen Spielen die max. CPU-Leistung in den Energieeinstellungen um 10-15% reduziert. was sich so gut wie gar nicht auf die fps ausgewirkt hat. Lediglich die Ladezeiten vergrößerten sich etwas. Allerdings muss ich natürlich auch fairerweise dazu sagen, dass beide Systeme mit den damals stärksten Mobil-CPU's ausgestattet sind. Von daher sollte man bei einem Multi-GPU-System vielleicht nicht unbedingt eine Krücken-CPU verwenden, das wäre dann am falschen Ende gespart.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Denkst du das wird wieder kommen? Ich hatte gelesen das unter DX12 und NVlink das Scalling deutlich effizienter laufen sollte. Bestätigte Tests hatte ich noch nicht dazu gesehen. Im Desktop-Bereich könnte das durchaus noch mal eine Rolle spielen. Für'n Notebook-Bereich hat sich das Thema endgültig erledigt glaub ich. Der Trend geht zu immer dünneren leistungsfähigeren Notebooks. Teilweise verbaut man nur noch die "großen" Notebook Grakas und lässt sie im "zukunftsweisenden" (runtergetakteten) Max-Q laufen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Sk0b0ld:

vor 2 Stunden schrieb Sk0b0ld:

Denkst du das wird wieder kommen?

Kommen wird sicher wieder etwas, NVLink steht ja quasi schon in den Startlöchern. Leider macht man, wenn man den diversen Berichten Glauben schenken mag und ich diese richtig verstehe, wieder den gleichen Fehler wie schon bereits bei SLI/Crossfire : Eine Unterstützung ist wiedermals von der Auslegung/Programmierung eines Spieles/einer Anwendung abhängig. Und genau das ist praktisch schon der Tod bzw. das Ende von etwas, was noch gar nicht richtig begonnen hat. Warum sollten jetzt plötzlich die Entwickler hingehen und alles für Multi GPU auslegen, wo sie doch jetzt größtenteils schon keine Lust mehr zu haben ?? Nur weil es jetzt NVLink heißt und dessen theoretische Leistungsfähigkeit aufgrund größerer Bandbreiten besser ist? Wohl kaum. Erst die vollkommene Unabhängigkeit von einer Programmierung/Auslegung wird langfristig zum Erfolg führen, alles andere ist aus meiner Sicht zum scheitern verurteilt.

vor 2 Stunden schrieb Sk0b0ld:

Für'n Notebook-Bereich hat sich das Thema endgültig erledigt glaub ich. Der Trend geht zu immer dünneren leistungsfähigeren Notebooks.

Das kann durchaus sein, ja, leider. 

Gruß

Jörg

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Angeblich am 29.01.

Auf Alienware.com bekommst du aber schon einmal ein Gefühl dafür wohin die preisliche Reise geht, ersetze $ druch € ;)

RTX 2080 Max-Q in einer guten Austattung wird sicherlich über 3000€.

Folgende Konfig wäre für mich ineteressant, mal sehen ob man das irgendwie hinbekommt. Meistens hat man mit der größten Graka auch gleich ne fette CPU, welche ich aber gar nicht brauch.

- Core i7 8750

- RTX 2080 Max-Q

- 8 GB RAM (erweitere ich selber)

- 256 SSD + 1TB HDD

- QHD TN Display

Bearbeitet von pitha1337
Link zu diesem Kommentar
Auf anderen Seiten teilen

Was ich ja gut finde, dass die wieder mit Optimus verfügbar sind. So eine Trennung von voller Leistung Area 51-M und mobiler Leistung m17 finde ich auch gut. So kann jeder das passende für sich nehmen. Das Optimus fehlt, fand ich beim R5 nicht so gut. Ich nutze es zwar hauptsächlich als Desktop Ersatz, aber eine höhere Akkuleistung wegen Optimus in der Hinterhand zu haben, ist von Vorteil.

Link zu diesem Kommentar
Auf anderen Seiten teilen

@JetLaw:

Also wenn ich mir hier die ganzen Problem-Berichte durchlese aus der Vergangenheit, aber auch aus der Gegenwart hinsichtlich Optimus und seinen diversen Treiberinstallationsproblemen und Falschauswahl des zu nutzenden Grafikbausteins im Betrieb, so muss ich sagen : Optimus? Nein danke! Da ziehe ich es vor, per Umschaltungsanforderung und anschließendem Neustart immer sauber zwischen Intel und NVidia hin und her zu switchen. Das ist bei meinen 18ern so und damit bin ich sehr zufrieden.  Wenn ich mich recht entsinne, war selbst Schnuffel nicht begeistert von Optimus, zumal er auch mal erwähnte, dass Optimus-Geräte etwas weniger Grafikleistung haben als Nicht-Optimus-Geräte.

Gruß

Jörg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Also ich habe keine Probleme mit Optimus, alles schaltet wie es soll. Das Einzige was ich ab und zu bei älteren Spielen/Programmen machen muss ist, manuell auf die nVidia Karte umstellen. Dazu muss ich natürlich sagen, ein Knopf zum Umschalten ist genauso gut. Mir ging es hier um die allgemeine Aussage. Die R5 Geräte haben gar keine Möglichkeit auf die iGPU umzuschalten.

Das mit weniger Grafikleistung halte ich bei dem R4/R3 für unwahrscheinlich. Wenn ich die Leistung der Grafikkarten betrachte, ist sie beim R4 ähnlich hoch wie bei 1070 für den Desktop. Und die 980m war von der Leistung her, auch so gut wie sie bei anderen Geräten war.

Bearbeitet von JetLaw
Link zu diesem Kommentar
Auf anderen Seiten teilen

Auch ich mag Optimus nicht missen. Probleme hatte ich damit wenig, solange man den Intel Treiber von Dell einsetzt klappt alles wie es soll. Allerdings mit den Intel Graka Treiber von der Intel Seite hab ich Probleme (ging nur beim M17xR4) und damit kommt es zu Bluescreens. Ansonsten finde ich es super so wie es ist mit Optimus, auch in meinem 17 R4 habe ich damit keine Probleme.

Aber wie es aussieht scheiden sich da die Geister :) Der eine Mags der andere nicht!

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 3 Wochen später...

Hat eigentlich schon jemand irgendwelche Test oder Reviews zum m17 gesehen? Hab bisher nur etwas zum m15 mit der 1070 Max-Q gefunden und da wird teilweise gesagt die Temperaturen sind hoch, aber mit UV von der CPU sind schon höhere Taktraten drin.

Ich frage, weil mir ein Austauschgerät angeboten wurde und ich etwas schwanken zwischen dem Area 51m und dem m17. Klar alleine von der Leistung her ist die Sachen klar, da müsste ich den Area 51m. Aber mir gefällt an dem m17, das er leicht ist und sicher auch eine gute Akkulaufzeit hat. Allerdings wenn die Kühlung scheisse ist, bringt mir das auch nichts.

Bearbeitet von JetLaw
Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich würde das eher so sehen : Mit Sicherheit wird auch der M17 Probleme mit der Hitze haben. Du hast dann effektiv trotzdem mehr Speed mit den Desktop Komponenten beim 51M. Mich hatte beim M17 gestört, dass es nur ein 60Hz Display ohne Gsync gab was in einem Gaming Notebook einfach nicht passt. Der Rest, Formfaktor ist halt echt sehr Subjektiv zu bewerten.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Mehr Speed hat man im 51M immer, egal ob Hitzeproblem im m17 oder nicht ? Darüber wolte ich auch gar keine Diskussion führen, weil das klar ist. Ich habe mir damals den 17 R3 gekauft, weil die Akkulaufzeit für ein Gaming Notebook recht gut war. Das hätte ich natürlich gerne wieder, bei 51M wird die wohl nicht ganz so gut sein wie beim m17. Deshalb bin ich hin und hergerissen.

Laut der Website soll zumindest der Grafikkarten Lüfter ""über 60% größere Gebläseflügel" haben. Da würde mich natürlich interessieren ob es da mit den Temps besser ist. Wobei das m15 ansich gar nicht so schlecht ist, auf Notebookcheck war der Test auch nicht so schlecht war. Mit UV waren die Ergebnisse ganz gut.

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 3 Wochen später...

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.
Hinweis: Dein Beitrag muss vom Moderator freigeschaltet werden, bevor er sichtbar wird.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.