Zum Inhalt springen

Sk0b0ld

Moderator
  • Gesamte Inhalte

    1.862
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    244

Alle Inhalte von Sk0b0ld

  1. @Nuestra @Silentfan danke für die Empfehlung. @hysterix in meinem U3-Kühler-Thread findest dazu alle wichtigen Informationen dazu. Wenn du keine zwei linken Hände hast, könntest du das Teil auch selber bauen, ansonsten baue ich sie für die Community immer. Ich denke, wenn dir Kühlleistung und Geräuschentwicklung wichtig ist, gibt es nichts Besseres. Übrigens, den Link habe ich bestimmt schon mindestens 50 mal erwähnt^^. Ja, man kann den Kühler theoretisch für jedes Notebook herstellen. Man muss nur ein paar Informationen (Bodenplatte, Position der Füße usw.) wissen.
  2. Powerlimits, Beleuchtung und Lüfter kannst du nur über's AWCC steuern. Lüfter würde teilweise auch über HWinfo funktionieren, wobei das nur ganz eingeschränkt geht.
  3. Was ich an der Stelle noch empfehlen kann ist das Game-optimize-Setting von Hardware Unboxed. Die machen für viele Spiele einen Vergleich von verschiedenen Einstellungen, so das am Ende ein gutes Optimum von Grafik und FPS hat. Hier das Beispiel von Valhalla.
  4. Ich würde die Hoffnungen nicht zu hoch setzen. Dell wird wahrscheinlich nicht viel am BIOS geändert haben und wenn es um solche Sicherheitsaspekte (in dem Fall Überlast PSU) geht, wird sich keiner freiwillig weit aus dem Fenster lehnen. Beim AW17 R4 und R5 war das nicht anders. Beim m15 R1 hab ich es noch nicht ausprobiert, denke aber, dass es nicht anders sein wird. @Silentfan naja, rumlöten am Notebook übersteigt das Können/ die Möglichkeiten vieler User oder vielen ist das Risiko zu hoch was falsch zu machen. Theoretisch sollte es aber auch mit einem 240w NT funktionieren, denn das kann auch gewisse Lastspitzen ab. Bei den Werten bin ich mir jetzt nicht sicher. Ich meine, es waren ca. 70-80w, was die Netzteile kurzzeitig mehr können.
  5. Weiß einer zufällig das offiziell bestätigte Powerlimit von der RTX 3080 im m15 R4?
  6. Die Frage bezog sich mehr auf GPU, ob ne 3070 oder 3080 drin ist. Mich würde mal der tatsächliche Abstand zur 3080 interessieren.
  7. @hysterix was wirst direkt als erstes machen? Erstmal durch alle Benchmarks jagen? 😄 Welche Ausstattung hattest du noch mal bestellt?
  8. Das, was man an Mehrleistung in Benchmarks raushaut, kann man nicht immer 1 zu 1 auf Spiele übertragen, also in Form von Mehrleistung prozentual gesehen. Time Spy, Firestrike usw. testen CPU und GPU einzeln und im Combiend Test werden CPU und GPU nur 20 Sekunden gleichzeitig belastet. In der Regel spielt man ja nicht 20 Sekunden und die Last kann eine völlig andere sein. Auch kann die Mehrleistung zu entstehenden Hitze, Lüfterlautstärke usw. nicht mehr in Verhältnis stehen, so dass sich eine Optimierung weitaus mehr lohnt. In meinem Testing in OC vs. Optimum-Setting, brachte das OC-Setting in vielen Spielen nur wenige FPS mehr, zumindest bei den Spielen, die ich so getestet habe. Das hängt jedoch ganz vom Spiel (auch Spielmodus) ab. Meistens nehme ich die Ingame-Benchmarks als Referenz. Mal ein Beispiel mit SOTTR. Ich spiele das Spiel zwar nicht mit diesen Einstellungen, hab jedoch noch vor einiger Zeit verschiedene Tests gefahren als ich die Daten mit einer RTX 3080 (Notebook) vergleichen wollte (-NBRF Link-). Zwischen Daily UV-Setting und OC habe ich gerade mal 8 fps rausgeholt, allerdings knapp 100w mehr verbraten. Den Unterschied von 8 fps werde ich nicht sehen, den Unterschied in den Temps, Lautstärke der Kühlung und Stromrechnung dagegen schon.
  9. Ich guck immer was in beide Richtungen geht. Also einmal, was maximal möglich ist, wobei das für mich mehr für's Benchen interessant ist und dann einmal das Optimierungspotenzial rausfinden. Sprich Sweetspots, UV usw. ausloten + Repaste, Mods, Kühlung verbessern usw.
  10. Bei dem VRM hat man mehr als genug Reserven. Nein und technisch gesehen darf es auch nicht schaden, weil zu viele Sicherheitsmechanismen dabei greifen. Zudem ist man beim Lappy extrem limitiert, was man diesbezüglich einstellen kann. Entweder man schafft es irgendwann nicht mehr zu kühlen, oder die Powerlimits greifen oder die Stabilität des Chips wird instabil.
  11. Verarscht das AWCC da einen? Der Speicher läuft nicht auf 17-17-17-39, sondern auf 21-21-21-47. Ich traue CPU-Z auf jeden Fall mehr als AWCC. Beim R2 lief der Speicher auf 19-19-19-42. Das würde analog zu der Erhöhung auf 3.000 MHz passen. Schade das AW dort kein Tuning erlaubt, weil besonders schnell ist das nicht.
  12. @pitha1337 eine Sache fällt mir noch ein. Auf welchem Takt und mit welchen Timings läuft der RAM? Das siehst du mit CPU-Z, HWinfo oder AIDA64. AIDA gibt dir sogar eine Auskunft wie die Leistung des RAM ist.
  13. @pitha1337 Wenn Lust hast, kannst du gerne bei einer Gaming-Session HWinfo mitlaufen lassen. Denk nur bitte dran, dass du den Log erst während des Games startest und auch währenddessen am Ende festhälst (einfach Screenshot). Dann hat man auch keine Idle-Werte im Log, die ihn verfälschen würden. Ist jetzt aber kein zwingendes Muss. Hab langsam das Gefühl, dass wir sehr viel von dir wollen/ verlangen 😄 Ansonsten kann ich nur meinen Dank an dich aussprechen. Ich denke, du hast uns allen schon einen sehr guten Eindruck vom Gerät und dessen Leistung gegeben. Die PCB Fotos waren für mich natürlich am besten^^ Das VRM ist echt krass bestückt und das 330w für mich wenig überraschend.
  14. Wäre es perfekt, hätten wir doch nichts zu beanstanden 😄 Obwohl ich in der letzten Zeit oft AW für ihr Vorgehen und ihre Optionen/ Auswahl kritisiert habe, scheint die R4-Reihe insgesamt schon sehr gut zu sein. Gut, hat aber auch 3 Anläufe gedauert (m17 R2, R3, R4). Trotzdem, fest gelöteter RAM, nur die Farbe Weiß (in den hohen Ausstattungsstufen, kaum OC-Funktionen, Repaste-barkeit, invertiertes Board, Lüftersteuerung, kein AMD, Displayauswahl usw. sehe schon irgendwo als Nachteil an, die AW besser machen kann. Immerhin geht UV und der Preis ist einigermaßen konkurrenzfähig. War der 9750H an sich selbst auch nicht. Im direkten Vergleich zum 8750H gab es fast keinen Unterschied (siehe Video von OwnOrDisown oder JarrodTech). Wenigstens sind beim 10870H zwei Kerne dazu gekommen. Deswegen bin ich nicht so der Freund von Be- oder Auswertung von OSD-Zahlen. Sie sind halt eben eine Momentaufnahme und repräsentieren nicht die gehaltene Leistung. Wenn man nen Stündchen oder mehr zockt will man ja genau das wissen. Ein HWinfo Log zeigt ganz genau an, welche Leistung die über die gesamte Zeit gehalten wurde. Selbst wenn durch Ladeszenen die Leistung kurz dropt, geben die Durchschnittswerte immer noch einen guten und genauen Eindruck. In Valhalla sitze ich auch im GPU Limit, trotzdem taktet sich die CPU nicht runter. Valhalla 30 Min: @pitha1337 bitte nicht falsch verstehen. Ich bin über Info dankbar, die du uns gibt's. Ich versuche nur so genau wie möglich zu vergleichen und bewerten. Das geht mit HWinfo (und richtigem Loggen) nun mal am besten.
  15. @pitha1337 danke für's Testen. Irgendwie erscheint mir das ein bisschen wenig für'n 8-Kerner. Hab mit'm m15 R1 und dem i7-8750H (6/12) in CB R23 7.989 Punkte. Im NBRF hat ein User noch weitere 3D-Mark Ergebnisse gepostet: -Link-
  16. CB R23 (R23.200) wäre wohl noch ganz nett. Multi reicht. Denk dran, das der Benchmark im Default auf Dauerschleife steht, halt für Lasterzeugung. Musst oben bei "File" auf "Advanced benchmark" stellen und dann Minimum Test Duration auf "Off". Dann läuft der Benchmark genau einmal durch und zeigt den Score an.
  17. I also did it for the same reason. You've to cut down all the tiny melting points. I've highlighted a few. The easiest way to do this is with a cutter knife (example)
  18. Top, Danke. Ich verstehe nicht, warum das m17 R4 hier soweit hinter meinem PC (24.150 Punkte) liegt. Ich mag den Benchmark, weil er mit 6 Minuten relativ lange geht und man gucken kann, wo sich die Leistung grob einpendelt. Dass eine bessere Darstellung mehr Leistung benötigt und entsprechend mehr Strom saugt, ist nichts neues. Jedoch müssen wir hier unterscheiden. Wenn wir von FPS reden, meinen wir damit immer die GPU-Leistung bzw. die Beanspruchung der GPU, bei Hz wiederum sprechen wir von der Aktualisierungsrate des Displays. Ich habe ja im Idle getestet und hätte ich den Mehrverbrauch eher am Monitor vermutet als an der GPU. Jedoch sinkt der Verbrauch, sobald ich die 60Hz über's Nvidia Control Panel aktiviere. Die 25w weniger merkt man auch in den Idle-Temps der Grafikkarte. Ich weiß gerade nicht, wie viel Watt es laut HWinfo waren, aber auf jeden Fall nicht 25w. Das war der Wert, den ich über das Strommessgerät ab Wand gemessen habe. Durch Verlustleistung von AC --> DC usw. fällt der Verbrauch hier dann etwas höher aus bzw. ergeben sich die ~25w. Folgende Werte habe ich im Idle-Zustand bei meinem PC ermittelt. Hierbei sei aber gesagt, dass ich hier mein normales Nutzungsverhalten im idle abbilde. Also mit bisschen browsing, Musik hören und MS Office nebenbei. Bei einer Messdauer von 30 Minuten habe ich folgende Durchschnittswerte gemessen (ab Steckdose): Idle-Werte: - Setup: 162-175w (144 Hz), 138-150w (60hz) - PC: 112-118w (144Hz), 87-98w (60Hz) - CPU: Avg: 12,24w (Min: 6,76w / Max: 63,08w) - GPU: Avg: 21,55w (Min: 18,43w / Max: 56,13w) - PC: 84-90w (60Hz) (rein idle, ohne nebenläufige Prozesse) War schon bisschen erstaunt als ich die Messung nur am PC gemacht habe, da ich davon ausging, dass der Monitor für den Verbrauch verantwortlich sein musste. Anderseits stellt man die Einstellung über's Nvidia Control Panel ein und das läuft primär über die GPU. Ich habe mir leider nicht notiert, wie die unterschiedlichen Werte der GPU laut HWinfo mit 144Hz und 60Hz aussehen, kann diese aber bei Bedarf nachlegen. Evtl. müsste ich noch gegenprüfen, ob ich die 144Hz/ 60Hz auch direkt am Monitor ändern kann. Der Punkt mit der Akkulaufzeit bei iPhone und Co. Einige Hersteller (One Plus, Samsung) haben damit angefangen Optimierungen wie "adaptive Hz-Anpassung" anzubieten. So schraubt sich die Hz-Zahl des Displays erst hoch, wenn geswipt oder gescrollt wird. Wird was gelesen, wo sich das Bild nicht ändert, wird auf bis 1Hz (Standbild) runtergefahren. Das spart schon ne Menge Akku.
  19. Ok und macht sich das auch nachteilig bemerkbar und wenn ja, wie? Ich habe nämlich mal bei Clevo die 1050Ti mit 4GB VRAM (Link) in FC5 vollgehauen und keinen Nachteil feststellen können. Mit 8 GB VRAM kommen derzeit noch fast alle Notebooks daher und weil keine 16GB drin sind, sind sie nicht gleichzeitig "nichts für die Zukunft". Jo. GPU hat in FHD weniger zu tun, so dass die CPU mehr beansprucht wird. Steigt die Auflösung, steigt die Last auf die GPU. Deshalb haben einige Ingame-Benchmarks noch eine Skala für "GPU-Bound", so wie Shadows of the Tomb Raider. Ja, wobei ich dir nicht die exakten Werte für'n Lappy sagen kann. Anfangs habe ich vermutet, dass die 144Hz und der höhere Stromverbrauch auf den Monitor zurückzuführen sind. Im Testing (idle) zeigte sich aber, dass die GPU mit 60Hz weniger Strom zieht. Der Monitor bliebt zwischen 60Hz und 144Hz nahezu unverändert. Demnach könnte die Liste, die JetLaw mit den technischen Daten gepostet hat, stimmen. Wenn du auf deinen Akku angewiesen bist, kannst du auch im Nvidia Control Panel 60Hz einstellen. Hoffe ich zumindest. Bin mir jetzt bei den ganzen Lappy-Displays nicht sicher.
  20. Zukunftssicher, ja das Argument zieht immer 😄 und sobald Nvidia oder AMD eine neue Generation raushauen, wechseln wieder alle. Zukunftssicher ist gar nichts in der IT-Welt. 4K und externe Displays sehe ich genauso, wobei für die meisten das hier eher uninteressant ist. 60Hz ist wenig und ein externer Bildschirm zu unpraktisch. Produktiv-Software könnte für den ein oder anderen auch interessant sein. Mit einer 3080 und FHD sitzt man tendenziell schneller im CPU als im GPU Limit und das ist nicht wünschenswert. Hast du für dein angeführtes Argument "8 GB VRAM ist für die Zukunft nichts" auch eine belegbaren Beweis? Ich sehe da aktuell noch keine Probleme, insbesondere nicht für FHD und auch nicht so schnell zukünftig. Selbst wenn du den Speicher voll machst, muss man nicht zwingend irgendwelche Nachteile haben. Pitha hat in Valhalla in WQHD gerade mal 6,3 GB in Benutzung. Ist halt wie PCIE 4.0, alle quatschen von zukunftssicher, aber für den Durchschnittszocker sind aktuell keine spürbaren Vorteile vorhanden. Demnach könnte man auch genauso gut alle Notebooks schlecht reden, die kein PCIE 4.0 haben. Ist ja nicht zukunftssicher. Ich hatte vor wenigen Tagen das am PC getestet mit'm Strommessgerät. Bei meiner Messung von 144Hz auf 60hz hat mein PC ca. 25w weniger verbraucht. Da ich sowohl den PC einzeln, als auch das gesamte Setup gemessen habe, hat sich die Reduktion nur am PC bemerkbar gemacht, genauer gesagt bei der GPU. Der Monitor hat da kaum einen Unterschied gemacht.
  21. und welcher Vorteil bietet sich dadurch, wenn man nur auf FHD zocken kann? Pitha hat bei Valhalla auf Extrem hoch gerade mal 5,8 GB VRAM in Benutzung. @pitha1337 ich glaube, das liegt am Spiel selbst. Meine Karte boostet bei dem Spiel auch nicht auf's Maximum hoch. Bleibt knapp 20w unter dem TDP-Limit.
  22. Deshalb habe ich auch im oben genannten Link das ganze getestet. Der Unterschied ist nicht sonderlich hoch, was Lese- und Schreibgeschwindigkeit betrifft, jedoch hat man das Problem, dass man weder den eigens entwickelten NVMe-Hersteller-Treiber, noch die Hersteller-Software nutzen kann. Samsung optimiert beispielsweise ihre SSDs anhand der Samsung Magician Software und man hat diverse Diagnostic- und Optimierungs-Tools zur Verfügung. Ein Hauptargument für mich ist aber "Secure Erase". Im Falle eines Verkaufs lassen sich nur damit alle Daten sicher löschen. Update der Firmeware-Versionen ist dadurch auch viel einfacher usw. AHCI bietet einfach alle Vorteile ohne einen mir bekannten Nachteil. Bei meinem PC wurde standardmäßig AHCI im BIOS aktiviert. So funktioniert halt Marketing. Man kann dadurch größere Stückzahlen absetzen.
  23. Tuen die, nur halt für einen übertriebenen Preis. Ich meine, es sind knapp 40€ oder so. edit, ok hast schon gefunden. Aus meiner Sicht ist das Abzocke. So ne Kupfer- oder auch Aluplatte kostet 2-3 € wenn man die selber macht. Hab ich bei meinem m15 R1 auch selber gemacht. Ist echt keine Kunst.
  24. Such einfach nach "m.2 NVMe SSD 2280". P/L ist die P1 von Crucial ziemlich gut. Rein von der Leistung sonst Samsung. Geizhals, Mindfactory, Amazon usw.
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.