Zum Inhalt springen

Sk0b0ld

Moderator
  • Gesamte Inhalte

    1.945
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    267

Alle Inhalte von Sk0b0ld

  1. Major Hardware hat heute auch ein Video zum Duo hochgeladen. Ist zwar das alte Modell mit 2070MQ, fand das Video aber dennoch ganz gut, weil er gut erklärt wie das Notebook so in der praxis. Mittlerweile muss ich wirklich zugeben, dass ich das Notebook auch sehr interessant finde. So'n HWinfo-Screen unten im kleinen Display wäre schon was feines. https://www.youtube.com/watch?v=veNWCkld5fU
  2. AW17 R4 & R5 sind da ehrlich gesagt schlimmer. AW hat diese Frage schon zum Teil in meinem neulich geposteten Reddit-Link im Interview beantwortet. So eine Änderung, die derart viele Geräte betreffen würde, hat enorme Auswirkungen auf den Herstellungs- und Fertigungsprozess. Um das zu bewerkstelligen, müsste man Fertigungsstraßen ändern, neue Zulieferer ins Boot holen, Arbeitsabläufe anpassen usw. Dell könnte das sicherlich umsetzen, denn schließlich gehören sie mit zu den größten Tech-Giganten, jedoch hat der Konzern mehrfach in der Vergangenheit (Stichwort: XMP bei Area 51m R2, Downgrade-Sperre durch Gsync etc.) und auch vor kurzem (TCC "Feature") gezeigt, das sich das mit Software-Tricks deutlich eleganter und gewinnbringender lösen lässt. Dell ist eben kein ASUS und dementsprechend liegen die Prioritäten woanders. Also die Kombination i9 + 2080 hat definitiv die VC-Heatsink gehabt, jedoch nur CPU-seitig (glaub ich). Die Kombination i7 + 2080 hatte soweit ich weiß auch die VC-Heatsink. Alles da drunter hatte die "normale" HS. Jetzt haben sie halt die etwas schwächere HS aus'm Portfolio geschmissen und bauen nur die etwas "bessere" Heatsink in die Geräte ein. Mir stellt sich die Frage, warum AW das nicht schon vorher so gemacht hat. Kann ja nur ein Kostenpunkt sein.... Das haben sie auch schon beim AW17 R4 gemacht. Dort habe ich die HS nachträglich auf die größere umgebaut. edit, Bezüglich m17 R4, ich habe mir noch mal die Heatsink vom m17 R3 genau angeschaut, weil ich mir nicht sicher war. Ich sehe keinen Fillport bei der GPU. Daher vermute ich, dass die VC nur bei der CPU bleiben wird. Das, was dort so hervorsteht, ist bloß ein Plastikcover zum Schutz der aufgetragenen WLP.
  3. Der Preis wäre nicht nur interessant, sondern gehört auch zu den Pflichtangaben, wenn man hier im Marktplatz was verkaufen will. Deshalb verweise ich auf unsere Marktplatzregeln und bitte dich @shadowlord einen Preis/ VHB zeitnah einzutragen. Andernfalls wird die Anzeige gelöscht.
  4. Nicht wundern, ich poste es hier rein, weil sich das Thema nur um AW dreht. Auf Reddit wurde eine Unterhaltung mit Eddy und Ernie gepostet. Dort geht es um den AGA, verschiedene Sachen bezüglich der neuen Geräte m15/17 R4 usw. Auch das Thema mit dem TCC Controller... Ernie weiß einfach nicht was TCC tatsächlich macht. - Reddit Link -
  5. Die Tongfang NB's haben damit angefangen UV nachträglich als Lösung zu implementieren. Ich weiß jetzt nicht genau wer alles, aber Eluktronics beispielsweise spielen da mit sehr offenen Karten und lassen dem User im BIOS sehr viele Freiheiten. Gut möglich, dass es bei XMG nicht anders aussieht. Jeder Hersteller bzw. Anbieter kann das ja selbst festlegen. Das BIOS von Megatrends ist bei allen Notebooks grundsätzlich das gleiche.
  6. Ja sowas in der Richtung könnte man machen, letztendlich läufts darauf hinaus, dass man wieder Leistung verliert. Da macht der i9 als HK noch weniger Sinn. Man könnte auch 30 als TCC Wert eintragen, dann sehen die Temperaturen noch besser aus und die Leistung noch schlechter. Es nervt mich einfach, dass AW wieder die Geräte schlechter macht, obwohl sie locker noch Potenzial über haben. Warum kein gescheites BIOS mit ansprechender GUI? Warum kein offenes BIOS mit RAM-OC? Die Timings (2.666 MHz @ 19-19-19-43/49), die vom fest gelöteten RAM gesehen habe, waren nicht gerade überzeugend. Warum wird nicht von offizieller Seite UV offen kommuniziert? und und und. Als ich das im Video gesehen, war ich mir erst nicht sicher, warum AW das so anpreist. Aus meiner Sicht wird hier die Unwissenheit der Besitzer ausgenutzt. Ich kann mir schon genau vorstellen wie die zukünftigen Telefonate mit dem Support aussehen, wenn sich die Käufer wieder über hohe Temps beschweren. Erstmal BIOS Update und der ahnungslose Besitzer freut sich über die tollen Temps anschließend. Ich hatte schon so häufig Leute hier (zuhause beim Repaste), die von Undervolting, irgendwelchen BIOS Einstellungen usw. keine Ahnung haben und auch nicht vorhaben sich damit zu befassen. Die wollen einfach nur das Notebook anschmeißen und problemlos zocken. Wenn man dann maximal 85°C im AWCC sieht, ist man sicherlich beruhigt. Hauptsache aber erstmal die volle Leistung bezahlen. Ich will nicht ausschließen, dass UV mit ganz viel Glück vielleicht doch noch möglich sein wird. Andere Hersteller bieten das schon länger an. Vielleicht lässt Dell einem das Schlupfloch. Ich weiß selber nur allzu gut durch meine m15 R1's und den m15 R2 von @SlipKornDown was UV für einen Unterschied bei den Geräten macht. Auch dein m17 R3 hat in den 3D-Mark Benchmarks ein ganz deutliches Bild gezeigt, was die CPU Leistung angeht.
  7. Mit BIOS Thematiken befasse ich mich ja gern 💪 Bei einem "TCC Offset" handelt es nicht um das klassische undervolten, wie wir das von TS kennen, sondern um eine Temperatursteuerung via TjMax (hatte das Thema im HWinfo-Thread mal angerissen) bzw. CPU-Temp Target. TCC steht übrigens für "Thermal Control Circuit". Für's undervolten brauchen wir normalerweise aber was mit einem V (Voltage). Ist zwar ein wenig technisch, aber in der kleinen Dokumentation von Intel wird das TCC Offset erklärt -PDF (Intel Developer Kit)- Er gibt hier eine 15 ein. UV-technisch würde das so zunächst wenig Sinn machen. -015mV kann man sich sparen und für -150mV wäre die Skala zu grob. Weiter sagt er auch: ... "TCC offset will reduce maximum CPU temps but may also slightly reduce CPU performance in certain applications". Normales UV macht diesen "reduce performance"-Teil ebenfalls nicht. Was er da tatsächlich macht, er zieht die 15 von maximalen CPU-Temp Target ab. Das bedeutet, wäre das TjMax 100°C, drosselt die CPU nun bei 85°C und da wären wir wieder bei dem tollen Thema "Augenwischerei". Die Temp-Werte in HWinfo und AWCC sehen so sicherlich Spitze aus, aber auch nur, weil die CPU durch TCC gezwungen wird zu drosseln, wo noch keine roten Zahlen auftauchen. Ich hoffe, dass es verständlich ist. Sowas nervt mich immer. Es wird irgendein ein Feature angepriesen, der naive AW-Fanboy freut sich, dass AW irgendein nützliches Feature implementiert hat, aber in Wirklichkeit wird die Leistung durch dieses Feature einfach schon vorher reduziert. Er sagt: "...a lot of people online have asked for a solution and wie listen". Am A****, kein Mensch hat nach TCC gefragt. Die Leute wollten wieder die Möglichkeit haben zum Undervolten. MSI, Eluktronics usw. geben dem User (wieder) die Möglichkeit das selber zu entscheiden, nur AW muss hier wieder so ein Blödsinn machen.
  8. Ich dachte, deine Aussage bezieht sich mehr auf Alienware. Was die VRAM Frage betrifft, bin ich mir nicht sicher. Beim Desktop-PC bekomme ich meine 8GB VRAM auf QHD nicht voll, zumindest bei den Spielen, die ich so spiele. In einem anderen Test mit'm Clevo Notebook, hatte in FC5 die 4GB VRAM mit der 1050Ti komplett voll und habe ehrlich gesagt keinen Nachteil zu 8GB VRAM feststellen können.
  9. Im Freundeskreis habe ich zwei Leute, die immer bei ASUS waren und auch immer bei ASUS bleiben werden. Fühlen sich damit halt am wohlsten. Mir gefallen die Tweak-Tools von ASUS auch am besten. Bei ITX würde ich wahrscheinlich zu ASUS greifen, jedenfalls dann, wenn das Board auch etwas potenter sein darf. Bin mir gerade nicht sicher, evtl hat EVGA auch ein ITX Board in der Leistungsklasse. Wenn man ein Setup mit Hardtubes vorhat, macht man das eigentlich überwiegend wegen der Optik. Wobei ich sogar Systeme mit schwarzen Neopren-Schläuchen richtig schön finde. Wenn du bei deiner Farbauswahl noch unsicher bist, hätte ich evtl. einen Vorschlag für dich:
  10. Ja, ist ne normale 2280er. Finde sie aber zu teuer. Vom P/L her, geht nichts über Crucial P1 (Mindfactory). Verbaue die mittlerweile fast standardmäßig in jeden Desktop. Kosten genau so viel, hast du nur doppelt so viel Speicher. Freut mich zu hören, dass der Lappy immer noch tip top läuft. Gut finde ich auch, dass sogar der Kühler bei dem Notebook was bringt. Ich will zumindest nicht ausschließen, dass ich wenn günstig an ein m15 R3/R4 mit OLED Panel komme, evtl wieder umsteige. Undervolting wird dann wahrscheinlich nicht möglich sein und so kann ich dann immmerhin noch was mit dem Kühler rausholen. Das liegt aber nicht am Panel, sondern an den 15" Geräten. Ich hatte ein ähnliches Problem mit SOTTR, als ich es FHD benchen wollte. Ich glaube, ich hatte was im Nvidia Control Panel umstellen müssen. Also nur die Auflösung im Windows umstellen hat da nicht gereicht. Ich weiß, dass man im dem NV-Control Panel auch Custom-Auflösungen definieren kann. QHD-Auflösung sollte aber so schon vorhanden, normalerweise.
  11. Ich habe am PC auch aufn QHD Panel getestet. Läuft dann halt im Fenster-Modus, sollte aber nicht die Punkte beeinflussen. Im 3D-Mark ist der Graphics-Score auch wieder Beschiss, dank Dynamic Boost. Im FF-Benchmark war die GPU irgendwo bei 95w im avg. In Timespy oder Firestrike hast du im GPU-Part immer die 125w wahrscheinlich anliegen. Das erklärt auch im 20-sekündigen Combined Test (viel zu kurz) von Firestrike, dass dort dein Abstand größer ist als im reinen Graphics-Score zu meinem Score am PC. Graphics: 26.036 vs. 27.416 (+5,3%) Combined: 9.335 vs. 12.665 (+35,7%) und genau deswegen ist der Dynamic Boost reine Augenwischerei, weil er nur Ergebnisse aufpoliert, die so nicht direkt auf Realworld-Performance umgerechnet werden können. Wenn du überhaupt von Dynamic Boost profitieren wirst, dann tendenziell eher in UHD, als in FHD. Dass das Bild aufn OLED Display traumhaft aussieht, glaube ich sofort. Auch wenn 60Hz etwas wenig für ein Gaming-Panel sind, wäre es trotzdem mein Panel der Wahl. Die Farben, die Schärfe ist einfach mit keinem anderen NB-Display vergleichbar. Für AC Valhalla, Single-Shooter wie FC gehen auch 60Hz für mich klar. Valhalla habe ich auch drauf, das könnte man noch zusammen testen. Der FPS Unterschied wird aber gering ausfallen bei solchen Spielen. Falls du testest, sag bitte die genauen Einstellungen. Am liebsten wäre es mir, wenn du in QHD (2560 x 1440p) testen könntest. Ich weiß nicht wie das ist, wenn ich künstlich die Auflösung hochskaliere.
  12. .... keine Ahnung wie ich das bewerten soll. Das sind meine Ergebnisse: AW17 R5 (8950HK + 1080: m15 R1 (8750H + 2070MQ): m15 R1 (8950HK + 2080MQ): PC (9900KS + 2080S):
  13. Jetzt stell mal auf Maximum. Auf Hoch habe ich keine Referenz. Von mir aus auch mit 100% Lüfter. Ich will wissen, was das Ding kann. 😄
  14. Ok.... könntest du auf Maximum testen? Mit Maximum habe ich Ergebnisse vom AW17 R5 (1080), m15 (2070mq & 2080mq) und PC (2080s) 125w auf der GPU scheint wohl möglich, aber avg überwiegend 90w. Rechnen wir bisschen idle raus, landen wir ca. auf 95w wahrscheinlich.
  15. die werden nicht so schnell kommen. AMD schafft's weder die Konsolen, noch die GPU-Sparte zu bedienen. - WCCFtech - zdnet und Bob: (No Ryzen mobile CPUs) @JetLaw natürlich habe ich das gesehen, trotzdem rechtfertigt das den Preis nicht mMn und das auch noch ohne irgendeinen Extra-Service.
  16. Man kann auch übertreiben.... Solche Preise gab's nicht mal beim Area 51m und das sind "nur" die Preise ohne Premium-Service usw. Ich will nicht wissen was dann das Area 51m R3 mit Max-Ausstattung kosten soll.
  17. Jetzt nicht die Nerven verlieren @hysterix Wenn du wieder ungeduldig wirst (wie beim Verkauf vom m17 R3) wird das kein gutes Ende nehmen. 😄
  18. Schon mal danke, bin auf die Ergebnisse gespannt. Auch auf die Ergebnisse vom m17 R4 bin ich gespannt. Ich habe zwar so meine Probleme mit dem Lineup der flachen Geräte (kein QHD, RAM etc.), aber wenn man die RTX 3070/ 3080 ausreichend Power zur Verfügung stellt, kann die durchaus was reißen und packt auch eine Desktop 2080S, denk ich. Die Ergebnisse (im NBRF) vom MSI mit der 3080 und 130w PL waren schon nicht schlecht. Mit etwas mehr Power, nen Tick mehr Kühlung sollte das eigentlich machbar sein. @hysterix ich würde morgen den Support im Chat darauf ansprechen.
  19. Denke ich auch. So wie bei MSI und den neueren Geräten. Alles andere wäre eigentlich schon fast ein Downgrade. Ist halt die Frage ob 135w +15w oder 150w+15w.
  20. @pitha1337 hättest du noch Lust den Shadowbringers Benchmark zu machen und nen HWinfo Log (Screenshot) davon mit zu posten? Mich würden mal die Stromwerte interessieren und natürlich auch das Ergebnis. Bezüglich OLED, das Display mit 120-144hz wäre ein Traum, wa.
  21. Grundsätzlich i9. In dem Chassis, mit der Kühlkonstruktion und ohne Möglichkeit zum Undervolten, definitiv den i7. Denk dran, dass der RAM fest gelötet und nicht erweiterbar ist. Kauf also direkt die richtige Konfig. @Nuestra könnte man noch Fragen wegen Cashback Optionen etc. Vielleicht lässt sich noch ein wenig was rausholen.
  22. In Jarrods Beschreibung steht RTX 3070 (125-140w). Also kommen die 15w oben drauf, wenn er sich nicht vertan hat. Eigentlich kann man auch die genaue Bezeichnung weg lassen und einfach das PL angeben. Einfach RTX 3000-Series 130w. TDP-Leistung ist aussagekräftiger als Modell-Bezeichnung.
  23. Glaub ich gern. Seit ich das einmal live bei einem Repaste-Gerät gesehen habe, gibt's für mich kein besseres Display. Der Unterschied zu den ganzen FHD Displays ist einfach krass. Richtig schön und satte Farben und gestochen scharf. Jarrod hat ein sehr interessantes Video hochgeladen. RTX 3070 (125-140w) vs. RTX 3090 (90-105w)
  24. Mit Hardtubes kann selbst RAM oder m.2 SSDs ein Problem werden. Trotzdem kann ich deine Entscheidung absolut verstehen. Hab selbst ne gut ausgestattet Werkstatt und bastel gerne. Auch ohne Wakü, war ich jetzt unzählige Male am PC dran. Das Problem ist einfach, dass es so viel Auswahl gibt, was man machen kann. Durch das Gehäuse schränkst du dich selbst auch wieder ein. Mit zwei Radis lässt du dir mehr Spielraum. Sonst musst du ein anderes Gehäuse in Betracht ziehen. behauptet wer? Wenn man nach der Aussage geht, würde folglich Dark Hero, Crosshair, Formula, Maximus, Extreme usw. weniger Potenzial bieten, wenn wir jetzt mal bei ASUS bleiben. Also zwei Sachen sollte man mal festhalten. 1. Ist ja schön und gut, wenn man sich ein Mainboard der Strix/ ROG Reihe kauft, nur bringt das herzlich wenig, wenn man sein Setup dann auf Auto lässt. Das Board bietet viel Potenzial (so wie alle Boards ab dieser Preisklasse) nur muss man es manuell auch einstellen. Gerade bei der Käufergruppe von ROG/ Strix Sachen sehe ich das sehr häufig. Hauptsache der Name steht drauf und das Potenzial ist vorhanden, aber 0 Plan wie man was einstellt. Gut, das wird höchstwahrscheinlich nicht auf dich zutreffen. 2. Das Board bildet nur eine solide Basis. Die Leistung generieren immer noch die Komponenten, die man verbaut. Wenn du ne Gurke als CPU hast, bringt dir auch das beste Board nichts. Gleiches auch beim RAM, weswegen ich immer Samsung B-Die bevorzuge. Das hört sich vielleicht jetzt alles sehr negativ an, aber so ist das nicht gemeint. ASUS verbaut, zumindest ab der Strix Reihe, richtig gute VRM-Komponenten. UV, Optimieren usw. geht schon wirklich gut damit. Grundsätzlich ist aber kaum ein Board ab 250€ aufwärts schlecht. Auch MSI, Gigabyte usw. bieten solide Optionen. Ich verbaue häufig ASUS und finde sie auch gut, jedoch ist es nichts für mich persönlich, weil ASUS Boards fast immer nur mit maximal zwei m2.Slots ausgestattet sind. In der Preisklasse möchte ich schon gerne mit 3 m.2 Slots unterwegs sein, aber jeder hat ja andere Ansprüche. Wenn die zukünftige Upgradebarkeit wichtig sein soll, würde ich ernsthaft noch mal über ein ATX Board nachdenken. Auch Lüfter-/ Pumpenanschlüsse, Ports im Rear IO usw. fährst du mit'm Standard ATX immer noch am besten. ITX, mATX ist halt immer ein Kompromiss. Letztendlich egal was du am Ende machst, auf dein Projekt und wie du es umsetzt, bin ich gespannt. Leider ist der Zeitpunkt, was die Preise und Verfügbarkeit betrifft, sehr ungünstig. Ich denke, das wird noch ne längere Zeit so bleiben. Ich würde wahrscheinlich immer zwischendurch gucken und alles gemütlich nach und nach holen.
  25. Danke für die Info. Wobei ich vielleicht den Mitarbeitern nicht die Schuld geben darf. Wenn der Konzern einfach zu dumm ist, die richtigen Informationen auf die Homepage zu schreiben und die Mitarbeiter nicht informiert werden, ist ja logisch, dass keine Sau das wissen kann. Schon wieder geht das Ratespielchen los.... Offiziell wurde noch gar nichts bestätigt. Und schon wieder bekommen das andere wieder besser hin. XMG, MSI usw. geben ihre Leistungsdaten der GPU an. 😆
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.