Zum Inhalt springen

Rangliste

  1. pitha1337

    pitha1337

    Mitglied


    • Punkte

      676

    • Gesamte Inhalte

      2.684


  2. captn.ko

    captn.ko

    Mitglied


    • Punkte

      538

    • Gesamte Inhalte

      4.556


  3. Sk0b0ld

    Sk0b0ld

    Moderator


    • Punkte

      534

    • Gesamte Inhalte

      1.861


  4. Jörg

    Jörg

    Mitglied


    • Punkte

      356

    • Gesamte Inhalte

      4.070


Beliebte Inhalte

Inhalte mit der höchsten Reputation seit 18.05.2020 in allen Bereichen anzeigen

  1. Moin zusammen, wie ihr sicher alle schon am eigenen Leib erfahren musstet, kann die Frage: "Was ist eigentlich die beste Wärmeleitpaste?" zu einem Kleinkrieg der Meinungen führen. Häufig kommen dabei Aussagen wie "Also bei mir läuft es seit dem 3°C kühler!" oder "Die Herstellerangaben stimmen nicht!" auf. Ich habe mir in den letzten zwei Wochen das Ziel gesetzt, mich mal wissenschaftlich mit dem Thema zu beschäftigen und, so hoffe ich, endlich Klarheit in diese Thematik zu bringen. Zunächst zu den oft gehörten und hier frei zitierten Aussagen: "Also bei mir läuft es seit dem 3°C kühler!" mag bei dem Autor stimmen, trägt aber keinerlei Aussagekraft für andere Systeme. Tatsächliche Abwärme, Lufttemperatur und Luftfeuchtigkeit, Nutzungsverhalten, Gehäuse, Kühloberfläche und Wärmeleitwege haben einen viel zu großen Einfluss. Selbst die Schlussfolgerung "besser als die alte Paste" ist mit Vorsicht zu genießen. Pasten altern viel zu unterschiedlich und auch die Temperatur, bei der sie getestet werden ist maßgeblich. Dazu aber im nächsten Absatz mehr. Sehr verwundert hat mich die Aussage: "Die Herstellerangaben stimmen nicht!". Ich konnte mir kaum vorstellen, dass die Hersteller auf ihren Verpackungen lügen. Viel zu groß ist die Gefahr sich damit selbst sein "Image-Grab" zu schaufeln. Bei der Recherche ist mir ein wesentlicher Punkt aufgefallen: Es steht nie dabei, in welchem Temperaturbereich der Wärmeleitwert gemessen wurde, oder bei welcher Schichtstärke. Die Wärmeleitfähigkeit von Flüssigkeiten (mit einem flüchtigen Bestandteil) nimmt mit steigender Temperatur ab. Das hängt mit dem Phasenverhalten der einzelnen Bestandteile der Paste zusammen. Wurde vom Hersteller also bei einer sehr geringen Temperatur gemessen, kann das die Wärmeleitfähigkeit positiv beeinflussen. Auch die Schichtdicke ist nicht uninteressant. Der Wärmeübergang an den Oberflächen der Paste ist schlechter als im Inneren. Also kann eine Dicke Schicht die Werte des Herstellers auch schönen. Aber Vorsicht! Das bedeutet nicht, dass eine dicke Schicht in PC besser ist. So oder so ist die Leitfähigkeit der Paste schlechter als die von Kupfer oder Aluminium. Daher sollte die Schicht natürlich IMMER so dünn wie möglich sein. Wie wir sehen konnten gibt es einige Möglichkeiten für die Hersteller die Ergebnisse zu beeinflussen. Doch wie bekommt man jetzt heraus welche Paste für welchen Anwendungsfall die beste ist? Zu diesem Zwecke habe ich mit einen Versuch überlegt. Wen nur die Ergebnisse interessieren, der kann weiter unten gucken. Für die technisch Interessierten unter euch (ich tippe auf die Mehrheit) habe ich versucht mein Vorgehen (hoffentlich verständlich) zusammen zu tragen. Grundaufbau und Idee: Der Versuch besteht aus einem leistungsstarken Labornetzteil, einem Steckbrett mit Arduino zur Datenverarbeitung, einem Laptop zur Anpassung der Prüfparameter, einem Lüfter zum schnelleren Abkühlen nach dem Versuch und.... dem eigentlichen Experiment. Das besteht aus zwei identischen Aluminiumkörpern mit Sensoren und Heizelementen. Beide Körper haben eine sehr ebene Prüffläche auf die die Wärmeleitpaste aufgetragen wird. Mit einer kräftigen Kunststoffklemme wird der Anpressdruck erzeugt. Die beiden Blöcke habe ich aus Aluminium gedreht und gefräst. Sie haben genau die gleichen Abmaße, was bei der Berechnung der thermischen Kapazität wichtig wird. Außerdem habe ich die Messoberfläche sehr fein geschlichtet, um eine spiegelnd glatte und Ebene Auftragsfläche für die Paste zu erzeugen. Anschließend habe ich den ersten Block mit zwei Keramikheizelementen ausgestattet. Diese eigenen sich besonders gut, da sie die Wärme über einen elektrischen Widerstand erzeugen und somit einen Wirkungsgrad von fast 100% haben. Jedes Element hat ca. 40W Wärmeleistung. Außerdem habe ich einen Temperaturfühler (NTC-Thermistor mit 100k) nur einen Millimeter hinter der Messfläche in der Mitte angebracht. Der zweite Block bekam nur einen Sensor und keine Heizelemente. Die Idee hinter dem Aufbau: Wenn der erste Block erwärmt wird beginnt ein Wärmestrom durch die Prüffläche und die Wärmeleitpaste in den zweiten Block zu fließen. Dieser Wärmestrom ist, in Abhängigkeit der Schichtdicke, der Auflagefläche und der Temperaturdifferenz, begrenzt durch den Wärmeleitwert zwischen den Prüfflächen. Thermodynamik 🤮 Ich muss zugeben, dass Thermodynamik nicht mein Lieblingsfach im Studium war. Jedoch ist das hier ein relativ einfacher Zusammenhang und somit nicht ganz so sauer, wie es meiner Überschrift aufstößt. Für die Berechnung des Wärmeleitwerts benötigen wir folgende Größen: Den Wärmefluss Qp [W] Den Abstand zwischen den Messflächen l [m] Die Fläche der Messflächen A [m²] Die Temperaturdifferenz der Messflächen dT [°K] Gesucht ist der Wärmeleitwert lamda [W/m*K] = [W*m/m²*K]. Nun ist leider die Wärmeleistung der Heizelemente nicht gleich dem Wärmefluss zwischen den Blöcken. Jeder kennt dieses Phänomen aus dem Alltag. Stellt man einen Topf auf den Herd, so dauert es eine Weile, bis er heiß genug zum kochen ist. Das liegt an der Wärmekapazität. Um das zu erklären ist es zunächst wichtig zu verstehen, dass Wärme und Temperatur nicht die gleichen Dinge sind. Wärme ist eine Energieform, weshalb ihre Einheit auch Joule oder Wattsekunde ist - daher auch der Wärmefluss in Watt! Die Temperatur gibt an, wie viel Energie in Abhängigkeit der Wärmekapazität ein einer bestimmten Menge eines bestimmten Stoffes enthalten ist. Das ist sehr kompliziert ausgedrückt, was im Grunde auch jeder von zuhause kennt. Man braucht mehr Energie um ein kg Wasser zu erhitzen als ein kg Luft. Die Einheit der Wärmekapazität ist J / kg * K (Joule pro Kilogramm mal Kelvin). Aluminium besitzt eine Wärmekapazität von 900 J/kg*K. Da ein Joule gleich einer Wattsekunde ist, kann man sagen, dass man 900W braucht um 1kg Alu um ein Grad Kelvin in einer Sekunde zu erwärmen. Werden nun beim Versuch die Blöcke erwärmt, kann man anhand dieses Zusammenhangs und der Heizdauer die Leistung berechnen, die in das Alu geflossen ist. Rechnet man die beiden Leistungen der Blöcke zusammen. Erhält man eine Leistung, die knapp unter der Elektrischen Leistung liegt. Die Differenz ist Wärme, die von den Blöcken an die Luft abgegeben wurde. Daraus wird ein Korrekturwert berechnet, der zusammen mit der Leistung des zweiten Blocks den Wärmestrom durch die Paste ergibt. Ab hier ist es einfach. Der Anstand der Messflächen ergab sich als 0,05mm und die Oberfläche ist aus der Konstruktion bekannt. Somit kann der Wärmeleitwert berechnet werden. Versuchsdurchführung und Ergebnisse Durch einen Druck auf einen kleinen Taster wir die Messung gestartet. Von der Raumtemperatur ausgehend habe ich auf 35°C, 50°C und 100°C erhitzt. Am Ende des Versuchs wurde mir das Messergebnis auf einem kleinen OLED angezeigt. Ich habe auch die Wärmeleitfähigkeit eines Motoröls gemessen, da diese dort sehr genau im Datenblatt angegeben wurde und konnte damit die Richtigkeit meiner Messergebnisse sehr gut belegen. Alle Werte lassen sich mit einer Genauigkeit von 0,02W/m*K reproduzieren. Ich habe folgende Pasten getestet: Thermal Grizzly Kryonaut fast 5 Jahre alt aber noch sehr flüssig und nicht eingetrocknet angegeben mit 12,5W/m*K Thermal Grizzly Kryonaut 1g Packung (war bei meinem Kühlblock dabei) kein Jahr alt aber schon ziemlich hart aber noch nicht trocken angegeben mit 12,5W/m*K Industrielle Wärmeleitpaste angegeben mit 1,73W/m*K Wärmeleitmittel 20°C bis 35°C 20°C bis 50°C 20°C bis 100°C Luftspalt (0,01mm) 0,17 W/m*K X X Thermal Grizzly (0,05mm) alt 7,03 W/m*K 4,24 W/m*K 1,68 W/m*K Thermal Grizzly (0,05mm) 1g Packung 2,40 W/m*K 1,48 W/m*K 1,48 W/m*K Motoröl 15W40 0,48 W/m*K 0,38 W/m*K 0,24 W/m*K Industriepaste 3,58 W/m*K 1,97 W/m*K 1,32 W/m*K Alle Angaben mache ich nach bestem Wissen und Gewissen aber ich hafte natürlich nicht für etwaige Fehler, die mir bei der Messung unterlaufen sein könnten. Als nächstes möchte ich gern von euch wissen, welche Pasten am interessantesten zum testen sind. Ich werde mir auf jeden Fall frische Thermal Grizzly Kryonaut und Arctic MX5 besorgen. Aber wenn ihr noch interessante Pasten für mich habt, lasst es mich gerne wissen. In Zukunft soll mein Prüfaufbau das Steckbrett verlassen. Ich werde eine Platine und ein eigenes Netzteil mit interner Leistungsmessung ergänzen um die Genauigkeit und die Bedienfreundlichkeit zu erhöhen. Falls ihr Ideen dazu habt auch immer her damit. Vielleicht hat ja sogar der eine oder andere an einem fertigen Produkt. Ich hoffe Ihr habt Spaß mit meinem kleinen Versuch und findet die Ergebnisse (die noch folgen werden) hilfreich. LG
    11 Punkte
  2. Kurztest Razer Blade 18 und Asus Scar G18 So, hab sowohl das Blade 18 als auch das Scar G18 ausgepackt und getestet. Am interessantesten für mich war, wie viel Leistungsaufnahme die (starken) CPUs bei Dual-Load in einem noch erträglichen (4X dbA) Lüfter-Profil ("Balanced" oder ähnlich) abführen können/dürfen. Außerdem war für mich interessant, wie die Charakteristik der Lüfter ist. Zur (permanenten, also PL1) CPU-Leistungsaufnahme im „Balanced-Mode“. Bei z.B. FarCry 6, was auch ordentlich CPU-Leistung für viele fps möchte, fällt die CPU bereits nach kurzer Zeit auf ca. 45 W (Blade 18) bzw. 55 W (Scar G18). Das ist definitiv zu wenig, hierdurch fallen die fps auch ordentlich und CPU-Limits verschärfen sich deutlich. Für mich indiskutabel: FarCry 6 Savegame im CPU-Limit (wenig Load auf der GPU) im Leistungs-/Lüfter-Profil "Balanced" (beim Scar G18 heißt es „Leistung“) 10900K (Area 51m R2) bei um die 125 W: 92 fps 13950HX (Blade 18) bei um die 45 W: 103 fps 13980HX (Scar G18) bei um die 55 W: 118 fps 13900K (Mini-ITX-Desktop) bei um die 105 W: 161 fps Hinweis 1: Der in der Überschrift genannte Leistungs-/Lüfter-Modus bezieht sich natürlich nur auf das Blade 18 und Scar G18, das Area 51m R2 lief im Silent-Modus und der Desktop ja eh völlig individuell Hinweis 2: Beim Area 51m R2 wird bei um die 125 W im Silent-Profil (!) das langfristige Temp-Limit erreicht, sonst wären wohl noch paar fps mehr drinnen. Würde die GPU voll arbeiten, wären aber etwas weniger Watt möglich, aber wie gesagt: Silent-Profil! Die anderen beiden Laptops dürfen halt einfach langfristig gar nicht mehr (PL1) Hinweis 3: Egal ob die GPU voll arbeitet oder nicht, beim Desktop wird bei um die 105 W mein langfristige Temp-Limit erreicht (das Mini-ITX-Gehäuse ist ja sehr klein und es wird ein kleiner CPU-Kühler verwendet, den ich auch noch zusätzlich auf leise getrimmt habe. Was der 13900K aber bei um die 105 W abliefert, ist ja absolut beeindruckend). Mit mehr Lüfter-rpm und/oder einem größeren CPU-Kühler würden noch mehr als 161 fps möglich sein. Der Abstand zu den mobilen Top-CPUs bei Dual-Load in den 18er Laptops ist ja aber jetzt schon riesig. Bei um die 90 W liefert der 13900K übrigens noch immer 156 fps - wie gesagt 161 bei um die 105 W). Hinweis 4: In dem Beispiel / Spiel mögen für viele auch bereits die 92 fps des Alienware Area 51m R2 / 10900K ausreichend sein. Aber erstens gibt es üblere Stellen im Spiel, und zweitens gibt es mittlerweile so einige Spiele, wo man die fps quasi durch 2 teilen kann, und dann bleibt bei allen Laptops nicht mehr viel über bzw. nicht einmal stabile 60 fps in entsprechenden Szenen. Das mag bei solchen Spielen auf schlechte Entwicklung / Optimierung / Ports zurück zu führen sein, aber was will man machen, wenn einem diese Spiele gefallen... Das Scar G18 ist schneller als das Blade 18, was nicht nur durch die höhere Leistungsaufnahme zu erklären ist. Einer der Gründe ist die etwas besser taktende CPU, ein weiterer vielleicht der Ram (nicht verglichen). Beim maximalem Leistungs-/Lüfter-Profil (5X dbA) sind dann im gleichen Test ca. 65 W bei beiden dauerhaft möglich. Natürlich liegen die ersten wenigen Minuten bei beiden über 100 W an. Ein so lautes (Hilfe!) Lüfter-Profil ist für mich indiskutabel. Zudem ist die Leistungsaufnahme für meinen Geschmack immer noch zu wenig: FarCry 6 Savegame im CPU-Limit (wenig Load auf der GPU) im maximalen Leistungs-/Lüfter-Modus 10900K (Area 51m R2) bei um die 125 W: 92 fps 13950HX (Blade 18) bei um die 65 W: 110 fps 13980HX (Scar G18) bei um die 65 W: 118 fps 13900K (Mini-ITX-Desktop) bei um die 105 W: 161 fps Die ganzen Zahlen schwanken minimal, ist quasi jeweils ungefähr ein Mittelwert. Es geht ja auch nicht darum, ob es hier und da 1-2 fps weniger oder mehr sind, man sieht überall große Unterschiede. An der Stelle nochmal gesagt: Es geht hier um ein CPU-Limit, die GPU ist jeweils bei weitem nicht ausgelastet. Es spielt also keine Rolle, dass im Mini-ITX-Desktop eine schnellere 4080-Desktop-Karte verbaut ist, die fps-Differenzen kommen alleine durch die CPU-Unterschiede zu Stande. Übrigens werden die CPUs der beiden Laptops, auch im maximalen Leistungs-/Lüfter-Profil, im Dual-Load schon sehr heiß. Das künstliche Limit also z.B. mit ThrottleStop zu umgehen (sofern möglich) würde hier nicht viel bringen. Viel ist halt relativ, müsste man testen und schauen ob einem das reicht. Ich habe auch mal beim Blade die Leistung der GPU deutlich reduziert (weit unter 70 W), dann hat die CPU in FarCry 6 tatsächlich - scheinbar dauerhaft zwischen deutlich bessere 90-110 W geschwankt. Aber ab 70-80 W auf der GPU (und das braucht man ja mindestens schon...) fällt sie dann auf die genannten ca. 65 W ab. Wahrscheinlich irgendwann so oder so. 90-110 W bringen übrigens schon 12X-13X (je nach Laptop) fps bei FarCry 6, aber man wird sie halt nur in den ersten wenigen Minuten zu Gesicht bekommen... (im CPU-Limit in genau diesem Savegame bzw. an der Stelle im Spiel). Wie ich gestern schon gepostet habe, kann das MSI GT77 Titan oder auch das XMG Neo 16 (sicher auch 17) teilweise mehr als 65 W durchschnittlich abführen (laut computerbase.de), und das auch bei Dual-Load. Das Blade 18 und Scar G18 jedoch nicht, wenn die GPU stock oder auch mit UV arbeitet. Und das ist definitiv in manchen Spielen ein riesen Nachteil (heftigeres CPU-Limit hier und da). Ich glaube nicht daran, dass es beim m18 großartig anders sein wird. Und das MSI oder das XMG gefällt mir nicht bzw. lässt so viel Leistungsaufnahme auf der CPU auch nur in (für mich) viel zu lauten Leistungs-/Lüfter-Profilen zu, was ja bekanntermaßen für mich sowieso ein absolutes Ausschlusskriterium ist. Das würde natürlich auch das m18 betreffen. Zur Charakteristik der Lüfter Blade 18: Gar nicht so übel, auch wenn ich es nicht rauschig nennen würde. Rauschig ist es für mich erst, wenn ein Lüfter sich mehr rauschig anhört, als die anderen Geräusche. Ein Area 51m R2 würde ich als rauschig bezeichnen, auch wenn man dort noch was anderes raushört, aber das macht eben keine 50% aus. Richtig rauschig sind meines Erachtens z.B. gewisse Desktop-Lüfter von Noctua Scar G18: Schlechter finde ich. Hat noch weniger mit Rauschen zu tun, irgendwie mehrere unangenehme Geräusche. Zudem heftiges coil-whine, was ich beim Blade 18 nicht bemerkt habe. Es ist lauter wie bei einigen Highend-Desktop-GPUs... Auf die Lautstärke jeweils brauche ich nicht einzugehen - beide viel zu laut. Und leiser betreiben ist wegen zu starker Drosselung, sei es thermisch oder künstlich, nicht vernünftig möglich. Display: Allgemein: 18 Zoll wirken erstmal mega toll und modern (dünner Rand für so ein großes Display). Und man benötigt eigentlich auch kein 27“ mehr auf dem Schreibtisch, man ist ja näher dran. Aber viele von euch nutzen ja eh größere Displays als 27 Zoll auf dem Schreibtisch. Blade 18: Katastrophe, wie @pitha1337 schon schrieb. Flickering vom Feinsten (auch in Windows - das wird sicher noch irgendwann gefixt), dazu sieht man das „Netz“ des Displays. Bei der Auflösung bei 18“ müsste das nicht sein, ist einfach kein gutes Panel. Scar G18: Deutlich besseres / zufriedenstellendes Panel, ohne die Farben beurteilt zu haben. Ich gehe auch nicht auf Glowing und Clouding ein, das haben beide ganz gut gehabt... Anmutung & Qualität Blade 18: Natürlich super gut. Scar G18: In live deutlich wertiger als ich bisher so an Bildern und Videos gesehen habe. Ich habe es aber auch bisher nur kurz mit Tageslicht gesehen. Meine aber auch die Oberflächen und das wenig knarrt oder sowas. Sollte man sich aber auf jeden Fall live anschauen, wenn der Rest passt / es einen interessiert Auf Tastatur, Design, Sound, Webcam, Akkulaufzeit usw. gehe ich jetzt nicht ein. Wenn ihr Fragen habt, schießt los. Dann noch für @captn.ko Undervolting @ CPU: Hab wirklich keinen Nerv das noch zu testen, sorry, zumindest nicht mehr heute. Ich schicke es aber erst Montag oder so zurück, insofern ist noch Zeit. Wie im Artikel von gestern steht, geht beim Scar G18 nur 30 mV übers Bios, beim Blade sicher nicht mehr. Und selbst wenn, die CPU hat andere Probleme - auch mit UV… PL-Reduktion @ GPU: Ist bei beiden über z.B. Afterburner möglich, im Gegensatz zu älteren Ampere-/Turning-Laptops. Noch besser - vorallem für Teillast - ist natürlich die Reduktion der Maximalspannung (UV) über z.B. den Afterburner Curve Editor (was natürlich auch wie immer funktioniert). Computerbase hatte aber mit der PL-Reduktion über Afterburner teilweise Probleme, so dass sich nicht alle Spiele daran gehalten haben. Das habe ich jetzt nicht getestet. Fazit Wie ich hier geschrieben hatte, benötige ich (nun definitiv glücklicherweise) nicht mehr unbedingt ein Gaming-Laptop, und werde mein Mini-ITX-Desktop behalten bzw. einen Zweiten für meine Frau bauen (welcher das Area 51m R2 Laptop ersetzt. Für mobile Zwecke bzw. Mitnahme Urlaube / Hotels, wo wir nicht zocken, haben wir ein 16" Macbook Pro). Nach diesem Test sind im Prinzip alle Gaming-Laptops - unabhängig vom Lüfter-Profil - nicht für mich (als Haupt-Spiele-PC) zu gebrauchen. Ein Area 51m (R2) durfte noch im Silent-/Balanced-Profil ins CPU-Temperatur-Limit laufen (und das entsprechende Kühlsystem hierzu war vorhanden!), das hätte man wenigstens wieder so machen können, anstatt in leisen und mittleren Lüfter-Profilen künstliche Leistungsaufnahme(TDP)-Limits zu setzen. Schade, aber schon seit Jahren bei allen Herstellern und Modellen die ich kenne Normalität. Aber manche Modelle würden auch wegen schlechtem Kühlsystem nicht mehr Leistungsaufnahme im entsprechenden Lüfter-Profil schaffen, teilweise macht es also Sinn... außerdem liegen so nicht immer 95-100 Grad an, was den Käufer beruhigt. Im Vergleich zum 13900K im Desktop ist die mobile Variante - unabhängig der Leistungsaufnahme - deutlich langsamer wie man sieht. Aber das war ja schon immer so und wird wohl auch so bleiben. Das einzige was wirklich toll ist, ist natürlich die Effizienz bzw. die Perfomance der CPUs bei nur 45-65 W. Aber wenn man den Desktop-13900K auf 45-65 W reduzieren würde, wäre das ähnlich. Ich glaube man muss abschließend einfach festhalten und akzeptieren, dass eine hohe dauerhafte (PL1) Leistungsaufnahme von z.B. um die 100 W auf der mobilen CPU bei gleichzeitiger GPU-Load - wenn überhaupt (bei vielen Gaming-Laptops schon mal nicht) - nur mit sehr lautem Leistungs-/Lüfter-Profil möglich ist, was für mich absolut nicht in frage kommt. Es müsste sich vorher für mich also grundlegend das Kühlsystem ändern und/oder die Chips dürften nicht mehr so viel Leistungsaufnahme benötigen. Vorher kann wohl kein Gaming-Laptop mehr für mich in frage kommen. Eine absolute Ausnahme war eigentlich das Area 51m (R2). Möglicherweise auch das Clevo X170KM-G/XMG Ultra 17 (hatte ich nie getestet und wird wie das Area 51m nicht mehr mit aktueller Gen versorgt). Im Grunde hat sich also mit der neuen Gaming-Laptop-Generation jetzt gar nichts geändert. Die 18 Zoll Gaming-Laptops sind in allem etwas besser, aber eben halt auch nicht mehr. edit: Drei Hinweise unter den fps-Werten (FarCry 6 Test) hinzugefügt.
    10 Punkte
  3. *keine Spoiler* Ich habe Cyberpunk 2077 seit über einer Woche durch, wollte die Eindrücke aber etwas sacken lassen, bevor ich etwas dazu hier schreibe. Ich hab das Spiel als männlicher V mit einem Fokus auf Itelligenz gespielt, also als Netrunner/Hacker. Mit meiner GTX 1080 musste ich die Grafik runter drehen, 2560x1080 bei hohen Details mit 30 bis 40 FPS. Während dem Spiel gab es viele Stellen die mich beeindruckt habe und direkt nach dem Ende war ich richtig geflascht. Was für ein Ritt . Egal ob es die Grafik war, die Gestaltung der Stadt, die Musik oder die erzählte Geschichte des Hautstrangs und auch einiger Nebenmissionen. Die Hauptgeschichte hat mir durchgehen sehr gut gefallen. Dabei lernt man zwei Charaktäre kennen, mit denen man jeweils eine Nebengeschichte erleben kann. Beide haben mir gut gefallen. Dazu gibt es noch vier größere Questreihen, die ich erlebt habe und eine eigene, kleine Geschichte erzählen, wovon eine ein sehr verstörendes Ende nehmen kann (war ein sehr goßer WTF Moment bei mir). Ein paar weitere Auftraggeber erscheinen immer mal wieder, vergeben aber eher wiederkehrende Aufträge mit ein paar Highlights, mit denen man die Stadt aber gut kennen lernt. Eine kleine Quest muss ich hier empfehlen: Taxiservice Delamain. Machen! Alles habe ich in Night City nicht gesehen, nach 55 Stunden lief bei mir der Abspann. Neben der Hautgeschichte habe ich alle größeren Nebengeschichten und ein paar andere Quests erledig. Das waren die intensivsten 55 Studen, die ich in den letzten Jahren gespielt habe! Es war auch das erste umfangreiche Spiel, das ich innerhlab knapp 3 Wochen durch hatte. Auch wenn der Start für mich durch die Berichterstattung der vielen Fehler im Spiel etwas getrübt war, habe ich es definitiv nicht bereut direkt bei Release zu spielen. Einen Plotstopper hatte ich nicht. Ein Mal konnte ich optionale Charaktäre nicht ansprechen. Ansonsten nur kleinere Glitshes. Im nachhinein fällt mir schon auf, dass die offene Welt und Stadt nicht and GTA V herankommt. The Witcher 3 hat ein rundere aund ausgereiftere Geschichte erzählt. Auch waren die Nebenquest bei der The Witcher 3 abwechslungsreicher als in Cyberpunk. Das ist aber Kritik auch höchstem Niveau, denn die beiden Spiele sind das Beste, was in den letzten Jahren auf dem Markt gekommen ist. Wenn es einen DLC gibt oder "New Game Plus" kehre ich auf jeden Fall zurück nach Night City. Bis dahin hat Nvidia und AMD es auf jeden Fall verpasst mir eine neue Grafikkarte zu verkaufen, denn die brauche ich jetzt erstmal nicht mehr
    8 Punkte
  4. Das Thema DSR wird immer mal - unter anderem von mir - in einigen Posts erwähnt. Es gibt hierzu im Forum aber noch keine Anleitung und ich finde, dass das Thema hier zu kurz kommt, gerade da viele eine 2080 oder stärker haben, jedoch nur ein 1920x1080px-Display. Deswegen diese Anleitung, auf die ich dann zukünftig bei Bedarf verlinken kann. Mittels DSR von Nvidia ist es möglich, Spiele in 2560x1440px oder 3840x2160px (oder auch anderen Auflösungen) zu spielen, obwohl das interne Display z.B. nur 1920x1080px unterstützt. Sobald ihr DSR aktiviert habt, könnt ihr diese Auflösungen in Spielen auswählen, so als hättet ihr ein Display, welches höhere Auflösungen unterstützt. Wie geht das? Nvidia Systemsteuerung öffnen „3D-Einstellungen verwalten“ ihr seid nun im Reiter "Globale Einstellungen". Dort wählt ihr bei „DSR-Faktoren“ 1,78x (2560x1440px), 2,25x (2880x1620px) sowie 4,00x (3840x2160px). Die anderen sind eigentlich uninteressant Darunter erscheint nun „DSR-Glättung“ welches auf 33% steht. Das sieht aber zu verwaschen aus. Wählt 20% aus. Dies ist vorallem für 2560x1440px wichtig, da es sonst zu grieselig ist. Bei 3840x2160px könntet ihr sogar 0% Smoothness nutzen, was dann am besten aussähe. Ihr könnt diesen Wert aber nicht für jeden Faktor konfigurieren, sondern nur global. Insofern sind 20% wegen 2560x1440px und auch 2880x1620px die beste Wahl Das wars. Jetzt könnt ihr euer Spiel starten und in den Spiel-Einstellungen taucht nun auch 2560x1440px, 2880x1620px und 3840x2160px auf. Einfach auswählen und das höhere Rendering genießen. Euer 1920x1080px Display bleibt natürlich technisch stets ein solches Display, die gerenderte Auflösung steigt jedoch, dies beschert euch einen Optik-Vorteil. Noch besser wäre es natürlich, wenn euer Display auch nativ die höhere Auflösung beherrschen würde (dann wäre es noch schärfer). Aber es lohnt sich trotzdem. Allgemeine Empfehlung: Wenn ihr grundsätzlich über genügend Leistung verfügt, und ihr nicht so viele fps braucht, wählt im Spiel 3840x2160px. Sofern ihr (neben 1920x1080px) nur diese Auflösung nutzt, könnt ihr wie oben schon angedeutet den Smoothness-Wert auf 0% stellen. Solltet ihr auch andere (Zwischen-)Auflösungen nutzen wollen, was sehr wahrscheinlich ist, so wählt wie gesagt 20% aus. Sofern ihr ein Laptop mit HDMI 2.0 (also keine Nvidia 30XX) habt und einen 120Hz-TV benutzt: Dadurch dass der TV kein DisplayPort 1.4 hat und euer HDMI Ausgang am Laptop nur HDMI 2.0 hat, könnt ihr 120 Hz nur bis 2560x1440px haben. Bei höheren Auflösungen seid ihr auf 60 Hz beschränkt. In diesem Fall empfehle ich keine höhere Auflösung als 2560x1440px zu nutzen, es sei denn euch macht 60 Hz und V-Sync nichts aus. Denn sonst kommt keine richtige Freude auf (meiner Ansicht nach), auch mit G-Sync nicht. In dem Fall aktiviert nur den Faktor 1,78x. 2560x1440px sind aber immerhin auch schon die 1,78 Fache Auflösung gegenüber 1920x1080... Sofern ihr ein Laptop mit HDM 2.1 habt und einen 120Hz-TV benutzt: Statt Faktor 1,78x (2560x1440px) könnt ihr nun auch 2880x1620px (Faktor 2,25x) benutzen und ihr habt trotzdem noch 120 Hz. Die Auflösung ist etwas höher und somit noch schärfer. Zudem lässt sie sich für das Display mathematisch gesehen besser umrechnen, was zu einer noch besseren Schärfe führt. Grundsätzlich sind die Faktoren 2,25x und 4,00x am besten, sie benötigen die wenigsten Filter. Gerade aber TVs beherrschen Upscaling sehr gut, hier werdet ihr zwischen 2560x1440px und 2880x1620px nur sehr wenige Unterschiede sehen. Bedenkt jedoch, dass die höhere Auflösung mehr Leistung benötigt. Sofern ihr ein Laptop (egal ob HDMI 2.0 oder HDMI 2.1) habt und einen 120 Hz oder höher Monitor benutzt: Hier gilt das Gleiche. Neben 2560x1440px könnt ihr dank DisplayPort 1.4 (schließt den Monitor also per Display Port an) auch 2880x1620px oder höher nutzen, ohne auf 60 Hz beschränkt zu sein. Sobald ihr eben einen 120Hz-TV benutzt, egal ob ihr auch schon einen externen Monitor nutzt oder nicht, muss klar sein, dass der TV kein Display-Port hat. Ein Laptop mit HDMI 2.0 (alle bis RTX 2080) macht dann nur Spaß (120 Hz!) am TV mit maximal 2560x1440px. (Beim 120 Hz-TV setze ich natürlich jetzt mal voraus, dass dieser bereits einen HDMI 2.1 Eingang hat, z.B. LG C9). Dann noch ein Hinweis: Egal ob ihr mit eurem internen Display spielt, oder mit dem Monitor (oder mit dem TV), nutzt immer die gleiche Auflösung. Sofern jedes Display die genutzte Einstellung/Auflösung unterstützt, bleibt diese erhalten. Sprich ihr müsst nur einmal die richtige Auflösung im Spiel auswählen, und schon bleibt sie für immer eingespeichert, egal mit welchem Display ihr spielt. -> das ist normalerweise nicht der Fall! Oder zumindest nicht bei jedem Spiel. Beispiel: Ihr zockt ein Spiel mit 1920x1080px an eurem Alienware-Display, also das vom Laptop. Dann schließt ihr ein Monitor oder TV an. Dort ist dann natürlich 1920x1080px auch ausgewählt. So wollt ihr wahrscheinlich an eurem 2560x1440px- oder 3840x2160px-Monitor (oder TV) aber nicht spielen, also erhöht ihr manuell in den Spiel-Einstellungen die Auflösung. Was passiert beim nächsten mal wenn ihr wieder am Alienware spielt? Richtig, dort wird dann wieder 1920x1080 gesetzt (weil eine höhere Auflösung vom internen Display ja nicht unterstützt wird) und beim nächsten mal Spielen am Monitor/TV müsst ihr die höhere Auflösung wieder manuell auswählen… nervig ohne Ende. Hier hilft euch DSR nun ungemein. Ihr spielt nun auch einfach am Alienware-Display bzw. eben überall mit 2560x1440px, 2880x1620px oder 3840x2160px, fertig. Welche Vorteile hat das Ganze also zusammengefasst? Optik: die Spiele sehen besser aus, für eine 2080 bietet sich in vielen Spielen 2560x1440px oder 2880x1620px an, damit hat man dann noch oft mindestens 60 fps. 3840x2160px solltet ihr nur in älteren oder nicht anfordernden Titeln auswählen, es sei denn ihr habt eine 3080 mit 150+ Watt oder unter 60 fps macht euch nichts aus (mir schon) Komfort: das Spiel merkt sich dauerhaft diese Auflösung. Wenn ihr wie schon gesagt ab und zu am internen Display spielt, und dann wieder am Monitor oder TV, müsst ihr bei vielen Spielen ständig wieder zwischen den verschiedenen Auflösungen wechseln (sofern ihr am Monitor oder TV eine höhere Auflösung verwenden wollt). Wenn ihr aber DSR aktiv habt, und bei allen Displays die gleiche Auflösung verwendet, bleibt diese dauerhaft eingespeichert und euch der ständige Wechsel der Auflösung in den Spiel-Settings erspart) Ihr könnt übrigens DSR aktiv haben, und wenn ihr den Monitor (oder TV) angeschlossen habt, nicht. Sprich die Nvidia Systemsteuerung unterscheidet hier je nach Display. Ihr könnt DSR natürlich auch dafür benutzen, um eurem schon höher aufgelösten 2560x1440px-Monitor 5120x2880px oder eurem 3840x2160px-Monitor 7680x4320px beizubringen… das kostet dann aber richtig Leistung... Welche Nachteile hat das Ganze? Ihr braucht natürlich mehr Leistung, habt also weniger fps. DSR verhält sich leistungstechnisch fast exakt genau so, wie als wenn ihr nativ eine höhere Auflösung hättet. Bei Spielen, die ihr konstant mit über 100 (oder 200) fps spielen wollt, z.B. Shooter wie CoD Modern Warfare oder Coldwar, empfiehlt es sich weiterhin die 1920x1080px-Auflösung zu nutzen (es sei denn ihr habt eine 3080 mit 150+ Watt, dann geht dort evtl. auch 2560x1440px). Aber für viele Spiele, die ihr z.B. in Third-Person mit Controller spielt, sind - zumindest nach meinem Geschmack - ca. 60-90 fps und 2560x1440px, 2880x1620px oder 3840x2160px die deutlich bessere Wahl als ca. 120 fps bei 1920x1080px. PS: Ich habe in dieser Anleitung bewusst keine Wörter wie QHD, 1440p, UHD, 4k usw. benutzt, weil manchen nicht jedes bekannt sein dürfte. Mit der stets ausgeschriebenen Auflösung, z.B. 2560x1440px, kann aber jeder was anfangen.
    7 Punkte
  5. Hallo zusammen, ich wurde in letzter Zeit öfter angesprochen, teils auch über PN, um die vBios-Thematik und nvflash zu erklären. Da es ja ein Problem zu sein scheint das öfter auftritt, schreibe ich das mal in einem Thread ausführlich zusammen. Wichtig!!! Das soll eine Hilfestellung für Leute sein, die Lust haben selber an Ihren Geräten zu basteln. Ich erstelle diesen Thread mit bestem Wissen und Gewissen, dass bei mir so alles funktioniert hat aber ich übernehme ausdrücklich KEINE Haftung, falls etwas nicht funktioniert hat. Wann ist ein neues / anderes vBios nötig? Bei einem Stock belassenem Gerät ist das normalerweise nicht der Fall. Tauscht man aber eine Grafikkarte kann es sein, dass die vBios Version auf der Karte nicht mit dem Gerät kompatibel ist. Symptome dafür sind in jedem Fall ziemlich eindeutig. In den meisten Fällen funktioniert garnichts - manchmal funktioniert es bis die Karte unter Last gesetzt wird. Letzteres ist oft bei Optimus-Systemen der Fall. Es gibt auch die Möglichkeit mit einem modifizierten unlocked-vBios das Powerlimit der Karte anzuheben und die volle Kontrolle über Takt und Spannung von GPU und vRAM zu bekommen. Dies soll kein Erkärungsthread werden wie man seine Grafikkarte übertaktet. Wichtig ist, dass die unlocked-vBios keine Selbstläufer sind. Oft legen diese vBios direkt höhere Taktraten an, was aber nicht jede Karte bei der Spannung verträgt. Also man sollte sich, bevor man ein unlocked-vBios flasht, intensiv mit dem Thema GPU-OC auseinandersetzen. Wo bekomme ich mein vBios her und welches ist das richtige? Meines Erachtens ist TechPowerUp immer eine gute Anlaufstelle, um Stock vBios zu finden. Im Bereich "Video Bios Collection" kann man seine Karte suchen und es werden einem mehrere Möglichkeiten vorgeschlagen. Manchmal sind die gleichen vBios in unterschiedlichen Geräten verbaut. Gibt es also kein Dell oder Alienware vBios, fährt man meistens mit den Clevo-Versionen auch nicht schlechter. Hat man sein vBios gefunden, läd man es dort herunter. Was brauche ich zum flashen eines vBios? Es gibt im großen und ganzen zwei Möglichkeiten ein vBios zu flashen. Per Windows CMD oder per DOS Stick. Bei letzerem kann man entweder die Befehle selber tippen oder eine autoexec.bat Datei erstellen. Damit bekommt man die Möglichkeit blind zu flashen, was einem einige Vorteile bietet. Davon eine bessere oder schlechtere Möglichkeit zu bestimmen nehme ich Abstand. Sie haben beide ihre Vor- und Nachteile. Grundsätzlich braucht man immer: nvflash (Programm für Windows und DOS) Normale Version Mod Versionen vBios.rom Datei (optional) GPU-Z (optional) USB Stick (am besten nicht Größer als 4GB) Kann ich etwas kaputt machen, wenn ich das falsche vBios flashe? Das kann ich grundsätzlich verneinen. Es gibt bestimmt Ausnahmen, die die Regel bestätigen aber ich für meinen hatte schon viele flashe vBios drauf. Die Karte funktioniert dann einfach nicht. Nach dem flashen des richtigen vBios ist alles wieder gut. Aber ich verweise an dieser Stelle nochmal auf meinen eingangs erwähnten Haftungsausschluss. Flashen per Windows: Ordner auf dem Desktop erstellen und rein kommt: vBios.rom Datei (hier und im Folgenden schreibe ich vBios.rom und meine damit die vBios Datei die ihr flashen wollt) nvflash und nvflash64 aus der Heruntergeladenen .zip-Datei (hier und im Folgenden schreibe ich nvflash - bei 64bit Systemen ist natürlich nvflash64 zu verwenden) CMD als Administrator öffnen und in den Ordner auf dem Desktop navigieren cd Desktop/Ordnername Wichtig: Ausgangszustand sichern. Dazu entweder bei GPU-Z rechts neben der vBios-Versionsnummer klicken oder folgendes in der CMD eingeben. nvflash --save vBios_alt.rom Flashen des vBios: nvflash -6 vBios.rom Bei SLI Geräten ist die Nummer der Karte anzugeben. Link 0 - Rechts 1 nvflash -i0 -6 vBios.rom Je nach Karte und vBios fragt nvflash ein oder zweimal nach der Erlaubnis weiter zu machen. Das ist entsprechend zu quittieren. Zu guter Letzt wird man aufgefordert das System neuzustarten. Wenn sich das vBios nicht bespielen ließ und es sich nicht um ein modifiziertes vBios handelt, dann ist die Version wahrscheinlich nicht kompatibel und man sollte eine andere ausprobieren. Ist man sich sicher, dass die vBios Version passen muss, kann man sein Glück mit einer Mod-Version von nvflash versuchen. Damit können die Sicherheitsbedenken der Software umgangen werden. Flashen per DOS-Stick: Einen DOS-Stick erstellen Ich habe einfach mal das erste vorgeschlagene YouTube-Video verlinkt. Ist aber egal - Hauptsache am Ende hat man einen bootfähigen DOS-Stick. nvflash und vBios.rom auf den Stick ziehen System neustarten und vom Stick booten. Flashen des vBios: nvflash -6 vBios.rom Bei SLI Geräten ist die Nummer der Karte anzugeben. Link 0 - Rechts 1 nvflash -i0 -6 vBios.rom Je nach Karte und vBios fragt nvflash ein oder zweimal nach der Erlaubnis weiter zu machen. Das ist entsprechend zu quittieren. Blind-flash per DOS-Stick: Einen DOS-Stick erstellen Ich habe einfach mal das erste vorgeschlagene YouTube-Video verlinkt. Ist aber egal - Hauptsache am Ende hat man einen bootfähigen DOS-Stick. nvflash und vBios.rom auf den Stick ziehen Erstellen der autoexec.bat Öffnen vom Windows Editor nvflash -4 -5 -6 vBios.rom -i0 oder -i1 Bei SLI (siehe oben) Speichern unter -> DOS-Stick als Speicherort auswählen -> Dateityp: Alle Dateien -> autoexec.bat -> Speichern System neustarten und ins BIOS wechseln Bootreihenfolge bearbeiten, so dass vom Stick gestartet wird. Änderungen speichern und neustarten. Nun wird automatisch nvflash ausgeführt. Wenn alles klappt sieht man direkt danach wieder etwas. Hat es nicht geklappt - nach ca. 5min System ausschalten, mit anderem PC ein anderes vBios auf den DOS-Stick ziehen und nochmal versuchen. Mein persönliches Vorgehen (Empfehlung) Ich erstelle mir immer von der letzten funktionierenden vBios-Version einen bootfähigen DOS-Stick und habe immer meine Bootreihenfolge so eingestellt, dass er vom DOS-Stick bootet, wenn einer eingesteckt ist. Dann experimentiere ich unter Windows fröhlich mit den verschiedensten vBios-Versionen herum und wenn ich irgendwann einen Blackscreen bekomme, stecke ich den Stick ein und starte neu. Dann ist mein System wieder fit. Wichtig dabei ist, den Stick vorher getestet zu haben. Wenn dann alles funktioniert kann man (meiner Erfahrung nach) risikofrei experimentieren. Ich hoffe euch gefällt meine Anleitung und es ist alles einigermaßen klar geworden.
    7 Punkte
  6. Getreu dem Motto habe ich mir dieses Jahr im März einen neuen Gaming PC gebaut und meinen aufgerüsteten Aurora R4 in Rente geschickt Hier mal die Komponenten: CPU: AMD Ryzen 7 3700X (291 €) Arbeitsspeicher: 32 GB DDR2-3200 CL16 (152 €) SSD: Samsung 970 Evo 1 TB (168 €) Mainboard: Asus PRIME X570-PRO (239 €) Gehäuse: NZXT H510 Elite Window Schwarz (154 €) CPU Kühler: Scythe Fuma 2 (49 €) 2 Noctua Chroma black Lüfter (50€) Gesamt: 1103 € Meine GTX 1080, ein Corsair RM750x Netzteil und eine 740 GB SATA SSD habe ich aus dem Aurora in meinen neuen PC mitgenommnen. Als Monitor habe ich den Samsung CF791 (34 Zoll Ultra Wide, Curved, VA Panel, 3440x1440, 100 HZ), als Maus die Racer Viper Ultimate und als Keyboard das CM Storm Rapid-I. Die genaue Liste der neuen Teile gibt es hier. Wahl der Komponenten: Am wichtigsten für mich war das Gehäuse. Es sollte kompakt sein, ein ATX Mainboard unterbringen, Glas Seitenteil + RGB und einen USB-C 3.2 Front Anschluss haben. Mit den Kriterien ist mir nicht viel mehr viel Auswahl geblieben . Das NZXT Gehäuse ist rechteckig und schlicht, hat vorne und an der linken Seite Glaswände und kommt mit 2 140 mm LED Lüfter vorne und einer LED Leiste innen am Gehäusedach. Zusätzlich ist ein LED und Lüfter Controller verbaut, der alles steuert. Letztendlich bin ich mit dem NZXT Gehäuse zufrieden, was mir nicht gefällt schreibe ich weiter unten. Bei der CPU habe ich mich bewusst für 8 Kerne und AMD Entschieden. AMD wegen P/L und 8 Kerne, da ich mit dem PC nur zocken will und 12 oder 16 Kerne nicht nutzen werde. Es hätten auch 6 Kerne gereicht, die hatte ich aber schon in meinem Aurora, das ging dann natürlich nicht . Das Mainboard war eine schwierige Wahl, letztendlich sollte es auch RGB haben und einen USB-C 3.2 Front Header. Die X570 Plattform wegen Zukunftssicherheit und PCIe 4.0. Das Asus Board ist super, aber die LEDs nutze ich wegen der Software nicht und mein Gehäuse leuchtet auch so bunt genug. Beim Arbeitsspeicher haben ich mit 3200 MHz ein Kompromiss zwischen Geschwindigkeit und Preis gefunden. Schnellerer RAM war deutlich teurer. Hier habe ich aber eins gelernt: immer die RAM-Kompatibilitätsliste des Mainbaords beachten! Das habe ich nicht gemacht und eines der wenigen RAM Kits erwischt, die nicht kompatibel sind... Nach ein paar Mainboard Updates bootet aber alles mit XMP Profil. Die SSD war recht simpel. Auch wenn ich die Geschwindigkeit nicht brauche ist Samsung doch für Qualität bekannt. Eine 750 GB SATA SSD habe ich aus meinem Aurora übernommen. Der CPU Lüfter war auch eine leichte Wahl. Ähnliche Leistung wie der 120m Noctua Kühler mit 2 Lüftern, aber nur der halbe Preis und ein (wie ich finde) schickeres Design. Die Montage war recht einfach und die CPU Temperaturen in meinem Gehäuse sind gut. Meine GTX 1080 ist immer noch flott und die RTX 2080 Super war einfach nicht super genug. Das hat sich mit der RTX 3080 geändert, es könnte sich also noch was tun . Was mir nicht gefällt: Zunächst zum Gehäuse. Dadurch, dass die Front aus Glas ist, kann Luft nur durch einen Spalt an der Seite und unten ins Gehäuse kommen. Die Lüftung war wohl so schlecht, dass NZXT neben den beiden 140 mm Frontlüftern noch einen 120 mm Lüfter hinten und einen 140 mm Lüfter oben verbaut hat. Die beiden Lüfter hinten und oben waren mir zu laut, deshalb habe ich sie gegen zwei Noctua Chroma Black getauscht. Mit der richtigen Lüfterkurve für die Lüfter vorne, hinten und oben funktioniert es aktuell aber gut. Wenn die Lüfter schnell drehen hört man ein pulsierendes Brummen. Es bildet sich ein Unterdruck im Gehäuse, da nicht genug Luft nach kommt. Hier kann ich mir gut vorstellen, dass ein gelochtes Blech mit Luftfilter anstatt dem Glas in der Front Abhilfe schaffen kann. Der zweite Kritikpunkt ist die Lüfter/LED Steuereinheit. Die Software dazu lässt sich gut bedienen, es kommen aber oft Updates und wenn ein Update installiert wird drehen die Lüfter immer auf max. Das nervt. Was aber noch mehr nervt: immer wenn ich den PC vom Netz nehme vergisst die Steuereinheit meine Lüfterkurve und LED Einstellung?! Man kann also die NZXT Software nicht aus dem Autostart nehmen wenn man regelmäßig den PC vom Strom trennt... Zum Mainboard: die Asus Software zum steuern der LEDs ist mies. Lahm, gamery Design und buggy. Das Mainboard an sich läuft stabil, aber wegen der LED Komponente braucht man Asus nicht zu kaufen (angekommen andere Asus Boards habe die selbe Software). Fazit: Nach einigen Problemen mit dem RAM und der Lüftersteuerung habe ich mir ein schicken und flotten PC zusammen gebaut. Klar, es ist nicht der schnellste PC, aber ich habe darauf geachtet qualitativ hochwertig Komponenten zu verbauen und für meine Anwendungen eine gute Leistung zu bekommen. Auch habe ich wieder viel gelernt was aktuelle Hardware angeht mein letzter Eigenbau ist doch schon ein paar Jahre her und es hat sich einiges getan. Ein Problem bleibt aber, das Kabelmanagement Was meint ihr zu meinem PC? Teilt auch gerne euren selbst gebauten PC
    6 Punkte
  7. Ich würde dir als erstes mal empfehlen, zu versuchen dich klar auszudrücken. Entschuldige das ich es so sage, aber bei deinem Geschreibsel bekommt man echt Augenkrebs. Wenn du der Meinung bist die Lüfter funktionieren nicht, dann starte dein Notebook und drücke dabei F12. Im folgenden Menü wählst du Diagnostics aus. Da kann man die Lüfter einzeln testen.
    6 Punkte
  8. Zum einen mit den drei Streben links, die erstaunlicher mehr Halt geben als gedacht und zum anderem mit einem selbst angefertigtem Anti-Sag-Mount. Hab halt drei Streben genommen, um die maximale Stabilität zu erreichen. Ich wusste aber schon vor dem Kauf, dass eine Lösung gegen GPU-Sag bei diesem "Gehäuse" definitiv ein Problem werden wird. Insbesondere bei der langen und schweren Karte, die ich habe. Letztendlich dachte ich mir, dass mir schon eine passende Lösung einfallen wird, wenn ich das Case zu Hause habe. Für den Anti-Sag-Mount habe ich dann ein 12mm dickes Aluminiumrohr genommen, es auf den passenden Winkel gebogen, ein Gewinde oben und unten reingeschnitten und schwarz lackiert. Das Teil ist so stabil, das hält die GPU mit Leichtigkeit alleine. Bin jedenfalls sehr zufrieden damit. Auch Standfüße gegen das nach vorne Kippen musste ich mir anfertigen. Das war jetzt aber weniger ein Problem. Hab jetzt die Tage noch ein wenig Beleuchtung montiert und bin soweit jetzt erstmal fertig. Bin sehr zufrieden mit dem Gehäuse. Ist einfach mal was anderes und nimmt nur sehr wenig Platz ein. Leise ist es auch, da kaum Lüfter verbaut sind.
    6 Punkte
  9. Ich gehe mal davon aus, dass du nichts "gelöscht", sondern einfach Secure Boot von enabled auf disabled gestellt hast. Korrigiere mich da bitte, falls ich falsch liege. Wäre mir aber neu, wenn man da einfach irgendwelche Einträge löschen kann. Ansonsten sehe ich da kein Problem, dass du irgendwelche Settings dort angepasst hast. Dafür ist das BIOS schließlich auch da. Zunächst mal was Allgemeines zu der ganzen BIOS-Geschichte und den vielen Lösungsansätzen. Es hilft ungemein, wenn man sich einmal vor Augen hält, was das BIOS eigentlich macht, wie es arbeitet und welche Funktionen es implementiert hat. Hört sich möglicherweise etwas komisch an, erklärt aber das aktuelle Verhalten und die gescheiterten Lösungsansätze bislang, auch wenn man jeden einzelnen Ansatz an der Stelle löblich erwähnen muss, denn so ein Engagement zur Lösungsfindung ist ja auch nicht selbstverständlich. Jedenfalls, wenn man den Lappy/ Rechner startet, beginnt das BIOS-Programm mit dem Power On Self Test (POST). Dies ist eine vordefinierte Reihenfolge, wo verschiedene Hardware gecheckt wird. Vereinfacht gesagt, BIOS: "CPU bist du da?" CPU: "jo, bin da." BIOS: "RAM, bist du da?" RAM: "jo, bin da." usw. In der Realität werden natürlich weitaus mehr Daten ausgetauscht, aber die Funktionsweise sollte verständlich sein. Viele werden das von euch auch schon lange kennen, aber ich werde auf diesen Punkt immer wieder zurückkommen, deshalb spreche ich es jetzt an. Man muss immer Hinterkopf behalten, dass viele Funktionen wie das Boot- oder Recovery-Menü eine Funktion eines funktionierenden BIOS ist. Ist das BIOS aber beschädigt, lassen auch diese Funktionen normalerweise nicht mehr starten. Nach jetzigem Wissensstand, schätze ich, dass das BIOS einfach beschädigt ist. Warum das BIOS aber beschädigt wurde, ist schwer zu sagen. Vielleicht ist ein Bug im BIOS selbst, so dass eine ganz bestimmte Einstellung dazu führt, dass das BIOS fehlerhaft gespeichert wird. Vielleicht gab's beim Speichern selbst irgendwie ein Problem. Lag ein Undervolting-Offset zufällig vor? Wurde beim Speichern bzw. beim erneuten Booten der USB-Stick oder andere Hardware währenddessen entfernt (Wackelkontakt oder ähnliches)? Speziell diese UV-Geschichte ist gar nicht so neu. Viele betreiben ihr Notebook mit einem UV-Offset, vergessen aber schnell, dass man bei einem BIOS-Update das UV-Offset vorher herausnehmen sollte. Wenn dann mitten im BIOS-Update (oder beim Speichern von Settings) die CPU abschmiert, ist das BIOS meist unbrauchbar danach. Auch Schadsoftware auf dem USB-Stick könnte eine Ursache sein. Halte ich zwar für sehr gering, aber ausschließen will ich es auch nicht. Nicht jede Schadsoftware ist für Windows gemacht und damit im OS sichtbar. Ist halt ein bisschen verdächtig, dass es ausgerechnet nach dem Ausstellen von Secure Boot zu dem Problem gekommen ist. Dann die Sache mit den Peep-Codes. Das Gedudel anfangs ist der Hinweis, dass ein Boot-Fehler vorliegt. Dann piept er 3x, dann 2x und am Ende 1x und anschließend geht die Schleife von vorne los. In deinem Fall gehe ich davon aus, dass das BIOS beschädigt ist und er (das BIOS-Programm) den POST nicht vernünftig abschließen bzw. starten kann. Allein die Tatsache, dass der 1x Beep-Code (BIOS ROM-Fehler) da ist, erklärt wahrscheinlich den 2x- und 3x Beep-Code. Warum der 3x-Beep-Code vor dem 1x- und 2x-Beep-Code kommt, kann ich nur spekulieren (wahrscheinlich Reihenfolge des Speicherns und Ausgeben unterschiedlich). Demnach gehe ich davon aus, dass das fehlerhafte BIOS-Programm gar nicht PCH und RAM abcheckt und entsprechend auch keine Antwort erhält, wodurch die Fehlercodes automatisch hinterlegt werden. Wie gesagt, dass ist nur ein Erklärungsversuch meinerseits, der aber nicht zwingend stimmen muss. Jedoch macht das für mich am meisten Sinn, weil ich davon ausgehe, dass RAM und PCH völlig in Ordnung ist. Auch den Lösungsansatz mit der SSD halt ich für wenig erfolgversprechend. Das BIOS interessiert ein bootbares Medium erst, wenn alles ordnungsgemäß durchgelaufen ist. Da aber das BIOS schon vorher rumzickt, wird die SSD zu dem Zeitpunkt noch gar nichts zu melden haben. Den Lösungsansatz mit dem RAM wird wahrscheinlich auch nicht zum Erfolg führen, auch wenn ich diesen Lösungsansatz gut nachvollziehen kann. Ich habe diesen Fehler bei einem Alienware-Gerät mal provoziert. Der Fehler kommt meist zustande, wenn beim POST die RAM-Daten (Timings, Sub-Timings, Voltage) aus dem SPD-Speicher fehlerhaft gespeichert und nicht auf dem RAM angewendet werden können. In meinem Fall hat nur noch ein CMOS-Reset geholfen, damit das BIOS die RAM-Daten aus dem SPD-Speicher neu einliest. Die genannten Punkte sind keineswegs falsch und werden zum Teil auch so im Service-Manual erwähnt. Tatsächlich ist es in der Realität aber etwas anders. Die Stromkreise bei dem BIOS-Chip laufen in der Regel getrennt voneinander. Mal ein anderes Beispiel in dem Zusammenhang: Viele Desktop-Mainboards, ab einer bestimmten Preisklasse (meist OC-Feature) haben einen Clear CMOS-Button (viele min. ein Jumper). Dieser Knopf unterbricht einfach nur die Stromzufuhr von der CMOS-Batterie zum BIOS-Chip. Hier reicht schon eine Unterbrechung von weniger als eine Sekunde aus, um den BIOS-Chip komplett auf Default zu setzen. Wenn man RAM-OC macht, ist das Feature (oder ReTry) echt Gold wert. Im Beispiel Laptop und Service-Manual, wird aber meist eine Vorgehensweise empfohlen, die auf nahezu alle Notebook-Typen (idiotensicher) übertragbar ist. Deshalb Powerdrain, 5-15 Minuten CMOS-Batterie abklemmen, Akku raus usw. Wenn ich richtig informiert bin, hat das schon fast historische Hintergründe, wo in den damaligen Notebooks Kondensatoren und andere Elektrokomponenten verbaut wurden, die deutlich länger den Strom gespeichert haben und auch die Stromkreise und BIOS-Chips waren anders. Da an der Vorgehensweise aber nichts falsch ist, hat's man immer dabei belassen. Ich will damit nur sagen, dass modarim an sich schon alles richtig gemacht und es keinen Unterschied mehr macht, ob er die CMOS-Batterie 5 Minuten oder eine Stunde abklemmt. Wenn das Notebook einmal vollständig (inkl. CMOS) stromlos war, war das schon richtig so. Ja, weil die Recovery-Funktion, eine Funktion eines funktionierenden BIOS ist. Ich will natürlich nichts ausschließen und keinen Lösungsversuch ungetestet lassen, aber ich würde meine Erwartungen nicht zu hoch setzen. Das Area 51m-Mainboard hat mehrere BIOS-Chips. Mit etwas Glück läuft die Recovery-Funktion vielleicht über den anderen Chip. In den allermeisten Fällen, in einem Preisbereich, wo es sich aus meiner Sicht nicht mehr lohnt, derart viel Geld in ein "altes" Gerät zu investieren. Meist bist du über 1.000€ los und das für irgendeinen gebrauchten Kram und wenn das Board am Ende immer noch nicht läuft, verlierst du noch mal Geld. Für's gleiche Geld (+ das, was für das Area 51m noch bekommst) kannst du auf ebay KA schon ein fast gleichwertiges, funktionierendes Gerät holen. Vielleicht sogar schon besser. Ich gehe jetzt nicht auf jeden Lösungsversuch ein, verweise aber nochmals auf den am Anfang genannten Punkt mit der Funktionsweise des BIOS. F12 mit Bootloader-Menü wurde bereits bestätigt, dass es nicht geht. Demnach braucht er auch kein DVD-Laufwerk oder sonst was anzuschließen. Diese Geschichte mit der CD/ DVD ist sowieso nur im Legacy-Mode vordefiniert, wo man kein Bootmanager zur Verfügung hat, sondern eine feste Prio bzw. die man selbst festlegt. Mit UEFI hat man auch zeitlich den Bootmanger aktiviert, der automatisch nach'm MBR sucht. AHCI/ RAID on ist ein Punkt ja, aber soweit kommt erst gar nicht. Dieser Punkt ist erst interessant, wenn der POST durchgelaufen ist und es darum geht, wie die bootbaren Laufwerke angesprochen werden sollen. Externe Gerät werden ziemlich funktionieren (drehen und leuchten), da auch andere (Strom-)Komponenten wie Tastaturbeleuchtung, Lüfter, Lautsprecher etc. funktionieren. Teilweise läuft der 5V-Kreislauf ohne Logik und wird direkt ausgegeben. So wie auch Charge-USB usw. Ehrlich gesagt, sehe auch hier die größten Erfolgschancen. Das Gerät, welches man dafür braucht, ist -DAS- beispielsweise. Ich sag aber gleich vorab, dass ich damit keine Erfahrung habe. Ich hab es nur zufällig einmal im Einsatz gesehen. Wie so oft im Leben, muss man sich das mit Youtube und Co. wahrscheinlich selbst beibringen oder kennt jemanden zufällig. Falls alle Stricke reißen, hab ich vielleicht jemanden da (weiß nicht, ob er das macht. Muss ich selbst fragen). Der BIOS-Chip ist in der Regel ein achtbeinige Winbond-Chip (Vergleichsbild). Ich habe auch Bilder vom Area 51m R1 Mainboard da (im VRM-Thread), welcher aber der Main-BIOS Chip ist, weiß ich nicht exakt. Hier mal das Mainboard von beiden Seiten: Auf den ersten Blick, würde ich die beiden Chips auf der linken Seite vermuten, tendenziell den auf der Rückseite als Main. Oberhalb und rechts vom RAM finden sich noch zwei weitere Winbond-Chips, die etwas kleiner sind. Glaube zwar nicht, dass die mit dem BIOS was zu tun haben, aber völlig ungeachtet würde ich sie auch nicht lassen. Der oberhalb vom RAM wird ziemlich sicher für RAM-Profile sein. Anhand der CMOS Batterie und des Pin-Layout des BIOS-Chips, sollte man relativ leicht rausfinden können, welcher der BIOS-Chip ist.
    6 Punkte
  10. Die Titan lebt wieder! Es war tatsächlich ein Kurzschluss im 8Pin Stecker. Ohne Hilfe konnte ich das nur bis zu den unteren vier Mosfets nachverfolgen und wusste dann nicht weiter. Mehr durch Zufall habe ich dann ein Video gefunden, in dem jemand einen Mosfet auf einer EVGA 980 TI tauscht. Die vom PCB ziemlich identisch ist mit meiner Titan X. Das Video war sehr hilfreich (wenn auch sehr verwackelt), da dort erklärt wird, wie man herausfinden kann, welcher Mosfet schuld ist. Nach dem ich den Mosfet ausgelötet hatte, war der Kurzschluss schonmal weg. Den neuen Mosfet habe ich bei Digikey bestellt und gestern eingelötet. Nachdem ich nochmal überprüft habe, dass ich keinen Kurzschluss verursacht habe konnte ich die Karte testen. Sofort kam ein Bild - jedoch ging der PC aus, sobald ich einen Benchmark gestartet habe. Die Phase an der ich gearbeitet hab startete nicht. Ein paar der winzigen Kontakte rings um den Mosfet hatten sich beim Löten nicht richtig verbunden. Ich habe den Lötprozess bestimmt 20 Mal wiederholt, bis heute endlich die Karte stabil durch den Benchmark lief. Eine längere Zeit im Benchmark und eine kleine Runde Red Dead Redemption 2 später läuft die Karte immer noch ohne Probleme. Hier kann man beim untersten Mosfet Lötzinn an der Seite sehen. Das ist ein Indiz dafür, dass das der defekte Baustein ist. Durch das erhitzen beim Kurzschluss ist das Lot flüssig geworden und an der Seite ausgetreten. (Erklärung aus dem Video) Hier habe ich den Bereich um den defekten Mosfet abgeklebt, um keine anderen Teile mit abzulöten. Bei meinem Mosfet konnte man auch wie im Video den Kurzschluss zwischen zwei der großen Pads auf der Unterseite messen. Und hier haben wir den neuen Mosfet.
    6 Punkte
  11. Hallo zusammen. Auf Nachfrage erstelle ich nochmal eine kurze Anleitung wie man seine Grafikkarte richtig einstellt, wenn man sich entschlossen hat ein unlocked vBios zu flashen. Ich werde das alles am Beispiel meiner 980m's erklären. Die Werte, die ich einstelle, sind nicht gemeingültig und funktionieren nicht bei allen Karten gleich. Wichtig: Ich übernehme (wie immer) keine Haftung. Das soll nur ein Leitfaden sein. Wenn man sich mit dem Thema unlocked vBios und OC beschäftigt muss einem auch klar sein, dass man damit ein gewisses Risiko eingeht. Das unlocked vBios: Dazu wie man überhaupt ein vBios auf seine Karte bekommt verweise ich auf meinen Thread den ich vor ein paar Tagen erstellt habe. Bei einem unlocked vBios sind (wie der Name schon vermuten lässt) die Grenzen freigeschaltet. Das betrifft Spannung, Takt, Speicher-Takt, Leistungsaufnahme und Temperaturlimit. Außerdem kann es sein, dass ein unlocked vBios standardmäßig einen anderen Takt bei einer anderen Spannung anlegt als mit den normalen vBios. Daher kann es dazu kommen, dass die Karte garnicht von Anfang an lauffähig ist, bzw. unter Last crashed. Um diese Einstellungen soll es in diesem Thread gehen. Was brauche ich dafür? Software Nvidia Inspector Windows Aufgabenplanung Furmark Ich erkläre hier am Beispiel des Nvidia Inspectors. Das ist die Oberfläche die ihr (so oder so ähnlich) seht, wenn ihr ein unlocked vBios geflashed habt. Eine 980m taktet normal mit 1128MHz. Bei Default Clock steht hier 1202MHz. Das ist die Übertaktung, die das vBios mitbringt. Um also ein Profil ohne Übertaktung zu haben musste ich um 75MHz nach unten korrigieren (gelb markiert). Auch das Powerlimit habe ich angehoben, damit die Karte nicht mehr drosselt. Gleichzeitig läuft die Karte im P0 (also höchster Power-State) bei dem vBios nur mit 1,000V was für meine Karten ebenfalls zuwenig ist. Ich musste um 0,025V erhöhen. Mit diesen Einstellung habe ich einen stabiles System. Wie finde ich die richtigen Einstellungen? Mithilfe des Furmark-Stresstests kann man sein Karte auslasten. Wenn man noch garnicht weiß wie sich die Karte verhält, testet man den Standardtakt der Karte. Den findet man ganz gut bei Notebookcheck heraus. Friert der Bildschirm ein oder stürzt der Rechner ab erhöht man die Spannung um 12,5mV (kleinster Schritt) und testet erneut. Diesen Vorgang wiederholt man so lange bis man die richtige Spannung gefunden hat und das System stabil läuft. Kommt man irgendwann bei 100mV mehr an und es läuft immer noch nichts wie es soll, dann ist noch was anderes nicht richtig (Treiber oder so). Wenn die Einstellungen im Furmark funktionieren heißt es jedoch nicht, dass sie überall funktionieren. Also testet man am besten mit einem grafisch anspruchsvollen Spiel und das über eine lange Zeit. Alternativ kann man auch den Stabilitätstest von 3D-Mark dafür nutzen. Wie übertakte ich? Das kann man in einem Wort zusammenfassen: LANGSAM Beim übertakten tastet man sich vorsichtig höher. Sprich man erhöht den Takt vorsichtig (ich mache maximal 10MHz Schritte) und erhöht dann die Spannung bis das System wieder stabil ist. Dann folgt der Langzeittest. Wenn das System weiter stabil bleibt und die Temperaturen noch niedrig sind kann man noch weiter erhöhen. Ich persönlich habe meine Wohlfühltemperatur der GPU's bei max. 80°C. Mehr möchte ich nicht haben. Ist aber jedem seine Sache. Kann ich Profile anlegen? Ja, man kann sich Profile erstellen. Dafür eignet sich der Nvidia Inspector recht gut, da man die Anwendung einfach mit anderen Attributen aufrufen kann. In meinem Fall habe ich eine Windows Aufgabe erstellt, die beim Systemstart den Nvidia Inspector öffnet und zwar mit folgenden Attributen: -setBaseClockOffset:0,0,-75 -setMemoryClockOffset:0,0,0 -setVoltageOffset:0,0,25000 -setPowerTarget:0,130 -setTempTarget:0,1,90 -setBaseClockOffset:1,0,-75 -setMemoryClockOffset:1,0,0 -setVoltageOffset:1,0,50000 -setPowerTarget:1,130 -setTempTarget:1,1,90 "-" Leitet ein neues Attribut ein. "set...." Ist der Wert den man setzen möchte "x,y,z" Die erste Ziffer steht für die Karte (bei nicht SLI-Systemen also immer 0). "x,y,z" Die zweite Ziffer steht steht für einen gesetzten Haken. In meinem Fall also nur bei Priorize Temperature 1, ansonsten 0. "x,y,z" Der dritte Wert ist der Wert den ihr einstellen wollt. Der Reihenfolge nach also in: MHz (Offset), MHz (Offset), mV (Offset), % (Absolut), °C (Absolut) Mit Hilfe der Windows Aufgabenplanung werden meine Karten stabil und ohne OC eingestellt und zwar bei jedem Systemstart ohne dass ich das bemerke. Um die Karte jetzt aktiv hochzutakten habe ich mit Makrotasten im AW-CC angelegt. Nach dem gleichen Prinzip wie in der Aufgabenplanung nur mit straffer abgestimmten Werten. Ich hoffe meine kleine Anleitung kann dem einen oder anderen helfen. @bluedragon Ich hoffe du kommst mit dieser Anleitung etwas weiter. Falls du noch fragen hast bitte gleich mit HWiNFO Log hier dazu schreiben. Dann können auch andere davon profitieren.
    6 Punkte
  12. So, habe mein m17 R4 ja bekommen und es die letzten wenigen Stunden getestet. Soviel vorab: ich hab keinerlei Motivation, das Ding nochmal anzuschalten. Leider muss ich es ja noch zurücksetzen, werde mich dann jedoch in einem anderen Raum aufhalten... Außerdem werde ich euch noch den Gefallen tun, und testen, was ein U3 Kühler (im stillen Lüfter-Profil) bringt. Hierfür werde ich wohl Cyberpunk 2077 testen (CPU- und GPU-anfordernd) und entsprechend vergleichen. Ich poste das Ergebnis dann im U3-Kühler-Thread. Lüfter: Grauenhaft. Wie erwartet viel zu hochfrequent. Ungefähr so wie beim Razer Blade 17. Aber selbst einige von euch finden das ja nicht in Ordnung, ich bin also - zumindest an der Stelle - nicht überempfindlich. Das ist auch kein Problem einzelner Geräte, die Lüfter hören sich halt so an. Für mich fast typisch für so flache Notebook. Beim Razer z.B. hab ich zwei oder drei Stück getestet, um ein Montagsmodell auszuschließen. Selbst mit eigener Lüfter-Steuerung bei z.B. maximalen 2.000 RPM wären die Lüfter immernoch viel zu schlecht. Man hört ja bereits so schon, dass das unangenehme Geräusch auch bei niedrigen Drehzahlen vorhanden ist. Und ganz hohe Drehzahlen kommen für mich grundsätzlich nicht infrage, auch wenn dort nur ein Rauschen vorhanden wäre (laut ist es dann trotzdem). Und die Temperaturen sind bereits schon zu hoch - für eine Reduktion der Lüfter-Drehzahl ist eh kein Spielraum vorhanden. Leistung & Temperatur Eigentlich wollte ich mehrere Spiele testen, aber ein fünfminütiger Lauf von Cyberpunk 2077 in 1920x1080px hat mir schon verraten, dass die CPU sehr heiß läuft und auch zum Throtteln beginnt (mit -100mv). Mal zum Vergleich: m17 R4: Die CPU throttelt bereits nach kurzem auf 2,9-3,0 GHz bei allen 8 Kernen, da nach kurzer Zeit eben 100 Grad erreicht werden. Die Lüfter laufen hierbei 2500/2300 RPM (Lüfter-Profil Still). Es liegen ca. 25W an. Im Lüfter-Profil "Ausglichen" (schon ordentlich laut) steigt der Verbrauch auf über 50W, dann liegen 3,8-3,9 GHz an. Wie also schon von mir vermutet, und auch beim R2 gewesen, wird die CPU im Lüfter-Profil Still ordentlich kastriert. Die GPU läuft aufgrund eines 79 Grad Temperatur-Limits ebenfalls mit 100-200 MHz weniger Takt (geht bis 1.515 MHz runter) als im Profil Ausgeglichen. Die CPU-Temperatur im Profil Ausgeglichen und 3,8-3,9 GHz liegt bei 90-95 Grad. Ich hatte ihn etwas hochgebockt. Im Lüfter-Profil Still ist die Temperatur nach eingesetztem Throttling auf nur 2,9-3,0 GHz / 25W etwas geringer. Area 51m R1: Die CPU läuft ohne Throttling auf 4,7 GHz (bis zu 62% mehr Takt) auf allen 8 Kernen, Temperatur pendelt sich hier auch bei 90-95 Grad ein, aber mit eigener Lüfter-Steuerung bzw. sehr leisen 2000/2000 RPM (!). Bei dem Standard-Lüfter-Profil Still, also ohne Mods, wäre die Temperatur natürlich geringer (8X Grad). Und wenn ich die CPU auf 8x4,2 GHz (analog zum m17 R4) runtertakten würde, würden wir wohl von 6X-7X Grad sprechen. Das sind dann 20-30 Grad Unterschied. Der Verbrauch bei 4,7 GHz liegt bei um die 100 Watt. Wie beim m17 R4 liegen auch beim Area 51m -100mv an (eigentlich sogar nur -75mv). Wichtig: die Tests liefen nur wenige Minuten. Bei stundenlangen Spielen wird das Throttling einsetzen bzw. sich verschärfen. Beim Area 51m hat man etwas Spielraum, beim m17 R4 eben nicht. Ja, Cyberpunk 2077 ist für die CPU wirklich ein Hardcore-Test, die meisten Spiele benötigen weniger CPU-Last/Verbrauch. Aber solche Spiele müssen ja auch sein. Ja, das Area 51m R1 ist dicker und schwerer bzw. ein Desktop-Replacement, der Unterschied ist aber dennoch größer als gedacht. Ja, in lauteren Lüfter-Profilen ist ja das Throttling beim m17 R4 weniger bis gar nicht mehr der Fall, aber selbst das stille Lüfter-Profil ist eben auch schon fürchterlich piepsig und laut. Und das die 3080 gut ist und entsprechend schneller als eine 2080 ist, braucht man denke ich nicht zu vertiefen. Wäre ja auch schlimm wenn nicht. Habe ich jetzt gar nicht erst getestet bzw. genauer miteinander verglichen. Entsprechende Benchmark-Tests haben ja schon andere gemacht. In einigen Spielen wird man mit dem m17 R4 durch die deutlich geringere CPU-Leistung dennoch mehr fps-drops und weniger min-fps als mit dem Area 51m R1 mit 2080 haben. Die GPU-Leistung alleine ist in vielen und immer mehr Spielen nicht entscheidend, das Zusammenspiel von CPU und GPU ist wichtig. Konkretes Beispiel: in Cyberpunk 2077 hab ich in der belebten Stadt mit dem Area 51m/2080 etwas mehr fps als mit dem m17 R4/3080. 😉 Ich wollte eigentlich aufwendigere Vergleichstests machen, aber bitte erwartet das nicht mehr von mir, ich halte es keine weiteren 5 Minuten mehr vor dem Teil aus, auch nicht im Profil Still oder im Idle, die Lüfter sind einfach auf jeder Stufe grauenhaft. Mein Fazit für das m17 R4: überraschend schwer (Gewicht), hatte ich nicht erwartet egal auf welcher Stufe die Lüfter laufen, sie sind immer viel zu hochfrequent selbst wenn die Charakteristik der Lüfter auf niedriger Drehzahl gut wäre: Lüfter leiser machen mit eigener Lüfter-Steuerung ist aufgrund der hohen Temperaturen nicht drinnen CPU-Leistung relativ schwach fürs Jahr 2021, und starkes Throttling ist im stillen Lüfter-Profil in vielen Situationen normal (2,9-3 GHz bei Cyberpunk 2077). wen ein dickeres/schwereres Area 51m (vielleicht bald R3 mit 3080) nicht stört, der kriegt hier was ganz anderes geboten. Das m17 R4 macht vieles deutlich schlechter, nur um ca. 34% dünner und ca. 36% leichter als ein Area 51m zu sein. Für mich persönlich einfach ein schlechter Tausch beziehungsweise ein schlechtes Verhältnis Dann noch meine Meinung zum Abkleben der Lüfter: Schön, wenn es was bringt. Dann auf jeden Fall machen. Ich glaube aber nicht, dass man damit den Großteil des hochfrequenten Geräusches wegbekommt. Etwas angenehmer glaube ich aber sofort. Außerdem braucht man für einigermaßen CPU-Leistung dann immernoch ein schnelleres Lüfter-Profil als Still. Es ist also für einige und vorallem für mich dann dennoch allgemein viel zu laut. Dann noch meine Meinung zur Aussage, dass das Area 51m zwei Netzteile braucht: Mit einem Mod braucht es nur noch ein Netzteil. Und für 30 Euro oder so kann man sich die beiden power jacks (dc in) als Ersatzteil hinlegen und wieder bei Verkauf zurückrüsten. Bei Reparatur / Techniker-Einsatz braucht man das gar nicht mal machen (ich spreche aus Erfahrung). Jetzt sagt ihr vielleicht, dass das ja ein Eingriff ist, den kaum jemand machen will: ja, aber ein LM-Repaste ist meiner Meinung nach ein vergleichbarer Eingriff. Dort könnte man sogar langfristig Spuren hinterlassen, bei dem Netzteil-Mod nicht.
    6 Punkte
  13. Servus aus dem Allgäu, da mir da Forum und ihr als Mitglieder bisher viel wichtige Infos geschenkt habt wollte ich jetzt meine Erfahrung und Werte ebenfalls mitteilen. Vieleicht hilft es jemandem bei der Entscheidung ob m17 oder nicht. Meine Werte als Bilder: mit der Konfig i9 und RTX 3070 bekommt man das 240 Watt Netzteil geliefert der i9, wie im geteilten Benchmark, lief mit UV und veränderten Turbo Ratio Limits in Throttlestop die GPU wurde mit +100 Core und +200 Memory im MSI Afterburner betrieben die Stabilität des Systems wurde mit AIDA64 Stresstest und 3dMark Dauertest gestern getestet und es lief ohne Probleme es wurden die Standardtreiber von Dell vom Auslieferungszustand verwendet Für die Lüfter nutze ich die "Glatte Linie" Funktion im ACC ab 70 bis 100 Grad Die GPU wird aber nur zum Spielen mit OC betrieben, im Alltag läuft sie mit den Standardwerten das Laptop steht auf einer IcyBox Halterung und hängt an einem VESA400 Arm in der Luft Meine Erfahrung: Ich hatte bisher ein Surface Book 2 15 und der Lüfter war fast genau so laut nach meinem Empfinden die pfeifenden, hundpfeife-ähnlichen, Lüftergeräusche gibt es bei mir definitiv nicht Die Tastatur ist super, ich mag sie. Sie ist weicher im Druck wie eine Logi MX Keys oder der MS Surface Tastatur die Verarbeitung ist einem Premiumprodukt angemessen im Idle ist der Lüfter kaum wahrzunehmen oder ganz aus das 4k Display ist super in der Bildqualität UV ist beim i9 nötig wenn man mehr Performance haben will Wieso i9 und 3070? Es wird, neben gelegentlichem Spielen, viel für Content Creation für Fotos und Texte genutzt sowie auch öfters bewegt. Daher sind kleineres Netzteil, 17 Zoll und weniger Grafikpower ein guter Mittelweg gewesen. Falls jemand noch mehr Werte braucht oder was wissen will einfach Fragen. Ich melde mich dann bei euch.
    6 Punkte
  14. Ich feiere gerade ein wenig Da gibt wieder Kunden, die nicht warten können und gerade zu betteln nVidia das Geld in den Halz zu stecken (Stundenlang im Webshop F5 drücken) und dann ist es wie es immer ist, die ersten Versionen eines Produktes haben eben noch Kinderkrankheiten oder sogar größere Probleme. Und dann wird geheult. Ich lebe immer sehr gut damit ein wenig zu warten und dann ein ausgereifteres Produkt für einen angemessenen Preis zu kaufen. Sorry wenn ich hier provoziere, aber es lohnt sich drüber nachzudenken. P.S.: Für diese tollen und kreativen Beitrag erwarte ich mindestens 6 Likes
    6 Punkte
  15. Hallo zusammen, jetzt ist es endlich so weit. Gestern sind die Platinen angekommen und ich habe mich gleich ans löten und programmieren gemacht. Ich muss sagen ich bin mit dem Resultat sehr zufrieden. Dank des jetzt verbauten Oszillators ist die PWM-Frequenz nicht mehr zu hören. Heute habe ich mit dem Einbau in meinen 18er begonnen. Ich bin noch nicht ganz fertig aber es ist schon funktional. In dem Moment in dem ich das schreibe laufen alle drei Lüfter gleichmäßig und leise. Zuerst habe ich die Temperatursensoren an meinen Kühlkörpern abgebracht. Bei der Auswahl der Sensorposition sollte darauf geachtet werden, den Sensor möglichst dich am DIE zu positionieren, um keine verfälschten Ergebnisse zu erhalten. Wichtig: Der Kühlkörper ist auf Masse des Notebooks gelegt. Also muss man penibel darauf achten, dass der Sensor gut isoliert ist. Zur Befestigung und Isolation habe ich einen Wärmeleitkleber von "silverbead" benutzt. Die Leitungen konnte ich bequem beim Festplattenkäfig nach unten führen. Wie auf folgenden Bildern zu sehen ist habe ich, die von @Sk0b0ld vorgeschlagene, Plug&Play Lösung umgesetzt. Mit einem einfachen Steckersystem Kann jetzt die Platine mit den Laptoplüftern verbunden werden. Es muss nichts am Laptop durchgeknippst oder gelötet werden. Im eingebauten Zustand: Was jetzt noch fehlt sind die Stecker, um die Platine mit samt Lüftern aus den Anschlüssen auf dem Mainboard mit Strom zu versorgen. Aktuell hängt das ganze an einem USB-Port, was zwar funktioniert aber nicht sehr gut aussieht. Die Platine soll bei mir in einen freien Slot des HDD-Käfigs. Eine entsprechende Halterung werde ich mit dem 3D-Drucker fertigen. Davon mache ich natürlich auch nochmal ein paar Bilder. Auch ein Potentiometer ist auf der Platine vorbereitet. Das muss ich aber noch programmieren. Ich hatte noch keine Zeit ausgiebig zu testen aber meine ersten Eindrücke sind ziemlich positiv. Ein paar kleine CPU und GPU Benchmarks habe ich auch schon laufen lassen. Vor allem fällt auf die leise der Laptop geworden ist. Im Leerlauf sind die Lüfter leiser als die HDD und nur zu hören, wenn man das Ohr an den Laptop legt. Diese langsame Drehzahl reicht aus um sowohl CPU als auch GPUs bei ca. 44°C zu halten (Vorher: 50-55°C). Wird der Rechner kurzzeitig belastet (Start eines anspruchsvollen Programms oder kompilieren eines kleineren Codes) dann reagieren die Lüfter kaum. Vorher war immer ein nerviges hochdrehen in dem Moment in dem die Last angelegt wird. Da der Kühlkörper bei so einer kurzen Beanspruchung kaum wärmer wird, reagieren auch die Lüfter sehr entspannt. Auch das hoch- und runterdrehen der Lüfter erfolgt quasi Stufenlos und ist somit subjektiv empfunden leiser. Besonders auf die Grafikkarten hat die neue Lüfterregelung einen sehr positiven Effekt, da sie durch den größeren Kühlkörper (im Vergleich zur CPU) eine größere thermische Trägheit besitzen. Die Handhabung des Programms ist verhältnismäßig einfach und mit Anleitung auf für die zu verstehen, die nicht programmieren können. In der "fanTable" Datei könne so viele Tabellen angelegt werden wie man möchte. Die kleinste Auflösung liegt bei 1°C. Also kann man für 0°C - 100°C auch 100 verschiedene Lüfterkurven anlegen. Oder man benutzt meine Linearisierungsfunktion, um die Zwischenräume bequem mit passenden Werten zu füllen. So läuft der Lüfter immer sanft hoch ohne nervige Drehzahlsprünge. Falls es jemanden gibt, der Interesse an dieser Platine hat, gern bei mir melden. Die reinen Bauteilkosten belaufen sich auf ca. 10€ (genau muss ich das dann nochmal nachrechnen). Das Programm und die CAD-Daten der Platine würde ich auch kostenlos zur Verfügung stellen. Zum Thema, wie man die Platine bestückt und programmiert, würde ich bei Zeiten und Interesse nochmal eine Anleitung schreiben. Lasst mich bitte wissen, wie ihr die Version 2 findet.
    6 Punkte
  16. So sieht das unter performance im BIOS bei mir aus Hier noch mein Score mit den Settings von oben und im Overdrive Modus (AWCC). Bitte beachte aber, das ich komplett auf richtiges Liquid Metal gewechselt habe auf CPU und GPU. Hier noch der Score mit dem Performance/Leistung Modus im AWCC: Hier noch ein TS mit zusätzlich 250/1000Mhz OC auf GPU:
    5 Punkte
  17. Das habe ich nicht probiert, ich musste irgendwann mal meine custom Settings laden und dann habe ich OC wieder aktiviert und den UV eingestellt. Bisher läuft das m18 astrein und am stärksten von allen von mir getesteten RTX4000er Notebooks. Ich weiß nicht ob es an Alienware liegt, aber hier steht Gaming im Fokus und das merkt man. Es funktioniert einfach Repaste kann sicherlich noch mehr rausholen, aber nicht zwingend notwendig. Sehr positiv überrascht bin ich tatsächlich vom Sound und von den Lüftern. Wenn ich mir was wünschen dürfte dann wäre es die Displayqualität aus dem Blade 16 und das Farbdesign vom X17/Area51m Ansonsten alles Top 👍🏻
    5 Punkte
  18. Wenn du den nach Deutschland bringst wird Einfuhrumsatzsteuer fällig. Ich glaube kaum das sich das dann rechnet wenn noch mal 19% drauf kommen. ,,Überschreitet eine Ware die Freigrenze, etwa ein Notebook für 850 Euro, musst Du 850 Euro verzollen. Die Einfuhrabgaben sind auf den Gesamtwert der Ware zu bezahlen und nicht nur auf den Anteil, der die Freigrenze übersteigt.,, https://www.finanztip.de/einfuhrzoll/ Klar könnte man behaupten das man das Ding vor der Reise gekauft hat aber erkläre dann mal die QWERTY Tastatur. Doof sind die ja auch nicht und: ,,Befinden sich nach Abzug des Freibetrags Waren für mehr als 700 Euro im Gepäck und werten die Behörden das Verhalten als nicht nur leichtfertig, leiten die Zöllner in der Regel ein Strafverfahren wegen versuchter Steuerhinterziehung ein.,, Auf einen Versuch würde ich es nicht ankommen lassen. Wäre mir zu viel HickHack und potentielles Theater, seis wegen Zoll oder Garantie.
    5 Punkte
  19. Egal wie früh du nach News schaust, pitha schaut früher!😂😉😎
    5 Punkte
  20. Moin, ich bin neu hier im Forum. Eigentlich wollte ich mich letztes Jahr schon bei Euch anmelden, nachdem ich den Aurora R11 zum Geburtstag geschenkt bekommen hatte. Hier nochmal ein kurzer Hinweis für die Admins. Bei einer neu Registrierung kann ich nur ältere Alienware Rechner auswählen. Der R11 oder auch mein jetziger Rechner, der R13 ist leider nicht mit auswählbar, das nur kurz zur Info Nun zum eigentlichen Thema. Ich bin seit Anfang Januar 22 stolzer Besitzer eines Aurora R13 mit folgender Config: Aurora R13 mit Kyro Tech + Seitenfenster und zusätzlicher Seitenabdeckung I9-12900KF 32GB DDR5 mit 4400 MHz Geforce RTX 3080 LHR 750 Watt Netzteil Eigentlich war ich letztes Jahr bereits mit dem R11 unzufrieden. Permanente Throttling Probleme durch Überhitzung der CPU (I7-10700 KF) machten mir zu schaffen und war kurzzeitig am überlegen ob ich das ganze System wieder an Dell zurücksende. Durch den Engpass der Grafikkarten hab ich mich aber dazu entschlossen das System zu behalten und habe jede Menge Arbeit reingesteckt um das System in den Griff zu bekommen. Dabei wurden jegliche Lüfter ausgetauscht, eine neue und bessere Wärmeleitpaste verwendet und die CPU "undervoltet", als auch entsprechend die Wattzahl bei TDP PL1 und 2 geändert. Seitdem läuft der Rechner recht zufriedenstellend. Nicht perfekt aber ok. Seit der Ankündigung des R13 war ich sofort verknallt. Für mich ist der R13 vom Design her einer der schönsten Computer die ich bisher gesehen habe und ich habe schon etliche gesehen (wie immer Geschmacksache). Ich bin 51 Jahre alt und habe mir über die Jahre meine PC's immer selber zusammengestellt und zusammengebaut. Ich bin mittlerweile aber auch faul geworden und durch die jetzige Marksituation interessieren mich Komplettsysteme mehr, da ich auch bei Dell bzw Alienware einen 3 Jahre Premium Support genieße (beim 11er sind es 2 Jahre). Wie dem auch sei, beim R11 musste ich durch den Lockdown letztes Jahr knapp 3 Monate auf die Lieferung warten und war überrascht das es beim R13 gerade mal 1 Woche gedauert hatte. Vom Bestellprozess bis zur Lieferung war das für Dell Verhältnisse Lichtgeschwindigkeit! Nun zum eigentlichen Feedback des Aurora's R13: Ich habe die Kiste auf der Dellseite mit gerade mal 3 von 5 Sternen bewertet, warum das ? Trotz der Kyro-Tech Lösung und des größeres Gehäuses + der 2 zusätzlichen Lüfter, habe ich das gleiche Problem wie damals mit dem R11. Das Ganze System drosselt in kürzester Zeit wenn R23 läuft, dabei wird der komplette Rechner so unerträglich laut (wie beim R11 nur noch ein tick lauter) das ich es kaum mehr am Arbeitsplatz aushalte und ich den Computer 2 Räume weiter immer noch als störend empfinde. Unglaublich aber war, Dell hat leider immer noch nichts dazu gelernt und ich bin mir sehr sicher, das der I9-12900KF völlig ungeeignet für eine 120mm AiO Kühlung ist. Vielleicht ist es beim I7-12700KF etwas anderes, aber ich kann den I9 für dieses System leider nicht empfehlen. Ich verstehe auch nicht, wie man so einen Computer auf den Markt schmeißen kann (da er ja sogar in Kooperation mit Intel entstanden ist und Intel für diesen auch Werbung macht). Der Dell Kundendienst ist hierbei auch mal wieder eine Katastrophe da die Mitarbeiter leider kein Plan haben. Außer ein zurücksenden oder Gutscheine für den nächsten Einkauf, können die einem nicht wirklich weiter helfen. Also was tun, zurücksenden ? nein...ich will und möchte den Rechner dennoch behalten und eigentlich bin ich auch ein alter Alienware Fanboy 😉 Was hab ich getan. Nun, das Gleiche wie damals mit dem R11. Als Wärmeleitpaste habe ich diesmal die Thermal Grizzly Kryonaut Extreme genommen und habe dadurch ca. 2 bis 3 Grad einsparen können. Auch die Lüfter habe ich mit den Noctua NF-A12x25 PWM chromax.black.swap getauscht. Hierbei eine kleine Info. Nicht die Noctua NF-A12x25 PWM in Braun nehmen, da beide Lüfter nicht zentriert im vorderen Gehäuse sitzen. Es sieht etwas dämlich aus, wenn man vorn auf dem Rechner sieht und 2 braune Lüfter durch Luken die nicht zentriert sitzen. Leider klappt das "Undervolting" mit ThrottleStop nicht mehr vernünftig unter Windows 11. Kein Plan warum, aber jedesmal wenn ich dort eine Einstellung vornehme läuft der komplette Rechner mit gefühlt 1Mhz und es hilft nur ein Reboot. Überhaupt ist Windows 11 bisher eine Vollkatastrophe. Ich frage mich welche Drogen bei Microsoft konsumiert werden. Viele Programme wie ThrottleStop (einer meiner wichtigsten Tools) funktionieren nicht mehr vernünftig und es liegt nicht am Tool, sondern an den Sicherheitseinstellungen von Windows 11. Spiele wie bspw Star Citizen liefen auf Win10 wesentlich weicher und flüssiger mit meinem R11 (wo ist der Performancesprung mit dem MS für Win11 seit Ewigkeiten wirbt ?). Die ganze Oberfläche ist sehr gewöhnungsbedürftig. Aber leider muss ich ja Win 11 nutzen um das volle Potenzial des I9 auszuschöpfen. Ich muss nun auf XTU zurückgreifen, da mir das AW Bios auch keine Möglichkeiten bietet, dass Throttling in den Griff zu bekommen (eigentlich ein Wahnwitz für ein System das knapp 4K kostet). Ich habe eine etwas aggressivere Einstellung in XTU eingestellt. Core Voltage Offset und die Performance/Efficient Cache Voltage Offsets habe ich mittlerweile auf -0,120 V und die CPU auf 125 Watt beschränkt. Im Boost für 56 Sekunden auf 190 Watt. Der Rechner läuft nun sauber und rund, wird nicht mehr so heiss und ist dadurch auch schön leise. So wie es eigentlich sein müsste. Aber nein, ich habe dadurch leider wieder heftigste Performance Einbußen. Im R23 kann ich zufrieden sein die 18K im Multi zu knacken. Hier übrigens mal ein Link zum Thread den ich direkt bei Intel gepostet habe, da mir Dell wie ich ja erwähnt habe, außer ein zurücksenden nicht weiterhelfen konnte. Der Thread ist leider in englisch und ich bin im englisch leider nicht so bewandert ...vielleicht interessiert es den ein oder anderen ja. https://community.intel.com/t5/Processors/INTEL-DIAGNOSTIC-TOOL-FAILING-Brand-String-CPUFreq/m-p/1356498/emcs_t/S2h8ZW1haWx8dG9waWNfc3Vic2NyaXB0aW9ufEtaNE5BTEg5UE5VWFFVfDEzNTY0OTh8U1VCU0NSSVBUSU9OU3xoSw#M56196 Lange Rede, kurzer Sinn...kann ich den Aurora R13 mit I9 empfehlen ? ganz klares NEIN! Dell hat außer dem schicken Design nichts dazu gelernt. Es werden immer noch Bauteile verbaut, die nicht wirklich zusammen passen. Dell wirbt nun, das durch die Größe des neuen Gehäuses nun die Möglichkeit besteht, in Zukunft bessere und längere Grafikkarten zu verbauen, was an sich ja auch ein cool und ein Sprung nach vorn ist. Nur was nutzt mir ein 750 Watt Netzteil wenn ich eine 3090TI einbauen möchte ? Facepalm
    5 Punkte
  21. Ich und die meisten User hier würden dir dringend davon abraten einen Desktop von Dell zu kaufen. Ich selbst wollte auch mal einen alienware Desktop kaufen. Ein area51 oder ein Aurora. Das im Aurora nur sehr kurze gpus rein passten hat mich zum glück davon abgehalten es zu kaufen. Ich hab mir dann ein System von Mindfactory zusammen bauen lassen mit meiner wunschkonfiguration für über 1000 Euro günstiger als ein vergleichbares Alienware Aurora. Die Nachteile des aurora welche mir gerade einfallen - billigste Materialen - zu teuer - schlechte Kühlung - zu kleines case für große gpus - schlechte Software - Sehr schlechte Leistung im vergleich zu denselben Komponenten in einem guten case. - zu laut Aber aktuell würde ich jetzt kein System mit 3070 kaufen 1,5 Jahre nach Release und noch über UvP.
    5 Punkte
  22. Alienware Aurora R13 eine riesen Enttäuschung Hallo liebe Community, ich hatte mich seit langer Zeit auf einen Alienware gefreut, also habe ich mir für viel Geld den neuen Aurora R13 gekauft. Leider ist das Gerät eine riesen Enttäuschung und wird auch mein letztes Gerät von Dell gewesen sein. Der PC ist laut und wird einfach nur extrem heiß 100° inklusiver CPU Drosselung (Streetfight Flüssigkeits Kühlung). Auch die groß angepriesene Cryotech Kühlung dürfte laut anderen Berichten und Aussage des Kundendienstes nicht ausreichend für dieses System sein. Selbst wenn Ihr später mal Teile wechseln wollt, könnt Ihr das nur bedingt, da Dell anscheinend nur Hauseigene Teile als Kompatibel ansieht und das BIOS sodermaßen abgespeckt und nutzlos ist, dass ihr dort wenig einstellen könnt. Ihr wollt die "Düsentriebwerks-Lüfter" tauschen? Reines Glücksspiel, durch Dells internes Überwachungssystem bekommt Ihr den Bios Fan Error. Ihr könnt keine Lüfter Ports deaktivieren oder freilassen ohne das dieser Fehler auftritt. Das Alienware Commandcenter ist eine Katastrophe und höchstens für die RGB Beleuchtung zu gebrauchen. Lüfterkurven könnt Ihr damit nicht vernünftig einstellen. XMP Profil ist im BIOS gesperrt, der Arbeitsspeicher ist auf 4400 MHZ begrenzt, obwohl er 4800 MHZ könnte. Wenn Ihr nicht von vornherein für 300€ die Cryokühlung und das Fensterseitenteil kauft, bekommt Ihr einen PC der innen nicht schwarz ist, sondern metallisch. Außerdem fehlt das Lightbar mit dem Schriftzug Alienware im Innengehäuse. Ein späteres Upgrade mit Dell-Teilen ist aber eh hinfällig da Ihr noch nicht mal DELL'S Hauseigene Teile nachkaufen könnt. Entweder sind diese nicht verfügbar oder der Kundendienst hat keine Ahnung wovon Ihr überhaut sprecht.... Fragen an die Fa. DELL: - Seit Jahren sind diese Probleme bekannt, vor allem die der starken Hitzeentwicklung, warum ändern Sie das nicht? - Wenn Sie ein neues Produkt designen, wird das überhaupt bei Ihnen getestet? - Ich erwarte als Endkunde von Ihnen ein Produkt mit dem ich Spaß habe und keins an dem ich selber basteln muss um z.B. Temperaturen in den Griff zubekommen. Und wenn Sie dem Kunden so ein schlecht designtes Produkt zusammenstellen finden Sie dann nicht, dass Sie dem Kunden die Freiheit lassen sollten simple Teile wie Lüfter durch hochwertigere Produkte als Ihre auszutauschen, ohne danach vor gravierenden Problemen zustehen? Bitte fügen Sie Ihrem System wenigstens die Möglichkeit hinzu, Lüfterports über das BIOS zu deaktivieren oder geben Sie uns eine Möglichkeit diese BIOS Fehlermeldungen auszublenden.... Sie würden vielen Kunden einen großen Gefallen tuen, mit nur solch kleinen Änderungen. Sie könnten dieses leicht über ein Update ermöglichen. FAZIT: Wenn man Premium Hersteller sein will, dann muss man es auch richtig machen! Ich bin sehr enttäuscht über meinen Einkauf bei Ihnen... Vielen Dank für Ihre Aufmerksamkeit. Habe diesen Text mal ins DELL Forum geschrieben. Vielleicht hilft es dem Ein oder Anderen bei der Entscheidungsfindung oder DELL ändert mal grundlegend etwas an Ihrem System. VON MIR GIBT ES FÜR DEN AURORA R13 EINEN DICKEN DAUMEN NACH UNTEN!
    5 Punkte
  23. Genau, das Mainboard hat eben keine ATX Maße und entsprechend sind Bohrungen und Dimensionen anders. selbst Anschlüsse der Stromversorgung sind eigenes Design. also müsste im fall eines Wechsels hier auch ein neues Netzteil eingeplant werden. Dann kann man besser bei dem bleiben, dass man hat. währe ein €-Grab. Der Controller Chip für die Spannungsversorgung ist ein "ON NCP81520" zu dem bekommt man nur relativ wenige infos. Mein Chinesisch ist aber auch nicht gerade das beste. du findest Ihn in der Ecke zwischen den Kühlern der CPU Stomversorgung. Ich habe ein kleines Video gemacht zum Thema Auspacken, erste Eindrücke und den Umbau der Lüfter.
    5 Punkte
  24. Hey, mein Rechner ist jetzt da aber ich lag lange mit einer Blöden Corona Infektion Flach. Ich habe den Rechner aber schon aufgebaut und habe ihn hier und da schon getestet. bevor er in betrieb genommen wurde, habe ich die Gehäuselüfter entfernt und sie gegen Noctua NF-A 12X25 ersetzt. Die sind echt sehr leise. Einzig der Lüfter am Radiator ist deutlich hörbar, sogar sehr deutlich. Die Pumpe selbst ist angenehm leise. Zu den ersten Ergebnissen. 3DMark Time Spy 18.954 P. CineBench R23 Multi 25.581 P. im geschlossenem Gehäuse und 1.856 P im Singel Die CPU Temperaturen gehen sehr schnell auf 90-93 grad im CineBench sodass ich erstmal alles Zerlegt habe und neue Wärmeleitpaste (MX4) aufgetragen habe. zumindest jetzt erreiche ich nur noch etwa 85 Grad im selben Benchmark jedoch ohne höhere Punktezahl. Zu erwarten sind wohl normalerweise etwa 27.500P im Multi. Hier Denke ich aber das Dell da einfach die Sicherheit sehr hoch geschrieben hat. Die CPU erreicht hier Maximal 231W selbst im LV2. Normalerweise ist der 12900KF auf 241W ausgelegt. Die Spannungsversorgung der CPU ist mit insgesamt 8 Phasen aber auch nicht gerade sehr gut. Reicht bestimmt aus aber Optimal sieht anders aus. Vergleichbare Boards von Asus und Co haben locker die doppelte Anzahl an Spannungswandlern. Lustig auch, dass der Spannungswandler Controller eigentlich für Notebooks verwendet wird. Ich muss mich mal mit dem Thema Manuelles OC im Bios auseinander Setzen. Die M2 SSD (2TB kommt als PCI-E 4 Version mit 4 Lanes und Schafft laut CrystalDiskMark 6513MB/s Read und 4997MB/s Write. Die Seagate Baracuda 2TB HDD schafft im Selben Test 204MB/s Read und 105MB/s Write. Zu der verbauten RTX 3090 kann man nichts sagen. Sie hat etwa die Leistung der Founders Edition jedoch lässt sich das Power Target nicht mal um einen Prozentpunkt anheben. Hier hat Dell eine Sperre eingebaut. Lustig auch das Thema RAM. Hier sind 2x 32GB DDR5 4800Mhz Cl38 verbaut. Das System begrenzt jedoch auf 4400Mhz und lässt sich auch nicht erhöhen. Die entsprechenden Funktionen im Bios sind ausgegraut oder gar nicht erst vorhanden. Der Ram selbst kommt von SK Hynix PC5 4800B. Weitere Lüfteranschlüsse sind ebenso wenig vorhanden wie zusätzliche Stromanschlüsse. Hier ist neben den beiden Stomanschlüssen für je eine HDD oben und eine SSD unten im Gehäuse, noch 2x 6+2Pin für Grafikkarten vorhanden. Jedoch bietet das Mainboard keine 2te PCI-E Schnittstelle für eine weitere Graka, noch das Gehäuse, hier ist direkt unter der RTX 3090 sofort das Netzteil zu finden. Ich erwarte heute noch eine Lieferung eines 92mm Noctua Lüfters (Noctua NF-A9x14 HS-PWM) den ich hinten am Gehäuse anbringen will und eine Push/Pull Configuration möglich machen soll. Dafür sieht das Gehäuse entsprechende Bohrlöcher hinter dem Radiator vor und über die Klappe mit der die Graka an dem Gehäuse gesichert wird lässt sich das PWM Kabel ins Gehäuse führen. Hier werde ich einfach ein Y-Kabel verwenden und entsprechend mit dem Push-Lüfter eine Einheit Bilden. Dann werden wir mal Sehen ob sich an den Temperaturen noch etwas machen lässt. Ich bin insgesamt etwas enttäuscht vom dem Gesamtkonzept, zumal das Mainboard sich nicht wechseln lässt ohne auf das Gehäuse zu verzichten, und die Kühlung der CPU, die sich als Stinknormale 120mm AIO herausgestellt hat deutlich unterdimensioniert ist für eine 241W CPU. Hier sieht man normalerweise 100W pro 120mm Kühlfläche MAXIMAL vor. Hier hätte also normalerweise eine 360mm AIO verbaut sein müssen um die Temperaturen in den Griff zu bekommen und das wird bestimmt auch einer der Gründe sein, warum die CPU "nur" 230W leistet und nur 8 Phasen für die Stromversorgung bekommt. Sobald die Push/Pull Configuration steht, melde ich mich wieder.
    5 Punkte
  25. System ist ins neue "Gehäuse" umgezogen. Selten so ein leises System gehabt 😁
    5 Punkte
  26. Hab mir für's Büro ein kleines Upgrade gegönnt. Folgende Specs sind verbaut: - AMD Ryzen-5 5600G (mit iGPU) - B550i Aorus Pro AX - Scythe Big Shuriken 3 (Low-Profil Kühler) - 16GB G.Skill Trident Z (2x 8GB) @ 3.800 MHz CL16-16-16-32 (Sam B-Die) - 2x m.2 NVMe Samsung 970 EvoPlus 500GB - 400w BeQuiet Pure Power 10 (80+ Gold) (war über) - Beleuchtung: Wingboost 3 aRGB Lüfter & Phantkes Halo für PSU - Zweckentfremdetes offenes DIY-Case Da ich die Hardware gerne sichtbar haben wollte, habe ich diesmal ein bewegliches und offenes DIY-Case gebastelt. Anfangs wollte ich ein Testbench (für ITX) oder sowas ähnliches holen, aber das fand ich einfach viel zu teuer. Das DIY-Case hat mich nur 28 € und wenig Bastel-Zeit gekostet. Das "Gehäuse" kann man ganz nach seinem Belieben einstellen, da die Scharniere alle beweglich sind: Ein wenig RGB durfte auch nicht fehlen, weswegen der Wingboost Lüfter noch oben drauf kam und ins Netzteil habe ich ein Halo-Ring verbaut. Normalerweise gehören die oben drauf, aber das sah bisschen unschön aus. Die Temperaturen sind natürlich Top und der 5600G ist wirklich fix unterwegs. Also die neuen APUs von AMD sind schon nicht übel. Wenn man Lust hat, könnte man eine GPU anschließen und hätte direkt ein fertiges Gaming-Rig.
    5 Punkte
  27. Hallo zusammen, nachdem die X17 Serie nun da ist wollte ich meine Erfahrungen und Updates geben wie es um den m17 R4 aktuell bei mir steht. Man landet ja bei der Suche nach 17 Zoll Gaming-Notebooks oft auch hier. Ich nutze den i9 und die RTX 3070 (beide Chips mit LM Repaste). Zusätzlich habe ich über den AGA Port eine 6900XT dran hängen seit ein paar Monaten und nutze ihn nahezu immer. Hier aktuelle Werte von Cinebench R23 und AWCC Fusion Custome Curve und Cinebench R23 mit Höchstleistung und TimeSpy mit AGA: Nachdem ich den AGA komplett auseinander genommen habe steckt der AGA aktuell in einem ITX Gehäuse inkl. einem PCIE16x Riserkabel ohne nennenswerten Performanceverlust. Da kommt bald ein kleines Projekt bei mir, in dem ich den AGA in einen Kasten stecken möchte um das Laptop oben drauf stellen zu können. Dann bin ich etwas mobiler. Das ITX Gehäuse ist viel zu dick für das, was SFX und Graka benötigen. Zusätzlich will ich 3 Noctua Lüfter verbauen damit ich einen AGA + Notebook-Kühler habe. Gerade wegen dem AGA ist der m17 mein Laptop geblieben. Ausreichend Power für unterwegs und eine geniale Option mit viel Power für zu Hause durch den AGA. AMD Radeon RX 6900 XT Grafikkarten Benchmark Resultat - Intel Core i9-10980HK Processor,Alienware Alienware m17 R4.pdf
    5 Punkte
  28. Hier mal das Win11 ISO + Workaround, so dass ihr es auf den meisten Systemen zum Laufen bekommt.
    5 Punkte
  29. @hysterix und @Nuestra Ihr wurdet von mehreren Usern bereits mehrfach gebeten, eure persönlichen Differenzen außerhalb der öffentlich einsehbaren Themen auszutragen. Dies ist eine offizielle, noch freundliche, Verwarnung. Wenn ihr eure Off-Topic Streitigkeiten nicht augenblicklich beilegt, werdet ihr aus disziplinarischen Gründen mit einer zeitlichen Postingsperre belegt, die sich bei weiterer Missachtung potenzieren wird.
    5 Punkte
  30. Boah Leute hört mit dem rumzicken auf...
    5 Punkte
  31. Servus Gemeinde, viele warten wahrscheinlich schon ungeduldig auf diese Zeilen. Es war mir jedoch wichtig, dass Gerät in aller Ruhe kennenzulernen und auf Herz und Nieren zu testen. Ich denke umso umfangreicher kann ich nun darüber berichten. Für den einen oder anderen wird es zu viel Text sein. Insbesondere der erste Teil ist für Alienware-unerfahrene, bzw. Neueinsteiger gedacht. Alte Hasen dagegen werden direkt zu den Graphen weiter unten springen Wie im Wartezimmer bereits kommuniziert, habe ich folgende Gerätekonfiguration vorliegen: Intel Core i7-10870H nVidia RTX 3070 mobile 32 GB DDR4 1TB NVMe (Dell verbaut eine Western Digital PC SN730) 4K OLED Display inkl. Tobii Unboxing Das Gerät kommt in einem recht schnörkellosen Karton daher und beinhaltet neben dem Gerät - welches bei mir kopfüber verstaut war - lediglich das Netzteil (inkl. Schuko Netzkabel) und ganz wenig Papierbeiwerk in Form eines schlecht zurecht geschnittenen Willkommensschreiben und den gesetzlich notwendigen Garantiebestimmungen. That's it! Besitzer älterer Geräte werden mir beipflichten, wie sehr man sich auch über die Beigaben á la Alienware Mousepad, Aufkleber, Tastaturschutzstoff !und vor allem die Stoffhülle gefreut hat, in der man den Alien vor einer Reise immer verstaut hat. Ich kann mich noch an Zeiten erinnern, da gab es ein reges Handelsgeschäft um diese Hüllen ... Ich denke zur Bauhöhe, respektive flachen Bauweise, brauche ich nicht viele Worte verlieren. Ich war seinerzeit schon begeistert als ich mit dem AW 15 R1 das All Powerful M17X R3 ersetzt habe. Aber die erneute Dickenabnahme ist schon äußerst bemerkenswert! Design und Verarbeitung Über die Jahre habe ich viele Aliens in der Hand gehabt und mit jeder Generation, die ich selbst besessen habe, wurde die Verarbeitungsqualität besser. Das m15 R4 macht dahingehend eine Ausnahme, da es mit diesem Trend bricht und das Niveau eher aufrechterhält. Im direkten Vergleich zu meinem zu ersetzenden Alienware 15 R1 muss man aber auch festhalten, dass das Gehäuse einen deutlich komplexeren Aufbau besitzt. Einerseits muss sich das Display mit seiner eingerückten Aufhängung bedeutend umständlicher in das Gesamtwerk fügen, andererseits konnte sich das 4K Display des R1 hinter der vorgesetzten Makrolonscheibe viel dezenter "verstecken". Im Großen und Ganzen bin ich aber mit der Verarbeitung zufrieden. Auch die weiße Gehäusevariante "Lunar White" wirkt in Natura besser als auf den zahlreichen Abbildungen im Netz. Ich hoffe jedoch, dass der explizit von Dell beworbene Klarlack tatsächlich so beständig ist. First Power On Die erste Schrecksekunde ereilte mich, als ich zum ersten Male vergeblich versuchte dem Alien Leben einzuhauchen. Das Werk hat das Gerät doch tatsächlich mit einem leeren Akku auf Reisen geschickt?! Ich war immer der Auffassung, dass Akkus auch bei Neugeräten zwischen 20% und 30% vorgeladen wären. Jedenfalls gelang mir der First Power On erst beim zweiten Anlauf und mit angeschlossenem Netzteil, welches btw. in vorliegender Konfiguration in der 240W Ausführung ausgeliefert wird. Ich konnte das Gerät das erste Mal in den Abendstunden booten und ich wurde regelrecht geblendet. Der blaue Hintergrund der Windows Ersteinrichtung in leuchtintensiven 400 cd/m² hat mich fast vom Sofa geworfen. Ich will mir gar nicht ausmalen wie krass dann erst die 500 cd/m² des UHD Displays des m17 R4 sein müssen. Braucht man hier dann schon eine Sonnenbrille? Die Farbdarstellung ist definitiv über alle Zweifel erhaben. Hier stellt sich sofort ein Aha-Effekt ein. Bereits der Alienware POST-Screen auf dem satt schwarzen Hintergrund. Boah, was ein Kontrast und wie die weißen Buchstaben messerscharf voneinander abgetrennt sind. Selbst das Windows 10, was man sich vermeintlich schon sattgesehen haben müsste, wirkt viel lebendiger. Das Oled Display wird automatisch mit Tobii Eye-Tracking ausgestattet. Über den Mehrwert lässt sich definitiv streiten beziehungsweise stellen sich eine ganze Reiche von Fragen. Warum gibt es das nur in dieser Konfig? Warum lässt sich das nicht abwählen? Letztendlich ist es wieder eine der Sachen, die dem Kunden aufgezwungen wird und die sich damit in die Liste fragwürdiger Gegebenheiten einreiht, wie z.B. Gehäusefarbe in Abhängigkeit von der Konfiguration, All-Key RGB Tastatur nur als QWERTY etc. p.p. An ein neckisches Feature habe ich mich dennoch schon gewöhnt. Nämlich die automatische Displayabdunklung, wenn man sich von dem Gerät entfernt (bzw. wenn Tobii die Augen aus dem Fokus verliert) und umgekehrt, wenn man wieder an den Platz zurück kommt. Das klappt erstaunlich gut und ich habe bisher noch kein Fehlverhalten registriert. Ich denke ich werde auch mal ein Game ausprobieren, welches mit Tobii Features wirbt. Bisher hatte ich aber noch Keines im Testparcours. Vorinstallierte Software und Alienware Command Center Glücklicherweise sind auch die heutigen Alienware Neuauslieferungen frei von Bloatware und die Betriebssysteminstallation recht sauber gehalten, weshalb man sich nicht zwingend verpflichtet fühlen muss, das OS direkt neu aufzusetzen. Dennoch muss man sagen, dass die Anzahl an Alienware gebrandeter Software - bzw. Apps - deutlich zugenommen hat, worunter auch sinnloser Murks á la "Alienware Customer Connect" zählen dürfte. Und ob "Alienware Mobile Connect" eine große Fangemeinde findet, wage ich auch zu bezweifeln. Das Hauptaugenmerk liegt denke ich zweifelsohne auf dem mittlerweile ziemlich wuchtig geratenen "Alienware Command Center". Spätestens seit Einführung der AlienFX Christbaumbeleuchtung, ist diese Software die Kommandozentrale eines jedes Aliens. Umso eher sollte man sich doch darauf stützen können, dass diese ordentlich funktioniert. Aber leider ist dem weit gefehlt! Wenn man mal den Umstand außer Acht lässt, dass man in der Vergangenheit bereits mehrfach die Chance verpasst hat eine einheitliche, konsistente Software über viele Gerätegenerationen hinweg aufzubauen, so ärgert es umso mehr, wenn augenscheinlich gut gedachte Funktionen nicht das tun, was sie sollen ... oder nur sehr widerwillig. Bspw. ist die Möglichkeit aus verschiedenen Lüfterprofilen zu wählen (und auch eigene zu definieren) erst seit wenigen Jahren Bestandteil des Command Centers. Ich besitze jetzt zum ersten Mal ein damit kompatibles Gerät und habe erst wenige eigene Erfahrungen sammeln können (fern der vielen Berichte hier im Forum). Aber unter diesen Wenigen sind bereits ziemlich schwerwiegende Missstände zu vermelden. Anfangs habe ich im Office Betrieb das Profil "Still" ausgewählt gehabt und war damit sehr zufrieden, da die Lüfter, wenn sie denn anliefen, nur bis 30% aufdrehten, was nur wahrnehmbar ist, wenn es keine weitere Geräuschquelle in unmittelbarer Nähe gibt. Plötzlich und ohne ersichtlichen Grund drehten sie jedoch auf, als würde im Hintergrund eine sehr leistungsbeanspruchende Anwendung ausgeführt werden, was aber nicht der Fall war (Beweis war im Taskmanager ersichtlich). Gegen kurzzeitig ansteigende Lüfter habe ich nichts. Aber wenn sie auf der hohen RPM-Stufe verharren, ist es nervtötend. Interessanterweise konnte man die Lüfter nur bändigen, wenn man auf ein anderes Lüfterprofil - z.B. "Ausgeglichen" - wechselte. Insgesamt ist mir das so 2 oder gar 3 mal untergekommen. Ebenfalls mehrfach aufgefallen ist mir, dass die automatische Profilauswahl nicht ordentlich arbeitet. Wenn im Command Center Spiele verknüpft sind und das Profil "Leistung" zugewiesen ist, dann wird nach Beendigung nicht wieder auf das zuvor eingestellte Lüfterprofil gewechselt und teilweise verbleiben die Lüfter in den hohen RPM Bereichen, wie unter 1. Dieser Punkt ärgert mich am meisten und wahrscheinlich werde ich dazu noch einen eigenen Thread (Hilfegesuch) starten. Mir ist jetzt schon 2x BF5 abgeschmiert ... ich vermute aufgrund eines noch instabilen Under Voltings (dazu später mehr). Beim ersten Mal habe ich noch keinen Zusammenhang gesehen, aber jetzt beim zweiten Mal ist ein Trend erkennbar. Nachdem das OS aus dem Crash neu gebootet hat, kann ich im Command Center die Module "Übertakten" und "Thermo" nicht mehr anwählen. Ich sehe lediglich die Ladekreise. Nach einer kurzen Weile meldet sich das CC und behauptet, dass für das OC-Modul noch Komponenten heruntergeladen werden müssen. Dass diese aber bereits installiert sind, zeigt sich, dass man diese nach dem Herunterladen nur "Deinstallieren" anstatt "Installieren" kann. Eine Neuinstallation des gesamten Command Centers inkl. penibler Säuberung sämtlicher Verzeichnisse ist nicht zielführend! Keine Ahnung ob es daran lag, aber nach der Reparatur der Microsoft C++ Redistributable, war das CC wieder funktionstüchtig ... bis zum 2. Crash. Alienware Graphics Amplifier Ein nicht unerheblicher Grund weshalb das m15 R4 den Weg überhaupt zu mir gefunden hat, ist der weiterhin verbaute AGA Port. Da ich den AGA und meine darin befindliche RTX 2070 weiter nutzen wollte, war das ein wichtiges Kriterium und vor dem Hintergrund, dass der AGA bereits EOL ist, gar nicht so gewiss. Ich gehe mal davon aus, dass er nur deshalb noch existiert, weil das R4 keine grundlegend neue Architektur besitzt und es noch viele AGAs da draußen gibt. Bei einem Generationenwechsel wird er aber wahrscheinlich wegrationalisiert werden. Die Inbetriebnahme gestaltet sich extrem unkompliziert. Anstecken, booten, fertig. Die notwendigen Treiber stecken bereits im Command Center und es wird keine weitere Softwarekomponente benötigt. Neben diesem Unterschied zu meinem vorherigen AW 15 R1 werden nun auch alle !3 GPUs betrieben. D.h. man kann, sofern es die Software ermöglicht, auswählen, welche GPU zur Ausführung kommen soll. In den Einstellungen von Red Dead Redemption 2 kann ich z.B. festlegen ob die Intel GPU, die mobile RTX 3070 oder die externe RTX 2070 zum Zuge kommen "darf". Wenn man keine Auswahl treffen kann, ist die externe GPU im AGA immer das winning System. Den End-of-Life Status des AGAs merkt man z.B. daran, dass man im AlienFX des CC diesen gar nicht mehr vorfindet und er leider keinen beleuchteten Alienhead mehr hat. Alles andere, wie die USB-Hub Funktion sind aber weiterhin funktionell. Performance Für die meisten von euch folgt nun höchstwahrscheinlich der spannendste Part des Berichts. Nämlich objektive Fakten zur Leistungsbewertung der Konfig. Ich werde mich in diesem Teil mit Worten zurückhalten und die Werte für sich sprechen lassen. Sicherlich werden wir im Nachgang darüber diskutieren und ich gehe davon aus, dass die gezeigten Benchmarks und Logs nicht die Letzten bleiben werden. Für maximale Transparenz befinden sich in der Anlage die originalen Logfiles mit allen getrackten Werten aus den BF5 Sessions. Der Laptop steht auf einem Notebookständer und wird von allen Seiten gut belüftet. WLP ist out of the box. TimeSpy - RTX 3070 mobile (Steam Demo Version) Out of the Box (Dell Treiber 27.21.14.5765, A00, kein UV) Link: https://www.3dmark.com/3dm/58775068? Dell GPU Treiber 27.21.14.5773, A01 CPU:-100mv UV Link: https://www.3dmark.com/3dm/58776170? TimeSpy - RTX 2070 AGA (Steam Demo Version) nVidia Treiber 461.72 CPU:-130mv UV Link: https://www.3dmark.com/3dm/58896678? Battlefield 5 Ich habe je eine große Runde (ca. 1h am Stück) "Operation Underground" auf einem vollen 64er Server gespielt. Einmal mit der mobilen RTX 3070 und einmal mit der RTX 2070 im AGA. Die Game-Settings sind so eingestellt, dass sie für beide GPUs 60 FPS (vsync on) erreicht werden. D.h. Auflösung 2048x1152, Preset Ultra und RTX on (Mittel), DLSS off (für die Auflösung nicht verfügbar). Ich Dussel habe leider vergessen die HWinfo Übersicht abzufotografieren. Deshalb folgen "erstmal nur" einige Diagramme ausgewählter Eigenschaften. Mit den Logs anbei kann man aber wie gesagt alles einsehen. RTX 3070 mobile, CPU -130mv Ab Minute ~33 ist eine deutliche Veränderung erkennbar. Ganz sicher bin ich mir nicht, wie das zu interpretieren ist, aber folgendes kann ich sagen. Mir ist aufgefallen, dass ab ca. Mitte der Runde der Alienhead (Powerbutton) angefangen hat zu pulsieren. Also der Indikator für den Ladevorgang des Akkus. Also hat sich der Alien auch am Akku bedient und nach Rundenende war der Akku nur noch zu 95% gefüllt. Weiterhin hat sich das Spielgeschehen verändert. Die erste Hälfte der Runde hat ausschließlich auf dem Bahnhofsvorplatz, also draußen, abgespielt und später hat es sich in die Tunnel verlagert. Zu keinem Zeitpunkt habe ich einen Leistungsabfall im Spiel registriert. RTX 2070 AGA, CPU -130mv Die Kurven des AGA Szenarios sind einfacher zu deuten. Der "Einbruch" bei Minute 7 ist nichts anderes als ein Rundenneubeginn. Zwischenfazit Das m15 R4 hat mich unterm Strich definitiv positiv überrascht. Man merkt die 6 Jahre zu meinem vorherigen AW 15 R1 besonders CPU-seitig. In Spielen wie BF5 konnte die RTX 2070 im AGA ihr Potential einfach nicht ausnutzen. Das wird ganz deutlich und allein vor diesem Hintergrund ist der m15 R4 für mich schon ein würdiger Nachfolger. In meinen vorangestellten Kapiteln habe ich mich gar nicht großartig über die Lüftercharakteristik ausgelassen (wenn wir von den Command Center Eigenarten mal absehen). Das liegt zum einen daran, dass mich das Thema nicht sonderlich triggert und zum anderen finde ich die erzeugten Geräusche nicht unangenehm. Keine Ahnung ob das m15 R4 von dem Pfeifen der m17 R4 nicht betroffen ist, oder ob ich einfach ein anderes Empfinden habe, aber für mich rauscht es einfach nur dahin ... ohne Pfeifen. Und weil ich weiß das hier viele darauf Wert legen, möchte ich noch bemerken, dass während ich diesen nicht enden wollenden Beitrag verfasse, die Lüfter nur sporadisch auf kleiner Stufe anliefen. Leider kann ich aber aufgrund des o.g. Sachverhalts gegenwärtig nicht sagen in welchem Lüfterprofil ich momentan unterwegs bin. Es ist schon bemerkenswert wieviel Leistung man heute aus einem so kleinen Gerät rauspressen kann. Genauso krass finde ich, wie besser die mobile RTX 3070 gegenüber der Desktop RTX 2070 im AGA performt - unabhängig davon, dass der AGA gewisse Leistungsverluste mit sich bringt. Nach aktuellem Stand wird das m15 R4 bei mir bleiben dürfen. Ich gehe davon aus, dass die Probleme mit dem Command Center noch näher eingegrenzt werden können und dann hoffentlich in einer Problembeseitigen münden. Letztendlich wäre es aber auch verdammt schwierig sich von dem geilen Display wieder verabschieden zu müssen! In diesem Sinne, danke fürs Durchlesen bf5_3070.CSV bf5_2070.CSV
    5 Punkte
  32. Wie ich es bereits an der ein oder andere Stelle angedeutet habe, habe ich mir ein neues System gebaut. Die Möglichkeit hat sich ergeben, da mein Arbeitskollege auf der Suche nach einem neuen PC war und mir entsprechend noch ein gutes Angebot für mein altes System gemacht hat. Eigentlich war geplant, dass ich mir alle Teile wieder direkt neu zusammenkaufe. Zufälligerweise entdeckte ich bei der GPU-Suche aber ein Komplettsystem, was zu 80% die Teile verbaut hatte, die ich neu kaufen wollte. Nach etlichen Telefonaten und Kalkulationen entschied ich mich dann für das Komplettsystem (nur 3 Wochen alt) und holte es ab. Anschließend verbrachte ich zwei Abende in meiner Werkstatt und machte das neue System nach meinen Vorstellungen fertig, zumindest so weit ich das konnte. Verbaut wurde Folgendes: Case: Phanteks Eclipse P500A D-RGB Board: Gigabyte X570 Aorus Master CPU: AMD Ryzen 7 5800X GPU: XFX RX 6900XT Mer 319 BLACK RAM: 4x 8GB G.Skill Neo (Sam B-Die) SSD: 2x Samsung 980 Pro (PCIe 4.0) Cooler: NZXT Kraken Z63 AIO PSU: Corsair AX850 (Titanium) Zubehör: schwarz gesleevte Kabel etc. Monitor: MSI Optix MAG27QRF-QD (165Hz IPS) (bestellt) Hier mal ein Vergleich der neuen GPU mit der alten: Die MSI war ja schon mit einer der größten damals, aber die XFX ist noch mal einen Tick länger und schwerer. Die Verarbeitung der Karte ist absolut Top. Rahmen, Frontcover, Backplate etc. ist alles aus Metall. Sieht und fühlt sich alles sehr hochwertig an. Hier mal einige Fotos vom Zusammenbau: Kabelmanagement darf natürlich auch nicht fehlen. So schaut das System am Tag aus: (wenn der PC aus ist) und so bei Nacht, wenn er an ist: Natürlich habe ich schon das ein oder andere umgebastelt, aber dazu äußere ich mich im Detail dann in einem anderen Beitrag. Ich bin aber noch lange nicht fertig. Einiges ist bereits bestellt und unterwegs. Dann zu den Benchmarks.... Ehrlich gesagt, habe ich noch nicht wirklich viel getestet und ausprobiert. Diese ganze AMD Sache ist für mich noch ein wenig neu und ich muss entsprechend viel Zeit investieren, um das optimale Setting zu finden. Zumindest habe ich jetzt mal einen Firestrike und Timespy Run gemacht. Anfangs natürlich Stock und jetzt mit bisschen UV und OC, wobei der Unterschied jetzt nicht so wirklich groß ausfällt. CPU läuft undervoltet mit dem Curve-Optimizier bei einem Offset von -19 und +50 MHz. GPU lief bisschen im OC. +100 Takt + 50 Mem. Gut möglich, dass mein Setting noch nicht wirklich gut ist. Daher nur vorläufige Ergebnisse: P.S.: GPU genehmigt sich maximal 330w mit PL +15%. Sonst sind's mein ich 280w. Takt läuft irgendwo bei 2.600 Mhz, hab die Karte aber noch nicht ausgefahren. Time Spy Link: http://www.3dmark.com/spy/19225522 Firestrike Link: http://www.3dmark.com/fs/25206276
    5 Punkte
  33. @pitha1337 mit diesen Worten kann ich mich zu 100% identifizieren. Eventuell ist es nicht ganz fair, weil ich mich auf das Spiel nur aus den technischen Gesichtspunkten RTX und DLSS heraus eingelassen habe und diese mich neugierig gemacht haben. Vor allem wollte ich einen Vergleich zu BF5, wo diese beiden Punkte überhaupt nicht überzeugen konnten. Leider muss ich gestehen, dass auch Cyberpunk dem Hype hier nicht gerecht wird. Unabhängig davon das mir das (futuristische) Setting nicht wirklich zusagt, bin ich von der Grafik nicht sonderlich begeistert. Mein Setup (RTX2070 im AGA) erlaubt mir nicht die höchsten Einstellungen, aber ich denke ich kann es dennoch ganz gut einschätzen. Insbesondere wenn man die vielen YouTube Videos dagegen hält, wo auf jedes noch so kleine Detail eingegangen wird. Teilweise fällt es mir echt schwer dort überhaupt qualitative Unterschiede auszumachen ... und das soll man dann auch noch im hektischen Spielbetrieb registrieren, bzw. von profitieren. Ich glaube die einzigen die hier profitieren sind nVidia und Co. die diese Technik gut zu vermarkten wissen. Aber zurück zum Spiel. Ich habe einen Charakter vom Typ "Konzerner" erstellt, weil es mir von den Beschreibungen her als geringstes Übel erschien. Keine Ahnung wie es bei einer anderen Wahl ausgesehen hätte, aber ich hatte große Mühen mich in die Story und alles herum einzufinden. Irgendwie war mir alles zu überladen und überfrachtet. Aber das Spiel muss seinem Namen ja irgendwo gerecht werden ^^. Jedenfalls habe ich die Flinte nicht gleich ins Korn geworfen und "tapfer" weitergespielt ... nicht zuletzt euren Ausführungen hier wegen . Mittlerweile komme ich ganz gut zurecht, auch wenn ich immer mehr davon überzeugt bin, dass man sich bei den vielen Waffen bei Borderlands die ein oder andere Inspiration geholt hat. Ich muss @einsteinchen dahingehend recht geben, dass es Wert ist auch auf die Nebenmissionen zu blicken. Die Delamain Taxi Quests sind echt toll und auch der Handlungsstrang mit Panam gefällt mir soweit ganz gut. Irgendwie geht es an vielen Stellen aber auch schon wieder ein Stückweit zu schnell. Man lernt Charaktere erst unmittelbar vor einer Quest kennen und ist im Anschluss der dickste Buddy. Oder "Wildfremde" rufen einen aus dem Nichts heraus an und gewähren einem direkten Zugang zu ihren privatesten Umfeld/Inneres. Andere Spiele machen das auch häufig so, aber hier fällt mir das besonders stark auf. Das angesprochene The Last of Us ist da eine ganz andere Hausnummer. Der Vergleich mag etwas hinken, da anderes Genre und Setting. Aber es zeigt wie ein Computerspiel fesseln kann. Ich habe beide Teile nicht spielen können, da ich keine Konsole besitze, aber selbst als Let's-Play-Zuschauer konnte es in den Bann ziehen. Ich hoffe die geplante Serie versaut es nicht, auch wenn das Potential dazu existiert ^^ Anyway, ich werde Cyberpunk auch zu Ende spielen und mal schauen ob mich das Ende motivieren kann noch alternative Wege auszuprobieren. Der große Fan werde ich aber nicht werden.
    5 Punkte
  34. Du hast ja einen echt guten Durchlauf an neuen Grafikkarten. Ich will dich von deinem Vorhaben nicht abbringen, aber käme eine 3080Ti für dich nicht in Frage? Auf welcher Auflösung spielst du eigentlich? @Silentfan, sehe ich genau so. Benchen am PC finde ich etwas langweilig, zumindest unter normalen (nicht-LN2) Bedinungen. Man schraubt ein paar Regler hoch, schmeißt die Kühlung an und guckt wie man durch den Benchmark kommt. Zumal die Benchmarkdaten der GPUs nahezu alle bekannt sind und mit OC, selbst unter Wasser, nicht all zu viel zu holen ist. Verstehe auch nicht wie man sich über 5% Mehrleistung bei 100w+ freuen kann... Für mich macht das Optimieren, Under-/Downvolten da deutlich mehr Spass und ist aus meiner Sicht auch viel interessanter. Aktuell finde ich RAM übertakten/ optimieren wohl noch ganz interessant, da man hier für ein gutes Setting teilweise sehr lange braucht. Hab mein 4x 8GB Kit auf 4.133 Mhz bei etwas strafferen Timings CL16-17-17-32 laufen. Hatte vorher auch 4.266 MHz bei CL17-17-17-34 laufen, hatte jedoch hin und wieder Fehler (wahrscheinlich VDDR zu niedrig). Die Samsung B-Die's machen wirklich Spaß und haben sehr viel Headroom. Falls da einer mitmachen möchte, meine OC-Werte sehen wie folgt aus: Ist an sich nichts besonderes, einfach ein leicht optimiertes Setting für daily usage. OC-technsich geht da noch deutlich mehr. Wie wir alle wissen, bringt mehr RGB auch mehr FPS. Also habe ich die Feiertage und das schlechte Wetter genutzt und analog zur Weihnachtsbaumbeleuchtung, die RGB-Belechtung im Gehäuse erweitert. So schaut das ganze aus:
    5 Punkte
  35. Puuh, weiß nicht. Vielleicht Skalierung oder so. Wie sieht's mit'm anderen Browser aus? Ich baue ja häufiger PCs zusammen und kenne daher das ganze Namens-Chaos von USB. Orientiere dich nicht so stark dran, was die Hersteller für Bezeichnungen ihrer I/O Panels geben, die sind nämlich auch nicht immer richtig. Ist aber eigentlich egal, weil sind eh alles die gleichen Kabel, die ins Mainboard münden. Wichtiger ist welche Anschlüsse dein Mainboard bietet. Ich vermute mal, dass du USB 3.1 Typ C Gen. 2 meinst. (...was für'n Name). Ist halt der schnellste Anschluss für USB am Front-Panel und bei heutigen Gehäuse Standard. Ja gut, zum einen kann der Fuma2 nicht wirklich laut^^ und zum anderen hast du ein relativ geschlossenes Case. Das fängt schon ein wenig Schall ab, wobei deine eingesetzten Lüfter und das alles bis zu einem gewissen Grad auch leise bleibt. Sind halt keine Blower-Fans oder so ein Blödsinn drin. Kleiner Tipp: Falls du mal ein Repaste machst, dreh den Fuma besser um. Er ist mit seinen gegenläufigen Lüftern und den Heatsink-Lamellen für die andere Strömungsrichtung konzipiert. Gut möglich, dass er dann effektiver kühlt. Das stimmt. Viel zu teuer von Corsair die Dinger. Wenn du Premium möchtest, bestellst du eh bei Cable-Mod passend in deinen Farben, Längen und für dein Netzteil oder du nimmst die Alternativen von Amazon und Co. (Alternative1, Alternative2). Hab ich auch schon öfter gemacht und sind von der Qualität voll in Ordnung. Musst halt gucken welches Sleeve-Material (PET oder Paracord) du möchtest. Da kann ich dir 4 Sachen hierfür wärmsten empfehlen. Hat sich bei mir bislang wunderbar bewährt. - Kabelschlauch groß - Kabelschlauch klein - Kabelbox - Klettbänder So sieht das ganze dann bei mir aus: Dann fang ich mal mit meiner Bude an, auch wenn die Fotos nicht mehr ganz so aktuell sind. Komponentenliste: Case: BeQuiet Dark Base Pro 900 Rev.2 Mainboard: Gigabyte Z390 Aorus Master CPU: Intel Core i9-9900KS CPU-Kühler: BeQuiet Dark Rock Pro 4 (inkl. 2 NF-A12)* GPU: MSI RTX 2080 Super Gaming X Trio GPU Mount: CableMod Vertical GPU Bracket RAM: 4x 8GB G.Skill Ripjaws V (Samsung B-Die) PCIe m.2 SSD: 3x Samsung 970 Evo+ 500GB SATA SSD: 2x Samsung 860 Evo 500GB PSU: Seasonic Focus Gold 80+ 750w Air-Intake: 3x BeQuiet Silent Wings3 140mm PWM* Air-Exhaust: 1x BeQuiet Silent Wings3 140mm Highspeed PWM Extra: Gesleevte Kabelverlängerungen* Extra: Cooler Master 24-Pin ATX 90° Grad Adapter Monitor1: Gigabyte Aorus AD27QD (2560 x 1440p) 144Hz Monitor2: Dell P2720D (2560 x 1440p) Monitorständer: Dell MDS19 Tastatur: Alienware AW768 + Palmrest AW168 Maus: Logitech M720 Sound: Bose Companion 50 Headset: Logitech G935 (Wireless) Stuhl: Noblechairs EPIC & ICON * Teile wurden mittlerweile geändert Wahl der Komponenten: Mit dem Setup bin ich vollstens zufrieden, auch wenn ich mittlerweile einiges geändert habe und auch noch einiges in Planung ist, dazu aber gleich mehr. Das Aorus Master bot zu dem damaligen Zeitpunkt in der Preisklasse (280 - 320€) die beste Option für mich. 3x m.2 PCIe SSD, stärkstes VRM-Layout, beste VRM Kühlung, Dual Bios, Cmos-Button, 8x Fan/ Pumpe Anschlüsse, verstärkte Stromschlüsse und und und. Da Z390 Chipsatz, kam dementsprechend nur Intel in Frage. Logischerweise konnte ich in ein High-End Board keine Mittelklasse-CPU reinstecken. Also kam vorerst ein 9900K rein. Da man mit so einem Mainboard gefühlt unendlich Möglichkeiten hat, die Spannung seiner CPU einzustellen, kam schnell der Wunsch auf, eine selektierte CPU haben zu möchten damit ich vom Strom her deutlich weiter runter gehen kann. Also kaufte ich mir den KS, der natürlich auch für OC besser eignet. Strom- und damit temperaturtechnisch ging hier dann noch mal deutlich was. Ich betreibe meine CPU mit dem Minimum an Strom, den ich zum Zocken brauche. Prime95 überlebt er mit der Einstellung nicht, aber bei Prime ist die Last ist so oder so unrealistisch hoch (Gaming). Ich weiß, viele testen mit Prime95 und wollen ein absolut stabiles System und betreiben ihr System dauerhaft mit der Spannung, die den Worst-Case überlegt. Ich habe hierfür einfach ein zweites Setting, was ich während des laufenden Betrieb einstellen kann. Wenn's mal ein Bluescreen gibt, drehe ich 0,05mV auf und spiel weiter. Bislang hält aber der Sweetspot noch ganz gut durch. Ich glaub, dieses Jahr noch kein Mal abgestürzt. Für's Video rendern reicht's jedoch nicht ganz. Hintergrund der Geschichte ist: weniger Strom --> weniger Abwärme --> leiseres System. So sehen die Temperaturen nach 2h Spielzeit (AC Odyssey) mit dem Setting und dem Dark Rock aus: Als GPU hatte ich zunächst die Gigabyte RTX 2080 Aorus, da ich bereits mit dem Mainboard und dem Monitor gute Erfahrungen mit Gigabyte gemacht hatte. Jedoch habe ich diese Karte relativ schnell zurückgeschickt. Aufgrund der, im Vergleich zu den anderen, kleinen Größe war die Passiv-Kühlleistung nicht so dolle und die Kühlleistung allgemein nicht so. Also gab ich sie zurück und bestellte mir im Austausch die MSI Gaming X Trio, die so ziemlich die größte 2080 ist. Mit der bin ich "super" zufrieden, weil sie auch im Gaming-Betrieb sehr leise ist. Außerdem gefällt sie mir optisch sehr gut. Einziger Nachteil, bei so einer großen Karte kann die vertikale Ausrichtung mit einem großen Luftkühler schnell kollidieren. Also mit'm Noctua NH-D15 passt es so nicht. Updates: Seit letzter Woche ist nach langem hin und her nun auch eine AIO in mein Case eingezogen. Zum Einsatz kommt die NZXT Kraken Z63. Ich betreibe den Radiator in einer Pull-Push Konfiguration mit zwei Actic P14 Lüfter als Push und zwei Silent Wings 3 als Pull. Den Stecker der AIO habe ich etwas umgemodelt, weil mir dort zu viel Kabel dran waren. Außerdem waren sie nicht gesleevt. Zusätzlich habe ich mir auch Stecker für die GPU gebastelt damit man keine Kabel mehr sieht. Die gesleevten Kabel habe auch ausgetauscht. Hier mal einige Bilder: Die Kühlleistung ist mit der AIO ziemlich beachtlich und dabei flüsterleise. Also die neue Asetek Pumpe ist wirklich ein Traum, hätte ich nicht gedacht. Als Temperaturvergleich habe ich momentan nur Werte von Ghost Recon Breakpoint. Da ich bei dem Spiel im GPU-Limit hocke, pendelt sich die CPU in meinem Setup bei rund 60w im Durchschnitt ein. Mit meinem gemoddeten Dark Rock Pro 4 hatte ich hier im Durchschnitt 50-52°C. Jetzt mit der Z63 sind es 40-42°C. Temperaturen 1h Ghost Recon Breakpoint Luftkühler: Temperaturen 1h Ghost Recon Breakpoint AIO: Die NZXT Z63 AIO kann ich daher absolut empfehlen und mit 6 Jahren Garantie braucht man sich auch keine Gedanken zu machen. Einziger Wermutstropfen, sie ist mit dem Display fast 100€ teurer als das Vorgängermodell, die X63. Jedoch muss ich zugeben, wenn man einmal das Display live gesehen hat und die ganzen Animationen und was damit alles geht, kommt schnell der "will haben" Wunsch auf. Ich bereue den Kauf nicht, eher im Gegenteil. Geplante Updates: Da mein System auf Augenhöhe steht, ist die Optik bei mir ein wichtiger Punkt und wenn irgendwas nicht passt, juckt es mir direkt in den Fingern. Daher werden demnächst die beiden 8-Pin CPU Stecker noch gegen schwarz geschleevtes Kabel getauscht und in die Decke kommt eine Carbonplatte rein. Puuh, ziemlich langer Beitrag sorry, aber so habe ich alles in einem Beitrag.
    5 Punkte
  36. Hallo AW- Community, ich kann es kaum glauben. Mein letzter Beitrag war ziemlich genau vor einem Jahr... wie die Zeit verfliegt! Mein Projekt war eine ganze weile auf Eis gelegen. Unnötig aufzuzählen was alles los war. Es war viel Vor einiger Zeit habe ich endlich mein Projekt weitergeführt. Ein Arbeitskollege (ähnliches Bastlerherz wie ich, jedoch mit mehr Übung) und ich haben uns hingesetzt und es einfach mal gemacht. Zuerst erkläre ich mal was ich gemacht habe und dann kommen Bilder mit Beschreibungen dazu: Mein Plan war es die Wärmeübertragung zwischen Heatspreader und Heatpipe zu verbessern. Ebenso die Übertragung von Heatpipe auf die Kühleinheit. Die kleine Fläche mit der die Heatpipes angebracht sind waren in meinen Augen einfach nicht optimal gelöst. Mehr Metall muss da doch die Lösung sein?! Quasi die Heatpipes ringsherum in Lot betten, damit die Wärmeübertragung besser funktioniert. Nur wie? Nach vielen Recherchen und den tollen Tipps aus der Community, dann einen Plan aufgestellt: - Flüssiglötzinn besorgen, welches bei niedriger Temperatur reagiert (~170 °C) und das ganze mit einer art Spritze in die Lücken zwischen Heatpipes und Heatspreader/Kühleinheit aufbringen - Mein Arbeitskollege hatte noch einen alten Backofen im Keller rumstehen, der durch die Chemikalien nicht versaut werden kann. (Hier nochmal vielen Dank Daniel! ) - Heatsink ausgebaut und auf ein Backblech gelegt. Mal vorheizen auf 130 °C und dann anfangen 😋 (das war um rund 15 Uhr und nach Hause gefahren bin ich gegen 4 Uhr Nachts 🤓) Nun die Bilderstrecke: Bevor wir angefangen haben wollte ich den IST Stand festhalten. Mittlerweile weiß ich, dass man es anders macht mit HWinfo usw. Aber naja. Furmark und CPU-Z 100% Belastung auf CPU und GPU laufen lassen. Dabei 4,0 GHz auf alle Kerne bei -0,120 V UV. Lüfter laufen auf Performance Mode per BIOS. Laptop stand ohne Erhöhung o.ä. auf der Tischoberfläche. Die Roten Markierungen zeigen an, an welchen stellen das Flüssiglötzinn eingebracht werden sollte. Falls es jemanden interessiert wie LM nach über einem Jahr in einem AW 15R3 aussieht = Flüssig LM typische silberfarbene Verfärbung des Kupfers. Aber nicht schlimm. Vor dem Auftragen musste erst noch der schwarze Lack ab. Mit klassischem Werkzeug kommt man da nicht weit. Die Lösung war dann Dremel mit Schleifpapierrolle und ein Stück Federstahl (wer das nicht kennt, krasses Zeug. Damit ging es am besten) Man sieht die Kupferfarbenen Stellen, an denen ich mit dem Federstahl zwischen den Heatpipes gearbeitet habe. So sah es dann zum Schluss aus Auch der Dremel war eine enorme Hilfe Mit dieser Spritze habe ich das Material dann eingebracht Vor dem ganzen natürlich noch mit Zahnbürste und Isopropanol gereinigt. Ab gehts in den Ofen Erste Ladung einbringen Muss man gut schütteln das Zeug Kleiner Bilderbreak. Ab hier ging es dann bei 130 °C in den Ofen (kontrolliert durch Thermometer für den Grill) Und die Herausforderung begann 💥 Das Lötzeug vom Hersteller der Heatsink ist dermaßen Niedrigtemperatur, dass sich bei 130 °C fast alle Lötstellen gelöst hatten. Egal ob verschobene Heatpipes, Heatspreader, Kühlfinnen etc etc. Ich war kurz sprachlos und dachte: Jetzt ist das Teil im A**** (Eimer) 🤯 Naja, zum Glück war ich nicht alleine und mit viel Zeit, Geduld, Improvisationstalent, zwei Heißluftpistolen und Zeit und Geduld (ich wiederhole das mit Absicht, weil es so wichtig war) haben wir uns an die Arbeit gemacht und jede Heatpipe und jedes kleine Teil an die Richtige Position zu bringen, zu erwärmen und somit wieder zu reparieren... ich sag euch wir hatten viel zu tun... Bilderstrecke die 2. Das Ziel nicht aus den Augen verlieren: Lötzinn mit aufbringen und das Projekt beenden! Das Silberfarbene ist das Fertig verarbeitete Lötzinn. PS: Das Zeug dampft aus und spritzt teilweise! Höchste Vorsicht beim Nachmachen! (Falls jemand sich das antun will) Nach wirklich etlichen Stunden war es vollbracht... Darauf haben wir uns erstmal einen Drink genehmigt... abkühlen musste das ganze ja auch noch 🙂 Nach dem Reinigen und neuen auftragen von LM und WLPads wurde das gute Stück wieder eingebaut und getestet. (Nicht sehr ausführlich, aber das hatten wir ja schon) 100 % GPU und CPU Last, 4,0 GHz auf alle Kerne -0,120 V UV, Lüfter auf Max, Stand auf dem Tisch ohne Erhöhung etc. RESULTAT: Exakt die gleichen Temperaturen 🤬 Das Einzige was sich verändert hat ist, dass die Lüfter nicht mehr so Sprunghaft sind und die Temperatur eher schnell steigt, als sprunghaft auf 90 °C zu sein. Also ist die Kühlung vielleicht etwas träger geworden, da mehr Metall im Kühlapparat steckt. Ein Bild vom eingebauten Zustand bin ich euch noch schuldig... das reiche ich euch nach, wenn ich den Mod von @Sk0b0ld (Heatsink mit Passiven Kühlkörpern versehen und SSD + Chipsatz) durchführe. Alles in allem war es natürlich eine wahnsinnig aufregende Zeit von den ersten Hirngespinsten, bis Recherche, Materialsuche, wie mache ich das? und endlich mal MACHEN! Negative Spätfolgen kann ich bis jetzt keine Berichten. Mein AW läuft so seit Mitte April 2020 und hat nie zicken gemacht. Das einzige was mich nervt ist das Powerlimit der GPU, aber das ist ein anderes Thema... Ich hoffe mein Artikel war unterhaltsam und ich konnte einigen Leuten ein paar Flöhe in den Kopf setzen (aber bitte lernt aus meinen Schwierigkeiten! LG, chriskup
    5 Punkte
  37. Wie immer, falls ihr es selber macht, ist das ganze alles auf eigenes Risiko. Ich übernehme keine Haftung oder Verantwortung. Vielmehr dient der Thread als Hilfestellung und Wissenserweiterung. Detaillierte Informationen zu den Sicherheitsbestimmungen findet ihr im Service-Manual Area 51m oder auf der Dell Homepage. Da ich nun schon öfter das Vergnügen hatte den Area51m zu repasten und wir hier im Forum noch kein offiziellen Repaste-Guide haben, wollte ich die Chance ergreifen und einige wichtige Informationen zum Repaste beim Area 51m zusammentragen. Dieser Repaste-Guide ist kein offizieller Guide, der vorschreibt wie man was zu machen hat, sondern zeigt eine Möglichkeit auf wie man so einen Repaste durchführen kann und zählt Empfehlungen auf, die auf meinen Repaste-Erfahrungen beruhen. Wie man den Repaste am Ende selbst an seinem eigenem Gerät durchführt, bleibt jedem selbst überlassen. Noch eine Anmerkung zur Vorgehensweise/ Darstellung im Repaste-Teil. An einigen Stellen werde ich Bilder teils doppelt posten. Ich möchte damit einfach mehrere Eindrücke und Sichtweisen von dem Repaste vermitteln und was einem im Detail erwartet. Es folgen auch einige Detailbilder wie beispielsweise von den Lüftern oder der GPU. So das man sich in dem Guide auch einige Bauteile in Ruhe angucken kann. 1. Das richtige Werkzeug Ohne gescheites Werkzeug sollte man so einen Repaste erst gar nicht anfangen. Meine Empfehlung für das passende Werkzeug ist wie immer das: Schraubendreher-Set von HAMA und iFixit Tool-Kit Das Schraubendreher-Set von Hama ist dahingehend zu empfehlen, weil es lange Bits hat, welche das iFixit-Tool-Kit leider nicht besitzt. Diese langen Bits erleichtern vor allem bei tiefen Löchern die Demontage, aber auch so hat man mit langen Bits mehr im Blick, da man nicht so viel vom PCB verdeckt. Ich empfehle auch, egal welcher Schraubendreher, immer einen Magneten an den Schraubendreher zu stecken. So bleiben die Schrauben immer schön am Schraubendreher. Bei mir schaut das wie folgt aus: 2. Die richtige Vorbereitung Mit ein paar kleinen Tricks kann man sich das Leben deutlich einfacher machen und Fehler vorbeugen. So wäre beispielsweise der Punkt der Organisation/ Sortierung zu erwähnen. Gerade wenn man noch nicht so viel Erfahrung hat, können einem die vielen unterschiedlichen Schrauben schnell durcheinander bringen oder man vergisst schnell mal eine. Eine sehr einfache Methode ist, die Schrauben vorher passend abzulegen und gegebenenfalls zu beschriften. Bei Notebooks, die ich nicht regelmäßig repaste sieht das wie folgt aus: Die Schale ist der Deckel aus dem iFixit-Toolkit, den ich beschriftet habe. Zusammen mit der Liste ist das praktisch idiotensicher. Ein weiterer Fehler, der durchaus in der Vorbereitung passieren kann, ist die richtige bzw. ausreichende Menge an Wärmeleitpaste da zu haben. CPU IHS und GPU DIE sind nicht gerade klein (beim Area 51m) und wenn man z. B. Kryonaut mit 1 Gramm kauft, kann das möglicherweise zu wenig sein und es gibt nicht schlimmeres als auf halben Wege des Repastes festzustellen, dass einem die WLP nicht reicht. Hier mal ein Vergleichsbild von zwei neu gekauften WLPs: (Kryonaut 1g vs. Noctua 3,5g) Insbesondere wenn man WLP-Tuben hat, wo man den Inhalt nicht sehen kann, ist das eine Überlegung in der Vorbereitung wert. Weitere selbstverständliche Punkte wie eine weiche Unterlage für das Notebook oder eine gute Ausleuchtung erwähne ich jetzt nicht extra. 3. Demontage-Hinweise Bei der Demontage orientiere ich mich an dem Service-Manual (Link ganz oben in der Beschreibung) und meiner Erfahrung. Ich empfehle immer nur die Schrauben, die Stecker, die Bauteile zu lösen, die essentiell nötig sind und den Repaste durchzuführen, auch wenn das Service-Manual an der ein oder anderen Stelle eine andere Vorgehensweise empfiehlt. Wenn man meint seine HDD, RAM oder CMOS-Batterie ausbauen zu müssen, muss man ggfs. damit rechnen, dass das Notebook nach dem Repaste evtl. zicken macht. Zu erwähnen wäre da z.B. CMOS-Batterie ab = BIOS Reset, Arbeitsspeicher raus = Meldung im ePSA beim ersten booten. Ist kein zwingendes Muss, aber auch nicht auszuschließen. Stecker lösen ist auch ein wichtiges Thema. Dell empfiehlt hier an der Lasche bzw. dem Kabel selber zu ziehen, um das Kabel aus dem Stecker herauszulösen (außer Flachbandkabel). Ich empfehle es keineswegs. Besonders dann nicht, wenn die Kabel viele kleine Litzen haben. Einmal falsch gezogen und schon hat man so ein Kabel schnell beschädigt und selber reparieren ist nahe zu unmöglich, da es einfach viel zu klein ist. Daher gleich das Risiko vermeiden und immer versuchen direkt am Stecker zu ziehen. Meistens haben die an den äußeren Enden kleine Verbreiterungen an dem den Stecker hochziehen kann. Ein weiterer leicht unterschätzter Punkt ist das Arbeiten mit Pinzette und anderen metallischen Werkzeugen. Nach Möglichkeit immer, da wo man kann, Plastik-Tools oder Finger(nägel) benutzen. Metall leitet sehr gut und ist vergleichsweise hart. Wenn man platinen-nah arbeitet und abrutscht ist es zumindest nicht ausgeschlossen, dass man sein Notebook dabei beschädigt. Entweder, weil man sich mit dem harten Metallwerkzeug Kondis oder andere SMD-Bauteile runterreißt oder durch das Metall einen Kurzschluss auf dem PCB verursacht. Selbst nach einem Powerdrain kann man nie 100%ig sicher sein, dass alle Kondensatoren vollständig entladen sind. Ich würde das Risiko nicht als sonderlich hoch einstufen, trotzdem verfahre ich hier nach der gleichen Empfehlung wie bei dem Lösen der nur notwendigen Schrauben. Einfach jedes Risiko, jedes Potential für Fehler, von vornherein, so minimal wie möglich halten. Dann hat man schon mal eine solide Basis für ein erfolgreichen Repaste. Als letzten Punkt wollte ich noch eine Sache erwähnen, die eigentlich völlig logisch erscheint, aber doch schnell mal falsch gemacht werden kann. Normalerweise (zu 95%) lässt sich jedes Bautteil ohne viel Widerstand herausnehmen. Wenn es das nicht tut, ist die Wahrscheinlichkeit hoch, dass vielleicht doch noch ein Kabel oder eine Schraube vergessen wurde. Deshalb immer ganz sachte versuchen das Bauteil zu entfernen. Sobald irgendwas klemmt oder schwer geht, lieber noch mal abchecken, ob auch wirklich alles ab ist. Lieber einmal zu viel nachschauen als zu wenig. 4. Demontage Los geht's wie immer der Bodenplatte. Laptop umdrehen, Schrauben lösen und Bodenplatte entnehmen. Die Schrauben besitzen einen Sicherungsring und verbleiben in der Bodenplatte. Dell empfiehlt hier jedesmal so ein fetten Platikkeil zu nehmen. Deutlich schonender sind die blauben Plastik-Clips aus dem iFixit-Toolkit. Gerade die Haltenase in dem schwarz-glänzenden Rahmen halten kaum Belastung aus. Mit dem flachen Plastik-Clip macht man sich in der Regel nie die Klammern kaputt und auch die Demontage ist damit einfacher. Im nächsten Schritt wird immer als erster der Stromstecker der Batterie [1] entfernt. Im selben Zuge kann man ihn auch gleich komplett ausbauen [2] + [3]. Zusätzlich kann hier schon den HDD Stecker lösen oder auch später mit den anderen Kabeln. Anschließend folgen beide m.2 SSDs [1] + [2] + [3] Nächster Schritt ist der Ausbau der Rear I/O Abdeckung [4]. Dazu die gezeigten Schrauben inkl. der beiden Schrauben [3] auf der Rückseite lösen + das Tron-Light Kabel [1]. Diese Abdeckung kann etwas schwieriger beim ersten Mal abgehen. Am einfachsten geht sie ab, wenn man die Abdeckung durch den Spalt (blauer Pfeil) mit dem langen Plastik-Tool leicht heraus hebelt. Der Spalt ist genau dafür vorgesehen. Nun folgt die Wi-Fi Karte [1] und und das Tobii-Eyetracking Kabel [3]. Es ist nicht notwendig die Antennenkabeln von der Wi-Fi Karte zu trennen. Spätestens jetzt sollte man auch den HDD-Stecker [1] lösen, so wie alle anderen gezeigten Kabel und Stecker. Das Displaykabel [8] + [10] muss nicht zwingend komplett gelöst werden, dazu aber später mehr. Als nächstes kommt der Zwischenrahmen, der mit 14 + 1 Schrauben fixiert. +1 weil eine Schraube etwas länger ist und an einer ganz bestimmten Stelle sitzt. Falls man sich später nicht sicher ist, wo welche Schraube wieder rein gehört, so hat man als Hilfe auf dem Rahmen verschiedene Markierungen, die anzeigen welche Schraube an der Stelle die richtige ist. Es steht auch drauf wie viele Schrauben von welchen Typ rein müssen. In dem Fall Schraube M2.5, 14x L8 + 1x L12 (L = Länge) Als nächstes ist die Heatsink inkl. der Lüfter dran. Hierfür zuerst die Lüfterkabel [1] und -schrauben [2] entfernen. Anschließend folgen die Schrauben der Heatsink [3]. Ich empfehle dabei die Schrauben immer über Kreuz nach und nach zu lösen, so dass sich die Heatsink gleichmäßig anhebt. Selbiges gilt auch für den Zusammenbau später. Deswegen ist die Heatsink auch durchnumeriert. Es kommt dabei nicht exakt auf die vorgegebenen Zahlen an, sondern mehr auf die Methode, so dass man die Heatsink gleichmäßig aus- oder einbaut. Noch mal zum Displaykabel. Wie man hier unschwer erkennen kann, muss man es nicht zwingend entfernen um das Frame auszubauen. Wen das Kabel aber bei der Demontage stört, kann es natürlich ausbauen. Es ist nur ein optionaler Schritt, der weniger Arbeit benötigt um an's Ziel zu kommen. Gleiches auch für die WLAN-Karte und den Antennensteckern. Hat man alles richtig gemacht, sieht das ganze dann wie folgt aus: CPU und GPU macht man sauber und trägt die neue Wärmeleitpaste auf. Welche Technik (X, Dot, Blob etc.) man einsetzt um die Wärmeleitpaste aufzutragen, bleibt jedem selbst überlassen. Die Meinungen gehen in dem Thema zum Teil sehr weit auseinander. Grundsätzlich performen fast alle Techniken identisch, da der Anpressdruck das normalerweise regelt. Nur zu wenig WLP kann sich negativ auf die Kühlleistung äußern. Ich mache das meistens so, dass ich den gesamten IHS/ DIE mit einer dünnen Schicht bestreiche und in der Mitte noch einen winzigen Klecks dazu gebe. Dann kann ich relativ sicher sein, dass der gesamte Chip vollständigen Kontakt zur Heatsink hat. 5. Zusätzliches Thema Liquid Metal (LM). Auch ein Thema wo die Meinungen etwas auseinander gehen. Zur Kühlleistung will und kann ich mich hier im Detail nicht äußern, sondern will nur vollständigkeitshalber diesen Punkt mitaufführen, da ich das schon einige Male gemacht habe. Wenn man LM einsetzten möchte, dann empfehle ich das im Area 51m höchstens bei der GPU. Bei der CPU wäre mir das Risiko, dass es in den Sockel läuft, doch zu hoch. Außerdem weiß ich nicht wie das Metall des Verschlussmechanismus darauf reagiert, falls mal doch irgendwann Kontakt besteht. Bei der GPU kann man das mit den richtigen Mitteln relativ sicher einsetzten. Man braucht dafür nur Kaptonband und Auslaufschutz. Wichtig ist, dass man das Kaptonband sauber klebt. Am besten erst immer am DIE anlegen und mit leichten Druck (ohne Zug) andrücken. Anschließend kann man dann LM auftragen und eine dünne Schicht Auslaufschutz drum herum. Je nach dem wie die Lüfter aussehen, kann sich ein Blick in die Heatsink durchaus lohnen. Jedoch gibt's auch hier einige Punkte, die man beachten muss. Hier mal ein Beispiel: Man kann noch so gut versuchen von außen mit'm Staubsauger den Staub/ Dreck rauszukriegen, der Größtteil aber verbleibt leider in der Heatsink. Den kriegt man wirklich nur raus, wenn man die Heatsink öffnet. Die Lüfter werden mit drei winzigen Schrauben und schwarzen Mylar-Tape gehalten (pro Lüfter). Das Problem ist, sobald man das schwarze Mylar-Tape (siehe Bild): abzieht, klebt es nicht mehr. Als Ersatz nehme ich immer Aluminium Tape von 3M (Link), aber auch Kapton wäre möglich. Wenn die Lüfter relativ sauber aussehen, braucht man sich über den Punkt keine Gedanken machen. Zum Thema Wärmeleitpads kann ich mich nur bedingt äußern, da die Geräte, die ich bislang so hatte, noch relativ jung waren und die Pads immer gut aussahen. Im NBR-Forum gibt es einen Guide (Thermal Pad Guide), wo man sich verschiedene Informationen zu Pads ansehen kann. Falls man die Pads doch wechseln möchte, kann ein Blick in den Guide sicher nicht schaden. Was die verschiedenen Pads der Hersteller angeht, so hatte ich mich schon mal im Detail dazu geäußert (Wärmeleitpad-Vergleich). Ich empfehle immer die Pads von Arctic. Noch einige Bilder als Ergänzung. Abschließend wollte ich mich noch bei allen Usern bedanken, die bei mir waren und mir die Gelegenheit gegeben haben, hier für das Forum die passenden Bilder zu machen. Ich hoffe, ich konnte mit dem Beitrag dem ein oder anderen helfen und wünsche euch viel Spaß und Erfolg bei dem Repaste. ✌️
    5 Punkte
  38. Also bisher habe ich nix zu meckern. Kurz mal ein Game gestartet um die Lüfter zu checken (Hogwarts Legacy), zumindest klingen sie sauber - also kein pfeifen oder klackern oder so. Sie laden aber auch dazu ein, Kopfhörer zu tragen 🤣 Verarbeitung und erster Eindruck beim auspacken ist ja eh einfach mal nur richtig gut 😊 Den externen aw-Bildschirm habe ich noch nicht angeschlossen (noch nicht mal aufgestellt…), schaue jetzt erst mal nach Updates, installiere steam etc … und hoffe ich bleibe verschont von bösen Überraschungen 😅
    4 Punkte
  39. Hab meins bekommen und er bleibt. Übertakten im Bios ist freigeschaltet. Das SFF Netzteil ist dabei. AWCC lässt mich Custom Einstellungen machen Undervolt wird angezeigt aber funktioniert mit dem CC (auf den ersten Blick nicht) nicht. Ist aber eigentlich bei allen mit aktuellem Bios so. XTU oder TS habe ich noch nicht probiert. Ich bekomme im Custom Mode CB über 30k und im Balanced Mode 28xxx. Da sind die Maxtemps bei 90 und der Lüfter nicht störend. Das ist eh mein Standartmodus. Time Spy im balanced ist bei knapp 19k. Die Tests sind für euch eh nicht aussagekräftig da ich nur eine 4080 habe und meine ganzen Programme schon installiert sind. Vom Virenscanner angefangen, über VPN bis zur Citrix Workbench. Fühlt sich deutlich wertiger an als mein 17R5 oder das alte 18ner. Ich bin sehr zufrieden.
    4 Punkte
  40. Die sind Super leise. Nur der kleine Lüfter, der die Ram kühlt fiept ab und zu. Auch unter Vollast, man hört nur ein dumpfes Rauschen. Also das ist echt gut. Ja, das bekommt eigentlich jeder hin. Falls nicht, hast du hier lauter nette Leute die dir helfen
    4 Punkte
  41. Nächste Woche ist auf meinem Hobbykonto hoffentlich Ebbe weil ich endlich ein m18 bestellen konnte 😂
    4 Punkte
  42. Meinen A51mR2 behalte ich eigentlich nur aus dem Grund das er noch kompromisslos auf Performance getrimmt ist. Es ist das letzte echte DTR. Ich glaube nicht das Dell den kompromisslosen Weg gehen wird. Ich tippe: - 13900HX mit hohem Powerlimit - 4080Ti mit 175w - Unified Heatsink ohne echte Vapor Chamber und zu schwach ausgelegte Kühlung so das 150w GPU und 60w CPU unter Last gleichzeitig das Limit sein werden und damit die Hohen Powerlimits witzlos Gehäuse zu dünn für vernünftige Lüfter und damit wieder Hochfrequente Störgeräusche - schöne dünne Ränder das die 18 Zoll eher einen Footprint von früheren 17 Zoll haben. - wie immer schickes Design - frecher Preis (5k+ Liste) Ich freue mich über jeden Punkt wo ich falsch liege
    4 Punkte
  43. Das hatte ich bei den Repaste-Geräten (gerade die AW17 R4 und R5) damals immer wieder. Folgende Möglichkeiten haben bei mir immer gut funktioniert: - Kleinen Schlitzschrauben leicht in den verdrehten Schraubenkopf gehämmert und dann gelöst. Ich habe dafür einen länglich gehärteten Bit, den ich am Schleifgerät extra dafür gebaut habe, der sich schön im Schraubenkopf verkantet. MMn mit der beste Tipp. - Mit passendem Werkzeug einen Schlitz reinsägen, dremeln, schleifen etc. Damit man mit einem normalen Schlitzschraubendrehen wieder drehen kann. Das Problem ist, dass sobald man Material von der Schraube entfernt, die Wahrscheinlich deutlich ansteigt, dass man den Kopf noch weiter kaputt macht oder ganz abreißt. Man muss schon sehr genau aufpassen, wie viel Material man runternimmt. - Von außen mit ner Zange packen und drehen. Ist eine Möglichkeit, die funktionieren kann, aber auch hier ist die Gefahr hoch, dass der Kopf abreißt und man die Schraube noch weiter kaputt macht. - Rausbohren und neues (ggfs ein Nummer größeres) Gewinde schneiden. Solche Arbeiten über'n PCB würde ich nur noch als letzte Möglichkeit in Erwägung ziehen. Auch hier besteht die Gefahr, dass man das Gewinde völlig kaputt macht.
    4 Punkte
  44. So, da ich nicht weiß, wann das Acer Helios 500 mit 12gen und UHD Mini LED 120 Hz HDR1000 Panel in DE verfügbar wird, hatte ich nun mal eins mit 11gen und FHD-Display bestellt. Hier meine Erkenntnisse: tolle rauschige Lüfter (locker Area 51m Niveau) im Modus "Leise" fällt die CPU nach einiger Zeit auf 25w oder ähnlich zurück. Also ähnlich wie beim MSI GE76 (30w). Das ist nicht zu gebrauchen mit einem Netzteil (es hat zwei) fällt man IMMER in den Modus "Standard" zurück. Man kann den Modus nur wechseln, wenn man beide angesteckt hat. Der Leise-Modus wäre also eh sinnfrei mit einem Netzteil im Modus "Standard" fällt die CPU nach einiger Zeit auf 55w zurück (PL2 109w PL1 55w). Aber selbst 45w reichen (im Gegensatz zu 25-30w) jedoch völlig, vorallem mit der 12gen. Dies weiß ich durch den Test des 12700h im Razer. Dieses konnte man ja mit 45w nur sehr laut betreiben. Jaja, es ist viel dünner... 45w beim 12700H waren ja schneller als 75w beim 10900k mit 4,5 GHz all core in FarCry 6. Und mehr Punkte in Benchmarks usw. gibts auch. Die 12gen ist schon ne Wucht, klar. Unterm Strich würde ich also mit 45w (und vorallem mit 55w) und der 12gen noch schneller sein, als mit meinem bisherigen 10900k bei deutlich mehr Watt Die GPU wird im Standard-Modus auf ca. 130w begrenzt. Das reicht jedoch für mich völlig, da ich ja wert auf ein leises Notebook lege und entsprechend undervolte. Selbst bei heftigen Games liegen noch 750-800mv und entsprechend viel Takt an. Bei Cyberpunk 2077 können auch über 800mv anliegen, damit die 130w volllaufen Problem ist im ersten Moment natürlich, dass der Standard-Modus ja logischerweise lauter wird als der Leise-Modus. ABER: Acer bietet eine Custom-Lüftersteuerung, ich habe damit beide Lüfter auf angenehme 1800rpm gestellt und unter anderem CP2077 lange damit getestet. Resultat: kein Eingriff der EC-Firmware, die Lüfter bleiben auf den eingestellten 1800rpm. Es findet also lediglich thermisches Drosseln statt, sofern man übertreibt bzw. zu wenig Lüfter-rpm wählt. "PredatorSense", das Konfigurations-Programm von Acer, merkt sich (wichtigerweise) das zuletzt gewählte Profil. Mein Custom-Lüfterprofil ist somit auch nach Windows Neustart oder Ausschalten noch da. Kleiner Wermutstropfen: es gibt keine Möglichkeit eine Lüfter-Kurve zu bauen. Das bedeutet natürlich, dass die eingestellten 1800rpm jetzt immer anliegen. Für das zweite Koop-Notebook für meine Frau egal, das ist sonst aus. Für mich nicht egal, ich muss entweder manuell switchen (das Programm ist schlank und schnell) oder ich muss mir ein Script bauen, was das Profil wechselt, wenn z.B. die Load der NVIDIA-GPU hochgeht. Sollte aber am Ende nicht das große Problem sein Die CPU bei rund 50w liegt bei rund 76-82 Grad und die GPU bleibt noch gut unter 80 Grad. Bei wie gesagt 1800rpm. GPU war hierbei auf 800mv beschränkt, hätte sich aber auch ohne Beschränkung ja nur ca. 10 Watt mehr genehmigen dürfen (wie gesagt gibt es ein ca. 130w Limit im Standard-Modus). Beide Chips haben bei dem CP2077-Test Vollgas gegeben, also ohne fps-limiter. Die Temperaturen wären also nochmal etwas geringer, da ich ja mit fps-cap spiele. Ich finde sie für ein Notebook schon gut gut. Bei Witcher 3 oder so (wenig CPU-Verbrauch) wäre die Temperatur auch geringer, GPU etwa gleich / minimal höher). Grundsätzlich lastet CP2077 ja CPU und auch GPU schon ziemlich gut aus, ist daher zum Testen ein gutes Spiel. Für mich bedeutet das auch, dass ich noch etwas runtergehen kann, auf wahrscheinlich so 1600-1700rpm, was nochmal deutlich leiser ist. Habe es gerade auf 1500rpm stehen, das ist so angenehm, dass es nicht mal stört, wenn es immer laufen würde. Mit etwas Hintergrundmusik oder mehreren Leuten im Büro geht’s unter. Aber ich werde sehr sicher irgendwie dafür sorgen (nur Software), dass er beim Arbeiten ganz leise ist und beim Zocken dann 1600-1700rpm nutzt. Das wird kein großes Problem sein. Dass man die Lüfter mit der Acer-Software steuern kann und nicht eingegriffen wird ist natürlich mega gut. Zusammen mit den rauschigen Lüftern wird das wohl mein neues Notebook. Genau dieses konkrete Helios 500 muss natürlich zurückgehen, weil ich ja das UHD Mini LED 120 Hz HDR1000 Panel möchte (und 12gen). Wegen VRR: Ich habe Vsync aus, und kein Tearing. VRR muss also definitiv laufen. Zusammengefasst bietet mir das Acer Helios 500 gegenüber meinem jetzigen Alienware Area 51m R2 folgende Vorteile: schnellere GPU samt HDMI 2.1 schnellere CPU trotz 55w max (max weil ich ja nur den Standard-Modus nutze) ein Netzteil ohne Mod etwas leichter (aber ähnlich korpulent, das MSI ist hier das Schlankeste) leiser Tastatur bzw. ganze Oberseite bleibt kühler UHD MiniLED 120 Hz HDR1000 Panel Was ist schlechter? Image / Coolness Verarbeitung / Materialwahl Support-Möglichkeiten Neutral: Tastatur An das MiniLED Display wird natürlich kein Alienware rankommen. Akku, Touchpad, Sound und Preis habe ich jetzt nicht verglichen, kann ich nicht beurteilen bzw. werde ich nicht beurteilen. Mir alles hier nicht wichtig, für entsprechend andere Zwecke habe ich mein Macbook. Fazit: Sobald es in DE mit 12gen und MiniLED verfügbar wird, werde ich es wohl zweimal bestellen. Wenn es mal irgendwann was gibt, wo alles oder noch mehr gleichzeitig stimmt, wird einfach wieder gewechselt…
    4 Punkte
  45. Ein kleines RGB und Lüfter upgrade hat mein PC bekommen
    4 Punkte
  46. Hier mal ein Retro Video. Fand das echt cool zu sehen und weckt ein wenig Nostalgie was mich an Alienware immer so beeindruckt hat:
    4 Punkte
  47. Hier mal unkommentiert die Bilder vom Repaste. Bisschen was fehlt weil ich keine Fotos mehr gemacht habe 🙈
    4 Punkte
  48. Mit BIOS Thematiken befasse ich mich ja gern 💪 Bei einem "TCC Offset" handelt es nicht um das klassische undervolten, wie wir das von TS kennen, sondern um eine Temperatursteuerung via TjMax (hatte das Thema im HWinfo-Thread mal angerissen) bzw. CPU-Temp Target. TCC steht übrigens für "Thermal Control Circuit". Für's undervolten brauchen wir normalerweise aber was mit einem V (Voltage). Ist zwar ein wenig technisch, aber in der kleinen Dokumentation von Intel wird das TCC Offset erklärt -PDF (Intel Developer Kit)- Er gibt hier eine 15 ein. UV-technisch würde das so zunächst wenig Sinn machen. -015mV kann man sich sparen und für -150mV wäre die Skala zu grob. Weiter sagt er auch: ... "TCC offset will reduce maximum CPU temps but may also slightly reduce CPU performance in certain applications". Normales UV macht diesen "reduce performance"-Teil ebenfalls nicht. Was er da tatsächlich macht, er zieht die 15 von maximalen CPU-Temp Target ab. Das bedeutet, wäre das TjMax 100°C, drosselt die CPU nun bei 85°C und da wären wir wieder bei dem tollen Thema "Augenwischerei". Die Temp-Werte in HWinfo und AWCC sehen so sicherlich Spitze aus, aber auch nur, weil die CPU durch TCC gezwungen wird zu drosseln, wo noch keine roten Zahlen auftauchen. Ich hoffe, dass es verständlich ist. Sowas nervt mich immer. Es wird irgendein ein Feature angepriesen, der naive AW-Fanboy freut sich, dass AW irgendein nützliches Feature implementiert hat, aber in Wirklichkeit wird die Leistung durch dieses Feature einfach schon vorher reduziert. Er sagt: "...a lot of people online have asked for a solution and wie listen". Am A****, kein Mensch hat nach TCC gefragt. Die Leute wollten wieder die Möglichkeit haben zum Undervolten. MSI, Eluktronics usw. geben dem User (wieder) die Möglichkeit das selber zu entscheiden, nur AW muss hier wieder so ein Blödsinn machen.
    4 Punkte
  49. Deine CPU ist wahrscheinlich bei der 960 im AGA das schwächste Glied der Kette. Es handelt sich um eine 2-Kern und 4-Thread CPU mit 2,4GHz im Turboboost. Diese Leistung kann nicht mit heutigen Karten mithalten. Zudem ist bei deinem u (ultra) Prozessor die TDP mit 15W bemessen und die Powerlimits meist recht eng gehalten. Nur zum Vergleich: Ich habe in meinem 18er die (fast) stärkste mobile CPU der vierten Generation. Mein 4930mx hat 4-Kerne 8-Threads und taktet im Spiel mit 4,2GHz auf allen Kernen. Mit meinen beiden 980ms (wenn SLI gut unterstützt wird, vergleichbar mit einer 1070 mobile) ist die CPU trotzdem schon fast am Ende. Natürlich kommt es immer aufs Spiel an. Du wirst bestimmt in manchen Spielen einen Vorteil haben, wenn du dir z.B. eine 980 oder 1070 in den AGA baust. Aber meistens wird trotzdem die CPU das Problem sein. Mein Tipp: Da du wirtschaftlich bleiben willst, kannst du mal Ausschau nach einer günstigen (vielleicht gebrauchten) 970 oder 980 gucken. Alles was darüber hinaus geht wird denke ich meistens im CPU-Limit stecken und dir daher keinen Leistungsgewinn bringen. Solltest du ein Auge auf heutige AAA-Titel geworfen haben, so hilft wohl leider nur ein neues Gerät. Da du ja bereits einen AGA hast und falls du im mobilen Sektor bleiben willst, könntest du ja nach einem gebrauchten Alien Ausschau halten und dabei hauptsächlich auf eine starke CPU achten. Dann kann in den AGA auch eine 20xx Karte Einzug halten. Die werden ja bestimmt in den nächsten Wochen günstiger, sobald die 30xx Karten in größerer Stückzahl auf dem Markt sind.
    4 Punkte
  50. Hallo zusammen, es hat leider mal wieder lange gedauert aber ich habe jetzt die Zeit gefunden eine Bauanleitung zu verfassen. Eine Anleitung zum flashen der eigenen Lüfterkurve kommt auch noch. Tut mir Leid, dass alles nur kleckerweise kommt - aber ich denke ihr kennt alle das verfluchte Thema mit der Zeit. quanta costa? (Für die, die Interesse haben) Der Preis setzt sich zusammen, je nach dem was derjenige haben möchte. Daher hier eine Auflistung, was die einzelnen Teile kosten: (auf 50ct gerundet) Platine -> 2€ (sollten echt viele Interesse haben wird die günstiger) Mikrokontroller -> 2,50€ Oszyllator -> 1€ Widerstände und Kondensatoren (alle zusammen) -> 0,50€ Stiftleisten (Stecker auf der Platine) -> 0,50€ 4-Pin Lüfterstecker (mini) -> 0,50€ 4-Pin Lüfterbuchse (mini) -> 2€ (ja die sind echt so teuer) Temperatursensor -> 1€ Potentiometer -> je nach gewünschter Größe 0,50€ bis 3€ Also liegt der Preis für die Bauteile, je nach Konfiguration, bei ungefähr 7,50€ bis 18€. Diese Preise richten sich natürlich an die Bastler mit entsprechendem Werkzeug und Know-How. Diejenigen, die diese Platine lieber fertig zum Einbau hätten, können aber bei mir melden. Für eine kleine Aufwandentschädigung würde ich das auch machen. Meine restlichen Konstruktions- und Programmieraufwand lade ich kostenlos hier im Forum hoch. Zusammenbau U2 -> Mikrokontroller (auf die markierte Ecke achten) C... -> Kondensatoren (alles die gleichen) R... -> Widerstände (alles die gleichen) Überall wo ein Loch ist kommt ein Stift rein. Ich verweise auf die Bilder, die ich in einem vorherigen Post hochgeladen habe. Der Zusammenbau ist nicht wirklich schwer - nur sehr fummelig, da die Bauteile sehr klein sind. Besonders der Mikrokontroller ist schwierig. Es ist darauf zu achten, dass keins der Beinchen mit einem anderen verbunden ist und alle Pins Kontakt zum Pad darunter haben. Außerdem ist beim Oszyllator darauf zu auchten, dass man nicht das Gehäuse mit anlötet, sondern nur das Pad auf der Unterseite und die kleinen Kontakte in der Ecke. Die restlichen Bauteile sind dankbar zu löten, da man auf keine Polung oder sonstiges besonders achten muss. Mindestens benötigt man ein Lötgerät mit feiner Spitze. Im besten Falle eine Heißluftlötstation aber ich habe es ja auch ohne geschafft. Wenn man die kleinen 4-Pin Stecker zusammenbauen will, benötigt man eine Krimpzange mit einer sehr kleinen größe (glaube 0,14mm²) Anschluss Den Anschluss thematisiere ich hier nur platinenseitig. Es gibt einfach zu viele verschiedenen Anschlüsse und Normen in den Laptops, dass da jeder selber nachgucken muss. H1 -> Anschluss für das Potentiometer CPU, GPU_1, GPU_2 -> Anschlüsse für den jeweiligen Lüfter; 4-Pin Standardbelegung; Vom Rand der Platine gesehen ist immer der rechte Pin Ground (0V, "Minus") X1, X2, X3 -> Anschlüsse für die Sensoren (1 für CPU, 2 für GPU_1, 3 für GPU_2) JP1 -> ICSP-Programmieranschluss (+5V bei der Beschriftung) J1 -> Stromversorgung (Viereckige Anschluss ist für CPU-Lüfter und Mikrokontroller; rechts daneben ist für GPU_1; ganz rechts GPU_2; die drei darüber sind Ground) Das sieht erstmal recht wirr aus, aber wird verständlich sein, wenn man die Platine vor sich hat. Als nächstes: Ich werde zu diesem Thema noch zwei größere Updates machen. Einmal, wie schon angekündigt, eine Anleitung zum flashen. Ich arbeite momentan an einer Lösung, wie die Platine von jedem geflasht werden kann, OHNE dass man dafür Programmieren können muss. Also wieder eine Art Plug&Play... Außerdem das Ergebnis meines Langzeittest. Dazu kann ich jetzt schonmal sagen, dass besonders die Grafikkarten extrem profitiert haben. Aufgrund ihres großen Kühlers und dem trägen Verhalten funktioniert die Regelung perfekt. Die CPU ist leider (bisher) etwas unstetig, da der Kühler weniger Masse hat und damit sehr agil auf Temperaturänderungen reagiert. Dadurch ist der Lüfter im Teillastbereich etwas unruhig. Den größten Vorteil habe ich aber garnicht erwartet: Die Lüfter drehen schneller! Alle Lüfter drehen bei mir zwischen 100rpm und 300rpm schneller. Da ich mir das nicht erklären konnte, habe ich Messungen mit dem Oszilloskop vorgenommen und festgestellt, dass der Laptop bei maximaler Lüftergeschwindigkeit keine Gleichspannung am PWM-Pin anlegt. Das Signal ist immernoch leicht gepulst (geschätzte 95%). Der Mikrokontroller hingegen legen eine Gleichspannung an und erreicht damit die maximale Auslastung der Lüfter. Das macht sich tatsächlich bemerkbar. Nach zwei Stunden Red Dead Redemption 2 hatte früher die wärmste Grafikkarte 82°C (22°C Zimmer). Jetzt hatte ich maximal 78°C (22,5°C Zimmer). Mich würde wirklich mal interessieren, ob das bei anderen Laptops auch so ist mit dem PWM-Signal. Falls jemand ein Oszilloskop hat?!
    4 Punkte
Diese Rangliste nutzt Berlin/GMT+01:00 als Grundlage
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.